Artwork

เนื้อหาจัดทำโดย Carey Parker เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Carey Parker หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

On the Ethics of AI

1:08:08
 
แบ่งปัน
 

Manage episode 506439128 series 3037263
เนื้อหาจัดทำโดย Carey Parker เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Carey Parker หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Artificial Intelligence (AI) is the Big Tech buzzword of the day. Every company who wants investment (public or private) is scrambling to have an “AI story”, adding chatbots and ‘agentic’ features in their products wherever possible. The AI companies themselves are constantly expanding their models, ingesting as much data (including highly personal information) as possible. In this AI gold rush, companies are making flawed and often harmful products. Companies are firing workers and trying to replace them with AI bots. And it’s forcing us all to question what’s real, what has actual value, and what the impacts could and should be on society as a whole. Discussing deep questions like this is the purview of philosophers – and today I’ll be welcoming back someone uniquely and supremely qualified to address them, Carissa Véliz.

Interview Notes

Further Info

Table of Contents

  • 0:00:00: Intro
  • 0:05:09: What does “artifical intelligence” really mean?
  • 0:13:21: Should STEM degrees require ethics training?
  • 0:17:20: Does anthropomorphising AI undermine our discourse?
  • 0:22:35: What is the TESCREAL view of AI?
  • 0:28:09: Can we infuse AI tools with human morality?
  • 0:34:31: What are the dangers of training AI on copyrighted works?
  • 0:42:16: What happens when AI starts ingesting it’s own output?
  • 0:44:27: Can we make AI systems that are truly private?
  • 0:48:08: How should we assign liability for AI harms?
  • 0:51:06: Is AI eroding our ability to trust anything?
  • 0:54:06: What happens when AI obviates the need to work at all?
  • 1:00:00: How do we maximize the benefits and minimize the harms of AI?
  • 1:03:20: Interview wrap-up
  • 1:06:06: Patron podcast preview
  • 1:07:08: Looking ahead
  continue reading

400 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 506439128 series 3037263
เนื้อหาจัดทำโดย Carey Parker เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Carey Parker หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Artificial Intelligence (AI) is the Big Tech buzzword of the day. Every company who wants investment (public or private) is scrambling to have an “AI story”, adding chatbots and ‘agentic’ features in their products wherever possible. The AI companies themselves are constantly expanding their models, ingesting as much data (including highly personal information) as possible. In this AI gold rush, companies are making flawed and often harmful products. Companies are firing workers and trying to replace them with AI bots. And it’s forcing us all to question what’s real, what has actual value, and what the impacts could and should be on society as a whole. Discussing deep questions like this is the purview of philosophers – and today I’ll be welcoming back someone uniquely and supremely qualified to address them, Carissa Véliz.

Interview Notes

Further Info

Table of Contents

  • 0:00:00: Intro
  • 0:05:09: What does “artifical intelligence” really mean?
  • 0:13:21: Should STEM degrees require ethics training?
  • 0:17:20: Does anthropomorphising AI undermine our discourse?
  • 0:22:35: What is the TESCREAL view of AI?
  • 0:28:09: Can we infuse AI tools with human morality?
  • 0:34:31: What are the dangers of training AI on copyrighted works?
  • 0:42:16: What happens when AI starts ingesting it’s own output?
  • 0:44:27: Can we make AI systems that are truly private?
  • 0:48:08: How should we assign liability for AI harms?
  • 0:51:06: Is AI eroding our ability to trust anything?
  • 0:54:06: What happens when AI obviates the need to work at all?
  • 1:00:00: How do we maximize the benefits and minimize the harms of AI?
  • 1:03:20: Interview wrap-up
  • 1:06:06: Patron podcast preview
  • 1:07:08: Looking ahead
  continue reading

400 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน

ฟังรายการนี้ในขณะที่คุณสำรวจ
เล่น