Artwork

เนื้อหาจัดทำโดย Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

'A Turning Point in History': Yuval Noah Harari on AI’s Cultural Takeover

1:30:41
 
แบ่งปัน
 

Manage episode 443937002 series 2503772
เนื้อหาจัดทำโดย Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Historian Yuval Noah Harari says that we are at a critical turning point. One in which AI’s ability to generate cultural artifacts threatens humanity’s role as the shapers of history. History will still go on, but will it be the story of people or, as he calls them, ‘alien AI agents’?

In this conversation with Aza Raskin, Harari discusses the historical struggles that emerge from new technology, humanity’s AI mistakes so far, and the immediate steps lawmakers can take right now to steer us towards a non-dystopian future.

This episode was recorded live at the Commonwealth Club World Affairs of California.

Your Undivided Attention is produced by the Center for Humane Technology. Follow us on Twitter: @HumaneTech_

RECOMMENDED MEDIA

NEXUS: A Brief History of Information Networks from the Stone Age to AI by Yuval Noah Harari

You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills: a New York Times op-ed from 2023, written by Yuval, Aza, and Tristan

The 2023 open letter calling for a pause in AI development of at least 6 months, signed by Yuval and Aza

Further reading on the Stanford Marshmallow Experiment Further reading on AlphaGo’s “move 37”

Further Reading on Social.AI

RECOMMENDED YUA EPISODES

This Moment in AI: How We Got Here and Where We’re Going

The Tech We Need for 21st Century Democracy with Divya Siddarth

Synthetic Humanity: AI & What’s At Stake

The AI Dilemma

Two Million Years in Two Hours: A Conversation with Yuval Noah Harari

  continue reading

124 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 443937002 series 2503772
เนื้อหาจัดทำโดย Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Historian Yuval Noah Harari says that we are at a critical turning point. One in which AI’s ability to generate cultural artifacts threatens humanity’s role as the shapers of history. History will still go on, but will it be the story of people or, as he calls them, ‘alien AI agents’?

In this conversation with Aza Raskin, Harari discusses the historical struggles that emerge from new technology, humanity’s AI mistakes so far, and the immediate steps lawmakers can take right now to steer us towards a non-dystopian future.

This episode was recorded live at the Commonwealth Club World Affairs of California.

Your Undivided Attention is produced by the Center for Humane Technology. Follow us on Twitter: @HumaneTech_

RECOMMENDED MEDIA

NEXUS: A Brief History of Information Networks from the Stone Age to AI by Yuval Noah Harari

You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills: a New York Times op-ed from 2023, written by Yuval, Aza, and Tristan

The 2023 open letter calling for a pause in AI development of at least 6 months, signed by Yuval and Aza

Further reading on the Stanford Marshmallow Experiment Further reading on AlphaGo’s “move 37”

Further Reading on Social.AI

RECOMMENDED YUA EPISODES

This Moment in AI: How We Got Here and Where We’re Going

The Tech We Need for 21st Century Democracy with Divya Siddarth

Synthetic Humanity: AI & What’s At Stake

The AI Dilemma

Two Million Years in Two Hours: A Conversation with Yuval Noah Harari

  continue reading

124 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน