Artwork

เนื้อหาจัดทำโดย Gavin Purcell and Kevin Pereira เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Gavin Purcell and Kevin Pereira หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

OpenAI's GPT-5 and Drama, Apple’s Black Box & Other Huge AI News

49:48
 
แบ่งปัน
 

Manage episode 421133234 series 3467500
เนื้อหาจัดทำโดย Gavin Purcell and Kevin Pereira เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Gavin Purcell and Kevin Pereira หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

PLEASE REVIEW US. WE NEED VALIDATION. OpenAI's new model is in training, but is it GPT-5 or GPT-6? Did Sam Altman lie to the board before he was fired? Former board member Helen Toner says so. Plus, Apple's "black box" AI might lead to an incredible announcement at WWDC.

THEN… OpenAI signs deals with VoxMedia and The Atlantic, GitHub's CEO talks about AI turning prompters into programmers, a visual reverse Turing test, and Gavin dives into Suno.ai 3.5, creating a children's TV show theme.

And we’re joined by AirFoil Studios’ Phil Hedayatnia, who redesigned AI For Humans, to discuss his inspirations, AI in design, and, of course, if AI will kill us all.

Last but not least, our AI co-host this week is “Safety Steve” who supposedly works for OpenAI but seems to have an entirely different idea of what AI safety really and truly is.

It’s a *real* good time.

For more info & contact, visit our website at https://www.aiforhumans.show/

Follow us on X @AIForHumansShow

Join our vibrant community on TikTok @aiforhumansshow

/// Show links ///

OpenAI Forms Safety & Security Committee (and announces next model training) https://openai.com/index/openai-board-forms-safety-and-security-committee/

NYT on new OpenAI model

https://www.nytimes.com/2024/05/28/technology/openai-gpt4-new-model.html

When Did Red-teaming Start?

https://x.com/kimmonismus/status/1795458986289869310

Helen Toner’s Interview on Ted AI

https://x.com/TEDTalks/status/1795532752520966364

OpenAI Deals with The Atlantic & Vox Media

https://www.axios.com/2024/05/29/atlantic-vox-media-openai-licensing-deal

Thomas Dohmke - GitHub CEO Ted Talk

https://x.com/TEDAI2024/status/1793725032851767612

Reverse Turing Experiment by Tore Knabe

https://www.youtube.com/watch?v=MxTWLm9vT_o

AI Assisted Game Design looks friggin’ awesome

https://x.com/evanqjones/status/1794055749603069987

Suno 3.5 (on site)

https://suno.com/

Udio

https://www.udio.com/

Phil’s Company

https://www.airfoil.studio/

  continue reading

84 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 421133234 series 3467500
เนื้อหาจัดทำโดย Gavin Purcell and Kevin Pereira เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Gavin Purcell and Kevin Pereira หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

PLEASE REVIEW US. WE NEED VALIDATION. OpenAI's new model is in training, but is it GPT-5 or GPT-6? Did Sam Altman lie to the board before he was fired? Former board member Helen Toner says so. Plus, Apple's "black box" AI might lead to an incredible announcement at WWDC.

THEN… OpenAI signs deals with VoxMedia and The Atlantic, GitHub's CEO talks about AI turning prompters into programmers, a visual reverse Turing test, and Gavin dives into Suno.ai 3.5, creating a children's TV show theme.

And we’re joined by AirFoil Studios’ Phil Hedayatnia, who redesigned AI For Humans, to discuss his inspirations, AI in design, and, of course, if AI will kill us all.

Last but not least, our AI co-host this week is “Safety Steve” who supposedly works for OpenAI but seems to have an entirely different idea of what AI safety really and truly is.

It’s a *real* good time.

For more info & contact, visit our website at https://www.aiforhumans.show/

Follow us on X @AIForHumansShow

Join our vibrant community on TikTok @aiforhumansshow

/// Show links ///

OpenAI Forms Safety & Security Committee (and announces next model training) https://openai.com/index/openai-board-forms-safety-and-security-committee/

NYT on new OpenAI model

https://www.nytimes.com/2024/05/28/technology/openai-gpt4-new-model.html

When Did Red-teaming Start?

https://x.com/kimmonismus/status/1795458986289869310

Helen Toner’s Interview on Ted AI

https://x.com/TEDTalks/status/1795532752520966364

OpenAI Deals with The Atlantic & Vox Media

https://www.axios.com/2024/05/29/atlantic-vox-media-openai-licensing-deal

Thomas Dohmke - GitHub CEO Ted Talk

https://x.com/TEDAI2024/status/1793725032851767612

Reverse Turing Experiment by Tore Knabe

https://www.youtube.com/watch?v=MxTWLm9vT_o

AI Assisted Game Design looks friggin’ awesome

https://x.com/evanqjones/status/1794055749603069987

Suno 3.5 (on site)

https://suno.com/

Udio

https://www.udio.com/

Phil’s Company

https://www.airfoil.studio/

  continue reading

84 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน