Artwork

เนื้อหาจัดทำโดย studioreticle@gmail.com and Stockdale Center - Michael Sears เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก studioreticle@gmail.com and Stockdale Center - Michael Sears หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

AI and the Alignment Challenge

15:32
 
แบ่งปัน
 

Manage episode 405756365 series 2993376
เนื้อหาจัดทำโดย studioreticle@gmail.com and Stockdale Center - Michael Sears เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก studioreticle@gmail.com and Stockdale Center - Michael Sears หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

We dive deep into the intricacies and ethical considerations of AI development, specifically focusing on OpenAI's Chat-GPT and GPT-4. Join us as we discuss how OpenAI approached the alignment problem, the impact of Human Aligned Reinforcement Learning, and the role of human raters in shaping Chat-GPT. We'll also revisit past AI mishaps like Microsoft's Tay and explore their influence on current AI models. The episode delves into OpenAI's efforts to address ethical concerns, the debate over universal human values in AI, and the diverse perspectives of users, developers, and society on AI technology. Lastly, we tackle the critical issue of employing workers from the global south for AI alignment, examining the ethical implications and the need for support. Tune in to uncover the complexities and breakthroughs in the evolving world of AI!

Dr. Joel Esposito. He is a Professor in the Robotics and Control Engineering Department at the Naval Academy. He teaches courses in Robotics, Unmanned Vehicles, Artificial Intelligence and Data Science. He is the recipient of the Naval Academy's Rauoff Award for Excellence in Engineering Education, and the 2015 Class of 1951 Faculty Research Excellence Award. He received both a Master of Science, and a Ph.D. from the University of Pennsylvania.

  continue reading

165 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 405756365 series 2993376
เนื้อหาจัดทำโดย studioreticle@gmail.com and Stockdale Center - Michael Sears เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก studioreticle@gmail.com and Stockdale Center - Michael Sears หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

We dive deep into the intricacies and ethical considerations of AI development, specifically focusing on OpenAI's Chat-GPT and GPT-4. Join us as we discuss how OpenAI approached the alignment problem, the impact of Human Aligned Reinforcement Learning, and the role of human raters in shaping Chat-GPT. We'll also revisit past AI mishaps like Microsoft's Tay and explore their influence on current AI models. The episode delves into OpenAI's efforts to address ethical concerns, the debate over universal human values in AI, and the diverse perspectives of users, developers, and society on AI technology. Lastly, we tackle the critical issue of employing workers from the global south for AI alignment, examining the ethical implications and the need for support. Tune in to uncover the complexities and breakthroughs in the evolving world of AI!

Dr. Joel Esposito. He is a Professor in the Robotics and Control Engineering Department at the Naval Academy. He teaches courses in Robotics, Unmanned Vehicles, Artificial Intelligence and Data Science. He is the recipient of the Naval Academy's Rauoff Award for Excellence in Engineering Education, and the 2015 Class of 1951 Faculty Research Excellence Award. He received both a Master of Science, and a Ph.D. from the University of Pennsylvania.

  continue reading

165 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน