Artwork

เนื้อหาจัดทำโดย chris kalaboukis and Chris kalaboukis เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก chris kalaboukis and Chris kalaboukis หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

1116 Building Trustworthy AI Agents

36:28
 
แบ่งปัน
 

Manage episode 515064950 series 2498424
เนื้อหาจัดทำโดย chris kalaboukis and Chris kalaboukis เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก chris kalaboukis and Chris kalaboukis หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

See more: https://thinkfuture.substack.comConnect with Ibby: https://www.linkedin.com/in/ibby/---Can AI actually be trusted to make decisions? In this episode of thinkfuture, host Chris Kalaboukis sits down with Ibby, founder of Cotera, a platform making it easier for non-technical people to build powerful AI agents that solve real-world problems—without the hallucinations.Cotera acts as a translation layer between business needs and technical AI capabilities, empowering teams to automate complex workflows safely and effectively. By using multiple AI models to cross-check outputs and a “tiebreaker” model to handle edge cases, Cotera ensures accuracy, reliability, and trust in automation.We explore:- How Cotera enables non-technical users to build their own AI agents- The company’s unique multi-model system to prevent hallucinations- Real-world applications in QA, fraud detection, and chatbot validation- Why critical thinking and creativity will define the future workforce- How education and job design must evolve for an AI-driven world- The balance between automation, human oversight, and trustIf you’re interested in AI safety, workflow automation, or the evolution of work, this episode offers a grounded and hopeful look at how we can make AI useful—without losing control.

  continue reading

1111 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 515064950 series 2498424
เนื้อหาจัดทำโดย chris kalaboukis and Chris kalaboukis เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก chris kalaboukis and Chris kalaboukis หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

See more: https://thinkfuture.substack.comConnect with Ibby: https://www.linkedin.com/in/ibby/---Can AI actually be trusted to make decisions? In this episode of thinkfuture, host Chris Kalaboukis sits down with Ibby, founder of Cotera, a platform making it easier for non-technical people to build powerful AI agents that solve real-world problems—without the hallucinations.Cotera acts as a translation layer between business needs and technical AI capabilities, empowering teams to automate complex workflows safely and effectively. By using multiple AI models to cross-check outputs and a “tiebreaker” model to handle edge cases, Cotera ensures accuracy, reliability, and trust in automation.We explore:- How Cotera enables non-technical users to build their own AI agents- The company’s unique multi-model system to prevent hallucinations- Real-world applications in QA, fraud detection, and chatbot validation- Why critical thinking and creativity will define the future workforce- How education and job design must evolve for an AI-driven world- The balance between automation, human oversight, and trustIf you’re interested in AI safety, workflow automation, or the evolution of work, this episode offers a grounded and hopeful look at how we can make AI useful—without losing control.

  continue reading

1111 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน

ฟังรายการนี้ในขณะที่คุณสำรวจ
เล่น