Artwork

เนื้อหาจัดทำโดย Jeff Wilser เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Jeff Wilser หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

Why Does AI Hallucinate? Can It Be Fixed? w/ EyeLevel.AI CEO Neil Katz

1:08:35
 
แบ่งปัน
 

Manage episode 424656930 series 3503527
เนื้อหาจัดทำโดย Jeff Wilser เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Jeff Wilser หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

As most people who have played with AI know, it can make stuff up, or what’s often referred to as “hallucinate.” (I like to think of it as “bullshitting.”

It’s one of the trickiest problems vexing the entire AI space. Why does AI do this? How widespread is the problem? What are the solutions, and is it even something that CAN be solved?

To unravel all this, we speak with Neil Katz, the founder of EyeLevel.AI, a company that’s developing solutions to help make AI more accurate (and less likely to hallucinate) for private companies. They're building what they call the "truth serum" for AI,
We dive deeeeep into the world of AI hallucinations, as it's one of the least understood--and most important--topics in the space.
I very much enjoyed.
Find Neil and EyeLevel.AI at:
https://www.eyelevel.ai/

  continue reading

44 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 424656930 series 3503527
เนื้อหาจัดทำโดย Jeff Wilser เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Jeff Wilser หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

As most people who have played with AI know, it can make stuff up, or what’s often referred to as “hallucinate.” (I like to think of it as “bullshitting.”

It’s one of the trickiest problems vexing the entire AI space. Why does AI do this? How widespread is the problem? What are the solutions, and is it even something that CAN be solved?

To unravel all this, we speak with Neil Katz, the founder of EyeLevel.AI, a company that’s developing solutions to help make AI more accurate (and less likely to hallucinate) for private companies. They're building what they call the "truth serum" for AI,
We dive deeeeep into the world of AI hallucinations, as it's one of the least understood--and most important--topics in the space.
I very much enjoyed.
Find Neil and EyeLevel.AI at:
https://www.eyelevel.ai/

  continue reading

44 ตอน

Minden epizód

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน