Artwork

เนื้อหาจัดทำโดย HBR Presents / Brian Kenny เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย HBR Presents / Brian Kenny หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

A Lesson from Google: Can AI Bias be Monitored Internally?

25:10
 
แบ่งปัน
 

Manage episode 337151235 series 2500985
เนื้อหาจัดทำโดย HBR Presents / Brian Kenny เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย HBR Presents / Brian Kenny หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal

Dr. Timnit Gebru was the co-lead of Google’s Ethical AI research team – until she raised concerns about bias in the company’s large language models and was forced out in 2020.

Her departure sent shockwaves through the AI and tech community and raised fundamental questions about how companies safeguard against bias in their own AI. Should in-house ethics research continue to be led by researchers who best understand the technology, or must ethics and bias be monitored by more objective researchers who aren’t employed by companies?

Harvard Business School professor Tsedal Neeley discusses how companies can approach the problem of AI bias in her case, “Timnit Gebru: ‘SILENCED No More’ on AI Bias and The Harms of Large Language Models.”

  continue reading

230 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 337151235 series 2500985
เนื้อหาจัดทำโดย HBR Presents / Brian Kenny เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย HBR Presents / Brian Kenny หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal

Dr. Timnit Gebru was the co-lead of Google’s Ethical AI research team – until she raised concerns about bias in the company’s large language models and was forced out in 2020.

Her departure sent shockwaves through the AI and tech community and raised fundamental questions about how companies safeguard against bias in their own AI. Should in-house ethics research continue to be led by researchers who best understand the technology, or must ethics and bias be monitored by more objective researchers who aren’t employed by companies?

Harvard Business School professor Tsedal Neeley discusses how companies can approach the problem of AI bias in her case, “Timnit Gebru: ‘SILENCED No More’ on AI Bias and The Harms of Large Language Models.”

  continue reading

230 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน