This is the audio podcast version of Troy Hunt's weekly update video published here: https://www.troyhunt.com/tag/weekly-update/
…
continue reading
เนื้อหาจัดทำโดย Anton Chuvakin เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย Anton Chuvakin หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !
ออฟไลน์ด้วยแอป Player FM !
EP68 How We Attack AI? Learn More at Our RSA Panel!
MP3•หน้าโฮมของตอน
Manage episode 330814752 series 2892548
เนื้อหาจัดทำโดย Anton Chuvakin เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย Anton Chuvakin หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal
Guest:
- Nicholas Carlini, Research Scientist @ Google
Topics:
- What is your threat model for a large-scale AI system? How do you approach this problem? How do you rank the attacks?
- How do you judge if an attack is something to mitigate? How do you separate realistic from theoretical?
- Are there AI threats that were theoretical in 2020, but may become a daily occurrence in 2025?
- What are the threat-derived lessons for securing AI?
- Do we practice the same or different approaches for secure AI and reliable AI?
- How does relative lack of transparency in AI helps (or hurts?) attackers and defenders?
Resources:
170 ตอน
MP3•หน้าโฮมของตอน
Manage episode 330814752 series 2892548
เนื้อหาจัดทำโดย Anton Chuvakin เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย Anton Chuvakin หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal
Guest:
- Nicholas Carlini, Research Scientist @ Google
Topics:
- What is your threat model for a large-scale AI system? How do you approach this problem? How do you rank the attacks?
- How do you judge if an attack is something to mitigate? How do you separate realistic from theoretical?
- Are there AI threats that were theoretical in 2020, but may become a daily occurrence in 2025?
- What are the threat-derived lessons for securing AI?
- Do we practice the same or different approaches for secure AI and reliable AI?
- How does relative lack of transparency in AI helps (or hurts?) attackers and defenders?
Resources:
170 ตอน
All episodes
×ขอต้อนรับสู่ Player FM!
Player FM กำลังหาเว็บ