Artwork

เนื้อหาจัดทำโดย Silent Mode Cafe เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Silent Mode Cafe หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

AI Security Hits Fast-Forward

33:12
 
แบ่งปัน
 

Manage episode 520349185 series 3657354
เนื้อหาจัดทำโดย Silent Mode Cafe เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Silent Mode Cafe หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Send us a text

We unpack how AI shifts the security game, from state-backed use of agentic tools to prompt injections that hijack functions and bypass access. We also show how to control Gemini’s training access to your data and outline practical steps to harden AI stacks.
• Anthropic’s disclosure of state actor abuse of agentic AI
• MITRE ATT&CK at machine speed via spawned agents
• When hallucinations blunt attacks and when they don’t
• Prompt injection and second-order function hijacking
• ServiceNow agent exploitation and lessons for guardrails
• Supply chain risk in Ray and distributed AI frameworks
• Practical defenses for data, context, and tool scopes
• How to opt out of Gemini training via myactivity.google.com
• Why ethical AI and transparency build user trust
If you learn something new, share this episode, share it with your friends, share it with a friend. Always please give us a like, a follow
Support the show

  continue reading

บท

1. Cold Open: AI Attack Mindset (00:00:00)

2. Hosts Kick Off And Theme (00:00:38)

3. Google Gemini Data Opt-Out Debate (00:01:58)

4. Anthropic Flags State Actor Abuse (00:02:39)

5. How AI Supercharges The Attack Kill Chain (00:04:24)

6. Hallucinations As Accidental Defense (00:07:18)

7. Detection, Ethics, And Provider Guardrails (00:09:15)

8. Stuxnet Parallels And Lessons (00:11:24)

9. Supply Chain Risks And Backdoors (00:15:19)

10. Prompt Injection And Function Takeover (00:16:59)

11. Second-Order Prompt Injection On ServiceNow (00:19:38)

12. Models, Frameworks, And The Ray Vulnerability (00:22:31)

13. Resource Hijacking And “Kali For AI” (00:25:06)

14. Practical Guardrails: Data And Context (00:28:03)

15. Google’s MyActivity Walkthrough (00:29:31)

16. Takeaways And Ethical AI Trends (00:31:20)

17. Closing And Listener Ask (00:32:48)

22 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 520349185 series 3657354
เนื้อหาจัดทำโดย Silent Mode Cafe เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Silent Mode Cafe หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Send us a text

We unpack how AI shifts the security game, from state-backed use of agentic tools to prompt injections that hijack functions and bypass access. We also show how to control Gemini’s training access to your data and outline practical steps to harden AI stacks.
• Anthropic’s disclosure of state actor abuse of agentic AI
• MITRE ATT&CK at machine speed via spawned agents
• When hallucinations blunt attacks and when they don’t
• Prompt injection and second-order function hijacking
• ServiceNow agent exploitation and lessons for guardrails
• Supply chain risk in Ray and distributed AI frameworks
• Practical defenses for data, context, and tool scopes
• How to opt out of Gemini training via myactivity.google.com
• Why ethical AI and transparency build user trust
If you learn something new, share this episode, share it with your friends, share it with a friend. Always please give us a like, a follow
Support the show

  continue reading

บท

1. Cold Open: AI Attack Mindset (00:00:00)

2. Hosts Kick Off And Theme (00:00:38)

3. Google Gemini Data Opt-Out Debate (00:01:58)

4. Anthropic Flags State Actor Abuse (00:02:39)

5. How AI Supercharges The Attack Kill Chain (00:04:24)

6. Hallucinations As Accidental Defense (00:07:18)

7. Detection, Ethics, And Provider Guardrails (00:09:15)

8. Stuxnet Parallels And Lessons (00:11:24)

9. Supply Chain Risks And Backdoors (00:15:19)

10. Prompt Injection And Function Takeover (00:16:59)

11. Second-Order Prompt Injection On ServiceNow (00:19:38)

12. Models, Frameworks, And The Ray Vulnerability (00:22:31)

13. Resource Hijacking And “Kali For AI” (00:25:06)

14. Practical Guardrails: Data And Context (00:28:03)

15. Google’s MyActivity Walkthrough (00:29:31)

16. Takeaways And Ethical AI Trends (00:31:20)

17. Closing And Listener Ask (00:32:48)

22 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน

ฟังรายการนี้ในขณะที่คุณสำรวจ
เล่น