Artwork

เนื้อหาจัดทำโดย Krista Software เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Krista Software หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

Understanding LLM Jailbreaking: How to Protect Your Generative AI Applications

23:03
 
แบ่งปัน
 

Manage episode 415707347 series 3435981
เนื้อหาจัดทำโดย Krista Software เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Krista Software หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Generative AI, with its ability to produce human-quality text, translate languages, and write different kinds of creative content, is changing the way people work. But just like any powerful technology, it's not without its vulnerabilities. In this podcast, we explore a specific threat—LLM jailbreaking—and offer guidance on how to protect your generative AI applications.

What is LLM Jailbreaking?

LLM vandalism refers to manipulating large language models (LLMs) to behave in unintended or harmful ways. These attacks can range from stealing the underlying model itself to injecting malicious prompts that trick the LLM into revealing sensitive information or generating harmful outputs.

More at krista.ai

  continue reading

41 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 415707347 series 3435981
เนื้อหาจัดทำโดย Krista Software เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Krista Software หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Generative AI, with its ability to produce human-quality text, translate languages, and write different kinds of creative content, is changing the way people work. But just like any powerful technology, it's not without its vulnerabilities. In this podcast, we explore a specific threat—LLM jailbreaking—and offer guidance on how to protect your generative AI applications.

What is LLM Jailbreaking?

LLM vandalism refers to manipulating large language models (LLMs) to behave in unintended or harmful ways. These attacks can range from stealing the underlying model itself to injecting malicious prompts that trick the LLM into revealing sensitive information or generating harmful outputs.

More at krista.ai

  continue reading

41 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน