Artwork

เนื้อหาจัดทำโดย NASK Państwowy Instytut Badawczy เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก NASK Państwowy Instytut Badawczy หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

O tropieniu nielegalnych obrazów

24:22
 
แบ่งปัน
 

Manage episode 321064493 series 2887484
เนื้อหาจัดทำโดย NASK Państwowy Instytut Badawczy เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก NASK Państwowy Instytut Badawczy หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Analizowanie nielegalnych, szkodliwych dla użytkownika filmów i zdjęć w Internecie wiąże się dla ekspertów z ogromnymi kosztami psychologicznymi i emocjonalnymi. Nie każdy może poradzić sobie z pracą, w której jest narażony na ciągły kontakt z brutalnymi scenami, zwłaszcza będącymi zapisem seksualnego wykorzystywania dzieci. Naukowcy w NASK wierzą, że może w tym pomóc sztuczna inteligencja. Algorytmy analizujące obrazy potrafią dziś już bardzo wiele. Czy będą mogły przejąć również zadanie klasyfikowania treści o charakterze pedofilskim? Posłuchaj rozmowy z Martyną Różycką i Weroniką Gutfeter.

  continue reading

7 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 321064493 series 2887484
เนื้อหาจัดทำโดย NASK Państwowy Instytut Badawczy เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก NASK Państwowy Instytut Badawczy หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Analizowanie nielegalnych, szkodliwych dla użytkownika filmów i zdjęć w Internecie wiąże się dla ekspertów z ogromnymi kosztami psychologicznymi i emocjonalnymi. Nie każdy może poradzić sobie z pracą, w której jest narażony na ciągły kontakt z brutalnymi scenami, zwłaszcza będącymi zapisem seksualnego wykorzystywania dzieci. Naukowcy w NASK wierzą, że może w tym pomóc sztuczna inteligencja. Algorytmy analizujące obrazy potrafią dziś już bardzo wiele. Czy będą mogły przejąć również zadanie klasyfikowania treści o charakterze pedofilskim? Posłuchaj rozmowy z Martyną Różycką i Weroniką Gutfeter.

  continue reading

7 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน