Artwork

เนื้อหาจัดทำโดย AI Sweden เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก AI Sweden หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

LeakPro skapar förutsättningar för samarbeten kring känslig data

37:43
 
แบ่งปัน
 

Manage episode 463698091 series 2908682
เนื้อหาจัดทำโดย AI Sweden เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก AI Sweden หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Johan Östman, forskare och projektledare på AI Sweden, berättar i det här avsnittet om projektet LeakPro. Ambitionen är att bättre förstå – och därmed också kunna förhålla sig till – risken för att modeller läcker träningsdata.

– Ska man i en mening beskriva vad vi försöker göra handlar det om att låsa upp samarbeten kring känslig data, säger han.

⁠LeakPro⁠ bygger vidare på slutsatser som drogs i ett tidigare AI Sweden-projekt. I Regulatory Pilot Testbed jobbade Region Halland och Sahlgrenska Universitetssjukhuset tillsammans med IMY och AI Sweden. Syftet var då att utforska hur federerad inlärning skulle kunna användas i sjukvården. Integritetsskyddsmyndigheten konstaterade att det inte gick att bedöma sannolikheten för att modeller, tränade på personuppgifter, läcker träningsdata. Som en konsekvens måste modellerna i sig betraktas som personuppgifter, och därför hanteras utifrån hur personuppgifter regleras.

I LeakPro är ambitionen att svara på den centrala frågan: Hur stor är sannolikheten för att en viss modell läcker träningsdata? De som jobbar för att hitta svaret är AstraZeneca, Region Halland, Sahlgrenska Universitetssjukhuset, Scaleout, Syndata, RISE och AI Sweden.

Känner man till sannolikheten för läckage öppnas två dörrar. Den ena gör det möjligt att fatta verksamhetsbeslut. “Är risken för att träningsdata läcker rimlig i förhållande till värdet som modellen kan skapa?” Den andra gör det möjligt för utvecklare att utvärdera sina modeller och utveckla dem vidare så att risken för läckage minskar till en acceptabel nivå.

– Det vi vill bygga är något som är relevant och användbart, och för att göra det måste vi ligga i frontlinjen av den akademiska forskningen, för att använda de skarpaste attackerna som finns, säger Johan Östman.

I poddavsnittet utvecklar han bakgrunden till projektet, hur samverkan mellan aktörer från olika sektorer stärker LeakPro, vad målbilden är, och hur resan dit ser ut.

  continue reading

71 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 463698091 series 2908682
เนื้อหาจัดทำโดย AI Sweden เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก AI Sweden หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Johan Östman, forskare och projektledare på AI Sweden, berättar i det här avsnittet om projektet LeakPro. Ambitionen är att bättre förstå – och därmed också kunna förhålla sig till – risken för att modeller läcker träningsdata.

– Ska man i en mening beskriva vad vi försöker göra handlar det om att låsa upp samarbeten kring känslig data, säger han.

⁠LeakPro⁠ bygger vidare på slutsatser som drogs i ett tidigare AI Sweden-projekt. I Regulatory Pilot Testbed jobbade Region Halland och Sahlgrenska Universitetssjukhuset tillsammans med IMY och AI Sweden. Syftet var då att utforska hur federerad inlärning skulle kunna användas i sjukvården. Integritetsskyddsmyndigheten konstaterade att det inte gick att bedöma sannolikheten för att modeller, tränade på personuppgifter, läcker träningsdata. Som en konsekvens måste modellerna i sig betraktas som personuppgifter, och därför hanteras utifrån hur personuppgifter regleras.

I LeakPro är ambitionen att svara på den centrala frågan: Hur stor är sannolikheten för att en viss modell läcker träningsdata? De som jobbar för att hitta svaret är AstraZeneca, Region Halland, Sahlgrenska Universitetssjukhuset, Scaleout, Syndata, RISE och AI Sweden.

Känner man till sannolikheten för läckage öppnas två dörrar. Den ena gör det möjligt att fatta verksamhetsbeslut. “Är risken för att träningsdata läcker rimlig i förhållande till värdet som modellen kan skapa?” Den andra gör det möjligt för utvecklare att utvärdera sina modeller och utveckla dem vidare så att risken för läckage minskar till en acceptabel nivå.

– Det vi vill bygga är något som är relevant och användbart, och för att göra det måste vi ligga i frontlinjen av den akademiska forskningen, för att använda de skarpaste attackerna som finns, säger Johan Östman.

I poddavsnittet utvecklar han bakgrunden till projektet, hur samverkan mellan aktörer från olika sektorer stärker LeakPro, vad målbilden är, och hur resan dit ser ut.

  continue reading

71 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน

ฟังรายการนี้ในขณะที่คุณสำรวจ
เล่น