Artwork

เนื้อหาจัดทำโดย Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

Mensch vs. Maschine: Wer urteilt fairer? - Sam Goetjes

23:52
 
แบ่งปัน
 

Manage episode 518826122 series 3466870
เนื้อหาจัดทำโดย Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

บท

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 518826122 series 3466870
เนื้อหาจัดทำโดย Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

บท

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 ตอน

Alle Folgen

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน

ฟังรายการนี้ในขณะที่คุณสำรวจ
เล่น