Artwork

เนื้อหาจัดทำโดย Christoph Holz เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย Christoph Holz หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

#63 “Wie wäre es, wenn ich meiner KI moralische Fragen stellen könnte?” mit Sophie Jentzsch, wiss. Mitarbeiterin bei DLR

41:37
 
แบ่งปัน
 

Manage episode 334763241 series 2882452
เนื้อหาจัดทำโดย Christoph Holz เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย Christoph Holz หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal
Gedankenspiele als Trainingslager für eine gelungene Zukunft mit Christoph Holz

Inwiefern ist KI in der Lage, menschliche Dimensionen wie z.B. Moral, oder auch Humor zu lernen? Diese Frage ist sowohl aus wissenschaftlich/methodischer Sicht, als auch im Hinblick auf unsere Gesellschaft und die voranschreitende Digitalisierung hochinteressant. Tools wie die Moral Choice Machine sind dabei eng eingebettet in das Thema Biases in der KI und diskriminierende KI.

Sophie Jentzsch hat ihr Studium an der TU Darmstadt an den Fachbereichen Psychologie und Informatik absolviert. Dort entwickelte sie zusammen mit der AIML Gruppe die „Moral Choice Machine“ – Ein Tool, das einfache Verhaltensregeln automatisiert aus Texten lernt. Seit 2019 ist Sophie Doktorandin und wissenschaftliche Mitarbeiterin am Deutschen Zentrum für Luft- und Raumfahrt in Köln, wo sie mit Themen wie „Computational Humor“ oder „Biases in AI“ weiterhin an der Frage forscht, ob und wie implizite menschliche Dimensionen mit Methoden des Maschinellen Lernens erfasst werden können.

Mehr Infos unter: https://www.dlr.de/sc/desktopdefault.aspx/tabid-1177/

  continue reading

135 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 334763241 series 2882452
เนื้อหาจัดทำโดย Christoph Holz เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดเตรียมโดย Christoph Holz หรือพันธมิตรแพลตฟอร์มพอดแคสต์โดยตรง หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่อธิบายไว้ที่นี่ https://th.player.fm/legal
Gedankenspiele als Trainingslager für eine gelungene Zukunft mit Christoph Holz

Inwiefern ist KI in der Lage, menschliche Dimensionen wie z.B. Moral, oder auch Humor zu lernen? Diese Frage ist sowohl aus wissenschaftlich/methodischer Sicht, als auch im Hinblick auf unsere Gesellschaft und die voranschreitende Digitalisierung hochinteressant. Tools wie die Moral Choice Machine sind dabei eng eingebettet in das Thema Biases in der KI und diskriminierende KI.

Sophie Jentzsch hat ihr Studium an der TU Darmstadt an den Fachbereichen Psychologie und Informatik absolviert. Dort entwickelte sie zusammen mit der AIML Gruppe die „Moral Choice Machine“ – Ein Tool, das einfache Verhaltensregeln automatisiert aus Texten lernt. Seit 2019 ist Sophie Doktorandin und wissenschaftliche Mitarbeiterin am Deutschen Zentrum für Luft- und Raumfahrt in Köln, wo sie mit Themen wie „Computational Humor“ oder „Biases in AI“ weiterhin an der Frage forscht, ob und wie implizite menschliche Dimensionen mit Methoden des Maschinellen Lernens erfasst werden können.

Mehr Infos unter: https://www.dlr.de/sc/desktopdefault.aspx/tabid-1177/

  continue reading

135 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน