Artwork

Content provided by Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Player FM - Podcast App
Go offline with the Player FM app!

Faire, gute KI? - Marc Hauer, Tobias Krafft

23:26
 
Share
 

Manage episode 401890718 series 3466870
Content provided by Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
KI-Anwendungen auf gesellschaftliche Werte trainieren

"Wenn man sich die Fairness-Debatte rund um Künstliche Intelligenz mal anschaut, wurde in einem ganz spannenden Papier von Kleinberg festgestellt, das, was wir so objektiv Fairness nennen, sich teilweise widerspricht" - Marc Hauer, Tobias Krafft

Künstliche Intelligenz soll den Menschen unterstützen. Ob das nun in der Fabrik beim Schrauben zählen ist, oder ob sie dem Chefarzt bei einer komplizierten OP assistiert. Doch diese unterschiedlichen Einsatzbereiche haben enorm unterschiedliche Anforderungen an die KI. Die ethischen Grundsätze sind auch weltweit unterschiedlich. Also was heißt denn eigentlich Fairness? Und wo beginnt Diskriminierung und Gerechtigkeit? Die KI soll schon nach unseren Werten handeln, dafür muss sie trainiert werden- doch vorher muss man diese Werte definieren.

Marc Hauer ist wissenschaftlicher Mitarbeiter am Algorithm Accountability Lab der RPTU Kaiserslautern, spezialisiert auf die Gestaltung verantwortungsvoller KI-Systeme. Er leitet den DIN SPEC Arbeitskreis "Fairness von KI in Finanzdienstleistungen" und ist freiberuflich als Fachreferent und Berater im Bereich Algorithmen und KI tätig.

Tobias D. Krafft ist Doktorand im Bereich "Algorithm Accountability" an der TU Kaiserslautern und Geschäftsführer der Trusted AI GmbH, fokussiert auf Blackbox-Analysen und KI-Regulierung. Er leitet die DIN-Arbeitsgruppe „Ethik/Responsible AI“ und erhielt 2017 den Weizenbaumpreis für seine Forschungen im gesellschaftlichen Kontext von KI. Zudem engagiert er sich in der Gesellschaft für Informatik für den Studiengang Sozioinformatik.

Themen im Podcast:

  • Was heißt "faire KI" und wie misst man "fair"?
  • Tobias und Marcs Adaption des Assurance Case Framework auf das Testen von KI-Systemen
  • Richtlinien für die KI
  • Transparenz der Risikobewertungen
  • Was Marc und Tobias sich in der Zukunft wünschen

Kontakt zu Marc:

Kontakt zu Tobias:

Weitere, im Podcast erwähnte Links auf der Folgen-Website

Danke an die Community-Partner des Podcasts:

Credits:

  continue reading

Chapters

1. Willkommen (00:00:00)

2. Fairness in KI: Herausforderungen und Ansätze (00:01:03)

3. Assurance Case Framework für Fairness (00:05:15)

4. Die Bedeutung von Transparenz (00:16:26)

90 episodes

Artwork
iconShare
 
Manage episode 401890718 series 3466870
Content provided by Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
KI-Anwendungen auf gesellschaftliche Werte trainieren

"Wenn man sich die Fairness-Debatte rund um Künstliche Intelligenz mal anschaut, wurde in einem ganz spannenden Papier von Kleinberg festgestellt, das, was wir so objektiv Fairness nennen, sich teilweise widerspricht" - Marc Hauer, Tobias Krafft

Künstliche Intelligenz soll den Menschen unterstützen. Ob das nun in der Fabrik beim Schrauben zählen ist, oder ob sie dem Chefarzt bei einer komplizierten OP assistiert. Doch diese unterschiedlichen Einsatzbereiche haben enorm unterschiedliche Anforderungen an die KI. Die ethischen Grundsätze sind auch weltweit unterschiedlich. Also was heißt denn eigentlich Fairness? Und wo beginnt Diskriminierung und Gerechtigkeit? Die KI soll schon nach unseren Werten handeln, dafür muss sie trainiert werden- doch vorher muss man diese Werte definieren.

Marc Hauer ist wissenschaftlicher Mitarbeiter am Algorithm Accountability Lab der RPTU Kaiserslautern, spezialisiert auf die Gestaltung verantwortungsvoller KI-Systeme. Er leitet den DIN SPEC Arbeitskreis "Fairness von KI in Finanzdienstleistungen" und ist freiberuflich als Fachreferent und Berater im Bereich Algorithmen und KI tätig.

Tobias D. Krafft ist Doktorand im Bereich "Algorithm Accountability" an der TU Kaiserslautern und Geschäftsführer der Trusted AI GmbH, fokussiert auf Blackbox-Analysen und KI-Regulierung. Er leitet die DIN-Arbeitsgruppe „Ethik/Responsible AI“ und erhielt 2017 den Weizenbaumpreis für seine Forschungen im gesellschaftlichen Kontext von KI. Zudem engagiert er sich in der Gesellschaft für Informatik für den Studiengang Sozioinformatik.

Themen im Podcast:

  • Was heißt "faire KI" und wie misst man "fair"?
  • Tobias und Marcs Adaption des Assurance Case Framework auf das Testen von KI-Systemen
  • Richtlinien für die KI
  • Transparenz der Risikobewertungen
  • Was Marc und Tobias sich in der Zukunft wünschen

Kontakt zu Marc:

Kontakt zu Tobias:

Weitere, im Podcast erwähnte Links auf der Folgen-Website

Danke an die Community-Partner des Podcasts:

Credits:

  continue reading

Chapters

1. Willkommen (00:00:00)

2. Fairness in KI: Herausforderungen und Ansätze (00:01:03)

3. Assurance Case Framework für Fairness (00:05:15)

4. Die Bedeutung von Transparenz (00:16:26)

90 episodes

All episodes

×
 
Loading …

Welcome to Player FM!

Player FM is scanning the web for high-quality podcasts for you to enjoy right now. It's the best podcast app and works on Android, iPhone, and the web. Signup to sync subscriptions across devices.

 

Quick Reference Guide