Artwork

Inhalt bereitgestellt von Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Faire, gute KI? - Marc Hauer, Tobias Krafft

23:26
 
Teilen
 

Manage episode 401890718 series 3466870
Inhalt bereitgestellt von Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
KI-Anwendungen auf gesellschaftliche Werte trainieren

"Wenn man sich die Fairness-Debatte rund um Künstliche Intelligenz mal anschaut, wurde in einem ganz spannenden Papier von Kleinberg festgestellt, das, was wir so objektiv Fairness nennen, sich teilweise widerspricht" - Marc Hauer, Tobias Krafft

Künstliche Intelligenz soll den Menschen unterstützen. Ob das nun in der Fabrik beim Schrauben zählen ist, oder ob sie dem Chefarzt bei einer komplizierten OP assistiert. Doch diese unterschiedlichen Einsatzbereiche haben enorm unterschiedliche Anforderungen an die KI. Die ethischen Grundsätze sind auch weltweit unterschiedlich. Also was heißt denn eigentlich Fairness? Und wo beginnt Diskriminierung und Gerechtigkeit? Die KI soll schon nach unseren Werten handeln, dafür muss sie trainiert werden- doch vorher muss man diese Werte definieren.

Marc Hauer ist wissenschaftlicher Mitarbeiter am Algorithm Accountability Lab der RPTU Kaiserslautern, spezialisiert auf die Gestaltung verantwortungsvoller KI-Systeme. Er leitet den DIN SPEC Arbeitskreis "Fairness von KI in Finanzdienstleistungen" und ist freiberuflich als Fachreferent und Berater im Bereich Algorithmen und KI tätig.

Tobias D. Krafft ist Doktorand im Bereich "Algorithm Accountability" an der TU Kaiserslautern und Geschäftsführer der Trusted AI GmbH, fokussiert auf Blackbox-Analysen und KI-Regulierung. Er leitet die DIN-Arbeitsgruppe „Ethik/Responsible AI“ und erhielt 2017 den Weizenbaumpreis für seine Forschungen im gesellschaftlichen Kontext von KI. Zudem engagiert er sich in der Gesellschaft für Informatik für den Studiengang Sozioinformatik.

Themen im Podcast:

  • Was heißt "faire KI" und wie misst man "fair"?
  • Tobias und Marcs Adaption des Assurance Case Framework auf das Testen von KI-Systemen
  • Richtlinien für die KI
  • Transparenz der Risikobewertungen
  • Was Marc und Tobias sich in der Zukunft wünschen

Kontakt zu Marc:

Kontakt zu Tobias:

Weitere, im Podcast erwähnte Links auf der Folgen-Website

Danke an die Community-Partner des Podcasts:

Credits:

  continue reading

Kapitel

1. Willkommen (00:00:00)

2. Fairness in KI: Herausforderungen und Ansätze (00:01:03)

3. Assurance Case Framework für Fairness (00:05:15)

4. Die Bedeutung von Transparenz (00:16:26)

71 Episoden

Artwork
iconTeilen
 
Manage episode 401890718 series 3466870
Inhalt bereitgestellt von Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Richard Seidl - Experte für Software-Entwicklung und Programmierung and Richard Seidl - Experte für Software-Entwicklung oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
KI-Anwendungen auf gesellschaftliche Werte trainieren

"Wenn man sich die Fairness-Debatte rund um Künstliche Intelligenz mal anschaut, wurde in einem ganz spannenden Papier von Kleinberg festgestellt, das, was wir so objektiv Fairness nennen, sich teilweise widerspricht" - Marc Hauer, Tobias Krafft

Künstliche Intelligenz soll den Menschen unterstützen. Ob das nun in der Fabrik beim Schrauben zählen ist, oder ob sie dem Chefarzt bei einer komplizierten OP assistiert. Doch diese unterschiedlichen Einsatzbereiche haben enorm unterschiedliche Anforderungen an die KI. Die ethischen Grundsätze sind auch weltweit unterschiedlich. Also was heißt denn eigentlich Fairness? Und wo beginnt Diskriminierung und Gerechtigkeit? Die KI soll schon nach unseren Werten handeln, dafür muss sie trainiert werden- doch vorher muss man diese Werte definieren.

Marc Hauer ist wissenschaftlicher Mitarbeiter am Algorithm Accountability Lab der RPTU Kaiserslautern, spezialisiert auf die Gestaltung verantwortungsvoller KI-Systeme. Er leitet den DIN SPEC Arbeitskreis "Fairness von KI in Finanzdienstleistungen" und ist freiberuflich als Fachreferent und Berater im Bereich Algorithmen und KI tätig.

Tobias D. Krafft ist Doktorand im Bereich "Algorithm Accountability" an der TU Kaiserslautern und Geschäftsführer der Trusted AI GmbH, fokussiert auf Blackbox-Analysen und KI-Regulierung. Er leitet die DIN-Arbeitsgruppe „Ethik/Responsible AI“ und erhielt 2017 den Weizenbaumpreis für seine Forschungen im gesellschaftlichen Kontext von KI. Zudem engagiert er sich in der Gesellschaft für Informatik für den Studiengang Sozioinformatik.

Themen im Podcast:

  • Was heißt "faire KI" und wie misst man "fair"?
  • Tobias und Marcs Adaption des Assurance Case Framework auf das Testen von KI-Systemen
  • Richtlinien für die KI
  • Transparenz der Risikobewertungen
  • Was Marc und Tobias sich in der Zukunft wünschen

Kontakt zu Marc:

Kontakt zu Tobias:

Weitere, im Podcast erwähnte Links auf der Folgen-Website

Danke an die Community-Partner des Podcasts:

Credits:

  continue reading

Kapitel

1. Willkommen (00:00:00)

2. Fairness in KI: Herausforderungen und Ansätze (00:01:03)

3. Assurance Case Framework für Fairness (00:05:15)

4. Die Bedeutung von Transparenz (00:16:26)

71 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung