Artwork

Inhalt bereitgestellt von Expert:innen des Hasso-Plattner-Instituts und Moderator Leon Stebe, Expert:innen des Hasso-Plattner-Instituts, and Moderator Leon Stebe. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Expert:innen des Hasso-Plattner-Instituts und Moderator Leon Stebe, Expert:innen des Hasso-Plattner-Instituts, and Moderator Leon Stebe oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Unconscious Bias – Warum Künstliche Intelligenz diskriminieren und Vorurteile verschärfen kann

24:53
 
Teilen
 

Manage episode 353181507 series 3439974
Inhalt bereitgestellt von Expert:innen des Hasso-Plattner-Instituts und Moderator Leon Stebe, Expert:innen des Hasso-Plattner-Instituts, and Moderator Leon Stebe. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Expert:innen des Hasso-Plattner-Instituts und Moderator Leon Stebe, Expert:innen des Hasso-Plattner-Instituts, and Moderator Leon Stebe oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Gespräch mit Prof. Katharina Hölzle und Rea Eldem

KI-basierte Anwendungen sind längst fester Bestandteil unseres Alltags und treffen immer mehr Entscheidungen. Das Problem: Schon während der Entwicklungs- und Designphase fließen unbewusste Voreingenommenheiten der Entwickler:innen in die Anwendungen ein. Warum Algorithmen diese Vorurteile reproduzieren und wie die Diskriminierung durch Daten minimiert oder gar verhindert werden kann, diskutieren Prof. Katharina Hölzle, Leiterin des Fachgebiets IT-Entrepreneurship und HPI-Frauenbeauftragte, und Rea Eldem, Gründerin des Unternehmens IN-VISIBLE BERLIN, in der neuen Folge des HPI-Wissenspodcasts „Neuland“.

  continue reading

92 Episoden

Artwork
iconTeilen
 
Manage episode 353181507 series 3439974
Inhalt bereitgestellt von Expert:innen des Hasso-Plattner-Instituts und Moderator Leon Stebe, Expert:innen des Hasso-Plattner-Instituts, and Moderator Leon Stebe. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Expert:innen des Hasso-Plattner-Instituts und Moderator Leon Stebe, Expert:innen des Hasso-Plattner-Instituts, and Moderator Leon Stebe oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Gespräch mit Prof. Katharina Hölzle und Rea Eldem

KI-basierte Anwendungen sind längst fester Bestandteil unseres Alltags und treffen immer mehr Entscheidungen. Das Problem: Schon während der Entwicklungs- und Designphase fließen unbewusste Voreingenommenheiten der Entwickler:innen in die Anwendungen ein. Warum Algorithmen diese Vorurteile reproduzieren und wie die Diskriminierung durch Daten minimiert oder gar verhindert werden kann, diskutieren Prof. Katharina Hölzle, Leiterin des Fachgebiets IT-Entrepreneurship und HPI-Frauenbeauftragte, und Rea Eldem, Gründerin des Unternehmens IN-VISIBLE BERLIN, in der neuen Folge des HPI-Wissenspodcasts „Neuland“.

  continue reading

92 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung