Artwork

Inhalt bereitgestellt von Alice Hasters & Maximiliane Haecke, Alice Hasters, and Maximiliane Haecke. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Alice Hasters & Maximiliane Haecke, Alice Hasters, and Maximiliane Haecke oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Digital bias - Auch Computerprogramme können rassistisch sein feat. Nushin Yazdani

46:54
 
Teilen
 

Manage episode 243035431 series 2549113
Inhalt bereitgestellt von Alice Hasters & Maximiliane Haecke, Alice Hasters, and Maximiliane Haecke. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Alice Hasters & Maximiliane Haecke, Alice Hasters, and Maximiliane Haecke oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Computerprogramme sind neutral, können nicht diskriminieren - das ist oft die Annahme. Aber das stimmt nicht. Erwiesenermaßen. Denn Programme und Algorithmen werden immer noch von uns Menschen gemacht, genauer gesagt, oft von weißen Cis-Männern. Die machen sich selten Gedanken darüber, welche Auswirkungen Künstliche Intelligenz für marginalisierte Gruppen haben kann. Da werden beispielsweise Menschen von Robotern nicht erkannt, fälschlich zugeordnet, sogar entmenschlicht, was Gefahr für Leib und Leben bedeuten kann. Nushin Yazdani kennt sich mit dieser Problematik aus. Sie kennt hat ihre Abschlussarbeit über Bias (Bias = Vorgeingenommenheit, Neigung, Ausrichtung) bei Künstlicher Intelligenz geschrieben. Maxi hat sie in ihrer Wohnung besucht, um mehr zum Thema K.I. zu erfahren, dass uns jeden Tag begegnet, ohne dass wir groß darauf achten. Nushins Erkenntnis: Mit einer diversen Besetzung von Entwickler*innenteams ist es nicht getan. Die strukturellen Probleme fangen viel früher an und reichen viel tiefer.Ted Talk mit Joy Buolamwini:www.youtube.com/watch?v=UG_X_7g63rY&t=68sMehr zu Nushin: nushinyazdani.com/Schreib uns: feuerundbrot@gmail.com

Hosted on Acast. See acast.com/privacy for more information.

  continue reading

99 Episoden

Artwork
iconTeilen
 
Manage episode 243035431 series 2549113
Inhalt bereitgestellt von Alice Hasters & Maximiliane Haecke, Alice Hasters, and Maximiliane Haecke. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Alice Hasters & Maximiliane Haecke, Alice Hasters, and Maximiliane Haecke oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Computerprogramme sind neutral, können nicht diskriminieren - das ist oft die Annahme. Aber das stimmt nicht. Erwiesenermaßen. Denn Programme und Algorithmen werden immer noch von uns Menschen gemacht, genauer gesagt, oft von weißen Cis-Männern. Die machen sich selten Gedanken darüber, welche Auswirkungen Künstliche Intelligenz für marginalisierte Gruppen haben kann. Da werden beispielsweise Menschen von Robotern nicht erkannt, fälschlich zugeordnet, sogar entmenschlicht, was Gefahr für Leib und Leben bedeuten kann. Nushin Yazdani kennt sich mit dieser Problematik aus. Sie kennt hat ihre Abschlussarbeit über Bias (Bias = Vorgeingenommenheit, Neigung, Ausrichtung) bei Künstlicher Intelligenz geschrieben. Maxi hat sie in ihrer Wohnung besucht, um mehr zum Thema K.I. zu erfahren, dass uns jeden Tag begegnet, ohne dass wir groß darauf achten. Nushins Erkenntnis: Mit einer diversen Besetzung von Entwickler*innenteams ist es nicht getan. Die strukturellen Probleme fangen viel früher an und reichen viel tiefer.Ted Talk mit Joy Buolamwini:www.youtube.com/watch?v=UG_X_7g63rY&t=68sMehr zu Nushin: nushinyazdani.com/Schreib uns: feuerundbrot@gmail.com

Hosted on Acast. See acast.com/privacy for more information.

  continue reading

99 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung