Artwork

Inhalt bereitgestellt von TED. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von TED oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Wie man menschliche Vorurteile von der künstlichen Intelligenz fernhält | Kriti Sharma

12:10
 
Teilen
 

Manage episode 273186068 series 125927
Inhalt bereitgestellt von TED. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von TED oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Algorithmen der künstlichen Intelligenz treffen ständig wichtige Entscheidungen über Sie -- zum Beispiel wie viel Sie für eine Autoversicherung zahlen sollten oder ob Sie wohl zu dem Job-Interview eingeladen werden. Aber was passiert, wenn diese Maschinen menschliche Vorurteile in ihrem System kodiert haben? Die Technologin Kriti Sharma untersucht, wie das Fehlen von Diversität in der Technologie sich in unsere künstliche Intelligenz schleicht und gibt drei Vorschläge, wie wir anfangen können ethische Algorithmen zu entwerfen.
  continue reading

67 Episoden

Artwork
iconTeilen
 
Manage episode 273186068 series 125927
Inhalt bereitgestellt von TED. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von TED oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Algorithmen der künstlichen Intelligenz treffen ständig wichtige Entscheidungen über Sie -- zum Beispiel wie viel Sie für eine Autoversicherung zahlen sollten oder ob Sie wohl zu dem Job-Interview eingeladen werden. Aber was passiert, wenn diese Maschinen menschliche Vorurteile in ihrem System kodiert haben? Die Technologin Kriti Sharma untersucht, wie das Fehlen von Diversität in der Technologie sich in unsere künstliche Intelligenz schleicht und gibt drei Vorschläge, wie wir anfangen können ethische Algorithmen zu entwerfen.
  continue reading

67 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung