Neues aus Naturwissenschaft, Medizin und Technik. Berichte, Reportagen und Interviews aus der Welt der Wissenschaft. Ob Astronomie, Biologie, Chemie, Geologie, Ökologie, Physik oder Raumfahrt: Forschung Aktuell liefert Wissen im Kontext und Bildung mit Unterhaltungswert.
…
continue reading
Inhalt bereitgestellt von Redaktion deutschlandradio.de. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Redaktion deutschlandradio.de oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!
Gehen Sie mit der App Player FM offline!
KI vor dem Kollaps - Künstliche Daten korrumpieren Sprachmodelle
MP3•Episode-Home
Manage episode 436763587 series 3497103
Inhalt bereitgestellt von Redaktion deutschlandradio.de. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Redaktion deutschlandradio.de oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Künstliche Intelligenz braucht massenhaft Daten fürs Training. Weil die verfügbaren Texte, Bilder und Videos begrenzt sind, nutzen Entwickler von Sprachmodellen zunehmend Datenfutter, das von KI erzeugt wurden. Doch das ist riskant. Moritz Metz und Maximilian Brose schauen sich an, was passiert, wenn KI-Modelle aufgrund synthetischer Daten kollabieren und ob es Lösungen für das Problem gibt.
Das erwartet euch in dieser Folge:
(00:40) Der wortgewandte Sam Altman von OpenAI kommt ins Stocken
(02:46) Wozu synthetische Daten beim Training von KI-Systemen gut sind
(09:40) Zwei Brüder, ein Lunch und die neue Gefahr für große Sprachmodelle
(14:20) Warum synthetische Daten Modelle vergessen lassen, dass es braune Schafe gibt
(22:02) Was helfen könnte gegen die Schlange, die sich selber frisst
(27:41) Frage an die Hörer: Wie viele Anspielungen auf Max und Moritz waren in der Folge?
Unsere Gesprächspartner in dieser Folge:
Weiterführende Links:
Mehr zum Thema in der Deutschlandfunk App:
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Deutschlandfunk App. Zu finden in den App-Stores von Apple und Google.
Folgt dem Deutschlandfunk auch auf Instagram oder Facebook.
…
continue reading
Das erwartet euch in dieser Folge:
(00:40) Der wortgewandte Sam Altman von OpenAI kommt ins Stocken
(02:46) Wozu synthetische Daten beim Training von KI-Systemen gut sind
(09:40) Zwei Brüder, ein Lunch und die neue Gefahr für große Sprachmodelle
(14:20) Warum synthetische Daten Modelle vergessen lassen, dass es braune Schafe gibt
(22:02) Was helfen könnte gegen die Schlange, die sich selber frisst
(27:41) Frage an die Hörer: Wie viele Anspielungen auf Max und Moritz waren in der Folge?
Unsere Gesprächspartner in dieser Folge:
- Ilia Shumailov, Computerwissenschaftler, Christ Church College, University of Oxford
- Phillip Hennig, Professor für die Methoden des Maschinellen Lernens, Universität Tübingen
- Julia Kempe, Professorin für Informatik, Mathematik und Datenwissenschaften, New York University
Weiterführende Links:
- Artikel von Politico (englisch): Das Rennen um die Daten-Dominanz im KI-Zeitalter
- Artikel im Time Magazine (englisch): Warum die Geschichte des Erdöls dafür spricht, dass KI-Modellen nicht die Daten ausgehen
- Nature-Artikel von Ilia Shumailov und seinem Team (englisch): Warum KI-Modelle kollabieren, wenn sie mit synthetischen Daten trainiert werden
- Studie von Julia Kempe (englisch): Wege aus Modelle-Kollaps
- Eine Sammlung der Streiche der fiktiven Lausbuben Max und Moritz von Wilhelm Busch
Mehr zum Thema in der Deutschlandfunk App:
- "KI verstehen" stellt die Frage: Beuten Tech-Firmen Data Worker aus?
- Diese Folge von "KI verstehen" erklärt, wie KI die Forschung umkrempelt
- Wissenschaft im Brennpunkt: Wie weit noch bis zur Superintelligenz?
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Deutschlandfunk App. Zu finden in den App-Stores von Apple und Google.
Folgt dem Deutschlandfunk auch auf Instagram oder Facebook.
62 Episoden
MP3•Episode-Home
Manage episode 436763587 series 3497103
Inhalt bereitgestellt von Redaktion deutschlandradio.de. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Redaktion deutschlandradio.de oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Künstliche Intelligenz braucht massenhaft Daten fürs Training. Weil die verfügbaren Texte, Bilder und Videos begrenzt sind, nutzen Entwickler von Sprachmodellen zunehmend Datenfutter, das von KI erzeugt wurden. Doch das ist riskant. Moritz Metz und Maximilian Brose schauen sich an, was passiert, wenn KI-Modelle aufgrund synthetischer Daten kollabieren und ob es Lösungen für das Problem gibt.
Das erwartet euch in dieser Folge:
(00:40) Der wortgewandte Sam Altman von OpenAI kommt ins Stocken
(02:46) Wozu synthetische Daten beim Training von KI-Systemen gut sind
(09:40) Zwei Brüder, ein Lunch und die neue Gefahr für große Sprachmodelle
(14:20) Warum synthetische Daten Modelle vergessen lassen, dass es braune Schafe gibt
(22:02) Was helfen könnte gegen die Schlange, die sich selber frisst
(27:41) Frage an die Hörer: Wie viele Anspielungen auf Max und Moritz waren in der Folge?
Unsere Gesprächspartner in dieser Folge:
Weiterführende Links:
Mehr zum Thema in der Deutschlandfunk App:
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Deutschlandfunk App. Zu finden in den App-Stores von Apple und Google.
Folgt dem Deutschlandfunk auch auf Instagram oder Facebook.
…
continue reading
Das erwartet euch in dieser Folge:
(00:40) Der wortgewandte Sam Altman von OpenAI kommt ins Stocken
(02:46) Wozu synthetische Daten beim Training von KI-Systemen gut sind
(09:40) Zwei Brüder, ein Lunch und die neue Gefahr für große Sprachmodelle
(14:20) Warum synthetische Daten Modelle vergessen lassen, dass es braune Schafe gibt
(22:02) Was helfen könnte gegen die Schlange, die sich selber frisst
(27:41) Frage an die Hörer: Wie viele Anspielungen auf Max und Moritz waren in der Folge?
Unsere Gesprächspartner in dieser Folge:
- Ilia Shumailov, Computerwissenschaftler, Christ Church College, University of Oxford
- Phillip Hennig, Professor für die Methoden des Maschinellen Lernens, Universität Tübingen
- Julia Kempe, Professorin für Informatik, Mathematik und Datenwissenschaften, New York University
Weiterführende Links:
- Artikel von Politico (englisch): Das Rennen um die Daten-Dominanz im KI-Zeitalter
- Artikel im Time Magazine (englisch): Warum die Geschichte des Erdöls dafür spricht, dass KI-Modellen nicht die Daten ausgehen
- Nature-Artikel von Ilia Shumailov und seinem Team (englisch): Warum KI-Modelle kollabieren, wenn sie mit synthetischen Daten trainiert werden
- Studie von Julia Kempe (englisch): Wege aus Modelle-Kollaps
- Eine Sammlung der Streiche der fiktiven Lausbuben Max und Moritz von Wilhelm Busch
Mehr zum Thema in der Deutschlandfunk App:
- "KI verstehen" stellt die Frage: Beuten Tech-Firmen Data Worker aus?
- Diese Folge von "KI verstehen" erklärt, wie KI die Forschung umkrempelt
- Wissenschaft im Brennpunkt: Wie weit noch bis zur Superintelligenz?
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Deutschlandfunk App. Zu finden in den App-Stores von Apple und Google.
Folgt dem Deutschlandfunk auch auf Instagram oder Facebook.
62 Episoden
Alle Folgen
×Willkommen auf Player FM!
Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.