Artwork

Inhalt bereitgestellt von Mads Pankow. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Mads Pankow oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

GPT & Co (6/6)— Reasoning: Was fehlt noch zum Artificial General Assistant?

36:48
 
Teilen
 

Manage episode 395670522 series 2891882
Inhalt bereitgestellt von Mads Pankow. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Mads Pankow oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Warum Sprachmodelle bei Schlussfolgerungen stolpern und wie wir wirklich zuverlässige Assistenten bauen könnten

Sprachmodelle sollen bald alles können, was Mitarbeiter im Homeoffice können. AutoGPT & Co zeigen schon jetzt, was möglich ist, wenn die künstlichen Assistenten selbst Aufgaben abarbeiten, Mails schreiben und Konten managen. Aber bisher muss ein Mensch jede Aktion gegenprüfen, weil die für LLMs typischen Halluzinationen in der Interaktion mit der realen Welt zur Gefahr werden. Doch lassen sich diese verhindern? Können wir wirklich zuverlässige Sprachmodelle schaffen, die Ärztinnen, Anwälte und Verwaltungsbeamte ersetzen können. Nur, wenn wir verschiedene KIs miteinander kreuzen. Sogenannte „hybride KI“ könnte viele Jobs ersetzen — wenn sie gelingt.

Links & Literatur Long Ouyang et al. versuchen in dieser Studie herauszufinden, warum es wichtig ist, nach der Meditation Socken zu essen. Oder besser gesagt: Warum Sprachmodelle das glauben.

Wie Chain-of-thought-Prompting bei LLMs die Fähigkeit zur Schlussfolgerung verbessert zeigen Jason Wei et. al.

Erik Zelikman et al. hoffen darauf, dass sich die Maschine durch Beispielschlussfolgerungen selbst im Schlussfolgern verbessern kann. Aber auch diese Lösung hat einige Schwächen.

Hybride KI könnte formale Wissenssysteme mit Sprachmodellen integrieren und so zuverlässige aber dennoch vielseitige Assistenten ermöglichen.

Ein ganz ähnliches Konzept verfolgt das Prinzip des thinking-on-graph.

AutoGPT verbindet das Sprachmodelle GPT bereits interaktiv mit dem Netz, sodass es als Assistent selbstständig Aufgaben zerlegen und ausführen kann — ähnlich wie ein/eine Mitarbeiter/in im Homeoffice. Nur, dass es dafür noch viel zu viele Fehler macht.

Credits

Trefft mich auf Bluesky oder Twitter.

Vielen herzlichen Dank an Johann Niegl für die Titelmusik und Hans-Jakob Gohr für die Covergestaltung. <3

  continue reading

33 Episoden

Artwork
iconTeilen
 
Manage episode 395670522 series 2891882
Inhalt bereitgestellt von Mads Pankow. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Mads Pankow oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Warum Sprachmodelle bei Schlussfolgerungen stolpern und wie wir wirklich zuverlässige Assistenten bauen könnten

Sprachmodelle sollen bald alles können, was Mitarbeiter im Homeoffice können. AutoGPT & Co zeigen schon jetzt, was möglich ist, wenn die künstlichen Assistenten selbst Aufgaben abarbeiten, Mails schreiben und Konten managen. Aber bisher muss ein Mensch jede Aktion gegenprüfen, weil die für LLMs typischen Halluzinationen in der Interaktion mit der realen Welt zur Gefahr werden. Doch lassen sich diese verhindern? Können wir wirklich zuverlässige Sprachmodelle schaffen, die Ärztinnen, Anwälte und Verwaltungsbeamte ersetzen können. Nur, wenn wir verschiedene KIs miteinander kreuzen. Sogenannte „hybride KI“ könnte viele Jobs ersetzen — wenn sie gelingt.

Links & Literatur Long Ouyang et al. versuchen in dieser Studie herauszufinden, warum es wichtig ist, nach der Meditation Socken zu essen. Oder besser gesagt: Warum Sprachmodelle das glauben.

Wie Chain-of-thought-Prompting bei LLMs die Fähigkeit zur Schlussfolgerung verbessert zeigen Jason Wei et. al.

Erik Zelikman et al. hoffen darauf, dass sich die Maschine durch Beispielschlussfolgerungen selbst im Schlussfolgern verbessern kann. Aber auch diese Lösung hat einige Schwächen.

Hybride KI könnte formale Wissenssysteme mit Sprachmodellen integrieren und so zuverlässige aber dennoch vielseitige Assistenten ermöglichen.

Ein ganz ähnliches Konzept verfolgt das Prinzip des thinking-on-graph.

AutoGPT verbindet das Sprachmodelle GPT bereits interaktiv mit dem Netz, sodass es als Assistent selbstständig Aufgaben zerlegen und ausführen kann — ähnlich wie ein/eine Mitarbeiter/in im Homeoffice. Nur, dass es dafür noch viel zu viele Fehler macht.

Credits

Trefft mich auf Bluesky oder Twitter.

Vielen herzlichen Dank an Johann Niegl für die Titelmusik und Hans-Jakob Gohr für die Covergestaltung. <3

  continue reading

33 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung