Artwork

Inhalt bereitgestellt von Red Hat. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Red Hat oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Diagnosing and Dispelling AI Hallucinations

33:43
 
Teilen
 

Manage episode 478722239 series 2966759
Inhalt bereitgestellt von Red Hat. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Red Hat oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
AI is notorious for making stuff up. But it doesn’t always tell you when it does. That’s a problem for users who may not realize hallucinations are possible. This episode of Compiler investigates the persistent problem of AI Hallucination. Why does AI lie? Do these AI models know they’re hallucinating? What can we do to minimize hallucinations—or at least get better at seeing them?
  continue reading

78 Episoden

Artwork

Diagnosing and Dispelling AI Hallucinations

Compiler

11,456 subscribers

published

iconTeilen
 
Manage episode 478722239 series 2966759
Inhalt bereitgestellt von Red Hat. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von Red Hat oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
AI is notorious for making stuff up. But it doesn’t always tell you when it does. That’s a problem for users who may not realize hallucinations are possible. This episode of Compiler investigates the persistent problem of AI Hallucination. Why does AI lie? Do these AI models know they’re hallucinating? What can we do to minimize hallucinations—or at least get better at seeing them?
  continue reading

78 Episoden

All episodes

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung

Hören Sie sich diese Show an, während Sie die Gegend erkunden
Abspielen