Inhalt bereitgestellt von programmier.bar. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von programmier.bar oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

People love us!

User reviews

"Ich liebe die Offline-Funktion"
"Das ist /"der/" Weg, deine Podcast-Abos zu handhaben. Es ist auch eine großartige Möglichkeit, neue Podcasts zu entdecken."

News AI #1: MMS Meta // Falcon // Gorilla // LIMA // QLoRA // Sam Altman Interview & AI Security

1:08:40
 
Teilen
 

Manage episode 365443296 series 2470175
Inhalt bereitgestellt von programmier.bar. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von programmier.bar oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Hier ist sie, die erste Folge unserer neuen Kategorie. Philipp Schmid, Technical Lead bei 🤗 Hugging Face und bereits Podcast-Gast zum Thema AI, wird mit uns alle zwei Wochen die AI News beprechen.

Heute geht es um alle großen neuen Foundation Models der letzten zwei Wochen:

  • MMS von Meta, ein text-to-speech & speech-to-text Model mit Support für ~ 1100 Sprachen
  • Die Large Language Models:
    • Guananco (LLama fine tuned mit QLoRA - bis zu 65B Parameter)
    • Nous-Heres-13b (LLama fine-tuned 13B)
    • Gorilla (LLama Model, dass darauf trainiert ist APIs von anderen Foundation Models aufzurufen, um so verschiedene Modelle über Natrual Language anzusprechen)
    • Falcon - Das neue Powerhouse unter den Open Source Modellen.

Einen guten überblick findet ihr auf dem LLM Leaderboard von 🤗
Außerdem haben wir darüber geredet, ob neue LLM's überhaupt noch Reinforement Learning by Human Feedback (RLHF) benötigen und uns in diesem Zuge die Paper LIMA: Less Is More for Alignment und Direct Preference Optimization: Your Language Model is Secretly a Reward Model angeschaut.
Zu guter letzt berichtet Jojo vom gelöschten Sam Altman (CEO von OpenAI) Interview und was es aktuell in den USA und Europa zum Thema AI Regulierung gibt.
Hier der versprochene Link zum Machine Learning Street Talk Podcast
Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)


Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar

Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.

Twitter
Instagram
Facebook

  continue reading

305 Episoden

iconTeilen
 
Manage episode 365443296 series 2470175
Inhalt bereitgestellt von programmier.bar. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von programmier.bar oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Hier ist sie, die erste Folge unserer neuen Kategorie. Philipp Schmid, Technical Lead bei 🤗 Hugging Face und bereits Podcast-Gast zum Thema AI, wird mit uns alle zwei Wochen die AI News beprechen.

Heute geht es um alle großen neuen Foundation Models der letzten zwei Wochen:

  • MMS von Meta, ein text-to-speech & speech-to-text Model mit Support für ~ 1100 Sprachen
  • Die Large Language Models:
    • Guananco (LLama fine tuned mit QLoRA - bis zu 65B Parameter)
    • Nous-Heres-13b (LLama fine-tuned 13B)
    • Gorilla (LLama Model, dass darauf trainiert ist APIs von anderen Foundation Models aufzurufen, um so verschiedene Modelle über Natrual Language anzusprechen)
    • Falcon - Das neue Powerhouse unter den Open Source Modellen.

Einen guten überblick findet ihr auf dem LLM Leaderboard von 🤗
Außerdem haben wir darüber geredet, ob neue LLM's überhaupt noch Reinforement Learning by Human Feedback (RLHF) benötigen und uns in diesem Zuge die Paper LIMA: Less Is More for Alignment und Direct Preference Optimization: Your Language Model is Secretly a Reward Model angeschaut.
Zu guter letzt berichtet Jojo vom gelöschten Sam Altman (CEO von OpenAI) Interview und was es aktuell in den USA und Europa zum Thema AI Regulierung gibt.
Hier der versprochene Link zum Machine Learning Street Talk Podcast
Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)


Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar

Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.

Twitter
Instagram
Facebook

  continue reading

305 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

Kurzanleitung