Artwork

Inhalt bereitgestellt von programmier.bar. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von programmier.bar oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!

News AI #11: Amazon re:invent - Q, Bedrock, Sagemaker // SD Video & SDXL Turbo // Claude 2.1 // Inflection 2

35:56
 
Teilen
 

Manage episode 387954264 series 2470175
Inhalt bereitgestellt von programmier.bar. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von programmier.bar oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Philipp war letzte Woche in Las Vegas auf der Amazon re:Invent. Wir unterhalten uns über den neuen AI-Assistenten Q von Amazon. Q kann wie Microsoft Copilot auf die eigenen Quellen wie Dokumente, E-Mails, Slack, etc. zugreifen. Dazu ist Q in AWS integriert, um beispielsweise beim Erstellen von Redshift Queries, Dashboards oder im Customer Support zu helfen.

Ansonsten wurden auf der re:invent bei einigen Datenbanken Vektor Support announced sowie viele Neuerungen rund um Bedrock und Sagemaker.

Stability AI hat ein eigenes Text-to-Video-Modell vorgestellt. Nach eigener Aussage soll dieses besser sein als beispielsweise Pika, was in den letzten Wochen ebenfalls in den Schlagzeilen war. Falls ihr es selbst ausprobieren möchtet, könnt ihr dafür den HuggingFace Playground nutzen. Mit SDXL Turbo hat Stability AI ihr eigenes SDXL optimiert, sodass die Inferenz-Zeiten unglaublich schnell geworden sind. Nach eigenen Benchmarks braucht die Erstellung auf einem A100 Chip nur noch um die 200ms und ist somit nahezu Realtime. Dies ist möglich dank ihres neues Ansatzes der Adversarial Diffusion Distillation (ADD). Mehr dazu gibt's im Paper.

Anthropic hat Claude 2.1 released und damit neue Maßstäbe in Sachen Context Window Size gesetzt. 200k Tokens sind nun möglich. Philipp und Fabi diskutieren inwiefern dieses große Context Window überhaupt einen Vorteil bringt. Hier der Link zur Auswertung bezüglich der „Lost in the middle“-Problematik.

Inflection hat ebenfalls ihr neues Modell Inflection 2 rausgebracht, was bald in ihren AI-Assistenten PI integriert werden soll.

Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)


Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar

Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.

Twitter
Instagram
Facebook
Meetup
YouTube

  continue reading

340 Episoden

Artwork
iconTeilen
 
Manage episode 387954264 series 2470175
Inhalt bereitgestellt von programmier.bar. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von programmier.bar oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.

Philipp war letzte Woche in Las Vegas auf der Amazon re:Invent. Wir unterhalten uns über den neuen AI-Assistenten Q von Amazon. Q kann wie Microsoft Copilot auf die eigenen Quellen wie Dokumente, E-Mails, Slack, etc. zugreifen. Dazu ist Q in AWS integriert, um beispielsweise beim Erstellen von Redshift Queries, Dashboards oder im Customer Support zu helfen.

Ansonsten wurden auf der re:invent bei einigen Datenbanken Vektor Support announced sowie viele Neuerungen rund um Bedrock und Sagemaker.

Stability AI hat ein eigenes Text-to-Video-Modell vorgestellt. Nach eigener Aussage soll dieses besser sein als beispielsweise Pika, was in den letzten Wochen ebenfalls in den Schlagzeilen war. Falls ihr es selbst ausprobieren möchtet, könnt ihr dafür den HuggingFace Playground nutzen. Mit SDXL Turbo hat Stability AI ihr eigenes SDXL optimiert, sodass die Inferenz-Zeiten unglaublich schnell geworden sind. Nach eigenen Benchmarks braucht die Erstellung auf einem A100 Chip nur noch um die 200ms und ist somit nahezu Realtime. Dies ist möglich dank ihres neues Ansatzes der Adversarial Diffusion Distillation (ADD). Mehr dazu gibt's im Paper.

Anthropic hat Claude 2.1 released und damit neue Maßstäbe in Sachen Context Window Size gesetzt. 200k Tokens sind nun möglich. Philipp und Fabi diskutieren inwiefern dieses große Context Window überhaupt einen Vorteil bringt. Hier der Link zur Auswertung bezüglich der „Lost in the middle“-Problematik.

Inflection hat ebenfalls ihr neues Modell Inflection 2 rausgebracht, was bald in ihren AI-Assistenten PI integriert werden soll.

Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)


Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar

Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.

Twitter
Instagram
Facebook
Meetup
YouTube

  continue reading

340 Episoden

Alle Folgen

×
 
Loading …

Willkommen auf Player FM!

Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.

 

Kurzanleitung