Carsten Lanquillon öffentlich
[search 0]
Download the App!
show episodes
 
Artwork

1
Knowledge Science - Alles über KI, ML und NLP

Sigurd Schacht, Carsten Lanquillon

Unsubscribe
Unsubscribe
Monatlich+
 
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
  continue reading
 
Loading …
show series
 
In der heutigen Sendung sprechen wir über das Mergen von Modellen. Ist das der Weg um bessere Modelle zu bauen und was steckt da dahinter? All diese Fragen werden von uns in der heutigen Sendung geklärt. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in d…
  continue reading
 
In der heutigen Sendung möchten wir über neue Architekturen bei Sprachmodellen reden. Wir zeigen auf, warum es notwendig ist Architekturen zu verbessern und zu überdenken und sprechen über einzelne Ansätze wie Mamba oder StripedHyena. Hören Sie rein. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die…
  continue reading
 
In der heutigen Sendung sprechen wir über ein neues Sprachmodel, dass bei uns am Lehrstuhl in Ansbach von Matthias Uhlig entwickelt wurde. Es gehört gemäß einzelner Standard LLM Evaluierungframeworks zu den besten deutschen Sprachmodellen. Herr Uhlig als Entwickler führt uns durch das Modell und den Entstehungsprozess. Vielen Dank auch an unseren S…
  continue reading
 
In der aktuellen Sendung des neuen Jahres starten wir mit einem spannenden Thema zum Jailbreaking und Red-Teaming von Sprachmodellen. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovati…
  continue reading
 
In der letzten Sendung des Jahres 2023 sprechen wir über ein spannendes Model von Mistral.ai.: Mixtral 8x7b. Ein sparsed Mixture of Expert Model, das von der Performance auf dem Niveau von ChatGPT 3.5 ist, dabei aber sehr effizient ist und unter Opensource Lizenz veröffentlicht wurde. Wir machen bis zur zweiten Januarwoche 2024 Urlaub. Danach start…
  continue reading
 
In der heutigen Sendung sprechen wir wieder über die Sicherheit von Sprachmodellen. Wir gehen auf die Verfahren von META Purple Llama ein und diskutieren deren Vor- und Nachteile. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unt…
  continue reading
 
In der heutigen Sendung sprechen wir über die neuen Modelle von META, Seamless Communication. Ist dies der erste Schritt zu einer Babelfisch ähnlichen Technologie? Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbei…
  continue reading
 
In der heutigen Sendung sprechen wir über Speculative Decoding, eine Methode, mit der die Inferenzzeit um den Faktor 2 - 2,4x beschleunigt werden kann. Wie das Verfahren funktioniert und welche Möglichkeiten es schafft, erfahren Sie in dieser Sendung. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und …
  continue reading
 
In der heutigen Sendung sprechen wir über das neue Speech to Text Model von OpenAI Whisper V3. Welche Veränderungen zu einer besseren Performance führten und wie Whisper Modelle mittels Distillation noch verkleinert werden können. Diese Verkleinerung führt zu ganz neuen Anwendungsfällen. Bleiben Sie dran. AI Pin humane: https://hu.ma.ne/ Vielen Dan…
  continue reading
 
In der heutigen Sendung sprechen wir über die Neuerungen von OpenAI und wie die neuen Modelle die AI Landschaft verändern werden. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative E…
  continue reading
 
Wir haben es geschafft: 100 Episoden. Im Zuge dieser Zahl, wollen wir in dieser Sendung, die letzten 100 Sendungen im Rückblick betrachten und dann aber auch in die Zukunft blicken. Vor allem auch wie sich Sprachmodelle in den nächsten Monaten weiter entwickeln können. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Ven…
  continue reading
 
In dieser Sendung sprechen wir mit den Entwicklern von LMQL Marc Fischer und Luca Beurer-Kellner von der ETH Zürich als Ergänzung zu unserer Episode 96 und bekommen so einen tieferen Einblick, in das Framework LMQL. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transfo…
  continue reading
 
In dieser Sendung schauen wir uns mit DSPy ein weiteres Beispiel für eine Language Model Programming Umsetzung an. Diese Umsetzung ist stark an die Struktur von Pytorch angelehnt. Das Original Paper ist zu finden unter: DSPy: https://github.com/stanfordnlp/dspy Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von…
  continue reading
 
Versprechen wir uns nicht alle, dass unsere Sprachmodelle einen Tatsachencheck durchführen könnten? Wäre es nicht ideal, wenn sie Wissen verifizieren könnten? In unserer heutigen Ausgabe nehmen wir uns Zeit, um genau diese Fragen zu beantworten. In einem tiefgreifenden Gespräch über DoLa Decoding, untersuchen wir verschiedene Techniken zur Verifizi…
  continue reading
 
Eigentlich, was wäre, wenn wir die Grenzen von traditioneller Programmierung und KI-Sprachmodellen durchbrechen könnten? Stellen Sie sich vor, wir könnten kognitive Leistungen und Prozessautomatisierung auf ein ganz neues Niveau heben. In dieser Folge haben wir uns eingehend mit dem aufstrebenden Feld des Language Model Programming (LMP) beschäftig…
  continue reading
 
Können Sie sich vorstellen, die Kontrolle über den Output von Sprachmodellen zu haben? Versprechen Sie uns Ihre Aufmerksamkeit für eine halbe Stunden und wir verspreche Ihnen, Sie in die faszinierende Welt der Outputkontrolle von Sprachmodellen zu führen. Wir stecken in einer komplexen Debatte, die weit über das hinausgeht, was wir lesen und hören.…
  continue reading
 
Endlich zurück aus der Sommerpause! In dieser Sendung beleuchten wir das Thema Evaluierung erneut, mit Fokus auf wirtschaftliche Aspekte. Lernen Sie interessante Kennzahlen und Metriken für LLM-Entwickler kennen und erfahren Sie, wie mit diesen Ihre Kosten beeinflusst werden können. Tauchen Sie mit uns in die Welt der Sprachmodelle, Evaluierungspro…
  continue reading
 
Unser Podcast befasst sich diese Woche mit der Frage, wie Künstliche Intelligenz feministischer gestaltet werden kann. Dabei diskutieren wir mit der Feminismus- und KI-Expertin Eva Gengler darüber, wie man KI nutzen kann, um mehr Gerechtigkeit und Gleichstellung in der Gesellschaft zu erreichen. Wir sprechen über Herausforderungen und Chancen eines…
  continue reading
 
In der heutigen Folge unseres Podcasts gehen wir tiefer auf die Evaluierung von LLMs ein. Wir werden Ihnen das Evaluierungsframework HELM vorstellen, das für Holistic Evaluation of Language Models steht. Es handelt sich um einen holistischen Blick in die Bewertung und Analyse von Sprachtechnologien, der sowohl für Fachleute als auch für interessier…
  continue reading
 
In der heutigen Episode entführen wir Sie in die faszinierende Welt der Sprachmodellevaluierung. Tauchen Sie mit uns in die Tiefen der Herausforderungen ein und erhalten Sie einen umfassenden Überblick über diverse Frameworks. Für alle Technologie- und KI-Enthusiasten ein absolutes Highlight. Schalten Sie ein und bleiben Sie neugierig! Support the …
  continue reading
 
In der neuesten Episode unseres Podcasts bringen wir eine kleine, aber aufregende Änderung in unser bisheriges Konzept: Zum ersten Mal präsentieren wir eine LIVE-Podcast Sendung! Im Zuge des Nürnberg Digital Festivals haben wir uns dem wichtigen Thema "Lebenslanges Lernen" gewidmet und dieses im entspannten Rahmen des Afterworks beleuchtet. Dabei h…
  continue reading
 
In dieser Episode sprechen wir mit Toine Diepstraten und Henri Hagenow über das Hosting von GPUs, sowie das Zusammenstellen von High Performance Computern für das Deep Learning. Die AIME GmbH (https://www.aime.info/) hat sich auf den Bau und das Bereitstellen solcher HPC Cluster spezialisiert, entwickeln aber auch Cloud Software zum Trainieren und …
  continue reading
 
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben: - Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf - Chang et. al.: A Survey on Evaluat…
  continue reading
 
In dieser Episode sprechen wir über die Einschränkungen von Large Language Modellen, insbesondere die Kontextlänge der verschiedenen Architekturen. Welche Möglichkeiten gibt es die Eingabelänge und Verarbeitungslänge von LLMs zu vergrößern und warum sollte man dies wollen? Hören Sie rein. Support the show…
  continue reading
 
In dieser Episode tauchen wir in die Welt der Vektor-Datenbanken mit Philip Vollet, Head of Developer Growth by Weaviate, ein. Wir sprechen darüber, was Vector-Datenbanken sind, welche innovativen Projekte mit Weaviate realisiert werden und wie KI zu einem gesellschaftlichen Wandel führt. Außerdem sprechen wir über den Aufbau von Teams und wie wich…
  continue reading
 
In der heutigen Sendung sprechen wir über die Risiken, die durch eine generelle KI für die Menschheit entstehen kann. Welche Maßnahmen sind zu ergreifen? Wo stehen wir gerade? Würde ein Moratorium, mit dem Ziel alle KI-Entwicklungen zu stoppen, helfen? Diese Fragen betrachten wir in der heutigen Sendung. Support the show…
  continue reading
 
In der heutigen Sendung steigen wir noch einmal in die Welt der multimodalen Modelle ein. Diesmal sprechen wir über das Bindeglied zwischen dem uni-modalen Bildverarbeitungsmodell und dem uni-modalen Sprachverarbeitungsmodell, den Q-Former. Q-Former sind eine effiziente Methode, das Training von multimodalen Modellen durchzuführen. Wir diskutieren …
  continue reading
 
In der heutigen Sendung steigen wir in die Welt der multimodalen Modelle ein, die es ermöglichen, nicht nur Textinformationen, sondern auch Bildinformationen von Sprachmodellen verarbeiten zu lassen. Link zum Paper: Zhu et. al.: MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models - https://arxiv.org/abs/2304.10592…
  continue reading
 
In der heutigen Sendung greifen wir das Thema Alignment von Sprachmodelle noch einmal auf. Wir sprechen über den Ansatz "Dromedary - Principle Driven Self Alignment of LLMs" als Beispiel einmal durch. Hören Sie rein. Link zum Paper: Sun et. al.: Principle-Driven Self-Alignment of Language Models from Scratch with Minimal Human Supervision - https:/…
  continue reading
 
In der heutigen Sendung sprechen wir mit Dr. Tristan Behrens, er ist Experte für künstliche Intelligenz und ein Pionier bei der Verwendung von generativen Sprach- und Diffusormodellen für die Erstellung von Musik. Als Artist in Residence des KI-Salons Heilbronn kreiert er Exponate, die das Zusammenspiel zwischen KI und Musik aufzeigen. Er gibt uns …
  continue reading
 
In der heutigen Sendung sprechen wir mit Andreas Köpf einer der vier Initiatoren des Open-Source-Projekt OpenAssistent. Das Projekt hat zum Ziel, einen chatbasierten Assistenten zu entwickeln, der die Aufgaben, die er löst, auch versteht. Dabei kann er mit anderen Systemen interagieren und dynamisch Informationen einholen. Andreas gibt uns einen Ei…
  continue reading
 
In dieser Episode reden wir über das Paper „Generative Agents: Interactive Simulacra of Human Behavior“ von Park et. al. Wir zeigen auf, wie die Autoren 25 generative Agenten mit der Hilfe von Sprachmodellen erschaffen haben. Diese Agenten agieren in einer virtuellen Spielwelt untereinander. Ferner diskutieren wir, wofür solche Simulationen verwend…
  continue reading
 
In dieser Episode reden wir darüber, ob autonome generative Agenten der Weg zur generellen KI sind und ob wir gerade den nächsten Hype im Bereich der Sprachmodelle erleben. Wir beleuchten die Projekte Auto-GPT und BabyAGI, die momentan bei GitHub einen starken Fokus auf sich ziehen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In diese Episode reden wir über das spannende Paper „Sparks of Artificial General Intelligence: Early experiments with GPT-4“. Es stellt sich die Frage, ob GPT-4 erste Anzeichen einer starken KI (Artificial General Intelligence) aufweist. (Link zum Paper: https://arxiv.org/pdf/2303.12712.pdf) Support the show…
  continue reading
 
In dieser Woche wollen wir darüber sprechen, wie durch die Zusammenführung von Bild und Textdaten in einem Prompt Sprachmodelle in ihrer Leistung gesteigert werden können. Im Detail gehen wir auf das Paper von Zhang et. al. Multimodal Chain-of-Thought Reasoning in Language Models ein. Support the show…
  continue reading
 
Im Gegensatz zur Sendung der letzten Woche, sprechen wir heute über Sustainability of AI. Wir gehen auf die Abgrenzung ein und zeigen Beispiele und Verfahren auf, wie es zu einer nachhaltigen KI kommen kann. Bleiben Sie dran. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In dieser Woche wollen wir wieder mit einer kleinen Miniserie zum Thema Prompting starten. Prompting ist ein faszinierendes Paradigma, große Modelle an die eigenen Anforderungen anzupassen, ohne die Modelle explizit trainieren zu müssen. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Nachdem wir letzte Woche über die automatische Spracherkennung gesprochen haben, möchten wir in dieser Sendung gerne über den Prozess der Sprecheridentifikation (Diarization) sprechen. Wir gehen darauf ein, wofür es verwendet werden kann. Welche Schritte notwendig sind und wie dies mit maschinellen Lernen bzw. Deep Learning gelöst werden kann. Höre…
  continue reading
 
In der heutigen Sendung sprechen wir über das ASR Modell Whisper, dass uns das Leben durch Spracherkennung erleichtern soll. Wir gehen auf die Grundüberlegungen des Papers ein und beschreiben den Ansatz von Weak Supervision und dessen Vorteile in diesem Kontext. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Nach längerer Sommerpause melden wir uns wieder zurück! In der heutigen Sendung sprechen wir über KI als Assistent für das Erstellen von Texten. Wir gehen auf ein neues Model namens "PEER" ein und erläutern die Vorgehensweise sowie dessen Vor- und Nachteile. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Wir sprechen heute über die Entwicklung der Künstlichen Intelligenz in den letzten Jahrzehnten sowie über die sogenannten KI Winter und gehen auf die Gründe deren Entstehungen ein. Steht uns wieder ein KI-Winter bevor? Dies ist unsere letzte Sendung vor der Sommerpause. Wir melden uns Anfang September mit weiteren Folgen zurück. Wir wünschen Ihnen …
  continue reading
 
Loading …

Kurzanleitung