Download the App!
show episodes
 
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
  continue reading
 
Loading …
show series
 
In der heutigen Sendung sprechen wir über Speculative Decoding, eine Methode, mit der die Inferenzzeit um den Faktor 2 - 2,4x beschleunigt werden kann. Wie das Verfahren funktioniert und welche Möglichkeiten es schafft, erfahren Sie in dieser Sendung. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und …
  continue reading
 
In der heutigen Sendung sprechen wir über das neue Speech to Text Model von OpenAI Whisper V3. Welche Veränderungen zu einer besseren Performance führten und wie Whisper Modelle mittels Distillation noch verkleinert werden können. Diese Verkleinerung führt zu ganz neuen Anwendungsfällen. Bleiben Sie dran. AI Pin humane: https://hu.ma.ne/ Vielen Dan…
  continue reading
 
In der heutigen Sendung sprechen wir über die Neuerungen von OpenAI und wie die neuen Modelle die AI Landschaft verändern werden. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative E…
  continue reading
 
Wir haben es geschafft: 100 Episoden. Im Zuge dieser Zahl, wollen wir in dieser Sendung, die letzten 100 Sendungen im Rückblick betrachten und dann aber auch in die Zukunft blicken. Vor allem auch wie sich Sprachmodelle in den nächsten Monaten weiter entwickeln können. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Ven…
  continue reading
 
In dieser Sendung sprechen wir mit den Entwicklern von LMQL Marc Fischer und Luca Beurer-Kellner von der ETH Zürich als Ergänzung zu unserer Episode 96 und bekommen so einen tieferen Einblick, in das Framework LMQL. Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transfo…
  continue reading
 
In dieser Sendung schauen wir uns mit DSPy ein weiteres Beispiel für eine Language Model Programming Umsetzung an. Diese Umsetzung ist stark an die Struktur von Pytorch angelehnt. Das Original Paper ist zu finden unter: DSPy: https://github.com/stanfordnlp/dspy Bleiben Sie dran. Vielen Dank auch an unseren Sponsor XL2: XL2 ist ein Joint Venture von…
  continue reading
 
Versprechen wir uns nicht alle, dass unsere Sprachmodelle einen Tatsachencheck durchführen könnten? Wäre es nicht ideal, wenn sie Wissen verifizieren könnten? In unserer heutigen Ausgabe nehmen wir uns Zeit, um genau diese Fragen zu beantworten. In einem tiefgreifenden Gespräch über DoLa Decoding, untersuchen wir verschiedene Techniken zur Verifizi…
  continue reading
 
Eigentlich, was wäre, wenn wir die Grenzen von traditioneller Programmierung und KI-Sprachmodellen durchbrechen könnten? Stellen Sie sich vor, wir könnten kognitive Leistungen und Prozessautomatisierung auf ein ganz neues Niveau heben. In dieser Folge haben wir uns eingehend mit dem aufstrebenden Feld des Language Model Programming (LMP) beschäftig…
  continue reading
 
Können Sie sich vorstellen, die Kontrolle über den Output von Sprachmodellen zu haben? Versprechen Sie uns Ihre Aufmerksamkeit für eine halbe Stunden und wir verspreche Ihnen, Sie in die faszinierende Welt der Outputkontrolle von Sprachmodellen zu führen. Wir stecken in einer komplexen Debatte, die weit über das hinausgeht, was wir lesen und hören.…
  continue reading
 
Endlich zurück aus der Sommerpause! In dieser Sendung beleuchten wir das Thema Evaluierung erneut, mit Fokus auf wirtschaftliche Aspekte. Lernen Sie interessante Kennzahlen und Metriken für LLM-Entwickler kennen und erfahren Sie, wie mit diesen Ihre Kosten beeinflusst werden können. Tauchen Sie mit uns in die Welt der Sprachmodelle, Evaluierungspro…
  continue reading
 
Unser Podcast befasst sich diese Woche mit der Frage, wie Künstliche Intelligenz feministischer gestaltet werden kann. Dabei diskutieren wir mit der Feminismus- und KI-Expertin Eva Gengler darüber, wie man KI nutzen kann, um mehr Gerechtigkeit und Gleichstellung in der Gesellschaft zu erreichen. Wir sprechen über Herausforderungen und Chancen eines…
  continue reading
 
In der heutigen Folge unseres Podcasts gehen wir tiefer auf die Evaluierung von LLMs ein. Wir werden Ihnen das Evaluierungsframework HELM vorstellen, das für Holistic Evaluation of Language Models steht. Es handelt sich um einen holistischen Blick in die Bewertung und Analyse von Sprachtechnologien, der sowohl für Fachleute als auch für interessier…
  continue reading
 
In der heutigen Episode entführen wir Sie in die faszinierende Welt der Sprachmodellevaluierung. Tauchen Sie mit uns in die Tiefen der Herausforderungen ein und erhalten Sie einen umfassenden Überblick über diverse Frameworks. Für alle Technologie- und KI-Enthusiasten ein absolutes Highlight. Schalten Sie ein und bleiben Sie neugierig! Support the …
  continue reading
 
In der heutigen Sendung sprechen wir über das Release von LLama 2 von Meta Research. Wir sprechen das zugrundeliegende Paper durch und diskutieren Funktionsweisen, Möglichkeiten und Unterschiede. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der neuesten Episode unseres Podcasts bringen wir eine kleine, aber aufregende Änderung in unser bisheriges Konzept: Zum ersten Mal präsentieren wir eine LIVE-Podcast Sendung! Im Zuge des Nürnberg Digital Festivals haben wir uns dem wichtigen Thema "Lebenslanges Lernen" gewidmet und dieses im entspannten Rahmen des Afterworks beleuchtet. Dabei h…
  continue reading
 
In dieser Episode sprechen wir mit Toine Diepstraten und Henri Hagenow über das Hosting von GPUs, sowie das Zusammenstellen von High Performance Computern für das Deep Learning. Die AIME GmbH (https://www.aime.info/) hat sich auf den Bau und das Bereitstellen solcher HPC Cluster spezialisiert, entwickeln aber auch Cloud Software zum Trainieren und …
  continue reading
 
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben: - Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf - Chang et. al.: A Survey on Evaluat…
  continue reading
 
In dieser Episode sprechen wir über die Einschränkungen von Large Language Modellen, insbesondere die Kontextlänge der verschiedenen Architekturen. Welche Möglichkeiten gibt es die Eingabelänge und Verarbeitungslänge von LLMs zu vergrößern und warum sollte man dies wollen? Hören Sie rein. Support the show…
  continue reading
 
In dieser Episode tauchen wir in die Welt der Vektor-Datenbanken mit Philip Vollet, Head of Developer Growth by Weaviate, ein. Wir sprechen darüber, was Vector-Datenbanken sind, welche innovativen Projekte mit Weaviate realisiert werden und wie KI zu einem gesellschaftlichen Wandel führt. Außerdem sprechen wir über den Aufbau von Teams und wie wich…
  continue reading
 
In der heutigen Sendung sprechen wir über die Risiken, die durch eine generelle KI für die Menschheit entstehen kann. Welche Maßnahmen sind zu ergreifen? Wo stehen wir gerade? Würde ein Moratorium, mit dem Ziel alle KI-Entwicklungen zu stoppen, helfen? Diese Fragen betrachten wir in der heutigen Sendung. Support the show…
  continue reading
 
In der heutigen Sendung steigen wir noch einmal in die Welt der multimodalen Modelle ein. Diesmal sprechen wir über das Bindeglied zwischen dem uni-modalen Bildverarbeitungsmodell und dem uni-modalen Sprachverarbeitungsmodell, den Q-Former. Q-Former sind eine effiziente Methode, das Training von multimodalen Modellen durchzuführen. Wir diskutieren …
  continue reading
 
In der heutigen Sendung steigen wir in die Welt der multimodalen Modelle ein, die es ermöglichen, nicht nur Textinformationen, sondern auch Bildinformationen von Sprachmodellen verarbeiten zu lassen. Link zum Paper: Zhu et. al.: MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models - https://arxiv.org/abs/2304.10592…
  continue reading
 
In der heutigen Sendung greifen wir das Thema Alignment von Sprachmodelle noch einmal auf. Wir sprechen über den Ansatz "Dromedary - Principle Driven Self Alignment of LLMs" als Beispiel einmal durch. Hören Sie rein. Link zum Paper: Sun et. al.: Principle-Driven Self-Alignment of Language Models from Scratch with Minimal Human Supervision - https:/…
  continue reading
 
In der heutigen Sendung sprechen wir über das Alignment von großer Sprachmodelle. Das Alignment bestimmt, wie gut Sprachmodelle menschliche Absichten interpretieren und darauf adäquat reagieren. Hören Sie rein! Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung sprechen wir mit Dr. Tristan Behrens, er ist Experte für künstliche Intelligenz und ein Pionier bei der Verwendung von generativen Sprach- und Diffusormodellen für die Erstellung von Musik. Als Artist in Residence des KI-Salons Heilbronn kreiert er Exponate, die das Zusammenspiel zwischen KI und Musik aufzeigen. Er gibt uns …
  continue reading
 
In der heutigen Sendung sprechen wir mit Andreas Köpf einer der vier Initiatoren des Open-Source-Projekt OpenAssistent. Das Projekt hat zum Ziel, einen chatbasierten Assistenten zu entwickeln, der die Aufgaben, die er löst, auch versteht. Dabei kann er mit anderen Systemen interagieren und dynamisch Informationen einholen. Andreas gibt uns einen Ei…
  continue reading
 
In dieser Episode reden wir über das Paper „Generative Agents: Interactive Simulacra of Human Behavior“ von Park et. al. Wir zeigen auf, wie die Autoren 25 generative Agenten mit der Hilfe von Sprachmodellen erschaffen haben. Diese Agenten agieren in einer virtuellen Spielwelt untereinander. Ferner diskutieren wir, wofür solche Simulationen verwend…
  continue reading
 
In dieser Episode reden wir darüber, ob autonome generative Agenten der Weg zur generellen KI sind und ob wir gerade den nächsten Hype im Bereich der Sprachmodelle erleben. Wir beleuchten die Projekte Auto-GPT und BabyAGI, die momentan bei GitHub einen starken Fokus auf sich ziehen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In diese Episode reden wir über das spannende Paper „Sparks of Artificial General Intelligence: Early experiments with GPT-4“. Es stellt sich die Frage, ob GPT-4 erste Anzeichen einer starken KI (Artificial General Intelligence) aufweist. (Link zum Paper: https://arxiv.org/pdf/2303.12712.pdf) Support the show…
  continue reading
 
In dieser Woche wollen wir darüber sprechen, wie durch die Zusammenführung von Bild und Textdaten in einem Prompt Sprachmodelle in ihrer Leistung gesteigert werden können. Im Detail gehen wir auf das Paper von Zhang et. al. Multimodal Chain-of-Thought Reasoning in Language Models ein. Support the show…
  continue reading
 
In dieser Woche wollen wir darüber diskutieren, ob Large Language Modelle die Fähigkeit zum Argumentieren haben und ob diese Fähigkeit zur Verbesserung der Leistung solcher Netze genutzt werden kann. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Im Gegensatz zur Sendung der letzten Woche, sprechen wir heute über Sustainability of AI. Wir gehen auf die Abgrenzung ein und zeigen Beispiele und Verfahren auf, wie es zu einer nachhaltigen KI kommen kann. Bleiben Sie dran. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung werden wir über die neusten Entwicklungen von Sprachmodellen sprechen. Insbesondere über das Aufsehen über ChatGPT und Reinforcement Learning from Human Feedback. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In dieser Woche wollen wir wieder mit einer kleinen Miniserie zum Thema Prompting starten. Prompting ist ein faszinierendes Paradigma, große Modelle an die eigenen Anforderungen anzupassen, ohne die Modelle explizit trainieren zu müssen. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Nachdem wir letzte Woche über die automatische Spracherkennung gesprochen haben, möchten wir in dieser Sendung gerne über den Prozess der Sprecheridentifikation (Diarization) sprechen. Wir gehen darauf ein, wofür es verwendet werden kann. Welche Schritte notwendig sind und wie dies mit maschinellen Lernen bzw. Deep Learning gelöst werden kann. Höre…
  continue reading
 
In der heutigen Sendung sprechen wir über das ASR Modell Whisper, dass uns das Leben durch Spracherkennung erleichtern soll. Wir gehen auf die Grundüberlegungen des Papers ein und beschreiben den Ansatz von Weak Supervision und dessen Vorteile in diesem Kontext. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Nach längerer Sommerpause melden wir uns wieder zurück! In der heutigen Sendung sprechen wir über KI als Assistent für das Erstellen von Texten. Wir gehen auf ein neues Model namens "PEER" ein und erläutern die Vorgehensweise sowie dessen Vor- und Nachteile. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Wir sprechen heute über die Entwicklung der Künstlichen Intelligenz in den letzten Jahrzehnten sowie über die sogenannten KI Winter und gehen auf die Gründe deren Entstehungen ein. Steht uns wieder ein KI-Winter bevor? Dies ist unsere letzte Sendung vor der Sommerpause. Wir melden uns Anfang September mit weiteren Folgen zurück. Wir wünschen Ihnen …
  continue reading
 
Nach krankheitsbedingter Pause starten wir vor der Sommerpause mit einer weiteren Sendung. Heute sprechen wir über die Architektur REALM eine Architektur für das Open Question Answering. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Wir sprechen in der heutigen Sendung über einen Blogbeitrag, der die These aufstellt, dass akademische Forschung im KI Umfeld eine totale Verschwendung ist. Wir wollen in einem lockeren Gespräch dieser These nachgehen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Wir sprechen in der heutigen Sendung über die von Google entwickelte Architektur Lambda, die in den letzten Woche vor allem wegen der Frage ob diese KI ein Bewusstsein entwickelt hat, in den Medien war. Ist dies die erste KI mit eigenem Bewusstsein? Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung sprechen wir über Low Resource Learning zur Unterstützung einer nachhaltigen KI. Wir freuen uns hier Rodrigo Raab im Interview zu haben, der seine Masterarbeit zum Thema "Untersuchung von Low Ressource Learning im Kontext von Natural Language Processing zur Unterstützung einer nachhaltigen KI" geschrieben hat. Support the sh…
  continue reading
 
In der heutigen Sendung, werden wir unser Thema Text Zusammenfassung weiterführen, Wir sprechen über die Schwächen und Probleme von automatischen Textzusammenfassungen. Gehen auf mögliche Lösungswege ein und diskutieren diese. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung kehren wir zu unserer kleinen Miniserie Text Summarization zurück und gehen heute auf abstraktive Zusammenfassungen insbesondere auf das Model PEGASUS ein. Wir diskutieren den Aufbau, die Beweggründe, die Vorgehensweise und mögliche Schwächen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der Woche vom 3.5. bis zum 6.5. hat das Ansbacher KI Transfer und Forschungszentrum AN[ki]T der HS-Ansbach seine Pforten nach zwölf Monaten Vorbereitungszeit endlich geöffnet. Aus diesem Grund haben wir ein Interview mit der Geschäftsführerin Yvonne Wetsch geführt um einige Impressionen hier im Podcast einzufangen. Support the show…
  continue reading
 
In der heutigen Sendung wollen wir auf Grund von aktuellen Ereignissen von unserer Sprachserie Textsummarization kurz abweichen und Ihnen etwas über das neu vorgestellte Modell OPT-175B von Meta AI erzählen. Insbesondere wie die Veröffentlichung von solchen Modellen die Demokratisierung von Large Language Models vorantreibt und so auch die Forschun…
  continue reading
 
Loading …

Kurzanleitung