Sigurd Schacht, Carsten Lanquillon öffentlich
[search 0]
Download the App!
show episodes
 
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
  continue reading
 
Loading …
show series
 
Können Sie sich vorstellen, die Kontrolle über den Output von Sprachmodellen zu haben? Versprechen Sie uns Ihre Aufmerksamkeit für eine halbe Stunden und wir verspreche Ihnen, Sie in die faszinierende Welt der Outputkontrolle von Sprachmodellen zu führen. Wir stecken in einer komplexen Debatte, die weit über das hinausgeht, was wir lesen und hören.…
  continue reading
 
Endlich zurück aus der Sommerpause! In dieser Sendung beleuchten wir das Thema Evaluierung erneut, mit Fokus auf wirtschaftliche Aspekte. Lernen Sie interessante Kennzahlen und Metriken für LLM-Entwickler kennen und erfahren Sie, wie mit diesen Ihre Kosten beeinflusst werden können. Tauchen Sie mit uns in die Welt der Sprachmodelle, Evaluierungspro…
  continue reading
 
Unser Podcast befasst sich diese Woche mit der Frage, wie Künstliche Intelligenz feministischer gestaltet werden kann. Dabei diskutieren wir mit der Feminismus- und KI-Expertin Eva Gengler darüber, wie man KI nutzen kann, um mehr Gerechtigkeit und Gleichstellung in der Gesellschaft zu erreichen. Wir sprechen über Herausforderungen und Chancen eines…
  continue reading
 
In der heutigen Folge unseres Podcasts gehen wir tiefer auf die Evaluierung von LLMs ein. Wir werden Ihnen das Evaluierungsframework HELM vorstellen, das für Holistic Evaluation of Language Models steht. Es handelt sich um einen holistischen Blick in die Bewertung und Analyse von Sprachtechnologien, der sowohl für Fachleute als auch für interessier…
  continue reading
 
In der heutigen Episode entführen wir Sie in die faszinierende Welt der Sprachmodellevaluierung. Tauchen Sie mit uns in die Tiefen der Herausforderungen ein und erhalten Sie einen umfassenden Überblick über diverse Frameworks. Für alle Technologie- und KI-Enthusiasten ein absolutes Highlight. Schalten Sie ein und bleiben Sie neugierig! Support the …
  continue reading
 
In der heutigen Sendung sprechen wir über das Release von LLama 2 von Meta Research. Wir sprechen das zugrundeliegende Paper durch und diskutieren Funktionsweisen, Möglichkeiten und Unterschiede. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der neuesten Episode unseres Podcasts bringen wir eine kleine, aber aufregende Änderung in unser bisheriges Konzept: Zum ersten Mal präsentieren wir eine LIVE-Podcast Sendung! Im Zuge des Nürnberg Digital Festivals haben wir uns dem wichtigen Thema "Lebenslanges Lernen" gewidmet und dieses im entspannten Rahmen des Afterworks beleuchtet. Dabei h…
  continue reading
 
In dieser Episode sprechen wir mit Toine Diepstraten und Henri Hagenow über das Hosting von GPUs, sowie das Zusammenstellen von High Performance Computern für das Deep Learning. Die AIME GmbH (https://www.aime.info/) hat sich auf den Bau und das Bereitstellen solcher HPC Cluster spezialisiert, entwickeln aber auch Cloud Software zum Trainieren und …
  continue reading
 
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben: - Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf - Chang et. al.: A Survey on Evaluat…
  continue reading
 
In dieser Episode sprechen wir über die Einschränkungen von Large Language Modellen, insbesondere die Kontextlänge der verschiedenen Architekturen. Welche Möglichkeiten gibt es die Eingabelänge und Verarbeitungslänge von LLMs zu vergrößern und warum sollte man dies wollen? Hören Sie rein. Support the show…
  continue reading
 
In dieser Episode tauchen wir in die Welt der Vektor-Datenbanken mit Philip Vollet, Head of Developer Growth by Weaviate, ein. Wir sprechen darüber, was Vector-Datenbanken sind, welche innovativen Projekte mit Weaviate realisiert werden und wie KI zu einem gesellschaftlichen Wandel führt. Außerdem sprechen wir über den Aufbau von Teams und wie wich…
  continue reading
 
In der heutigen Sendung sprechen wir über die Risiken, die durch eine generelle KI für die Menschheit entstehen kann. Welche Maßnahmen sind zu ergreifen? Wo stehen wir gerade? Würde ein Moratorium, mit dem Ziel alle KI-Entwicklungen zu stoppen, helfen? Diese Fragen betrachten wir in der heutigen Sendung. Support the show…
  continue reading
 
In der heutigen Sendung steigen wir noch einmal in die Welt der multimodalen Modelle ein. Diesmal sprechen wir über das Bindeglied zwischen dem uni-modalen Bildverarbeitungsmodell und dem uni-modalen Sprachverarbeitungsmodell, den Q-Former. Q-Former sind eine effiziente Methode, das Training von multimodalen Modellen durchzuführen. Wir diskutieren …
  continue reading
 
In der heutigen Sendung steigen wir in die Welt der multimodalen Modelle ein, die es ermöglichen, nicht nur Textinformationen, sondern auch Bildinformationen von Sprachmodellen verarbeiten zu lassen. Link zum Paper: Zhu et. al.: MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models - https://arxiv.org/abs/2304.10592…
  continue reading
 
In der heutigen Sendung greifen wir das Thema Alignment von Sprachmodelle noch einmal auf. Wir sprechen über den Ansatz "Dromedary - Principle Driven Self Alignment of LLMs" als Beispiel einmal durch. Hören Sie rein. Link zum Paper: Sun et. al.: Principle-Driven Self-Alignment of Language Models from Scratch with Minimal Human Supervision - https:/…
  continue reading
 
In der heutigen Sendung sprechen wir über das Alignment von großer Sprachmodelle. Das Alignment bestimmt, wie gut Sprachmodelle menschliche Absichten interpretieren und darauf adäquat reagieren. Hören Sie rein! Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung sprechen wir mit Dr. Tristan Behrens, er ist Experte für künstliche Intelligenz und ein Pionier bei der Verwendung von generativen Sprach- und Diffusormodellen für die Erstellung von Musik. Als Artist in Residence des KI-Salons Heilbronn kreiert er Exponate, die das Zusammenspiel zwischen KI und Musik aufzeigen. Er gibt uns …
  continue reading
 
In der heutigen Sendung sprechen wir mit Andreas Köpf einer der vier Initiatoren des Open-Source-Projekt OpenAssistent. Das Projekt hat zum Ziel, einen chatbasierten Assistenten zu entwickeln, der die Aufgaben, die er löst, auch versteht. Dabei kann er mit anderen Systemen interagieren und dynamisch Informationen einholen. Andreas gibt uns einen Ei…
  continue reading
 
In dieser Episode reden wir über das Paper „Generative Agents: Interactive Simulacra of Human Behavior“ von Park et. al. Wir zeigen auf, wie die Autoren 25 generative Agenten mit der Hilfe von Sprachmodellen erschaffen haben. Diese Agenten agieren in einer virtuellen Spielwelt untereinander. Ferner diskutieren wir, wofür solche Simulationen verwend…
  continue reading
 
In dieser Episode reden wir darüber, ob autonome generative Agenten der Weg zur generellen KI sind und ob wir gerade den nächsten Hype im Bereich der Sprachmodelle erleben. Wir beleuchten die Projekte Auto-GPT und BabyAGI, die momentan bei GitHub einen starken Fokus auf sich ziehen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In diese Episode reden wir über das spannende Paper „Sparks of Artificial General Intelligence: Early experiments with GPT-4“. Es stellt sich die Frage, ob GPT-4 erste Anzeichen einer starken KI (Artificial General Intelligence) aufweist. (Link zum Paper: https://arxiv.org/pdf/2303.12712.pdf) Support the show…
  continue reading
 
In dieser Woche wollen wir darüber sprechen, wie durch die Zusammenführung von Bild und Textdaten in einem Prompt Sprachmodelle in ihrer Leistung gesteigert werden können. Im Detail gehen wir auf das Paper von Zhang et. al. Multimodal Chain-of-Thought Reasoning in Language Models ein. Support the show…
  continue reading
 
In dieser Woche wollen wir darüber diskutieren, ob Large Language Modelle die Fähigkeit zum Argumentieren haben und ob diese Fähigkeit zur Verbesserung der Leistung solcher Netze genutzt werden kann. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Im Gegensatz zur Sendung der letzten Woche, sprechen wir heute über Sustainability of AI. Wir gehen auf die Abgrenzung ein und zeigen Beispiele und Verfahren auf, wie es zu einer nachhaltigen KI kommen kann. Bleiben Sie dran. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung werden wir über die neusten Entwicklungen von Sprachmodellen sprechen. Insbesondere über das Aufsehen über ChatGPT und Reinforcement Learning from Human Feedback. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In dieser Woche wollen wir wieder mit einer kleinen Miniserie zum Thema Prompting starten. Prompting ist ein faszinierendes Paradigma, große Modelle an die eigenen Anforderungen anzupassen, ohne die Modelle explizit trainieren zu müssen. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Nachdem wir letzte Woche über die automatische Spracherkennung gesprochen haben, möchten wir in dieser Sendung gerne über den Prozess der Sprecheridentifikation (Diarization) sprechen. Wir gehen darauf ein, wofür es verwendet werden kann. Welche Schritte notwendig sind und wie dies mit maschinellen Lernen bzw. Deep Learning gelöst werden kann. Höre…
  continue reading
 
In der heutigen Sendung sprechen wir über das ASR Modell Whisper, dass uns das Leben durch Spracherkennung erleichtern soll. Wir gehen auf die Grundüberlegungen des Papers ein und beschreiben den Ansatz von Weak Supervision und dessen Vorteile in diesem Kontext. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Nach längerer Sommerpause melden wir uns wieder zurück! In der heutigen Sendung sprechen wir über KI als Assistent für das Erstellen von Texten. Wir gehen auf ein neues Model namens "PEER" ein und erläutern die Vorgehensweise sowie dessen Vor- und Nachteile. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Wir sprechen heute über die Entwicklung der Künstlichen Intelligenz in den letzten Jahrzehnten sowie über die sogenannten KI Winter und gehen auf die Gründe deren Entstehungen ein. Steht uns wieder ein KI-Winter bevor? Dies ist unsere letzte Sendung vor der Sommerpause. Wir melden uns Anfang September mit weiteren Folgen zurück. Wir wünschen Ihnen …
  continue reading
 
Nach krankheitsbedingter Pause starten wir vor der Sommerpause mit einer weiteren Sendung. Heute sprechen wir über die Architektur REALM eine Architektur für das Open Question Answering. Hören Sie rein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Wir sprechen in der heutigen Sendung über einen Blogbeitrag, der die These aufstellt, dass akademische Forschung im KI Umfeld eine totale Verschwendung ist. Wir wollen in einem lockeren Gespräch dieser These nachgehen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Wir sprechen in der heutigen Sendung über die von Google entwickelte Architektur Lambda, die in den letzten Woche vor allem wegen der Frage ob diese KI ein Bewusstsein entwickelt hat, in den Medien war. Ist dies die erste KI mit eigenem Bewusstsein? Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung sprechen wir über Low Resource Learning zur Unterstützung einer nachhaltigen KI. Wir freuen uns hier Rodrigo Raab im Interview zu haben, der seine Masterarbeit zum Thema "Untersuchung von Low Ressource Learning im Kontext von Natural Language Processing zur Unterstützung einer nachhaltigen KI" geschrieben hat. Support the sh…
  continue reading
 
In der heutigen Sendung, werden wir unser Thema Text Zusammenfassung weiterführen, Wir sprechen über die Schwächen und Probleme von automatischen Textzusammenfassungen. Gehen auf mögliche Lösungswege ein und diskutieren diese. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der heutigen Sendung kehren wir zu unserer kleinen Miniserie Text Summarization zurück und gehen heute auf abstraktive Zusammenfassungen insbesondere auf das Model PEGASUS ein. Wir diskutieren den Aufbau, die Beweggründe, die Vorgehensweise und mögliche Schwächen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der Woche vom 3.5. bis zum 6.5. hat das Ansbacher KI Transfer und Forschungszentrum AN[ki]T der HS-Ansbach seine Pforten nach zwölf Monaten Vorbereitungszeit endlich geöffnet. Aus diesem Grund haben wir ein Interview mit der Geschäftsführerin Yvonne Wetsch geführt um einige Impressionen hier im Podcast einzufangen. Support the show…
  continue reading
 
In der heutigen Sendung wollen wir auf Grund von aktuellen Ereignissen von unserer Sprachserie Textsummarization kurz abweichen und Ihnen etwas über das neu vorgestellte Modell OPT-175B von Meta AI erzählen. Insbesondere wie die Veröffentlichung von solchen Modellen die Demokratisierung von Large Language Models vorantreibt und so auch die Forschun…
  continue reading
 
In der heutigen Sendung grenzen wir in unserer kleinen Miniserie Textzusammenfassungen Unsupervised zu Supervised Lernverfahren im Bereich der Textzusammenfassung ab und gehen dann auf die Anforderungen und Schwierigkeiten von existierenden Datensätzen ein. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In der 52. Sendung setzen wir unsere Miniserie zum Thema Text Summarization fort und gehen auf den Algorithmus Textrank ein, dass ein einfaches Verfahren für eine Extractive Zusammenfassung ist und sich stark an den von Google entwickelten Pagerank-Algorithmus bedient. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
In dieser Sendung sprechen wir über das Open Neural Network Exchange Format, dass die Austauschbarkeit von Modellen wesentlich erleichtern soll. Wir gehen auf die Komponenten ein, diskutieren Gründe warum man es anwenden sollte und sprechen auch über Risiken. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Diese Woche sprechen, wir über Auto-ML Verfahren, mit denen wir die Aufgaben des maschinellen Lernens noch weiter automatisch lösen wollen. Wir beleuchten, was deren Einsatzzweck ist, welche Bibliotheken es gibt und ob die Data-Scientisten jetzt nun überflüssig werden. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Anknüpfend an die Sendung von letzter Woche, werden wir Frameworks und Tools gerade mit der Betrachtung auf Visuelle Tools sowie auf einzelne Frameworks für Deep Learning vertiefen und auf Vorteile und Nachteile eingehen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
in der heutigen Sendung knüpfen wir nahtlos an das Thema Qualitätssicherung in Knowledge Graphen an. Wir wollen diesmal nicht über die Maßnahmen zur Qualitätssicherung bei Erstellung sondern über Maßnahmen zur Erweiterung der Qualität bestehender KG sprechen. Support the showVon Sigurd Schacht, Carsten Lanquillon
  continue reading
 
Loading …

Kurzanleitung