Download the App!

show episodes
 
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
 
Loading …
show series
 
In dieser Woche wollen wir wieder mit einer kleinen Miniserie zum Thema Prompting starten. Prompting ist ein faszinierendes Paradigma, große Modelle an die eigenen Anforderungen anzupassen, ohne die Modelle explizit trainieren zu müssen. Hören Sie rein.Von Sigurd Schacht, Carsten Lanquillon
 
Nachdem wir letzte Woche über die automatische Spracherkennung gesprochen haben, möchten wir in dieser Sendung gerne über den Prozess der Sprecheridentifikation (Diarization) sprechen. Wir gehen darauf ein, wofür es verwendet werden kann. Welche Schritte notwendig sind und wie dies mit maschinellen Lernen bzw. Deep Learning gelöst werden kann. Höre…
 
In der heutigen Sendung sprechen wir über das ASR Modell Whisper, dass uns das Leben durch Spracherkennung erleichtern soll. Wir gehen auf die Grundüberlegungen des Papers ein und beschreiben den Ansatz von Weak Supervision und dessen Vorteile in diesem Kontext. Hören Sie rein.Von Sigurd Schacht, Carsten Lanquillon
 
Nach längerer Sommerpause melden wir uns wieder zurück! In der heutigen Sendung sprechen wir über KI als Assistent für das Erstellen von Texten. Wir gehen auf ein neues Model namens "PEER" ein und erläutern die Vorgehensweise sowie dessen Vor- und Nachteile.Von Sigurd Schacht, Carsten Lanquillon
 
Wir sprechen heute über die Entwicklung der Künstlichen Intelligenz in den letzten Jahrzehnten sowie über die sogenannten KI Winter und gehen auf die Gründe deren Entstehungen ein. Steht uns wieder ein KI-Winter bevor? Dies ist unsere letzte Sendung vor der Sommerpause. Wir melden uns Anfang September mit weiteren Folgen zurück. Wir wünschen Ihnen …
 
Wir sprechen in der heutigen Sendung über die von Google entwickelte Architektur Lambda, die in den letzten Woche vor allem wegen der Frage ob diese KI ein Bewusstsein entwickelt hat, in den Medien war. Ist dies die erste KI mit eigenem Bewusstsein?Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung sprechen wir über Low Resource Learning zur Unterstützung einer nachhaltigen KI. Wir freuen uns hier Rodrigo Raab im Interview zu haben, der seine Masterarbeit zum Thema "Untersuchung von Low Ressource Learning im Kontext von Natural Language Processing zur Unterstützung einer nachhaltigen KI" geschrieben hat.…
 
In der heutigen Sendung, werden wir unser Thema Text Zusammenfassung weiterführen, Wir sprechen über die Schwächen und Probleme von automatischen Textzusammenfassungen. Gehen auf mögliche Lösungswege ein und diskutieren diese.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung kehren wir zu unserer kleinen Miniserie Text Summarization zurück und gehen heute auf abstraktive Zusammenfassungen insbesondere auf das Model PEGASUS ein. Wir diskutieren den Aufbau, die Beweggründe, die Vorgehensweise und mögliche Schwächen.Von Sigurd Schacht, Carsten Lanquillon
 
In der Woche vom 3.5. bis zum 6.5. hat das Ansbacher KI Transfer und Forschungszentrum AN[ki]T der HS-Ansbach seine Pforten nach zwölf Monaten Vorbereitungszeit endlich geöffnet. Aus diesem Grund haben wir ein Interview mit der Geschäftsführerin Yvonne Wetsch geführt um einige Impressionen hier im Podcast einzufangen.…
 
In der heutigen Sendung wollen wir auf Grund von aktuellen Ereignissen von unserer Sprachserie Textsummarization kurz abweichen und Ihnen etwas über das neu vorgestellte Modell OPT-175B von Meta AI erzählen. Insbesondere wie die Veröffentlichung von solchen Modellen die Demokratisierung von Large Language Models vorantreibt und so auch die Forschun…
 
In der heutigen Sendung grenzen wir in unserer kleinen Miniserie Textzusammenfassungen Unsupervised zu Supervised Lernverfahren im Bereich der Textzusammenfassung ab und gehen dann auf die Anforderungen und Schwierigkeiten von existierenden Datensätzen ein.Von Sigurd Schacht, Carsten Lanquillon
 
In der 52. Sendung setzen wir unsere Miniserie zum Thema Text Summarization fort und gehen auf den Algorithmus Textrank ein, dass ein einfaches Verfahren für eine Extractive Zusammenfassung ist und sich stark an den von Google entwickelten Pagerank-Algorithmus bedient.Von Sigurd Schacht, Carsten Lanquillon
 
In dieser Sendung sprechen wir über das Open Neural Network Exchange Format, dass die Austauschbarkeit von Modellen wesentlich erleichtern soll. Wir gehen auf die Komponenten ein, diskutieren Gründe warum man es anwenden sollte und sprechen auch über Risiken.Von Sigurd Schacht, Carsten Lanquillon
 
Diese Woche sprechen, wir über Auto-ML Verfahren, mit denen wir die Aufgaben des maschinellen Lernens noch weiter automatisch lösen wollen. Wir beleuchten, was deren Einsatzzweck ist, welche Bibliotheken es gibt und ob die Data-Scientisten jetzt nun überflüssig werden.Von Sigurd Schacht, Carsten Lanquillon
 
in der heutigen Sendung knüpfen wir nahtlos an das Thema Qualitätssicherung in Knowledge Graphen an. Wir wollen diesmal nicht über die Maßnahmen zur Qualitätssicherung bei Erstellung sondern über Maßnahmen zur Erweiterung der Qualität bestehender KG sprechen.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Episode wollen wir noch im Themengebiet Information Extraction Ihnen das Relation Extraction vorstellen, bei dem die Verbindungen zwischen Entitäten aus unstrukturierten Texten herausgearbeitet werden soll und somit Wissen extrahiert werden kann.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Episode sprechen wir über Entity Linking. Eine sehr wichtige Methode im Rahmen des Information Retrievals, wenn nicht sogar bei allen KI Projekten auf Basis von Texten. Bleiben Sie dran, wir beschreiben Hintergründe, Verfahren und Vorgehensweisen.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Episode führen wir ein Gespräch mit Hr. Hinderer von der Schwarz IT KG. Die Schwarz IT ist der zentrale IT-Dienstleister der Schwarz Gruppe (Lidl, Kaufland, PreZero, …) und für Auswahl, Bereitstellung und Betrieb sowie Weiterentwicklung von IT-Infrastrukturen, IT-Plattformen und Business-Anwendungen zuständig. In der Sendung diskuti…
 
In der heutigen Sendung haben wir Sascha Quell von der Schwarz IT KG zu Gast. Die Schwarz IT ist der zentrale IT-Dienstleister der Schwarz Gruppe (Lidl, Kaufland, PreZero, …) und für Auswahl, Bereitstellung und Betrieb sowie Weiterentwicklung von IT-Infrastrukturen, IT-Plattformen und Business-Anwendungen zuständig. In der Sendung reden wir über It…
 
In der heutigen Sendung sprechen wir über Information Extraction. Wir werden Ihnen das Themengebiet Information Extraction näher bringen und aufzeigen warum dieses besonders für Question Answering Systeme, Assistenzsysteme und wissensbasierte Systeme wichtig ist.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung sprechen wir über Question-Anwering Systeme. QuA Systeme sind wesentliche Bestandteile von Conversational AI. Wenn Sie schon immer wissen wollten, wie eine KI aufgebaut sein muss, dass ein System wie Alexa, Siri und co. eine Frage gut beantworten kann, dann hören Sie doch einfach in die Sendung rein.…
 
In der heutigen Sendung diskutieren wir die Kombination von Deep Learning und Reinforcement Learning, das Deep Reinforcement Learning und Diskutieren die Schwierigkeiten der Anwendbarkeit von Deep Reinforcement Learning im Bereich der Conversational AI.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung sprechen wir über Reinforcement Learning. Ein Ansatz der hilft mittels Interaktion mit einer Umgebung und mittels Erfahrungen zu lernen. Wir sprechen über Beispiele, Aufbau, Elemente und warum dieser Ansatz dem Lernen von Kleinkindern entspricht.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung sprechen wir über Human in the Loop. Wie kann der Mensch in die Erstellung, Optimierung und Qualitätssicherung von Algorithmen eingebunden werden. Welche Verfahren kommen zum Einsatz und welche Vor- und Nachteile ergeben sich daraus.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung knüpfen wir an die letzte Sendung an und gehen tiefer auf das Prozessmodel CRISP-DM und den eher technisch orientierten Machine Learning Canvas ein. Diese Prozessmodelle erleichtern Ihnen das strukturierte Aufsetzen von KI Projekten.Von Sigurd Schacht, Carsten Lanquillon
 
Zurück aus der Sommerpause möchten wir in der heutigen Sendung vor allem der Frage nachgehen, wie man ein KI Projekt im Unternehmen beginnen kann. Wir gehen auf die grundsätzliche Frage "Brauchen wir KI?", auf das Vorgehensmodell "AI Discovery Diamond Framework" zur Identifizierung des möglichen Potenzials und auf das Prozessmodell CRISP-DM zur Dur…
 
In der heutigen Sendung gehen wir auf die Architektur von Text-To-Speech Modellen ein. Zunächst legen wir die Grundlage für die wesentlichen Begriffe, zeigen Beispiele auf und erläutern dann die Architektur des TTS Models Tacotron2, das von Wissenschaftler von Google 2019 entwickelt wurde. Bitte beachten Sie, dass dies unsere letzte Sendung vor uns…
 
Die heutige Sendung möchten wir nutzen um die aus Folge 5 und 6 auf Basis von Conversation aI dargestellten Assistenzsystemen nochmal aufzugreifen und möchten vor allem heute auf die Schnittstellen in der Nutzung von Assistenzsystemen eingehen. Hier vor allem die KI Systeme zur Sprachgenerierung und zum Sprachverständnis. Die Sendung dient als erst…
 
In der heutigen Sendung sprechen wir über Deep Fakes und deren ethische Implikationen. Wir greifen die General Adversarial Networks als Technik hinter den Deep Fakes auf. Sprechen darüber welche Auswirkungen diese haben könnten und welche Methoden es gibt diese zu erkennen. Begleitende Links zur Sendung - Beispiel DeepFake: https://www.youtube.com/…
 
Nachdem wir in Folge 20 über GAN-Netze gesprochen haben. Zeigen wir in Folge 21 Anwendungsbeispiel der GAN Netze auf. Nennen faszinierende Beispiele, erklären Hintergründe und diskutieren deren betriebswirtschaftlichen Anwendungsbereich.Von Sigurd Schacht, Carsten Lanquillon
 
Wollten Sie schon immer wissen wie Deep Fakes funktionieren? In Folge 20 führen wir die Technologie hinter Deep Fakes ein. Wir erläutern was Generative Adversarial Networks sind und diskutieren, deren Aufbau, Funktionsweise und auch Nachteile.Von Sigurd Schacht, Carsten Lanquillon
 
In Folge 19 gehen wir auf das Thema Data Augmentation, also eine Methode zur Erhöhung der vorhandenen Datenmenge, ein. Wir diskutieren, ob durch diese und andere Methoden das Problem der nicht ausreichend vorhandener Daten gelöst werden kann.Von Sigurd Schacht, Carsten Lanquillon
 
In Folge 18 gehen wir weiter auf das Thema Transfer Learning ein, dass wir in Sendung 17 schon eingeführt haben. Keine Angst sollten Sie Sendung 17 noch nicht gehört haben, sollten Sie trotzdem dieser Sendung gut folgen können. Um vorgelernte Modelle zu finden gibt es etliche Internetseite. Hier ein paar im Podcast genannte Seiten: Huggingface: htt…
 
In Folge 17 gehen wir der Frage nach, wie gute Modelle gebaut werden können, auch wenn keine großen Datenmengen oder große Rechenleistung zur Verfügung stehen. Eine Lösung für dieses Problem ist das Transfer-Learning, bei dem auf vortrainierte Modelle zurückgegriffen wird. Wir sprechen über Funktionsweise, Vorteile und Auswirkung des Transfer-Learn…
 
Loading …

Kurzanleitung

Google login Twitter login Classic login