show episodes
 
Perspektiven | Wirtschaftsinformatik-Podcast ist eine Gesprächsreihe zu Themen der Wissenschaft Wirtschaftsinformatik, die Perspektiven auf Forschung & Entwicklung, Studium & Lehre und Einblicke in Praxis & Anwendungen behandelt. In den Gesprächen dieser Reihe unterhalte ich mich mit meinen Gästen über ihre Perspektiven auf Themenfelder und Fragestellungen der Wirtschaftsinformatik. Wir beleuchten Fragen zur Digitalisierung von Wirtschaft und Gesellschaft, zum digitalen Wandel und zu Informa ...
 
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
 
Loading …
show series
 
In der heutigen Episode führen wir ein Gespräch mit Hr. Hinderer von der Schwarz IT KG. Die Schwarz IT ist der zentrale IT-Dienstleister der Schwarz Gruppe (Lidl, Kaufland, PreZero, …) und für Auswahl, Bereitstellung und Betrieb sowie Weiterentwicklung von IT-Infrastrukturen, IT-Plattformen und Business-Anwendungen zuständig. In der Sendung diskuti…
 
In der heutigen Sendung haben wir Sascha Quell von der Schwarz IT KG zu Gast. Die Schwarz IT ist der zentrale IT-Dienstleister der Schwarz Gruppe (Lidl, Kaufland, PreZero, …) und für Auswahl, Bereitstellung und Betrieb sowie Weiterentwicklung von IT-Infrastrukturen, IT-Plattformen und Business-Anwendungen zuständig. In der Sendung reden wir über It…
 
In der heutigen Sendung sprechen wir über Information Extraction. Wir werden Ihnen das Themengebiet Information Extraction näher bringen und aufzeigen warum dieses besonders für Question Answering Systeme, Assistenzsysteme und wissensbasierte Systeme wichtig ist.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung sprechen wir über Question-Anwering Systeme. QuA Systeme sind wesentliche Bestandteile von Conversational AI. Wenn Sie schon immer wissen wollten, wie eine KI aufgebaut sein muss, dass ein System wie Alexa, Siri und co. eine Frage gut beantworten kann, dann hören Sie doch einfach in die Sendung rein.…
 
In der heutigen Sendung diskutieren wir die Kombination von Deep Learning und Reinforcement Learning, das Deep Reinforcement Learning und Diskutieren die Schwierigkeiten der Anwendbarkeit von Deep Reinforcement Learning im Bereich der Conversational AI.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung sprechen wir über Reinforcement Learning. Ein Ansatz der hilft mittels Interaktion mit einer Umgebung und mittels Erfahrungen zu lernen. Wir sprechen über Beispiele, Aufbau, Elemente und warum dieser Ansatz dem Lernen von Kleinkindern entspricht.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung sprechen wir über Human in the Loop. Wie kann der Mensch in die Erstellung, Optimierung und Qualitätssicherung von Algorithmen eingebunden werden. Welche Verfahren kommen zum Einsatz und welche Vor- und Nachteile ergeben sich daraus.Von Sigurd Schacht, Carsten Lanquillon
 
In der heutigen Sendung knüpfen wir an die letzte Sendung an und gehen tiefer auf das Prozessmodel CRISP-DM und den eher technisch orientierten Machine Learning Canvas ein. Diese Prozessmodelle erleichtern Ihnen das strukturierte Aufsetzen von KI Projekten.Von Sigurd Schacht, Carsten Lanquillon
 
Zurück aus der Sommerpause möchten wir in der heutigen Sendung vor allem der Frage nachgehen, wie man ein KI Projekt im Unternehmen beginnen kann. Wir gehen auf die grundsätzliche Frage "Brauchen wir KI?", auf das Vorgehensmodell "AI Discovery Diamond Framework" zur Identifizierung des möglichen Potenzials und auf das Prozessmodell CRISP-DM zur Dur…
 
In der heutigen Sendung gehen wir auf die Architektur von Text-To-Speech Modellen ein. Zunächst legen wir die Grundlage für die wesentlichen Begriffe, zeigen Beispiele auf und erläutern dann die Architektur des TTS Models Tacotron2, das von Wissenschaftler von Google 2019 entwickelt wurde. Bitte beachten Sie, dass dies unsere letzte Sendung vor uns…
 
Die heutige Sendung möchten wir nutzen um die aus Folge 5 und 6 auf Basis von Conversation aI dargestellten Assistenzsystemen nochmal aufzugreifen und möchten vor allem heute auf die Schnittstellen in der Nutzung von Assistenzsystemen eingehen. Hier vor allem die KI Systeme zur Sprachgenerierung und zum Sprachverständnis. Die Sendung dient als erst…
 
In der heutigen Sendung sprechen wir über Deep Fakes und deren ethische Implikationen. Wir greifen die General Adversarial Networks als Technik hinter den Deep Fakes auf. Sprechen darüber welche Auswirkungen diese haben könnten und welche Methoden es gibt diese zu erkennen. Begleitende Links zur Sendung - Beispiel DeepFake: https://www.youtube.com/…
 
Nachdem wir in Folge 20 über GAN-Netze gesprochen haben. Zeigen wir in Folge 21 Anwendungsbeispiel der GAN Netze auf. Nennen faszinierende Beispiele, erklären Hintergründe und diskutieren deren betriebswirtschaftlichen Anwendungsbereich.Von Sigurd Schacht, Carsten Lanquillon
 
Wollten Sie schon immer wissen wie Deep Fakes funktionieren? In Folge 20 führen wir die Technologie hinter Deep Fakes ein. Wir erläutern was Generative Adversarial Networks sind und diskutieren, deren Aufbau, Funktionsweise und auch Nachteile.Von Sigurd Schacht, Carsten Lanquillon
 
In Folge 19 gehen wir auf das Thema Data Augmentation, also eine Methode zur Erhöhung der vorhandenen Datenmenge, ein. Wir diskutieren, ob durch diese und andere Methoden das Problem der nicht ausreichend vorhandener Daten gelöst werden kann.Von Sigurd Schacht, Carsten Lanquillon
 
In Folge 18 gehen wir weiter auf das Thema Transfer Learning ein, dass wir in Sendung 17 schon eingeführt haben. Keine Angst sollten Sie Sendung 17 noch nicht gehört haben, sollten Sie trotzdem dieser Sendung gut folgen können. Um vorgelernte Modelle zu finden gibt es etliche Internetseite. Hier ein paar im Podcast genannte Seiten: Huggingface: htt…
 
In Folge 17 gehen wir der Frage nach, wie gute Modelle gebaut werden können, auch wenn keine großen Datenmengen oder große Rechenleistung zur Verfügung stehen. Eine Lösung für dieses Problem ist das Transfer-Learning, bei dem auf vortrainierte Modelle zurückgegriffen wird. Wir sprechen über Funktionsweise, Vorteile und Auswirkung des Transfer-Learn…
 
In Folge 16 gehen wir der Frage nach, ob spezielle Hardware wie Grafikkarten im Bereich des Natural Language Processing aber auch bei anderen Deep Learning Verfahren notwendig sind. Wir diskutieren die Unterschiede zwischen CPU und GPUs und zeigen die Vor- und Nachteile auch aus betriebswirtschaftlicher Sicht auf.…
 
In Folge 15 greifen wir nun die in unserer Mini-Serie vorgestellten Verfahren auf und erläutern unterschiedlichste Anwendungsgebiete. Von Textübersetzung über Textgenerierung hin zu Produktanalyse, Wissensgraphen und Frage Antwort-Modelle zeigen wir die praktische Verwendung der NLP-Verfahren.Von Sigurd Schacht, Carsten Lanquillon
 
In Folge 14 schließen wir unsere kleine technisch orientierter Mini-Serie zum Thema Historie NLP ab und sprechen über die faszinierende Architektur der Transformers. Transformers sind bahnbrechende Architekturen, die die Sprachverarbeitung verbessern. Schritt für Schritt gehen wir durch die Architektur hindurch und hoffen Ihnen die Faszination für …
 
In Folge 13 sprechen wir über Attention Mechanismen, die es Neuronalen-Netzen z.B. ermöglichen, die Aufmerksamkeit auf einzelne Bereiche eines Textes oder eines Bildes zu richten und so wesentlich fokussierter zu sein. Dies ist die vorletzte Episode unserer kleinen Mini-Serie zum Thema Überblick NLP bevor wir uns neuen Themen zuwenden.…
 
In Folge 12 greifen wir unsere Miniserie "Historie NLP" wieder auf und gehen auf Long Short Term Memory (LSTM) Netzwerke ein. In der Chronologie sind sie eine Erweiterung der RNN Netze aus der Folge 10, die mit Hilfe eines Langzeit- und Kurzzeitgedächtnis die Schwächen der RNN überwinden sollen. Wir erläutern die Funktionsweise und gehen auf Vor- u…
 
In Folge 10 greifen wir unsere Miniserie "Historie NLP" wieder auf und gehen auf Recurrent Neural Networks (RNN) ein. In der Chronologie ergänzen diese Verfahren die in Folge 7 und 8 vorgestellten Bag-of-Words und Embedding Verfahren. Wir erläutern Sequenz Modelle, gehen auf Neuronale Netze ein und zeigen dann die Spezifika der RNNs auf.…
 
Am Mittwoch den 21.4.2021 legte die EU-Kommission einen ersten Rechtsrahmen in Form eines Regulierungsvorschlags für KI-Anwendungen vor. In dieser Folge pausieren wir unsere Mini-Serie zu NLP und diskutieren Inhalt, Chancen und Risiken des Vorschlags aus unserer Sicht.Von Sigurd Schacht, Carsten Lanquillon
 
In Folge 8 gehen wir chronologisch in unserer Miniserie "Historie NLP" auf Embeddings ein. Wir grenzen Word Embeddings zu Bag-of-Words ab, erläutern das Verfahren und gehen auf Vor- und Nachteile ein. Nicht fehlen darf die ethische Betrachtung von Embeddings und die damit verbundenen Risiken bei der Verwendung solcher Verfahren.…
 
In Folge 7 sprechen wir zunächst über Anwendungsfälle des Natural Language Processing. Wir geben einen historischen, chronologischen Überblick über die verschiedenen Verfahren des NLPs der letzten Jahre und erläutern ein einfaches Verfahren zur Textrepräsentation, die Bag-of-Words-Methode.Von Sigurd Schacht, Carsten Lanquillon
 
In der sechsten Episode blicken wir hinter die Kulissen eines Conversational AI Chatbots. Wie funktioniert eigentlich ein Chatbot? Wir erläutern Funktionsweisen und Verfahren, die notwendig sind, einen Chatbot auf Basis Künstlicher Intelligenz zu betreiben. Ergänzend gehen wir auf die Entwicklungslevels von Conversational AI ein. Mit dieser Folge s…
 
In unserer heutigen fünften Folge betrachten wir das Thema Sprachverarbeitung aus Sicht der Anwendung. Hierfür führen wir ein Interview mit Tobias Bäumler von der vitas.ai (https://vitas.ai), die einen Sprachassistenten entwickeln. Durch das Interview liefern wir Ihnen einen spannenden Einblick in die Anwendung von Natural Language Processing.…
 
In unserer heutigen vierten Folge, werden wir über die Verarbeitung von Text und Sprache mittels Methoden des Natural Language Processing, als Teilgebiet der Künstlichen Intelligenz, sprechen. Wir diskutieren Grundlagen, Anwendungsgebiete und Möglichkeiten in dieser Folge.Von Sigurd Schacht, Carsten Lanquillon
 
In der dritten Folge führen wir unser erstes Interview zum Thema Artificial General Intelligence durch. Interviewgast ist das Generative Pre-trained Transformer 3 (GPT-3) Modell, also eine Künstliche Intelligenz. Hören Sie selbst, was die Meinung der "KI" zum Thema selbstlernender Systeme ist.Von Sigurd Schacht, Carsten Lanquillon
 
Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Der wöchentliche Podcast macht dieses Thema greifbar durch Entmystifizierung von Künstlicher Intelligenz und vielen praktischen Interviews. In der ersten Episode erläutern wir die Ziele des Podcasts, stellen uns vor und erläutern den Begriff Künstliche Int…
 
Wolfgang Reisig spricht über seinen Blick auf die Geschichte der Informatik und über seine Zeit als Mitarbeiter bei Carl Adam Petri Ganz spontan im Schifffahrtsmuseum zu Kiel spricht Wolfgang Reisig mit mir über seine Perspektive auf die Entwicklung der Informatik von den 1960er Jahren bis heute und über die Bedeutung von Carl Adam Petri für die In…
 
Worum geht es im Studium? Warum sind Studifeten wichtig? Und wie sind die Berufsaussichten? Jürgen Karla – Jürgen an der FH Niederrhein – Jürgen bei Spielbar.com Blog und Brettspiel-Radio Podcast – Enzyklopädie der Wirtschaftsinformatik – Tipps auf wirtschaftsinformatik.de – Ulrich Frank: Der sprachliche Aufbau von Informationssystemen @ UDE [die e…
 
Maschinelle Moral und was wir von (un)moralischen Maschinen lernen können Cleverbot — Cleverbots unterhalten sich (YT Video) — Oliver Bendel — Oliver Bendel @ FHNW — Oliver Bendel @ WP — Ethik — Informationsethik — maschinenethik.net — informationsethik.net — Machine Ethics — Überlegungen zur Disziplin der Maschinenethik — Moralische Maschine — Met…
 
Die Auktionen auf eBay, die Empfehlungen bei Yelp! und die die Bepreisung der Google Adwords sind nur einige Beispiele für Forschungsthemen der Wirtschaftsinformatik im Forschungsfeld “Economics of Information Systems”. Die Auktionen auf eBay, die Empfehlungen bei Yelp! und die Bepreisung der Google Adwords sind nur einige Beispiele für Forschungst…
 
Ein Gespräch über das Wissensgebiet und Forschungsfeld „Konzeptuelle Modellierung“ In dieser Folge spreche ich mit Bernhard Thalheim über das Wissensgebiet und Forschungsfeld „Konzeptuelle Modellierung“. Bernhard Thalheim beschäftigt sich seit mehr als 30 Jahren mit konzeptuellen Modellen und Datenbanktechnologien, und ist Autor einer Vielzahl von …
 
Loading …

Kurzanleitung

Google login Twitter login Classic login