show episodes
 
Artwork

1
New@FAU (QHD 1920)

unbekannt unbekannt

Unsubscribe
Unsubscribe
Monatlich
 
Mehr als 570 Professorinnen und Professoren forschen und lehren an den fünf Fakultäten und den verschiedenen Einrichtungen der FAU - und jedes Semester kommen neue dazu. Wer sind die neuen Köpfe in den Labors, Büros und Studienräumen? In dieser Reihe geben die Professorinnen und Professoren selbst eine Antwort darauf: Wer sie sind, wo sie arbeiten, mit was genau sie sich den ganzen Tag beschäftigen und warum es sich ihrer Meinung nach lohnt, an der FAU zu studieren.
  continue reading
 
Loading …
show series
 
22 | 0:00:00 Starten0:00:15 Qualität von Sprachmodellen0:04:22 Entropie einer Wortquelle0:09:36 Perplexität von Sprachmodellen0:17:42 Perpkexität und Akustik0:21:51 Adaption - Motivation0:30:51 Adaption des Akustischen Modells0:38:46 Adaption als Transformation0:40:45 Arten der Adaption0:50:50 Anweundung der Transformation0:54:11 Adaptionsmethoden0…
  continue reading
 
21 | 0:00:00 Starten0:01:04 Korrektives Training0:12:17 Transinformation/ Mutual information0:21:21 Erweiterte Baum-Welch Regeln0:31:00 MWE/MCE Training0:56:56 Herausforderung bei der OOV Detektion1:09:49 Lernen der neuen Wörter1:15:34 MotivationVon Dr. Sebastian Stüker
  continue reading
 
20 | 0:00:00 Starten0:01:10 Mehrpass Suchen0:03:15 beispiel: IBIS Single Pass Decoder0:10:01 Consensus Decoding0:13:08 Bsp: MAP vs. Wort-Posteriori-W‘keiten0:17:54 Minimierung des Wortfehlers0:21:23 Approximierung mit N-besten Listen0:25:09 WER Minimierung auf Wortgraphen0:33:50 Algiment als Äquivalenzrelation0:37:22 Intra-Wort-Clustern0:41:36 Conf…
  continue reading
 
19 | 0:00:00 Starten0:00:09 Start0:00:22 Kontinuierliche Suchräume, gleichverteiltes Sprachmodell0:07:31 Suchraum mit Tri-Grammen0:08:57 Viterbi Decoding0:13:15 A* mit Stack Decoder0:16:43 Heuristik für A*0:21:35 Fast Match0:25:21 Vor- und Nachteile Stackdecoder0:28:35 A* vs. Strahlsuche0:33:40 Vermeidung von Redundanzen0:36:53 Baumsuche0:39:27 Bau…
  continue reading
 
18 |0:00:00 Starten0:01:53 Chartparsing0:03:45 Probabilistische CFGs0:07:16 Suche0:10:24 Suche in der Spracherkennung0:24:59 Suche mit DP und Heuristik0:31:09 Explizite vs. Implizite Implementierung0:42:08 Suchstrategien0:44:13 Tiefensuche vs. Breitensuche0:49:34 Heuristische Graphsuche0:52:49 Zeitasynchrone Suche mit A*0:58:09 Zeitsynchrone Strahl…
  continue reading
 
17 | 0:00:00 Starten0:00:09 Back-Off Sprachmodelle0:02:08 Back-Off LM0:05:22 Katz Backoff0:09:28 Kneser-Ney Backoff0:13:12 Schätzung von β - Margnialisierung0:14:49 Leaving-One-Out β Schätzung0:17:31 Klassenbasierte N-Gram LM0:22:49 Klassenbasierte Sprachmodelle0:24:13 Aussprachevarianten0:25:27 Multiworte0:27:52 Besondere Arten von Sprachmodellen0…
  continue reading
 
16 | 0:00:00 Starten0:01:14 Multiworte0:05:49 Single Pronunciation Dictionaries0:09:03 Erweiterter Clusterbaum0:10:36 Ergebnisse0:15:57 Literaturempfehlung0:17:27 Erinnerung: Fundamentalformel0:18:33 Deterministische vs. Stochastische Sprachmodelle0:20:50 Wörterratespiel0:24:56 Wozu dient das Sprachmodell0:27:11 Stochastische Sprachmodelle0:32:08 Ä…
  continue reading
 
15 | 0:00:00 Starten0:01:53 Clustern mit Likelihood Distanz0:04:33 Kontextfragen0:12:44 Typische Kontextfragen0:16:37 Abdeckung durch Polyphone0:19:48 Gewinn durch längere Kontexte0:21:40 Verwendung dynamischer Modalitäten0:24:17 Dynamische Modalitäten0:39:58 Fehler durch falsche Aussprache0:42:25 Generierung von Aussprachewörterbüchern0:44:38 Verw…
  continue reading
 
14 | 0:00:00 Starten0:00:35 Polyphone - Datenmangel0:03:50 Polyphone0:10:07 Backoff für Polyphone0:13:27 Bottom-Up vs. Top-Down Clustering0:17:38 Distanzen für Polyphonecluster0:23:08 Diskrete Entropiedistanz0:29:30 Gewichtete Entropiedistanz0:32:27 Clustern von Polyphonen mit Entropiedistanz0:38:59 Clustern nach Kai-Fu Lee0:48:37 Clustering mit En…
  continue reading
 
13 | 0:00:00 Starten0:03:43 HMMs in ASR0:04:40 Wortfolge zu HMM0:06:02 HMM in ASR0:16:53 HMM Trainingszyklus0:23:06 Etikettierte Daten0:30:58 Initialisierung mit K-Mittelwerte Algorithmus0:32:36 Neutral Gas Algorithmus0:35:38 Initialisierung der HMM Parameter0:40:35 Initialisierung ohne Ettiketierte Daten 0:41:23 Viterbi Training0:46:50 Label Train…
  continue reading
 
12 | 0:00:00 Starten0:02:07 Expectation Maximization (EM)0:05:35 EM0:09:59 EM - Expectation Schritt0:14:39 EM für Mixtur-Gewichte0:23:40 EM für Mixturgewichte0:30:07 EM für Gaußmixturen0:52:19 EM für HMMs0:56:20 EM für HMMs Anfangswahrscheinlichkeiten0:58:23 EM für Übergangswahrscheinlichkeiten1:09:43 HMM Training für multiple Trainingssequenzen1:1…
  continue reading
 
11 | 0:00:00 Starten0:00:31 Die Fundamentalformel (Erinnerung)0:01:00 Hidden Markov Model Ansatz0:04:14 Münzen-Beispiel0:10:53 Urne Ball Modell0:12:02 HMM Definition0:14:06 HMM Beobachtungsgenerierung0:16:13 Die HMM Trellis0:17:05 Die drei Probleme der HMMs0:22:46 Forward Algorithmus0:39:03 Backward Algorithmus0:41:01 Das Decoding Problem0:43:10 Vi…
  continue reading
 
10 | 0:00:00 Starten0:00:20 Vektorquantisierung0:01:07 Voronoiregionen0:01:19 Mahalanobis Distanz0:01:39 Vektorquantisierung als Klassifikationsproblem0:02:14 K-Nächte Nachbar0:03:21 Beschleunigung von KNN0:15:21 Baumstruktur des Merkmalsraum0:16:20 Aufgabe0:26:15 Finden von Referenzvektoren0:26:56 K-Mittelwerte0:29:09 Learning VQ0:31:24 LVQ2, LVQ3…
  continue reading
 
09 | 0:00:00 Starten0:00:33 Spracherkennung mit Musterklassifikation0:03:37 Aufgabe0:04:55 Vergleich ganzer Äußerungen0:11:51 Time Warping0:14:19 Distanz zweier Äußerungen0:15:42 DP Matrix0:17:44 Dynamic Time Warping (DTW)0:20:24 Einschränkungen des DTW Pfades0:23:55 DTW-Schritte0:26:23 Der DTW Suchraum0:30:47 Mögliche Distanzen zwischen Vektoren0:…
  continue reading
 
08 | 0:00:00 Starten0:00:16 Vergleich verschiedener Spektren0:01:40 Typische Vorverarbeitung0:12:10 Dynamische Merkmale0:13:10 Autokorrelaktion0:18:52 Nulldurchgangsrate0:21:30 Hauptkomponentenanalyse (PCA)0:26:23 Lineare Diskriminanznalyse0:31:08 Vorverarbeitung mit Neuronalen Netzen0:34:48 Bottleneck Features 0:38:06 Klassifikation0:43:00 Statisc…
  continue reading
 
07 | 0:00:00 Starten0:00:04 Spektrodiagramm0:03:22 Oberschwingung, Harmonische0:07:11 Mel Skalierung0:16:35 Effekt der Fensterlängen0:20:58 Quelle Filter Modell der Sprache0:22:36 Helmholtzresonator0:27:55 Vokaldreieck0:32:59 Lineare Vorhersage (LPC)0:42:42 Interpretation der LPC Koeffizienten0:45:59 All-Pole Modell0:46:54 LPC Beispiel0:49:28 Cepst…
  continue reading
 
05 | 0:00:00 Starten0:00:31 Wortfehlerrate0:03:26 Minimale Editierdistanz0:09:36 Eigenschaften der WER0:14:07 Probleme mit der WER?0:18:00 WER in den DARPA Evaluationen0:28:50 Grundlagen der Signalverarbeitng0:29:25 Wozu Signal(vor)verarbeitung?0:32:29 Systeme0:35:19 Zeitinvariante System0:36:54 Dirac Distribution0:43:50 Faltung0:46:58 Impulsantwor…
  continue reading
 
06 | 0:00:00 Starten0:00:19 Die heutige Vorlesung0:00:27 Darstellungen der Fourierreihe0:00:37 Fouriertransformation0:01:17 Komplexes Spektrum0:03:06 Projektion der komplexen Exponentialfunktion auf die reelle trigonometrische Funktion0:04:33 Zeitdiskrete Fouriertransformation0:07:37 Diskrete Fouriertransformation0:11:11 Schnelle Fouriertransformat…
  continue reading
 
04 | 0:00:00 Starten0:00:57 Schriftsysteme0:14:06 Verteilung der Schriftsysteme0:17:36 Mikrofone0:27:17 Überblick0:28:14 Wandlerprinzipien0:37:19 Richtcharakteristik0:45:29 Akustische Bauformen0:59:31 Pop- und Windschutz1:01:05 Geschichte der ASR1:11:48 Euphonia -Speech Organ (1846)1:15:10 Radio Rex1:16:24 Vocoder1:18:38 Harpy…
  continue reading
 
03 | 0:00:00 Starten0:00:19 Heute0:01:22 Stimmhafte Sprache0:01:48 Stimmlose Sprache0:02:09 Grundfrequenz/-ton0:03:39 Sprachlaute-Vokale und Konsonante0:07:03 Vokale0:09:50 Diphthonge0:11:50 Konsonanten0:15:22 Ort der Artikulation0:18:27 Art der Artikulation0:22:40 Internationale Phonetische Alphabet0:23:47 Beispielkonfigurationen0:24:42 IPA Konson…
  continue reading
 
02 | 0:00:00 Starten0:00:19 Heute0:01:24 Taxonomie von Sprache0:02:30 Taxonomie von Spracherkennungssystemen/-aufgaben0:12:48 Ist Spracherkennung schwierig?0:16:35 Warum ist ASR schwierig?0:21:49 Variabilität auf Signalebene0:25:37 Variabilität auf phonetischer Ebene0:30:00 Mehrdeutigkeit auf linguistischer Ebene0:33:17 Segmentierung0:36:13 Sprache…
  continue reading
 
0:00:00 Starten0:00:16 Minimierung des Wortfehlers0:02:50 Approximierung mit N-besten Listen0:04:06 WER Minimierung auf Wortgraphen0:04:18 Multiple Alignment WER0:07:03 Finden des globalen Alignment0:08:21 Alignment als Äquivalenzrelation0:09:44 Finden einer angemessenen Äquivalenzrelation0:12:02 Intra-Wort-Clustern0:14:58 Pruning0:15:45 Confusions…
  continue reading
 
18 | 0:00:00 Starten0:01:22 Vor- und Nachteile eines Stackdecoders0:05:30 A* vs. Strahlsuche0:07:22 Vermeidung von Redundanzen0:09:23 Baumsuche0:12:11 Baumsuche mit Sprachmodell0:13:54 Delayed Bi-Grams0:21:15 Einsparung durch Baum-Lexica0:25:40 Kopien von Suchbäumen0:29:50 Suche mit kontextabhängigen Modellen0:32:24 Baumsuche mit kontextabhängigen …
  continue reading
 
17 | 0:00:00 Starten0:00:04 Suche0:01:31 Erinnerung: Fundamentalformel0:02:05 Suche in der Spracherkennung0:05:08 Erinnerung DTW und One-Stage-DP0:07:02 Suche im Allgemeinen0:09:33 Suche mit DP und Heuristik0:11:37 Kenngrößen für Suchprobleme0:14:42 Forward-/Backward-/bi-direktionale Suche0:16:34 Explizite vs. Implizite Implementierung0:18:15 Blind…
  continue reading
 
16 | 0:00:00 Starten0:00:04 Kombination von Sprachmodell und Akustischem Modell0:15:11 Deterministische Sprachmodelle0:17:41 Repräsentation der Grammatik0:19:28 Formale Sprachtheorie0:20:31 Chomsky-Hierarchie0:22:28 Chartparsing0:24:54 Probabilistische CFGs0:28:34 Suche0:30:26 Erinnerung: Fundamentalformel0:31:15 Suche in der Spracherkennung…
  continue reading
 
15 | 0:00:00 Starten0:00:05 Aussprachewörterbücher, Sprachmodelle0:00:41 Flexibles Trainingsalignment0:01:05 Aussprachen bestimmen für unüberwachtes Lernen0:05:18 Emotionserkennung mit Hilfe von Aussprachenvarianten0:06:27 Aussprachewörterbuch Entwicklung (nach Adda-Decker und Lamel)0:09:10 Multiworte0:12:05 Single Pronunciation Dictionaries0:15:06…
  continue reading
 
14 | 0:00:00 Starten0:00:09 Wiederholung0:03:29 Kontextfragen0:09:30 Typische Kontextfragen0:13:15 Abdeckung durch Polyphone0:14:51 Gewinn durch längere Kontexte0:16:21 Verwendung dynamischer Modalitäten0:17:38 Dynamische Modalitäten0:29:29 Fehler durch Falsche Aussprachen0:31:19 Generierung von Aussprachewörterbüchern0:39:42 Verwendung von existie…
  continue reading
 
Loading …

Kurzanleitung