Size: 1584
Comment:
|
Size: 2975
Comment:
|
Deletions are marked like this. | Additions are marked like this. |
Line 4: | Line 4: |
|| '''Termin:''' || Dienstag: 14.00-16.00 (Vorlesung)<BR/>16.00-18.00 (Übung) || || '''Raum:''' || || || '''Dozent:''' || Dr. Ulf Brefeld, Dr. Marc Toussaint || || '''Ansprechpartner:''' || || |
||<(^|2> '''Vorlesung:''' || Dienstag 14.00-16.00 || || FR-6535 || ||<(^|2> '''Übung:''' || Dienstag 16.00-18.00 || || FR-4061 || ||<(^|2>'''Dozenten:''' || [[http://user.cs.tu-berlin.de/~brefeld|Dr. Ulf Brefeld]], [[http://user.cs.tu-berlin.de/~mtoussai|Dr. Marc Toussaint]] || || [[http://user.cs.tu-berlin.de/~lang|Tobias Lang]] (Übung)|| === Inhalt === Graphische Modelle definieren Warscheinlichkeitsfunktionen auf gerichteten/ungerichteten Graphen und erlauben somit die explizite Modellierung von Variablen (=Knoten) und Korrelationen zwischen Variablen (=Kanten). Zusammen mit einer mächtigen Inferenzmaschinerie (z.B. Viterbi Algorithmus, Junction Tree Algorithmus) erlauben graphische Modelle die direkte Modellierung von natürlich auftretenden Problemstellungen. Sie werden beispielsweise in der Handlungs- planung von Robotern, und der maschinellen Sprach- und Bild- verarbeitung erfolgreich eingesetzt. Desweiteren basieren viele aktuelle Verfahren des maschinellen Lernens wie z.B. Hidden Markov Models (HMM), Conditional Random Fields (CRFs) oder Structured Support Vector Machines (SSVM) auf graphischen Modellen. Die Vorlesung stellt graphische Modelle anhand von praktischen Beispielen aus den genannten Gebieten (Robotik, Sprach- und Bild- verarbeitung) vor. Thematisch beginnen wir mit einfachen Bayesschen Netzwerken, lernen dann verschiedene Inferenzmechanismen kennen und leiten schliesslich aktuelle Lernverfahren wie HMMs, CRFs und SSVMs her. Am Ende sollen die Teilnehmer in der Lage sein beliebige Problemstellungen mit Hilfe von graphischen Modellen zu kodieren und zu lösen. === Voraussetzungen === gute Mathematikkenntnisse; Statistikkenntnisse sind nützlich aber nicht zwingend erforderlich. |
Line 11: | Line 46: |
|| '''Datum''' || '''Uhrzeit''' || '''Beschreibung''' || || 21.04. || 14:00-16:00 Uhr || Einführung mit Überblick || || 28.04. || 14:00-16:00 Uhr || Diskrete Wahrscheinlichkeitsverteilungen, Graphische Modelle, Faktorgraphen, Bedingte und Gesamtwahrscheinlichkeiten || || 5.05. || 14:00-16:00 Uhr || Inferenz, Eliminierungsalgorithmus, Evidenzen || || 12.05. || 14:00-16:00 Uhr || Summen-Produkt-Algorithmus, Junction Tree Alg. || || 19.05. || 14:00-16:00 Uhr || Beliefpropagierung in zyklischen Graphen, Mean-Field Alg. || || 26.05. || 14:00-16:00 Uhr || Hidden Markov Models, Forward-Backward Alg., Viterbi, Expectation-Maximization (EM) || || 2.06. || 14:00-16:00 Uhr || Bedingte Wahrscheinlichkeiten, (Kernel-) Conditional Random Fields (CRFs), Features, Optimierung || || 9.06. || 14:00-16:00 Uhr || Optimierung (Fortsetzung), Strukturiertes Perzeptron || || 16.06. || 14:00-16:00 Uhr || Strukturierte Support-Vector Maschinen || || 16.06. || 14:00-16:00 Uhr || Influence Diagramme || || 16.06. || 14:00-16:00 Uhr || Markov Decision Processes || || 16.06. || 14:00-16:00 Uhr || Inferenz für Planen, Optimale Handlungsanweisungen (Policies) || || 16.06. || 14:00-16:00 Uhr || Zusammenfassungen und Fragestunde || |
|| '''Datum''' || '''Beschreibung''' || || 21.04. || Einführung mit Überblick || || || || || 28.04. || Diskrete Wahrscheinlichkeitsverteilungen, Graphische Modelle, Faktorgraphen, Bedingte und Gesamtwahrscheinlichkeiten || || 05.05. || Inferenz, Eliminierungsalgorithmus, Evidenzen || || 12.05. || Summen-Produkt-Algorithmus, Junction Tree Alg. (JTA) || || 19.05. || Beliefpropagierung in zyklischen Graphen, Mean-Field Alg. || || || || || 26.05. || Hidden Markov Models (HMMs), Forward-Backward Alg., Viterbi, Expectation-Maximization (EM) || || 02.06. || Bedingte Wahrscheinlichkeiten, (Kernel-) Conditional Random Fields (k-CRFs), Features, Optimierung || || 09.06. || Optimierung (Fortsetzung), Strukturiertes Perzeptron || || || || || 16.06. || Strukturierte Support-Vector Maschinen (S-SVMs) || || 23.06. || Influence Diagramme || || 30.06. || Markov Decision Processes (MDPs) || || 07.07. || Inferenz für Planen, Optimale Handlungsanweisungen (Policies) || || || || || 14.07. || Zusammenfassung und Fragestunde || |
Describe Main/SS09_GraphicalModels here.
Vorlesung "Einführung in Graphische Modelle"
Vorlesung:
Dienstag 14.00-16.00
FR-6535
Übung:
Dienstag 16.00-18.00
FR-4061
Dozenten:
Tobias Lang (Übung)
Inhalt
Graphische Modelle definieren Warscheinlichkeitsfunktionen auf gerichteten/ungerichteten Graphen und erlauben somit die explizite Modellierung von Variablen (=Knoten) und Korrelationen zwischen Variablen (=Kanten).
Zusammen mit einer mächtigen Inferenzmaschinerie (z.B. Viterbi Algorithmus, Junction Tree Algorithmus) erlauben graphische Modelle die direkte Modellierung von natürlich auftretenden Problemstellungen. Sie werden beispielsweise in der Handlungs- planung von Robotern, und der maschinellen Sprach- und Bild- verarbeitung erfolgreich eingesetzt. Desweiteren basieren viele aktuelle Verfahren des maschinellen Lernens wie z.B. Hidden Markov Models (HMM), Conditional Random Fields (CRFs) oder Structured Support Vector Machines (SSVM) auf graphischen Modellen.
Die Vorlesung stellt graphische Modelle anhand von praktischen Beispielen aus den genannten Gebieten (Robotik, Sprach- und Bild- verarbeitung) vor. Thematisch beginnen wir mit einfachen Bayesschen Netzwerken, lernen dann verschiedene Inferenzmechanismen kennen und leiten schliesslich aktuelle Lernverfahren wie HMMs, CRFs und SSVMs her. Am Ende sollen die Teilnehmer in der Lage sein beliebige Problemstellungen mit Hilfe von graphischen Modellen zu kodieren und zu lösen.
Voraussetzungen
gute Mathematikkenntnisse; Statistikkenntnisse sind nützlich aber nicht zwingend erforderlich.
Termine
Datum
Beschreibung
21.04.
Einführung mit Überblick
28.04.
Diskrete Wahrscheinlichkeitsverteilungen, Graphische Modelle, Faktorgraphen, Bedingte und Gesamtwahrscheinlichkeiten
05.05.
Inferenz, Eliminierungsalgorithmus, Evidenzen
12.05.
Summen-Produkt-Algorithmus, Junction Tree Alg. (JTA)
19.05.
Beliefpropagierung in zyklischen Graphen, Mean-Field Alg.
26.05.
Hidden Markov Models (HMMs), Forward-Backward Alg., Viterbi, Expectation-Maximization (EM)
02.06.
Bedingte Wahrscheinlichkeiten, (Kernel-) Conditional Random Fields (k-CRFs), Features, Optimierung
09.06.
Optimierung (Fortsetzung), Strukturiertes Perzeptron
16.06.
Strukturierte Support-Vector Maschinen (S-SVMs)
23.06.
Influence Diagramme
30.06.
Markov Decision Processes (MDPs)
07.07.
Inferenz für Planen, Optimale Handlungsanweisungen (Policies)
14.07.
Zusammenfassung und Fragestunde