Differences between revisions 19 and 23 (spanning 4 versions)
Revision 19 as of 2009-03-27 22:45:08
Size: 1530
Editor: TobiasLang
Comment:
Revision 23 as of 2009-03-27 22:48:05
Size: 2975
Editor: TobiasLang
Comment:
Deletions are marked like this. Additions are marked like this.
Line 11: Line 11:

=== Inhalt ===

Graphische Modelle definieren Warscheinlichkeitsfunktionen
auf gerichteten/ungerichteten Graphen und erlauben somit
die explizite Modellierung von Variablen (=Knoten) und
Korrelationen zwischen Variablen (=Kanten).

Zusammen mit einer mächtigen Inferenzmaschinerie (z.B. Viterbi
Algorithmus, Junction Tree Algorithmus) erlauben graphische
Modelle die direkte Modellierung von natürlich auftretenden
Problemstellungen. Sie werden beispielsweise in der Handlungs-
planung von Robotern, und der maschinellen Sprach- und Bild-
verarbeitung erfolgreich eingesetzt. Desweiteren basieren viele
aktuelle Verfahren des maschinellen Lernens wie z.B. Hidden
Markov Models (HMM), Conditional Random Fields (CRFs) oder
Structured Support Vector Machines (SSVM) auf graphischen Modellen.

Die Vorlesung stellt graphische Modelle anhand von praktischen
Beispielen aus den genannten Gebieten (Robotik, Sprach- und Bild-
verarbeitung) vor. Thematisch beginnen wir mit einfachen Bayesschen
Netzwerken, lernen dann verschiedene Inferenzmechanismen kennen und
leiten schliesslich aktuelle Lernverfahren wie HMMs, CRFs und SSVMs
her. Am Ende sollen die Teilnehmer in der Lage sein beliebige
Problemstellungen mit Hilfe von graphischen Modellen zu kodieren
und zu lösen.


=== Voraussetzungen ===

gute Mathematikkenntnisse; Statistikkenntnisse sind nützlich aber nicht zwingend erforderlich.

Line 15: Line 48:
 || || || ||  || || ||
Line 18: Line 51:
 || 12.05. || Summen-Produkt-Algorithmus, Junction Tree Alg. ||  || 12.05. || Summen-Produkt-Algorithmus, Junction Tree Alg. (JTA) ||
Line 20: Line 53:
 || || || ||
 || 26.05. || Hidden Markov Models, Forward-Backward Alg., Viterbi, Expectation-Maximization (EM) ||
 || 02.06. || Bedingte Wahrscheinlichkeiten, (Kernel-) Conditional Random Fields (CRFs), Features, Optimierung ||
 || || ||
 || 26.05. || Hidden Markov Models (HMMs), Forward-Backward Alg., Viterbi, Expectation-Maximization (EM) ||
 || 02.06. || Bedingte Wahrscheinlichkeiten, (Kernel-) Conditional Random Fields (k-CRFs), Features, Optimierung ||
Line 24: Line 57:
 || || || ||
 || 16.06. || Strukturierte Support-Vector Maschinen ||
 || || ||
 || 16.06. || Strukturierte Support-Vector Maschinen (S-SVMs) ||
Line 27: Line 60:
 || 30.06. || Markov Decision Processes ||  || 30.06. || Markov Decision Processes (MDPs) ||
Line 29: Line 62:
 || || || ||
 || 14.07. || Zusammenfassungen und Fragestunde ||
 || || ||
 || 14.07. || Zusammenfassung und Fragestunde ||

Describe Main/SS09_GraphicalModels here.

Vorlesung "Einführung in Graphische Modelle"

Inhalt

Graphische Modelle definieren Warscheinlichkeitsfunktionen auf gerichteten/ungerichteten Graphen und erlauben somit die explizite Modellierung von Variablen (=Knoten) und Korrelationen zwischen Variablen (=Kanten).

Zusammen mit einer mächtigen Inferenzmaschinerie (z.B. Viterbi Algorithmus, Junction Tree Algorithmus) erlauben graphische Modelle die direkte Modellierung von natürlich auftretenden Problemstellungen. Sie werden beispielsweise in der Handlungs- planung von Robotern, und der maschinellen Sprach- und Bild- verarbeitung erfolgreich eingesetzt. Desweiteren basieren viele aktuelle Verfahren des maschinellen Lernens wie z.B. Hidden Markov Models (HMM), Conditional Random Fields (CRFs) oder Structured Support Vector Machines (SSVM) auf graphischen Modellen.

Die Vorlesung stellt graphische Modelle anhand von praktischen Beispielen aus den genannten Gebieten (Robotik, Sprach- und Bild- verarbeitung) vor. Thematisch beginnen wir mit einfachen Bayesschen Netzwerken, lernen dann verschiedene Inferenzmechanismen kennen und leiten schliesslich aktuelle Lernverfahren wie HMMs, CRFs und SSVMs her. Am Ende sollen die Teilnehmer in der Lage sein beliebige Problemstellungen mit Hilfe von graphischen Modellen zu kodieren und zu lösen.

Voraussetzungen

gute Mathematikkenntnisse; Statistikkenntnisse sind nützlich aber nicht zwingend erforderlich.

Termine

  • Datum

    Beschreibung

    21.04.

    Einführung mit Überblick

    28.04.

    Diskrete Wahrscheinlichkeitsverteilungen, Graphische Modelle, Faktorgraphen, Bedingte und Gesamtwahrscheinlichkeiten

    05.05.

    Inferenz, Eliminierungsalgorithmus, Evidenzen

    12.05.

    Summen-Produkt-Algorithmus, Junction Tree Alg. (JTA)

    19.05.

    Beliefpropagierung in zyklischen Graphen, Mean-Field Alg.

    26.05.

    Hidden Markov Models (HMMs), Forward-Backward Alg., Viterbi, Expectation-Maximization (EM)

    02.06.

    Bedingte Wahrscheinlichkeiten, (Kernel-) Conditional Random Fields (k-CRFs), Features, Optimierung

    09.06.

    Optimierung (Fortsetzung), Strukturiertes Perzeptron

    16.06.

    Strukturierte Support-Vector Maschinen (S-SVMs)

    23.06.

    Influence Diagramme

    30.06.

    Markov Decision Processes (MDPs)

    07.07.

    Inferenz für Planen, Optimale Handlungsanweisungen (Policies)

    14.07.

    Zusammenfassung und Fragestunde

IDA Wiki: Main/SS09_GraphicalModels (last edited 2009-07-22 10:46:20 by MarcToussaint)