Differences between revisions 23 and 36 (spanning 13 versions)
Revision 23 as of 2009-03-27 22:48:05
Size: 2975
Editor: TobiasLang
Comment:
Revision 36 as of 2009-03-30 22:18:17
Size: 3044
Editor: TobiasLang
Comment:
Deletions are marked like this. Additions are marked like this.
Line 12: Line 12:

Line 14: Line 16:
Graphische Modelle definieren Warscheinlichkeitsfunktionen || {{attachment:bn.png|Bayesian Planning|width=200}} || Graphische Modelle definieren Warscheinlichkeitsfunktionen
Line 17: Line 19:
Korrelationen zwischen Variablen (=Kanten). Korrelationen zwischen Variablen (=Kanten).||

Line 22: Line 26:
Problemstellungen. Sie werden beispielsweise in der Handlungs-
planung von Robotern, und der maschinellen Sprach- und Bild-
verarbeitung erfolgreich eingesetzt. Desweiteren basieren viele
Problemstellungen. Sie werden beispielsweise in der Handlungsplanung von Robotern und der maschinellen Sprach- und Bildverarbeitung erfolgreich eingesetzt. Desweiteren basieren viele
Line 30: Line 32:
Beispielen aus den genannten Gebieten (Robotik, Sprach- und Bild-
verarbeitung) vor. Thematisch beginnen wir mit einfachen Bayesschen
Beispielen aus den genannten Gebieten (Robotik, Sprach- und Bildverarbeitung) vor. Thematisch beginnen wir mit einfachen Bayesschen
Line 34: Line 35:
her. Am Ende sollen die Teilnehmer in der Lage sein beliebige her. Am Ende sollen die Teilnehmer in der Lage sein, beliebige
Line 41: Line 42:
gute Mathematikkenntnisse; Statistikkenntnisse sind nützlich aber nicht zwingend erforderlich. gute Mathematikkenntnisse; Statistikkenntnisse sind nützlich, aber nicht zwingend erforderlich.
Line 49: Line 50:
 || 28.04. || Diskrete Wahrscheinlichkeitsverteilungen, Graphische Modelle, Faktorgraphen, Bedingte und Gesamtwahrscheinlichkeiten ||  || 28.04. || Diskrete Wahrscheinlichkeitsverteilungen, Bedingte und Gesamtwahrscheinlichkeiten, Graphische Modelle, Faktorgraphen ||
Line 52: Line 53:
 || 19.05. || Beliefpropagierung in zyklischen Graphen, Mean-Field Alg. ||  || 19.05. || Beliefpropagierung in zyklischen Graphen (Loopy BP), Mean-Field Alg. ||
Line 57: Line 58:
 || 16.06. || Strukturierte Support-Vektor-Maschinen (SSVMs) ||
Line 58: Line 60:
 || 16.06. || Strukturierte Support-Vector Maschinen (S-SVMs) ||

Describe Main/SS09_GraphicalModels here.

Vorlesung "Einführung in Graphische Modelle"

Inhalt

|| Bayesian Planning || Graphische Modelle definieren Warscheinlichkeitsfunktionen auf gerichteten/ungerichteten Graphen und erlauben somit die explizite Modellierung von Variablen (=Knoten) und Korrelationen zwischen Variablen (=Kanten).||

Zusammen mit einer mächtigen Inferenzmaschinerie (z.B. Viterbi Algorithmus, Junction Tree Algorithmus) erlauben graphische Modelle die direkte Modellierung von natürlich auftretenden Problemstellungen. Sie werden beispielsweise in der Handlungsplanung von Robotern und der maschinellen Sprach- und Bildverarbeitung erfolgreich eingesetzt. Desweiteren basieren viele aktuelle Verfahren des maschinellen Lernens wie z.B. Hidden Markov Models (HMM), Conditional Random Fields (CRFs) oder Structured Support Vector Machines (SSVM) auf graphischen Modellen.

Die Vorlesung stellt graphische Modelle anhand von praktischen Beispielen aus den genannten Gebieten (Robotik, Sprach- und Bildverarbeitung) vor. Thematisch beginnen wir mit einfachen Bayesschen Netzwerken, lernen dann verschiedene Inferenzmechanismen kennen und leiten schliesslich aktuelle Lernverfahren wie HMMs, CRFs und SSVMs her. Am Ende sollen die Teilnehmer in der Lage sein, beliebige Problemstellungen mit Hilfe von graphischen Modellen zu kodieren und zu lösen.

Voraussetzungen

gute Mathematikkenntnisse; Statistikkenntnisse sind nützlich, aber nicht zwingend erforderlich.

Termine

  • Datum

    Beschreibung

    21.04.

    Einführung mit Überblick

    28.04.

    Diskrete Wahrscheinlichkeitsverteilungen, Bedingte und Gesamtwahrscheinlichkeiten, Graphische Modelle, Faktorgraphen

    05.05.

    Inferenz, Eliminierungsalgorithmus, Evidenzen

    12.05.

    Summen-Produkt-Algorithmus, Junction Tree Alg. (JTA)

    19.05.

    Beliefpropagierung in zyklischen Graphen (Loopy BP), Mean-Field Alg.

    26.05.

    Hidden Markov Models (HMMs), Forward-Backward Alg., Viterbi, Expectation-Maximization (EM)

    02.06.

    Bedingte Wahrscheinlichkeiten, (Kernel-) Conditional Random Fields (k-CRFs), Features, Optimierung

    09.06.

    Optimierung (Fortsetzung), Strukturiertes Perzeptron

    16.06.

    Strukturierte Support-Vektor-Maschinen (SSVMs)

    23.06.

    Influence Diagramme

    30.06.

    Markov Decision Processes (MDPs)

    07.07.

    Inferenz für Planen, Optimale Handlungsanweisungen (Policies)

    14.07.

    Zusammenfassung und Fragestunde

IDA Wiki: Main/SS09_GraphicalModels (last edited 2009-07-22 10:46:20 by MarcToussaint)