Maschinelles Lernen - Theorie und Anwendung
Integrierte Vorlesung mit Übung
Termine und Dozenten
Termin: |
Vorlesung: Dienstag, 10:00 - 12:00 Uhr, Beginn 14.04.2008 |
Übung: Dienstag, 12.00 - 14.00 Uhr, Beginn 21.04.2008 |
|
Raum: |
FR 1002 |
Dozent: |
Prof. Dr. Klaus-Robert Müller [ link ] |
Ansprechpartner: |
Dr. Nicole Krämer [ link ] |
Dr. Mikio Braun [ link ] |
Themen
In dieser Vorlesungen werden weiterführende Themen des Maschinellen Lernens behandelt. Ein besonderer Schwerpunkt wird auf die Anwendung gelegt werden. Mehrere erfolgreiche Anwendungen des Maschinellen Lernens werden besprochen, und auf die jeweiligen Besonderheiten wird eingegangen. Unter anderem werden folgende Themen behabdelt:
- halbüberwachtes Lernen
- Boosting-Verfahren
- Optimierungstheorie
- Kernmethoden für strukturierte Daten
- Lernen auf strukturierten Daten
- Graphische Modelle
Beispiele für erfolgreiche Anwendungen sind unter anderem
- Bioinformatik
- Erkennen von Angriffen in Computernetzwerken
- Textmining
Voraussetzungen
Vorausgesetzt werden Kenntnisse des Maschinellen Lernens (etwa im Rahmen der Veranstaltung Maschinelles Lernen I) und gute Mathematikkenntnisse. Zur Bearbeitung der Übngsaufgaben sind Programmierkenntnisse in Matlab erforderlich, die im Kurs Einführung in die computergestützte Datenanalyse mit matlab vermittelt werden.
Vorlesungsplan mit Übungsblättern
Dies ist ein vorläufiger Plan und kann sich kurzfristig ändern.
Nr |
Datum |
Themen |
*Übungen* |
Folien |
1 |
15.04 |
Wiederholung: überwachtes, unüberwachtes Lernen |
orga.pdf , recap2.pdf (korrigierte Version vom 21.4.08) |
|
2 |
22.04. |
Halbüberwaches Lernen und Anwendungen |
ssl2.pdf (aktualisierte Version vom 13.05.08) |
|
3 |
29.04. |
Kerne für strukturierte Daten |
structured2.pdf (korrigierte Version vom 29.4.08) |
|
4 |
06.05. |
Maschinelles Lernen für Intrusion Detection |
intrusion.pdf Daten: stud-data.mat.gz |
|
5 |
13.05. |
Text Mining |
textmining.pdf Daten: externer link |
|
6 |
20.05. |
Maschinelles Lernen in der Bioinformatik |
bioinf.pdf Daten: splice-data.tgz, Link zum Paper über Weighted-Degree-Kerne |
|
7 |
27.05. |
Optimierungstheorie |
||
8 |
03.06. |
Large Scale Learning |
largescale.pdf. Daten: alpha_train_x.txt.bz2, alpha_train_y.txt.bz2, alpha_test_x.txt.bz2 |
|
9 |
10.06. |
Dimensionsreduktion im Featureraum |
||
10 |
17.06. |
Boosting und Ensemble-Verfahren |
||
11 |
24.06. |
Boosting und Ensemble-Verfahren II |
Daten: 11_data.tgz |
|
12 |
01.07. |
Hidden-Markov-Modelle |
||
13 |
08.07. |
Support-Vektor-Maschinen für strukturierte Ausgaben |
vorlesung_svm.ppt Daten: link |
|
14 |
15.07. |
Graphische Modelle |
Literatur und Links
Folgene Bücher geben eine umfassende Einführung in den Bereich des Maschinellen Lernens.
Christopher M. Bishop (2006) Pattern Recognition And Machine Learning , Springer.
Richard O. Duda, Peter E. Hart, David G. Stork (2001) Pattern Classification , Wiley (2. Auflage).
- Trevor Hastie, Robert Tibshirani, Jerome Friedman (2001) The Elements of Statistical Learning, Springer.
Folgende Bücher geben eine umfassende Einführung in die Wahrscheinlichkeitstheorie und in die Statistik.
G. Bamberg, F. Baur (2006) Statistik, Oldenbourg-Verlag, 12. Auflage
L. Fahrmeir, R. Künstler, I. Pigeot, G. Tutz (2004) Statistik , Springer, 5. Auflage
L. Wasserman (2004) All of Statistics, Springer
Die wichtigsten Gleichungen für das Rechnen mit Matrizen und insbesondere die Ableitungsregeln für höherdimensionale Funktionen findet man hier:
K. B. Petersen, M. S. Pedersen (2007) The Matrix Cookbook. Technical University of Denmark [ externer link ]
-- Nicole Kraemer - 22 Apr 2008