== Projekt Machine Learning == || '''Termin:''' || [[Main/#Termine|Siehe unten]] (werden laufend bekannt gegeben) || || '''Raum:''' || [[Main/#Termine|Siehe unten]] (werden laufend bekannt gegeben) || || '''Dozent:''' || Prof. Dr. Klaus-Robert Müller || || '''Ansprechpartner:''' || [[http://ml.cs.tu-berlin.de/~blanker/|Dr. Benjamin Blankertz]] (BCI Projekt) und Paul von Bünau (buenau@cs.tu-berlin.de, Crawling Projekt) || === Termine === || '''Datum''' || '''Uhrzeit''' || '''Raum''' || '''Beschreibung''' || || Dienstag, 16.10. || 10:00 Uhr || FR 6535 || Vorbesprechung || === Inhalt === Es werden zwei Projekte angeboten: praktische Aufgaben im Rahmen des [[http://www.bbci.de|Berlin Brain-Computer-Interface]] und die Entwicklung einer Crawling-Plattform fuer Social Networks (insbesondere [[http://last.fm|last.fm]]) inklusive erster Schritte zur Analyse der gewonnenen Daten. Die Teilnahme am Machine Learning Projekt ist eine sehr gute Vorbereitung auf die Arbeit im Fachgebiet Maschinelles Lernen (Diplomarbeit, Hiwi-Stelle). === BCI Projekt === '''Betreuer:''' [[http://ml.cs.tu-berlin.de/~blanker/|Dr. Benjamin Blankertz]] Es werden Projektarbeiten im Rahmen des 'Berlin Brain-Computer Interface' (BBCI) Projektes angeboten (siehe www.bbci.de). Ein Brain-Computer Interface ist ein System, dass es seinem Benutzer ermöglicht, einfache Computeranwendungen durch Gehirnaktivität zu steuern. In diesem Umfeld wird es verschiedene Programmieraufgaben geben, z.B. für optische Stimulationen und deren Integration in BCI Feedback Applikationen. Ein Teil der Projektarbeiten sollte in BCI Experimenten, die von den Studenten durchgeführt werden, erprobt werden. ==== Vorkenntnisse ==== === [[Main/MLProjektCrawling|Crawling Projekt]] === '''Betreuer:''' [[Main/mailto:buenau@cs.tu-berlin.de|Paul von Buenau]] Das Ziel des Projektes ist die Entwicklung einer verteilten Plattform zum crawling (automatisierte Datenbeschaffung ueber das Internet) von Social Network Plattformen wie z.B. last.fm oder mySpace. Weiterhin soll eine komfortable Schnittstelle zu Matlab geschaffen werden, sowie eine Dokumentation von Datenstrukturen und ersten Analysen des Datenbestandes. Die Crawling Plattform soll als grundlegendes Werkzeug zur Erforschung von Sozialen Netzwerken (insbesondere Emerging Trend Detection & Analysis) mit Machine Learning Methoden dienen. Alle weiteren Informationen auf der Seite des [[Main/MLProjektCrawling|ML Projekts Crawling]]. -- [[Main/PaulBuenau]] - 18 Sep 2007