TU Wien:Einführung in die Mustererkennung UE (Haxhimusa)

Aus VoWi
Wechseln zu: Navigation, Suche
Diese LVA wird nicht mehr von dieser Person angeboten, ist ausgelaufen, oder läuft aus und befindet sich daher nur noch zu historischen Zwecken im VoWi. Eventuell findest du über dieser Meldung noch andere Vortragende, oder Links für dieselbe LVA.



Daten[Bearbeiten]

Inhalt[Bearbeiten]

Ziel der UE ist es, die in der Vorlesung erarbeiteten Grundlagen der Mustererkennung (pattern recognition) zu vertiefen. Der Schwerpunkt liegt auf der Analyse von Bilddaten, d.h. der Extraktion und Verarbeitung von Bild-Merkmalen (image features).

Ablauf[Bearbeiten]

Es finden jede Woche Übungseinheiten statt, wobei nur bei der ersten Anwesenheitspflicht herrscht. Dabei herrscht aber nicht wirklich Anwesenheitspflicht, es wäre nur ratsam hinzugehen, wenn man noch keine Gruppe hat. Im Grunde wird in der ersten Übungseinheit der Übungsmodus vorgestellt und es werden laut TISS bereits Gruppen gebildet. Die tatsächliche Gruppenanmeldung ist jedenfalls erst im Anschluss im TUWEL möglich.

Benötigte/Empfehlenswerte Vorkenntnisse[Bearbeiten]

MatLab-Vorkenntnisse (z.B. aus der Übung zu "Einführung in die digitale Bildverarbeitung" oder "Einführung in Visual Computing") sinds dringendst zu empfehlen. Mit ein wenig Zeit und Interesse sind die benötigten MatLab-Skills aber auch während der Übung zu erlernen. Des Weiteren wird man in der Übung mit einigen Begriffen aus der Statistik konfrontiert (Bayes-Theorem, Kovarianzmatrix, ...).

Vortrag[Bearbeiten]

Neben der Übung gibt es wöchentlich eine 2-stündige Vorlesungseinheit (Mustererkennung VO) von Prof. Haxhimusa. Der Vortrag ist interessant und hilfreich und auf jeden Fall zu empfehlen. Zwingend notwendig ist der Besuch der VO aber nicht zum Erarbeiten der Übungsbeispiele.

Übungen[Bearbeiten]

In den Übungen werden grundlegende Methoden der Mustererkennung durchgenommen und mit MatLab implementiert. In der ersten Übung liegt der Fokus auf Merkmalsextraktion aus Binärbildern, damit man den Begriff "Feature" kennenlernt und eine Ahnung davon bekommt worum es sich bei einem Feature-Vektor handelt und wie man Bilder anhand dieses Vektors klassifizieren kann. In den weiteren 2 Übungen werden neue Klassifikationsmethoden (Mahalanobis-Classifier, einfaches Perzeptron) vorgestellt und müssen auf bestimmte Datasets angewendet werden. Diese Datasets enthalten viele Features und man wird dabei mit der Herausforderung konfrontiert eine möglichst gute Auswahl an Features zu treffen um die Klassifikation, sowie die Laufzeit der verschiedenen Classifier, zu verbessern. Jede Übung ist mit dem Verfassen eines Berichts verbunden, der vorzugsweise in LaTeX geschrieben werden soll.

Prüfung, Benotung[Bearbeiten]

Die UE umfasst 3 Übungsbeispiele und 1 abschließenden Test. Diese 4 Einheiten umfassen jeweils 25 Punkte, d.h. es sind insgesamt 100 Punkte zu erreichen. Der Test findet am Ende des Semesters statt und muss nicht positiv absolviert werden - d.h. man muss nicht einmal daran teilnehmen, falls man bereits aus den Übungen genug Punkte hat. Es ist aber empfehlenswert den Test zu schreiben, denn wenn man sich in der Übung mit der Materie auseinander gesetzt hat, kann man sich noch einige Punkte holen. Der Test war im WS 2012 folgendermaßen aufgebaut:

  • 9 kurze Theoriefragen (je 1 Punkt) zu allen möglichen Gebieten (Bayes Theorem, kNN-Klassifikator, usw.) - teilweise sogar Multiple-Choice
  • 3 umfangreichere Fragen (je 3 Punkte) zu den unterschiedlichen Klassifikatoren (kNN, Mahalanobis, Perzeptron) - Funktion beschreiben, ...
  • 1 "Rechenaufgabe" (7 Punkte) bei der 2 Klassen gegeben waren (mit jeweils 4 Feature-Vektoren mit 2 Features) von denen, unter Annahme eigens definierter Vereinfachungen, eine lineare Diskriminantenfunktion berechnet werden musste -> Gerade die die beiden Punktemengen trennt.

Dauer der Zeugnisausstellung[Bearbeiten]

Prüfung am 24.01.2013 -> Zeugnis erhalten am 18.02.2013 (~3.5 Wochen)

Zeitaufwand[Bearbeiten]

Für die Übungen in 3er-Teams muss man schon mit einigen Stunden Arbeit pro Teammitglied rechnen.

Wenn man genug Zeit in die Übungen investiert, muss man sich am Ende des Semesters kaum/garnicht mehr auf den Test vorbereiten.

Unterlagen[Bearbeiten]

noch offen

Tipps[Bearbeiten]

-Sucht euch eure Teammitglieder gut aus, sonst kann es sein, dass ihr die Übung zu 2. fertig machen müsst. -SVN/Git Repository ist bei Teamarbeiten allgemein immer gut.

Verbesserungsvorschläge / Kritik[Bearbeiten]

noch offen