TU Wien:Einführung in die Mustererkennung VO (Hladuvka)/Prüfung 2020-06-03

Aus VoWi
Zur Navigation springen Zur Suche springen
  1. k-NN: Es waren Punkte zweier Klassen in einem Raster gegeben und zwei neue Punkte, die mit zwei unterschiedlichen k klassifiziert werden sollen
  2. Entscheidungsbäume: Gegeben war ein Entscheidungsbaum mit Verteilungsfaktor > 2. Baue diesen auf einen binären Entscheidungsbaum um.
  3. Bayes: Gegeben sind Priors zweier Klassen und die bedingten Wahrscheinlichkeiten für ein Merkmal mit 3 Ausprägungen (P(x=i|w)). Folgendes war auszurechnen:
    • P(x=i): Wahrscheinlichkeiten der Merkmalsausprägungen, unabhängig von der Klasse
    • P(w|x=i): Die umgekehrten bedingten Wahrscheinlichkeiten
    • P(error|x=i): Wahrscheinlichkeiten einen Fehler zu machen für die Merkmalsausprägungen
    • P(error): gesamte Fehlerrate
  4. Perceptron: Gegeben sind 4 Datenpunkte (2D), 2 pro Klasse, Anfangsgewichtsvektor und Lernrate.
    • Führe den Perceptron-Algorithmus bis zur Konvergenz durch.
    • Gib die Gleichung für die Entscheidungsgrenze an
    • Fertige eine Skizze mit den Punkten und der Entscheidungsgrenze an
  5. Kovarianzmatrix: Gegeben waren viele Datenpunkte in einem 2D-Raster und 6 Matrizen. Welche der 6 Matrizen ist die zur Skizze passende Kovarianzmatrix. Begründe deine Wahl und warum die anderen Matrizen nicht zutreffen.
  6. Confusion-Matrix: Erstelle eine Confusion-Matrix zu einer Skizze (2D) mit Datenpunkte zweier Klassen und einer Entscheidungsfunktion.
  7. Neuronale Netze: Gegeben sind die Gewichte eines kleinen neuronalen Netzes. Berechne die Ausgabe/"Forward Pass" für einen bestimmten Eingabevektor
  8. Clustering/k-means: Gegeben waren 15 Punkte in einem 2D-Raster, sowie 3 zufällige Mittelpunkte für die Cluster. Führe 1 Iteration des k-Means Algorithmus durch.

Alles in allem vom Aufwand sehr fair. Wie bereits auch bei den vorigen Prüfungen erwähnt, sollte diese keine Probleme bereiten, wenn man die Folien 1-2 Mal durchgegangen ist und vor allem auch die Beispiele gerechnet hat.