TU Wien:Einführung in die Mustererkennung VO (Hladuvka)/Prüfung 2020-06-03
Zur Navigation springen
Zur Suche springen
- k-NN: Es waren Punkte zweier Klassen in einem Raster gegeben und zwei neue Punkte, die mit zwei unterschiedlichen k klassifiziert werden sollen
- Entscheidungsbäume: Gegeben war ein Entscheidungsbaum mit Verteilungsfaktor > 2. Baue diesen auf einen binären Entscheidungsbaum um.
- Bayes: Gegeben sind Priors zweier Klassen und die bedingten Wahrscheinlichkeiten für ein Merkmal mit 3 Ausprägungen (P(x=i|w)). Folgendes war auszurechnen:
- P(x=i): Wahrscheinlichkeiten der Merkmalsausprägungen, unabhängig von der Klasse
- P(w|x=i): Die umgekehrten bedingten Wahrscheinlichkeiten
- P(error|x=i): Wahrscheinlichkeiten einen Fehler zu machen für die Merkmalsausprägungen
- P(error): gesamte Fehlerrate
- Perceptron: Gegeben sind 4 Datenpunkte (2D), 2 pro Klasse, Anfangsgewichtsvektor und Lernrate.
- Führe den Perceptron-Algorithmus bis zur Konvergenz durch.
- Gib die Gleichung für die Entscheidungsgrenze an
- Fertige eine Skizze mit den Punkten und der Entscheidungsgrenze an
- Kovarianzmatrix: Gegeben waren viele Datenpunkte in einem 2D-Raster und 6 Matrizen. Welche der 6 Matrizen ist die zur Skizze passende Kovarianzmatrix. Begründe deine Wahl und warum die anderen Matrizen nicht zutreffen.
- Confusion-Matrix: Erstelle eine Confusion-Matrix zu einer Skizze (2D) mit Datenpunkte zweier Klassen und einer Entscheidungsfunktion.
- Neuronale Netze: Gegeben sind die Gewichte eines kleinen neuronalen Netzes. Berechne die Ausgabe/"Forward Pass" für einen bestimmten Eingabevektor
- Clustering/k-means: Gegeben waren 15 Punkte in einem 2D-Raster, sowie 3 zufällige Mittelpunkte für die Cluster. Führe 1 Iteration des k-Means Algorithmus durch.
Alles in allem vom Aufwand sehr fair. Wie bereits auch bei den vorigen Prüfungen erwähnt, sollte diese keine Probleme bereiten, wenn man die Folien 1-2 Mal durchgegangen ist und vor allem auch die Beispiele gerechnet hat.