TU Wien:Einführung in die Mustererkennung VO (Artner)/Prüfung 01.06.2015

Aus VoWi
Zur Navigation springen Zur Suche springen

Nach Gedächtnis:

90 Minuten, 80 Punkte, Taschenrechner waren erlaubt, der vorher abgegebene "Schummler" auf gelben Papier ausgegeben. Zeit war recht knapp, es wurde aber nett 15 Minuten draufgegeben.

1.) (15 Punkte) Entscheidungsbäume: Es waren Punkte (der Klassen "x" und "o") in einer graphischen Darstellung mit Entscheidungsgrenzen parallel zur x- und y-Achse gegeben. Man musste daraus einen Entscheidungsbaum zeichnen (es wurde extra erwähnt, die Nummern der einzelnen Punkte in die Blätter einzutragen und nicht nur "x" und "o") und dann zu jeder Kante/Knoten die Entropie berechnen.

2.) (20 Punkte) Bayes: Es waren zwei Klassen P(wj) und je 4 Merkmale P(x=i|wj) gegeben. Man musste ausrechnen: Die P(x=i), die P(wj|x=1) für 2 Merkmale in 2 Klassen, die P(error|x=i), den gesamt P(error). Dann war noch ein Graph gegeben mit zwei Klassenkurven für P(w1|x)=0,5 und P(w2|x)= 0,5 (also einer Entscheidungslinie in der Mitte, ähnlich der Grundlagen II Folie 24 aber auf der x-Achse von ca. -2 bis +8), dazu musste man dann auf zwei leeren Achsen die Kurven skizzieren für P(w1|x)=0,7 und P(w2|x)=0,3 und P(w1|x)=0,2 und P(w2|x)=0,8 oder so ähnlich.

3.) (20 Punkte) Diskriminantenfunktion: Es waren 2 Klassen mit je 4 Merkmalen gegeben (etwa A: ((1, 2), (2, 1), (2, 2), (1, 2)) und B: ((4, 1), (5, 1), (5, 2), (4, 2)). Es war auszurechnen μ_A und μ_B, die Kovarianzmatrix ∑_A und ∑_B (da kamen angenehme Werte raus, damit es nicht zu viel Arbeit ist), die Determinanten davon und die Inverse davon. Dann waren die Diskriminatenfunktionen gefragt wobei bei diesem Punkt angenommen werden konnte, dass ∑_A=∑_B=[1, 0 ; 0 , 1 ] und . Dann musste noch die Entscheidungsgrenze mit gefunden und in eine Graphenskizze eingetragen werden (sah auch einfach aus, nichts quadratisches)).

4.) (8 Punkte?) PCA: Etwas mit PCA und Basis.

5.) (8 Punkte?) Clustering: k-Means Algorithmus war mit k=3 für einige Datenpunkte und 3 gegeben Startmittelpunkten in einem Kasterl-Raster anzuwenden (als Distanz war "Manhattan Distanz" zu verwenden). Dann waren zwei Datenmengen als Grafik gegebn, eine Spiralförmig um einen Mittelpunkt verteilt, eine mit mehreren zusammenhängenden "Blobs" und man musste wählen und Begründen für welche sich der k-Means Algorithmus eher eignet.

6.) (9 Punkte?) Evaluierung: Es war ein Kästchen mit 4 Kategorien (TF=80%, FP=20%, TN=90%, FN=10%) gegeben und man musste eine dazu passende Verteilung in einem Graphen zeichnen (ähnlich wie Evaluierungsfolie 8). Dazu einfach eine Trennlinie, "positve" und "negative" Seite beschriften und dann am besten 8 "+" Punkte auf der positiv und 2 "+" Punkte auf der positiv Seite und 1 "-" Punkt auf der positiv und 9 "-" Punkte auf der negativ Seite. Dann musste noch dazu eine ROC Kurve skizziert werden.