Bei dieser Namensähnlichkeit, muss man fast so ein Banner machen :)

TU Wien:Einführung in die Mustererkennung VO (Artner)/Prüfung 06.10.2016

Aus VoWi
Zur Navigation springen Zur Suche springen

"90 Minuten, 80 Punkte, Taschenrechner waren erlaubt, der vorher abgegebene "Schummler" auf gelben Papier ausgegeben. Zeit war recht knapp, es wurde aber nett 15 Minuten draufgegeben." (Genau wie Prüfung_01.06.2015)

1.) Bayes: Es waren zwei Klassen P(wj) und je 4 Merkmale P(x=i|wj) gegeben. Man musste ausrechnen: Die P(x=i), die P(wj|x=1) für 2 Merkmale in 2 Klassen, die P(error|x=i), den gesamt P(error). Dann war noch ein Graph gegeben mit zwei Klassenkurven für P(w1|x)=0,5 und P(w2|x)= 0,5 (also einer Entscheidungslinie in der Mitte, ähnlich der Grundlagen II Folie 24 aber auf der x-Achse von ca. -2 bis +8), dazu musste man dann auf zwei leeren Achsen die Kurven skizzieren für P(w1|x)=0,7 und P(w2|x)=0,3 und P(w1|x)=0,2 und P(w2|x)=0,8 oder so ähnlich.

2.) Entscheidungsbäume: Es waren Punkte (der Klassen "x" und "o") in einer graphischen Darstellung mit Entscheidungsgrenzen parallel zur x- und y-Achse gegeben. Man musste daraus einen Entscheidungsbaum zeichnen (es wurde extra erwähnt, die Nummern der einzelnen Punkte in die Blätter einzutragen und nicht nur "x" und "o") und dann zu jeder Kante/Knoten die Entropie berechnen.

3.) 2 PCA Basen gegeben -> zuteilen zu 4 möglichen Stichprobenmengen und begründen

4.) Clustering: k-Means Algorithmus war mit k=3 für einige Datenpunkte und 3 gegeben Startmittelpunkten in einem Kasterl-Raster anzuwenden (als Distanz war "Manhattan Distanz" zu verwenden). Dann waren zwei Datenmengen als Grafik gegebn, eine Spiralförmig um einen Mittelpunkt verteilt, eine mit mehreren zusammenhängenden "Blobs" und man musste wählen und Begründen für welche sich der k-Means Algorithmus eher eignet.

5.) Anhand von knn (Manhatten Distanz) zwei Stichproben klassifizieren und + kurzer multiple Choice teil zu knn (supervised oder unsupervised / knn -gerade oder ungerade / ...)

6. ) Evaluierung: 2 Grafiken (ähnlich Folie Evaluierung Seite 14 und 15) war zuzuordnen: Hohe/Niedrige Varianz, Hoher/Niedriger Bias, Gute/Schlechte Generalisierungsfähigkeit, Underfittung/Overfitting. Dann musste man für die lineare Grafik die Confusion Matrix anschreiben und anschließend die ROC Kurve (glaub ich) in eine Grafik einzeichnen.

7.) Perceptron Beispiel, ähnlich wie in den Folien, Koordinaten(/Merkmalsvektoren) mussten erst homogenisiert werden