TU Wien:Einführung in die Mustererkennung VO (Artner)/Prüfung 23.3.2015

Aus VoWi
Zur Navigation springen Zur Suche springen

Fragen aus dem Gedächtnis:

1a) Es war ein mit CART erstellter Baum gegeben, man musste die grafische Unterteilung machen (das mit den horizontalen und vertikalen Linien)

1b) Man musste die Entropie in den Knoten und Blättern ausrechnen. Laut Professorin war "weniger als die Hälfte zu rechnen", den Rest kann man ablesen.

2) Es war ein normaler Baum gegeben und man musste einen binären Baum daraus machen, wobei direkt unter dem Wurzelknoten kein Blatt sein durfte. In etwa so: [[1]]

3) Bayes: Man hatte P(wj) und P(x=i|wj) gegeben und musste sich P(x=i) ausrechnen. Danach musste man P(wj|x=i) ausrechnen. Dann aufschreiben zu welcher Klasse was klassifiziert wurde und auch die bedingte Fehlerwahrscheinlichkeit P(error|x=i) angeben. Zum Schluss musste man die Fehlerrate P(error) ausrechnen.

4) Diskriminantenfunktion: Es waren 2 Klassen mit je 4 Vektoren gegeben. Man musste , die Kovarianzmatrizen, die Determinanten und die Inversen ausrechnen. Dann musste man gA(x) und gB(x) ausrechnen, wobei für P(wj)=0,5 angenommen wurde. Danach musste man die Entscheidungsgrenze gA(x)=gB(x) ausrechnen. Zum Schluss musste man anhand einer Zeichnung die Entscheidungsgrenze einzeichnen, falls die Kovarianzmatrix ist.

5) PCA: Es war x = , die Basis U und die reduzierte Basis U' gegeben und man musste eine Rekonstruktion sowohl mit U als auch U' machen.

6) Clustering: Es war so ein Plot gegeben und man musste einen Iterationsschritt mit dem kMeans Algorithmus machen. Als Metrik war die Manhattan 4er Nachbarschaft gegeben. Danach war noch eine Theoriefrage: Es waren 2 Cluster gegeben (einer der so spiralförmig war, der andere mit "Klecksen', ähnlich Folie Clustering-Seite 41) und man musste begründen für welchen der beiden die euklidische Distanzmetrik am besten geeignet ist.

7) Evaluierung: 2 Grafiken (ähnlich Folie Evaluierung Seite 14 und 15) war zuzuordnen: Hohe/Niedrige Varianz, Hoher/Niedriger Bias, Gute/Schlechte Generalisierungsfähigkeit, Underfittung/Overfitting. Dann musste man für die lineare Grafik die Confusion Matrix anschreiben und anschließend die ROC Kurve (glaub ich) in eine Grafik einzeichnen.

Das ist alles was mir bis jetzt eingefallen ist, bin mir nicht sicher obs noch was gab. Falls jemanden noch was einfällt, bitte dazueditieren