TU Wien:Mustererkennung VU (Haxhimusa)/Prüfung 2013-06-27
Zur Navigation springen
Zur Suche springen
Kurze Fragen (10, je 1P = 10P)[Bearbeiten | Quelltext bearbeiten]
- Drei Feature Selection Methods (=> Naive, Sequential Forward, Sequential Backward)
- Drei NN Training Protokolle (=> Stochastic, Online, Batch)
- Formel von einer der Feature Normalization methods
- Welches clustering macht einen MST? (=> Single linkage, Divisive hierarchical Clustering)
- Was ist "shrinkage" (=> Hoher Parameterwerte penalisieren)
- ...
Mittlere Fragen (6, je 3-6P = 25P)[Bearbeiten | Quelltext bearbeiten]
- Boost und AdaBoost erklären
- Wie schauen die discriminants bei gaussians aus (die verschiedenen Formen von sigma)
- PCA und LDA erklären + bsp mittels Skizze
- Graph editing distance erklären + bsp mittels Skizze
- Unterschied Frequentist vs Bayesian approach
- Kernel window estimation erklären (+ was passiert wenn Seitenlänge h sich ändert)
Aufsatz (15P)[Bearbeiten | Quelltext bearbeiten]
- SVM (inkl. linear/nonlinear? soft/hard margin? "kernel trick"? pros/cons?)