TU Wien:Mustererkennung VU (Haxhimusa)/Prüfung 2013-06-27

Aus VoWi
Zur Navigation springen Zur Suche springen

Kurze Fragen (10, je 1P = 10P)[Bearbeiten | Quelltext bearbeiten]

  • Drei Feature Selection Methods (=> Naive, Sequential Forward, Sequential Backward)
  • Drei NN Training Protokolle (=> Stochastic, Online, Batch)
  • Formel von einer der Feature Normalization methods
  • Welches clustering macht einen MST? (=> Single linkage, Divisive hierarchical Clustering)
  • Was ist "shrinkage" (=> Hoher Parameterwerte penalisieren)
  • ...

Mittlere Fragen (6, je 3-6P = 25P)[Bearbeiten | Quelltext bearbeiten]

  • Boost und AdaBoost erklären
  • Wie schauen die discriminants bei gaussians aus (die verschiedenen Formen von sigma)
  • PCA und LDA erklären + bsp mittels Skizze
  • Graph editing distance erklären + bsp mittels Skizze
  • Unterschied Frequentist vs Bayesian approach
  • Kernel window estimation erklären (+ was passiert wenn Seitenlänge h sich ändert)

Aufsatz (15P)[Bearbeiten | Quelltext bearbeiten]

  • SVM (inkl. linear/nonlinear? soft/hard margin? "kernel trick"? pros/cons?)