TU Wien:Virtual and Augmented Reality VO (Kaufmann)/Prüfung 2010-01-27

From VoWi
Jump to navigation Jump to search

Neue Fragen waren:

Techniken für Auto-Stereoscopische Screens?[edit]

siehe: TU_Wien:Virtual_and_Augmented_Reality_VO_(Kaufmann)/Prüfung_2011-01-25#Lenticular_.26_Volumetric_Devices_beschreiben._Unterschiede_in_der_Interaktion_mit_diesen.3F

Cybersickness, was ist das, symptome?[edit]

statische, dynamische Genauigkeit (Accuracy) erklären![edit]

Formel 1 Rennstrecke Trackingmethode (DGPS ist mein Vorschlag)[edit]

Aus welchen Teilen ist ein passives stereoscopisches setup aufgebaut? (polarisations-filte brillen kommen dabei zur Verwendung)[edit]

Einerseits benötigt man 2 Projektoren die die 2 verschiedenen Bilder in unterschiedlicher Polarisation auf die Leinwand projizieren. Die Projektionsleinwand muss eine Metallbeschichtung besitzen, da eine normale weiße Leinwand das die Polarisation des Lichts wieder aufheben würde. Die Polfilter-Brillen müssen die gleiche Ausrichtung haben wie die Projektoren, damit sich der 3D Effekt einstellen kann.

Werden die Brillen schräg gehalten (die Winkel der Polarisationsfilter von Projektor und Brille stimmen nicht mehr genau überein), so kommt es zu Ghosting. "RealD" schafft dem Abhilfe – es gibt nur einen Projektor, der abwechselnd die beiden benötigten Bilder auf die Leinwand projiziert – einmal im Uhrzeigersinn polarisiert, und einmal gegen den Uhrzeigersinn. Die im Vergleich zu obigem Verfahren komplizierteren Brillen haben einen Polfilter + Verzögerungsplatte, und sorgen damit dafür dass jedes Auge nur dsa für es bestimmte Bild sieht.

Quellen[edit]

Optisches Tacking System Design (Kamerakalibrierung, Segmentierung & Featureerkennung usw.)[edit]

  1. Camera Calibration (radiale/tangentiale Verzerrung, Fokaldistanz = intrinsic; wie stehen mehrere Kameras zueinander = extrinsic)
  2. Segmentation & feature identification (erkennen von blobs)
  3. Feature Correlation (finding multiple view blob correspondences)
  4. Projective Reconstruction (3DOF Marker Positionen errechnen
  5. Model-fitting (find pre-calibrated rigid constellations within the marker point cloud)
  6. Pose estimation (obtain 6-DOF pose (rotation/translation) for each rigid constellation)

Quellen[edit]

  • VO2/3 Input Tracking - page 78 - 90

sonst eher POs[edit]