TU Wien:Virtual and Augmented Reality VO (Kaufmann)/Prüfung 2010-01-27

Aus VoWi
Zur Navigation springen Zur Suche springen

Neue Fragen waren:

Techniken für Auto-Stereoscopische Screens?[Bearbeiten | Quelltext bearbeiten]

siehe: TU_Wien:Virtual_and_Augmented_Reality_VO_(Kaufmann)/Prüfung_2011-01-25#Lenticular_.26_Volumetric_Devices_beschreiben._Unterschiede_in_der_Interaktion_mit_diesen.3F

Cybersickness, was ist das, symptome?[Bearbeiten | Quelltext bearbeiten]

statische, dynamische Genauigkeit (Accuracy) erklären![Bearbeiten | Quelltext bearbeiten]

Formel 1 Rennstrecke Trackingmethode (DGPS ist mein Vorschlag)[Bearbeiten | Quelltext bearbeiten]

Aus welchen Teilen ist ein passives stereoscopisches setup aufgebaut? (polarisations-filte brillen kommen dabei zur Verwendung)[Bearbeiten | Quelltext bearbeiten]

Einerseits benötigt man 2 Projektoren die die 2 verschiedenen Bilder in unterschiedlicher Polarisation auf die Leinwand projizieren. Die Projektionsleinwand muss eine Metallbeschichtung besitzen, da eine normale weiße Leinwand das die Polarisation des Lichts wieder aufheben würde. Die Polfilter-Brillen müssen die gleiche Ausrichtung haben wie die Projektoren, damit sich der 3D Effekt einstellen kann.

Werden die Brillen schräg gehalten (die Winkel der Polarisationsfilter von Projektor und Brille stimmen nicht mehr genau überein), so kommt es zu Ghosting. "RealD" schafft dem Abhilfe – es gibt nur einen Projektor, der abwechselnd die beiden benötigten Bilder auf die Leinwand projiziert – einmal im Uhrzeigersinn polarisiert, und einmal gegen den Uhrzeigersinn. Die im Vergleich zu obigem Verfahren komplizierteren Brillen haben einen Polfilter + Verzögerungsplatte, und sorgen damit dafür dass jedes Auge nur dsa für es bestimmte Bild sieht.

Quellen[Bearbeiten | Quelltext bearbeiten]

Optisches Tacking System Design (Kamerakalibrierung, Segmentierung & Featureerkennung usw.)[Bearbeiten | Quelltext bearbeiten]

  1. Camera Calibration (radiale/tangentiale Verzerrung, Fokaldistanz = intrinsic; wie stehen mehrere Kameras zueinander = extrinsic)
  2. Segmentation & feature identification (erkennen von blobs)
  3. Feature Correlation (finding multiple view blob correspondences)
  4. Projective Reconstruction (3DOF Marker Positionen errechnen
  5. Model-fitting (find pre-calibrated rigid constellations within the marker point cloud)
  6. Pose estimation (obtain 6-DOF pose (rotation/translation) for each rigid constellation)

Quellen[Bearbeiten | Quelltext bearbeiten]

  • VO2/3 Input Tracking - page 78 - 90

sonst eher POs[Bearbeiten | Quelltext bearbeiten]