TU Wien:Einführung in Visual Computing VU (W. Kropatsch, W. Purgathofer, R. Sablatnig)/Fragenkatalog Test 1

From VoWi
Jump to navigation Jump to search

Computergraphik







  

1

Pipeline und Objektrepräsentation

Bei einer B-Rep wird nur die Oberfläche der Objekte beschrieben.
CSG Objekte erlauben eine exakte Repräsentation von Objektoberflächen, haben jedoch einen höheren Speicherbedarf.
CSG Objekte stellen einen hierarchischen Aufbau eines Objektes durch Verknüpfung einfacher geometrischer Formen dar.
CSG-Objekte werden durch die Operatoren Vereinigung, Durchschnitt und Mengendifferenz beschrieben.
Da bei CSG alle Primitive konsistent sind (keine Löcher aufweisen) und die Operatoren aus konsistenten Teilen nur konsistent Objekte erzeugen, sind bei CSG alle Objekte immer konsistent.
Der einzige Weg um CSG Objekte zu zeichnen ist sie in BRep Objekte umzurechnen.

2

Quad- und Octrees

Bei geometrischen Transformationen müssen Octrees oft komplett neu generiert werden.
Die Genauigkeit der Objektdarstellung in Quad-und Octrees ist generell abhängig von der Baumtiefe.
Durch die hierarchische Objektdarstellung von Octrees lassen sich einzelne Teile im Octree sehr einfach transformieren.
Ein Octree ist die Erweiterung des Konzeptes des Quadtree auf drei Dimensionen.
Ein Szenengraph ist eine genormte Datenstruktur zum Austausch geometrischer Daten.
In einem Octree hat jeder Knoten mindestens acht Subknoten.
Octrees erlauben ein schnelles Durchsuchen bestimmter räumlicher Positionen eines Objektes.

3

Transformationen

Die Matrix-Schreibweise hat den Vorteil, dass durch Kombination von Grundmatrizen komplexe Transformationen mit nur einer Matrix dargestellt werden können.
Für einen homogenen 2D Punkt (x,y,h) berechnet sich die tatsächliche x-Koordinate x‘ durch x‘=h/x.
Mittels 3x3 Matrizen lassen sich alle geometrischen Transformationene von 3D Objekten darstellen.
Polygon Meshes können als Ganzes transformiert werden, indem man jeden Punkt (Bildpunkt, 3D-Punkt) mit einer Matrix transformiert.
S(4,4,4) * S(5,5,5) = S(20,20,20)
S(x,y,z)^-1 = S(1/x,1/y,1/z)
T(x,y,z) = T(x,y,z)^{-1}

4

Farbe

Die Netzhaut des Auges enthält Stäbchen für das Schwarz/Weiß-Sehen und 3 Zapfenarten für das Farbsehen.
Die Purpurlinie des CIE Chromaticitydiagramms enthält spektralreine Farben.
HSV schwarz ist wenn S=0.
Licht mit höherer Frequenz hat eine kleinere Wellenlänge.
RGB kann alle menschlich wahrnehmbaren Farben darstellen.
Rot-grün-blinde Personen sehen nur die Farben Rot und Grün.
Verschiedene Lichtspektren können den gleichen Fabreindruck erzeugen.

5

 

Drucker verwenden das

Farbmodell.
Der Raum der darstellbaren Farben eines Gerätes heißt

.

6

 

Beim CMYK-Farbmodell steht K für „Key“ und entspricht der Farbe schwarz.
Das CIE 1931 XYZ Farbmodell umfasst auch jene Farben, die der Mensch nicht sehen kann.
Das RGB Farbmodell basiert auf den Prinzip der subtraktiven Farbmischung.
Das RGB Farbmodell kommt z.B. bei Monitoren zum Einsatz und weist jeder Farbe eine Koordinate zu, wobei [0, 0, 0] schwarz entspricht.
Die Farbmodelle HSV und HLS sind intuitivere Modelle, bei denen sich eine Farbkoordinate prinzipiell aus Werten für den Farbton, die Sättigung und Helligkeit zusammensetzt.
Licht mit niedrigerer Frequenz hat eine kleinere Wellenlänge.

7

Rasterisierung

Baryzentrische Koordinaten können bei Polygon-Fill-Algorithmen hilfreich sein.
Der DDA-Algorithmus verwendet im Gegensatz zum Bresenham-Algorithmus nur Integer-Operationen beim Rasterisieren von Linien.
Der Startwert p_0 des Bresenham-Algorithmus wird berechnet durch p_0 = 2\Delta y-\Delta x.
Sei A ein Eckpunkt eines Dreiecks, und α die zugehörige baryzentrische Koordinate: Je weiter sich ein Punkt P innerhalb des Dreiecks von A entfernt, desto größer wird α.
Die Odd-Even-Regel besagt: Zieht man von einem Punkt aus einen beliebigen Halbstrahl, so ist der Punkt innerhalb, wenn die Zahl der Schnitte mit der Kurve ungerade ist, ansonsten ist der Punkt außerhalb.
Wenn die Summe der baryzentrischen Koordinaten für einen Punkt P größer oder gleich 1 ist, bedeutet dies, dass der Punkt P innerhalb des Dreiecks liegt.

8

 

Beim Rasterisieren von Linien erzeugen der DDA- und der Bresenham-Algorithmus dasselbe Ergebnis, außer, dass Bresenham nur

-Operationen verwendet.
Ein Punkt liegt außerhalb eines Dreiecks, wenn mindestens eine baryzentrische Koordinate

oder

ist.
Die Summe der baryzentrischen Kooridinaten, alpha, beta und gamma eines Punktes in einem Dreieck ist stets

.

9

Viewing

Welche der folgenden Angaben fließen in das Viewing Koordinatensystem (View-Matrix) ein?

Art der Projektion (orthographisch, perspektivisch)
Blickrichtung der Kamera
Kameraorientierung
Kameraposition im Raum
Normalabstand der Kameraposition zur Abbildungsebene

10

 

Bei der perspektivischen Projektion bleiben die Tiefenwerte von Punkten erhalten.
Bei der perspektivischen Projektion bleibt die relative Ordnung der Tiefenwerte von Punkten erhalten.
Die Viewport Transformation wandelt Kamerakoordinaten in Pixelkoordinaten um.


Computer Vision







  

1

CV-Einführung

Welche Eingabeparameter hat die plenoptische Funktion?

Bildkoordinaten
Lichtintensität
Position des Auges
RGB Farbwerte
Wellenlänge des Lichts
Zeit

2

Was ist die Ausgabe der plenoptischen Funktion?

Lichtintensität
RGB Farbwert
Wellenlänge des Lichts

3

Warum ist auf einem in einer Szene platzierten weißen Blatt Papier kein Abbild der Szene zu sehen?

Das Licht wird vom Blatt nicht reflektiert.
Die Lichtstrahlen aus allen möglichen Richtungen überlagen sich.
Die Lichtintensität ist zu hoch.

4

Bildaufnahme

256 ist eine mögliche radiometrische Auflösung eines digitalen Bildes.
Bei einem Color Filter Array (Bayer Pattern) werden nur 25% der Sensorelemente zur Messung des Grünanteils verwendet.
Bei einem Color Filter Array wird für jedes Pixel entweder der rote, grüne oder blaue Farbanteil gemessen.
Bei einer perspektivischen Projektion sind Objekte kleiner, je weiter sie von der Bildebene entfernt sind.
Die Brennweite hat einen Einfluss auf den Tiefenschärfebereich.
Die fokale Länge hat keinen Einfluss darauf, wie groß Objekte auf der Bildebene sind.
Die Gamma-Korrektur ist eine nicht-lineare Punktoperation.
Die plenoptische Funktion hat mehrere Ausgabeparameter, aber nur einen Eingabeparameter.
Die sphärische Aberration führt zu Farbverfälschungen im Bild.
Farbe wird bei der plenoptischen Funktion nicht berücksichtigt.
Je größer die Brennweite, desto kleiner erscheinen Objekte im Bild.
Nach der Korrektur einer geometrischen Linsenverzerrung erscheinen gerade Kanten im Bild ebenfalls gerade.

5

Camera Obscura

Bei einer Lochkamera (Camera Obscura) geschieht eine perspektivische Projektion.
Das Loch (die Blende) sollte für eine optimale Abbildung so klein wie möglich gewählt werden.
Die projizierten Bilder sind schwarz-weiß, die Farbinformation geht verloren.
Eine zu große Blende führt zu einem unscharfen Bild.
Weiter entfernte Objekte erscheinen größer auf der Projektion.

6

Bildcodierung und Kompression

Bei der Lauflängenkodierung eines Bildes kann es auch zu einer Vergrößerung des benötigten Speicherplatzes kommen.
Bei der Lauflängencodierung (Run Length Encoding) kann eine höhere Kompressionsrate erzielt werden, je mehr aufeinander folgende Pixelwerte im Bild gleich sind.
Bei einer radiometrischen Auflösung von 10 Bit können 1024 unterschiedliche Grauwerte gespeichert werden.
Bei Videos wird bei der Intraframe-Kompression nur der Unterschied zw. den Frames kodiert.
Bilder mit verlustbehafteter Kompression benötigen in der Regel weniger Speicherplatz als Bilder mit verlustfreier Kompression.
Lauflängenkodierung halbiert den Speicherbedarf maximal.
Lempel Ziv ist ein verlustfreies Kompressionsverfahren.
Mit einem Vektor-Bildformat können keine Farbbilder gespeichert werden.
MPEG benötigt mehr Rechenzeit zum Codieren als zum Decodieren.
PNG ist ein Vektorbildformat.
Sowohl bei verlustfreier als auch bei verlustbehafteter Kompression hängt der Kompressionsgrad vom Bildinhalt ab.
Vektorbildformate wurden speziell für hochauflösende Fotografien entwickelt.
Vektorgrafiken zoomen verlustlos.

7

JPEG

Bei der JPEG Komprimierung werden niedrige Bildfrequenzen stärker komprimiert als hohe Bildfrequenzen.
Beim JPEG Verfahren wird ein Bild vor der Kompression in den CMY Farbraum umgewandelt.
Bei JPEG wird nur die Grauwertinformation verlustbehaftet komprimiert, die Farbinformation bleibt komplett erhalten.
Bei JPEG wird zur Codierung die diskrete Cosinus-Transformation einmal auf das ganze Bild angewendet.
JPEG ist ein Kompressionsverfahren für Vektor-Bildformate.
JPEG kombiniert verlustbehaftete und verlustfreie Kompressionsmethoden.
Jpeg's Speicherplatz ist abhängig vom Bildinhalt.

8

Punktoperationen

Alle Punktoperationen berücksichtigen nur das aktuelle Pixel und keine Nachbarpixel.
Bei einer Invertierung wird die Bildhelligkeit nicht verändert.
Bei der Histogrammequalisierung geht es darum, die Anzahl der unterschiedlichen Grauwerte im Bild zu erhöhen.
Die Anzahl der Bins (horizontale Achse) eines Histogramms wird durch die radiometrische Auflösung bestimmt.
Die Punktoperation I‘(u,v) = I(u,v)-1 nennt man Invertierung.
Durch die Punktoperation I‘(u,v) = 0,5·I(u,v) wird der Kontrast im Bild eines Gesichts verringert.
Histogrammnormalisierung und Histogrammequalisierung sind zwei unterschiedliche Begriffe für dieselbe Operation.
Zwei unterschiedliche Bilder können das selbe Histogramm haben.

9

Lokale Operationen

Bei einem Gaußfilter hat der Koeffizient in der Mitte des Filters einen höheren Wert als die Koeffizienten am Rand des Filters.
Der Median-Filter ist ein linearer Filter.
Der Mittelwertfilter ist ein Tiefpassfilter.
Der Wert eines Histogramm-Bins kann die Anzahl der Pixel des Bildes übersteigen.
Die Bildinvertierung kann mit einer einzigen Faltung des Bildes mit einem geeigneten Filter bewerkstelligt werden.
Die Faltung ∗ ist kommutativ: A ∗ B = B ∗ A.
Die Schwellwertoperation kann mit einer einzigen Faltung des Bildes mit einem geeigneten Filter bewerkstelligt werden.
Ein Medianfilter lässt sich auch durch eine lineare Faltung realisieren.
Ein zweidimensionaler Mittelwertfilter kann in zwei eindimensionale Filter geteilt werden, die nacheinander auf das Bild angewendet werden.
Je größer der Filter, desto größer ist der Rechenaufwand für die Faltung pro Bild.
Nichtlineare Filter verwenden die Faltung.
Pixel mit dem gleichen Grauwert können nach einer Histogrammqualisierung unterschiedliche Grauwerte aufweisen.

10

Edge-Filtering

Bei Kantendetektoren, die auf der 1. Ableitung beruhen, werden Kanten durch Nulldurchgänge in der 1. Ableitung detektiert.
Gradienten sind invariant zu Bildrotationen

11

 

Nennen Sie einen Filter zur Kantendetektion:

12

Globale Operationen

Bei der Fourier-Transformation werden tiefe Bildfrequenzen unterdrückt.
Bei der Hough Transformation zur Liniendetektion besteht das Akkumulator Array (Hough Raum) aus einer Dimension.
Im Fourierspektrum liegen die hohen Frequenzen näher am Rand als die tiefen Frequenzen.
Mittels der Hough-Transformation können neben Linien auch andere geometrische Strukturen detektiert werden.