TU Wien:Einführung in Visual Computing VU (W. Kropatsch, W. Purgathofer, R. Sablatnig)/Vokabeln Test 1

Aus VoWi
Zur Navigation springen Zur Suche springen

Wikifizierung von Media:TU Wien-Einführung in Visual Computing VU (W. Kropatsch, W. Purgathofer, R. Sablatnig) - Vokabeln Test 1.pdf

Bildaufnahme[Bearbeiten | Quelltext bearbeiten]

aparture
die Blende / Öffnungsweite wie die Iris im Auge
fovea
Sehgrube / gelber Fleck (zum scharf sehen)
retina
Netzhaut (darauf befinden sich die Rezeptoren)
pinhole camera
Lochkamera: Kamera ohne Linse sondern dunkle Zelle (camera obscura) mit kleiner Öffnung. Das Bild das an Ende der Zelle geworfen wird steht am Kopf. Bild ist im ganzen Bereich Scharf, Frei von Farbabweichung und Wölbung. small Aparture → few light
thin lens
im Gegensatz zur thin lens small Aparture → much light, deswegen wird mit der Blende die Lichtmenge verändert
depth of field
Tiefenunschärfe, abhängig von der Größe der Linse, bei kleinen Linsen mit kleiner Auflösung (Bsp. alte Handy) ist das Bild im gesamten Bereich scharf. Mit der Blende kann aber auch bei großen Kameras (DSLR) die Tiefenunschärfe verringert werden. Sie entsteht weil sich Lichtstrahlen überlagern.
silicon image detector/active pixel sensor
auch bekannt als CMOS; günstig; findet Verwendung hauptsächlich in einfachen Kameras (Handy, Webcam) Alle Pixel sind voneinander unabhängig.
perspective projection
Kegelstumpf aus dem Kameras Space (view frustum) wird aufgespannt (Verzerrung) danach im Clip Space
focal length
Brennweite
diffraction
Beugung der Strahlen
field of view
Gesichtsfeld (alles was bei ruhigem Kopf/Augen wahrgenommen werden kann.
focus
Blickfeld (Teil der Scharf ist)
F-­stop
Verhältnis von Brennweite zum Durchmesser der Eintrittspupille k=f/d f/1.4 > f/2 > f>2.8 f/2 *sqrt(2) = f/1.4
cornea
Hornhaut, wird mit Tränenflüssigkeit benetzt für Lichtbrechung
radiometric resolution
Menge der Grauwerte Bsp 2^8
radiometry
Strahlungsmessung
spatial
räumlich
density
Dichte
sampling
Abtastung
charge coupled device (ccd)
Bildsensor, Gegenstück zum CMOS meist teurer wird verwendet in DSLR. Bilder sind linear und HDR.
CCD Aufnahmemöglichkeiten
  • Sensor und Farbrad
  • Prisma und 3 Chips (Bei Film, kein Flimmern)
  • Farbfilter(Bayerpattern) und Interpolation (geringe Farbtreue das fällt bei unbewegten Bildern aber nicht auf)
vignetting
schwarze Ecken
chromatic aberration
Farbabweichung (Bsp. blaues Licht wird von Linse stärker gebrochen als Rotes)
sphärische Abberation
Unschärfe Fehler(vorallem in Bildrändern) Lösung asphärischer Schliff der Linsen
geometric lens distortion
weil Linsen rund sind werden gerade Linien auf dem Bild nicht gerade dargestellt, (bei der Lochbildkamera die keine Linse verwendet hingegen schon)

Farbe[Bearbeiten | Quelltext bearbeiten]

colorimetry
Farbmessung (physikalisch)
color perception
Wahrnehmung von Farbe (Psychologie)
red border
780 nm (langwellig)
violet border
380 nm (kurzwellig)
green
550 nm
purity
Reinheit der Farbe ED-EW/ED
dominant wavelength
Farben die beim CIE Farbsystem ganz außen sind
color sensation
Farbeindruck (nicht messbar)
visual discriminability
Unterscheidbarkeit von Farben (wichtig bei Verlustbehafteter Komprimierung) (etwa 380 bis 780 nm) (Der Mensch kann etwa 200 Farben unterscheiden)
indiscriminable beams
nicht unterscheidbare Lichtstrahlen
trichromat
Lebewesen welche drei verschiedene Arten von Zapfen als Farbrezeptoren in der Netzhaut haben. Bsp. Menschen
primaries
Primärfarben (Bsp. RGB oder CMY) damit lassen sich alle anderen darstellen. tristimulus values Farbkoordinaten x,y und z von CIE
CIE x,y Y
Farbsystem Y steht für Helligkeit (mit Normalisierung)
CIE XYZ
Farbsystem im 3-Dimensionalen Raum
spectral color
intensivste Farben von Rot, Orange, Gelb, Grün, Blau, Indigo, Violett
color gamuts
darstellbarer Farbraum bei Geräten
CMY
Cyan, Magenta Yellow [1,1,1]-­[R,G,B] Subtraktives Farbmodell
hue
Farbwert in HSV wird angegeben in Grad (0° Rot, 120° Grün, 240° Blau)
HSV
Farbsystem mit hue, saturation (Sättigung 0% ist grau 100% pure Farbe) value (Hellwert 0%=keine Helligkeit, 100% volle Helligkeit), wird dargestellt durch auf dem Kopf stehender Kegel
HLS
abgewandeltes Farbsystem von HSV, dargestellt durch doppelten Kegel H=Farbwinkel, L=Helligkeit, S=Sättigung.

Bildcodierung und Kompression[Bearbeiten | Quelltext bearbeiten]

lossless
Verlustfreies Speichern zB bei Text nötig weil nicht jedes dritte Zeichen weggeworfen werden kann (deswegen nur lossless)
runlength
Lauflängenkodierung (gut bei Binärbildern)
Huffman­‐Kodierung
ordnet einer festen Anzahl an Quellsymbolen jeweils Codewörter mit variabler Länge zu. Möglich auch bei Text dabei wird der Text auf etwa 2/3 seine ursprünglichen Größe reduziert. Oft gebrauchte Werte sind im Baum weiter oben, dadurch schneller zu erreichen.
Lempel Ziv
Wörterbuchverfahren, schnelle und gute Kompression. Entpacken 10-20 Schneller als packen.

Tradeoff

TIFF
Tagged Image File Format es gibt compressed und uncompressed (RAW) verwendet LZW und Lauflängenkodierung kann zusätlich auch DCT(verlustbehaftet) nutzen
JPEG
Verlustbehaftetes Bildformat:
  • Farbraumumrechnung RGB → YCbCr(verlust)
  • Tiefpassfilterung und Unterabtastung(verlust)
  • Einteilung 8x8 Blöcke und DCT(verlust rundung)
  • Quantisierung (Abbildung auf Wertemenge verlust)
  • Umsortierung
  • Huffman-Kodierung
MPEG
Wie JPEG nur für bewegte Bilder, es wird nur der Bereich übertragen der sich ändert (Rückrechnung)
DCT
Diskrete Kosinustransformation, verlustbehaftetes Komprimierungsverfahren bsp. JPEG, MP3... Bei einem JPEG Bild wird jede Farbkomponente des Bildes in 8x8 Blöcke eingeteilt und in Frequenzraum aufgeteilt.
Quantisierung
Nicht sichtbare Information wird aus dem Bild entfernt(Dass ist der lossy Teil der JPEG Komprimierung)
downsampling
Verringerung der Bildpunkte (samples), das Bild wird weniger oft abgetastet.

Sonstiges[Bearbeiten | Quelltext bearbeiten]

longitudinal
länglich
tangential distortion
Verzerrung
edge imperfection
Kantenfehler(bsp. JPEG)
field sequential
Eine der ersten Displaytechnologien, Bsp.: Radiowecker mit 7 Segmenten

3­‐chip camera Bsp. teure Filmkameras, Prisma teilt Farben auf, es gibt 3 Sensoren demosaicing

moire Effekt
Farbfehler die bei 1-Chip Kameras auftreten, vor allem bei Wasser oder Kleidung mit feiner Struktur.
nausea
Übelkeit
sorveing
labour
carbon
shutter speed
Verschlusszeit, Wert der angibt wie lange Licht auf den Sensor fällt(bei Ruhiger Kamera und Nacht → bessere Ergebnisse)
vertice
Eckpunkt
threshold
Schwellwert wird angegeben bei Binärbild, dabei kann es zu conturing kommen.
blur
Weichzeichner(Gauss, Mittelwert,....)
triangle rasterization
baryzentrische Koordinaten
dient dazu um die Lage eines Punktes in einem Dreieck zu erfassen

Graphikpipeline[Bearbeiten | Quelltext bearbeiten]

pipeline
Modellvorstellung in der CG die beschreibt welche Schritte zum Rendern(der Darstellung) durchgeführt werden. Die Grafikpipeline lässt sich aufteilen in viewing → transformation → rendering
transformation pipeline
Objekt Koordinaten → (model transf.) Welt Koordinaten → (viewing transf.) Kamera Koordinaten → (Projektion) normalisierte Geräte Koordinaten → (viewport transformation) Pixel Koordinaten
viewport transformation
„Würfel“ wird zu einem Rechteck umgeformt

rendering pipeline

shading
Simulation der Oberflächeneigenschaft eines Polygons. Dabei werden Interpolationsverfahren angewendet.
arbitrary
willkürlich

Arten der Modellierung im Vergleich

surface model
es wird nur die Oberfläche modelliert (das Objekt ist innen hohl)
interior models
wird das Objekt auseinandergenommen, etwa ein Holzbrett zersägt wird die Maserung sichtbar
explizit
Die Objekte in einer Welt werden mit fest vorgegebenen Werte modelliert.
prozedural models
Die Welt wird durch Zufall erstellt, Bsp. Minecraft
heuristisch
Bsp. Das Wasser sieht so aus wie in der Realität.
physikalisch gestütztes Modell
Bsp. Das Wasser verhält sich wie in der Realität
b­‐rep boundary Representation
Beschreibt in Form von verketteten Listen die Grenzen von Polygonen. Ein b-­rep enthält Vertex-­Table, Edge­‐Table und Polygon Table. Wenn ein Punkt (Vertex) verändert wird verändern sich automatisch Kanten und somit das Polygon mit.
skalares Produkt
wichtig für Test Ergebnis ist kein Vektor sondern eine Zahl. V1 * V2= |V1||V2|cos theta
Kreuzprodukt
wird benötigt um Projektionsrichtung(Oberflächennormale zu finden, welche zB. beim Shading benötigt wird). Ergebnis davon ist die Fläche des Parallelogramms das die Vektoren aufspannen. (Minue 70 Wiederholung 1)

Rechtshändiges Koordinatensystem

plane equation
Ebenen Gleichung, wenn Punkt in Ebenen Gleichung einsetzt wenn = 0 auf der Fläche <0 hinter der Fläche >0 vor der Fläche
front­‐face
back-­face
in front of
behind
triangle mesh
durch Angabe eines weiteren Punktes wird einem Dreieck Polygon ein weiteres Polygon hinzugefügt
CSG Constructive Solid Geometry
Datenstruktur bei der mittels Durchschnitt(intersection), Vereinigung(union) und Differenz ein komplexes Objekt erzeugt wird
ray casting
Mittels Schnittpunkten und Angabe der Oberflächennormale wird ein Bild erstellt. Notwendig für CSG.
ray tracing
Erweiterung von Raycasting
voxel
volume element ???
Octree transformationen
sind komplex
Octree kombinationen
sind sehr einfach jedoch von niedriger Qualität
BSP Trees
Rekursive Baumform. Schnelle Verdeckungsberechnung und Kollisionserkennung möglich.
Scene Graps
Objektorientierte Datenstruktur, keine exakte Definition (Sun, World,car,....)

Geometrische Transformationen[Bearbeiten | Quelltext bearbeiten]

Basic Transformation
zu den Standard Transformationen zählen Translationen, Rotationen, Skalierung. Es können zuerst die Matrizen miteinander multipliziert werden und danach erst mit dem Bild (Minute 45 Folge 9 wichtig für Test
Affine Transformation
Gerade bleibt gerade, Teilverhältnisse bleiben erhalten
Rotation X-­Achse
X-­Werte bleiben gleich
zusätzliche Spalte Matrizen
nötig um Translationen durchzuführen
projection
von Camera Space → Clip Space Folge10 Minute 28
camera Transformation
Besitzt 4 Freiheitsgrade
view plane
nonlinea z­‐behaviour
parallele Linien zur view plane bleiben parallel
vanishing point
Fluchtpunkt tritt bei perspektivischen Abbildungen auf
inverse Matrix
um Schritt Rückgängig zu machen
Addition von Matritzen
erfolgt elementweise
  • Assoziativgesetz(Klammerung)
  • Kommutativgesetz A+B=B+A
Multiplikation von Matritzen
erfolgt durch skalare Multiplikation von Zeilen und Spaltenvektoren

+Assoziativgesetz(Klammerung) +nicht Kommutativ A+B != B+A

Transponierte Matrix
A^T entlang an der Hauptachse gespiegelte Matrix wichtig für Test

Punktoperationen[Bearbeiten | Quelltext bearbeiten]

Punktoperationen
Operationen auf jedes Pixel unabhängig von den anderen. Bsp. Inversion (Negativ) Threshold (Schwellwert), Struktur bleibt gleich es können jedoch Sachen sichtbar gemacht werden(Röngten)
LUT
lookup Table Eingabewert wird auf Ausgabewert abgebildet, wenn 45° dann Originalbild → Originalbild. Damit lassen sich etwa Kontraststärkungen/schwächungen durchführen. Sie werden grafisch durch Gradiationskurven veranschaulicht.
Gamma Korrektur
Veränderung der Farbwerte auf einer Gradiationskurve(leicht nach unten gewölbt (kräftigere Farben) leicht nach oben (blassere Farben))
clipping (Bildverarbeitung)
BSP. Dunkle Bereiche im Bild werden auf Schwarz abgebildet oder Umgekehrt.
contrast Enhancing
Spreizung damit der Kontrast Gestärkt wird(helle Werte werden auf noch hellere abgebildet, dunklere auf noch dunklere. Histogrammverteilung n*k/k Gibt an wie Wahrscheinlich ein Pixel einen (probability density gewissen Wert hat function)
Idealer Kontrast
alle Werte im Histogramm sind gleich verteilt.
Löcher im Histogramm
bei der Anwendung von Punktoperatoren kann es zu Löchern im Histogramm kommen. Grund ist die Histogrammäquivalisierung (verteilt Werte im Histogramm gleichmäßiger)
Histogramm Normalisierung
Aufspreizung(dumm) Kontraststärkung im gesamten Bildbereich
Histogramm Äquivalisierung
Kontraststärkung bei Maximum, nicht mehr reversibel, mehrere Grauwerte werden zusammengefasst und auf dem Histogramm auseinandergezogen

Lokale Operationen[Bearbeiten | Quelltext bearbeiten]

local operations
Nachbarschaftsoperationen (Sind noch wichtiger als Punktoperatoren)
rectangular sampling
Rechteckige Abtastung (bei uns Standard)
operator window
Fenster der Faltung Bsp 3x3 (herkömmlicherweise ungerade Zahlen damit Pixel in der Mitte steht)
nichtlineare Filter
Einfache Filter wie min, max oder median, es Werden dem Bild keine neuen Werte hinzugefügt. Gut zB. bei Salz und Pfeffer Rauschen.
lineare Filter
Hochpass Filter( Unterschiede im Bild werden gezeigt, Kanten erkennbar wenn Minus in Faltungsmatrix) Mittelwert Filter(Glättung des Bildes) Tiefpass Filter(Weichzeichnungsfilter) Gauss Filter
negative und positive Kanten
Randbehandlung
wird in der LVA nicht behandelt
Correlation
Filterung
Convolution
Faltung gleich wie Correlation Filterung nur um 180° gedreht(mathematisch)
Eigenschaften von linearen Filtern
  • kommutativ I*H=H*I
  • linear
  • assoziativ (Klammerung egal)
  • distributiv
Filter seperable
Die Filtermatrix kann in einen Zeilen und Spaltenvektor aufgeteilt werden, diese werden danach miteinander multipliziert.
Gaussian Filter
Pixelwerte werden gleichverteilt (Wahrscheinlichkeit) mittels Pascal Dreieck wird die Größe ausgewählt
Noise
Rauschen:
  • photonen shot noise (bei Aufnahme) Es kann nie zweimal, genau das gleiche Bild aufgenommen werden(Kamera hat jedoch „Fußabdruck“)
  • sensor read noise (beim Abtasten durch den Sensor)
  • pattern noise(Strukturrauschen)
Sigma σ
Gibt etwa beim Gaußfilter an wie breit die Kurve ist.
salt and pepper
nicht Gaußverteilt, wird gut mit Medianfilter entfernt
Kanten Filter
Bei diesen Filtern wird mit der ersten und zweiten Ableitung gearbeitet um Kanten zu detektieren. A jump in intensity from one pixel to the next.
sharpening
Hohe Frequenzen werden gewählt und verstärkt
1. Ableitung
Steigungen im Bild werden erkannt
2. Ableitung
besser für Kanten weil genau in der Mitte der Kanten
Laplacebild
Schärferes Bild, dafür wird der Kontrast in hohen Frequenzen erhöht
Simplified Image Enhancement
Bild wird nur mit einer Matrix gefaltet, dabei entsteht rauschen.
Kante
Signifikante Änderung der Oberflächennormale.
Ideale Kante
In der Realität nicht vorhanden wegen zB. Beleuchtung
Kanten Arten
normal, depth, texture
illumination
Beleuchtung)
Roberts Filter
zwei 2x2 Matritzen die 90° aufeinander stehen. Funktioniert nicht so gut und ist nicht Symetrisch.
Gradient
Steigung
Sobel Operator
bekanntester Filter, nimmt zwei 3x3 Matrizen und findet die Steigung einmal vertikal und einmal horizontal. Danach sqrt(vertikal^2+horizontal^2)
Kirsch Operator
Ergebnis gleich gut wie Sobel, es muss jedoch keine Wurzel gezogen werden, dafür muss das Bild aber 4-­8 mal gefaltet werden.
Finding Edges
Bild → Gradient → threshold
Laplace Filter
0, -1, 0; -1,4, 1;0,-1,-1 dabei tritt starkes rauschen auf, daher wendet man Gaußfilter an

Kanten Filterung[Bearbeiten | Quelltext bearbeiten]

LoG Laplacian of Gauss
wird aufgrund seiner Form auch Mexican Hat Filter genannt, er detektiert auch dünne Kanten. Er ist dabei aber wesentlich komplizierter und langsamer als der Sobel Filter
Canny Detektor
noch komplizierter und langsamer als LoG, er nimmt aber auch kleine Änderungen wahr(robust) (Folge 13 ca. Minute 70). Wird bei Aufwändigen Anwendungen verwendet.