CoboCards App FAQ & Wünsche Feedback
Sprache: Deutsch Sprache
Kostenlos registrieren  Login

Hol' Dir diese Lernkarten, lerne & bestehe Prüfungen. Kostenlos! Auch auf iPhone/Android!

E-Mail eingeben: und Kartensatz kostenlos importieren.  
Und Los!
Alle Oberthemen / Computervisualistik / Computervisualistik Integration

CVI (127 Karten)

Sag Danke
1
Kartenlink
0
Rendering-Equation




Oberflächenelement
Strahlungsrichtung
Einfallsrichtungen
Das gesamte Licht, das von einem Oberflächenelement in eine Richtung ausgestrahlt wird
Licht, das von dem Oberflächenelement in die Richtung emittiert wird
Licht, das von allen möglichen Einfallsrichtungen einfällt und in reflektiert wird
6-dimensionale BRDF

Wikipedia
2
Kartenlink
0
Welche Koordinatensysteme gibt es und wie sind sie definiert?
Weltkoordinatensystem ():
Es ist ein 3D System.  Hiermit werden Objekte und Kameras in der Szene lokalisiert, denn es beschreibt einen festen Referenzpunkt. Ursprung und Orientierung der Achsen können beliebig gewählt werden. (euklidisch , homogen )


Objektkoordinatensystem:
Es ist ein 3D System. Beschreibt Objektpunkte. Wird in der Computergraphik verwendet, aber nicht im Rechnersehen.


Kamerakoordinatensystem ():
Es ist ein 3D System.  Dieses System gehört zu einer (sich bewegenden) Kamera und definiert deren Position und Ausrichtung. Der Ursprung befindet sich im optischen Zentrum der Kamera. Die z-Achse entspricht der Blickrichtung, fällt also mit der optischen Achse der Kamera zusammen, die x- und
y-Achsen sind parallel zu den Zeilen und Spalten des Bildes.



Bildkoordinatensystem ():
Es ist ein 2D System. Koordinatensystem des Bildes, das auf der Bildebene in der Kamera dargestellt wird. Der Ursprung liegt ungefähr in der Bildmitte und ist gekennzeichnet als Punkt H. Die 2 Achsen sind parallel zur x- und y-Achse des Kamerakoordinatensystems . Dieses Bild ist nur virtuell, da es in einer Kamera auf einen CCD-Chip abgebildet, und damit in das Pixelkoordinatensystem überführt wird.


Pixelkoordinatensystem ():
Es ist ein 2D System. Pixelkoordinatensystem p: Das System ist diskretisiert und der Ursprung liegt in der linken oberen Ecke. Die Achsen sind nicht 100% orthogonal zueinander.



Pixelkoordinatensystem ():
Es ist ein 2D System. Der Ursprung liegt in der Bildmitte M.
Tags: Klausur
Quelle:
3
Kartenlink
0
Wie sieht die Modellgleichung fuer eine homogene Kamera (Lochkamera) definiert und welche Probleme gibt es? Wie Schaetzt man daraus die Kamerakonstante . Oder: Beschreiben Sie ein einfaches Kalibrierungsproblem
Sei ... (i = 1, . N) eine Punktmenge aus der Kalibrierung zur Beschreibung des Kalibriermusters, und sei
... die korrespondierende Menge von Bildpunkten







Problematisch ist es,
1. dass wir mit homogenen Gleichungen rechnen. Die Formel berechnet Abstaende und das geht mit homogonen Koordinaten nicht.

2. Nicht umformen. Die Modellgleichung nehmen und gluecklich sein.

Die Kamerakonstante wird uber folgende Formel ermittelt:

Tags: Klausur
Quelle:
4
Kartenlink
0
Was ist das Doppelverhaeltnis und wie ist es beschrieben?


Einziges, projektives, invariates Mass.
Doppelverhaeltnis:
Das Verhaeltnis von zwei Linien unter projektiver Betrachtung
Tags: Klausur
Quelle:
5
Kartenlink
0
Nenne die Grassmannsche Gesetze
1. Wir haben ein 3D Farbvalenzsystem. Bei vier gegebenen Farbvalenzen sind sie linear abhaengig. Drei koennen maximal unabhaengig sein.


2. nicht interessant fuer uns

3.  stetige Veränderungen eines Mischungsoperanden.
bewirken stetige Veränderungen der Farbmischung.
Ansonsten wuerden die Farbraeume auch keinen Sinn machen.
Tags: Klausur
Quelle:
6
Kartenlink
0
Wie sind die Primaervalenzen definiert?


  • Intensitäten nur relativ zueinander bestimmt
  • Farbvalenz enthält keine absolute Helligkeitsinformation
  • Summe ergibt Unbunt
Tags: Klausur
Quelle:
7
Kartenlink
0
Woraus ergibt sich die Farbvalenz ?
Die Farbvalenz eines Lichtreizes ergibt sich aus seinem Spektrum gemäss:


8
Kartenlink
0
Welche Farbräume gibt es?
  • (Es gibt nicht DEN RGB). Er ist lineare.
  • Realisiert technisch das, was die Retina bei uns macht. Gegenfarben... . Er ist lineare
  • sind imaginär, da sie keinen tatsächlich exisiterenenden Gewichtungen entsprechen. Kann man real nicht darstellen. Ist das Normvalenzsystem. Er ist lineare
  • HSI und HSV (Sechseck). Sie entstehen aus nichtlineare Transformationen des RGB. Er ist nichtlineare
  • Luv und Lab. Sie sind vollständig anders: Deren Abstände entsprechen dem menschlichen Farbunterschiedsempfinden. In diesen kann man sagen, was Farbähnlichkeit ist. Bestimmt wird die Differenz durch . Es ist die Differenz im Lab.

Tags: Klausur
Quelle:
9
Kartenlink
0
Wie könnte eine Lösungsstrategie eines inversen Problems aussehen?
Sei


In diesem Fall:
  • Eingabedaten: ,
  • Parameter / Randbedingungen:
  • Ergebnisbild / Beobachtung:


Gelöst soll werden folgende Formel:



Zumeist, auch hier, wir eine Least-Square-Methode angewandt.
Wird diese angewandt, dann wird auch meistens die Gleichung regularisiert, um die Lösungen zu glätten.
Tags: Klausur
Quelle:
10
Kartenlink
0
Was versteht man unter Regularisierung?

  • Sie wird bspw. bei inversen Problemen Verwendet, um Ergebnisse zu glätten.
  • Auch bekannt als Ridge-Regression
  • Mittels Marginalisierung werden schlecht konditionierte Matrizen regularisiert, indem man zusätzliche Zeilen und Spalten hinzufügt.
  • ... ?! Irgendwas mit nicht-degenerierte Differentialgleichung
  • In einem inversen Problem wird durch die Regularisierung das unterbestimmte System derart korrigiert, dass die Inverse bestimmt werden kann.
11
Kartenlink
0
Beschreibe ein Klassifikationsmodell (Thema Bildverstehen)
Signal Vorverarbeitung Merkmalsextraktion Klassifikation Ergebnis

Die Klassifikation kann noch durch einen Lernprozess
erweitert werden, dabei wird eine Strichprobe verwendet.
In dem Modell würde dann noch zusätzlich eine Kante in die Klassifikation einfließen:

Stichprobe Lernen Klassifikation

Komplexer (Analyse durch Synthese):
Ich habe ein Bild, liefer mir das passende (synthetische) Bild.
Tags: Klausur
Quelle:
12
Kartenlink
0
Inverses Problem: Beispiel Poseerkennung
Poseerkennung:

Objekterkennung:

Mit:
  • Bild
  • Modell , Modelle
  • Parametervektor , z.B.
  • Graphikfunktion liefert das Bild
  • Abstandsfunktion


In Worten:
Diejenige Kameraposition , für die die Bildentstehung mit einer Funktion der Graphik , einem gegebenen CG-Modell unter Annahme der Kameraposition , verglichen mit dem aktuellen Bild , den geringsten Abstand durch die Abstandsfunktion aufweist.
dies beschreibt die Lösung eines inversen Problems mit Hilfe einer Vorwärtsfunktion. Wobei die Graphikfunktion die V.-Funktion darstellt.
Tags: Klausur
Quelle:
13
Kartenlink
0
Wie kann das Suchproblem der Analyse gelöst werden?
Modellmatching: Bild segmentieren und in Modell- und Bildbestandteile zerlegen und diese matchen ...

... In dem man es als Graphproblem auffast.
Dabei wird ein Graph aufgebaut durch Zuordnungen zwischen Merkmalen des Modells und Merkmalen des aufgenommenen Bildes. Man darf nur zulassen, dass ein Merkmal (egal auf welcher Seite) eindeutig zugeteilt ist oder gar nicht zugeteilt ist. Mehrfachzuteilungen sind zu vermeiden.

Kanten können über Gewichtsfunktionen gesteuert werden.
Gute Zuordnung = hohe Werte der Gewichte Maximierungsproblem.

Suchprobleme: Ungarischer Algorithmus, A*-Graphsuche, dynamische Programmierung.
Tags: Klausur
Quelle:
14
Kartenlink
0
Wie kann ich eine BRDF parametrisieren?
Ein Lichtfeld ist eine Form der Darstellung der BRDF.

Man nimmt Bilder mit einer Kamera auf. Man fasst einen Pixel als einen Sehstrahl zwischen Kamerabrennpunkt und diesem Punkt in der Welt auf.
Diesen Strahl kann man im 3D durch zwei Ebenen darstellen, also durch vier Koordinaten.
Man brauch viele Strahlen, diese werden alle benutzt, um zwischen ihnen zu interpolieren.

Anwendung:
  • Man hat ein Lichtfeld wie oben beschrieben aufgebaut
  • Es wird eine Kamera zwischen den Ebenen positioniert
  • Es wird ausgerechnet, welche Sichtstrahlen diese Kamera haben würde
  • Dann wird aus dem Lichtfeld die Strahlen genommen, die am besten zu den Sichtstrahlen der Kamera passen.
  • Gegebenenfalls müssen Strahlen auch interpoliert werden, was aber ganz von der Auflösung des Lichtfeldes abhängt.


Das ermöglicht uns 3D Kamera-Flüge, ohne dass auch nur ein Primitv gerendert werden musste.
Es gibt Aufsätze für DSLRs, fertige Kameras (Lytro) und Patente von Apple, um es auf Smartphones zu bringen.
Es ist auch möglich die Blende im Nachhinein zu verändern.

Es ist nach Prof. Paulus ein sehr guter Kontaktpunkt der CG und BV.
Tags: Klausur
Quelle:
15
Kartenlink
0
Was sind MacAdams-Ellipsen?
MacAdam sind Ellipsen von Bereichen, in denen Menschen die Farben als gleich wahrnehmen.
Die Größe variiert im Farbraum je nach ihrem Ort in diesem.
Als Beispiel wurde der XY-Farbraum mit ihren MacAdam-Ellipsen aufgetragen. Da solche überhaupt existieren, ist es der Beweis, dass Farbdifferenzen im XYZ nicht das selbe bedeuten.
Im Lab werden diese Ellipsen zu gleichgroßen Kreisen, was der Beweis ist, dass Lab den gleichen Farbabstand liefert wie die menschliche Wahrnehmung.
ist die Farbdifferenz des Lab.

- Die Ellipsen werden gebildet aus der Standardabweichung.
Tags: Klausur
Quelle:
16
Kartenlink
0
Wie sind Werte einzustufen?
Wert Bedeutung
>5 gut vom Menschen zu erkennen
<5 schwierig zu unterscheiden
<1 unmöglich zu erkennen. 1 ist der kleinstmöglichste Wert, den ein Mensch unterscheiden kann
17
Kartenlink
0
Wie ist definiert?
CIELAB Farb-Metrik



Ein Wert von resp.  entspricht der minimal menschlich wahrnehmbaren Farbdifferenz Farbmetrik durch CIE (International Commission on Illumination) verwendet den uniformen L∗a∗b ∗ Farbraum.

lightness-axis , red-green-axis , yellow-blue-axis

In diesem Farbraum: Euklidischer Abstand entspreicht der Wahrnehmung. Die Symoble , , bedeuten komponentenweise Differenz zwischen zwei Lab-Farben.
Tags: Klausur
Quelle:
18
Kartenlink
0
Wie lautet die Formel der radiometrischen Kalibrierung?
  • Lampe:
  • Color Checker:
  • CCD-Chip:
  • Bild:


Sensoren pro Bildpunkt, typischerweise je ein Sensor für Rot, grün un Blau, haben spektrale Empfindlichkeiten von
,
Dadurch tastet jeder Sensor im Punkt folgende Energieverteilung  des Lichts ab:



In Worten nach Prof. Paulus:
"Für einen Sensor in einem gewissen Wellenlängenbereich, an einem gewissen Ort (), den ich nach draußen idealisiere mit der Beleuchtung und ihrer Reflektion und der Kameraempfindlichkeit multipliziere. Das wird integriert über den gesamten Wellenlängenbereich. "

Dabei ignorieren wir die Geometrie, die Blende und die nicht Linearität, wie sie beispielsweise von der gamma Korrektur kommt.

Diskret (nach Alsam und Finlayson):
Summe von Abtastungen



  • Vector : spektrale Energie des Lichts
  • Vector : diskrete reflektanz an Position
  • Matrix : diskrete spektrale Empfindlichkeitskurven
Tags: Klausur
Quelle:
19
Kartenlink
0
Was ist ein inverses Problem?
Ein mathematisches Problem wird ein inverses Problem genannt, wenn man von einer beobachteten oder gewünschten Wirkung eines Systems auf die der Wirkung zugrunde liegende Ursache zurückschließen will. Inverse Probleme sind meistens sehr schwierig oder gar nicht lösbar.
Das Gegenteil eines inversen Problems ist ein direktes Problem (teilweise auch Vorwärtsproblem genannt), bei dem man ausgehend von der bekannten Ursache die Wirkung des Systems ableiten möchte.

Das Henne-Ei-Problem. Was war zuerst, das inverse oder das direkte Problem?


In der Physik und im Ingenieurwesen: Bertero and Boccacci
(1998): Eines der beiden Probleme ist grundlegender als das
andere und ist oft bereits besser untersucht; dieses Problem ist das direkte Problem.
20
Kartenlink
0
Inverses vs. Direktes Problem
Inverses Problem:
Nicht genügend Information zur Lösung vorhanden.
Versuch, aus der beobachteten Wirkung eines Problems auf seine Ursache zurückzuschließen.

Direktes Problem
Alle erforderlichen Informationen zur Lösung vorhanden.
bei bekannten Ursachen, berechne die Wirkung.
21
Kartenlink
0
Dualität der Inversen und Vorwärtsproblems
Ein Vorwärtsproblem  und ein inverses Problem sind dual in dem
Sinn, als das eine in das andere überführt  werden kann, indem die Rolle von Daten und Unbekannten vertauscht werden. Die Daten des einen Problems sind die Unbekannten des anderen, und umgekehrt.
22
Kartenlink
0
Was sind Stoerquellen und welche sind einfach behebar?
  • Blooming
  • Dunkelstrom (Normalverteilt)
  • Photonenrauschen (Poisson-verteilt)
  • Quantisierungsrauschen


Behebbares Rauschen sind:
- Photenrauschen
(Es ist multiplikativ und ist nicht einfach zu beheben) und

- Dunkelstrom
(Es ist additiv und ist einfach zu beheben zeitlicher Gauss)
23
Kartenlink
0
Was ist Quantisierungsrauschen?
Bei der Quantisierung eines analogen Signals entsteht ein stufenförmiges Signal, dessen Stufenzahl von der Anzahl an Abtastungen abhängt.

Es ist die Differenz zwischen dem kontinuierlichem und quantisiertem Wert.



Quantisierungsrauschen:
Das Signal wird abgetastet und Informationen gehen verloren, die fehlende Information kann als Rauschen auftreten.
Das Quantisierungsrauschen ist abhängig von der Abtastrate und der Digitalisierung. Bei hoher Abtastrate und einer Digitalisierung mit hoher Auflösung ist das Quantisierungsrauschen geringer als bei niedriger Abtastrate und geringer Digitalisierung. Das zeigt sich auch im Signal-Rausch-Verhältnis (SNR). Als Annäherung gilt: Eine um 1 Bit höhere Auflösung reduziert das Quantisierungsrauschen um über 6 dB. Das Quantisierungsrauschen ist in gewisser Weise Signal-abhängig. Ist nämlich kein Signal vorhanden, dann sind keine Quantisierungsfehler und ebenso kein Quantisierungsrauschen vorhanden.
24
Kartenlink
0
In welchem Zusammenhang steht die Aufloesung und das Signal-Rausch-Verhaeltnis (SNR)?
Das Signal-Rausch-Verhältnis (SNR) wird verbessert, desto hoeher aufgeloest wird.
Als Annäherung gilt: Eine um 1 Bit höhere Auflösung reduziert das Quantisierungsrauschen um über 6 dB.



Tags: Klausur
Quelle:
25
Kartenlink
0
Wozu und wie werden Quantisierungskennlinien gemacht?
Es wird nicht mehr linear quantisiert.
stattdessen wird eine optimale Quatisierung gesucht,
damit eien Funktion moeglichst gut abgebildet (quantisiert wird).

Es gitb kontinuierliche Werte, die durch Intervalle quantisiert werden.
Die Frage ist: Wie koennen diese Intervalle optimal gewaehlt werden?

Formel fuer den Fehlermass:



Wobei
  • den Wert im Signal
  • der quantisierte Wert
  • die Haeufigkeit, dass dieser Wert ueberhaupt auftritt


Bsp. HDR-Bilder:
26
Kartenlink
0
Wann ist eine Quantisierungskennlinie optimal?
Eine lineare Quantisierungskennlinie (mit
gleichgroßen Quantisierungsstufen) ist nur dann optimal, wenn die
Signalamplituden gleichverteilt sind.

Wissen wir nicht, wie die Werte verteilt sind, wird es schwer.
27
Kartenlink
0
Wie ist eine reale Kamera modelliert?

  • Der Hauptpunkt liegt nicht im Bildzentrum
  • Rotationsmatrix
  • Translationsvektor
  • intrinsische und extrinsische Kameraparameter werden getrennt
  • Kamera-Matrix ()
  • Pose-Matrix ()
  • : Hauptpunkt
  • : Kamerakonstante
  • : Massstabsunterschied s der Achsen und Scherung der Achsen
28
Kartenlink
0
Was ist Kalibrierung?

  • Waehle  Modell fuer Sensor
  • Suche mathematische Beschreibung, inkl. einer Parametermenge
  • W aehle Kalibrierobjekt mit gut erkennbaren Merkmalen
  • Miss die Merkmale
  • Bildaufnahme des Kalibrierobjekts
  • Gleichungssystem aufstellen
  • Loese  Gleichungssystem auf nach unbekannen Parametern
Tags: Klausur
Quelle:
29
Kartenlink
0
Nenne die Linsenparameter und ihre Eigenschaft

Linsenparameter
  • Hauptpunkt (linear)
  • Sensorgroesse (linear)
  • Linsenverzerrung (polynomial)
30
Kartenlink
0
Nenne die Kameramatrix



Verschiebt in den Hauptpunkt und skaliert und projeziert.
Tags: Klausur
Quelle:
31
Kartenlink
0
Welche Fehler koennen bei der
Abstaende in homogenen Koordinaten zu rechnen ist non-sense.
32
Kartenlink
0
Wie errechnet sich das Signal-zu-Rausch Verhaeltnis?

33
Kartenlink
0
Welche Stoerquellen gibt es?
Es existieren Stoerquellen bei der
  • Uebertragung
  • Elektronik
  • Optik
  •     Verzerrung    Chromatische Aberration



Chromatische Aberration:
Die chromatische Aberration ist ein Abbildungsfehler optischer Linsen, der dadurch entsteht, dass Licht unterschiedlicher Wellenlänge oder Farbe verschieden stark gebrochen wird.

Schaubild
34
Kartenlink
0
Was sind die 4 U's?
Bildanalyse miss zurechtkommen mit:
  • Unsicherheit
  • Ungenauigkeit
  • Unwissenheit
  • Unvollstaendigkeit


Unsicherheit:
  • Wir haben unsicheres Wissen ueber die Welt

Ungenauigkeit:
  • Wir haben ungenaue Sensoren

Unwissenheit:
  • Wir haben eine Unwissenheit ueber das, was wir ueberhaupt sehen

Unvollstaendigkeit:
  • In der Regel haben wir unvollstaendige Daten, selbst mit genuegend Sensorinformationen, reicht das Wissen nicht aus
35
Kartenlink
0
Wie erfolgt die Reizverarbeitung in der Netzhaut?
Man geht davon aus, dass eine gewisse Vorverarbeitung im Auge auf Basis der Photorezeptoren stattfindet. Denn es gehen weniger Nerven aus dem Auge, als es Photorezeptoren gibt.

Es gibt auf der Retina 4 verschiedene Typen von Rezeptoren:
  • L Zapfen (Farbe rot)
  • M Zapfen (Farbe gruen)
  • S Zapfen (Farbe blau)
  • Staebchen (Helligkeit)


Auf Neuronenbasis wird nach der Zonentheorie aus alle Zapfen und den Staebchen die Helligkeit bestimmt.
Das Gegenfarbsignal Blau-Gelb und
das Gegenfarbsignal Rot-Gruen
36
Kartenlink
0
An was ist der Farbraum einer Kamera angelehnt?
An den dreikomponentige Farbraum des Menschen.
Drei unterschiedliche Zapfen RGB
37
Kartenlink
0
Welche Projektionsmodelle der Kamera gibt es?
  • Perspektivische Projektion
  • Parallele Projektion
  • Schwach-Perspektivische
38
Kartenlink
0
Was fuer eine Rolle spielen Licht und Farbe in Hinblick auf CV
Hier geht es speziell um Folie 39 (2.2-4)
Dort ist ein Graph mit gerichteten Kanten abgebildet.
Es sind zwei Kreise zu erkennen, die aber auch ineinander
uebergehen, wie eine Acht aufgebaut.
Auf der rechten Seite, dieser liegenden Acht, ist das Wahrnehmen durch den Menschen abgebildet. Einerseits der realen Welt und andererseits eines aufbereiteten Mediums

Der linke Teil des Graphen beschreibt die Wahrnehmung und Analyse durch den Computer.
Der Computer bestitzt ein Modell, das die Welt abbildet. Dieses Modell kann instanziiert werden zu einer Beschreibung. Anhand dieser Beschreibung kann ein Bild synthetisiert (Graphik) werden, aber auch ein beliebiges Bild analysiert werden.
39
Kartenlink
0
Was ist die Photogrammetrie
Photogrammetrie und Fernerkundung dienen zur beruehrungslosen Erfassung und Vermessung von Objekten mit Hilfe von Bildern. Die frueher  eigenstaendigen Gebiete "Photogrammetrie" mit Schwerpunkt auf geometrischen Fragen und "Fernerkundung", die sich vor allem mit der Bildinterpretation befasst, wachsen heute immer mehr zusammen.
40
Kartenlink
0
Welche expliziten und impliziten Modelle gibt es?
Explizit Implizit
Szenegraph Text
Objekmodell Physikalische Modelle
Softwaretechnik Farbe
Objekterkennung Bildentstehung
Reflektion
41
Kartenlink
0
Was ist die BRDF?
Eine bidirektionale Reflektanzverteilungsfunktion (engl. Bidirectional Reflectance Distribution Function, BRDF) stellt eine Funktion für das Reflexionsverhalten von Oberflächen eines Materials unter beliebigen Einfallswinkeln dar.

42
Kartenlink
0
Wie erhaelt man -Koordinaten anhand des Lochkameramodells, bzw. duennes Linsenmodell?
Durch den Strahlensatz:




Fuer das duenne Linsenmodell muss lediglich die Brennweite substituiert werden:

43
Kartenlink
0
Wo von haengt die Aufloesung einer Kamera massgeblich von ab?
Die Beugung an der Blende fuehrt dazu, dass die Aufloesung nicht beliebig hochgedreht werden kann.
Es gibt ein Zusammenhang mit der Oeffnung.
Man kann den Sensor zwar beliebig hoch aufloesen,
aber wenn die Blende nicht angepasst wird, gewinnt man nichts an der Aufloesung.
Weil die Beugung dazu fuehrt, dass Punkte, auf Kurven abgebildet werden (Besselfunktionen). Dadurch entstehen Nebenmaxima, die, sich mit dem eigentlich angesprochenen Pixel ueberlagern.

Durch die Beugung der Linse werden zwei Punkte auf der Bildflaeche ueberlagert. Man kann sie also nicht unterscheiden.

In der Klausur kann es gut sein, dass ein Bild gemalt werden soll.
44
Kartenlink
0
Wofuer steht ADDA Wandlung?
Es steht in unserem Kontext fuer den Uebergang der realen Welt (A) ins digitale Bild (D) und von ihm (D) wieder auf einen Monitor (A)
45
Kartenlink
0
Wie erfolgt die Codierung?
Die Codierung erfolgt, indem man
  • die Amplituden (oder Funktionswerte) an endlich vielen, (hier: aequidistanten) stuetzstellen misst: Abtastung
  • die Funktionswerte mit endlich vielen ganzzahligen Werten darstellt: Quantisierung


Schaubild:

Aufnahme des Musters Vorfilterung Abtastung Codierung Speicherung, Uebertragung, Verarbeitung Decodierung Nachfilterung Wiedergabe des Musters
46
Kartenlink
0
Was ist Bandbegrenzung?
Sie besagt, dass aber einer bestimmten Frequenz alle Frequenzanteile 0 werden.
47
Kartenlink
0
Was besagt das Abtasttheorem?
Ist ein Spektrum Bandbegrenzt, dann gilt das Abtasttheorem.
Das besagt, dass wenn man mit der doppelten Grenzfrequenz abtastet, interpoliert werden kann, mit einer unendlichen Summe ueber den Fourierkoeffizienten, um daraus eine vollstaendige Rekonstruktion des Originals wieder hergestellt werden kann.
48
Kartenlink
0
Wo steckt der Fehler Rekonstruktion?
Das Abtasttheorem arbeitet mit einer unendlichen Summe ueber den Fourierkoeffizienten, um daraus eine vollstaendige Rekonstruktion des Originals herzustellen.

1. Da wir nicht ueber eine unendliche Summe laufen koennen, wird ein Fehler in der Rekonstruktion gemacht.
2. Die abgetasteten Werte sind diskretisiert und dann quantisiert, was ebenfalls einen Quantisierungsfehler liefert.
49
Kartenlink
0
Was ist eine Telezentrische Linse?
Telezentrische Objektive sind spezielle optische Objektive, die sich dadurch auszeichnen, dass die Eintritts- oder Austrittspupille im Unendlichen liegt.
Man kann es sich so vorstellen, dass sie die Strahlen parallel verlaufen.
50
Kartenlink
0
Unterschied CMOS vs. CCD
CCD CMOS
akkumulation von Ladung kein Uebersprechen
Strahteilung mittels Prisma (teuer, anfaelliger, hoehere aufloesung) oder Filter (billig, aber geringe aufloesung)  geringerer Stromverbrauch als CCD
Bayer-Pattern Fuellfaktor ca. 50%
Dunkelstrom! Verstaerker ist nah am Sensor
Uebersprehchen! (Blooming) 

51
Kartenlink
0
Skizziere das Bayer-Pattern
Das Bayer-Pattern wird bei CCD-Sensoren verwendet:

Rot Gruen
Gruen Blau


Doppelteranteil von Gruend haengt mit der erhoehten Empfindlichkeit des menschlichen Auges gegenueber dem Gruenkanal zusammen.
52
Kartenlink
0
Was ist der Dunkelstrom?
Der Dunkelstrom ist Normalverteilt und ist bezeichnet als die spontane Bildung von freien Ladungsträgern durch Wärme in einem lichtempfindlichen Halbleiter, beispielsweise einem CCD-Bildsensor.
Systematisches durch den Dunkelstrom verursachtes Rauschen auf digitalen Bildern kann zum Teil nachträglich durch Bildbearbeitung am Computer oder bereits in der Kamera entfernt werden.
53
Kartenlink
0
Was ist der H-Sync / V-Sync


  • Der H-Sync (end of line) ist ein Synchronisierungssignal, dass das Ende einer Bildzeile angibt. Gibt es 575, es sind aber nur 485 sichtbar. Der Rest ist fuer Zusatzinformationen reserviert, beispielsweise auch dem Videotext (TV).
  • Der V-Sync (end of field) ist ein Synchronisierungssignal, dass das Ende des Bildes angibt. Gibt es etwa ueber 50


54
Kartenlink
0
Was ist Interlace und wodurch kann es reduziert werden?
Als Interlace oder Interlacing wird ein Speicherverfahren für Rastergrafiken bezeichnet. In unserem Beispiel wird das Bild in zwei Teile zerlegt. Erst werden die geraden Zeilen uebertragen, danach die ungeraden. Dadurch kommt es zu horizontalen verschiebungen der geraden zu den ungeraden Bildzeilen.

Es kann reduziert werden, durch
  • Verwendung nur eines Halbbildes
  • Tiefpassfilterung und Unterabtastung



GIF zur Veranschaulichung
55
Kartenlink
0
Wie berechnet sich die Oberflaeche?


Doppelintegral fuer ein Rechteck, das von (1,1) bis (3,2) geht.



Doppelintegral nacheinander loesen. Erst .


Das Gleiche fuer



Durch einsetzen in die Formel erhaelt man

56
Kartenlink
0
Was bezeichnet Prof. Mueller mit dem "Quietscheentchenproblem"?
Es ist das Problem, dass, bspw. ein Qietscheentchen, nicht so aufgenommen und auf einem Monitor dargestellt werden kann, dass der gleiche Farbeindruck in beiden Abbildungen, also Original und auf dem Monitor, entsteht.

Hierunter werden auch "Bilder, denen wir vertrauen koennen" verstanden, wenn die Abbildungen gleich sind.
57
Kartenlink
0
Wie funktioniert die Koord. Transformation
Sie wird mithilfe des Skalarproduktes realisiert.

Beispielsweise wollen wir einen Punkt in das Koordinatensystem u,v, welches in Weltkoordinatensysteme gegeben ist, bringen.

UV-System:
und

Gesucht ist:


Gegeben ist:


Loesung
und

Das kann auch mit hilfe einer Matrix in einem gemacht werden.

Martrix



Und das Tolle ist, der andere Weg ist einfach die nicht transponierte:



Warum, das wie transponiert werden muss kann man sich mit der Transformationsregel von Prof. Mueller verdeutlichen:



Da hochgestellter index der -Matrix ungleich der Basis von ist, muss transponiert werden.
58
Kartenlink
0
Wie kann man die Flaeche unter einer Kurve bestimmen?
Mit dem Skalarprodukt!

Beispielsweise hat man zwei Spektren und .
Das Skalar von ihnen ist die Flaeche .

Ausfuehrlich ist es das Integral der beiden Funktionen miteinander multipliziert:



Im diskreten Fall heisst das bei uns:



Die Multiplikation mit der Schrittweite () ist sehr wichtig.
59
Kartenlink
0
Was darf bei der Diskretisierung von Spektren niemals fehlen?
Die Multiplikation mit der Schrittweite:


Beispielsweisse hier:

60
Kartenlink
0
Was ist der Normfarbraum?
wikipedia:
"CIE-Normfarbsystem wurde von der Internationalen Beleuchtungskommission (CIE – Commission internationale de l’éclairage) definiert, um eine Relation zwischen der menschlichen Farbwahrnehmung (Farbe) und den physikalischen Ursachen des Farbreizes (Farbvalenz) herzustellen."

Zumeist notiert als:


Bei Prof. Mueller:


61
Kartenlink
0
Was sind die 3 Vektoren des Normfarbraums und was macht sie zur Basis?
Die Vektoren sind .
Ihre Eigenschaft der linearen unabhaengigkeit macht sie zur Basis.
62
Kartenlink
0
Wie Ueberfuehrt man ein bel. Spektrum in den Normfarbraum (CIE)
In dem man das Skalarprodukt zwischen der CIE-Normbasis und dem beliebigen Spektrum



mit der NormBasis.

Wichtig: die Multiplikation mit , um Gottes Willen, nicht vergessen! Denn das Skalaprodukt impliziert das.
63
Kartenlink
0
Was beschreibt die Basistransformation?
Der CIE-Normfarbraum ist definiert durch . Das ist die Basis.
Jede Linearkombination der Basisvektoren mit reellen Zahlen liefert wieder eine Basis dieses Farbraums, insfern die neuen Basisvektoren linear unabhaengig sind.

--> Das kann erreicht werden in dem wir mit einer nicht-singulaeren, linearen 3x3 Matrix multiplizieren.

Jede Basis liefert ein eigenes Koordinatensystem, wobei der gleiche Vektroraum aufgespannt wird (die lineare Hueller ist identisch)
Es veraendern sich aber Koordinaten bei der Ueberfuehrung.

64
Kartenlink
0
Reicht der 3D Farbraum uns aus?
Nein.

Im Kontext eines 3-dimensionalen Farbraums geht es
vorrangig um einen konsistenten Farbeindruck für einen
menschlichen Betrachter.

Den n-dimensionalen Spektralraum benötigen wir, um
spektrale Funktionen möglichst gut zu approximieren.

Der 3D Farbraum reicht nicht aus, trotzdem bauen alle Renderingmethoden (inkl. der GPU selbst) darauf auf.
65
Kartenlink
0
Rueckfuehrung eines XYZ-Wertes in ein Spektrum. ist richtig?
Es ist zwar die logische Linearkombination aus dem umgekehrten Weg, um aus einem Spektrum einen XYZ-Wert zu machen.



Aber nein. Es ist leider falsch.

Waere die Loesung gueltig, wuerde eine erneute Projektion wieder die urspruengliche XZY-Werte liefern. Macht sie aber nicht.
Das laesst sich nur mit orthonormalen Basen erreichen.
66
Kartenlink
0
Was beschreibt die duale Basis?
Im Allgemeinen Fall brauchen wir zwei Sätze von
Basisfunktionen (duale Basis).

- Eine Projektions- oder Konstruktionbasis
- Eine Rekonstruktionsbasis


Beispiel:

Kamera und ein Display

Mit Hilfe der Kamera (Sensorantwortkurve) transformieren wir
ein eingehendes Spektrum auf den rgb-Wert eines Pixels.
Mit Hilfe des Displays (Spektren der Pixel, sog. Primaries)
rekonstruieren wir aus rgb wieder ein Spektrum.
67
Kartenlink
0
Was ist die Projektions- oder Konstruktionbasis?
Beispiel Kamera:

Mit Hilfe der Kamera (Sensorantwortkurve) transformieren wir ein eingehendes Spektrum auf den rgb-Wert eines Pixels.

Sensorantwortkurve: , , =

68
Kartenlink
0
Was ist die Rekonstruktionsbasis?
Beispiel Display:

Mit Hilfe des Displays (Spektren der Pixel, sog. Primaries) rekonstruieren wir aus rgb wieder ein Spektrum.


Display leuchtet mit Primaries: , , =
Die Rekonstruktionsbasis wird durch ein p wie „primaries“ gekennzeichnet)


Wobei gilt.

Aber:
Das rekonstruierte Spektrum ist i. d. Regel vom Originalspektrum verschieden:

69
Kartenlink
0
Was ist die Anforderung an die duale Basis
Daraus leitet sich die Anforderung an die duale Basis, dass die beiden Basissätze orthonormal zueinander sind.
70
Kartenlink
0
Wie bildet sich die Einheitsmatrix ?
71
Kartenlink
0
Wie bildet sich die Einheitsmatrix ?


Im Kontext der Farbe haben wir aber nx3 Matrizen, wobei n die Anzahl der Samples ist, mit der das Spektrum diskretisiert wurde.

Aber



-- > Das Produkt nennt man Cohen Matrix und wird mit abgekuerzt. Sie wird benutzt, um fundementale Metamere beliebiger Spektren zu erzeugen.
72
Kartenlink
0
Was ist die Primaerbasis in Bezug auf die Konstruktionsbasis?
Sie ist die Pseudo-Inverse:





Konstruktions- und Primärbasis bilden eine duale Basis.
73
Kartenlink
0
Was ist ein identischer Farbeindruck und wie ist er formalisiert?
Wir sprechen von einem identischen Farbeindruck (color match), wenn für zwei verschiedene Spektren und gilt



wobei die CIE XYZ Color Matching Funktionen (Normspektralwertkurven) sind.

Haben 2 Spektren die gleichen XYZ- Koordinaten, dann liefern sie für einen „Normalbeobachter“ auch einen identischen Farbeindruck.

Spektren mit identischem Farbeindruck nennen wir Metamere
74
Kartenlink
0
Wie sehen die CIE: Konstruktions- und Rekonstruktionsbasis
aus?
Leider nur links, da es sonst Geld auf dieser Plattform hier kostet:

Also Konstruktionsbasis



Also Rekonstruktionsbasis. Aehnlich wie , nur mit den negativen auswuechsen (noch kein passendes bild gefunden)
75
Kartenlink
0
Beschreiben Sie die -Kurve
V-Lambda-Kurve auf Wikipedia



- beschreibt den spektralen Hellempfindlichkeitsgrad für Tagessehen
- ca. 550nm (grün-gelb) nimmt man am hellsten wahr
76
Kartenlink
0
Wie sehen die veränderten -Kurven aus?
- ist nur bei Tagessehen.

- ist bei Dämmerungssehen.

- ist bei Nachtsehen.
77
Kartenlink
0
Wie viel Lumen entsprechen 1 Watt?
Stichwort: Photometrisches Strahlungsequivalent





(für Tagessehen)
78
Kartenlink
0
Wie berechnet sich das photometrische Pendat einer spektralen Größe




- photometrisches Strahlungequivalent
- beliebiges Spektrum
- -Kurve
- Koordinate in der Basis; nach Projektion der Funktion auf die Basisfunktion
79
Kartenlink
0
Nenne die Kerngroessen der Photometrie
Lichtmenge Gesamten ausgesendeten Photonen
Strahlungsmenge Für eine Wellenlänge ausgendete Photonen
Lichtstrom Gesamten ausgesendeten Photonen pro Zeiteinheit
Strahlungsfluss Für eine Wellenlänge ausgesendete Photonen pro Zeiteinheit
Lichststaerke Gesamten ausgesendeten Photonen pro Zeiteinheit und Raumwinkel
Strahlstärke   Für eine Wellenlänge ausgesendeten Photonen pro Zeiteinheit und Raumwinkel
Raumwinkel Verhältnis der bedeckten Kugeloberfläche zum Quadrat des Kugelradius
Leuchtdichte Ist die wahrgenommene Helligkeit unter Beachtung des Betrachtungswinkels
Spez. Lichtausstrahlung
Beleuchtungsstaerke Lux) Ist der auftreffende Strahlungsfluss pro Flaechenelement.
Strahldichte Das, was das Auge "sieht"
80
Kartenlink
0
Was ist der Lambert-Strahler?
Der Lambert-Strahler zeichnet sich dadurch aus, dass
seine Leuchtdichte unter jedem Betrachtungswinkel konstant ist und er dadurch von jeder Blickrichtung
gleich hell erscheint.





Wobei die Leuchtdichte bei ist, also so, als wuerde man direkt in die Lichtquelle hineinschauen.
81
Kartenlink
0
Invarianz der Leuchtdichte. Was ist das?
Die Leuchtdichte bleibt in Richtung eine Lichtstrahls konstant.

Dies gilt auch im Zusammenhang mit optischen Abbildungen (Voraussetzung: keine Verluste durch Absorption oder Streuung)

Auf dieser Invarianz baut das Prinzip des Ray Tracings, des Renderings und der bisherigen Betrachtung der Beleuchtungsmodelle auf.
82
Kartenlink
0
Worin unterscheidet sich die Photmetrie und Radiometrie?
In der Photometrie wird das gesamte Spektrum betrachtet ("Photo = alle Farben").
In der Radiometrie hingegen betrachtet man nur einen Teil ("Radio = eine Wellenlaenge")
83
Kartenlink
1
Was ist eine LVK?
- Lichtverteilungskurve
- gibt die Abstrahlcharakteristik einer Leuchte an
- normalerweise müsste sie für jede Wellenlänge extra angegeben werden; oft wird aber nur das Spektrum für eine Lichtquelle angegeben
- bei isotropen Materialien (rotationssymmetrisch) ist die LVK nur abhängig von einem Winkel
- bei anisotropen Materialien ist die LVK abhängig von zwei Austrittswinkeln
84
Kartenlink
0
Unterschied zwischen zweidimensionalen Winkel und Raumwinkel
- beim zweidimensionalen Winkel: mit als Kreisbogen, als Kreisradius
- die Einheit des Winkels ist Radiant
85
Kartenlink
0
Wie lässt sich der Raumwinkel noch beschreiben?
-
- daraus folgt: führt zu
86
Kartenlink
0
Was beschreibt die Lichtstaerke?

Abgekuerzt:

Einheit:

Berechnung:

Beschreibung: Der Raum wird in Tueten unterteilt. Wie voll sind die Tueten (in einem Bereich ) pro Zeiteinheit gefuellt?
87
Kartenlink
0
Wie viele Kerngroessen der Photometrie wurden in CVI behandelt?
6
88
Kartenlink
0
Welche Groesse wird hier gesucht und in welchem Verhaeltnis stehen sie zusammen: Gluehlampe - Leuchtstofflampe

Es ist der Lichtstrom mit 1000 : 2000
89
Kartenlink
0
Welche Groesse wird hier gesucht und in welchem Verhaeltnis stehen sie zusammen: Nachthimmel - Bildschirm - Leuchtstoffroehre
Es ist die Leuchtdichte mit

90
Kartenlink
0
Welche Groesse wird hier gesucht und in welchem Verhaeltnis stehen sie zusammen: Vollmondnacht - Schreibtisch - Supermarkt - Im Freien - Bei Sonnenschein

Es ist die Beleuchtungsstaerke mit

91
Kartenlink
0
Was ist ein Metamer? Wie berechnet man es?
- Spektren mit identischem Farbeindruck



mit als CIE Color-Matching Funktionen (Normspektralwertkurven) und , als zwei verschiedene Spektren
92
Kartenlink
0
Planck'scher Strahler: Wozu dient er und welche Farbtemperatur hat er?
- er dient als schwarzer Strahler

- besitzt eine Farbtemperatur von
93
Kartenlink
0
Wie rekonstruiert man ein Spektrum (Formel)?


mit   als rekonstruiertes Spektrum,
mit als Primaries der XYZ-Kurven (Rekonstruktionsbasis),
mit   als Eingabespektrum

Wichtig ist, dass
mit als Originalspektrum;
beide Spektren liefern dennoch den identischen Farbeindruck
94
Kartenlink
0
Was ist ein fundamentales Metamer (Formel)?
Das rekonstruierte Spektrum (Folie vorher) nennt man einen fundamentalen Metamer.

Formel:

95
Kartenlink
0
Was ist eine Duale Basis und was die Cohen Matrix?
- ist in unserem Zusammenhang eine Bediungung, um eine farbkonsistente Abbildung zu ermöglichen. Ein durch einen XYZ-Wert rekonstruiertes Spektrum wird nach der Projektion auf die BAsis wieder auf den XYZ-Wert abgebildet.
Es ergibt sich, dass
mit als Einheitsmatrix

- mithilfe der berechnet man fundamentale Metamere beliebiger Spektren in der CIE-Normbasis.

   als Cohen-Matrix folgt aus:

96
Kartenlink
0
Was passiert, wenn das rekonstruierte Spektrum bereits ein f undamentaler Metamer ist?
- in diesem Fall handelt sich um eine Identitätsabbildung ohne Einheitsmatrix

97
Kartenlink
0
Was ist die Wyszecki Hypothese?
Jedes Spektrum besteht aus zwei Anteilen: Fundamentaler Metamer (regulärer Anteil) + Differenzspektrum (singulärer Anteil)



mit
98
Kartenlink
0
Welche Eigenschaft besitzt das Differenzspektrum?
Und was passiert, wenn man nun ein Spektrum auf die CIE-Normbsis projiziert?
Sein Farbeindruck ist immer schwarz (metameric black), deshalb wird es auch Schwarz-Metamer genannt. Es liegt vollständig im Nullraum und trägt nicht zum Farbeindruck bei.

Projiziert man ein Spektrum auf die CIE-Normbasis, so ergibt sich:



99
Kartenlink
0
Wie lautet nun die neue Definition für Metamere? Und wie lassen sie sich mathematisch erzeugen?
bisher: Spektren mit identischem Farbeindruck sind Metamere
neu: wenn man zu einem Spektrum ein beliebiges Spektrum aus dem Null raum addiert, ist das ein Metamer

Um sie zu erzeugen, wählt man ein beliebiges Spektrum, berehcnet mithilfe der Cohen-Matrix seinen fundamentalen Metamer, und mithilfe der Differenz zum Originalspektrum seinen Schwarz-Metamer. Durch die Addition des Schwarz-Metamers zu dem fundamentalen Metamer erzeugt man für das Originalspektrum so ein gültiges Metamer
100
Kartenlink
0
Welches Problem beinhalten die Schwarz-Metamere?
Eigentlich haben die Differenzspektren den Farbeindruck Null, d.h. schwarz.
Bei der Multiplikation haben sie aber eine wichtige Bedeutung, denn das Produkt von Differenzspektren ist nicht mehr schwarz.



mit

Das bedeutet, dass die Multiplikation dieser Spektren leider nicht genügt, da man den hohen Fehleranteil beachten muss. Daraus folgt:


101
Kartenlink
0
Luther-Ives-Bedinung bei einer Kamera
Aus      und      erhält man:

   , woraus folgt:




Anm.: und ist eine Matrix, sodass

  und  

Das bedeutet, man kann die rgb-Werte nur im Normfarbrum interpretieren, wenn die Sensorantwortkurve der Kamera durch eine Linearkombination aus den Normspektren hervorgeht.
102
Kartenlink
0
Was ist, wenn die Sensorkurven nicht die Luther-Ives-Bedingung erfüllen?
Dann kann man sie wieder zerlegen:



Die Projektion eines Spektrums in diese Basis liefert einen systematischen Farbfehler (Bias) und einen rgb-Wert, den man mit einer Matrix in die Koordinaten des Normfarbraums überführen kann.
103
Kartenlink
0
Luther-Ives-Bedingung allgemein
- ist Voraussetzung für eine farbkonsistente Abbildung von Farben bei Kameras
- wenn die Sensorkurven der Kamera mit der gleichen Matrix aus der CIE-Normbasis hervorgehen, ist eine Abbildung von rgb nach XYZ mithilfe einer Matrix möglich
- das  heißt auf deutsch: die Sensorkurven müssen fundamentale Metamere sein
104
Kartenlink
0
Transformation von rgb nach XYZ (bei einer guten Kamera)
- zunächst Farbmatrix bestimmen (um Transformationsmatrix zu berechnen)



- wenn man die Sensorantworkurven kennt, kann man die Matrix direkt berechnen:

105
Kartenlink
0
Transformation von rgb nach XYZ (bei einer schlechten Kamera)
- erst wird wieder zunächst die Farbmatrix bestimmt, z.B. durch Kenntnisse über die Sensorantwortkurve
- damit rechnet man leider falsche rgb-Wert in XYZ-Werte um, die damit fehlerbehaftet sind



- der systematische Farbfehler kann nicht korrigiert werden, da für jedes Pixel das zugehörige Spektrum bekannt sein müsste

106
Kartenlink
0
Wie ist das bei Bildschirmen?
- ein Bildschirm leuchtet mit den Primaries
- das resultierende Spektrum eines rgb-Werts ist



- der wahrnehmbare Farbeindruck ist



- der Farbeindruck bleibt identisch, egal ob ein Bildschirm mit beliebigen Spektren oder deren fundamentale Metamere leuchtet

- Farbmatrix für das Display:


107
Kartenlink
0
Transformation von rgb nach XYZ (bei einem Bildschirm)
- die Farbmatrix muss bestimmt werden



z.B. mit einer spektralen Vermessung



- dies ergibt die Normfarbwerde der rgb-Primaries

108
Kartenlink
0
Zwischen-Zusammenfassung
- für eine Simulation genügen rgb-Wert nicht, man muss versuchen die Spektren selbst möglichst gut zu repräsentieren spektrales Rendering

- Luther-Ives-Bedingung für Kameras: farbkonsistente Interpretation der rgb-Farben einer Kamera ist nur möglich, wenn die Sensorkurven eine Linearkombination der Normabasis darstellen
- Umrechnung der rgb-Wert weist einen systematischen Fehler auf, der nicht korrigiert werden kann ohne Kenntnis des eingehenden Spektrums

- bei Bildschirmen gilt diese Bedingung nicht. Man kann beliebige Spektren verwenden, da sowieso nur die fundamentalen Metamere dieser wahrgenommen werden.
109
Kartenlink
0
Color Matching Experiment: eigenes Experiment
- um ein eigenes Experiment durchzuführen, könnte man eine beliebige Primärbasis verwenden und bräuchte kein Equal-Energy-Spektrum als Referenz
- man bräuchte mindestens n linear unabhängige n-dimensionale Referenzsprektren
110
Kartenlink
0
Color Matching Experiment: eigenes Experiment mit Monitor
Kann man die Referenzspektren für das eigene Experiment mit einem Monitor erzeugen?

- nein, denn dann würden linear abhängige Spektren erzeugt werden; der maximale Range wäre 3

Kann man die Primärspektren des Monitors verwenden?

- im Prinzip ja, aber das Problem ist das Gamut = Größe des Farbraums

[Erklärung: siehe Vorlesungs-Video?]
111
Kartenlink
0
Zu messende Charakteristika bei Ausgabegeräten
- Aufwärmphase des Monitors
- Gamma-Funktion = elektro-optische Transferfunktion; Potenzfunktion oder ein-dimensionale LUT
- Kanalunabhängigkeit: messe die Leuchtdichte verschiedener rgb-Wert und prüfe, ob sie der Summe der drei Werte entsprechen



- Farbartkonstanz: Rampen sind die drei Primärspektren für r,g,b, die äquidistanz abgetastet werden und für die die entspr. XYZ-Werte gemessen werden. Übertragen in das Diagramm der Normfarbwertanteile (x,y), müssten alle gemessenen WErte für eien Rampe auf einem Punkt landen
- Schwarzwertkorrektur: Messung des rgb-Wertes (0,0,0) in XYZ und abziehen von den Rampen
- räumliche Homogenität: von dieser hängt ab, wie viele Bereiche vermessen werden müssen (anstatt wie bislang eher für einen Pixel)
112
Kartenlink
0
Charakterisierungsmodelle
- MG (Matrix, gamma)
- MGO (Matrix, gamma, offset)
- 3-D LUT: hier werden die Rampen abgetastet, vermessen und bilden eine 3-D Abbildungstabelle

- räumliche Homogenität: Vermessung an verschiedenen Positionen am Bildschirm mit entsprechender Interpolation
- Gamut-Mapping: Falls außerhalb des Raums der darstellbaren Farben
113
Kartenlink
0
Charakterisierung eines Ausgabegeräts: Motivation? Was bedeutet Kanalunabhängigkeit?
- geschieht vor der Kalibrierung des Geräts
- es geht darum, die Eigenschaften des Geräts zu überprüfen, da Kalibrierungsmethoden davon abhängen
- im Prinzip sucht man für das Gerät eine Abbildung, die für die angestrebte XYZ-Farbe die entsprechenden rgb-Werte liefert, mit denen das Display angesteuert werden muss. D.h.:



- Problem: Farbwerte, für die die zugehörigen XYZ-Farben gemessen werden müssten
114
Kartenlink
0
Charakterisierung eines Ausgabegeräts: Kanalunabhängigkeit
Was bedeutet Kanalunabhängigkeit?

Das resultierende Spektrum ensteht aus einer Summer der drei Primärspektren, die sich untereinander nicht beeinflussen


115
Kartenlink
0
Charakterisierung eines Ausgabegeräts: Farbartkonstanz
- das resultiernde Spektrum entsteht durch eine Linearkombination der drei konstanten Primärspektren:



D.h. in diesem Fall reichen drei Messungen aus
116
Kartenlink
0
Koordinatentransformation
Transformation eines rechtwinkligen Koordinatensystems in ein anderes rechtwinkliges mithilfe einer Rotation und einer Translation
117
Kartenlink
0
Koordinatentransformation: Duale Basis
- Primärbasis (Zielbasis) Linearkombination

- Konstruktionsbasis: ihre Vektoren steht auf senkrecht auf der Primärbasis Projektion / Skalarprodukt
118
Kartenlink
0
Koordinatentransformation: Orthonormale Basis
Hier sind Primär- und Konstruktionsbasis gleich. Orthonormale Koordinatensysteme werden in den meisten Fällen verwendet.

- gleiche Koordinatensysteme Linearkombination

- unterschiedliche Koordinatensysteme Projektion/Skalarprodukt

Zur Transformation benötigt man orthonormale Matrizen = Rotationsmatrizen. Deshalb gilt:

und
119
Kartenlink
0
Koordinatentransformation: Whd. Notation
ist die x-Achse des Kamerakoordinatensystems in Weltkoordinaten .

als Beispiel für einen Punkt in Weltkoordinaten

Anstelle von für die Achsen des Kamerakoord.-Sys. wird auch verwendet; anstatt für die Achsen des Weltkoord.-Sys. auch
120
Kartenlink
0
Koordinatentransformation: Beispiel Rotation 2D
- gegeben: und

- gesucht:

Ansatz:

121
Kartenlink
0
Koordinatentransformation: Vorgehen bei 3D-View-Transformation
(Vektor-Matrix-Notation)

- zuerst Translation der Kamera und des Objekts in Weltursprung



- dann Projektion ins Kamerkoordinatensystem



Vorsicht beim umgekehrten Problem:
122
Kartenlink
0
Koordinatentransformation: Beispiel Epipolargeometrie
- gegeben sei die Gleichung:

- interpretiere die Spalten / Zeilen von ; in welche Richtung zeigt t und in welchem Koordinatensystem ist der Vektor gegeben?

Lösung:

- die Zeilen von sind die Basisvektoren von in  -Koordinaten (Achsen des Zielkoord.-Sys.)
- die Spalten von sind die Basisvektoren von in -Koordinaten (Achsen des Startkoord.-Sys.)
- Vektor ist in -Koordinaten gegeben

123
Kartenlink
0
Matrix-Notation bei Projektion/Skalarprodukt


124
Kartenlink
0
Matrix-Notation bei Linearkombination


125
Kartenlink
0
Szenengraph: Transformationsreihenfolge
Gegeben ist der Szenengraph (von oben nach unten): Karosserie rechtes Vorderrad lokale Geometrie

In welcher Reihenfolge stehen Translation/Rotation in einem Szenegraph?



Wie ist die Reihenfolge der Gesamttransformation?



Wie ist die Reihenfolge in OpenGL (von oben nach unten)?

glTranslatef(...t3...);
glRotatef(...R3...);
glTranslatef(...t7...);
glRotatef(...R7...);
draw object
126
Kartenlink
0
Unterschiede der Koordinatensysteme in CG und BV
CG Kamerakoodinaten
- Kamera im  Ursprung
- x nach rechts
- y nach oben
- wir sehen entlang der negativen z-Achse
- Rechtssystem

BV Kamerakoodinaten
- Kamera im Ursprung
- x nach rechts
- y nach unten
- wir sehen entlang der positiven z-Achse
- Rechssystem

CG Pixelkoordinaten
- Ursprung unten links
- Bildauflösung B und H in Pixeln
- Blick entlang der z-Achse
- Linkssystem

BV Pixelkoordinaten
- Ursprung oben links
- Bildauflösung B und H in Pixeln
- Blick entlang der z-Achse
- Rechtssystem

127
Kartenlink
0
Intrinsische / extrinsische Kameraparameter / K-Matrix
intrinsisch

- Hauptpunkt
- Brennweite F
- Scherung s
- Breite und Höhe eines Sensors
- K-Matrix:

Kartensatzinfo:
Autor: msolbach
Oberthema: Computervisualistik
Thema: Computervisualistik Integration
Veröffentlicht: 12.02.2014
Tags: CVI, Koblenz, Prof. Mueller, Prof. Paulus, 2014
 
Schlagwörter Karten:
Alle Karten (127)
Klausur (17)
Missbrauch melden

Abbrechen
E-Mail

Passwort

Login    

Passwort vergessen?
Deutsch  English