Lehrstuhl für Mustererkennung und Bildverarbeitung
Veranstaltungstitel:

Grundlagen des Rechnersehens (Computer Vision) WS 09/10 (2 SWS)

Veranstalter: Prof. Dr.-Ing Hans Burkhardt, Nikos Canterakis
Zeit: Mittwochs, 14.00 - 16.00 Uhr
Ort: HS 02-017, Geb. 052 
Beginn: Mittwoch, 21.10.09
Kreditpunkte: 3
Adressaten: Studenten der Informatik, Mathematik oder Physik
Voraussetzung: Lineare Algebra
Beschreibung: Es werden moderne Methoden zur Erfassung und flexiblen Verarbeitung der Struktur einer realen 3D Szene auf der Grundlage von mehreren Bildern dargelegt. Sie formalisieren das Zusammenspiel zwischen Kameras und Computer. Eine wichtige Besonderheit dieser Methoden besteht darin, dass sie eine sog. "unkalibrierte" Vorgehensweise erlauben: Durch konsequente und gezielte Anwendung von Prinzipien der projektiven Geometrie lassen sich ohne jegliche Kenntnis von Kameralage oder Kameraparametern z.B. Rekonstruktionsprobleme lösen, die bis Anfang der 90-er Jahre noch ungelöst waren bzw. sogar als unlösbar galten.

Zunächst werden alle notwendigen Elemente aus der algebraischen projektiven Geometrie bereitgestellt, einschließlich projektiver Transformationen und Homographien. Nach der Beschreibung des verwendeten Kameramodells wird auf die Abbildung und Rückprojektion von geometrischen Primitiven wie Punkt, Gerade und Quadrik eingegangen.

Die Einbeziehung eines zweiten Bildes (ohne jegliche Kamerakenntnis) ermöglicht schon eine projektive 3D Szenenrekonstruktion, sowie die Generierung neuer Objektansichten. Epipolargeometrie, Fundamentalmatrix und Korrespondenzbedingung sowie kanonisches Kamerapaar und Triangulationsmethoden bilden hierbei das notwendige theoretische Gerüst.

Mit der Hinzunahme eines dritten Bildes taucht als neues mathematisches Objekt der Trifokaltensor auf. Er ermöglicht einen tiefen algebraisch/geometrischen Einblick in die Beziehungen zwischen realen Objekten und deren Bildern, sowie eine bessere Ausnutzung von korrespondierenden Primitiven.

Am Schluss werden Techniken zur Selbstkalibrierung von Kameras präsentiert, welche nur aus aktuellen Bildinhalten Kameraparameter berechnen, so dass auch metrische 3D Eigenschaften von Objekten extrahiert werden können.

Je nach verbleibender Zeit wird auch auf die Verarbeitung von Bildsequenzen eingegangen.
Inhalt:
  1. Einleitung, Motivation, Beispiele
  2. Projektive Geometrie
    1. Die projektive Gerade
    2. Die projektive Ebene
      1. Punkte, Geraden, Kegelschnitte
      2. Projektive Transformationen, Homographien
    3. Der projektive Raum
      1. Punkte, Ebenen, Geraden, Quadriken, kubische Linien
      2. Projektive Transformationen, Homographien
  3. Das Kameramodell
    1. Die Lochkamera
    2. Die projektive Kamera
    3. Kamerahierarchie und -Anatomie
  4. Ein-Bild Geometrie
    1. Abbildung und Rückprojektion von Ebenen, Geraden, Kegelschnitten, Quadriken
    2. Kalibrierung und der absolute Kegelschnitt
    3. Fluchtpunkte, Fluchtlinien
  5. Zwei-Bilder Geometrie
    1. Die Epipolargeometrie
    2. Die Fundamentalmatrix
      1. Korrespondenzbedingung
      2. Epipolarlinien und Epipolarlinienhomographie
      3. Geometrische Darstellung der Fundamentalmatrix
    3. Projektive Invarianz und kanonisches Kamerapaar
    4. Rekonstruktion
  6. Drei-Bilder Geometrie
    1. Der Trifokaltensor
      1. Herleitung, Inzidenzbeziehungen, Transfer
      2. Korrelationsscheiben und Homographiescheiben
      3. Trifokaltensor und Fundamentalmatrizen
    2. Kanonisches Kameratripel und Rekonstruktion
  7. Selbstkalibrierung
  8. Bildsequenzen
Material: cvF_1und2.pdf  cvF_3.pdf   cvF_4.pdf   cvF_4b.pdf   cvF_4c.pdf   cvF_4d.pdf   cvF_5a.pdf   cvF_5b.pdf   cvF_6.pdf   cvF_7.pdf   cvF_8.pdf   cvF_8b.pdf   cvF_9.pdf   cvF_10.pdf
Kreditpunkte: 3
Prüfungsleistungen: Mündliche Prüfung

Nikos Canterakis 09.10.2009