3D Rekonstruktion < Künstl. Intelligenz < Praktische Inform. < Hochschule < Informatik < Vorhilfe
|
Status: |
(Frage) überfällig | Datum: | 01:34 Di 15.01.2019 | Autor: | Kian |
Hallo,
ich bereite mich zurzeit fur meine Abschlussarbeit vor.
Ich möchte mit Python unter der Verwendung von OpenCV eine Software schreiben, die anhand mehreren Fotoaufnahmen von einem realen Objekt, eine 3D Rekonstruktion erstellt, welches aus 3D Punkten besteht. Ich habe mich durchgelesen, informiert und komme an einer Stelle nicht weiter.
Gegeben sei eine Menge an Bildern von einem realen Objekt aus unterschiedlichen Perspektiven.
Gesucht ist eine 3D Punktwolke die einem Abbild des realen Objektes entspricht.
Meine Idee bzw. Ansatz:
1. Detektion von SIFT Merkmalen: Auf jedem Bild den SIFT Algorithmus ausführen und die SIFT-Merkmale extrahieren.
Mit Hilfe des Merkmal-Deskriptors lassen sich nun Korrespondierende Bildpunkte aus 2 unterschiedlichen Bildern finden.
2. Korrespondenzsuche: Mit dem Brute Force Matcher Algorithmus von OpenCV, lassen sich 2
korrespondierende Bildpunkte mit Hilfe der extrahierten Deskriptoren finden.
-------------------------------------------
3. Ab hier komme ich nicht weiter.
Ich weiss das ich mit der eipolar Geometrie, Fundamentalmatrix, intrinische und extrinische Kameraparameter arbeiten muss.
1. Frage: Habe ich richtig verstanden, dass die intrinischen Kameraparameter im Gegensatz zu den extrinischen Parameter für alle Bildaufnahmen der gleichen Kamera gleich sind?
2. Ich weiss es gibt viele Informationen hierzu und OpenCV hat auch eine ziemlich gute Dokumentation, aber ich verstehe einfach überhaupt nicht wie man die intrinischen/extrinischen Parameter berechnet und und die Bilder verzerrungsfrei macht.
Hier in der Dokumentation
von OpenCV verstehe ich ab Seite 209 die Rechnung, Zusammenhänge und den Code nicht.
Kann mir das jemand genauer erklären wie die Rechnung abläuft? Oder hat jemand eine gute Quelle wo das einfacher erklärt wird so das ich es verstehen/nachvollziehen kann? (Wenn möglich auf deutsch)
-----------------------------
4. Nehmen wir an das ich 3. verstanden und realisiert habe. Somit habe ich nun aus 1. alle SIFT-Merkmale, aus 2. alle korrespondierenden Bildpunkte und aus 3. intrinische Kameraparameter die, die Verzerrung der Bilder aufheben/beheben.
Würde ich jetzt als nächstes mit der epipolar Geometrie weiter arbeiten oder wie gehts weiter?
Hoffe das mir jemand etwas helfen kann.
Lg
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 02:20 Do 17.01.2019 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|