Research Group Efficient Embedded Systems Hochschule Augsburg
University of Applied Sciences
HS Augsburg / Dept. of Computer Science / Research Group EES german
Home
Team
Job vacancies
Open
degree theses
Lab
Research
ParaNut
ASTERICS
ChASA
Triokulus
e4rat
HiCoVec
Teaching
Publications
Imprint

Sehen drei Augen besser als zwei?

Algorithmen zur Objektlokalisierung mit drei Kameras

Projektarbeit (I6Bac) im SS 2010

Projektziel und Verlauf:

Die Bestimmung der exakten 3D-Position von realen Objekten anhand von Kamerabildern ist eine anspruchsvolle, aber interessante Aufgabe mit vielen Anwendungen in der Computer Vision oder Augmented Reality. Mit dieser Aufgabenstellung beschäftigen wir uns unter anderem in dem BMBF-Förderprojekt Triokulus.

Testumgebung Sehen drei Augen mehr als zwei? In dieser Projektarbeit wurden Algorithmen zum optischen Tracking untersucht und entwickelt, die in der Lage sind, (Alltags-)Gegenstände in verschiedenen Umgebungen zu erkennen und zu lokalisieren. Diese Aufgabe wird mit bis zu drei Kameras gelöst, indem aus korrespondierenden Bildpunkten der Kamerabilder die Lage der Objekte im Raum berechnet wird.

Nach einer ersten Phase, die primär zur Einarbeitung in die Thematik diente, teilten Sie sich die Projektteilnehmer im Laufe des Semesters in zwei Teams auf, welche unabhängig voneinander Lösungen für die Problemstellung entwickelten und implementierten. Hierbei wurde die OpenCV-Bibliothek ("Open Computer Vision") verwendet, welche zahlreiche der erforderlichen Algorithmen (z.B. Finden von markanten Punkten in den Kamera-Bildern) und auch z.B. Routinen zum Ansprechen der Kameras oder Anzeigen von Bildern bereitstellt.In zwei Wettbewerben traten die Teams gegeneinander an, wobei die Qualität ihrer Lösungen nach folgenden Kriterien bewertet wurden:
- Wurden die Objekte korrekt erkannt?
- Wie genau wurde deren Lage im Raum bestimmt?

Projektergebnisse:

In der Projektarbeit entwickelten Studenten in zwei unabhängigen Gruppen Softwarelösungen zur Erkennung von Objekten und zur Bestimmung ihrer Lage im Raum. Hierbei entstanden zum einen Tools zum Anlernen von natürlichen Objekten, deren Merkmale (markante Punkte und Geometrie) beispielsweise in einer Datenbank gespeichert werden. Zum anderen wurden Live-Tools entwickelt, die sich der vorab erstellten Datenbank bedienen und so Objekte in den Live-Kamerabildern erkennen und deren Lage im Raum bestimmen können. Zudem wurde erprobt, inwiefern sich eine Variation der Anzahl der verwendeten Kameras und des Abstands der Kameras zueinander auswirkt.

25.3.2024 - Michael Schäferling