Arbeitsgruppe Effiziente Eingebettete Systeme Hochschule Augsburg
University of Applied Sciences
HS Augsburg / Fakultät für Informatik / Arbeitsgruppe EES english
Startseite
Team
Offene Stellen
Offene
Abschlussarbeiten
Labor
Forschung
ChASA
ASTERICS
ParaNut
Triokulus
e4rat
HiCoVec
Lehre
Hardware-Systeme
Entwurf digitaler
Systeme 2
Entwurf integrierter
Systeme
Studentische
Projektarbeiten
Publikationen
Archiv
Seminar WS15/16
Seminar WS14/15
Seminar WS13/14
Impressum

Triokulus - Effiziente Bildverarbeitung für 3D-Tracking-Systeme

Das Triokulus-Projekt war ein vom Bundesministerium für Bildung und Forschung (BMBF) gefördertes Forschungsprojekt. Es befasste sich mit der Entwicklung von FPGA-basierten, "intelligenten" Kameras für Augmented-Reality-Anwendungen. Das Projekt konnte in enger Zusammenarbeit mit der Industrie und der Universität Augsburg durchgeführt werden.

Arbeitsergebnisse

Im Rahmen des Triokulus-Projektes konnten Ergebnisse in vielfältigen Bereichen der Bildverabeitung in Verbindung mit eingebetteten Systemen erzielt werden. Zum einen konnten optische Tracking-Verfahren durch Software-Implementierungen auch unter dem Einsatz von eingebetteter Hardware realisiert werden. Dies wurde durch die sorgfältige Auswahl von Algorithmen aus dem Bereich des optischen Trackings, durch Optimierung derselben und eine effiziente Implementierung erreicht. Die schließlich im Projekt entwickelten Demonstratoren realisieren nun effiziente Objekterkennung und Lokalisierung (inklusive der korrekten Lage-Bestimmung im Raum).
Weiterhin wurden für den Einsatz in FPGA-Bausteinen Hardware-Strukturen (IP-Cores) entwickelt, welche Bildverarbeitungsaufgaben effizient bewältigen und beispielsweise in so genannten Smart-Cameras eingesetzt werden können. Die wesentliche Eigenschaft dieser Smart-Cameras ist die effiziente Durchführung spezifischer Aufgaben, so dass zum Beispiel bereits in der Kamera vorverarbeitete Bilddaten an den Host übertragen werden können. Im Triokulus-Projekt wurden Hardware-Module für folgende Probelemstellungen aus der Bildverarbeitung entwickelt:
  • Entzerrung und Rektifizierung von Bilddaten in Echtzeit
  • Berechnung von Tiefenkarten in Echtzeit
  • Module für die Beschleunigung der Detektor-Stufe des SURF-Algorithmus
  • Allgemeine Bildverarbeitungsmodule zum Einsatz in SmartCameras (Bild-Aufnahme, Größenanpassung, ...)
Die Module sind in einer Pipeline-artigen Struktur miteinander verbunden, wodurch die Bildverarbeitungsschritte in Echtzeit durchgeführt werden können.

Die Partner

9.10.2017 - Michael Schäferling