Prof. Dr. Didier Stricker

(Fraunhofer IGD, Darmstadt)

"Von graphisch-interaktiven zu kontextsensitiven Mensch-Maschine-Schnittstellen"

Graphisch-Interaktive Systeme haben sich als Basistechnologie in vielen Anwendungsbereichen (z.B. digitale Produktentwicklung, Gestaltung von Mensch-Maschine-Schnittstellen, interaktive Spiele) etabliert. Während die neunziger Jahre noch durch die Entwicklung immersiver Umgebungen geprägt waren, führten Augmented-Reality-Konzepte mobile und kontextbasierte Visualisierungen ein. Aktuelle Entwicklungen im Bereich der Sensortechnologie ermöglichen heute neue Formen der Mensch-Maschine-Interaktion, die aufgrund der wachsenden Komplexität der Benutzerumgebung eingefordert werden. Der Kernpunkt hierbei besteht darin, die Situationen und Aktionen der Benutzer zu erfassen, um anschließend durch Simulation und Interpretation die korrekte Systemantwort zu generieren. Da der visuelle Sinn eine dominante Rolle in der Wahrnehmung des Menschen einnimmt und ca. 80% der kognitiven Informationsverarbeitung ausmacht, stehen hier Computer-Vision-Verfahren im Vordergrund. Die Interaktionsparadigmen setzen sich dabei aus den folgenden Bestandteilen zusammen:

  • Rezeption: Mit Hilfe von Sensornetzwerken und Computer-Vision-basierten Verfahren werden Aktionen und Situationen der Benutzer und ihrer Umgebung erkannt.
  • Interpretation: In der Modellierung werden die erfassten Sensordaten durch mathematische und lernende Modelle interpretiert.
  • Präsentation: Die multimodale Ausgabe der Informationen berücksichtigt den situationsbedingten Informationsbedarf des Benutzers.
In meinem Vortrag stelle ich hierzu Sensorik und Verfahren vor, die die Funktionsweise des menschlichen Orientierungssinns imitieren, um eine Lösung des Trackingproblems für mobile Anwendungen zu schaffen. Ein besonderes Augenmerk wird hierbei auf die Fehlerpropagation bei Echtzeit-Szenenrekonstruktion und Echtzeitverfolgung der Kamerapose in dynamischen und teilbekannten Umgebungen gelegt. Die Verknüpfung der Kamera mit Beschleunigungssensoren und Gyroskopen – analog zu den menschlichen vestibulären Rezeptoren – liefert wertvolle Information über die Dynamik der Bewegung der Sensoreinheit. Akkumulierende Fehler, die aus den Beschleunigungssensoren resultieren („Drift“), werden fortwährend durch Computer-Vision-basierte Registrierungsverfahren kompensiert. Aus den vorgestellten Forschungsarbeiten leite ich weitere wissenschaftliche Herausforderungen für die Gestaltung neuartiger Mensch-Maschine-Schnittstellen ab, und führe neue Konzepte zu sogenannten „Action-Driven User Interfaces“ ein. Dadurch eröffnet sich ein weitreichender Forschungsbedarf mit einem umfassenden Anwendungspotential, der Aspekte der Computer-Graphik, der Computer-Vision und der Sensortechnologie zur Gestaltung der Mensch-Maschine-Interaktion zusammenführt.



Zeit: Dienstag, 18.09.2007, 9.00 Uhr
Ort: Gebäude 48, Raum 680