Ein CITEC-Team wurde mit dem „Best Paper Award“ ausgezeichnet
Drei Wissenschaftler des Exzellenzclusters CITEC entwickelten ein Verfahren, um mit Blicken in künstlichen Welten über Headsets besser zu interagieren. Das könnte einmal die bisherige Steuerung über Kopfbewegungen ablösen und stellt insbesondere eine Chance für Menschen dar, die den Kopf nicht bewegen können.
Es ist inzwischen recht gängig, in künstliche Welten abzutauchen: Eine Brille entführt Nutzer im Nu an einen virtuellen Palmenstrand oder lässt einen Hai auf einer Kreditkarte wachsen, die man in der Hand hält. Virtuelle Welten sind aber längst weit mehr als eine Spielerei: Sie werden sich in Zukunft immer stärker im Alltag verbreiten, zum Beispiel über den Einsatz von Smart Glasses, wie unter anderem Google sie entwickelt hat.
Auch die Anwendungsmöglichkeiten wachsen – über die Brillen könnte man zum Beispiel navigieren oder Nachrichten verschicken. Das stellt die Brillen aber vor Herausforderungen bei der Bedienung. „Die Frage ist: Wie kann man dabei Menüpunkte am sinnvollsten anwählen?“, sagt Dr. Thies Pfeiffer vom Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld. „Man kann ja nicht einfach wie bei einem Touchscreen mit dem Finger darauf tippen.“
„Meistens steuert man die Brillen mit einer Art von Kopfcursor“, erklärt Pfeiffer. Dafür bewegt man den Kopf in die Richtung des Menüpunktes, den man auswählen möchte. Das ist aber oft umständlich und nicht sehr komfortabel. Der Wissenschaftler hat deshalb gemeinsam mit zwei Kollegen vom CITEC ein Verfahren entwickelt, um die Steuerung der Headsets zu vereinfachen. Dafür wurde das Team aktuell auf dem COGAIN Symposium 2018 in Polen (http://cogain2018.cogain.org) mit dem Best Paper Award ausgezeichnet.
Jonas Blattgerste, Patrick Renner und Thies Pfeiffer entwickelten dafür einen Ansatz zur Steuerung weiter: „Wir haben uns mit der Frage befasst, ob man mit Blicken in Headsets in der virtuellen und der augmentierten Realität besser interagieren kann als mit den traditionell eingesetzten Kopfbewegungen“, sagt Pfeiffer. „Das haben wir systematisch untersucht und können diese Frage eindeutig mit einem Ja beantworten.“
Die Steuerung über die Augen hat viele Vorteile: Insbesondere ist sie eine Chance für Menschen mit Behinderung, die den Kopf nicht bewegen können. Auch vor diesem Hintergrund erhielt das Team vom CITEC den Best Paper Award. „Dazu kommt, dass es nicht sehr ergonomisch ist, wenn Menschen ständig den Kopf drehen müssen“, sagt Pfeiffer. „Das wird sehr schnell anstrengend.“
Zudem ist die Steuerung über Augenbewegungen tendenziell schneller als bei einer Bewegung des Kopfes. „Außerdem könnte es merkwürdig wirken, wenn man draußen mit so einer Brille unterwegs ist und ständig den Kopf in verschiedene Richtungen dreht“, sagt Pfeiffer. „Dann fühlen sich womöglich Menschen im Umfeld angesprochen oder sind irritiert, obwohl sie damit gar nicht gemeint sind.“
Die Blicksteuerung funktioniert so, dass die Personen ihr Ziel im Menü fokussieren und es dann bestätigen. „Dafür gibt es grundsätzlich unterschiedliche Möglichkeiten“, sagt Pfeiffer. Möglich ist zum Beispiel, dass Personen den Blick einige Sekunden halten, blinzeln oder einen Menüpunkt refokussieren.
„Unsere Studie hat gezeigt, dass wir vor allem dort gute Ergebnisse erzielen konnten, wo die Blicke gut getrackt wurden“, sagt der Wissenschaftler. Allerdings lassen sich bislang nicht alle Augenbewegungen gut per Eyetracker verfolgen. Dafür ist ein bestimmter Ausschnitt des Auges notwendig, der zum Beispiel durch hängende Augenlider zu klein sein kann. „Nicht jedes Auge ist gleich“, sagt Pfeiffer. „Die Technologie funktioniert schon jetzt bei den meisten Menschen gut, aber an der Stelle besteht auf jeden Fall noch weiterer Forschungsbedarf, damit auch der kleine Prozentsatz von Menschen, bei denen das noch nicht funktioniert, die Technologie einmal nutzen kann.“
Originalveröffentlichung:
Jonas Blattgerste, Patrick Renner, Thies Pfeiffer. Advantages of Eye-Gaze over Head-Gaze-Based Selection in Virtual and Augmented Reality under Varying Field of Views. COGAIN '18: Proceedings of the Workshop on Communication by Gaze Interaction ACM. http://doi.org/10.1145/3206343.3206349, erschienen am 15. Juni 2018.
Kontakt:
Dr. Thies Pfeiffer, Universität Bielefeld
Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) / Technische Fakultät
Telefon: 0521 106-12373
E-Mail: tpfeiffer@techfak.uni.bielefeld.de
Autorin des Artikels: Maria Berentzen