Wie ein Roboter auf unterschiedliche Sprachen reagiert

CITEC-Wissenschaftlerin Marietta Sionti forscht dazu, inwieweit Befehle auch mehrsprachig eindeutig übertragbar sind

Damit Roboter oder Assistenzsysteme sich nahtlos in den Alltag einfügen, ist es wichtig, dass sie eindeutig auf Befehle reagieren. Das funktioniert aber nicht immer: Die meisten Roboter sind zunächst einmal auf Englisch programmiert. Manche Sprachen drücken Bewegungen aber auf eine andere Weise aus – und das kann zu Missverständnissen führen. Wie sich diese vermeiden lassen, erforscht Dr. Marietta Sionti.


CITEC-Wissenschaftlerin Dr. Marietta Sionti erforscht, inwieweit sich Befehle an Roboter in verschiedenen Sprachen eindeutig gestalten lassen. Ein Roboter kann sehr praktisch sein: Er hebt etwas auf, das zu Boden gefallen ist, oder er geht aus dem Raum, um etwas zu holen. Das funktioniert, indem er einen Befehl erhält – und ihn auch versteht. Damit Assistenzsysteme oder andere intelligente Anwendungen gut funktionieren, muss für sie eindeutig sein, was sie tun sollen.

Das gelingt, wenn Handlungen klar mit den jeweiligen Bezeichnungen verknüpft sind. Der Roboter weiß so zum Beispiel, dass er sich einschalten soll, wenn er einen entsprechenden Befehl erhält. Um zu erfahren, wie das funktioniert, untersucht die CITEC-Wissenschaftlerin Dr. Marietta Sionti Muster im menschlichen Gehirn. Sionti ist seit vier Jahren am CITEC und absolviert dort die Graduate School. Sie ist Mitglied der Forschungsgruppe „Neurokognition und Bewegung“, die Professor Dr. Thomas Schack leitet.

Unterschiedliche Sprachen drücken Bewegungen unterschiedlich aus

In ihren Untersuchungen setzt Dr. Marietta Sionti auch EEG und Eyetracking ein. Als Computerlinguistin befasst Sionti sich mit der Frage, wie das menschliche Gehirn Bewegungen kognitiv zuordnet, sie mit einem passenden Verb verbindet – und wie sich das auf Roboter und andere Assistenzsysteme übertragen lässt. Unterschiedliche Sprachen können eine Herausforderung dabei sein, Bewegungsverben bei technischen Systemen mit den entsprechenden Handlungen zu verknüpfen.

„Bislang sind alle diese Systeme fast ausschließlich in einer einzigen Sprache programmiert worden, nämlich in Englisch“, sagt Sionti. Damit sind Befehle an sie nicht immer ohne Weiteres übertragbar. „Jede Sprache eröffnet aber eine andere Perspektive auf die Welt. Sie filtert auf gewisse Weise, welche Handlungen wir wie kommunizieren.“ Unterschiedliche Sprachen drücken Bewegungen zum Beispiel oft nicht auf dieselbe Weise aus, sondern es existieren feine Unterschiede. Dadurch können Missverständnisse entstehen.

Auf der einen Seite verfügen Menschen zwar über dieselben Sinnesorgane. Deshalb ist anzunehmen, dass sie die Welt auf ähnliche Weise wahrnehmen und dies auch entsprechend sprachlich so ausdrücken. „Auf der anderen Seite gibt es aber doch erhebliche Unterschiede dabei, wie Bewegungen bezeichnet werden“, sagt Sionti. Deshalb forscht sie daran, wie das menschliche Gehirn Bewegungen klassifiziert, um daraus universale Muster abzuleiten. „Das ist ein Schritt dazu, um Bewegungen in verschiedenen Sprachen womöglich einmal übergeordnet kategorisieren und bezeichnen zu können.“

Sprachen unterscheiden sich zum Beispiel darin, wie sie Sätze bilden und Wörter miteinander in Beziehung setzen. „Viele germanische Sprachen drücken Bewegungen und Handlungen auf andere Weise aus als romanische Sprachen“, sagt Sionti. Im Spanischen beispielsweise beziehen sich viele Verben als eigene Wörter direkt auf die Richtung der Bewegung (Beispiel: entrar – hineingehen, salir – herausgehen), während dafür im Deutschen oder Englischen eher Präpositionen genutzt werden. So wird „gehen“ zum Beispiel „herausgehen“ oder „hineingehen“. „Dafür drücken die Verben im Deutschen und Englischen häufig die Art und Weise der Bewegung aus“, sagt Sionti. Während man auf Deutsch „Ich fliege nach Amerika“ sagt, würde dies in vielen romanischen Sprachen als „Ich gehe nach Amerika“ ausgedrückt, sagt Sionti. Durch solche unterschiedlichen Ausdrucksarten kann es bei Assistenzsystemen oder Robotern zu Missverständnissen kommen.

Gemeinsame kognitive Mechanismen untersuchen

In ihrer Forschung arbeitet Sionti deshalb daran, die kognitiven Mechanismen zu erforschen, mit denen Menschen in unterschiedlichen Sprachen Bewegungen ausdrücken und kategorisieren. Dazu nutzt sie beispielsweise EEGs, die die Gehirnströme aufzeichnen, und Eyetracker, die Blickbewegungen verfolgen. „Die Personen sollen in den Versuchen zum Beispiel auf einem Bildschirm die Handlungen von Avataren erkennen, sie mit einem Verb bezeichnen oder aber sich bestimmte Handlungen vorstellen“, sagt sie. Die Wissenschaftlerin hofft, dass sie auf diese Weise nachzuvollziehen lernt, was dabei im Gehirn passiert und auf welche Weise bestimmte Bewegungen mit bestimmten Mustern verknüpft sind.

Ziel ist es, einmal bessere Computersysteme zu entwerfen, die in unterschiedlichen Sprachen interagieren können. „Das kann in mehrsprachigen Umgebungen ein großer Vorteil sein, zum Beispiel in Krankenhäusern, Universitäten oder Schulen, aber auch ganz allgemein für Assistenzsysteme“, sagt die Computerlinguistin.

Kontakt:
Dr. Marietta Sionti, Universität Bielefeld
Exzellenzcluster CITEC / Forschungsgruppe „Neurokognition und Bewegung“
Telefon: 0521 106-5128
E-Mail: marietta.sionti@uni-bielefeld.de

Autorin des Artikels: Maria Berentzen