Künstliche Intelligenz
Roboter erkennen Emotionen
Robert Jenke erklärt im Interview, wie Roboter in Zukunft Emotionen und Gedanken ihrer Benutzer erkennen können.
Robert, Du arbeitest an der TU München im Bereich Mensch-Maschine-Interaktion. Was erforscht Du?
Ich arbeite am EU-Projekt Vere und forsche in dessen Rahmen, wie man Emotionen von einem Benutzer auf den Roboter übertragen kann. Ich beschäftige mich dabei hauptsächlich mit der Emotionserkennung von physiologischen Signalen.
Was sind diese physiologischen Signale?
Man muss sich das bei Emotionen so vorstellen, dass Emotionen sich nicht nur über unsere Mimik und Gestik ausdrücken, sondern auch unseren Organismus verändern. Zu diesen physiologischen Signalen gehören dann z.B. Gehirnströme, Hautwiderstand und Temperatur.
Bei einem Großteil deiner Forschung geht es also darum, zu erkennen, welche Emotionen ich empfinde. Wie erkennst Du das?
Bleiben wir bei dem Beispiel Gehirnströme. Diese messen wir z.B. mit einer EEG-Kappe und unsere Machine versucht dann anhand von Merkmalen, die wir aus den Signalen extrahieren, diese Merkmale einer Emotion zuzuordnen.
Ist es denn bei jedem Menschen gleich, wo er Emotionen empfindet oder muss man erst bei jedem Menschen neu herausfinden, wo er in seinem Gehirn welche Emotion empfindet? Gibt es also z.B. bei mir, wenn ich wütend bin vorne links Gehirnströme und bei dir hinten rechts?
Es gibt tatsächlich eine gewisse Varianz zwischen verschiedenen Personen, weil jeder Mensch Emotionen einfach auch unterschiedlich empfindet und darauf reagiert. Deswegen ist es bei solchen Studien auch sehr wichtig, dass man möglichst viele Probanden hat, um ein aussagekräftiges Ergebnis zu bekommen.
Kannst du dann auch sehen wie stark eine Emotion ist? Also ob ich ein bisschen glücklich bin, weil ich gerade noch den Bus bekommen habe oder ob ich total glücklich bin, weil ich gerade mein Studium bestanden habe?
Das ist ein Frage, die noch nicht richtig erforscht ist. Wir haben das in einer Studie in einem vereinfachten Versuchsaufbau erprobt. Die Ergebnisse daraus sind relativ vielversprechend, so dass wir in Zukunft auch die Intensität von Emotionen messen können.
Du kannst jetzt schon erkennen, welche Emotionen Menschen empfinden. Wird man irgendwann auch Gedanken lesen können?
Im Vere Projekt versuchen wir tatsächlich auch andere Absichten auf Roboter zu übertragen, also was der Benutzer möchte, dass der Roboter macht. Dazu benutzen wir bestimmte Schnittstellen, z.B. einen Bildschirm, auf den sich der Benutzer konzentrieren muss. Aus dieser Interaktion zwischen Bildschirm und den Gehirnsignalen, die daraus entstehen, kann man teilweise Absichten schon heraus lesen. Aber ich denke tatsächlich einzelne Gedanken aus den Gehirnströmen, gerade aus dem EEG, herauszulesen, ist nicht möglich.
Wo soll diese Emotionserkennung denn angewendet werden?
In unserem Projekt geht es darum, querschnittsgelähmten Menschen wieder eine physikalische Interaktion mit der Umgebung zu ermöglichen. Aber es gibt Grundsätzlich noch viele weitere Anwendungsmöglichkeiten, wie z.B. Fahrerassistenzsysteme, die erkennen wenn der Fahrer in Sekundenschlaf fällt oder für private Haushaltsroboter, bei denen durch Emotionserkennung eine natürlichere Interaktion möglich wird.
Robert Jenke hat uns außerdem erklärt, ob Roboter, Computer- und Handysysteme eines Tages Emotionen empfinden könnten, wie in Filmen wie „Her“ oder „I, Robot“.