“Hallo, ich bin Navel! Wie geht es dir heute?“ Navel, das ist ein kleiner, menschenähnlich gestalteter Roboter, der durch Sprechen und Blickkontakt mit Menschen interagieren kann. Er ist ungefähr einen Meter groß, trägt eine blaue Mütze und blickt seine:n Gesprächspartner:in mit seinen großen blauen Augen an. Durch die Kopplung an ChatGPT kann er sich mit Menschen unterhalten, stellt neugierige Fragen und geht auf seine:n Gesprächspartner:in ein.
Navel ist einer der Roboter, die das Team von Jun.-Prof. Dr. Johannes Kraus und Dr. Marlene Wessels für ihre Forschung zur Mensch-Roboter-Interaktion in der Abteilung der Allgemeinen Experimentellen Psychologie am Psychologischen Institut der Johannes Gutenberg-Universität Mainz nutzen. Dafür führen sie zum Beispiel in ihrem Labor im Psychologischen Institut auch Experimente durch. Das Labor biete den Vorteil, dass dabei die Variablen isolierter betrachtet werden können, erklärt Kraus. Dadurch, dass es keine Störungen gebe, können die beobachteten Effekte auf die Veränderungen bei den Variablen zurückgeführt werden.
Dabei wird nicht nur Navel genutzt: In Katharina Stillers Studie wird über eine VR-Brille eine Situation simuliert, in der ein Reinigungsroboter mit unterschiedlichem Abstand und unterschiedlicher Geschwindigkeit an der Testperson vorbeifährt. Die Proband:innen sollen im Folgenden angeben, wie wohl oder unwohl sie sich in der Situation gefühlt haben.
“Wir sind keine Advokaten der Technik“, sagt Kraus. “Wir untersuchen, wie man Systeme so gestalten kann, dass sie sicher sind, und dass Menschen sich im besten Fall darüber freuen, damit zu interagieren.“ Die Technik solle dabei auf die Bedürfnisse der Menschen angepasst sein, ergänzt Wessels. Besonderes Augenmerk legen die Forscher:innen dabei auf ein möglichst inklusives Design der Roboter. Die Roboter sollen keine neuen Barrieren schaffen: Stattdessen wird untersucht, wie Technologie dazu beitragen kann, Barrierefreiheit zu gewährleisten und zu verbessern.
Es sei nicht genau klar, was von Menschen als empathisch wahrgenommen werde, merkt Kraus an. Grundsätzlich sei das von verschiedenen Variablen abhängig, wie dem Reagieren auf gewisse Zustände oder Verhaltensweisen, aber beispielsweise auch dem Erscheinungsbild der Roboter.
Besonders die Augen könnten hier möglicherweise eine große Rolle spielen. Navel hat etwa eine Einstellung, bei der er sich auf eine bestimmte Person fokussieren kann. Dann halte er mit dieser Person Blickkontakt, erklärt Michel Schiszler, der als wissenschaftliche Hilfskraft mit dem Roboter arbeitet. Navel könne auch Gesichter und Emotionen wiedererkennen und benennen.
Ein Untersuchungsaspekt sei, wie ein Roboter oder eine KI kommuniziert, dass sie einen Fehler gemacht habe, merkt Wessels an: Erkläre er, dass der Fehler auf einen technischen Defekt zurückzuführen sei oder auf “Verwirrung“, eine durchaus menschliche Eigenschaft?
Ähnliche Faktoren untersucht auch Hannah Großwieser in ihrer Dissertation zu künstlicher Intelligenz. Dabei schaue sie sich momentan an, welche Variablen dazu beitrügen, dass ein Chatbot als menschenähnlich wahrgenommen werde, erzählt die Psychologin. Zum Beispiel: Hat der Bot ein menschlich aussehendes Profilbild, einen Namen, den man einem Gender zuordnen kann, und stellt er sich vor? Äußert er ‘persönliche‘ Erfahrungen und Gefühle, die ein Bewusstsein suggerieren?
“Roboter sollten nicht ohne Sinn menschlich gestaltet werden“, findet Johannes Kraus. Bei kommunikativen Aufgaben sei eine menschenähnliche Gestaltung durchaus sinnvoll, damit Menschen möglichst intuitiv auf die Roboter reagieren könnten. Bei kooperativen Aufgaben hänge dies von der Aufgabe ab: Ein Staubsaugerroboter brauche beispielsweise nicht unbedingt ein Gesicht.
Das Konzept der Menschlichkeit sei also in manchen Situationen angebracht, in anderen hingegen sei es sinnvoller, auf alternative Konzepte zurückzugreifen: Große Reinigungsroboter hätten Ähnlichkeiten mit Autos. Also sei es da intuitiver, wenn diese vor dem Abbiegen einen Blinker setzen, sagt Wessels.
Ein möglicher Vorteil von empathisch wirkenden Robotern sei, dass Menschen im Umgang mit ihnen ein besseres Gefühl hätten, erläutert Kraus. Dies sei aber nicht immer so, es könne auch in die andere Richtung gehen. Außerdem: Soziale Roboter wie Navel sollen helfen, den Fachkräftemangel zu bekämpfen. Perspektivisch sollen diese in Pflege- und Bildungseinrichtungen eingesetzt werden.
Bei Pilotprojekten, wie einer Kooperation mit einer Grundschule, haben die Wissenschaftler:innen untersucht, wie ein Roboter die Schüler:innen individuell beim Lesen unterstützen könnte. Interessant sei dabei gewesen: Der Roboter solle laut dem Feedback der Kinder ein Gesicht haben, aber es solle nicht so menschlich sein, erzählen die Forscher:innen. Offen sei bisher die Frage, was langfristige Folgen seien. Das Wissen über mögliche positive oder negative Effekte stecke bisher noch in den Kinderschuhen, sagt Kraus.
Natürlich spielen auch ethische Bedenken eine Rolle: Die 'empathischen‘ Roboter könnten Erwartungen wecken, die sie nicht erfüllen könnten, indem Menschen ihnen Eigenschaften zuschreiben, die die Roboter de facto nicht haben: “Ein Roboter hat keine Gefühle, er simuliert sie nur“, erklärt Kraus. Das könne psychologische Effekte auf Menschen haben, wenn das diesen ihnen nicht vollumfänglich bewusst sei.
Man müsse sich bewusst sein, dass Roboter keine Universalintelligenz hätten, wie durch Science Fiction häufig suggeriert würde, betont der Psychologe. Stattdessen seien sie oft sehr spezifisch auf eine ganz bestimmte Aufgabe ausgelegt. So wie der Greifarmroboter, der sich auch in dem Labor des Teams befindet: Dieser kann mithilfe eines Magnets Objekte in Taschen einsortieren. Das Bild, das Menschen von Robotern, ihren Fähigkeiten und Grenzen haben, soll also möglichst realistisch sein: Dadurch sollen Menschen “kompetente Technologienutzer:innen“ sein.
Campus Mainz e.V. ist ein gemeinnütziger Verein und die meiste Arbeit ist ehrenamtlich. Hilf uns dabei auch in Zukunft tolle Dienste für alle kostenlos anzubieten. Unterstütze uns jetzt!