Trauer

Psychologin Julie Carpenter von der Universität Washington befragte amerikanische Soldaten nach ihrem Verhältnis zu Robotern, die im Irak oder Afghanistan bei der Minenräumung zum Einsatz kommen. Die Soldaten sagen, dass sie traurig sind, wenn die Maschinen „sterben“.

Julie Carpenter, Sie haben das Verhältnis von Soldaten zu Militärrobotern wie PackBot oder Talon untersucht. Beide haben keine Ähnlichkeit mit Menschen oder Tieren. Warum fühlen Soldaten sich den Robotern trotzdem mehr verbunden als anderen Maschinen. Sind es die Bewegungen der Roboter? Ist es das Verhalten oder die Intelligenz?

Es gibt keine einfache Antwort auf die Frage. Ich glaube, es ist eine Kombination aus vielen Faktoren. Es wurde eine ganze Reihe von interdisziplinärer wissenschaftlicher Literatur darüber geschrieben, wie Menschen über Besitztum denken, über ihre Bindung zu anderen Menschen oder zu Tieren, oder auch darüber, warum wir Computern manchmal wie Menschen behandeln. Alle diese Dinge kommen ins Spiel, ebenso bestimmte Erwartungen, Normen sowie das soziale Gruppenverhalten.

Roboter bewegen sich und besitzen einen Körper. Selbst wenn die Bewegungen von einem Menschen gesteuert werden, wie das bei den Robotern PackBot und Talon der Fall ist, scheinen die Maschinen eine eigene Kraft zu besitzen oder einen eigenen Daseinszweck zu haben; die Leute können absolut verstehen, dass die Maschinen nicht intelligent sind. Aber sie scheinen ein eigenes Ziel zu verfolgen. Deshalb reagieren wir instinktiv so, als wäre die Maschinen mehr als Dinge ohne Leben. Die Roboter der Kampfmittelabwehr übernehmen die Aufgaben eines Menschen (oder eines Tieres; in der Vergangenheit wurde diese Arbeit von Hunden erledigt) und eine Rolle im Team. Nicht zuletzt haben die Roboter durchaus etwas an sich, das an Mensch oder Tier erinnert – etwa eine Klaue, die wie eine Hand greifen kann.

Verstärkt der Militärdienst die Bindung zwischen Soldat und Roboter?

Natürlich gibt es Faktoren, die im Militärdienst einzigartig sind: Der Einsatz weit weg von daheim, von Freunden und Familie – das macht die Leute einsam. Der Militärdienst ist ein immenser Stress, da es oft um Leben und Tod geht. Dieser Stress kann sich in Humor äußern, etwa wenn die Soldaten eine Beerdigung oder eine Gedenkfeier für ihre Roboter abhalten. Der Roboter ist zudem ein Werkzeug, das menschliche Teammitglieder retten kann. Daher legen die Soldaten großen Wert darauf, dass er überlebt.

Und natürlich ist es beim Militäreinsatz sehr wichtig, dass sich alle auf ihre menschlichen Kameraden verlassen können. Obwohl Roboter nicht annähernd als menschliche Teammitglieder durchgehen, werden sie manchmal von den Operateuren als solche beschrieben. Sogar die US Armee beschreibt in ihren Rekrutierungsvideos die Roboter als Teil des Teams. Das ermuntert die Leute, die Roboter nicht nur als Werkzeug zu betrachten, obwohl allen, mit denen ich gesprochen habe, klar ist, dass der Roboter etwas mechanisches ist.

Würde jemand in seiner Wohnung zuhause über die selben Maschinen also anders denken?

Viele der menschlichen Faktoren – wie die Wahrnehmung der Bewegung oder eines angeblichen Daseinszwecks – lassen sich sicherlich auch auf andere Situationen übertragen. Es gibt viele Forschungsarbeiten, auch meine eigenen Studien über Heimroboter, die das bestätigen. Die Studien zeigen aber auch Unterschiede im Verhalten von Menschen gegenüber Robotern, abhängig von dem kulturellen Hintergrund der Leute, ihrem Geschlecht, dem wahrgenommenem Geschlecht des Roboters und der Rollenverteilung zuhause.

Gilt das auch für Soldaten? Spielt das Alter bei der Wahrnehmung der Roboter eine Rolle?

Ich habe 23 Soldaten aus der Kampfmittelabwehr befragt. Meine Studienergebnisse lassen vermuten, dass es einen Zusammenhang zwischen dem Alter des Teams und der Art gibt, wie die Soldaten mit Robotern interagieren. Jüngere Teilnehmer zwischen 22 und 30 Jahren behandeln Roboter tendentiell eher als etwas, was über ein Werkzeug hinaus geht. Das kann bedeuten, dass das durchschnittliche Alter des Teams und damit auch die Gruppendynamik oder das Alter des Teamführers die Interaktion mit Robotern beeinflusst.

Ein Teilnehmer äußerte die Theorie, dass jüngere Soldaten mehr Erfahrung mit Videospielen haben und öfter in Avatare und computergenerierte Charakter schlüpfen. Einige der Roboter werden mit Xbox-ähnlichen Controllern gesteuert. Der Teilnehmer dachte also, dass seine Generation darauf vorbereitet wurde, die Roboter als Vertreter der eigenen Person zu sehen.

Hat auch die Stellung im Team Einfluss auf die Beziehung zum Roboter?

Jedes Teammitglied übernimmt in der Kampfmittelabwehr eine bestimmte Rolle. Einer der Soldaten ist für Steuerung des Roboters zuständig. Dieser Operateur fühlt sich am ehesten in den Robotern vertreten. Er verbringt viel Zeit damit, die Roboter zu warten, mit ihnen zu üben und sie einzusetzen. Der jeweilige Roboter ist sozusagen die Hand des Operateurs, die An seiner Stelle Verhaltens- und Kooperationsaufgaben übernimmt.

Falls der Roboter defekt ist, muss der Teamleiter mitunter seinen Schutzanzug anlegen und die Minenräumung selbst durchführen, was sehr gefährlich ist. Die meisten Operateure erklärten mir, dass sie aus diesem Grund nicht nur eine besondere Verantwortung für das Team und den Teamleiter empfanden, sie fühlten sich auch für die Fehler des Roboters verantwortlich. So als wäre dessen Fehler ein Verrat des Operateurs am Team und an der Mission. Die Operateure spürten daher Ärger und Frust, sobald ein Roboter defekt war.

Humanoide Roboter könnten die Gefühle verstärken. Vielleicht wollen die Soldaten die Roboter sogar beschützen. Wie kann man das verhindern?

Ich denke, zuerst müssen wir verstehen, welche sozialen oder emotionalen Phänomene überhaupt auftreten. Wir müssen herausfinden, was wir davon kontrollieren können und was nicht. Manchnal müssen wir das nicht, Je nach Aufgabe des Roboters ist die Zusammenarbeit effizienter, wenn die Roboter sie auf menschenähnlichen Weise erledigen, zum Beispiel indem sie die natürliche Sprache verstehen oder Beine haben, um über komplexes Gelände zu steigen.

Was die anderen Fälle angeht – ich glaube nicht, dass es ausschließlich Aufgabe der Entwickler ist, Gefühle gegenüber Robotern zu unterbinden. Es ist eine kollektive Verantwortung des sozialen Systems, in dem die Mensch-Roboter-Interaktion stattfindet. Autoritäten führen oft Roboter scherzhaft als „Teammitglieder“ ein, das steigert die Erwartungen über die Interaktionen mit den Robotern. Vielleicht wäre es am besten, diese Art von Botschaft zu vermeiden. Natürlich verhindert das nicht individuelle Denkprozesse oder Witze unter Gleichaltrigen. Aber das ist ein Beispiel, wie die Änderung einer Praktik innerhalb eines Systems oder einer Organisation ein anderes Bewusstsein schafft – hervorgerufen nicht durch die Entwickler, sondern schrittweise durch die Nutzer selbst.

Ich glaube, es gibt noch eine Menge Fragen, die wir interdisziplinär angehen müssen. Das Thema ist so komplex, das kann keine akademische Disziplin alleine bewältigen.