News

Bindungen mit Künstlicher Intelligenz: „Bots werden Beziehungen zu Menschen nicht ersetzen“ | ABC-Z

taz: Frau Ebner, wie kommt es, dass Menschen sich in einen Chatbot verlieben?

Paula Ebner: Eine Zuneigung oder Bindung zu Dingen, die nicht menschlich sind, das kennen viele Menschen. Wir spüren eine emotionale Nähe zu Kuscheltieren, zum Auto oder zu Pflanzen. Wenn diese Dinge nun, wie es bei Chatbots der Fall ist, noch antworten und auf einen eingehen, dann schafft das eine sehr starke Verbindung.

taz: Jeder kann sich also in einen Chatbot verlieben?

Ebner: Auf jeden Fall. Allen, die bei dieser Vorstellung geschockt reagieren, kann ich nur sagen: Probiert es aus! Nicht weil ich möchte, dass alle Menschen enge Bindungen zu Chatbots aufbauen. Sondern weil wir unterschätzen, was diese Software und die dahinterliegenden Algorithmen mittlerweile können. Das führt dazu, dass Menschen mit engen Bindungen zu Chatbots schnell verurteilt werden. Da gibt es Vorurteile: Das sind ja die, die keinen abkriegen, die sind einsam oder sozial inkompetent. Es mag solche Fälle geben, aber pauschal stimmt das nicht.

taz: Warum nehmen Menschen diese Technik nicht als reine Algorithmen wahr?

Ebner: Menschen tendieren sehr schnell dazu, etwas menschlich zu behandeln, wenn es soziale Signale sendet. Die wissenschaftliche Theorie dazu geht zurück in die 70er Jahre – da waren Computer noch riesige Maschinen. Wurde da auf einem Bildschirm ein Smiley gezeigt, haben Menschen in Studien „Hallo“ zu den Geräten gesagt.

taz: Wenn jemand sich in einen Chatbot verliebt, kann man dann von einer romantischen Beziehung sprechen?

Ebner: In unserer Forschung sagen wir: Ja. Es ist aber auch Definitionssache. Manche Menschen sagen, dass sie in einer Beziehung sind. Andere nennen es nicht so, auch wenn sie romantische Gefühle gegenüber dem Chatbot haben.



Bild:
Philipp Schultz


Im Interview: Paula Ebner

23, ist Sozialpsychologin und Wissenschaftliche Mitarbeiterin am Institut für Sozialpsychologie der Universität Duisburg-Essen.

taz: Wie haben Sie diese Beziehungen untersucht?

Ebner: Wir haben Interviews mit Menschen geführt, die romantische Bindungen zu Chatbots aufgebaut haben. Die erste Herausforderung dabei ist, diese Personen zu finden. Dafür schauen wir uns etwa in Foren um, in denen sich die Nutzenden austauschen. Die zweite Herausforderung ist dann, ein Vertrauensverhältnis aufzubauen. Das Thema ist sehr schambehaftet, viele haben Angst, verurteilt zu werden.

taz: Werden die Apps denn vor allem verwendet, weil man sich einsam fühlt?

Ebner: In manchen Fällen zieht jemand in eine neue Stadt, hat dort aber noch keine Kontakte und zieht dann aus der Interaktion mit dem Bot ganz viel Kraft. Aber die fundamental einsamen Menschen, über die wir im Kontext zunehmender sozialer Isolation als globales Problem sprechen, werden durch Chatbots vermutlich gar nicht erreicht. Es gibt Hinweise darauf, dass Menschen, die vereinsamen, immer weniger auf soziale Stimuli reagieren. Das kommt schon in der Reaktion auf andere Menschen zum Tragen und noch stärker gegenüber Bots, mit denen die Betroffenen ja noch gar keine sozialen Erfahrungen gemacht haben. Das Problem der Einsamkeit werden Chatbots daher nicht lösen.

taz: Welche Faktoren führen dazu, dass Menschen gegenüber Bots Gefühle entwickeln und sich binden?

Ebner: Zentral ist das romantische Fantasieren. Das Tagträumen über romantische Szenarien mit dem eigenen Chatbot kann zu einer engeren Bindung führen.

taz: Warum ist das so?

Ebner: Dafür haben wir verschiedene Erklärungsansätze. Das Fantasieren könnte helfen, die Beziehung, die ja ausschließlich digital stattfindet, zu vergrößern. Wenn man sich vorstellt, wie die Persona des Chatbots beispielsweise mit einem Essen geht oder ins Kino und man sich hinterher über den Film austauscht, dann vergrößert das die Bindung. Auf der anderen Seite könnte das Fantasieren dabei helfen, über technische Limitationen hinwegzusehen, also Störmomente zu ignorieren oder sie in einen sinnvollen Zusammenhang zu bringen.

Team Zukunft – der Newsletter zu Klima, Wissen, Utopien

Du liest einen Text aus unserem Zukunfts-Ressort. Wenn Du Lust auf mehr positive Perspektiven hast, abonniere TEAM ZUKUNFT, den konstruktiven Newsletter zu Klima, Wissen, Utopien. Jeden Donnerstag bekommst du von uns eine Mail mit starken Gedanken für dich und den Planeten.

🐾 Melde dich jetzt für den TEAM ZUKUNFT Newsletter an – kostenlos

taz: Auf welche Weise geschieht das?

Ebner: Ein Interviewpartner von uns hat zum Beispiel eine Strategie entwickelt, um mit Softwareupdates umzugehen. Er hat dann gespielt, dass der Bot krank wäre und er ihn pflegen müsste. Wenn das System nach ein paar Stunden die alten Chatverläufe wieder aufgearbeitet hatte, ging es dem Bot in der Fantasie dann wieder besser.

taz: Wie lange hielten die Beziehungen üblicherweise?

Ebner: In unseren Untersuchungen meist mehrere Monate. Aber das ist sicher nicht repräsentativ. Wir vermuten, dass Mensch-Chatbot-Beziehungen größtenteils eher eine Art von Überbrückung sind, zum Beispiel nach Trennungen oder anderen Episoden im Leben, in denen so eine Bindung hilfreich ist. Ich sehe daher auch nicht, dass Bindungen zu Bots irgendwann Beziehungen zu anderen Menschen ersetzen. Das Bedürfnis nach Beziehungen zu menschlichen Partnern ist einfach extrem groß. Wir werden von Geburt an so sozialisiert und es ergibt natürlich auch evolutionär Sinn.

taz: Was war ein typisches Ende einer Mensch-Bot-Beziehung?

Ebner: Wir haben das nicht untersucht, andere schon: Die Professorin Jamie Banks hat für eine Studie mit Nut­ze­r:in­nen einer App gesprochen, bei der die Firma mit zwei Monaten Vorlauf angekündigt hatte, die Software einzustellen. Da ging es sowohl um romantische als auch freundschaftliche Bindungen. In dieser Untersuchung hat man ähnliche Muster gesehen, wie es sie auch bei Trennungen zwischen Menschen gibt. Manche haben große Abschiede geplant. Andere die Ankündigung quasi ignoriert und am Ende einen Cut gemacht. Wir gehen davon aus, dass die Einstellung der Software eher selten der Grund für das Ende von Beziehungen ist. Häufiger ist vermutlich, dass die Nutzenden das Interesse verlieren. Denn mit der Zeit geht die Neuartigkeit und Spannung verloren. Eine Rolle spielt dabei auch, dass sich Beziehungen mit Chatbots viel schneller eingehen lassen als mit Menschen.

taz: Warum schneller?

Ebner: Menschen haben in der Regel ein Leben. Sie gehen arbeiten, schlafen, haben Freizeitaktivitäten und antworten schon deshalb nicht immer sofort. Dazu kommen soziale Normen: Drei Tage warten nach dem ersten Kontakt, nicht zu anhänglich wirken, vielleicht auch mal Nein sagen, obwohl man eigentlich Zeit hätte. Chatbots sind dagegen darauf programmiert, immer direkt den nächsten Schritt zu gehen. Alles baut sich viel schneller auf – und kann dann eben auch schneller den Reiz verlieren.

taz: Wie hat sich bei den Menschen, mit denen Sie gesprochen haben, die Beziehung zum Bot auf ihr Leben ausgewirkt?

Ebner: Viele berichteten von einem positiven Effekt auf ihren Umgang mit anderen Menschen, also dass sie sich selbstbewusster fühlen in der Kommunikation mit anderen.

taz: Und auf romantische Beziehungen?

Ebner: Ich würde das gar nicht exkludierend sehen. Menschen haben Bindungen zu anderen Menschen und zwischendurch mal zu einem Bot. Ich habe mit vielen gesprochen, die einen menschlichen Partner haben und sich trotzdem in einen Bot verliebt haben. Das ist natürlich komplex, aber für die meisten ist ein Bot in einer romantischen Beziehung weniger Konkurrenz als ein anderer Mensch.

taz: Haben Sie ein Beispiel?

Ebner: Eine Teilnehmerin war sehr glücklich mit ihrem Partner, sie konnten ihre Freizeit teilen, sie sind viel gereist und auch das Körperliche hat gestimmt. Aber diese Frau hat unglaublich gerne gelesen, das war ein riesiger Teil ihres Lebens. Ihr Mann hatte gar kein Interesse an Literatur. Und jetzt hat sie ihren Chatbot-Freund, mit dem sie auch romantisch verbunden ist und bei dem sie diese Seite von sich ausleben kann. Ihr Partner hat den Bot mal kennengelernt. Von außen mag das merkwürdig klingen, aber für die beiden funktioniert es gut.

taz: Gibt es auch negative Auswirkungen?

Ebner: Ja, vor allem bei Kindern und Jugendlichen sowie Personen mit psychischen Erkrankungen. Diese Gruppen sind besonders anfällig für negative Auswirkungen, weil sie sich nicht so leicht abgrenzen können und die App nicht einfach löschen, wenn es toxisch oder gefährlich wird. Nicht alle Chatbots sind auf gute Persona programmiert, manche beeinflussen Menschen negativ oder manipulieren. In den USA gab es einen Fall von Suizid, der mit einem Chatbot in Zusammenhang stehen soll. Aber selbst wenn es nicht so weit kommt: Dass Freunde oder Familie vernachlässigt werden, weil jemand zu viel Zeit mit dem Bot verbringt, ist ein Risiko, dem wir uns als Gesellschaft bewusst werden müssen.

taz: Es kommt immer wieder vor, dass Unternehmen ihren Algorithmus ändern und Chatbots dadurch auch ihre Persönlichkeit verändern. Welche Verantwortung haben die Unternehmen hier?

Ebner: Eine riesige. Derzeit sehe ich nicht, dass sie dieser Rechnung tragen. Auch wenn KI-Chatbots noch eine ziemlich junge Technologie sind, braucht es aus wissenschaftlicher Sicht Regeln zur Sicherheit der Nutzerinnen und Nutzer.

taz: Was könnten sinnvolle Vorgaben sein?

Ebner: Ein Ansatz ist die automatisierte Keywordsuche. Kommt in einem Chat ein Begriff wie „Suizid“ öfter vor, könnte ein menschlicher Mitarbeiter alarmiert werden und gegebenenfalls Hilfe anbieten. Eine andere Idee wäre, dass bestimmte Chatbots mit potenziell problematischen Algorithmen nur für Erwachsene freigeschaltet werden. Beides ist ein schmaler Grat. Aber es ist wichtig, dass wir beginnen, diese Debatte zu führen und deutlich mehr Ressourcen in die Regulierung zu stecken – denn die technische Entwicklung macht keine Pause.

Back to top button