Wie KI emotionale Nähe schafft | ABC-Z

Künstliche Intelligenz kann in emotionalen Gesprächen überraschend viel Nähe erzeugen. Eine Studie zeigt: Unter bestimmten Bedingungen fühlen sich Teilnehmende einer KI sogar stärker verbunden als Menschen.
Künstliche Intelligenz (KI) kann in Chats offenbar schneller Nähe erzeugen als echte Menschen. Das haben Forschende der Universitäten Freiburg und Heidelberg herausgefunden. Ihre Studie ist in der Fachzeitschrift Communications Psychology erschienen.
Dass KI in Chats mehr gefühlte Nähe erzeugen kann als ein realer Gesprächspartner, hat selbst das Forschungsteam überrascht, wie Bastian Schiller, Professor am Psychologischen Institut der Universität Heidelberg berichtet. Man sei davon ausgegangen, dass Menschen in emotionalen Gesprächen klar im Vorteil seien: “Das war aber nicht das, was wir gefunden haben. Und im Gegenteil war es sogar so, dass die KI-Antworten gerade bei den emotionalen Themen mehr Nähe generiert haben bei den Personen, die diese Antworten gelesen haben. Das war für uns wirklich überraschend.”
KI kann rasch ein Nähegefühl in Chats erzeugen
Für die Studie unterhielten sich knapp 500 Teilnehmende in einem Online-Chat. Dabei wussten sie nicht, ob ihr Gegenüber eine reale Person oder eine Künstliche Intelligenz war. Einige sprachen nur über Smalltalk-Themen wie Hobbys oder Urlaub, andere führten sehr persönliche Gespräche über Freundschaften oder Gefühle.
In beiden Fällen erzeugte die KI – laut Selbsteinschätzung der Teilnehmenden – mehr Nähe. Tobias Kleinert vom Institut für Psychologie der Universität Freiburg erklärt, dass die Künstliche Intelligenz mehr vermeintlich persönliche Informationen und Gefühle in die Gespräche einfließen ließ. Das Forschungsteam stellte fest, dass sich Teilnehmenden dem Gegenüber näher fühlten, wenn mehr persönliche Dinge offenbart wurden.
Selbstoffenbarung als Schlüssel zur Nähe
Dabei klangen die Antworten von Mensch und Künstlicher Intelligenz zunächst sehr ähnlich. Erst eine linguistische Analyse konnte zeigen, wie KI-Chatbots eine größere Nähe zu ihren Gesprächspartnern aufbauen. Die Forschenden konnten so feststellen, dass die Künstliche Intelligenz in ihren Antworten deutlich mehr Wörter verwendet, die mit Emotionen assoziiert sind, also Wörter wie zum Beispiel ‘ich’ oder ‘mein’ oder ‘selbst’. Die Künstliche Intelligenz arbeite mit dem Konzept der Selbstoffenbarung, so Psychologe Tobias Kleinert.
Menschen sind vorsichtiger als KI
Die Wortanalyse zeigt, dass die Antworten der Künstlichen Intelligenz deutlich mehr Ich-Bezüge, emotionale Wörter und soziale Referenzen enthalten. Die Forschenden folgern, dass KI-Modelle darauf trainiert sind, möglichst schnell ein gutes Gefühl im Gespräch zu erzeugen und Nähe aufzubauen. Menschen dagegen sind gegenüber Unbekannten meist vorsichtiger und öffnen sich nicht so schnell in Gesprächen.
Chancen und Risiken im Umgang mit KI-Chatbots
Gerade weil KI offenbar sehr leicht eine Illusion von Nähe erzeugen kann, müsse ihr Einsatz in emotional geprägten Zusammenhängen unbedingt transparent und deutlich gemacht werden, sagt Bastian Schiller. Er sehe auch, wie schnell man soziale Phänomene wie den Aufbau von Nähe oder Beziehungen simulieren könne. Dieser Gebrauch von Künstlicher Intelligenz habe immer auch ein Potenzial für Missbrauch.
Auf der anderen Seite zeigten die Ergebnisse der Studie großes Potenzial für den Einsatz von Künstlicher Intelligenz in Bereichen wie psychologische Unterstützung, Bildung oder Beratung. Dort gibt es einen großen Bedarf an niedrigschwelligen Gesprächsangeboten, der zurzeit personell kaum abgedeckt werden kann. Um Missbrauch zu verhindern, brauche es vor einem solchen Einsatz aber klare Leitlinien und Transparenz.
Nähe entsteht auch bei bewusster KI-Nutzung
Die Forschenden untersuchten auch, was sich verändert, wenn Teilnehmende wissen, dass sie mit einer KI sprechen: “Da haben wir zeigen können, dass es zwar diesen Näheaufbau deutlich schmälert, aber trotzdem Nähe aufgebaut zu einer KI. Und zwar obwohl ich weiß, es ist eine KI”, betont Professor Bastian Schiller vom Psychologischen Institut der Universität Heidelberg. Künstliche Intelligenz werde immer stärker zu einem sozialen Akteur. Und gerade emotionale oder emotionsbeladene Gespräche sind da ein sehr sensibles Feld, warnen die Forschenden. Deshalb sollten diese Systeme verantwortungsvoll, transparent und klar regulierbar gestaltet werden.





















