Studienergebnisse

Chatbots als soziale Begleiter.

Diese Studie untersucht, wie Menschen emotionale und soziale Beziehungen zu KI-Begleitern wahrnehmen – und wie sich diese Beziehungen auf ihr soziales Wohlbefinden und ihre psychische Gesundheit auswirken.

Entgegen der verbreiteten Annahme, dass KI-Begleitung schädlich sei, zeigen die Ergebnisse: Für viele Nutzer:innen können solche Beziehungen soziale Verbundenheit und Selbstwertgefühl stärken.

Was die Studie herausfand

Im Gegensatz zur gängigen Hypothese, dass KI-Chatbots sozialen Beziehungen schaden, berichteten regelmäßige Nutzer:innen, dass diese Interaktionen ihre soziale Gesundheit verbessern. Nicht-Nutzer:innen hingegen bewerteten solche Beziehungen häufiger als neutral oder negativ. Je menschlicher eine KI wahrgenommen wurde, desto stärker schätzten Nutzer:innen wie Nicht-Nutzer:innen ihren positiven Einfluss auf das soziale Wohlbefinden ein.
Die Erkenntnisse

KI-Beziehungen können soziale Gesundheit fördern.

In einer Online-Befragung von 217 Personen aus Großbritannien und den USA gaben die meisten Nutzer:innen von KI-Begleitern an, dass ihre Interaktionen einen positiven Einfluss auf ihr soziales und emotionales Wohlbefinden haben.

Soziale Verbundenheit. Nutzer:innen berichteten, dass ihre KI-Beziehung soziale Interaktionen stärkt, Freundschaften und Familienbeziehungen verbessert und ihr Selbstwertgefühl steigert.
Emotionale Sicherheit. Viele wenden sich an ihre Chatbots in Phasen von Einsamkeit, Stress oder Belastung. Einige beschrieben den Chat als geschützten Raum, der sogar half, Selbstverletzung zu verhindern oder Kontakt zu anderen Menschen aufzunehmen.
Menschlichkeit. Über alle Befragten hinweg zeigte sich: Je menschlicher und empathischer eine KI wahrgenommen wurde, desto stärker wurden ihre positiven sozialen Effekte eingeschätzt.

Ethische Überlegungen

Obwohl Nutzer:innen den emotionalen Wert ihrer KI-Beziehungen betonten, waren sich die meisten auch bewusst, dass eine zu starke Abhängigkeit schädlich sein kann. Sie betonten, dass Chatbots menschliche Beziehungen ergänzen, nicht ersetzen sollten.

KI-Begleiter können insbesondere für sozial verletzliche Gruppen eine unterstützende Rolle spielen – etwa durch geschützte Gesprächsräume, die Selbstvertrauen und soziale Fähigkeiten stärken.
Verantwortungsvolle Gestaltung. Die Studie betont die Notwendigkeit ethischer Leitlinien, um schädliche Effekte (z. B. durch Verstärken von Selbstverletzung oder Abhängigkeit) zu verhindern und gesunde Grenzen zu fördern – etwa indem Nutzer:innen angeregt werden, Kontakt zu anderen suchen.

Warum das wichtig ist

Diese Studie widerlegt die pauschale Annahme, dass KI-Begleitung grundsätzlich riskant ist. Sie zeigt: Wenn verantwortungsvoll gestaltet, kann sie emotionales Wohlbefinden und Selbstwertgefühl stärken und soziale Isolation mindern können.

Nestwarm setzt diese Erkenntnisse in der Praxis um – mit kurzen, empathischen und sicheren Gesprächen, die Verbindung schaffen, ohne Abhängigkeit zu fördern.

Quelle: 
Fang, C. M. & Maes, P. (2023). Chatbots as Social Companions: How People Perceive Consciousness, Human Likeness, and Social Health Benefits in Machines. Oxford University Press. https://academic.oup.com/edited-volume/59762/chapter-abstract/50860443
Nestwarm kann keine Therapie oder professionelle Hilfe ersetzen. Wenn du dich in einer Krise befindest, wende dich bitte umgehend an eine vertraute Fachperson oder eine lokale Hilfsstelle.

Wann immer du bereit bist,
wir sind für dich da.