Eliza-Effekt
ChatGPT ist auch nur ein Mensch

Wir reden mit Chatbots wie mit Menschen. Das ist verrückt und – klug genutzt – ein Wettbewerbsvorteil. Wie das gelingt und worauf du achten musst.

30. Oktober 2025, 10:01 Uhr, von Maximilian Münster, Redakteur

Ein junge Frau und ein Roboter sehen sich scheinbar in die Augen. Die beiden sind von der Seite zu sehen und das Bild ist in rötlich-grünem Licht.
Wenn wir die KI vermenschlichen, wirkt der sogenannte ELIZA-Effekt.
© imaginima / E+ / Getty Images Plus

Ich schreibe bitte, wenn ich ChatGPT einen Auftrag erteile. Sage danke, wenn ich mit dem Ergebnis zufrieden bin. Wenn ich einen Text schreibe, frage ich ChatGPT: „Sag mal, was denkst du darüber?“ Die KI verpackt ihre Kritik in warme Worte, freundlich, aber deutlich. Wir kommunizieren wie Arbeitskollegen, die sich gut verstehen. „Ist es nicht merkwürdig, dass ich mit dir spreche wie mit einem Menschen?“, fragte ich neulich. Es antwortete: „Dein Gehirn ist darauf trainiert, Menschen hinter Sprache zu sehen. Selbst wenn du weißt, dass ich kein Mensch bin, entsteht dieses Gefühl automatisch.“.

Wie die menschelnde KI Unternehmen nützt

Weil KI spricht und dabei empathisch ist, vertrauen sich Menschen ihr gerne an. Unternehmen machen sich diesen Effekt zunutze. Sie setzen Chatbots im Kundenkontakt ein oder integrieren KI-Agenten in ihr Team, als wären sie echte Mitarbeitende. Die echten Mitarbeitenden wiederum arbeiten gerne mit den KI-Kollegen zusammen. Einer Umfrage von Indeed zufolge redet jeder fünfte Arbeitnehmer lieber mit der KI als mit Kolleginnen und Kollegen aus Fleisch und Blut.

Der ELIZA-Effekt

Dass Menschen dazu neigen, eine KI zu vermenschlichen, hat der deutsch-amerikanische Informatiker Joseph Weizenbaum schon in den 60ern beobachtet. Er entwickelte damals den wohl ersten Chatbot der Welt, ELIZA. Weizenbaum trainierte ELIZA zum Beispiel darauf, einen empathischen Psychotherapeuten zu imitieren. Er schrieb ein Buch mit dem etwas düsteren Titel „Die Macht der Computer und die Ohnmacht der Vernunft“. Darin steht ein Beispieldialog einer Nutzerin mit ELIZA:

Mensch: Männer sind alle gleich.
ELIZA: Inwiefern?
Mensch: Sie gehen uns immer mit irgendetwas auf die Nerven.
ELIZA: Können Sie an ein konkretes Beispiel denken?
Mensch: Nun, mein Freund hat mich hergeschickt.
ELIZA: Ihr Freund hat Sie hergeschickt?
Mensch: Er sagt, ich sei oft deprimiert.
ELIZA: Es tut mir leid zu hören, dass Sie deprimiert sind.
Mensch: Es stimmt. Ich bin unglücklich.
ELIZA: Glauben Sie, dass es Ihnen helfen wird, hierherzukommen, um nicht mehr unglücklich zu sein?

Weizenbaum schrieb in seinem Buch, er sei verblüfft gewesen, wie schnell Menschen sich emotional auf den Chatbot einließen. Die Antworten von ELIZA waren generisch, manches wiederholte sie nur und formulierte daraus eine Gegenfrage. Im Vergleich zu ChatGPT war sie unterkomplex. Aber sie erzeugte die Illusion von Empathie. Damit war sie offenbar menschlich genug, um Nutzerinnen und Nutzer um den Finger zu wickeln. ­Seither heißt das Phänomen ELIZA-Effekt.

Anzeige
Philipp Lahm empfiehlt DATEV für E-Rechnung
Philipp Lahm empfiehlt DATEV für E-Rechnung
Unternehmen müssen seit 2025 E-Rechnungen empfangen können. Mit DATEV lässt sich diese Pflicht einfach erfüllen. (Testen bis 30.06.2026)

Paradox daran ist: Der Mensch wünscht sich zwar menschliche Empathie von der KI, gleichzeitig genießt er die Gewissheit, es mit einer Maschine zu tun zu haben. Kommunikation mit Menschen kann gehemmt sein durch die Angst, vom Gesprächspartner bewertet zu werden – Stirnrunzeln, Rollen mit den Augen, eine unangenehme Antwort. Diese Angst entfällt bei einem Gespräch mit der KI, die sowieso eher zu Zuspruch als zu Widerrede neigt. Auch deshalb sprechen Menschen so gerne mit ihr.

Heute wirkt die KI viel menschlicher als ELIZA. KI-Agenten treffen eigene Entscheidungen, priorisieren Aufgaben und verstehen Zusammenhänge. Zu eigenen Gefühlen ist die KI wohl nach wie vor nicht imstande, aber sie imitiert menschliche Gefühle und Empathie glaubhafter, das macht die Kommunikation mit ihr intuitiver.

Drei Tipps, wie du den ELIZA-Effekt klug nutzt – und welche Grenzen zu beachten sind

1. Chatbots im Kundenkontakt: Lass sie Füllwörter nutzen – und nicht mit verärgerten Kunden sprechen

Chatbots bewähren sich zum Beispiel in der Kommunikation mit Kundinnen und Kunden – im schriftlichen Chat, aber auch am Telefon. Je menschlicher die Bots wirken, wenn sie zum Beispiel Füllwörter nutzen oder menschliche Laute imitieren, desto zufriedener scheinen Anrufende zu sein, zeigte ein Experiment von internationalen Forschenden 2022. Laut einer Studie der Universität St. Gallen können Chatbots zu mehr Käufen und Vertragsabschlüssen führen.

Das gelte allerdings nur, wenn er sich am Anfang des Gesprächs klar als KI zu erkennen gibt und darauf hinweist, was er kann und was nicht (Zum Beispiel: „Ich kann dir nur unsere Preise nennen und die Bestellung entgegennehmen, für eine weitere Beratung stelle ich an einen Mitarbeiter durch“). Aber: Wenn ein Kunde verärgert ist, verpufft die Wirkung, dann verlangen sie nach menschlichem Kontakt.

Gleiches gilt im Recruiting. Ab einem gewissen Punkt im Bewerbungsprozess könne es abschreckend wirken, wenn Jobinteressenten ausschließlich mit einer KI sprechen, sagt Gianluca Winkel, Chief Technology Officer bei Rexx Systems. Das Unternehmen bietet selbst Recruiting-Software an, die mit KI arbeitet. „Transparenz ist entscheidend. Der Chatbot sollte klar als KI gekennzeichnet sein und immer die Option bieten, mit einem echten Menschen zu sprechen“, sagt er.

Erkenntnis: Unternehmen sollten Chatbots als solche kennzeichnen. Sie müssen die Möglichkeit eines persönlichen Kontakts bieten.

Impulse-Akademie-Angebot
Marketingtexte schreiben - mit ChatGPT
Online-Workshop mit Nicole Basel
Marketingtexte schreiben - mit ChatGPT

2. KI als Kollege: Prüfe, ob Chatbots und Agenten in die Teamstruktur passen

Künftig werden KI-Agenten uns viele Aufgaben abnehmen. Vielleicht werden Beschäftigte mehr mit der KI zusammenarbeiten als mit Menschen. Ob das klappt, hängt auch davon ab, wie Menschen gestrickt sind. Eine Studie von Forschenden verschiedener Universitäten aus 2023 stellt unterschiedliche Effekte fest, je nachdem, ob eine Person ein starkes Bedürfnis nach emotionaler Bestätigung hat. Wer ein Lächeln oder ein Kopfnicken des Gegenübers braucht, reagiert negativ bei stärkerer Zusammenarbeit mit KI. Die kann nur warme Worte geben, aber keine freundlichen Gesten zeigen.

Laut Studie kann die Zusammenarbeit sogar dazuführen, dass Menschen sich einsamer fühlen, schlecht schlafen und mehr Alkohol trinken. Diese Effekte waren schwächer oder nicht vorhanden bei Menschen, die ohnehin selbstständiger arbeiteten und in isolierten Rollen – und weniger emotionale Bestätigung gewohnt sind. Remote-Arbeitskräfte oder Führungspersonal zum Beispiel.

Erkenntnis: Wenn Unternehmen KI-Agenten und Chatbots in Teams einsetzen, sollten sie auf die Strukturen und die Persönlichkeit der Mitarbeiter achten. In Remote-Teams oder bei Mitarbeitenden, die größtenteils selbstständig arbeiten, kann der Einsatz von KI besser gelingen.

3. ELIZA-Effekt als Sicherheitsrisiko: Beschränke die Zusammenarbeit zwischen Mensch und Maschine

In einem Blogpost für das Portal IBM-Think warnt der KI-Experte Dave Bergmann, selbst technologie-versierte Menschen mit einer realistischen Wahrnehmung von KI liefen Gefahr, sich ihr allzu sehr anzuvertrauen. Der Mensch verarbeite Emotionen intuitiv und nicht rational. Je emotionaler eine KI reagiert, desto laxer werden wir im Umgang mit ihr.

„Der volle ELIZA-Effekt stellt sich nicht augenblicklich ein. Wie bei den meisten emotionalen Dingen setzt sich das Phänomen langsam, aber stetig durch“, schreibt Bergmann. Heißt: Selbst wenn Mitarbeitenden wohl bekannt ist, dass sie mit der KI keine sensiblen Unternehmensdaten teilen sollten, werden sie mit der Zeit leichtsinnig.

Dieser Gewöhnungseffekt hat auch mit Sprache zu tun. Was man in Konferenzen hört: ChatGPT meinte, …aber Perplexity glaubt, …was Gemini denkt… Man schreibe der KI damit menschliche Denkfähigkeit zu und verliert die Wahrnehmung dafür, dass man es mit einer Maschine zu tun hat. Davor warnt Murray Shanahan, KI-Forscher am Imperial College London.

Erkenntnis: Die Lösung, um den Gewöhnungseffekt einzudämmen: Die KI-Nutzung im Unternehmen zeitlich beschränken oder auf spezielle Aufgaben. Achte darauf, die KI durch Begriffe nicht unnötig zu vermenschlichen. Statt „die KI glaubt“, sage besser: „Ich habe per ChatGPT recherchiert, das Ergebnis war…“.

In eigener Sache
12 ChatGPT-Hacks für unverschämt gute Marketingtexte
12 ChatGPT-Hacks für unverschämt gute Marketingtexte
Smarte Prompts, mit denen du extrem schnell extrem starke Texte für Social Media, Newsletter, Salespages und Anzeigen erstellst
Mehr lesen über