Kluge KI-Nutzung
KI macht dumm? So nicht!

Wer sich allzu sehr auf ChatGPT und Perplexity verlässt, mindert laut einer Studie seine geistige Leistungsfähigkeit. Aber wer die KI sinnvoll einsetzt, wird klüger. Drei Schritte, wie das gelingt.

23. Dezember 2025, 03:47 Uhr, von Maximilian Münster, Redakteur

Menschliches Gesicht mit geschlossenen Augen in Nahaufnahme. Auf dem Gesicht sind grünliche Lichtspuren zu sehen. Der Hintergrund des Bildes ist lila.
Laut Studien leidet die Hirnleistung darunter, wenn man KI unbedacht nutzt.
© Maria Korneeva / Moment / Getty Images Plus

Künstliche Intelligenz macht dumm. Das legt eine Studie vom Massachusetts Institute of Technology (MIT) nahe, die kürzlich für Schlagzeilen sorgte. Darin heißt es, die Hirnaktivität nehme ab, wenn man ChatGPT nutzt.

Für ihre Beobachtung hatten die Forschenden die Studienteilnehmenden in drei Gruppen eingeteilt und alle einen Essay schreiben lassen. Die erste Gruppe durfte die Künstliche Intelligenz verwenden, die zweite lediglich eine Suchmaschine und die dritte Gruppe keinerlei technische Hilfsmittel. Während des Schreibens maß das Forschungsteam die Hirnströme: Die Gruppe, die vollkommen selbstständig arbeitete, wies die höchste Aktivität auf, die Gruppe mit den Suchmaschinen etwas weniger und die Nutzerinnen und Nutzer von ChatGPT die geringste.

Letztere Gruppe konnte sich auch schlechter an die Texte erinnern, die sie produziert hatte. In einem weiteren Schritt wurden diese KI-Nutzerinnen und Nutzer noch aufgefordert, ohne die KI einen Text zu produzieren. Die Hirnleistung stieg nicht an, sie blieb niedrig. Hatten sie es verlernt, selbst zu denken?

Zwischen Dummheit und Effizienz

Bei der Studie handelte es sich um ein Experiment mit 54 Teilnehmenden. Das ist nicht repräsentativ, und die Übertragbarkeit auf die Belegschaft von Unternehmen dürfte sich sowieso in Grenzen halten, weil Essays schreiben zu den eher seltenen Aufgaben von Beschäftigten gehört. Trotzdem weisen die Ergebnisse darauf hin, dass Denk- und Erinnerungsvermögen leiden könnten, wenn Führungskräfte und Beschäftigte die KI dauerhaft nutzen.

Nun wäre die naheliegende Lösung für Führungskräfte, die Nutzung von KI streng zu reglementieren, ChatGPT und Co. gar zu verbieten, damit die eigene Denkleistung und die der Mitarbeitenden erhalten bleibt. Dann entgehen ihnen aber wertvolle Potentiale bei der Produktivität, die KI-Tools bieten. Wie lässt sich also die Verdummung verhindern, ohne auf die Vorteile der KI verzichten zu müssen?

Anzeige
Philipp Lahm empfiehlt DATEV für E-Rechnung
Philipp Lahm empfiehlt DATEV für E-Rechnung
Unternehmen müssen seit 2025 E-Rechnungen empfangen können. Mit DATEV lässt sich diese Pflicht einfach erfüllen. (Testen bis 30.06.2026)

Manche Aufgaben kann man der KI getrost überlassen

„KI macht nur dumm, wenn wir sie dumm einsetzen“, sagt Wolfgang König. Er ist Experte für digitale berufliche Bildung beim Bildungswerk der Wirtschaft Mecklenburg-Vorpommern, ein gemeinnütziges Unternehmen, das Schulungen für Führungskräfte und Beschäftigte anbietet. König sagt, ihn hätten die Ergebnisse der MIT-Studie nicht überrascht. Wenn man einen Text komplett von der KI schreiben lasse, dann habe das Gehirn natürlich nicht gearbeitet. Laut König ist der Trick, ebenjene Prozesse zu identifizieren, die man der KI getrost überlassen kann, weil die Risiken gering sind.

„Geht es nur darum, Rechtschreibfehler aus einem Text zu entfernen? Das kann ich sie machen lassen“, sagt König, denn im schlimmsten Falle blieben einige Fehler übrig. Das ist nicht geschäftsentscheidend. „Anders verhält es sich im Recruiting. Zum Beispiel kann ich nicht einfach Lebensläufe hochladen und die KI die besten Bewerber aussuchen lassen, da dabei Compliance-Regeln berührt werden“, sagt er. Bekanntermaßen verstößt es gegen Datenschutzrichtlinien, wenn ChatGPT Bewerberdaten ausliest. In Bereichen mit Compliance-Risiken dürfe der Mensch das Denken nicht einstellen.

Es könnte also eine Zwangsläufigkeit der KI-Revolution sein, dass Menschen in Bereichen wie Rechtschreibung an Kompetenzen verlieren, während sie in sensibleren Bereichen wie Datenschutz umso wachsamer und konzentrierter werden müssen.

Was folgt daraus für Unternehmen? König empfiehlt Führungskräften eine Mischung aus Wissensvermittlung und klugen Regeln, damit sie und ihr Team bei der Arbeit mit KI nicht allzu denkfaul werden.

Drei Schritte für eine klügere KI-Nutzung

1. Grundlegende Kompetenzen erlangen durch Schulungen

König hat drei Dimensionen identifiziert, von denen Führungskräfte und Mitarbeitende grundlegend Kenntnis haben sollen.

Verstehen, wie die KI-Tools funktionieren

Es geht darum, die grundlegenden Mechanismen hinter ChatGPT oder Perplexity zu verstehen. Dazu gehört das Wissen darüber, dass Eingaben dafür verwendet werden können, KI-Modelle zu trainieren. Oder Kenntnisse über Entstehung und Herkunft des Tools: „Wenn ich Deepseek frage, ob Taiwan zu China gehört, antwortet es im Sinne der Volksrepublik, weil die KI in China entwickelt wurde“, sagt König. Auch diese Kompetenzen müsse man Mitarbeitenden vermitteln, damit Antworten entsprechend bewertet werden können. Solche Kenntnisse sollen den achtsamen Umgang und die grundlegende Wachsamkeit bei der Nutzung zu fördern.

Impulse-Akademie-Angebot
Marketingtexte schreiben - mit ChatGPT
Online-Workshop mit Nicole Basel
Marketingtexte schreiben - mit ChatGPT

Wissen, welche Compliance-Regeln das Tool berührt

Zurück zum Beispiel des Recrutings: Wer in diesem Bereich ein KI-Tool nutzt, der muss entsprechende Maßnahmen treffen, zum Beispiel Lebensläufe anonymisieren, damit der Datenschutz gewahrt bleibt und die KI bei der Auswahl etwa keinen rassistischen Stereotypen folgt. Damit Führungskräfte und Mitarbeitende diese Maßnahmen treffen können, brauchen sie Wissen darüber, welche Compliance-Risiken beim jeweiligen Anwendungsfall lauern.

Erfahren, wie man das Tool klug nutzt

Klingt wie eine Selbstverständlichkeit, ist es bei den meisten Funktionen aber nicht: Mitarbeitende und Führungskräfte brauchen Kenntnisse darüber, wie man Prompts formuliert, Recherchen anstellt und sich Quellen für die Ergebnisse ausgeben lässt. Kurzum: Wie sie das KI-Tool überhaupt benutzen sollen.

Nach EU-AI-Act seien Unternehmen gesetzlich dazu verpflichtet, ihren Mitarbeitern grundlegende KI-Kompetenzen zu vermitteln, sagt König. „Das heißt, sie sind gesetzlich auch dazu verpflichtet, dass die Leute eben nicht dumm handeln.“ Das Problem sei, dass die KI-Pflichtschulungen oft zu kurz greifen. „Die ist ohne genauen Verwendungszweck nur ein Placebo.“ Deshalb empfiehlt König Schulungen, die über das Gesetz hinausgehen.

2. Risikobereiche definieren und Regeln festsetzen

König rät dazu, jene Prozesse zu identifizieren, in denen Mitarbeitende die KI bedenkenlos einsetzen können: Rechercheaufgaben etwa, einen Text übersetzen, eine Mail formulieren, solange darin keine sensiblen Daten genannt werden. Und dann die Prozesse auszumachen, in denen der Mensch als prüfende und denkende Instanz erhalten bleiben muss, weil die Risiken durch Fehler hoch sind. Ein Ingenieurbüro etwa, das die Statik von Gebäuden mittels KI berechnen lässt, müsse die Ergebnisse der KI natürlich prüfen, sagt König.

„Die Bundesnetzagentur hat klargestellt, dass ein Mangel an KI-Kompetenz als Verletzung der Sorgfaltspflicht angesehen werden kann, insbesondere wenn dadurch ein Schaden entsteht. Führungskräfte müssen das Thema KI-Kompetenz also allein schon aus Haftungsgründen im Blick behalten“, sagt König.

3. Die Mitarbeitenden auf dem Laufenden halten

Die KI-Entwicklung geht bekanntermaßen schnell und Unternehmen müssen ihre Mitarbeitenden regelmäßig auf dem Laufenden halten, um eine kluge Nutzung aufrechtzuerhalten. Die Faustregel sei: „Je höher die Risiken und Komplexität bei der KI-Verwendung, desto höher ist immer der Schulungsaufwand“, sagt König.

Wenn die Recruiting-Software um einen Chatbot erweitert wird, der mit Bewerbenden kommuniziert, sie aber vielleicht auch verschreckt, wäre eine Schulung über den entsprechenden Einsatz sicher sinnvoll. Bei kleineren Updates reicht eine Mail.

Die MIT-Studie hat auch ein positives Ergebnis hervorgebracht: Wer die KI sinnvoll nutzt, könnte dabei klüger werden. Die Teilnehmerinnen und Teilnehmer, die zunächst selbstständig an dem Essay arbeiteten, sollten in einem weiteren Schritt die KI zur Hilfe nehmen, Ergänzungen anstellen oder Korrekturen vornehmen lassen. Dabei wiesen sie eine gesteigerte Hirnaktivität auf. Die Autorinnen und Autoren der Studie schlussfolgern, dass ein hybrider Einsatz sinnvoll sein kann.

Heißt: Wer nachdenkt, bevor er die KI nutzt, verdummt auch nicht.

Der Experte
Wolfgang KönigDr. Wolfgang König ist Experte für Künstliche Intelligenz beim Bildungswerk der Wirtschaft. Er hat mehrere Modelle zur Lehre vom Umgang mit Künstlicher Intelligenz entwickelt.
In eigener Sache
Voller Fokus auf 2026
Online-Workshop mit Nikolaus Förster
Voller Fokus auf 2026
3 Sessions, 3 Stunden, 1 großes Ziel: Mit dem eigenen Unternehmen schneller vorankommen.
Mehr lesen über