Die zunehmende Integration Künstlicher Intelligenz (KI) in unseren Alltag hat nicht nur ökonomische und technologische Konsequenzen, sondern wirft auch grundlegende Fragen zur kognitiven Entwicklung des Menschen auf. Während KI-Systeme menschliches Denken unterstützen und entlasten können, besteht zugleich die Befürchtung, dass unser Denken durch ihre Nutzung langfristig verkümmern könnte. Diese Sorge berührt zentrale psychologische Theorien zur Kognition, zum Lernen und zur Abhängigkeit von Werkzeugen.
Aus kognitionspsychologischer Perspektive kann Denken als ein Prozess der Informationsverarbeitung verstanden werden, der auf Gedächtnis, Aufmerksamkeit, Problemlösen und Urteilsbildung basiert (Anderson, 2010). Die Auslagerung dieser Funktionen an KI-Systeme birgt die Gefahr des „kognitiven Outsourcings“. Studien zum „Google-Effekt“ zeigen bereits, dass Menschen weniger Fakten im Gedächtnis behalten, wenn sie darauf vertrauen können, diese jederzeit online nachzuschlagen (Sparrow, Liu & Wegner, 2011). Übertragen auf KI bedeutet dies, dass nicht nur Faktenwissen, sondern auch komplexere Denkprozesse zunehmend delegiert werden könnten.
Die psychologische Forschung zu komplexem Denken und Handeln, wie sie u. a. von Dörner und Mitarbeitern entwickelt wurde, liefert einen weiteren relevanten Bezugsrahmen. In experimentellen Szenarien wie dem Computersimulationsspiel „Lohhausen“ konnte gezeigt werden, dass Menschen in komplexen, dynamischen und intransparenten Situationen häufig typische Fehlleistungen zeigen (Dörner, 1989; Dörner & Schaub, 1994). Dazu zählen beispielsweise vorschnelle Entscheidungen, mangelnde Zielklarheit, Überbetonung kurzfristiger Effekte oder eine unzureichende Berücksichtigung von Neben- und Fernwirkungen. Diese Fehler entstehen gerade dann, wenn Denken entlastet oder durch Routine ersetzt wird. Wird die Auseinandersetzung mit komplexen Situationen nun zusätzlich durch KI-Systeme abgefedert, besteht die Gefahr, dass diese grundlegenden kognitiven Fähigkeiten noch seltener trainiert werden.
Eine weitere Dimension ergibt sich aus der Theorie der cognitive offloading, die beschreibt, wie Menschen externe Hilfsmittel zur Reduktion mentaler Belastung nutzen (Risko & Gilbert, 2016). Während dies kurzfristig effizient erscheint, kann eine chronische Abhängigkeit dazu führen, dass kognitive Fähigkeiten wie Abstraktion, kritisches Denken oder Kreativität weniger trainiert werden. Dörner und Schaub argumentieren in ähnlicher Weise, dass Denken ohne aktives Durchspielen von Hypothesen und ohne systematische Fehlerkorrektur zu einer „Verarmung des Weltmodells“ führt, also zu einer reduzierten Fähigkeit, komplexe Probleme eigenständig zu strukturieren und zu bewältigen (Dörner & Schaub, 1994).
Besondere Relevanz erhält dieses Argument im Kontext des schulischen und lebenslangen Lernens. Wenn Lernende Problemlösungen direkt von KI-Systemen erhalten, ohne eigene Lösungsstrategien zu entwickeln, wird der Prozess des tiefen Lernens geschwächt. Theorien der desirable difficulties (Bjork, 1994) betonen jedoch, dass gerade kognitive Anstrengung und das Ringen mit Problemen zu langfristigem Behalten und Transfer führen. KI kann diesen produktiven Widerstand eliminieren und damit unbeabsichtigt Lernprozesse oberflächlicher machen.
Darüber hinaus besteht die Gefahr einer Verzerrung durch die Interaktionslogik von KI. Systeme sind darauf trainiert, Antworten in kohärenter und überzeugender Form zu präsentieren. Psychologisch birgt dies das Risiko einer Illusion of Understanding: Nutzer fühlen sich wissend, obwohl sie die zugrunde liegenden Konzepte nicht selbst verstanden oder reflektiert haben. Diese Art der kognitiven Trägheit ist verwandt mit dem Phänomen der automation complacency, das in der Luftfahrt erforscht wurde und beschreibt, dass Menschen bei hoher Automatisierung dazu neigen, eigenes Monitoring und kritisches Denken einzustellen (Parasuraman & Manzey, 2010).
Gleichzeitig ist eine differenzierte Betrachtung notwendig. Das menschliche Denken ist historisch eng mit Werkzeugen verknüpft: Sprache, Schrift und Computer haben kognitive Fähigkeiten nicht verkümmern lassen, sondern transformiert und erweitert (Donald, 2001). KI könnte also nicht nur Verfall, sondern auch eine Verschiebung kognitiver Ressourcen bewirken: von repetitiver Informationsverarbeitung hin zu metakognitiven Fähigkeiten, die das Zusammenspiel von Mensch und Maschine reflektieren. Entscheidend ist, ob Bildung und Arbeitssysteme so gestaltet werden, dass Menschen lernen, KI kritisch zu hinterfragen, Ergebnisse einzuordnen und eigenständig weiterzudenken.
Aus psychologischer Sicht liegt die zentrale Gefahr weniger in der Technologie selbst, sondern in der Art ihrer Nutzung. Unkritisches Vertrauen und permanente Delegation von Denkaufgaben fördern eine kognitive Passivierung. Dagegen können reflektierte Nutzungsmuster KI als Katalysator für höherwertige Denkprozesse positionieren. Der Befund ist somit ambivalent: KI hat das Potenzial, unser Denken verkümmern zu lassen – oder es in neue Richtungen zu entwickeln. Ob ersteres oder letzteres eintritt, hängt von unserer Fähigkeit zur Selbstregulation, von Bildungsstrategien und von gesellschaftlicher Gestaltung ab.
Literatur
Anderson, J. R. (2010). Cognitive psychology and its implications (7th ed.). New York: Worth Publishers.
Bjork, R. A. (1994). Memory and metamemory considerations in the training of human beings. In J. Metcalfe & A. Shimamura (Eds.), Metacognition: Knowing about knowing (pp. 185–205). Cambridge, MA: MIT Press.
Donald, M. (2001). A mind so rare: The evolution of human consciousness. New York: Norton.
Dörner, D. (1989). Die Logik des Misslingens: Strategisches Denken in komplexen Situationen. Reinbek: Rowohlt.
Dörner, D., & Schaub, H. (1994). Errors in planning and decision-making and the nature of human information processing. Applied Psychology: An International Review, 43(4), 433–453.
Hebb, D. O. (1949). The organization of behavior: A neuropsychological theory. New York: Wiley.
Parasuraman, R., & Manzey, D. H. (2010). Complacency and bias in human use of automation: An attentional integration. Human Factors, 52(3), 381–410.
Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688.
Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778.