Mit der zunehmenden Leistungsfähigkeit künstlicher Intelligenz verschiebt sich der Engpass moderner Arbeits- und Entscheidungssysteme fundamental. Während in frühen Phasen der Digitalisierung vor allem technisches Spezialwissen zur Entwicklung und Implementierung von Software gefragt war, rückt heute zunehmend die Frage in den Vordergrund, wie KI sinnvoll, sicher und verantwortungsvoll in menschliche Arbeits- und Lebenswelten integriert werden kann. Diese Verschiebung ist weniger eine technologische als eine psychologische und organisationale Herausforderung.
Aus Sicht der Arbeits- und Organisationspsychologie lässt sich KI als Bestandteil soziotechnischer Systeme verstehen, in denen Technik, Mensch und Organisation untrennbar miteinander verwoben sind. Die Leistungsfähigkeit solcher Systeme wird nicht allein durch die algorithmische Qualität bestimmt, sondern maßgeblich durch menschliche Wahrnehmung, Vertrauen, Kompetenzzuschreibung und Entscheidungsverhalten. Empirische Forschung zeigt seit Jahrzehnten, dass Menschen zu systematischen Verzerrungen im Umgang mit Automatisierung neigen, etwa zu Übervertrauen, unangemessener Delegation von Verantwortung oder umgekehrt zu Ablehnung und Umgehungsstrategien bei wahrgenommenem Kontrollverlust. Diese Effekte treten unabhängig von der objektiven Qualität der Technik auf und lassen sich nur durch ein tiefes Verständnis menschlicher Kognition und Motivation erklären.
Mit steigender Autonomie von KI-Systemen gewinnt zudem die Frage der Sinnkonstruktion an Bedeutung. Menschen handeln nicht auf Basis reiner Information, sondern auf Grundlage subjektiver Bedeutungszuschreibungen, sozialer Normen und organisationaler Erwartungen. KI kann Wahrscheinlichkeiten berechnen und Muster erkennen, sie kann jedoch weder Verantwortung übernehmen noch soziale Konsequenzen antizipieren. Die Gestaltung von Entscheidungsprozessen, in denen KI beteiligt ist, erfordert daher Kompetenzen in der Strukturierung von Verantwortung, Transparenz und Lernmöglichkeiten. Studien zur Mensch-Automations-Interaktion zeigen, dass mangelnde Verständlichkeit und fehlende Rückmeldeschleifen nicht nur die Akzeptanz, sondern auch die tatsächliche Sicherheit von Systemen reduzieren, selbst wenn diese technisch hochzuverlässig sind.
Parallel dazu verändert sich das Kompetenzprofil in Organisationen. Programmierkenntnisse bleiben notwendig, werden jedoch zunehmend durch standardisierte Werkzeuge, Bibliotheken und automatisierte Entwicklungsumgebungen abstrahiert. Der knappe Faktor ist immer weniger die Fähigkeit, KI zu bauen, sondern die Fähigkeit, ihren Einsatz psychologisch klug zu gestalten. Dazu gehören das Verständnis menschlicher Fehlermechanismen, die Gestaltung lernförderlicher Arbeitsumgebungen sowie die Fähigkeit, Spannungen zwischen Effizienz, Kontrolle und Autonomie auszubalancieren. Forschung zu High-Reliability-Organisationen und Safety-II-Ansätzen unterstreicht, dass Resilienz nicht aus perfekter Technik entsteht, sondern aus der adaptiven Kompetenz von Menschen im Umgang mit unvorhergesehenen Situationen.
In diesem Sinne markiert der zunehmende Einfluss von KI keinen Bedeutungsverlust menschlicher Expertise, sondern eine Verschiebung ihrer Art. Je leistungsfähiger KI wird, desto wichtiger wird das Wissen darüber, wie Menschen denken, fühlen, entscheiden und zusammenarbeiten. Die Zukunft der KI ist daher nicht primär eine Frage des Codes, sondern eine Frage des Menschenbildes, das ihrem Einsatz zugrunde liegt, wie zahlreiche psychologische und humanfaktorielle Studien zur Automatisierung, Entscheidungsunterstützung und Organisationsgestaltung zeigen (z. B. Parasuraman et al., 2000; Norman, 2013; Hollnagel, 2014).