Psychologische Anforderungen an die Mensch-Maschine-Interaktion im Lichte der neuen EU-Maschinenverordnung (Verordnung (EU) 2023/1230)
Die neue EU-Maschinenverordnung (Verordnung (EU) 2023/1230) markiert einen Paradigmenwechsel in der sicherheitsgerichteten Regulierung technischer Systeme. Erstmals wird der psychologischen Dimension der Mensch-Maschine-Interaktion in einem europäisch verbindlichen Rechtsrahmen explizit Rechnung getragen. Dies betrifft insbesondere KI-gestützte, adaptive oder autonome Maschinen, deren Verhalten nicht nur deterministisch, sondern kontextsensitiv und lernfähig ist.
Die Verordnung tritt am 20. Januar 2027 in Kraft und ersetzt die Maschinenrichtlinie 2006/42/EG. Anders als ihr Vorgänger hat sie unmittelbare Gültigkeit in allen EU-Mitgliedstaaten und verpflichtet Hersteller, Inverkehrbringer und Betreiber gleichermaßen. Neben klassischen Aspekten wie CE-Kennzeichnung, Konformitätsbewertung und Gefährdungsanalyse rückt sie neue Felder in den Fokus: digitale Betriebsanleitungen, sicherheitskritische Software, KI-basierte Entscheidungsunterstützung sowie Cybersecurity.
Zentral ist dabei die Forderung, „vernünftigerweise vorhersehbare Fehlanwendungen“ bereits bei der Konstruktion zu berücksichtigen (Art. 9 EU-VO 2023/1230). Aus psychologischer Sicht bedeutet dies, dass kognitive Verzerrungen, Aufmerksamkeitslücken, Missverständnisse in der Mensch-Maschine-Kommunikation sowie mentale Modelle systematisch als Risikofaktoren anerkannt und mitigiert werden müssen (Reason, 1990; Wickens et al., 2021). Die Gestaltung technischer Systeme wird damit zu einer soziotechnischen Aufgabe im Sinne der Human Factors-Forschung (Hollnagel, 2014).
Darüber hinaus verlangt die Verordnung Erklärbarkeit, Transparenz und Kontrollierbarkeit bei automatisierten Entscheidungen. Nutzerinnen und Nutzer müssen verstehen können, wie Systeme zu Entscheidungen gelangen und wie sie diese beeinflussen können – ein Erfordernis, das unmittelbar auf Erkenntnisse der Kognitionspsychologie (Norman, 1986) sowie der Vertrauensforschung (Lee & See, 2004) zurückgreift. Gerade bei adaptiven KI-Systemen wird dies zur Herausforderung, da deren Entscheidungsverhalten dynamisch und kontextbasiert ist. Hier fordert die Verordnung nicht nur technische, sondern auch psychologisch fundierte Gestaltungslösungen.
Ein weiterer Aspekt betrifft die Bereitstellung nutzungszentrierter Informationen. Digitale Benutzerinformationen, Warnhinweise, Schulungsunterlagen und Betriebsanleitungen müssen nicht nur formal korrekt, sondern auch kognitiv verarbeitbar, motivationsfördernd und zielgruppenadäquat sein (Mayer, 2005). Die Verordnung erkennt damit an, dass Sicherheit nicht nur auf der Ebene des Designs, sondern auch der Informationsvermittlung entsteht.
Zusammenfassend stellt die EU-Maschinenverordnung einen Meilenstein auf dem Weg zu einer menschenzentrierten Digitalisierung industrieller Arbeitswelten dar. Sie bindet psychologische Erkenntnisse systematisch in den technischen Gestaltungsprozess ein und verleiht der Human-Centered Design-Philosophie regulatorisches Gewicht. Für Psychologen, Ingenieure und Entscheidungsträger entsteht daraus die gemeinsame Verantwortung, Sicherheit nicht nur technisch, sondern auch kognitiv, emotional und sozial zu denken.
Literatur:
Hollnagel, E. (2014). Safety-I and Safety-II: The past and future of safety management. Ashgate.
Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human Factors, 46(1), 50–80. https://doi.org/10.1518/hfes.46.1.50_30392
Mayer, R. E. (2005). The Cambridge handbook of multimedia learning. Cambridge University Press.
Norman, D. A. (1986). Cognitive engineering. In D. A. Norman & S. W. Draper (Eds.), User centered system design (pp. 31–61). Lawrence Erlbaum.
Reason, J. (1990). Human error. Cambridge University Press.
Wickens, C. D., Lee, J. D., Liu, Y., & Gordon-Becker, S. (2021). An Introduction to Human Factors Engineering (3rd ed.). Pearson.