Direkt zum Hauptbereich

Psychologische Anforderungen an die Mensch-Maschine-Interaktion im Lichte der neuen EU-Maschinenverordnung (Verordnung (EU) 2023/1230)

Die neue EU-Maschinenverordnung (Verordnung (EU) 2023/1230) markiert einen Paradigmenwechsel in der sicherheitsgerichteten Regulierung technischer Systeme. Erstmals wird der psychologischen Dimension der Mensch-Maschine-Interaktion in einem europäisch verbindlichen Rechtsrahmen explizit Rechnung getragen. Dies betrifft insbesondere KI-gestützte, adaptive oder autonome Maschinen, deren Verhalten nicht nur deterministisch, sondern kontextsensitiv und lernfähig ist.


Die Verordnung tritt am 20. Januar 2027 in Kraft und ersetzt die Maschinenrichtlinie 2006/42/EG. Anders als ihr Vorgänger hat sie unmittelbare Gültigkeit in allen EU-Mitgliedstaaten und verpflichtet Hersteller, Inverkehrbringer und Betreiber gleichermaßen. Neben klassischen Aspekten wie CE-Kennzeichnung, Konformitätsbewertung und Gefährdungsanalyse rückt sie neue Felder in den Fokus: digitale Betriebsanleitungen, sicherheitskritische Software, KI-basierte Entscheidungsunterstützung sowie Cybersecurity.

Zentral ist dabei die Forderung, „vernünftigerweise vorhersehbare Fehlanwendungen“ bereits bei der Konstruktion zu berücksichtigen (Art. 9 EU-VO 2023/1230). Aus psychologischer Sicht bedeutet dies, dass kognitive Verzerrungen, Aufmerksamkeitslücken, Missverständnisse in der Mensch-Maschine-Kommunikation sowie mentale Modelle systematisch als Risikofaktoren anerkannt und mitigiert werden müssen (Reason, 1990; Wickens et al., 2021). Die Gestaltung technischer Systeme wird damit zu einer soziotechnischen Aufgabe im Sinne der Human Factors-Forschung (Hollnagel, 2014).

Darüber hinaus verlangt die Verordnung Erklärbarkeit, Transparenz und Kontrollierbarkeit bei automatisierten Entscheidungen. Nutzerinnen und Nutzer müssen verstehen können, wie Systeme zu Entscheidungen gelangen und wie sie diese beeinflussen können – ein Erfordernis, das unmittelbar auf Erkenntnisse der Kognitionspsychologie (Norman, 1986) sowie der Vertrauensforschung (Lee & See, 2004) zurückgreift. Gerade bei adaptiven KI-Systemen wird dies zur Herausforderung, da deren Entscheidungsverhalten dynamisch und kontextbasiert ist. Hier fordert die Verordnung nicht nur technische, sondern auch psychologisch fundierte Gestaltungslösungen.

Ein weiterer Aspekt betrifft die Bereitstellung nutzungszentrierter Informationen. Digitale Benutzerinformationen, Warnhinweise, Schulungsunterlagen und Betriebsanleitungen müssen nicht nur formal korrekt, sondern auch kognitiv verarbeitbar, motivationsfördernd und zielgruppenadäquat sein (Mayer, 2005). Die Verordnung erkennt damit an, dass Sicherheit nicht nur auf der Ebene des Designs, sondern auch der Informationsvermittlung entsteht.

Zusammenfassend stellt die EU-Maschinenverordnung einen Meilenstein auf dem Weg zu einer menschenzentrierten Digitalisierung industrieller Arbeitswelten dar. Sie bindet psychologische Erkenntnisse systematisch in den technischen Gestaltungsprozess ein und verleiht der Human-Centered Design-Philosophie regulatorisches Gewicht. Für Psychologen, Ingenieure und Entscheidungsträger entsteht daraus die gemeinsame Verantwortung, Sicherheit nicht nur technisch, sondern auch kognitiv, emotional und sozial zu denken.

Literatur:
Hollnagel, E. (2014). Safety-I and Safety-II: The past and future of safety management. Ashgate.
Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human Factors, 46(1), 50–80. https://doi.org/10.1518/hfes.46.1.50_30392
Mayer, R. E. (2005). The Cambridge handbook of multimedia learning. Cambridge University Press.
Norman, D. A. (1986). Cognitive engineering. In D. A. Norman & S. W. Draper (Eds.), User centered system design (pp. 31–61). Lawrence Erlbaum.
Reason, J. (1990). Human error. Cambridge University Press.
Wickens, C. D., Lee, J. D., Liu, Y., & Gordon-Becker, S. (2021). An Introduction to Human Factors Engineering (3rd ed.). Pearson.

Beliebte Posts aus diesem Blog

Die Psychologie und Soziologie des Wartens, der Pünktlichkeit und der Ungeduld

Warten, Pünktlichkeit und Ungeduld sind universelle menschliche Erfahrungen, die stark von kulturellen, sozialen und psychologischen Faktoren geprägt sind. In einer immer schnelllebigeren Welt wird das Warten oft als unangenehme Unterbrechung wahrgenommen, während Pünktlichkeit als Tugend gilt und Ungeduld zunehmend zum Ausdruck von Stress und Zeitdruck wird. Dieser Artikel untersucht die psychologischen und soziologischen Mechanismen, die diesen Phänomenen zugrunde liegen, und beleuchtet ihre kulturelle Dimension. Psychologie des Wartens Das Warten ist eine Erfahrung, die sowohl mit negativen Emotionen wie Frustration und Stress als auch mit positiven wie Vorfreude verbunden sein kann. Die Wahrnehmung von Wartezeiten wird durch Faktoren wie Unsicherheit, Kontrolle und die soziale Umgebung beeinflusst (Maister, 1985). Studien zeigen, dass Unsicherheit über die Dauer oder das Ergebnis eines Wartens die emotionale Belastung verstärkt (Larson, 1987). Die Psychologie des Wartens beto...

Psychologische Aspekte und der Einfluss von Künstlicher Intelligenz auf Open Innovation Einleitung

Der Begriff „Open Innovation“ beschreibt den Prozess, bei dem Unternehmen externe und interne Wissensquellen strategisch nutzen, um Innovationen zu fördern. Das Konzept, das auf Henry Chesbrough zurückgeht, erweitert das traditionelle Innovationsmanagement und integriert Wissen von Lieferanten, Partnern, Kunden und externen Quellen. Diese Offenheit erhöht das Innovationspotenzial, erfordert jedoch auch tiefgreifende Veränderungen in den Organisationsstrukturen und stellt das Unternehmen vor psychologische Herausforderungen. Der Einsatz von Künstlicher Intelligenz (KI) in Open Innovation ermöglicht zudem neue Perspektiven und hebt den Innovationsprozess auf eine neue Ebene. Psychologische Aspekte von Open Innovation 1. Motivation und Widerstände Ein entscheidender psychologischer Faktor bei der Implementierung von Open Innovation ist die Motivation der Mitarbeitenden. Traditionell wurde Innovation als ein interner Prozess betrachtet, bei dem nur die klügsten Köpfe innerhalb des Unterneh...

Satirische Diskussion zur Just Culture

In einem fiktiven Szenario treffen sich vier Fachleute aus unterschiedlichen Bereichen – ein Pilot, ein Mitarbeiter eines Kernkraftwerks, ein Chemieingenieur und ein Psychologe – zu einer Diskussionsrunde über “Just Culture”. Die Unterhaltung entwickelt sich wie folgt: Pilot : “In der Luftfahrt ist ‘Just Culture’ essenziell. Wir melden Fehler offen, um daraus zu lernen und die Sicherheit zu erhöhen.” Kernkraftwerksmitarbeiter : “Interessant. Bei uns ist das ähnlich. Allerdings bedeutet ein Fehler bei uns nicht nur eine Verspätung, sondern potenziell eine neue Sonnenaufgangszeit für die halbe Hemisphäre.” Chemieingenieur : “Bei uns in der chemischen Industrie ist ‘Just Culture’ auch wichtig. Ein kleiner Fehler, und plötzlich haben wir ein neues Loch in der Ozonschicht oder eine Stadt weniger auf der Landkarte.” Psychologe : “Faszinierend. Aus psychologischer Sicht ist es entscheidend, eine Kultur zu schaffen, in der Fehler als Lernmöglichkeiten gesehen werden, ohne Schuldzuweisu...