Direkt zum Hauptbereich

Psychologische Aspekte komplexer sozio-technischer Systeme


Vernünftigerweise vorhersehbare Handlungs- und Entscheidungsfehler müssen im Systemdesign und in den Anwendungsbedingungen des Systems berücksichtigt werden.

Komplexe sozio-technische Systeme weisen eine Reihe von Merkmalen auf, die Menschen besondere Schwierigkeiten beim Führen, Steuern und Kontrollieren komplexer Maschinen, wie z.B. Fahrzeugen, Flugzeugen oder Kraftwerken, bereiten. Dies kann direkt und indirekt zu Denk- und Entscheidungsfehlern führen. Ein sozio-technisches System besteht aus Menschen und verknüpften Technologien, welche in einer bestimmten Weise strukturiert sind, um ein spezifisches Ergebnis zu produzieren. Die Merkmale, die Menschen bei der Systembedienung besondere Fehler bereiten und in der Fehlerforschung immer wieder genannt werden, sind Komplexität, Vernetztheit, Dynamik, Intransparenz, Polytelie und Neuartigkeit.

Wenn im Folgenden von sozio-technischen Systemen gesprochen wird, sind z.B. die Cockpits von Flugzeugen gemeint, die Leitwarten von Kraftwerken oder Fabriken, aber auch Autos, Lastwagen, Lokomotiven und militärische Fahrzeuge. Es sind alle Situationen gemeint, wo Menschen Maschinen steuern, bedienen, lenken oder sonst wie kontrollieren.


Komplexität: Es gibt eine große Anzahl von Parametern bei der Steuerung moderner technischer Systeme, die alle wichtig sind und beachtet werden müssen. Da das in begrenzter Zeit nicht möglich ist, müssen Operateure, Piloten, Systembediener Schwerpunkte bilden. Mögliche Denk- und Entscheidungsfehler resultieren aus dem inadäquaten Umgang mit der Schwerpunktbildung (entweder zu rigide an einem Schwerpunkt festhalten oder keinen Schwerpunkt bilden).

Vernetztheit: Die Parameter des Systems sind mit anderen Systemparametern und Variablen der Systemumgebung vielfältig verbunden. Vieles beeinflusst sich wechselseitig. Der Gewichtstrimm eines Flugzeuges, die Geschwindigkeit, Wetterbedingungen, der Kurs beeinflussen sich. In einem vernetzten System kann kaum nur eine Sache gemacht werden. Wird ein Parameter verändert, dann verändern sich andere Faktoren sichtbar und oft unsichtbar mit. Wenn bei einem Fahrzeug zu viel Gewicht zugeladen wird, dann verändert sich als Nebenwirkung das Brems- und Kurvenverhalten, was man aber erst merkt, wenn man bremsen muss.

Daraus ergibt sich die Notwendigkeit, beim Entscheiden Neben- und Fernwirkungen  (was passiert neben der Hauptwirkung zusätzlich oder was passiert später) zu beachten. Mögliche Denk- und Handlungsfehler resultieren vor allem aus dem Nichtbeachten von Neben- und Fernwirkungen und dem ausschließlichen Berücksichtigen der Hauptwirkung.

Dynamik: Alle sozio-technischen Systeme sind eigendynamische Systeme, d.h. ein Teil der Systemparameter verändert sich auch ohne direkten Eingriff des Systembedieners, Piloten, Users. Die Dynamik ergibt sich oft aus der Vernetztheit der Parameter, z.B. wenn diese aus positiven und negativen Rückkopplungen bestehen. Aus der Eigendynamik entsteht häufig Zeitdruck und die Notwendigkeit der Prognose der Zukunft: Wie sich die Parameter des Systems, wie sich das Verhalten des Fahrzeuges, wie sich die Eigenschaften des Flugzeuges verändern werden. Mögliche Denk- und Handlungsfehler resultieren aus keinen oder falschen Prognosen. So werden typischerweise exponentielle Entwicklungen nur linear extrapoliert und es wird unzureichend - zu schwach oder zu heftig - gehandelt.

Intransparenz: Die meisten komplexen sozio-technischen Systeme sind für den Nutzer nicht vollständig durchschaubar. Es gibt oft Systemparameter, die eigentlich beachtet werden müssten, die aber nicht zugänglich sind, weil sie nicht messbar sind, weil sie nur durch den Systemadministrator erfasst werden, oder auch weil der Nutzer gar nicht weiß, dass es diesen Parameter überhaupt gibt. Eine Reihe von Unfällen in der Luftfahrt in den letzten Jahren beruht darauf, dass die Flugzeuge Eigenschaften und Parameter hatten (bzw. im Rahmen von Weiterentwicklungen neu hatten), die den Piloten nicht bekannt waren.

Der Systemnutzer muss (oder sollte) ein mentales Modell des Systems haben, um geeignete Indikatoren zu finden, wenn wichtige Systemfunktionen oder komplexes Systemverhalten nicht direkt erfasst werden können. Mögliche Denk- und Handlungsfehler resultieren aus der Verwendung falscher Indikatoren, oder zu stark simplifizierter Modelle des jeweiligen Systems.

Polytelie: Bei der Steuerung eines technischen Systems, sei es ein Flugzeug, ein Fahrzeug, ein Kraftwerk, ist das Handeln notwendigerweise auf mehr als ein Ziel hin ausgerichtet. Es soll beispielsweise ein bestimmtes Reiseziel, möglichst schnell, sicher und kosteneffizient erreicht werden. Dabei soll die Umweltbelastung und der Energieverbrauch gering sein und der Komfort für die Passagiere hoch. Viele dieser Ziele sind nicht miteinander verträglich, d.h. sie widersprechen sich (z.B. Schnelligkeit und Energieverbrauch). Daraus leitet sich die Notwendigkeit ab, dass durch den Operateur, Nutzer, Pilot Ziele balanciert und hierarchisiert werden. Manche Ziele in komplexen sozio-technischen Systemen können nur vage formuliert werden, z.B. als Komparative; etwas soll besser, schneller, günstiger werden. Wie das zu erreichende Ziel konkret aussehen soll, ist möglicherweise unklar. Unklare Ziele erschweren das Handeln für den Nutzer, da sich aus ihnen kaum ergibt, welche Maßnahmen konkret zu ergreifen sind. Mögliche Denk- und Handlungsfehler resultieren u.a. daraus, dass Ziele nicht konkretisiert werden, und damit Zielwidersprüche und -inkompatibilitäten nicht erkannt werden.

Neuartigkeit: Manche Aspekte in komplexen sozio-technischen Systemen sind, zumindest zum Teil, neuartig, sei es neue Hardware, die verbaut wurde, sei es Software, die ein Update erfahren hat, seien es veränderte Prozesse und Prozeduren oder neuartige Umweltfaktoren.

Der Systembediener kann nicht alle neuartigen Strukturen und Parameter kennen bzw. antizipieren. Aus der - potenziellen - Neuartigkeit von Teilen des Systems ergibt sich die Anforderung zur Analyse des Systems, zur Hypothesenbildung und zur Exploration. Mögliche Problemlösefehler resultieren aus dem Nichterkennen der Neuartigkeit und aus einer reduzierten oder falschen Hypothesenbildung über Systemfunktionen oder Zusammenhänge.


Die Forderungen, die sich aus diesen Erkenntnissen ableiten, sind im Grunde trivial: Überall wo Menschen Maschinen bedienen, bei jedem sozio-technischen System, muss das System so konstruiert und betrieben werden, dass die menschlichen Stärken und Schwächen beim Umgang mit Komplexität, Vernetztheit, Dynamik, Intransparenz, Polytelie und Neuartigkeit angemessen einkalkuliert werden. Vernünftigerweise vorhersehbare Handlungs- und Entscheidungsfehler müssen im Systemdesign und in den Anwendungsbedingungen des Systems berücksichtigt werden.

 

 

Beliebte Posts aus diesem Blog

Die Psychologie und Soziologie des Wartens, der Pünktlichkeit und der Ungeduld

Warten, Pünktlichkeit und Ungeduld sind universelle menschliche Erfahrungen, die stark von kulturellen, sozialen und psychologischen Faktoren geprägt sind. In einer immer schnelllebigeren Welt wird das Warten oft als unangenehme Unterbrechung wahrgenommen, während Pünktlichkeit als Tugend gilt und Ungeduld zunehmend zum Ausdruck von Stress und Zeitdruck wird. Dieser Artikel untersucht die psychologischen und soziologischen Mechanismen, die diesen Phänomenen zugrunde liegen, und beleuchtet ihre kulturelle Dimension. Psychologie des Wartens Das Warten ist eine Erfahrung, die sowohl mit negativen Emotionen wie Frustration und Stress als auch mit positiven wie Vorfreude verbunden sein kann. Die Wahrnehmung von Wartezeiten wird durch Faktoren wie Unsicherheit, Kontrolle und die soziale Umgebung beeinflusst (Maister, 1985). Studien zeigen, dass Unsicherheit über die Dauer oder das Ergebnis eines Wartens die emotionale Belastung verstärkt (Larson, 1987). Die Psychologie des Wartens beto...

Psychologische Aspekte und der Einfluss von Künstlicher Intelligenz auf Open Innovation Einleitung

Der Begriff „Open Innovation“ beschreibt den Prozess, bei dem Unternehmen externe und interne Wissensquellen strategisch nutzen, um Innovationen zu fördern. Das Konzept, das auf Henry Chesbrough zurückgeht, erweitert das traditionelle Innovationsmanagement und integriert Wissen von Lieferanten, Partnern, Kunden und externen Quellen. Diese Offenheit erhöht das Innovationspotenzial, erfordert jedoch auch tiefgreifende Veränderungen in den Organisationsstrukturen und stellt das Unternehmen vor psychologische Herausforderungen. Der Einsatz von Künstlicher Intelligenz (KI) in Open Innovation ermöglicht zudem neue Perspektiven und hebt den Innovationsprozess auf eine neue Ebene. Psychologische Aspekte von Open Innovation 1. Motivation und Widerstände Ein entscheidender psychologischer Faktor bei der Implementierung von Open Innovation ist die Motivation der Mitarbeitenden. Traditionell wurde Innovation als ein interner Prozess betrachtet, bei dem nur die klügsten Köpfe innerhalb des Unterneh...

Satirische Diskussion zur Just Culture

In einem fiktiven Szenario treffen sich vier Fachleute aus unterschiedlichen Bereichen – ein Pilot, ein Mitarbeiter eines Kernkraftwerks, ein Chemieingenieur und ein Psychologe – zu einer Diskussionsrunde über “Just Culture”. Die Unterhaltung entwickelt sich wie folgt: Pilot : “In der Luftfahrt ist ‘Just Culture’ essenziell. Wir melden Fehler offen, um daraus zu lernen und die Sicherheit zu erhöhen.” Kernkraftwerksmitarbeiter : “Interessant. Bei uns ist das ähnlich. Allerdings bedeutet ein Fehler bei uns nicht nur eine Verspätung, sondern potenziell eine neue Sonnenaufgangszeit für die halbe Hemisphäre.” Chemieingenieur : “Bei uns in der chemischen Industrie ist ‘Just Culture’ auch wichtig. Ein kleiner Fehler, und plötzlich haben wir ein neues Loch in der Ozonschicht oder eine Stadt weniger auf der Landkarte.” Psychologe : “Faszinierend. Aus psychologischer Sicht ist es entscheidend, eine Kultur zu schaffen, in der Fehler als Lernmöglichkeiten gesehen werden, ohne Schuldzuweisu...