Montag, 28. März 2022

Psychologische Aspekte komplexer sozio-technischer Systeme


Vernünftigerweise vorhersehbare Handlungs- und Entscheidungsfehler müssen im Systemdesign und in den Anwendungsbedingungen des Systems berücksichtigt werden.

Komplexe sozio-technische Systeme weisen eine Reihe von Merkmalen auf, die Menschen besondere Schwierigkeiten beim Führen, Steuern und Kontrollieren komplexer Maschinen, wie z.B. Fahrzeugen, Flugzeugen oder Kraftwerken, bereiten. Dies kann direkt und indirekt zu Denk- und Entscheidungsfehlern führen. Ein sozio-technisches System besteht aus Menschen und verknüpften Technologien, welche in einer bestimmten Weise strukturiert sind, um ein spezifisches Ergebnis zu produzieren. Die Merkmale, die Menschen bei der Systembedienung besondere Fehler bereiten und in der Fehlerforschung immer wieder genannt werden, sind Komplexität, Vernetztheit, Dynamik, Intransparenz, Polytelie und Neuartigkeit.

Wenn im Folgenden von sozio-technischen Systemen gesprochen wird, sind z.B. die Cockpits von Flugzeugen gemeint, die Leitwarten von Kraftwerken oder Fabriken, aber auch Autos, Lastwagen, Lokomotiven und militärische Fahrzeuge. Es sind alle Situationen gemeint, wo Menschen Maschinen steuern, bedienen, lenken oder sonst wie kontrollieren.


Komplexität: Es gibt eine große Anzahl von Parametern bei der Steuerung moderner technischer Systeme, die alle wichtig sind und beachtet werden müssen. Da das in begrenzter Zeit nicht möglich ist, müssen Operateure, Piloten, Systembediener Schwerpunkte bilden. Mögliche Denk- und Entscheidungsfehler resultieren aus dem inadäquaten Umgang mit der Schwerpunktbildung (entweder zu rigide an einem Schwerpunkt festhalten oder keinen Schwerpunkt bilden).

Vernetztheit: Die Parameter des Systems sind mit anderen Systemparametern und Variablen der Systemumgebung vielfältig verbunden. Vieles beeinflusst sich wechselseitig. Der Gewichtstrimm eines Flugzeuges, die Geschwindigkeit, Wetterbedingungen, der Kurs beeinflussen sich. In einem vernetzten System kann kaum nur eine Sache gemacht werden. Wird ein Parameter verändert, dann verändern sich andere Faktoren sichtbar und oft unsichtbar mit. Wenn bei einem Fahrzeug zu viel Gewicht zugeladen wird, dann verändert sich als Nebenwirkung das Brems- und Kurvenverhalten, was man aber erst merkt, wenn man bremsen muss.

Daraus ergibt sich die Notwendigkeit, beim Entscheiden Neben- und Fernwirkungen  (was passiert neben der Hauptwirkung zusätzlich oder was passiert später) zu beachten. Mögliche Denk- und Handlungsfehler resultieren vor allem aus dem Nichtbeachten von Neben- und Fernwirkungen und dem ausschließlichen Berücksichtigen der Hauptwirkung.

Dynamik: Alle sozio-technischen Systeme sind eigendynamische Systeme, d.h. ein Teil der Systemparameter verändert sich auch ohne direkten Eingriff des Systembedieners, Piloten, Users. Die Dynamik ergibt sich oft aus der Vernetztheit der Parameter, z.B. wenn diese aus positiven und negativen Rückkopplungen bestehen. Aus der Eigendynamik entsteht häufig Zeitdruck und die Notwendigkeit der Prognose der Zukunft: Wie sich die Parameter des Systems, wie sich das Verhalten des Fahrzeuges, wie sich die Eigenschaften des Flugzeuges verändern werden. Mögliche Denk- und Handlungsfehler resultieren aus keinen oder falschen Prognosen. So werden typischerweise exponentielle Entwicklungen nur linear extrapoliert und es wird unzureichend - zu schwach oder zu heftig - gehandelt.

Intransparenz: Die meisten komplexen sozio-technischen Systeme sind für den Nutzer nicht vollständig durchschaubar. Es gibt oft Systemparameter, die eigentlich beachtet werden müssten, die aber nicht zugänglich sind, weil sie nicht messbar sind, weil sie nur durch den Systemadministrator erfasst werden, oder auch weil der Nutzer gar nicht weiß, dass es diesen Parameter überhaupt gibt. Eine Reihe von Unfällen in der Luftfahrt in den letzten Jahren beruht darauf, dass die Flugzeuge Eigenschaften und Parameter hatten (bzw. im Rahmen von Weiterentwicklungen neu hatten), die den Piloten nicht bekannt waren.

Der Systemnutzer muss (oder sollte) ein mentales Modell des Systems haben, um geeignete Indikatoren zu finden, wenn wichtige Systemfunktionen oder komplexes Systemverhalten nicht direkt erfasst werden können. Mögliche Denk- und Handlungsfehler resultieren aus der Verwendung falscher Indikatoren, oder zu stark simplifizierter Modelle des jeweiligen Systems.

Polytelie: Bei der Steuerung eines technischen Systems, sei es ein Flugzeug, ein Fahrzeug, ein Kraftwerk, ist das Handeln notwendigerweise auf mehr als ein Ziel hin ausgerichtet. Es soll beispielsweise ein bestimmtes Reiseziel, möglichst schnell, sicher und kosteneffizient erreicht werden. Dabei soll die Umweltbelastung und der Energieverbrauch gering sein und der Komfort für die Passagiere hoch. Viele dieser Ziele sind nicht miteinander verträglich, d.h. sie widersprechen sich (z.B. Schnelligkeit und Energieverbrauch). Daraus leitet sich die Notwendigkeit ab, dass durch den Operateur, Nutzer, Pilot Ziele balanciert und hierarchisiert werden. Manche Ziele in komplexen sozio-technischen Systemen können nur vage formuliert werden, z.B. als Komparative; etwas soll besser, schneller, günstiger werden. Wie das zu erreichende Ziel konkret aussehen soll, ist möglicherweise unklar. Unklare Ziele erschweren das Handeln für den Nutzer, da sich aus ihnen kaum ergibt, welche Maßnahmen konkret zu ergreifen sind. Mögliche Denk- und Handlungsfehler resultieren u.a. daraus, dass Ziele nicht konkretisiert werden, und damit Zielwidersprüche und -inkompatibilitäten nicht erkannt werden.

Neuartigkeit: Manche Aspekte in komplexen sozio-technischen Systemen sind, zumindest zum Teil, neuartig, sei es neue Hardware, die verbaut wurde, sei es Software, die ein Update erfahren hat, seien es veränderte Prozesse und Prozeduren oder neuartige Umweltfaktoren.

Der Systembediener kann nicht alle neuartigen Strukturen und Parameter kennen bzw. antizipieren. Aus der - potenziellen - Neuartigkeit von Teilen des Systems ergibt sich die Anforderung zur Analyse des Systems, zur Hypothesenbildung und zur Exploration. Mögliche Problemlösefehler resultieren aus dem Nichterkennen der Neuartigkeit und aus einer reduzierten oder falschen Hypothesenbildung über Systemfunktionen oder Zusammenhänge.


Die Forderungen, die sich aus diesen Erkenntnissen ableiten, sind im Grunde trivial: Überall wo Menschen Maschinen bedienen, bei jedem sozio-technischen System, muss das System so konstruiert und betrieben werden, dass die menschlichen Stärken und Schwächen beim Umgang mit Komplexität, Vernetztheit, Dynamik, Intransparenz, Polytelie und Neuartigkeit angemessen einkalkuliert werden. Vernünftigerweise vorhersehbare Handlungs- und Entscheidungsfehler müssen im Systemdesign und in den Anwendungsbedingungen des Systems berücksichtigt werden.

 

 

Keine Kommentare:

Kommentar veröffentlichen

Kommentar