Montag, 28. März 2022

Psychologische Aspekte komplexer sozio-technischer Systeme


Vernünftigerweise vorhersehbare Handlungs- und Entscheidungsfehler müssen im Systemdesign und in den Anwendungsbedingungen des Systems berücksichtigt werden.

Komplexe sozio-technische Systeme weisen eine Reihe von Merkmalen auf, die Menschen besondere Schwierigkeiten beim Führen, Steuern und Kontrollieren komplexer Maschinen, wie z.B. Fahrzeugen, Flugzeugen oder Kraftwerken, bereiten. Dies kann direkt und indirekt zu Denk- und Entscheidungsfehlern führen. Ein sozio-technisches System besteht aus Menschen und verknüpften Technologien, welche in einer bestimmten Weise strukturiert sind, um ein spezifisches Ergebnis zu produzieren. Die Merkmale, die Menschen bei der Systembedienung besondere Fehler bereiten und in der Fehlerforschung immer wieder genannt werden, sind Komplexität, Vernetztheit, Dynamik, Intransparenz, Polytelie und Neuartigkeit.

Wenn im Folgenden von sozio-technischen Systemen gesprochen wird, sind z.B. die Cockpits von Flugzeugen gemeint, die Leitwarten von Kraftwerken oder Fabriken, aber auch Autos, Lastwagen, Lokomotiven und militärische Fahrzeuge. Es sind alle Situationen gemeint, wo Menschen Maschinen steuern, bedienen, lenken oder sonst wie kontrollieren.


Komplexität: Es gibt eine große Anzahl von Parametern bei der Steuerung moderner technischer Systeme, die alle wichtig sind und beachtet werden müssen. Da das in begrenzter Zeit nicht möglich ist, müssen Operateure, Piloten, Systembediener Schwerpunkte bilden. Mögliche Denk- und Entscheidungsfehler resultieren aus dem inadäquaten Umgang mit der Schwerpunktbildung (entweder zu rigide an einem Schwerpunkt festhalten oder keinen Schwerpunkt bilden).

Vernetztheit: Die Parameter des Systems sind mit anderen Systemparametern und Variablen der Systemumgebung vielfältig verbunden. Vieles beeinflusst sich wechselseitig. Der Gewichtstrimm eines Flugzeuges, die Geschwindigkeit, Wetterbedingungen, der Kurs beeinflussen sich. In einem vernetzten System kann kaum nur eine Sache gemacht werden. Wird ein Parameter verändert, dann verändern sich andere Faktoren sichtbar und oft unsichtbar mit. Wenn bei einem Fahrzeug zu viel Gewicht zugeladen wird, dann verändert sich als Nebenwirkung das Brems- und Kurvenverhalten, was man aber erst merkt, wenn man bremsen muss.

Daraus ergibt sich die Notwendigkeit, beim Entscheiden Neben- und Fernwirkungen  (was passiert neben der Hauptwirkung zusätzlich oder was passiert später) zu beachten. Mögliche Denk- und Handlungsfehler resultieren vor allem aus dem Nichtbeachten von Neben- und Fernwirkungen und dem ausschließlichen Berücksichtigen der Hauptwirkung.

Dynamik: Alle sozio-technischen Systeme sind eigendynamische Systeme, d.h. ein Teil der Systemparameter verändert sich auch ohne direkten Eingriff des Systembedieners, Piloten, Users. Die Dynamik ergibt sich oft aus der Vernetztheit der Parameter, z.B. wenn diese aus positiven und negativen Rückkopplungen bestehen. Aus der Eigendynamik entsteht häufig Zeitdruck und die Notwendigkeit der Prognose der Zukunft: Wie sich die Parameter des Systems, wie sich das Verhalten des Fahrzeuges, wie sich die Eigenschaften des Flugzeuges verändern werden. Mögliche Denk- und Handlungsfehler resultieren aus keinen oder falschen Prognosen. So werden typischerweise exponentielle Entwicklungen nur linear extrapoliert und es wird unzureichend - zu schwach oder zu heftig - gehandelt.

Intransparenz: Die meisten komplexen sozio-technischen Systeme sind für den Nutzer nicht vollständig durchschaubar. Es gibt oft Systemparameter, die eigentlich beachtet werden müssten, die aber nicht zugänglich sind, weil sie nicht messbar sind, weil sie nur durch den Systemadministrator erfasst werden, oder auch weil der Nutzer gar nicht weiß, dass es diesen Parameter überhaupt gibt. Eine Reihe von Unfällen in der Luftfahrt in den letzten Jahren beruht darauf, dass die Flugzeuge Eigenschaften und Parameter hatten (bzw. im Rahmen von Weiterentwicklungen neu hatten), die den Piloten nicht bekannt waren.

Der Systemnutzer muss (oder sollte) ein mentales Modell des Systems haben, um geeignete Indikatoren zu finden, wenn wichtige Systemfunktionen oder komplexes Systemverhalten nicht direkt erfasst werden können. Mögliche Denk- und Handlungsfehler resultieren aus der Verwendung falscher Indikatoren, oder zu stark simplifizierter Modelle des jeweiligen Systems.

Polytelie: Bei der Steuerung eines technischen Systems, sei es ein Flugzeug, ein Fahrzeug, ein Kraftwerk, ist das Handeln notwendigerweise auf mehr als ein Ziel hin ausgerichtet. Es soll beispielsweise ein bestimmtes Reiseziel, möglichst schnell, sicher und kosteneffizient erreicht werden. Dabei soll die Umweltbelastung und der Energieverbrauch gering sein und der Komfort für die Passagiere hoch. Viele dieser Ziele sind nicht miteinander verträglich, d.h. sie widersprechen sich (z.B. Schnelligkeit und Energieverbrauch). Daraus leitet sich die Notwendigkeit ab, dass durch den Operateur, Nutzer, Pilot Ziele balanciert und hierarchisiert werden. Manche Ziele in komplexen sozio-technischen Systemen können nur vage formuliert werden, z.B. als Komparative; etwas soll besser, schneller, günstiger werden. Wie das zu erreichende Ziel konkret aussehen soll, ist möglicherweise unklar. Unklare Ziele erschweren das Handeln für den Nutzer, da sich aus ihnen kaum ergibt, welche Maßnahmen konkret zu ergreifen sind. Mögliche Denk- und Handlungsfehler resultieren u.a. daraus, dass Ziele nicht konkretisiert werden, und damit Zielwidersprüche und -inkompatibilitäten nicht erkannt werden.

Neuartigkeit: Manche Aspekte in komplexen sozio-technischen Systemen sind, zumindest zum Teil, neuartig, sei es neue Hardware, die verbaut wurde, sei es Software, die ein Update erfahren hat, seien es veränderte Prozesse und Prozeduren oder neuartige Umweltfaktoren.

Der Systembediener kann nicht alle neuartigen Strukturen und Parameter kennen bzw. antizipieren. Aus der - potenziellen - Neuartigkeit von Teilen des Systems ergibt sich die Anforderung zur Analyse des Systems, zur Hypothesenbildung und zur Exploration. Mögliche Problemlösefehler resultieren aus dem Nichterkennen der Neuartigkeit und aus einer reduzierten oder falschen Hypothesenbildung über Systemfunktionen oder Zusammenhänge.


Die Forderungen, die sich aus diesen Erkenntnissen ableiten, sind im Grunde trivial: Überall wo Menschen Maschinen bedienen, bei jedem sozio-technischen System, muss das System so konstruiert und betrieben werden, dass die menschlichen Stärken und Schwächen beim Umgang mit Komplexität, Vernetztheit, Dynamik, Intransparenz, Polytelie und Neuartigkeit angemessen einkalkuliert werden. Vernünftigerweise vorhersehbare Handlungs- und Entscheidungsfehler müssen im Systemdesign und in den Anwendungsbedingungen des Systems berücksichtigt werden.

 

 

Dienstag, 15. März 2022

Béla Barényi - Papst der Sicherheitstechnik

Béla Barényi war der Erfinder der passiven Sicherheit im
Automobilbau. Er gilt als der Papst der Sicherheitstechnik.


Dazu müssen die Organisation, die Prozesse und vor allem die beteiligten Personen entsprechend definiert bzw. ausgewählt sein. Nur wenn Ingenieure, Kaufleute, Juristen, Psychologen und weitere zu beteiligende Spezialisten optimal zusammenarbeiten, mit einander kreativ ergänzenden Ansätzen zum Problemverständnis und vor allem zur Problemlösung beitragen (sogenannte "shared mental models"), können großartige Produkte entstehen.
Obwohl heute fast niemand mehr Béla Baréyni kennt, werden seine Ideen und Erfindungen in unseren heutigen Autos ganz selbstverständlich genutzt. Seine Sicherheitsideen, Sicherheitskonzepte und Erfindungen haben vermutlich Hunderttausenden das Leben gerettet. 2500 Patente meldete Béla Baréyni an, insbesondere solche zur Verbesserung der Sicherheit im Straßenverkehr.

So stammt von ihm die Idee der Knautschzone ("das klügere Blech gibt nach"). Zuvor wurden die Autos möglichst stabil und steif gebaut. Wir verdanken ihm auch die Idee der Sicherheitslenksäule (die im Falle eines Unfalls den Fahrer nicht mehr aufspießt), das Pralltopf-Lenkrad oder auch die „Verschwindscheibenwischer“, die verhindern, dass Fußgänger bei einem Unfall der Gefahr schwerer Kopfverletzungen ausgesetzt sind. Besonders revolutionär war diese Idee deswegen, weil erstmals nicht nur die Sicherheit der Insassen, sondern auch die Sicherheit Dritter berücksichtigt wurde. Übrigens gilt (nach einem langen Rechtsstreit) Béla Barényi und nicht Ferdinand Porsche als Urheber des VW Käfers.

Die Kreativität im Bereich Design und Konstruktion war früher oftmals die Kreativität einzelner herausragender Konstrukteure wie Béla Barényi und Ferdinand Porsche im Automobilbau oder Dieter Rams und Jonathan Ive in der Consumer-Elektronik.

Unter den gesellschaftlichen, wirtschaftlichen, technischen und regulatorischen Bedingungen von heute werden Design und Konstruktion, wird auch Kreativität immer mehr zu einem Teamprozess.

Sonntag, 6. März 2022

Der technische Joker der Ukraine und der Held am Himmel: Die türkische Kampfdrohne Bayraktar

Die Drohne als Held im Himmel über der Ukraine


Während man über die Schwächen der russischen Armee rätseln, wird die Kampfdrohne Bayraktar als Held im Himmel der Ukraine gefeiert. Der Chef der ukrainischen Streitkräfte hatte ein Video, das zeigen soll, wie eine Bayraktar TB2 einen russischen Konvoi in der Stadt Malyn trifft.

Quelle und mehr dazu: Türkische Drohne Bayraktar TB2: Wunderwaffe der Ukraine gegen Russlands Armee? (msn.com)




Freitag, 4. März 2022

Den modernen Waffensystemen Russlands hat die Ukraine nichts entgegenzusetzen

Russland hat in den letzten Jahren  sein Militär auf einen modernen Stand gebracht.
Sicher waren dafür die Probleme im Krieg mit Georgien 2008 führte entscheidend, die Moskau die Notwendigkeit zeigten, seine Streitkräfte umfassenden zu erneuern. Seit dem pumpte der Kreml immense finanzielle Ressourcen in die Aufrüstung und vor allem Modernisierung seiner Streitkräfte.

Dem hat die Ukraine - waffenmäßig - kaum etwas entgegenzusetzen.


Mehr dazu: 

Ukraine-Krieg: Russlands mächtige Waffen nach der Aufrüstung (nzz.ch) 

Drei weltweit einzigartige russische Waffensysteme - Russia Beyond DE (rbth.com) 

Milliardenschwere Aufrüstung: Diese neuen Waffen bekommt die russische Armee - Russia Beyond DE (rbth.com)


Donnerstag, 3. März 2022

Downs-Thomson Paradoxon: Mehr Staus durch Ausbau des Straßennetzes

Straßenverkehr und Verkehrsplanung sind Beispiele für komplexe, vernetzte und rückgekoppelte Systeme


Dazu braucht es aber sowohl die Fähigkeit zum vernetzten Denken - diese ist lern- und trainierbar - als auch die Nutzung der entsprechenden Tools. Von diesen gibt es viele in der System Dynamics Community, z.B. Vensim, Stella oder ithink. Entscheidend aber ist der Wille, sich nicht mit vorschnellen, nur scheinbar einfachen Lösungen zufriedenzugeben. Dies ist oft genug eine Frage einer selbstreflexiven Unternehmenskultur.
Das Downs-Thomson Paradoxon besagt, dass der Ausbau eines Straßensystems als Abhilfe gegen Staus ineffektiv und oft sogar kontraproduktiv ist. Dadurch dass weniger in den öffentlichen Verkehr investiert wird und auch die Autofahrer mit vermehrter Ausnutzung der neuen Kapazitäten reagieren, entstehen neue Staus.

Das heißt also, je mehr das Straßennetz ausgebaut wird, desto mehr Staus werden entstehen - paradox!

Verbesserungen im Straßennetz verringern nicht die Staubildung und können die Verkehrsüberlastung noch verstärken, wenn die Verbesserungen den öffentlichen Verkehr beeinträchtigen oder Investitionen vom öffentlichen Verkehrssystem weg verlagert werden.
Förderung des öffentlichen Personenverkehrs oder auch des Radfahrens können dagegen helfen, so die Autoren.
https://www.sciencedirect.com/science/article/abs/pii/S096585641400264X

Straßenverkehr und Verkehrsplanung sind Beispiele für komplexe, vernetzte und rückgekoppelte Systeme. Beim Verständnis und dem Steuern solcher Systeme scheitern oft einfache Annahmen wie „je mehr desto besser“. Aber auch die menschliche Intuition und der gesunde Menschenverstand sind häufig überfordert. Menschen können die Auswirkungen von einzelnen Maßnahmen in komplexen Systemen kaum vorhersehen.

Mit den Ansätzen, Perspektiven, Herangehensweisen und Werkzeugen des Systemischen Denkens (Simulation als Entscheidungshilfe Systemisches Denken als Werkzeug zur Beherrschung von Komplexität) und der Systemischen Analyse lassen sich auch komplexe, vernetzte und rückgekoppelte Systeme beherrschen.