Montag, 31. Januar 2022

Advanced KI mit "Seele"?

KI und Seele, verschiedene Blicke auf das Thema:

Wie die Seele funktioniert: "Bauplan für eine Seele" von Dietrich Dörner - wissenschaft.de


2013: Das bestehende Collision-Prevent-Assist-System von Mercedes funktioniert. Was wäre aber wenn es schon viel früher entwickelt worden wäre. Was wäre wenn es viel besser funktionieren würde, eine Seele hätte?

(Bei diesem Werbespot handelt es sich um eine studentische Produktion der Filmakademie Baden-Württemberg, entstanden im Rahmen der Lehre, und ist kein offizieller Spot der betreffenden Marke.)




Collision Prevent - Unautorisierter Werbespot (Mercedes, 2013)


2022: Wo stehen wir heute? Big Data, Deep Learning, Deep Fake?


Dienstag, 18. Januar 2022

Digitalisierung des Privatlebens: Smart Home, Smart Life - Siri Alexa und Co.


Wie verändert die Digitalisierung unser Leben, beeinflusst unser Verhalten, wirkt auf Einstellungen, Erwartungen und Entscheidungen? 

Wird unser Leben effizienter, effektiver, sicherer, besser? 

Ergeben sich für die deutsche und europäische Wirtschaft und Forschung neue Optionen, oder erhöhen wir die Abhängigkeit von den US Tec Konzernen?




Dieses Thema wurde  im virtuellen Morning Pint der IABG Akademie am Mi 19.01.22 8h00-8h30  diskutiert.


  • Mi 9.2.22 8h00-8h30 Agile Entwicklungsmethoden und Anforderungen von Safety und Usability
  • Mi 9.3.22 8h00-8h30 Science Fiction und Innovation: Wie Bilder aus der Literatur und Film Entwickler beeinflussen
  • Mi 6.4.22 8h00-8h30 Wie sicher ist sicher: Subjektive Sicherheit und Risikobereitschaft
  • Mi 11.5.22 8h00-8h30 Kunst und Technik: Form follows Function oder User Experience?

Weitere Diskussionsbeiträge finden Sie auch hier: https://www.iabg.de/news-termine/themen (und auch Themen der vergangenen Frühschoppen)


Social Engineering: Nudging als Methode der Verhaltensbeeinflussung ohne Verbote und Gebote


Social Engineering ist die Kunst, jemanden so zu manipulieren, dass er sensible oder vertrauliche Informationen preisgibt. Dies geschieht oft, wenn auch nicht ausschließlich bei der digitalen Kommunikation im Cyberraum. Diese Informationen werden dann für betrügerische Zwecke verwendet.

Social Engineering besteht folglich im Ausnutzen menschlicher Fehler und Verhaltensweisen zur Durchführung eines Angriffs, häufig eines Cyberangriffs (sog. Social oder Human Hacking). Ein einfaches Beispiel: Ein Cyberkrimineller gibt sich als IT-Experte aus und fordert Ihre Anmeldedaten an, angeblich um eine Sicherheitslücke auf Ihrem Gerät zu schließen. Wenn Sie diese Daten weitergeben, haben Sie einer böswilligen Person die Schlüssel zu Ihrem Konto ausgehändigt, und sie musste sich nicht einmal die Mühe machen, Ihre E-Mail oder Ihren Computer zu hacken.

Es gibt aber auch andere Social Engineering Methoden. Die Nudge-Theorie ist ein Konzept aus der Psychologie, den Verhaltens- und der Politikwissenschaften, das verborgene Anreize und indirekte Maßnahmen als Mittel zur Beeinflussung des Verhaltens und der Entscheidungsfindung von Gruppen oder Einzelpersonen nutzt. Nudging steht im Gegensatz zu anderen Möglichkeiten, die Einhaltung von Vorschriften zu erreichen wie z. B. Erziehung, Gesetzgebung oder aktives Herbeiführen.

Ein „Nudge“ (Anstoß)  ist nach Thaler & Sunstein (2008) jeder Aspekt der Entscheidungsarchitektur, der das Verhalten der Menschen auf vorhersehbare Weise verändert, ohne Verbote auszusprechen oder ihre wirtschaftlichen Anreize wesentlich zu verändern. Um als bloßer Nudge zu gelten, muss die versuchte Einflussnahme leicht und  ohne größere Anstrengung zu vermeiden sein. Nudges sind keine Zwänge. Das Aufstellen von Obst in Augenhöhe gilt als Nudge. Ein Verbot von Junkfood ist es nicht.

Ein Nudge macht es wahrscheinlicher, dass eine Person eine bestimmte Wahl trifft oder sich auf eine bestimmte Weise verhält. Dabei beeinflusst der Nudge seine Umgebung in der Weise, dass automatische kognitive Prozesse ausgelöst werden, die das gewünschte Ergebnis begünstigen.

Das Nudge-Konzept erlangte 2008 durch das Buch „Nudge: Improving Decisions About Health, Wealth, and Happiness“ von dem Verhaltensökonomen Richard Thaler und dem Rechtswissenschaftler Cass Sunstein (Universität von Chicago) Bekanntheit. Das Konzept hat viele Politiker beeinflusst und führte weltweit zur Aufstellung sogenannter Nudge-Einheiten auf nationaler (Großbritannien, Deutschland, Japan u. a.) und internationaler (z. B. Weltbank, UN und Europäische Kommission) Ebene. Es ist umstritten, ob die „Nudge-Theorie“ nur ein neuer Begriff für Altbekanntes aus der Verhaltensanalyse ist oder ob es eine neue Entwicklung in der Verhaltensökonomie darstellt.

 

Montag, 10. Januar 2022

Unbestimmtheit und Komplexität

Globalisierung und Digitalisierung führen dazu, dass die Unbestimmtheit und Komplexität unsere Welt immer weiter zunimmt. Unbestimmte und komplexe Lagen weisen eine Reihe von Merkmalen auf, die in der Literatur (Dörner, 1979, 1989; Dörner, 1983; Funke, 2003; Hussy, 1998; Schaub, 1993) als Faktoren genannten werden, die Menschen besondere Schwierigkeiten beim Handeln und Entscheiden  und damit indirekt zu Denk- und Entscheidungsfehlern führen können.


Komplexität: Es gibt eine große Anzahl von Variablen, die alle wichtig sind und beachtet werden müssen. Da das in begrenzter Zeit nicht möglich ist, sollten Einsatz- und Führungskräfte im Krisenmanagement auswählen und Schwerpunkte bilden. Mögliche Denk- und Entscheidungsfehler resultieren aus dem inadäquaten Umgang mit der Schwerpunktbildung (entweder zu rigide an einem Schwerpunkt festhalten oder keinen Schwerpunkt bilden).

Vernetztheit: Die Variablen einer Lage beeinflussen sich wechselseitig. In einem vernetzten System kann kaum nur eine Sache gemacht werden. Ein vernetztes System gleicht einer Sprungfedermatratze. Wird die Matratze an einer Stelle bewegt, dann wackelt es an vielen anderen Stellen. Daraus ergibt sich die Notwendigkeit, beim Entscheiden Neben- und Fernwirkungen zu beachten. Mögliche Denk- und Handlungsfehler resultieren vor allem aus dem Nichtbeachten von Neben- und Fernwirkungen und dem ausschließlichen Berücksichtigen der Hauptwirkung (von der Weth, 1990).

Dynamik: Ein eigendynamisches System verändert sich selbst auch ohne direkte Eingriffe des Entscheiders. Die Dynamik ergibt sich oft aus der Vernetztheit, z.B. wenn diese aus positiven und negativen Rückkopplungen besteht. Aus der Eigendynamik entsteht häufig Zeitdruck und die Notwendigkeit der Prognose der Zukunft. Mögliche Denk- und Handlungsfehler resultieren aus keinen oder falschen Prognose. So werden typischerweise exponentielle Entwicklungen nur linear extrapoliert (Dörner, 1981; Dörner, 1983; Fenk & Vanoucek, 1992; Preussler, 1985).

Intransparenz: Die meisten komplexen Lagen sind nicht vollständig durchschaubar. Es gibt oft Bestandteile der Situation, die eigentlich beachtet werden müssten, die aber nicht zugänglich sind. Der Entscheider muss sich ein Modell der Situation bilden und ist auf die Verwendung von Indikatoren angewiesen. Mögliche Denk- und Handlungsfehler resultieren aus der Verwendung falscher Indikatoren, oder zu stark simplifizierter Modelle (Brunner & Stäudel, 1992; Ossimitz, 2000).

Polytelie: Das Handeln ist in der Regel auf mehr als ein Ziel hin ausgerichtet. In komplexen Lagen sollten und werden z.B. oft humanitäre, ökonomische, ökologische aber auch persönliche Ziele gleichzeitig verfolgt. Viele dieser Ziele sind nicht miteinander verträglich, d.h. sie widersprechen sich. Aus dieser Tatsache leitet sich die Notwendigkeit ab, Ziele zu balancieren und zu hierarchisieren. Ziele in komplexen Lagen können oft nur vage formuliert werden, z.B. als Komparative; etwas soll besser, schneller, günstiger werden (dialektische Probleme. s.h. Dörner, 1987). Wie das zu erreichende Ziel konkret aussehen soll, ist häufig unklar. Unklare Ziele erschweren das Handeln, da sich aus ihnen kaum ergibt, welche Maßnahmen zielführend sind und welche nicht. Der Entscheider sollte seine Ziele konkretisieren und Teil- und Zwischenziele bilden (Newell & Simon, 1963; Oesterreich, 1983; Resch & Oesterreich, 1987; von der Weth, 1990). Mögliche Denk- und Handlungsfehler resultieren u.a. daraus, dass Ziele nicht konkretisiert werden, und damit Zielwidersprüche und -inkompatibilitäten nicht erkannt werden.

Neuartigkeit: Viele Bereiche in komplexen Lagen sind, zumindest zum Teil, neuartig. Die Einsatz- und Führungskraft im Krisenmanagement kennt ihre Strukturen nicht und sollte versuchen, etwas darüber in Erfahrung zu bringen. Aus der Neuartigkeit eines Bereichs ergibt sich die Anforderung zur Erkundung desselben, zur Hypothesenbildung und zur Exploration. Mögliche Problemlösefehler resultieren aus dem Nichterkennen der Neuartigkeit und aus einer reduzierten Hypothesenbildung (Harzl, 1994; Keinath, 2003; Krems & Bachmaier, 1991).


(Literatur und Referenzen beim Autor: harald.schaub@googlemail.com)


Freitag, 7. Januar 2022

Denkwerkzeuge zur Unterstützung des Denkens, Planes und Entscheidens

Komplexität erhöht die Menge von Informationen, die berücksichtigt werden müssen und damit die Menge von Alternativen, aus denen Entscheidungen ausgewählt werden können. 

Komplexität erhöht die Menge von Informationen, die berücksichtigt werden müssen und damit die Menge von Alternativen, aus denen Entscheidungen ausgewählt werden können. Um Denk- und Handlungsoptionen tatsächlich nutzbar zu machen, muss jedoch Komplexität reduziert werden. Gleich wie komplex die Realität ist (sei es die natürliche Umwelt, seien es organisationale Strukturen oder technische Artefakte), die Kapazität der menschlichen Problemlösefähigkeit, die Möglichkeiten der heuristischen Kompetenz sind begrenzt hinsichtlich der Menge von Elementen und Relationen, die berücksichtigt werden können (Miller, 1956; DeGroot, 1965; Hacker, Sachse & Schroda, 1998). Notwendigerweise sind deshalb die mentalen Modelle der Wirklichkeit Simplifizierungen der Realität. Daraus resultieren Fehler, Irrtümer und Katastrophen (Dörner, 1989; Dörner & Schaub, 1994; Schaub, 1996, 2001; Strohschneider & von der Weth, 2002; Heimann, Strohschneider & Schaub, 2014; Schaub, 2016; Schaub, 2020).

Die kritische Frage dabei ist, auf welche Art und Weise Menschen beim Denken, Planen und Entscheiden vereinfachen und reduzieren können, damit die Situation handhabbar wird, aber die wichtigen und relevanten Aspekte der Realität erhalten bleiben, möglichst sogar prägnant hervortreten? 


Systems-Thinking bedeutet, dass mentale Modelle mit visuellen Tools simuliert werden, um dadurch zu veranschaulichen, zu welchen Konsequenzen bestimmte Annahmen und Handlungen führen können (vgl. Dörner & Schaub, 1992; Brunner & Stäudel, 1992; Schaub, 1993).


Das Ziel von Systems-Thinking besteht darin, sowohl für die Konstruktion mentaler Modelle als auch für die heuristische, aber auch numerische Simulation dieser Modelle Werkzeuge bereitzustellen.


Man kann drei Typen von Werkzeugen unterscheiden: Das sind zum einen Denkwerkzeuge, die helfen die Realität zu vereinfachen. Des Weiteren bietet der Systems-Thinking Ansatz standardisierte, formale Sprachen, um komplexe Situationen darstellen und darüber kommunizieren zu können, und schließlich bietet der Ansatz eine Reihe von Computerprogrammen, die die Simulation mentaler Modelle erlauben.


Tools in diesem Kontext sind z.B. 

Vensim: https://vensim.com/ 

Stella: https://www.iseesystems.com/

Dynasys:https://hupfeld-software.de/dokuwiki/doku.php/dynasys 


(Literatur und Referenzen beim Autor: harald.schaub@googlemail.com)