Direkt zum Hauptbereich

Man – Machine Teaming: Natürliche Intelligenz trifft künstliche Intelligenz (KI)


Die Automatisierungslücke zwischen natürlicher und künstlicher Intelligenz durch Aus- und Weiterbildung schließen. Man – Machine Teaming: Natürliche Intelligenz trifft künstliche Intelligenz (KI)


Auch für Man – Machine Teams gilt übrigens die alte didaktische Weisheit: Üben, üben, üben (d.h.  Machine Learning). Die aktuellen und vor allem zukünftigen Arbeitsprozesse mit intelligenten IT-Systemen (vom Auto bis zur intelligenten Kaffeemaschine) können in entsprechend gestalteten Trainings erfahrbar gemacht und geübt werden. 
Technische Systeme werden immer intelligenter. Dadurch steigt der Grad der Automatisierung stetig. Mit zunehmender Komplexität der Systeme (Autos, Flugzeuge, Handys, Kaffeemaschinen) wird es für den Nutzer immer schwieriger, das Verhalten des Systems zu verstehen oder vorherzusagen: „Was macht das System denn jetzt, das hat es ja noch nie gemacht“. Umgekehrt sind die intelligenten, automatischen Systeme zurzeit  kaum in der Lage, sich auf das Verhalten des Benutzers einzustellen.

 

In der Zusammenarbeit zwischen Menschen und den (teil-)automatisieren Systemen gibt es ein Problem: Die Menschen müssen – oftmals ad hoc -  die Steuerung übernehmen, weil der Automat unvorhergesehen ausfällt oder unangemessen reagiert (z.B. ein Abstandsassistent im Auto, der in einer Baustelle mit den vielen Zeichen und Objekten nicht zurechtkommt und beschleunigt, um dann gleich wieder abzubremsen). Man spricht hier von der sogenannten Automatisierungslücke, die zwischen einer menschlich-manuellen Bearbeitung (ich fahre mein Auto alleine, ohne die automatische Unterstützung von Assistenzsystemen) und  einem autonomen, technischen System (das Auto fährt ausschließlich mit Assistenten) besteht. Diese Lücke wird noch auf lange Zeit bestehen, da selbst die elaboriertesten Systeme davon ausgehen, dass im Falle eines Systemausfalls der Nutzer (z.B. der Fahrer oder der Überwacher einer autonom fahrenden U-Bahn) eingreifen wird und kann.

Um besser mit dieser Automatisierungslücke umgehen zu können, ist es sinnvoll, dass die Menschen besser verstehen, was das System kann und was nicht, aber ebenso das System versteht, was der Mensch kann und was nicht. Mit den Möglichkeiten der KI kann man teilautonom agierenden Systemen diese Fähigkeit zu einer zunächst rudimentären Empathie geben.

Das intelligente System ersetzt den Menschen nicht, sondern kollaboriert mit ihm als verständiger Assistent oder als gleichwertiger Teampartner. Eine sinnvolle, kompetenzbasierte Aufgabeaufteilung zwischen natürlicher und künstlicher Intelligenz verbessert Effizienz, Sicherheit und Aufgabebearbeitung. Dazu bedarf die KI (z.B. intelligente Chatbots, kooperative Roboter) eines mentalen Modells seiner menschlichen Partner, um deren Möglichkeiten und aktuellen Status erfassen zu können und angemessen („emphatisch“) zu reagieren. Man spricht dann von einem „Man – Machine Teaming“. Aber nicht nur die Maschinen müssen in diesen gemischten Teams lernen, auch die Menschen müssen das System, vor allem sein Verhalten, verstehen lernen.

Fokus und Thema von Trainings im Kontext Man – Machine Teaming müssen sein:

  • Aspekte der Kommunikation (mit den KI-Systemen)
  • Gestaltung gemeinsamer Lern-, Trainings- und Einsatzszenarien zwischen KI und Mensch
  • Vermeidung von false learning (was kann die KI, was nicht?)
  • Umgang mit der Wahrnehmung von Künstlichkeit (hinsichtlich Emotionen, Werten und ethischen Fragen)
  • Führung von gemischten Teams aus künstlich intelligenten Systemen und Menschen
  • Vor- und Nachteile der Substitution menschlicher Teammitglieder durch KI-Systeme.

Beliebte Posts aus diesem Blog

Die Psychologie und Soziologie des Wartens, der Pünktlichkeit und der Ungeduld

Warten, Pünktlichkeit und Ungeduld sind universelle menschliche Erfahrungen, die stark von kulturellen, sozialen und psychologischen Faktoren geprägt sind. In einer immer schnelllebigeren Welt wird das Warten oft als unangenehme Unterbrechung wahrgenommen, während Pünktlichkeit als Tugend gilt und Ungeduld zunehmend zum Ausdruck von Stress und Zeitdruck wird. Dieser Artikel untersucht die psychologischen und soziologischen Mechanismen, die diesen Phänomenen zugrunde liegen, und beleuchtet ihre kulturelle Dimension. Psychologie des Wartens Das Warten ist eine Erfahrung, die sowohl mit negativen Emotionen wie Frustration und Stress als auch mit positiven wie Vorfreude verbunden sein kann. Die Wahrnehmung von Wartezeiten wird durch Faktoren wie Unsicherheit, Kontrolle und die soziale Umgebung beeinflusst (Maister, 1985). Studien zeigen, dass Unsicherheit über die Dauer oder das Ergebnis eines Wartens die emotionale Belastung verstärkt (Larson, 1987). Die Psychologie des Wartens beto...

Psychologische Aspekte und der Einfluss von Künstlicher Intelligenz auf Open Innovation Einleitung

Der Begriff „Open Innovation“ beschreibt den Prozess, bei dem Unternehmen externe und interne Wissensquellen strategisch nutzen, um Innovationen zu fördern. Das Konzept, das auf Henry Chesbrough zurückgeht, erweitert das traditionelle Innovationsmanagement und integriert Wissen von Lieferanten, Partnern, Kunden und externen Quellen. Diese Offenheit erhöht das Innovationspotenzial, erfordert jedoch auch tiefgreifende Veränderungen in den Organisationsstrukturen und stellt das Unternehmen vor psychologische Herausforderungen. Der Einsatz von Künstlicher Intelligenz (KI) in Open Innovation ermöglicht zudem neue Perspektiven und hebt den Innovationsprozess auf eine neue Ebene. Psychologische Aspekte von Open Innovation 1. Motivation und Widerstände Ein entscheidender psychologischer Faktor bei der Implementierung von Open Innovation ist die Motivation der Mitarbeitenden. Traditionell wurde Innovation als ein interner Prozess betrachtet, bei dem nur die klügsten Köpfe innerhalb des Unterneh...

Satirische Diskussion zur Just Culture

In einem fiktiven Szenario treffen sich vier Fachleute aus unterschiedlichen Bereichen – ein Pilot, ein Mitarbeiter eines Kernkraftwerks, ein Chemieingenieur und ein Psychologe – zu einer Diskussionsrunde über “Just Culture”. Die Unterhaltung entwickelt sich wie folgt: Pilot : “In der Luftfahrt ist ‘Just Culture’ essenziell. Wir melden Fehler offen, um daraus zu lernen und die Sicherheit zu erhöhen.” Kernkraftwerksmitarbeiter : “Interessant. Bei uns ist das ähnlich. Allerdings bedeutet ein Fehler bei uns nicht nur eine Verspätung, sondern potenziell eine neue Sonnenaufgangszeit für die halbe Hemisphäre.” Chemieingenieur : “Bei uns in der chemischen Industrie ist ‘Just Culture’ auch wichtig. Ein kleiner Fehler, und plötzlich haben wir ein neues Loch in der Ozonschicht oder eine Stadt weniger auf der Landkarte.” Psychologe : “Faszinierend. Aus psychologischer Sicht ist es entscheidend, eine Kultur zu schaffen, in der Fehler als Lernmöglichkeiten gesehen werden, ohne Schuldzuweisu...