Montag, 11. April 2022

Die Anfänge der Künstlichen Intelligenz – eine psychologische Perspektive

„Eine Simulation ist dem nachgeahmten Verhalten nur in gewissenGrenzen isomorphDas gegenseitige Einvernehmen besteht gewöhnlich darin, dass von der Maschine nicht verlangt wird, das Verhalten per se, sondern die Aufzeichnung des Psychologen davon zu simulieren.“ Und weiter:„Eine Simulation ist dann erfolgreich, wenn der Organismus und die Maschine vertauscht werden können, ohne dass sich spezifizierte Situationsaspekte ändern.“ (Miller, Galanter & Pribram (1973, S.51)

 


In diesem Text wird ein Blick auf das Thema „Künstliche Intelligenz“ aus psychologischer Perspektive geworfen. Zwei wichtige Themen werden dabei angesprochen, zum einen die Erfassung von Denken durch den Turing-Test, zum anderen der Eliza-Effekt, der das Phänomen benennt, dass die Möglichkeiten von Artefakten typischerweise überschätzt werden. 


Die Menschen haben sich selbst den wissenschaftlichen Namen ‚weiser Mensch‘ (Homo sapiens) gegeben, weil die intellektuellen Fähigkeiten so wichtig für das menschliche Selbstverständnis sind. Damit hebt sich der Mensch nicht nur von der Tierwelt ab, sondern auch von seinen menschlichen Vorläufern. Die Gattung Homo hat sich vor etwa fünf Millionen Jahren von der Gattung Australopithecus getrennt. Der „moderne“ Mensch Homo sapiens sapiens (besonders weise) trat vermutlich vor etwa 90000 Jahren auf. Seit dieser Zeit hat sich die biologische Grundausstattung nicht mehr wesentlich verändert. 

 

Die Evolution hat viele Millionen Jahre gebraucht, um autonome, intelligente Lebewesen zu schaffen. Die Forschung zur Künstlichen Intelligenz (KI) will dies innerhalb eines viel kürzeren Zeitraums wiederholen. KI versucht intelligente Einheiten, Agenten und Systeme, zu konstruieren. Dafür gibt es mehrere Gründe. Ein Anspruch ist, mehr über den Menschen zu erfahren. Aber anders als Philosophie und Psychologie baut die KI mehr oder weniger intelligente Systeme. Diese intelligenten Systeme sind nicht nur wissenschaftlich, sondern auch gesellschaftlich interessant. So erscheinen immer mehr Produkte auf dem Markt, die von der KI-Forschung beeinflusst sind. Diese intelligenten Produkte werden zunehmend Einfluss auf das Leben und die Zivilisation nehmen. 

 

Newell (1990) definiert Intelligenz als das Ausmaß der Annäherung eines Systems an ein knowledge-level System: Perfekte Intelligenz wird definiert als die Fähigkeit, all das Wissen, welches ein System hat, auch tatsächlich zur Problemlösung oder Zielerreichung einzusetzen.  

KI interessiert sich im Grunde für die Frage, wie es mit scheinbar unzureichender Hardware (z.B. dem langsam arbeitenden, kleinen menschlichen Gehirn, aber auch Computern) möglich ist, sinnvoll in einer komplexen Welt zu agieren. Dass dies den Menschen möglich ist und ebenfalls auch Computern - wenn auch in bescheidenen Ansätzen -, steht außer Frage. Die Evolution hat mit der Entwicklung der menschlichen Informationsverarbeitung gezeigt, welche außerordentliche Leistungen erreicht werden können. 


KI ist eine vergleichsweise junge Wissenschaft, der Gründungszeitpunkt wird üblicherweise mit der Dartmouth Konferenz von 1956 identifiziert. Die Entwicklung der Computertechnologie in den 50er Jahren führte dazu, dass die jahrtausendalte Frage nach der menschlichen Intelligenz, die bislang vor allem von Philosophen und Psychologen bearbeitet wurde, nun auch unter einem technischen Gesichtspunkt gesehen wurde. Die Euphorie war groß, man glaubte, in kürzester Zeit elektronische Supergehirne bauen zu können, die die sprichwörtliche Einsteinsche Intelligenz weit hinter sich lassen würden. Der anfängliche Optimismuss wurde nicht bestätigt, nichtsdestotrotz ist die KI heute eine etablierte Wissenschaft, die in unterschiedlichen Bereichen Anwendung findet. 

Wie aber lässt sich KI definieren? Definitionen fokussieren zumeist vier Aspekte: intelligente Denkprozesse, intelligentes Verhalten, menschliche Intelligenz, Intelligenz „per se“. 

 

  • Haugeland, 1985: „The exciting new effort to make computers think  machines with minds, in the full and literal sense”. 
  • Charniak & McDermott, 1991: „The study of mental faculties through the use of computational models”. 
  • Winston, 1992: „The study of the computations that make it possible to perceive, reason, and act”. 
  • Kurzweil, 1990: „The art of creating machines that perform functions that require intelligence when performed by people”. 
  • Rich & Knight, 1991: „The study of how to make computers do things at which, at the moment, people are better”. 
  • Schalkoff, 1990: „A field of study that seeks to explain and emulate intelligent behaviour in terms of computational processes”. 
  • Luger & Stubblefield, 1993: „The branch of computer science that is concerned with the automation of intelligent behaviour”. 

 


Aus diesen Definitionen lassen sich vier Ziele der KI ableiten. 

Die Beschäftigung mit  

  • Systemen, die sich wie Menschen verhalten; 
  • Systemen, die denken wie Menschen; 
  • Systemen, die rational denken; 
  • Systemen, die sich rational verhalten.  

Der Turing-Test ist ein Beitrag zu dem Ansatz „Systeme, die sich wie Menschen verhalten“. Dieser Test wurde von Alan Turing (1950, deutsch 1994) vorgeschlagen und ermöglicht eine operationale Definition von Denken. Das Ziel des Tests ist es, dass Menschen, die mittels eines Terminals mit zwei Partnern kommunizieren, mit diesen sprechen und diese befragen können, feststellen sollen, welcher der Gesprächspartner männlich oder weiblich ist, wobei der Mann sich verstellen, und die Frau dem Befrager helfen soll. Turing nannte den Test deshalb auch Imitationsspiel. Der Part eines der Gesprächsteilnehmer wird von einem Computer übernommen, und der Test läuft darauf hinaus, ob der Befragte den Computer als „Nichtmensch“ erkennt oder nicht. Gelingt es dem Computer, sich als Mensch auszugeben, wäre der „Intelligenztest“ bestanden.  


Ein Computer braucht eine Reihe komplexer Fähigkeiten, um den Test bestehen zu können: Kommunikationsmöglichkeit in natürlicher Sprache, Wissensrepräsentation (auch Alltagswissen), Wissensverarbeitung und Lernen. Turing sah die tatsächliche, physikalische Interaktion mit dem System als irrelevant für die Frage der Denkfähigkeit an, und deshalb sollte der menschliche Untersucher und das menschliche oder technische System nur vermittelt kommunizieren. Ein erweiterter Turing-Test verlangt darüber hinaus, dass auch die sensorischen und motorischen Fähigkeiten des Systems zu testen sind, also der Computer über Wahrnehmungs- und Handlungsmöglichkeiten verfügen musss (Computer Vision und Robotics). 

Turing wagte in dem genannten Artikel eine Prognose: „Meiner Meinung nach wird es in ca. 50 Jahren möglich sein, Rechenmaschinen mit einer ungefähren Speicherkapazität von der Größe 109 zu programmieren, die das Imitationsspiel so vollendet spielen, dass die Chancen, nach einer fünfminütigen Fragezeit die richtige Identifizierung herauszufinden, für einen durchschnittlichen Fragesteller nicht höher als sieben zu zehn stehen.“ 

Turing versucht mögliche Einwände gegen die Sinnhaftigkeit der Frage nach dem Denkvermögen von Maschinen zu begegnen. Dazu führt er verschiedene Argumente an, die möglicherweise vorgebracht werden könnten und versucht, diese zu entkräften. 


Theologischer Einwand: ‚Denken ist eine Funktion der unsterblichen menschlichen Seele. Gott gab Mann und Frau eine unsterbliche Seele, jedoch weder einem anderen Lebewesen noch einer Maschine. Insofern kann weder Tier noch Maschine denken.‘ Turing hält diese Form theologischer Einwände für überholt. 



Vogel-Strauß-Einwand:
Da die Konsequenzen denkender Maschine beängstigend sind, wollen wir lieber hoffen, dass sie dies nicht können. Turing geht auf das Argument nur in ironischer Weise ein.

 

Mathematischer Einwand: Da es mathematisch zeigbar eine Reihe von Dingen gibt, die diskrete Maschinen nicht können (z.B. Gödel Theorem), können sie im Denken dem Menschen nicht gleichen, da dieser diesen Beschränkungen nicht unterliegt. Da für den Menschen lediglich behauptet wird, dass er solchen Beschränkungen nicht unterliege und darüber hinaus das menschliche Denken trotzdem häufig fehlerhaft ist, lässt Turing dieses Argument nicht gelten. 


Bewusstseins Argument: Eine Maschine kann nur wie der Mensch denken, wenn sie wirklich weiß, was sie denkt, sich wirklich über Erfolge freut etc., und dieses nicht nur als technischen Kunstgriff eingebaut hat. Was heißt wirklich? Dieses Argument impliziert, dass man nur dann wirklich weiß, ob eine Maschine „richtig“ denkt, wenn man die Maschine selbst ist. Das gleiche Problem ergibt sich aber auch bereits bei der Frage, ob die Mitmenschen denken. Auch dies musss man seinem Gegenüber glauben, auch hier kann man prinzipiell nicht dessen Standpunkt einnehmen. 


Argument verschiedener Unfähigkeiten: Es wird argumentiert, dass eingestanden wird, dass die Maschine all das tun kann, was vorgegeben wird. Aber es gebe eine Fähigkeit X, die sie nicht habe (z.B. liebevoll sein, Erdbeereis mögen, etwas wirklich Neues tun, etc.). Turing sieht in diesem Argument zum einen eine Übergeneralisierung der Erfahrung mit Maschinen, nach dem Schema, weil ein Kühlschrank dies nicht kann, können Maschinen dies prinzipiell nicht. Zum anderen hält er dieses Argument für eine Variante des Bewusstseins Arguments. 


Lady Lovelace Einwand: Lady Lovelace liefert detaillierte Informationen zur Analytischen Maschine von Babbage. In diesem Bericht schreibt sie „Die Analytische Maschine erhebt keinen Anspruch, irgendetwas zu erzeugen. Sie kann all das tun, wofür wir die entsprechenden Durchführungsbefehle geben können.“ Der Einwand besteht in der Behauptung, dass eine Maschine nie etwas wirklich Neues tun könne, da sie nur das tut, was man ihr vorher einprogrammiert hat. Dieser Einwand ist äquivalent mit der Behauptung, dass eine Maschine einen niemals überraschen könne. Was natürlich nicht stimmt. Der typische Trugschluss, der gemacht wird, besteht darin, dass man annimmt, wenn man eine Sache verstanden hätte (z.B. den Aufbau einer Maschine), dann können auch alle Folgen vorhergesagt werden. Dies ist nachweisbar nicht richtig. 


Stetigkeit im Nervensystem: Eine Maschine, die mit diskreten Zuständen arbeitet, wie dies alle Digitalcomputer tun, ist nicht in der Lage, das Verhalten des Nervensystems nachzuahmen. Das Nervensystem arbeitet nicht digital, so dass auch keine diskreten Zustandsübergänge stattfinden. Veränderungen im Nervensystem sind stetig. An dieser Stelle müssen Maschinen scheitern, da sie mit ihrer digitalen Arbeitsweise Stetigkeit nicht abbilden können. Turing argumentiert, dass zwar ein System, welches mit stetigen Zuständen arbeitet, sich von einem solchen mit diskreten Zuständen unterscheiden wird. Dies ist aber insofern irrelevant, da sich das diskrete dem stetigen System beliebig annähern kann. 


Unmöglichkeit der Festsetzung von Verhaltensregeln: Es ist unmöglich, für alle denkbaren Situationen Verhaltensregeln aufzustellen. Weder das Verhalten des Menschen noch das einer Maschine ist durch Regeln derart bestimmt, dass für jede erdenkliche Situation eine Regel existiert. Vielmehr sind Menschen und Maschinen durch allgemeine Verhaltensgesetzmäßigkeiten determiniert, die es dem System zum einen erlauben, in verschiedenen, auch neuen Situationen zu reagieren, und die es zum anderen praktisch unmöglich machen, das Verhalten dieser Systeme vorherzusagen. 


Für Turing stellen die philosophischen Überlegungen letztlich kein Problem dar, er beschäftigt sich lieber mit der Frage, wie ein Computer für das Imitationsspiel zu programmieren wäre. Dabei führt er nicht aus, wie das Programm aussehen könnte, sondern wie das Programm in den Computer hineinkommt. Er unterstellt dabei, dass man einem solchen Computer sehr viel einprogrammieren müsse. Damit dies nicht an der Unzulänglichkeit und vor allem Langsamkeit des manuellen Programmierens scheitert, erscheint ihm die Idee einer belehrbaren Maschine am naheliegendsten. Er stellt dazu die Analogie zum lernenden Kind her, dem seiner Meinung wenig genetisch vorgegeben ist, außer den Möglichkeiten zum Lernen und Erfahrung machen. Das Kind wie der Computer seien wie ein großer Notizblock mit vielen, aber noch leeren Blättern. Turing macht es sich hier wohl zu einfach. Die Idee der Tabula Rasa hat sich als zu simples Modell menschlicher Entwicklung erwiesen. 

 

Hinsichtlich der Frage, wie Menschen mit einem Computer umgehen, und wie sie sich im Rahmen eines Turing-Tests verhalten würden, ist der sogenannte Eliza-Effekt von besonderem Interesse, da er zeigt, dass nicht nur die tatsächlichen Fähigkeiten eines Computers eine Rolle bei den Interaktionen mit Menschen spielen, sondern dass den vermeintlichen Fähigkeiten eine große Bedeutung zu kommt. 


Weizenbaum (1966) wollte mit seinem Programm Eliza im Wesentlichen den tiefen Glauben an die Möglichkeiten des Computers erschüttern. Er bildetet dazu die Argumentationsweise von Gesprächspsychotherapeuten gegenüber ihren Klienten nach. Erstaunlicherweise vertrauten aber viele Personen Eliza ihre Probleme trotz des Wissens an, dass es sich nicht um einen menschlichen Therapeuten, sondern nur um ein Computerprogramm handelt. Sie behandelten also dieses Programm bzw. den das Programm ausführenden Computer so, als habe er menschliche Fähigkeiten. Die tatsächlichen Fähigkeiten von Eliza sind sehr bescheiden. Das Programm beginnt einen Dialog über ein Computerterminal mit einer Person, wobei Eliza den Part des Gesprächstherapeuten einnimmt. Die Sätze, die Eliza formuliert, sind entweder Paraphrasierungen der Sätze des „Klienten“ (diese Paraphrasierungen sind in der englischen Sprache relativ simpel zu programmieren), Standardsätze, die in Hinblick auf ein Schlüsselwort im Satz des „Klienten“ ausgewählt wurden oder belanglose Floskeln. 

Nachfolgend ist ein kurzer Ausschnitt aus einem „Gespräch“ mit Eliza wiedergegeben. Elizas Fragen beginnen unmittelbar am Anfang der Zeile, die Antworten des „Klienten“ beginnen mit „>„. 

 

Hello. I am Eliza. How can I help you? 

> Yes. I am Harald. 

 

You seem quite positive. 

> Yes and no. I would like to talk about computers. 

 

Do computers worry you? 

> Not really. 

 

I am not sure I understand you fully. 

> Computers are not a problem for me. 

 

Why do you mention computers? 

> I think, you are a computer. 

 

What do you think machines have to do with your problem? 

 


Eliza sucht nach Schlüsselworten und bildet daraus mehr oder weniger sinnvolle Sätze. Eine Regel von Eliza könnte z.B. folgendermaßen aussehen: 

 

rules([[remember,5],[ 

[1,[_,you,remember,Y],0, 

[do,you,often,think,of,Y,?], 

[does,thinking,of,Y,bring,anything,else,to,mind,?], 

[what,else,do,you,remember,?], 

[why,do,you,remember,Y,just,now,?], 

[what,in,the,present,situation,reminds,you,of,Y,?], 

[what,is,the,connection,between,me,and,Y,?]], 

[2,[_,do,i,remember,Y],0, 

[did,you,think,'I',would,forget,Y,?], 

[why,do,you,think,i,should,recall,Y,now,?], 

[what,about,Y,?], 

[equal,[what,0]], 

[you,mentioned,Y,.]]. 

 

Dies bedeutet, wenn das Wort „remember“ gefunden wird und eines der weiteren Schlüsselworte in den Mustersätzen ([_,you,remember,Y] bzw. [_,do,i,remember,Y]) vorhanden ist, kann eine entsprechende Antwort erzeugt werden, wobei das Substantiv an der Stelle Y übernommen wird, und so scheinbar der semantische Bezug zur Aussage des Klienten hergestellt ist. 

 

> Sometimes I remember Eliza. 

Do you often think of Eliza? 

 

Eliza versteht also definitiv nichts. Typischerweise gibt es keine gut funktionierende, deutsche Eliza-Version, da in der deutschen Sprache die Wortersetzung, die Eliza verwendet, auf Grund der komplizierteren Grammatik nicht funktioniert. Eliza ordnet die Schlüsselworte des Klienten über eine Tabelle mit Regeln und einem Zufallsgenerator einer Standardphrase zu und gibt diese aus. Diese Tabelle stellt die beliebig veränderbare Wissensbasis von Eliza dar. Eliza ist sicher nicht künstlich intelligent (je nachdem, was man unter Intelligenz verstehen will). Aber der Eliza-Effekt zeigt deutlich, wie Menschen mit anderen kommunizieren: Menschen neigen offensichtlich dazu, sehr viel in den anderen hineinzuinterpretieren. Der Eliza-Effekt tritt auf, obschon die Leute im Prinzip um die rudimentären Fähigkeiten wissen.  

Weizenbaum hat dieser Effekt sehr nachhaltig beschäftigt, und er widmete sich der Aufgabe, vor allzu großer Leichtgläubigkeit gegenüber Computer zu warnen. Betrachtet man den Siegeszug der Computer, haben seine Warnungen offensichtlich kaum auf die Entwicklung im Computerbereich gewirkt. 

 

Der Ansatz des kognitiven Modellierens verfolgt die Idee, Systeme zu konstruieren, die wie Menschen denken. Dieser Versuch steht vor einer schwierigen Frage: Wie denken Menschen? Das diesbezügliche Wissen aus Introspektion und psychologischen Experimenten ist eher gering. In der KI wird u.a. versucht, allgemeine Problemlösemethoden zu finden, die unabhängig von dem jeweiligen Realitätsbereich sind (‚domain independent’). Die Arbeitsgruppen um Allen Newell und Herbert Simon haben diesen Ansatz begonnen und bis heute weitergeführt (vergl. auch Newell, 1973b). 


Newell & Simon (1963, auch Ernst & Newell 1969), stellten den Allgemeinen Problemlöser vor (General Problem Solver, GPS). Die Idee bei diesem System ist, Probleme als allgemeine Transformationen mittels einer bestimmten Menge von Regeln zwischen Zuständen zu konzeptualisieren. Sogar die Weiterentwicklung von GPS selbst wurde als ein in dieser Form darstellbares Problem thematisiert. GPS war, gemessen an dem Ziel eines Allgemeinen Problemlösers, kein Erfolg, da sich die unterschiedlichen Probleme der realen Welt nicht in einfacher Transformation formaler Ausdrücke abbilden lassen. Trotzdem war der GPS das erste System, welches in der Tat die allgemeine Problemstruktur aus Zielen, Zwischenzielen und Transformationen von dem konkreten Realitätsbereich trennte.  

Der GPS hat sehr nachhaltig die KI und die Kognitive Psychologie beeinflusst mit den zentralen Konzepten und Ideen, die Newell und Simon verwendeten. Diese sind:  

  • die Implementierung einer psychologischen Theorie als Computersimulationsprogramm, 
  • die Verwendung von Produktionen (wenn-dann-Regeln) zur Spezifikation kognitiver Modelle und  
  • die Konzeptualisierung psychischer Prozesse als Informationsverarbeitungsprozesse, die Verhalten als Funktion von Gedächtnis- und Kontrollprozessen beschreiben. 
  • Auch die Methode zur Überprüfung war innovativ, nämlich der Vergleich des Verhaltens der Computersimulation psychischer Prozesse mit menschlichem Verhalten bei der gleichen Aufgabe. 

 

Mit dem GPS wurde versucht, eine basale Menge von Prozessen zu definieren, die bei möglichst vielen, unterschiedlichen Problemen zum Einsatz kommen können. Eine der Schwierigkeiten dabei ist die Definition des Problemraums (‚problem space’, s. auch Klix, 1971), der durch das zu erreichende Ziel und die möglichen Transformationen festgelegt ist. Zum Durchschreiten dieses Problemraums verwendete GPS die Mittel-Ziel-Analyse (‚means-end-analysis’). Bei der Mittel-Ziel-Analyse wird das Endziel, wenn es nicht direkt erreicht werden kann, in Zwischenziele zerlegt, die dann nacheinander gelöst werden. Dabei werden einige basale Lösungsregeln verwendet, z.B. ‚wandle ein Objekt in ein anderes um‘; ‚reduziere die Unterschiede zwischen zwei Objekten‘; ‚wende einen Operator auf ein Objekt an‘. Eines der zentralen Elemente des GPS ist eine Operatortabelle, die angibt, welche Operatoren in der gegebenen Situation mit welchem Ergebnis möglich sind. 

Obwohl der GPS als Allgemeiner Problemlöser gedacht war, läßt er sich im Grunde nur auf wohldefinierte Probleme, wie Logik- oder Geometrieaufgaben oder Schach anwenden. 

Newell hat die Idee allerdings nie aufgegeben. Auch der Nachfolger des GPS, Soar (Laird, Newell & Rosenbloom, 1987), versucht, ein Allgemeiner Problemlöser zu sein, allerdings mit einer elaborierten Darstellung von Situationen und Zuständen. 



Der wichtigste Beitrag der KI-Forschung zur Theorienbildung für psychologische Phänomene ist die Konzeptualisierung psychischer Prozesse als Informationsverarbeitungsprozesse und die Möglichkeit der Implementierung psychologischer Theorien als Computersimulationsprogramme.