Direkt zum Hauptbereich

Big Five und künstliche Intelligenz – Sinn, Grenzen und Perspektiven


Das Persönlichkeitsmodell der Big Five gilt in der Psychologie als eines der robustesten und empirisch am besten abgesicherten Konzepte zur Beschreibung individueller Unterschiede (John, Naumann & Soto, 2008; McCrae & Costa, 2003). Die Dimensionen Extraversion, Verträglichkeit, Gewissenhaftigkeit, Neurotizismus und Offenheit für Erfahrungen erfassen stabile Dispositionen menschlichen Erlebens und Verhaltens, die in vielfältigen Kontexten als Prädiktoren für Leistung, Wohlbefinden oder soziale Interaktion untersucht wurden. Mit der zunehmenden Allgegenwart künstlicher Intelligenz (KI), insbesondere großer Sprachmodelle (LLMs) und darauf basierender Chatbots und Agenten, stellt sich die Frage, ob und in welchem Maße es sinnvoll ist, das Big-Five-Konzept auf diese Systeme zu übertragen.

Zunächst gilt es zu klären, dass KI-Systeme wie LLMs keine psychologischen Entitäten im klassischen Sinne darstellen. Sie verfügen weder über ein Selbstkonzept noch über ein biologisch fundiertes Motivationssystem. Vielmehr handelt es sich um statistische Modelle, die auf Basis umfangreicher Sprachdaten Wahrscheinlichkeitsverteilungen für mögliche Textfortsetzungen berechnen (Bommasani et al., 2021). Dennoch erzeugen diese Systeme in der Interaktion oft den Eindruck von „Persönlichkeit“, da sie konsistente Sprachmuster aufweisen, die menschlichen Attributen ähnlich scheinen. Studien konnten zeigen, dass LLMs in standardisierten Persönlichkeitstests wie dem NEO-PI-R bestimmte Profile hervorbringen, die teilweise dem Bild menschlicher Persönlichkeitsdimensionen entsprechen (Miotto et al., 2022). Dabei handelt es sich jedoch nicht um genuine Persönlichkeitsmerkmale, sondern um Artefakte der Trainingsdaten und der Modellarchitektur.

Die Übertragung des Big-Five-Modells auf KI kann daher aus zwei Perspektiven diskutiert werden. Erstens aus einer heuristischen Perspektive: Persönlichkeitsdimensionen können als metaphorisches Vokabular dienen, um für Anwenderinnen und Anwender verständlich zu beschreiben, wie ein System „erscheint“. So könnte ein Chatbot, der sehr elaborierte und vielfältige Antworten gibt, als „offen für Erfahrungen“ beschrieben werden, während ein System mit knappen und nüchternen Antworten als „gering extravertiert“ erscheint. Diese Zuschreibungen erleichtern die Mensch-Maschine-Interaktion, bergen jedoch die Gefahr der Anthropomorphisierung, die Erwartungen weckt, die das System nicht erfüllen kann (Epley, Waytz & Cacioppo, 2007).

Zweitens eröffnet sich eine funktionale Perspektive: Persönlichkeit kann als Designparameter genutzt werden, um Interaktionen zu gestalten. In bestimmten Anwendungsfeldern kann es sinnvoll sein, einem Agenten ein konsistentes „Persönlichkeitsprofil“ zuzuschreiben, das sich an den Big Five orientiert. Beispielsweise könnte ein virtueller Assistent in einem psychologischen Trainingsprogramm bewusst „hoch verträglich“ und „empathisch“ auftreten, um Vertrauen aufzubauen, während ein industrieller KI-Agent in einer Leitstelle „gewissenhaft“ und „emotionsarm“ konzipiert wird, um Verlässlichkeit und Präzision zu signalisieren. In solchen Fällen dient das Big-Five-Modell nicht der Diagnostik, sondern der Interfacegestaltung und Nutzererfahrung.

Die Grenzen dieser Übertragung sind jedoch offensichtlich. Da KI-Systeme keine inneren Zustände im Sinne von Emotionen oder Bedürfnissen aufweisen, kann von Persönlichkeit nur im metaphorischen Sinn gesprochen werden. Ein „neurotischer“ Chatbot existiert nicht, sondern lediglich ein System, das auf Anfragen mit Unsicherheit oder Vermeidungsstrategien reagiert, weil es entsprechend programmiert oder trainiert wurde (das muss nicht so bleiben, wie Marc-Uwe Kling in Qualityland beschreibt: Peter Arbeitsloser arbeitet dort als Maschinentherapeut und versucht, die Beziehungsprobleme von Haushaltsgeräten zu lösen).

 Zudem sind Big-Five-Zuschreibungen stark kulturabhängig (Heine & Buchtel, 2009), während LLMs auf globalen Daten trainiert sind, die nicht notwendigerweise kulturelle Kohärenz im Sinne menschlicher Persönlichkeitsforschung abbilden. Schließlich besteht die Gefahr, dass Nutzerinnen und Nutzer durch die Zuschreibung von Persönlichkeit an KI-Systeme normative oder ethische Kategorien wie Verantwortlichkeit oder Vertrauen fehlleiten, was in sensiblen Bereichen wie Gesundheitswesen oder Sicherheit problematisch ist (Shneiderman, 2020).

Zusammenfassend lässt sich festhalten, dass die Anwendung des Big-Five-Konzepts auf KI-Systeme zwar nicht im ontologischen Sinn möglich ist, aber heuristisch und funktional eine gewisse Relevanz entfalten kann. Die Big Five können als sprachliche Brücke dienen, um die wahrgenommene Interaktion zu strukturieren, und als Designinstrument, um konsistente Systemprofile zu entwickeln. Gleichzeitig muss klar kommuniziert werden, dass es sich dabei um anthropomorphe Zuschreibungen handelt, nicht um genuine Persönlichkeitsmerkmale. Eine verantwortungsvolle Forschung und Praxis sollte diese Differenzierung betonen, um Missverständnisse zu vermeiden und die Chancen einer nutzerzentrierten Gestaltung von KI-Agenten mit den Grenzen ihrer psychologischen Vergleichbarkeit in Einklang zu bringen.

Literatur

Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., … & Liang, P. (2021). On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258.

Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864

Heine, S. J., & Buchtel, E. E. (2009). Personality: The universal and the culturally specific. Annual Review of Psychology, 60, 369–394. https://doi.org/10.1146/annurev.psych.60.110707.163655

John, O. P., Naumann, L. P., & Soto, C. J. (2008). Paradigm shift to the integrative Big Five trait taxonomy. In O. P. John, R. W. Robins & L. A. Pervin (Eds.), Handbook of personality: Theory and research (3rd ed., pp. 114–158). New York: Guilford Press.

McCrae, R. R., & Costa, P. T. (2003). Personality in adulthood: A Five-Factor Theory perspective (2nd ed.). New York: Guilford Press.

Miotto, R., Nguyen, P., Wang, F., Jiang, X., & Dudley, J. T. (2022). Using large language models to simulate human personality: A preliminary evaluation. Frontiers in Artificial Intelligence, 5, 930511. https://doi.org/10.3389/frai.2022.930511

Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495–504. https://doi.org/10.1080/10447318.2020.1741118



 

Beliebte Posts aus diesem Blog

Die Psychologie und Soziologie des Wartens, der Pünktlichkeit und der Ungeduld

Warten, Pünktlichkeit und Ungeduld sind universelle menschliche Erfahrungen, die stark von kulturellen, sozialen und psychologischen Faktoren geprägt sind. In einer immer schnelllebigeren Welt wird das Warten oft als unangenehme Unterbrechung wahrgenommen, während Pünktlichkeit als Tugend gilt und Ungeduld zunehmend zum Ausdruck von Stress und Zeitdruck wird. Dieser Artikel untersucht die psychologischen und soziologischen Mechanismen, die diesen Phänomenen zugrunde liegen, und beleuchtet ihre kulturelle Dimension. Psychologie des Wartens Das Warten ist eine Erfahrung, die sowohl mit negativen Emotionen wie Frustration und Stress als auch mit positiven wie Vorfreude verbunden sein kann. Die Wahrnehmung von Wartezeiten wird durch Faktoren wie Unsicherheit, Kontrolle und die soziale Umgebung beeinflusst (Maister, 1985). Studien zeigen, dass Unsicherheit über die Dauer oder das Ergebnis eines Wartens die emotionale Belastung verstärkt (Larson, 1987). Die Psychologie des Wartens beto...

Psychologische Aspekte und der Einfluss von Künstlicher Intelligenz auf Open Innovation Einleitung

Der Begriff „Open Innovation“ beschreibt den Prozess, bei dem Unternehmen externe und interne Wissensquellen strategisch nutzen, um Innovationen zu fördern. Das Konzept, das auf Henry Chesbrough zurückgeht, erweitert das traditionelle Innovationsmanagement und integriert Wissen von Lieferanten, Partnern, Kunden und externen Quellen. Diese Offenheit erhöht das Innovationspotenzial, erfordert jedoch auch tiefgreifende Veränderungen in den Organisationsstrukturen und stellt das Unternehmen vor psychologische Herausforderungen. Der Einsatz von Künstlicher Intelligenz (KI) in Open Innovation ermöglicht zudem neue Perspektiven und hebt den Innovationsprozess auf eine neue Ebene. Psychologische Aspekte von Open Innovation 1. Motivation und Widerstände Ein entscheidender psychologischer Faktor bei der Implementierung von Open Innovation ist die Motivation der Mitarbeitenden. Traditionell wurde Innovation als ein interner Prozess betrachtet, bei dem nur die klügsten Köpfe innerhalb des Unterneh...

Der Barnum-Effekt – Psychologische Mechanismen selektiver Selbsttäuschung

Der Barnum-Effekt beschreibt die Tendenz von Menschen, unspezifische und allgemein gehaltene Aussagen über ihre Persönlichkeit als zutreffend zu akzeptieren. Dieser Effekt spielt eine zentrale Rolle in der Erklärung, warum Menschen an pseudowissenschaftliche Verfahren wie Horoskope, Graphologie oder bestimmte Persönlichkeitstests glauben. Der vorliegende Beitrag beleuchtet die kognitiven, affektiven und sozialen Mechanismen hinter dem Effekt, diskutiert seine empirische Basis und zeigt Implikationen für Beratung, Diagnostik und KI-gestützte Systeme auf. 1. Einleitung „Sie sind eher introvertiert, schätzen jedoch gute Gespräche. Manchmal zweifeln Sie an sich, wirken nach außen aber sicher.“ – Aussagen wie diese erscheinen individuell, treffen jedoch statistisch auf fast jede Person zu. Der Barnum-Effekt – benannt nach dem amerikanischen Zirkusunternehmer P. T. Barnum, der angeblich „für jeden etwas“ im Programm hatte – beschreibt genau dieses psychologische Phänomen. Ursprünglich wur...