Das Persönlichkeitsmodell der Big Five gilt in der Psychologie als eines der robustesten und empirisch am besten abgesicherten Konzepte zur Beschreibung individueller Unterschiede (John, Naumann & Soto, 2008; McCrae & Costa, 2003). Die Dimensionen Extraversion, Verträglichkeit, Gewissenhaftigkeit, Neurotizismus und Offenheit für Erfahrungen erfassen stabile Dispositionen menschlichen Erlebens und Verhaltens, die in vielfältigen Kontexten als Prädiktoren für Leistung, Wohlbefinden oder soziale Interaktion untersucht wurden. Mit der zunehmenden Allgegenwart künstlicher Intelligenz (KI), insbesondere großer Sprachmodelle (LLMs) und darauf basierender Chatbots und Agenten, stellt sich die Frage, ob und in welchem Maße es sinnvoll ist, das Big-Five-Konzept auf diese Systeme zu übertragen.
Zunächst gilt es zu klären, dass KI-Systeme wie LLMs keine psychologischen Entitäten im klassischen Sinne darstellen. Sie verfügen weder über ein Selbstkonzept noch über ein biologisch fundiertes Motivationssystem. Vielmehr handelt es sich um statistische Modelle, die auf Basis umfangreicher Sprachdaten Wahrscheinlichkeitsverteilungen für mögliche Textfortsetzungen berechnen (Bommasani et al., 2021). Dennoch erzeugen diese Systeme in der Interaktion oft den Eindruck von „Persönlichkeit“, da sie konsistente Sprachmuster aufweisen, die menschlichen Attributen ähnlich scheinen. Studien konnten zeigen, dass LLMs in standardisierten Persönlichkeitstests wie dem NEO-PI-R bestimmte Profile hervorbringen, die teilweise dem Bild menschlicher Persönlichkeitsdimensionen entsprechen (Miotto et al., 2022). Dabei handelt es sich jedoch nicht um genuine Persönlichkeitsmerkmale, sondern um Artefakte der Trainingsdaten und der Modellarchitektur.
Die Übertragung des Big-Five-Modells auf KI kann daher aus zwei Perspektiven diskutiert werden. Erstens aus einer heuristischen Perspektive: Persönlichkeitsdimensionen können als metaphorisches Vokabular dienen, um für Anwenderinnen und Anwender verständlich zu beschreiben, wie ein System „erscheint“. So könnte ein Chatbot, der sehr elaborierte und vielfältige Antworten gibt, als „offen für Erfahrungen“ beschrieben werden, während ein System mit knappen und nüchternen Antworten als „gering extravertiert“ erscheint. Diese Zuschreibungen erleichtern die Mensch-Maschine-Interaktion, bergen jedoch die Gefahr der Anthropomorphisierung, die Erwartungen weckt, die das System nicht erfüllen kann (Epley, Waytz & Cacioppo, 2007).
Zweitens eröffnet sich eine funktionale Perspektive: Persönlichkeit kann als Designparameter genutzt werden, um Interaktionen zu gestalten. In bestimmten Anwendungsfeldern kann es sinnvoll sein, einem Agenten ein konsistentes „Persönlichkeitsprofil“ zuzuschreiben, das sich an den Big Five orientiert. Beispielsweise könnte ein virtueller Assistent in einem psychologischen Trainingsprogramm bewusst „hoch verträglich“ und „empathisch“ auftreten, um Vertrauen aufzubauen, während ein industrieller KI-Agent in einer Leitstelle „gewissenhaft“ und „emotionsarm“ konzipiert wird, um Verlässlichkeit und Präzision zu signalisieren. In solchen Fällen dient das Big-Five-Modell nicht der Diagnostik, sondern der Interfacegestaltung und Nutzererfahrung.
Die Grenzen dieser Übertragung sind jedoch offensichtlich. Da KI-Systeme keine inneren Zustände im Sinne von Emotionen oder Bedürfnissen aufweisen, kann von Persönlichkeit nur im metaphorischen Sinn gesprochen werden. Ein „neurotischer“ Chatbot existiert nicht, sondern lediglich ein System, das auf Anfragen mit Unsicherheit oder Vermeidungsstrategien reagiert, weil es entsprechend programmiert oder trainiert wurde (das muss nicht so bleiben, wie Marc-Uwe Kling in Qualityland beschreibt: Peter Arbeitsloser arbeitet dort als Maschinentherapeut und versucht, die Beziehungsprobleme von Haushaltsgeräten zu lösen).
Zudem sind Big-Five-Zuschreibungen stark kulturabhängig (Heine & Buchtel, 2009), während LLMs auf globalen Daten trainiert sind, die nicht notwendigerweise kulturelle Kohärenz im Sinne menschlicher Persönlichkeitsforschung abbilden. Schließlich besteht die Gefahr, dass Nutzerinnen und Nutzer durch die Zuschreibung von Persönlichkeit an KI-Systeme normative oder ethische Kategorien wie Verantwortlichkeit oder Vertrauen fehlleiten, was in sensiblen Bereichen wie Gesundheitswesen oder Sicherheit problematisch ist (Shneiderman, 2020).
Zusammenfassend lässt sich festhalten, dass die Anwendung des Big-Five-Konzepts auf KI-Systeme zwar nicht im ontologischen Sinn möglich ist, aber heuristisch und funktional eine gewisse Relevanz entfalten kann. Die Big Five können als sprachliche Brücke dienen, um die wahrgenommene Interaktion zu strukturieren, und als Designinstrument, um konsistente Systemprofile zu entwickeln. Gleichzeitig muss klar kommuniziert werden, dass es sich dabei um anthropomorphe Zuschreibungen handelt, nicht um genuine Persönlichkeitsmerkmale. Eine verantwortungsvolle Forschung und Praxis sollte diese Differenzierung betonen, um Missverständnisse zu vermeiden und die Chancen einer nutzerzentrierten Gestaltung von KI-Agenten mit den Grenzen ihrer psychologischen Vergleichbarkeit in Einklang zu bringen.
Literatur
Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., … & Liang, P. (2021). On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258.
Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864
Heine, S. J., & Buchtel, E. E. (2009). Personality: The universal and the culturally specific. Annual Review of Psychology, 60, 369–394. https://doi.org/10.1146/annurev.psych.60.110707.163655
John, O. P., Naumann, L. P., & Soto, C. J. (2008). Paradigm shift to the integrative Big Five trait taxonomy. In O. P. John, R. W. Robins & L. A. Pervin (Eds.), Handbook of personality: Theory and research (3rd ed., pp. 114–158). New York: Guilford Press.
McCrae, R. R., & Costa, P. T. (2003). Personality in adulthood: A Five-Factor Theory perspective (2nd ed.). New York: Guilford Press.
Miotto, R., Nguyen, P., Wang, F., Jiang, X., & Dudley, J. T. (2022). Using large language models to simulate human personality: A preliminary evaluation. Frontiers in Artificial Intelligence, 5, 930511. https://doi.org/10.3389/frai.2022.930511
Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495–504. https://doi.org/10.1080/10447318.2020.1741118