KI-Modell soll menschliches Verhalten vorhersagen

Künstliche Intelligenz (KI) in Form von Sprachmodellen scheint menschliches Verhalten immer besser abbilden zu können. Aber sind solche KI-Modelle dadurch auch in der Lage, Entscheidungen von Menschen vorherzusagen? Das wollte ein internationales Forschungsteam um das Institut für Human-Centered AI am Helmholtz Zentrum München herausfinden – und entwickelte das neue Sprachmodell Centaur.
Als Basis diente dem Team ein open-source Sprachmodell der Firma Meta AI. Die Forschenden programmierten die Centaur-KI dann mit Daten aus 160 psychologischen Experimenten. Dabei waren rund 60.000 Testpersonen Aufgaben gestellt worden. Sie sollten beispielsweise Objekte einordnen oder Entscheidungen beim Glücksspiel treffen.
Zehn Millionen Entscheidungen als KI-TrainingInsgesamt umfasst der Datensatz für Centaur mehr als zehn Millionen Entscheidungen. Mit 90 Prozent der Ergebnisdaten wurde die KI trainiert. Die Ergebnisse der restlichen zehn Prozent blieben ihr unbekannt. Mit diesen Daten testen die Forschenden dann ihr neues Sprachmodell: Würde Centaur in der Lage sein, das Verhalten der Testpersonen vorherzusagen?
Das Ergebnis: Das KI-Modell konnte die tatsächlich getroffenen Entscheidungen teilweise mit einer Genauigkeit von bis zu 64 Prozent vorhersagen. Cenatur lieferte auch dann noch gute Ergebnisse, wenn der Versuchsaufbau leicht verändert wurde – wenn es also zu Situationen Vorhersagen treffen sollte, zu denen es nicht konkret trainiert worden war.

Das Neue an Centaur sei, dass man die KI auf "Verhaltensdaten" anwenden könne, sagt Clemens Stachl, Direktor des Instituts für Verhaltenswissenschaften und Technologie, der Universität St. Gallen. "Das ist dadurch geschehen, dass die Ergebnisse aus klassischen Experimenten über Entscheidungen in Sprache übersetzt wurden."
KI-Modelle wie Centaur könnten auch jenseits der Sozial- und Verhaltenswissenschaften angewendet werden, meint Stachl. "Zum Beispiel überall da, wo menschliches Verhalten analysiert und vorhergesagt werden soll, etwa beim Einkaufen, in der Bildung oder im Militär."
Eine praktische Anwendung hält der Verhaltenswissenschaftler für offensichtlich, schließlich sei diese Art von KI-Modellen von der Industrie entwickelt worden. So komme auch bei Centaur die grundlegende Architektur von Google und die schon vortrainierte Basis von Meta.
"Wir können davon ausgehen, dass große Technologieunternehmen bereits heute ähnliche Modelle einsetzen, um unser Entscheidungsverhalten und unsere Präferenzen – etwa beim Online-Shopping oder in sozialen Medien – vorherzusagen."
Als Beispiele nennt Stachl das Sprachmodell ChatGPT und die Social-Media-Plattform Tiktok. "Diese Modelle sind inzwischen sehr gut, denken Sie hier zum Beispiel daran, wie gut Tiktok Videos vorschlägt, um Nutzer möglichst lange in der App zu halten."

Andere Experten sind der Ansicht, dass es noch eine Weile dauern dürfte, bis KI-Anwendungen wie Centaur auch außerhalb der Labore genutzt werden.
Die psychologischen Tests, mit denen die KI trainiert wurde, umfassten nur einen winzigen Ausschnitt menschlichen Verhaltens, sagt etwa Markus Langer. Er leitet die Abteilung Arbeits- und Organisationspsychologie an der Albert-Ludwigs-Universität Freiburg. "Über die Vorhersage 'natürlichen' oder 'alltäglichen' menschlichen Verhaltens sagt das erstmal nicht viel aus."
Er sieht das Hauptrisiko derartiger Forschung darin, dass die Ergebnisse überinterpretiert werden könnten - nach dem Motto: 'Wow, jetzt kann man menschliches Verhalten endlich präzise vorhersagen'. Das sei eben noch nicht der Fall, so Langer. Auch müsse man sich fragen, ob man die Genauigkeit der Vorhersagen von Centaur mit rund 64 Prozent wirklich als "gut" bewertet wolle.
Sollte KI überhaupt menschliches Verhalten deuten können?Das Centaur-Modell und die Ergebnisse der Studie seien vor allem als Beitrag zur Grundlagenforschung zu verstehen, sagt Verhaltenswissenschaftler Stachl. Modelle dieser Art könnten zwar grundsätzlich helfen, komplexe gesellschaftliche Herausforderungen zu lösen, etwa im Gesundheitsbereich.
"Gleichzeitig besteht jedoch die Gefahr, dass sie uns immer vorhersagbarer machen und in eine Form digitaler Abhängigkeit oder gar 'digitaler Sklaverei' führen." Durch unseren alltäglichen Medienkonsum und die Nutzung digitaler Technologien würden Tag für Tag neue Verhaltensdaten produziert, die zur weiteren Verbesserung solcher Modelle beitragen, so Stachl weiter.
Der Umgang mit dieser Technologie ist für den Verhaltenswissenschaftler eine Frage, die "unsere Gesellschaft als Ganzes beantworten muss. Dabei werden die Wissenschaft, aber insbesondere auch Juristinnen und Juristen sowie politische Entscheidungsträger in Zukunft stärker gefordert sein."
dw