Centaur, l’IA qui prétend simuler l’esprit humain

Des chercheurs assurent que le grand modèle de langage qu’ils ont entraîné grâce à des centaines d’études en psychologie est capable de prédire les décisions que prennent les gens. Pour d’autres, prédire ne sert pas à grand-chose. Ce qu’il faudrait c’est comprendre l’esprit humain… On n’y est pas encore.
“Une nouvelle intelligence artificielle est désormais capable de prédire les décisions que prennent les gens, et ce, dans de nombreuses situations. Et souvent elle fait mieux que les théories classiques utilisées en psychologie pour comprendre les motivations de nos choix”, commence Nature dans un article destiné au grand public.
C’est dans cette revue à comité de lecture qu’ont été publiés, le 2 juillet, les détails du système d’IA baptisé Centaur développé par une équipe de chercheurs venus d’Allemagne, des États-Unis et du Royaume-Uni. Centaur peut “prédire et simuler le comportement humain quelle que soit l’expérience en langage naturel”, écrivent les auteurs de l’étude.
Pour mettre au point cette IA – disponible en accès libre – les chercheurs sont partis d’un grand modèle de langage pré-entraîné de Meta AI, LLaMA, disponible en open source, qu’ils ont façonné à l’aide du jeu de données Psych-101. Il s’agit d’un large ensemble d’informations issues de 160 expériences de psychologie pour lesquelles 60 000 personnes ont effectué plus de 10 millions de choix répartis sur plusieurs types de tâches.
“Les chercheurs ont conçu ce modèle pour prédire non seulement quel comportement est en général adopté pour une tâche donnée, mais aussi tout
Courrier International