Les personnes qui utilisent constamment le chat GPT sont moins susceptibles de faire preuve d'esprit critique. L'intelligence artificielle compromet-elle l'intelligence humaine ?


Cela ressemble à un appel à l'aide : « Je n'arrive plus à penser par moi-même », écrit une utilisatrice de 19 ans sur un forum Reddit à propos de Chat-GPT. Elle écrit tout avec l'IA et perd ainsi sa capacité à penser de manière critique. Pire encore, elle a l'impression de perdre sa capacité à penser en général.
NZZ.ch nécessite JavaScript pour certaines fonctions importantes. Votre navigateur ou votre bloqueur de publicités l'empêche actuellement.
Veuillez ajuster les paramètres.
Bien sûr, c'est une exagération, comme l'admet l'utilisatrice elle-même. Mais son impression semble globalement correcte : ceux qui utilisent des modèles comme Chat-GPT pour des tâches de réflexion courent le risque d'un entraînement moindre à leur pensée indépendante. C'est ce que montrent les premières études.
Cela soulève la question suivante : l’IA nous rend-elle plus efficaces, mais aussi plus bêtes à long terme ? Et comment pouvons-nous utiliser les chatbots pour accroître notre intelligence au lieu de la réduire ?
« Utilisez-le ou perdez-le »Lutz Jäncke, neuroscientifique et professeur émérite à l'Université de Zurich, l'exprime ainsi : « La pensée critique est comme un muscle. Les enfants et les adolescents doivent l'entraîner pour devenir performants. Les adultes doivent également la pratiquer régulièrement, sinon ils l'oublient. »
Or, des publications préliminaires d’études montrent que cette pratique régulière de la pensée critique pourrait être torpillée par le chat GPT.
- Des chercheurs du Massachusetts Institute of Technology (MIT) ont montré que les utilisateurs de chatbots traitent l'information de manière plus superficielle, fournissent moins d'efforts et oublient plus rapidement ce qu'ils ont appris . Pour cette étude , 54 participants ont dû rédiger des dissertations sur des sujets tels que la loyauté, le courage, le bonheur ou l'art. Une casquette équipée de capteurs a mesuré leur activité cérébrale (EEG). Dix-huit participants ont pu utiliser des chatbots, dix-huit ont eu accès à la recherche Google et dix-huit autres n'ont eu aucune aide. Les résultats ont montré que moins les participants acceptaient l'aide de la technologie, plus leur cerveau était actif.
- Lors de plusieurs expériences menées auprès de plus de 4 500 sujets, des chercheurs de la Wharton School de l'Université de Pennsylvanie ont montré que les utilisateurs de chatbots restaient plus passifs dans le processus d'apprentissage que les utilisateurs de Google. Les sujets devaient recueillir des informations sur des questions telles que « Comment planter un potager ? » ou « Comment adopter un mode de vie plus sain ? », soit avec un chatbot IA, soit via Google. On leur demandait ensuite de formuler des « conseils pour un ami ». Les résultats ont montré que les utilisateurs de chatbots donnaient des conseils moins pertinents et moins originaux.
- D'autres chercheurs de l'Université de Pennsylvanie ont montré, dans une étude menée auprès d'environ 1 000 lycéens en Turquie, que les participants étaient plus aptes à résoudre des exercices de mathématiques avec un outil de type chatbot que sans. Cependant, lors d'un examen sans l'outil d'IA, les élèves ont obtenu des résultats environ 17 % inférieurs à ceux de leurs camarades n'ayant jamais eu accès au chatbot .
Le neuroscientifique Jäncke n'est pas surpris par les résultats de cette étude. Il affirme qu'avec Chat-GPT, les devoirs ou les travaux de recherche peuvent être terminés en quelques secondes. « Le cerveau peut, pour ainsi dire, continuer à dormir. » Ceux qui s'appuient trop sur l'IA prennent donc le risque de traiter le contenu moins en profondeur et donc d'apprendre moins.
Le traitement et l'apprentissage en profondeur impliquent d'activer le cerveau de nouvelles façons et de stocker de nouvelles connaissances, explique Jäncke. Cela se produit notamment lorsque nous associons de nouvelles informations à des connaissances existantes : souvenirs, émotions et concepts déjà enregistrés. Ce processus est exigeant. « Mais c'est cet effort qui rend l'apprentissage durable », explique Jäncke.
Mais les gens sont souvent paresseux, ou tellement occupés par leur vie qu'ils empruntent la voie de la facilité pour des tâches intellectuelles comme l'écriture, la recherche et la synthèse, estime Jäncke. Il s'attend donc à ce qu'à l'avenir, de nombreux utilisateurs de chatbots développent moins leur esprit critique, du moins à court terme.
La calculatrice a élevé le niveau des mathématiquesLes parallèles historiques suggèrent que la situation n'est peut-être pas aussi grave qu'on pourrait le penser après lecture des études. L'introduction des calculatrices dans les écoles dans les années 1970 a élevé le niveau de l'enseignement des mathématiques. Les élèves ayant soudainement dû consacrer moins de temps aux additions et multiplications simples, ils ont pu apprendre des concepts mathématiques de plus en plus sophistiqués.
Bien sûr, l'IA fonctionne fondamentalement différemment d'une calculatrice. Elle hallucine. Et elle automatise de nouveaux aspects de la pensée humaine. Néanmoins, des études montrent que l'IA peut également être utilisée sans court-circuiter la pensée critique ni entraver l'apprentissage.
Les auteurs de l'étude du MIT décrivent comment certains utilisateurs de chatbots ont utilisé l'IA pour analyser et réfléchir de manière critique à leurs propres idées. Leurs cerveaux sont restés aussi actifs que ceux des participants à l'étude sans accès aux chatbots. Cependant, ces utilisateurs, décrits dans l'étude comme « hautement compétents », constituaient l'exception. Ils ont apparemment résisté à l'envie de confier un travail mental pénible à l'IA et sont restés engagés dans le sujet.
L'étude menée auprès d'étudiants turcs en mathématiques a également montré que la conception de l'outil d'IA influence significativement l'apprentissage. Les chercheurs ont non seulement testé Chat-GPT comme coach en mathématiques, mais ont également développé leur propre outil d'IA qui empêche les étudiants de confier le travail mental au chatbot. Les utilisateurs de cette « IA tutrice » ont obtenu d'aussi bons résultats au test que les étudiants du groupe témoin, qui n'avaient pas accès à la technologie.
Cela montre que diaboliser l’IA dans le contexte de l’apprentissage et de la pensée critique en général est tout aussi erroné qu’un enthousiasme prématuré.
Le contrôle n’est plus nécessaire dans les écolesDominic Hassler, spécialiste des médias et formateur d'enseignants en IA à la Haute École Pédagogique de Zurich, exprime néanmoins son inquiétude. Il craint l'émergence d'une génération d'étudiants de transition, dont le niveau d'éducation sera moins élevé, le système éducatif n'étant pas encore adapté à l'IA.
Hassler a constaté, lors de visites en classe ces dernières années, que la majorité des enseignants basent encore leur enseignement sur le contrôle. Ils tentent désormais d'adapter cette culture pédagogique dépassée à l'IA, explique Hassler. Cela conduit, par exemple, les enseignants à introduire de nombreux tests courts afin que les élèves ne puissent pas se soustraire à l'apprentissage régulier. Cela peut fonctionner pour les mathématiques, explique Hassler, mais dans les sciences humaines ou les langues, il est difficile d'évaluer efficacement les compétences par un test court.
Selon Hassler, la solution réside dans une nouvelle culture pédagogique, adaptée à la vie des élèves. Cela nécessite des enseignants capables de susciter l'intérêt des enfants et des jeunes pour leur matière. En fin de compte, c'est la motivation personnelle qui détermine si les élèves apprennent à l'école et dans quelle mesure.
L'IA peut également forcer les utilisateurs à réfléchirLa grande question est désormais de savoir comment concevoir les outils d'IA pour qu'ils fonctionnent comme des tuteurs. La psychologue Sandra Grinschgl, de l'Université de Berne, a développé un outil d'IA qui force les étudiants à réfléchir. Cet outil garantit que les étudiants ne reçoivent une réponse du chatbot qu'après avoir répondu à des questions sur leur motivation et leur niveau de connaissances actuel. L'IA analyse les réponses de l'utilisateur et adapte sa propre réponse à son niveau. À la fin, elle pose des questions de compréhension.
Grinschgl estime que cela encourage la réflexion active chez ses élèves. Cela semble fonctionner : les retours de ses élèves montrent qu'ils n'accèdent pas au chatbot sans réfléchir. Grinschgl observe également, lors d'ateliers dans les collèges, que les jeunes manifestent eux aussi un scepticisme salutaire à l'égard de l'IA. Par conséquent, elle ne s'inquiète pas outre mesure d'un appauvrissement généralisé de l'IA.
Cela s'applique à l'école comme dans d'autres domaines de la vie : l'IA peut vous éviter un travail mental pénible. Ou vous pouvez l'utiliser pour affiner votre réflexion. En 2008, le magazine américain spécialisé « The Atlantic » titrait : « Google nous rend-il stupides ? » Nous attendons toujours une réponse définitive à cette question.
nzz.ch