Vous utilisez probablement l’IA de manière incorrecte (et vous ne le savez pas)

Au cœur d'un débat de plus en plus houleux sur la manière dont les algorithmes et les réseaux neuronaux façonnent le quotidien, Laura Venturini , consultante SEO et communicatrice attentive aux implications sociales de la technologie, signe un manuel qui appelle à la responsabilité collective. Son nouveau livre, « Prompt Mindset explained easily – In the era of artificial intelligence, true power is the art of asking » (Flaco Edizioni, juin 2025), examine les préjugés cachés dans les ensembles de données et montre comment ils peuvent se traduire en discrimination concrète : des systèmes de reconnaissance faciale qui commettent des erreurs sur les personnes non binaires aux logiciels de sélection du personnel critiqués pour racisme et âgisme .

Avec une préface de l'avocate et militante Cathy La Torre , Venturini met en lumière le lien entre inclusion, droits civiques et éthique de l'IA, proposant des audits de biais, un engagement direct auprès des communautés marginalisées et un nouvel « état d'esprit rapide » qui transforme chaque interaction avec la machine en une pratique d'équité. Dans l'entretien qui suit, l'auteur explique comment il est possible de passer des demandes adressées à l'IA à des questions conscientes, capables d'élargir – plutôt que de restreindre – les limites des droits de chacun.
Dans le livre, vous parlez de « Rien sur nous, sans nous » : quelle a été la leçon la plus puissante que vous ayez reçue directement d’une communauté marginalisée pendant que vous écriviez, et comment cela a-t-il changé votre approche de l’état d’esprit rapide ?
L'une des leçons les plus transformatrices m'est venue lors d'une conversation avec un activiste neurodivergent, qui m'a confié : « Nous en avons assez d'être abordés par ceux qui ne nous connaissent pas : même l'intelligence artificielle apprend à nous ignorer. » Cette phrase simple mais puissante m'a obligé à revoir mon approche de la conception des sujets d'intérêt et, plus généralement, la relation entre langage, pouvoir et technologie. Dans mes travaux sur les biais dans les systèmes génératifs, j'avais déjà observé combien les réponses produites par les LLM tendaient à refléter des stéréotypes : sur les femmes, les personnes handicapées, les minorités ethniques. Mais entendre de mes propres yeux ce que signifie être systématiquement exclu, même dans les jeux de données d'entraînement, m'a poussé à un tournant. J'ai compris que le problème est davantage un problème de sensibilisation que technique. C'est pourquoi j'ai souhaité inclure dans l'état d'esprit des sujets d'intérêt le principe « Rien sur nous, sans nous », non seulement comme slogan, mais aussi comme pratique concrète : cela signifie qu'avant de concevoir un sujet d'intérêt concernant une communauté, il est nécessaire de dialoguer avec elle. Cela signifie que le sujet d'intérêt est un exercice d'écoute active, d'empathie et de compréhension. co-création. Dans ma méthodologie, cela se traduit par une série de questions directrices : Qui parle ? Qui est entendu ? Qui reste invisible ? Et surtout : comment recadrer le sujet pour qu'il devienne un espace d'inclusion et non d'effacement ? Cette approche a radicalement transformé mon travail. Je ne recherche plus seulement le sujet « parfait » pour obtenir le meilleur résultat. Je recherche le sujet éthique, conscient et inclusif. Et j'apprends aux gens à reconnaître que chaque sujet est aussi une déclaration d'intention et un acte politique, car il façonne la façon dont les machines représentent le monde.
Si vous pouviez réimaginer un assistant vocal véritablement inclusif à partir de zéro, quelle serait la première fonctionnalité – peut-être inattendue – que vous introduiriez pour que les personnes LGBTQI+, neurodivergentes ou handicapées se sentent représentées ?
La première fonctionnalité que j'introduirais serait la possibilité pour l'utilisateur d'informer activement l'assistant sur ses propres expériences, son identité et son contexte de communication. Je ne parle pas d'un simple profil personnalisé, mais d'un canal conversationnel structuré dans lequel l'assistant interroge, écoute et apprend des expériences des autres, au lieu de tout déduire de modèles génériques ou de biais statistiques. Imaginez, par exemple, un assistant qui, avant même de répondre, demande : « Comment préférez-vous que je vous appelle ? Y a-t-il des termes que vous souhaitez que j'évite ? Quelles expériences souhaitez-vous que je reconnaisse dans ma façon de vous parler ? » Pour une personne non binaire, cela signifierait ne pas avoir à corriger l'assistante chaque fois qu'elle insiste sur les mauvais pronoms. Pour une personne neurodivergente, cela signifierait pouvoir demander des réponses moins ambiguës ou plus schématiques. Pour une personne en situation de handicap, cela signifierait entendre un langage respectueux, actuel et non pieux. En pratique, je ferais en sorte que l'assistante puisse être « formée » par les relations et le dialogue, et pas seulement par un ensemble de données, car c'est dans les relations que s'apprend le respect. Et ce processus ne devrait pas être facultatif ou « avancé », mais faire partie intégrante de l'intégration initiale, une déclaration de mission qui dit : « Votre expérience compte, aidez-moi à l'apprendre. »
Pouvez-vous nous donner un exemple pratique ?
Un assistant générique pourrait répondre à une question comme « Expliquez-moi ce qu'est l'autisme » par une définition clinique ou une liste de symptômes. En revanche, un assistant co-formé pourrait plutôt recevoir cette question relationnelle : « Expliquez l'autisme à un enfant de 10 ans, en utilisant un langage respectueux et non pathologisant, en évitant le mot « trouble ». Je préfère le présenter comme une neurodivergence plutôt que comme un déficit. » Le résultat ? Un contenu plus inclusif, mais aussi plus précis et plus humain. C'est le cœur de l'état d'esprit incitatif : passer des questions imposées à des questions conscientes. Ce n'est qu'ainsi que l'intelligence artificielle peut véritablement devenir un espace d'alliance et non d'aliénation. »
Face à un algorithme médical qui sous-estime la gravité de l’état des patients noirs, quelle forme de « contrôle ascendant » confieriez-vous à ceux qui sont directement impliqués pour renverser le rapport de force typique entre développeurs et utilisateurs ?
Je confierais le pouvoir d'interroger et de corriger le modèle à des interfaces d'audit conversationnel public, basées sur des récits élaborés par les patients eux-mêmes, leurs communautés et leurs réseaux de défense des droits. Trop souvent, les algorithmes de santé reposent sur des données historiques intrinsèquement faussées par des décennies de racisme systémique en médecine, historiquement fondées sur la norme implicite de l'homme blanc. Si ces données ne sont pas déconstruites à l'aide d'outils de lecture critique, l'algorithme ne fait qu'amplifier l'injustice avec l'autorité de la neutralité mathématique. Pour inverser ce déséquilibre, je propose une forme d'intelligence collective par la base : créer des espaces où les personnes concernées, en l'occurrence les patients noirs, peuvent voir, tester et remettre en question les résultats de l'algorithme, grâce à des outils de parole et d'action.
Donnez-nous un autre exemple.
Imaginez une plateforme où un patient peut dire : « J’ai signalé une douleur intense et persistante, mais l’algorithme a suggéré une faible priorité. J’aimerais reformuler les données en tenant compte du fait que la douleur des femmes noires est souvent sous-estimée en milieu clinique. Montrez-moi les différences si le même rapport provenait d’une femme blanche du même âge. » Il s’agit d’une invite cruciale, qui remet en question à la fois les résultats et le contexte culturel dans lequel le modèle a été entraîné. Elle permet également de mettre en évidence des biais qui, autrement, resteraient invisibles. Un véritable contrôle ascendant n’est pas seulement une question de transparence, mais aussi de possibilité de réécriture. Donner la possibilité de dialoguer avec le modèle, c’est reconnaître que les personnes victimes de discrimination ont également la compétence de l’identifier et de proposer une version alternative, plus équitable. L’invite n’est pas seulement un ordre, mais un espace de revendications. Si les données sont politiques, alors même l’invite peut devenir militante. »
Imaginez que vous passiez une minute sur scène à la World AI Developers Conference : quelle provocation lanceriez-vous pour les convaincre que la diversité dans les équipes n’est pas seulement « éthique », mais un avantage concurrentiel en termes de qualité des produits ?
Vous avez le pouvoir de concevoir ce que le monde entendra, lira et apprendra. Mais il vous manque quelque chose. Il vous manque ceux qui vivent ce monde en marge, parmi les exceptions, parmi les possibilités invisibles. Il ne suffit pas d'optimiser un modèle pour qu'il soit correct. Il faut élargir l'esprit qui l'imagine. La diversité n'est pas une case à cocher : c'est la seule technologie capable de prévenir les défaillances systémiques. Car un algorithme entraîné uniquement sur la norme échoue face à la réalité. Et la réalité n'est jamais une moyenne. Intégrez à vos équipes des personnes qui voient l'erreur avant qu'elle ne devienne un dommage. Qui lisent entre les lignes parce qu'elles vivent dans les espaces vides. Ne vous contentez pas de l'intelligence artificielle. Faites place à l'intelligence humaine. L'intelligence radicale, multiple et inconfortable. Celle qui change vraiment le monde. Car les produits qui fonctionnent vraiment naissent lorsque ceux qui conçoivent cessent de penser par eux-mêmes et commencent à construire pour tous.
Luce