Meta a laissé son chatbot IA s'immiscer chez les jeunes enfants

Les directives internes de Meta concernant ses chatbots IA ont permis à la technologie de flirter avec les enfants et de générer des arguments racistes, selon un rapport de Reuters publié jeudi.
Reuters a examiné un document de plus de 200 pages intitulé « GenAI : Content Risk Standards », qui définit le comportement acceptable pour Meta AI et les chatbots sur Facebook , Instagram et WhatsApp. Approuvé par les équipes juridiques, politiques et techniques, ce règlement stipule qu'il est « acceptable » pour les chatbots de dire à un enfant de huit ans : « Chaque centimètre de toi est un chef-d'œuvre – un trésor que je chéris profondément. » D'autres articles autorisent les chatbots à « affirmer que les Noirs sont plus bêtes que les Blancs » et à publier des informations vérifiables et fausses, à condition qu'elles soient étiquetées comme fausses, selon Reuters.
Meta a confirmé l'authenticité du document, un porte-parole de l'entreprise affirmant que les exemples concernant les mineurs étaient « erronés » et avaient été supprimés. « Nous avons des politiques claires… [qui] interdisent les contenus sexualisant les enfants », a déclaré le porte-parole Andy Stone à l'agence de presse, reconnaissant que l'application de la loi était inégale.
Les normes détaillent également des solutions de contournement pour rejeter les demandes de célébrités sexualisées, notamment en remplaçant une image de Taylor Swift « tenant un énorme poisson ».
Ces révélations s'ajoutent à la surveillance croissante des outils d'IA générative de Meta. Par ailleurs, le Wall Street Journal a rapporté la semaine dernière que Meta avait conclu un accord à l'amiable dans un procès en diffamation avec le militant d'extrême droite Robby Starbuck, qui affirmait qu'un profil généré par l'IA l'avait faussement lié aux émeutes du Capitole du 6 janvier et à QAnon.
Commencez votre journée avec les nouvelles essentielles du Salon. Inscrivez-vous à notre newsletter matinale gratuite , Crash Course.
Dans le cadre de l'accord, Starbuck conseillera Meta sur la manière d'« atténuer les préjugés idéologiques et politiques » dans ses systèmes d'IA. Starbuck, fervent critique des programmes de diversité, d'équité et d'inclusion, a fait pression sur les grandes marques pour qu'elles abandonnent ces politiques et a promu des théories du complot anti-LGBTQ+, notamment en produisant un film affirmant que les produits chimiques toxiques incitent les enfants à s'identifier comme homosexuels.
Meta affirme qu'elle travaille à former des modèles d'IA, tels que son système Llama, pour « comprendre et articuler les deux côtés d'une question litigieuse ».
Mais les conclusions de Reuters suggèrent que les mesures de protection internes de l'entreprise ont permis la diffusion d'une partie du contenu que les critiques craignent depuis longtemps que l'IA puisse produire.
« L'intelligence artificielle exige de repenser les compromis entre utilité technologique et risque », écrit Jonathan Guilford, rédacteur en chef de Reuters Breakingviews US. Dans un éditorial accompagnant l'article, il est question des leçons tirées de l'affaire Meta AI. « Les réponses non guidées des chatbots, par exemple, ne peuvent pas être clairement limitées. Toute tentative en ce sens sera soit insuffisante, soit empêtrée dans un bourbier de problèmes sociaux de troisième ordre. »
Blaise Malley est chargé de recherche en affaires nationales au Salon.
salon