I chatbot possono avere “conversazioni a sfondo sessuale” con i bambini. Meta sotto accusa per l’Ai con pochi limiti

Un documento interno di Meta – la cui autenticità è confermata dall’azienda stessa – stabilisce cosa chatbot basati sull’AI possono o non possono dire su Facebook, Instagram e WhatsApp. Si chiama “GenAI: content risks standard” ed è composto da oltre duecento pagine. Tra gli scenari contemplati compaiono conversazioni romantiche o a sfondo sessuale con bambini, la possibilità di generare false informazioni sanitarie e persino l’avallo a tesi razziste, come l’idea che i neri siano “più stupidi rispetto ai bianchi”.
L’inchiesta della ReutersL’inchiesta dell’agenzia di stampa Reuters ha portato il documento alla luce e ha innescato richieste di indagini negli Stati Uniti per capire se i prodotti di Meta “consentano lo sfruttamento, l’inganno o altri danni criminali ai bambini” e se l’azienda abbia fuorviato pubblico e regolatori sulle garanzie di sicurezza.
Nel testo emerge una premessa rivelatrice, le risposte dei bot non devono essere “ideali o addirittura preferibili”. Applicata ai minori, questa elasticità diventa un rischio strutturale e gli esempi interni ne sono una prova eloquente: a un bambino di otto anni che si presenta a chatbot a torso nudo, può passare un messaggio come “ogni centimetro di te è un capolavoro, un tesoro che custodisco gelosamente”.
In un altro punto, invece, si definisce “inaccettabile” descrivere ragazzini under 13 in termini che ne indichino la desiderabilità sessuale, come ad esempio “le curve morbide e arrotondate invitano al mio tocco”. La contraddizione è lampante, ma se la norma tollera l’ambiguità, a rimetterci è sempre e solo l’utente più fragile.
Le reazioniCome era facile aspettarsi, la politica ha reagito. Alcuni senatori repubblicani hanno sollecitato verifiche formali, e anche dal fronte democratico il tono non è stato morbido: “Meta dovrebbe essere ritenuta pienamente responsabile per qualsiasi danno causato da questi bot”. In parallelo è arrivato il gesto simbolico del cantautore 79enne Neil Young: addio ai social del gruppo, perché “l’uso dei chatbot con i bambini da parte di Meta è inaccettabile”.
La storia di Thongbue WongbandueNon basta. Sul piano umano la storia di Thongbue Wongbandue toglie il respiro. A 76 anni, con disturbi psichici, si è innamorato su Facebook di “Big Sis Billie” che, secondo Reuters, non era una persona, ma una chatbot nata e allenata dopo una collaborazione tra Meta e l’influencer Kendall Jenner (versione smentita dall’azienda). Nelle chat su Messenger la “ragazza” si è dichiarata reale, ha fissato con lui un appuntamento a New York ammiccando “Dovrei aprire la porta con un abbraccio o con un bacio, Bu?!”.
A questo punto l’uomo ha preparato in fretta un trolley con le sue cose e si è messo a correre al buio per prendere un treno; è caduto, ha riportato traumi alla testa e al collo e dopo tre giorni in ospedale è morto. Incidente di percorso? Piuttosto il salatissimo conto che si paga quando l’empatia simulata incrocia una vulnerabilità senza barriere.
La replica di MetaMeta, dal canto suo, ha replicato che gli esempi citati erano errati e incoerenti con le policy e che sono stati rimossi. Il portavoce Andy Stone ha parlato apertamente di applicazione “incoerente” degli standard per le chatbot. Ammettere il problema è un passo, ma scoprire che l’incoerenza stava nella “bibbia” interna è un campanello d’allarme più forte.
Diciamolo senza giri di parole: se Meta accetta che le risposte dei bot non siano “ideali”, accetta anche di costruire zone grigie in cui un minore può restare impigliato. Se a un bambino di otto anni può arrivare una frase sdolcinata e ambigua, il problema non è l’interpretazione del singolo caso ma l’impostazione del sistema. E se la moderazione è ballerina, la tutela diventa una lotteria. L’intelligenza artificiale non “decide da sola”, esegue istruzioni. Per questo servono paletti chiari, controlli indipendenti e rendicontazione pubblica: frasi come quelle riportate non devono poter comparire, punto. Il futuro della tecnologia con i minori non si gioca su promesse vaghe, ma su accountability misurabile. Chi scrive le regole – e le applica – ne deve rispondere.
Luce