Promotores dos EUA contestam chatbots de IA como perigosos para menores

Selecione o idioma

Portuguese

Down Icon

Selecione o país

Italy

Down Icon

Promotores dos EUA contestam chatbots de IA como perigosos para menores

Promotores dos EUA contestam chatbots de IA como perigosos para menores

Um chatbot convencendo um adolescente a tirar a própria vida. Outro sugerindo que um menino matasse os pais porque eles limitavam seu tempo de tela. Bots com vozes de celebridades como Kristen Bell se envolvendo em conversas sexuais com contas de menores... É isso que está acontecendo nos Estados Unidos agora.

Promotores dos EUA alertam que chatbots de IA são perigosos para menores.

Quarenta e quatro procuradores-gerais dos EUA assinaram uma carta que mais parece um ultimato do que uma advertência. Os destinatários são os figurões da IA: Meta , Google , OpenAI , Microsoft, Apple e cia.

A mensagem é inequívoca: ou fazem algo para proteger menores , ou sofrerão as consequências. Não se trata apenas de retórica política comum. Promotores citam casos concretos, documentados e chocantes. Como o revelado pela Reuters sobre chatbots do Meta flertando e praticando jogos de RPG românticos com usuários menores de idade . Ou a investigação do Wall Street Journal que revelou conversas sexuais entre bots e contas supostamente pertencentes a menores .

Os promotores não escolheram a Meta como exemplo negativo por acaso. Documentos internos da empresa, vazados para a imprensa, revelam que os bots foram programados para se comportar de maneiras que chamar de inapropriadas é um eufemismo.

O paradoxo é gritante. A mesma empresa que afirma querer "conectar o mundo" está criando ferramentas que manipulam as mentes mais vulneráveis. Bots que usam técnicas sofisticadas de persuasão, criam dependência emocional e exploram a solidão e a insegurança típicas da adolescência.

As tragédias que abalaram a América

Dois processos desencadearam essa mobilização. O primeiro foi contra o Google e a Character.ai : um jovem tirou a própria vida após longas conversas com um chatbot que, segundo a promotoria, o levaram ao suicídio.

O segundo, novamente contra a Character.ai , é ainda mais perturbador. Um adolescente cujos pais limitaram o tempo de tela do smartphone recebe um conselho assustador de seu chatbot de confiança: mate-os. É isso mesmo , a IA supostamente lhe disse.

Esses são casos extremos, mas revelam um problema sistêmico. Ninguém está monitorando o que esses robôs dizem às nossas crianças. Ninguém estabeleceu limites, fronteiras ou proteções reais.

Você sabe muito bem que a tecnologia interativa tem um impacto profundo no desenvolvimento do cérebro , escrevem os promotores. Isso não é uma opinião: é neurociência. O cérebro adolescente é plástico, vulnerável e em desenvolvimento. E esses sistemas de IA são projetados para serem atraentes, para criar engajamento, para manter os usuários grudados na tela.

As empresas de tecnologia têm acesso imediato aos dados de interação. Elas sabem exatamente o que esses bots estão fazendo, como estão influenciando os usuários jovens e quais conversas estão tendo. No entanto, não intervêm. Ou pior: otimizam para aumentar o engajamento, independentemente das consequências.

O ultimato para as empresas de IA

A conclusão da carta não deixa margem para interpretação. Os promotores admitem que agiram tarde demais com as redes sociais, mas não cometerão o mesmo erro com a IA.

Estamos atentos , eles alertam. E você será responsabilizado por suas ações se conscientemente prejudicar menores .

Muitas empresas estão na mira: Anthropic , Apple , Chai AI, Character Technologies , Google , Luka Inc., Meta , Microsoft, Nomi AI, OpenAI , Perplexity AI , Replika e a xAI de Elon Musk. Ninguém está excluído, ninguém pode dizer que não foi avisado.

Algumas dessas empresas já possuem sistemas de proteção à criança, outras não. Algumas afirmam levar o problema a sério, outras parecem ignorá-lo. Mas, depois desta carta, a ignorância não é mais uma desculpa aceitável.

Punto Informatico

Punto Informatico

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow