Após reclamação dos pais: ChatGPT deve ter controle parental

No futuro, os pais poderão "controlar" como o programa de bate-papo interage com seus filhos.
(Foto: picture alliance/dpa)
O ChatGPT dá dicas a um jovem de 16 anos na Califórnia sobre como tirar a própria vida. Depois que o garoto coloca seu plano em prática, seus pais entram com uma ação judicial contra a OpenAI, exigindo indenização e regulamentação do robô de IA. A empresa anuncia reformas.
A empresa de IA OpenAI anunciou o controle parental para seu popular chatbot de IA, ChatGPT. "No próximo mês", os pais poderão vincular suas contas de usuário à de seus filhos adolescentes, explicou a OpenAI em seu blog. Na semana passada, os pais de um adolescente de 16 anos processaram a OpenAI, culpando o ChatGPT pelo suicídio do filho.
A OpenAI declarou agora que os pais devem poder "controlar" como o ChatGPT responde aos seus filhos, "definindo regras de comportamento adequadas à idade" para o chatbot com inteligência artificial. Os pais serão notificados pelo ChatGPT se o software de IA detectar uma "emergência aguda" com base no histórico de bate-papo.
Conselhos sobre depressão e risco de suicídio
- Em caso de risco de suicídio: Ligue para emergência 112
- Linha direta de informações sobre depressão em toda a Alemanha, gratuita: 0800 33 44 5 33
- Aconselhamento por telefone (0800/111-0-111 ou 0800/111-0-222, ligação gratuita)
- Linha Direta para Crianças e Jovens (Tel.: 0800/111-0-333 ou 116-111)
- Linha de Ajuda Alemã para Depressão (serviços e clínicas regionais de crise, dicas para os afetados e suas famílias)
- Liga Alemã da Depressão
Mesmo antes do suicídio do adolescente no estado americano da Califórnia, vários casos vieram à tona nos últimos meses nos quais o ChatGPT encorajou os usuários a expressarem "pensamentos delirantes ou prejudiciais" em suas interações com o chatbot.
A OpenAI afirmou ainda que está trabalhando para tornar seus chatbots mais seguros, inclusive encaminhando "algumas conversas sensíveis" com usuários para um chamado modelo de linguagem de raciocínio — um sistema de IA mais sofisticado, projetado para resolver tarefas complexas de raciocínio. Testes mostraram que os modelos de raciocínio "seguem as diretrizes de segurança de forma mais consistente".
"Dependência doentia" do ChatGPTOs pais da vítima de 16 anos declararam que o ChatGPT havia desenvolvido um "relacionamento próximo" com seu filho, Adam, que com o tempo desenvolveu uma "dependência doentia".
Entre outras coisas, o ChatGPT escreveu a Adam que "não devia a ninguém sua sobrevivência" e se ofereceu para ajudá-lo a escrever sua nota de suicídio. O programa de IA acabou incentivando Adam a tirar a própria vida e lhe deu instruções detalhadas sobre como fazê-lo.
Os pais processaram o ChatGPT por danos e exigiram a introdução de medidas de segurança obrigatórias nos chatbots que, entre outras coisas, encerrassem automaticamente conversas sobre tópicos como automutilação.
Fonte: ntv.de, lme/AFP
n-tv.de