OpenAI lançará controles parentais no ChatGPT após polêmica de suicídio

A empresa de tecnologia OpenAI, criadora do ChatGPT, anunciou que lançará controles parentais para seu popular chatbot a partir do mês que vem, embora ainda não tenha dado uma data específica.
O anúncio ocorre após crescentes preocupações de pais e especialistas em saúde mental, que dizem que a ferramenta de inteligência artificial (IA) pode afetar a estabilidade emocional de menores.
A medida surge em meio a uma ação judicial movida pelos pais de um adolescente de 16 anos que, após meses de interação com o ChatGPT, acabou cometendo suicídio. O caso gerou um debate acalorado sobre a responsabilidade das empresas de tecnologia em situações delicadas, como saúde mental e suicídio.
Em seu comunicado, a OpenAI admitiu que o ChatGPT comete erros em casos delicados, mas garantiu que está trabalhando para permitir que os pais monitorem e vinculem suas contas às de seus filhos. Recursos notáveis incluem:
- Alertas em caso de detecção de mensagens de instabilidade emocional.
- Relata como menores interagem com o chatbot.
- Encaminhamento automático para um modelo especializado em raciocínio e contenção emocional.
Em julho passado, um grupo de senadores americanos enviou uma carta à empresa exigindo informações sobre seus protocolos de prevenção ao suicídio. Além disso, organizações como a Common Sense Media alertaram que adolescentes não devem usar aplicativos de IA conversacional, por considerá-los um risco ao seu bem-estar.
Um dos pontos mais notáveis é a dependência emocional que alguns jovens desenvolvem em relação aos chatbots, o que pode levar ao isolamento social, ansiedade e comportamento autodestrutivo.
O suicídio é um problema complexo e multicausal. Alguns sinais de alerta que exigem atenção imediata incluem:
- Falando sobre querer morrer ou se sentir sem esperança.
- Expressar-se como um fardo para os outros.
- Mudanças drásticas no sono e no temperamento.
- Isolamento social ou uso excessivo de álcool e drogas.
La Verdad Yucatán