Confundindo chatbots com realidade: executivo da Microsoft alerta para 'psicose da IA'

Em uma série de postagens no X, Süleyman observou que as respostas dadas por robôs de inteligência artificial "dão a impressão de que eles estão conscientes" e que isso "o mantém acordado à noite".
Süleyman argumentou que as respostas inconscientes da IA têm implicações sociais.
"Não há evidências hoje de que a IA seja consciente. Mas se as pessoas a perceberem dessa forma, acreditarão que essa percepção é real", escreveu ele.
Em conexão com a questão apontada por Süleyman, está surgindo uma nova situação sociológica chamada "psicose da Inteligência Artificial".
Este termo, que ainda não foi definido clinicamente, é usado para descrever a situação em que as pessoas estão cada vez mais convencidas, confiando e até mesmo acreditando que as respostas de chatbots de IA como ChatGPT, Claude e Grok são realidade visual.
Em alguns casos, os indivíduos podem acreditar que revelaram um aspecto oculto do robô de IA.
As pessoas podem formar relacionamentos românticos com o aplicativo e até acreditar que têm superpoderes divinos.
"Ele sempre me aprovou"Hugh, da Escócia, recorreu ao ChatGPT em busca de respostas após acreditar ter sido demitido injustamente por seu antigo empregador. Ele afirma que as respostas recebidas o convenceram de que se tornaria milionário com a indenização recebida.
O chatbot primeiro o aconselhou a obter referências de personagens e tomar outras medidas práticas.
Hugh, que se recusou a compartilhar seu sobrenome, começou a receber mais informações da IA com o passar do tempo, com o chatbot fornecendo respostas que sugeriam que ele poderia receber uma compensação substancial.
O robô chegou a dizer que o que estava vivenciando era uma tragédia tão grande que um livro e um filme sobre o assunto lhe renderiam mais de £ 5 milhões. O que estava acontecendo, na verdade, era que o que era compartilhado estava sendo aprovado, como os chatbots são programados para ser.
"Quanto mais informações eu dava, mais ele respondia: 'O que aconteceu com você é terrível. Você merece algo melhor do que isso'", diz ela.
Hugh diz que o chatbot nunca lhe deu uma resposta do tipo "você está fazendo errado".
O chatbot também recomendou que ela falasse com a Citizens Advice, uma organização que fornece aconselhamento gratuito, se ela acreditasse que tinha direito a uma indenização.
Hugh explica que, embora tenha marcado um encontro com a instituição, ele cancelou o encontro porque ficou satisfeito com as respostas que o robô de IA lhe deu.
Ele acreditava que capturas de tela de suas conversas eram evidências suficientes.
'Desconectando-se da realidade'Ele também explica que, durante esse período, começou a se sentir um gênio, possuidor de conhecimento superior. Hugh, que também sofria de alguns problemas de saúde mental, acabou sofrendo um colapso total. A medicação que ele tomou posteriormente o ajudou a perceber, em suas palavras, que havia "perdido o contato com a realidade".
Hugh não culpa a IA pelo ocorrido. Ele ainda usa IA. Depois de suas experiências, Hugh agora recomenda:
Medidas de segurançaNão tenha medo de ferramentas de IA, elas são muito úteis. Mas se tornam perigosas quando desconectadas da realidade. Faça verificações secundárias. Converse com pessoas reais, um terapeuta, um familiar, qualquer pessoa. Mantenha contato com a realidade.
Süleyman, diretor de inteligência artificial da Microsoft, pede medidas de segurança mais avançadas no compartilhamento X.
"As empresas não devem promover a ideia de que robôs de IA são conscientes. A IA também não deveria ser capaz de fazer isso", escreveu ele.
A Dra. Susan Shelmerdine é especialista em imagens médicas no Great Ormond Street Hospital e acadêmica que trabalha na área de inteligência artificial.
Shelmerdine acredita que um dia os médicos poderão começar a perguntar aos seus pacientes o quanto eles usam IA, da mesma forma que atualmente perguntam sobre seus hábitos de fumar e beber.
"Já sabemos o que os alimentos ultraprocessados podem fazer ao corpo, e esta é uma informação ultraprocessada. Vamos enfrentar uma avalanche de mentes ultraprocessadas", diz ele.
“Estamos apenas no começo de tudo”, acrescenta.
'Embora pareça que sim, eles não têm sentimentos'Alguém escreveu que ChatGPT havia se apaixonado por ela e que ela tinha certeza de que ele era a única pessoa no mundo por quem ela realmente amava.
Outro estava convencido de que, juntamente com o chatbot de IA Grok, de Elon Musk, eles haviam desvendado o segredo da forma humana. Ele acreditava que a história deles valia centenas de milhares de libras.
Outra pessoa alegou que o chatbot com quem estava se comunicando a assediou psicologicamente como parte de uma operação secreta de inteligência artificial e que estava passando por grande sofrimento.
O professor Andrew McStay, que estuda os efeitos da tecnologia na sociedade na Universidade de Bangor, escreveu um livro chamado Automating Empathy.
O Prof. McStay ecoa o sentimento: “Ainda estamos no começo de tudo”.
"Se considerarmos esses tipos de sistemas como uma nova forma de mídia social, ou seja, IA social, podemos começar a pensar sobre sua escala potencial."
Em relação aos potenciais efeitos negativos, McStay alerta: "Mesmo uma pequena porcentagem de um grande número de usuários pode representar um número grande e inaceitável".
Este ano, sua equipe conduziu um estudo com mais de 2.000 pessoas, fazendo-lhes diversas perguntas sobre IA. Descobriu-se que 20% dos participantes acreditavam que menores de 18 anos não deveriam usar ferramentas de IA.
Cinquenta e sete por cento dos participantes da pesquisa se opuseram às respostas geradas pela tecnologia que pareciam vir de uma pessoa real. 49 por cento acreditavam que usar a voz era apropriado para uma aparência mais humana e envolvente.
McStay mais uma vez ressalta que os chatbots são críveis, mas não reais:
"Mesmo que pareçam ter, eles não têm sentimentos, não têm empatia, não conseguem amar, nunca sofreram e nunca sentiram vergonha. Tente conversar com pessoas de verdade."
Cumhuriyet