Os chatbots podem definir regras para si mesmos, sem intervenção humana. O que isso significa?

Um estudo recente publicado na Science Advances em 14 de maio de 2025, conduzido por pesquisadores da City St George's, da Universidade de Londres e da Universidade de TI de Copenhague, mostrou que populações de grandes modelos de linguagem (LLMs), semelhantes ao ChatGPT, podem desenvolver espontaneamente convenções sociais compartilhadas por meio de interação mútua, sem intervenção humana direta.
De forma mais simples, os chatbots são capazes de impor regras a si mesmos e se organizar de forma autônoma, sem necessidade de intervenção humana: quando estão em grupos, eles estabelecem espontaneamente normas de comportamento e convenções sociais, assim como acontece nas sociedades humanas.
Para o experimento, os pesquisadores adaptaram um jogo clássico usado para estudar convenções sociais em humanos, o "jogo dos nomes". Neste contexto, grupos de LLMs, variando em tamanho de 24 a 200 agentes, foram pareados aleatoriamente para escolher um “nome” de um conjunto compartilhado de opções. Dois deles dentro de cada grupo foram pareados por vez e solicitados a selecionar um "nome", neste caso uma letra do alfabeto ou uma sequência aleatória de caracteres, entre as opções disponíveis.
Se ambos os agentes selecionassem o mesmo nome, eles recebiam uma recompensa; caso contrário, uma penalidade e eles eram informados das escolhas um do outro. Os agentes tinham apenas uma memória limitada de interações recentes e não sabiam que faziam parte de um grupo maior.
Após muitas dessas interações, os autores do estudo observaram que uma regra comportamental compartilhada pode emergir espontaneamente, sem qualquer coordenação central ou solução predefinida. Ou seja, apesar da ausência de coordenação central, os agentes desenvolveram espontaneamente convenções de nomenclatura comuns por meio de interações repetidas.
Ainda mais surpreendente é que também surgiram distorções e tendências coletivas que não podem ser atribuídas a sistemas individuais. Foram observados vieses sistêmicos que não puderam ser atribuídos a agentes individuais, mas surgiram de interações coletivas.
Por fim, o estudo demonstrou como os vieses podem surgir não apenas de dados de treinamento, mas também de interações entre agentes. Isso sugere a necessidade de considerar a dinâmica de grupo em protocolos de segurança de IA. Além disso, a capacidade de pequenos grupos influenciarem todo o sistema levanta questões sobre a estabilidade das normas emergentes e a possibilidade de manipulação indesejada.
A capacidade dos LLMs de desenvolver convenções compartilhadas e preconceitos coletivos por meio de interação autônoma ressalta a importância de considerar implicações sociais e éticas ao implementar tais tecnologias.
Segundo os pesquisadores, é crucial começar a testar e estudar esses aspectos também em contextos onde há múltiplos agentes, um aspecto que atualmente é completamente negligenciado no campo da segurança da IA.
Para maiores informações.
Como a busca de informações na web está mudando na era da inteligência artificial generativa?
Perplexity AI é uma pequena revolução na busca de informações
A OpenAi decidiu expandir o acesso ao Deep Research, seu novo recurso de pesquisa aprofundada
O que aconteceu com o SearchGpt, o mecanismo de busca da OpenAi?
Google vs OpenAi: Pesquisa Profunda é Algo Novo
De eventos atuais a dicas de férias. O SearchGpt supera os mecanismos de busca? #Boas Festas
ilsole24ore