Limites antrópicos Claude: que tipos de perguntas sua inteligência artificial não responderá?

A Anthropic, empresa americana de inteligência artificial , decidiu reforçar a segurança do seu chatbot Claude , implementando limites claros quanto aos tipos de perguntas que ele se recusará a responder. Essa medida responde às preocupações internacionais sobre os potenciais usos nocivos da IA avançada .
A política atualizada amplia as proibições existentes, incluindo explicitamente a proibição do desenvolvimento de explosivos de alta potência e armas biológicas, nucleares, químicas ou radiológicas (QBRN) . Claude estava anteriormente proibido de produzir ou distribuir materiais perigosos, mas os novos regulamentos detalham ainda mais os cenários de risco.
A partir de maio de 2025, com a chegada do Claude Opus 4 e a implementação do sistema de Segurança de Nível 3 da IA , a Anthropic busca dificultar que o modelo seja comprometido ou usado para aconselhar sobre a criação de armas CBRN .
A empresa também atualizou as regras sobre os recursos avançados do Claude, como o Uso do Computador , que permite que a IA interaja com o computador do usuário, e o Código Claude , voltado para desenvolvedores. A Anthropic alertou sobre os riscos desses recursos, que incluem abuso generalizado, criação de malware e ataques cibernéticos .
Um novo recurso significativo é a seção "Não comprometa sistemas de computador ou rede" , que proíbe atividades como detecção de vulnerabilidades, distribuição de código malicioso ou ataques de negação de serviço. Isso limita cenários em que o Claude poderia ser usado como ferramenta para crimes cibernéticos sofisticados .
Na arena política, as regulamentações estão evoluindo: a Anthropic agora regula apenas conteúdo enganoso ou perturbador dos processos democráticos , em vez de proibir todas as campanhas políticas ou lobby. Os requisitos de segurança mais rigorosos se aplicam apenas a operações voltadas ao consumidor , e não a ambientes B2B.
A atualização coincide com melhorias técnicas no Claude, que agora conta com uma janela de contexto de 1 milhão de tokens em sua versão Sonnet 4 , equivalente a 750.000 palavras ou 75.000 linhas de código . Esse limite é cinco vezes maior que a capacidade anterior e até supera o GPT-5 da OpenAI .
Brad Abrams, gerente de produtos da Anthropic, destacou que essa expansão de contexto é especialmente útil em desenvolvimento e codificação , beneficiando plataformas como GitHub Copilot, Windsurf e Cursor da Anysphere . A IA pode analisar grandes volumes de dados em tempo real, facilitando projetos e tarefas complexas de engenharia que exigem interpretação profunda de código.
Com essas atualizações, a Anthropic busca equilibrar inovação tecnológica e responsabilidade ética , garantindo que o Claude seja uma ferramenta poderosa, porém segura e confiável . Os usuários devem estar cientes das limitações do modelo, especialmente em contextos de alto risco, enquanto as empresas podem aproveitar a nova capacidade de contexto para projetos de grande escala e análises complexas de dados .
La Verdad Yucatán