Especialistas em IA pedem urgentemente que governos pensem em fazer algo

Todos parecem reconhecer o fato de que a inteligência artificial é uma tecnologia emergente e em rápido desenvolvimento, com potencial para causar imensos danos se operada sem salvaguardas, mas basicamente ninguém (exceto a União Europeia , mais ou menos) consegue chegar a um acordo sobre como regulá-la. Portanto, em vez de tentar estabelecer um caminho claro e preciso para permitir que a IA opere, especialistas na área optaram por uma nova abordagem: que tal descobrirmos quais exemplos extremos todos nós consideramos ruins e simplesmente concordarmos com isso?
Na segunda-feira, um grupo de políticos, cientistas e acadêmicos compareceu à Assembleia Geral das Nações Unidas para anunciar o Apelo Global por Linhas Vermelhas da IA , um apelo para que os governos do mundo se unam e concordem com as mais amplas proteções para evitar "riscos universalmente inaceitáveis" que podem resultar da implantação da IA. O objetivo do grupo é estabelecer essas linhas vermelhas até o final de 2026.
A proposta já reuniu mais de 200 assinaturas de especialistas do setor, líderes políticos e ganhadores do Prêmio Nobel. A ex-presidente da Irlanda, Mary Robinson, e o ex-presidente da Colômbia, Juan Manuel Santos, estão a bordo, assim como os ganhadores do Nobel Stephen Fry e Yuval Noah Harari. Geoffrey Hinton e Yoshua Bengio, dois dos três homens comumente chamados de " Padrinhos da IA " devido ao seu trabalho fundamental na área, também adicionaram seus nomes à lista.
Agora, quais são essas linhas vermelhas? Bem, isso ainda cabe aos governos decidir. O apelo não inclui prescrições ou recomendações políticas específicas, embora apresente alguns exemplos do que poderia ser uma linha vermelha. Proibir o lançamento de armas nucleares ou o uso em esforços de vigilância em massa seria uma possível linha vermelha para usos de IA, afirma o grupo, enquanto proibir a criação de IA que não possa ser desativada por intervenção humana seria uma possível linha vermelha para o comportamento da IA. Mas eles são muito claros: não as estabeleçam em pedra, são apenas exemplos, você pode criar suas próprias regras.
A única coisa que o grupo oferece concretamente é que qualquer acordo global deve ser construído sobre três pilares: “uma lista clara de proibições; mecanismos de verificação robustos e auditáveis; e a nomeação de um órgão independente estabelecido pelas Partes para supervisionar a implementação”.
Os detalhes, porém, cabem aos governos concordar. E essa é a parte mais difícil. O apelo recomenda que os países organizem algumas cúpulas e grupos de trabalho para resolver tudo isso, mas certamente há muitos motivos conflitantes em jogo nessas conversas.
Os Estados Unidos, por exemplo, já se comprometeram a não permitir que a IA controle armas nucleares (um acordo firmado durante o governo Biden, então só Deus sabe se ainda está em vigor). Mas relatórios recentes indicaram que partes da comunidade de inteligência do governo Trump já se irritaram com o fato de algumas empresas de IA não permitirem que usem suas ferramentas para vigilância doméstica . Então, será que os Estados Unidos apoiariam tal proposta? Talvez descubramos isso até o final de 2026... se conseguirmos chegar lá até lá.
gizmodo