IA: Responsabilidades de seus criadores e usuários

Na semana passada, nesta coluna, abordei alguns dos principais desafios que a regulamentação da inteligência artificial no México acarretará. O problema surge da própria definição jurídica do conceito e de suas implicações para a regulamentação de matérias correlatas, mas não se limita a esses aspectos. Outro desafio imposto pela regulamentação nesta área é a delimitação de responsabilidades entre aqueles que projetam sistemas de IA e aqueles que os utilizam.
A inteligência artificial entrou em nossas vidas de forma tão abrupta que às vezes é percebida pela sociedade como se fosse autônoma, uma entidade anônima que se constrói e se desenvolve, como se atuasse por livre e espontânea vontade, sem o cordão umbilical que a conecta aos seus criadores e sem a interferência do usuário que lhe dá instruções e formula solicitações. O problema dessa concepção é que, se fosse replicada no âmbito jurídico, não haveria como definir os responsáveis por quaisquer violações de direitos cometidas por meio do uso de IA, uma vez que algoritmos não são entidades jurídicas identificáveis que possam assumir responsabilidades.
Por isso, ao regulamentar essa matéria, é preciso analisar criteriosamente o alcance das responsabilidades tanto dos criadores quanto dos usuários, a fim de preservar a segurança jurídica e os direitos e liberdades de ambos. Assim como o direito desenvolveu a teoria da ficção jurídica para permitir a criação de pessoas jurídicas, com suas respectivas esferas jurídicas, agora é preciso adaptar a legislação para permitir e incentivar o desenvolvimento e a expansão de sistemas de inteligência artificial, sem deixar desprotegidos os direitos de todos os envolvidos.
Quanto aos desenvolvedores de IA, está claro que sua responsabilidade inclui o processo de identificação e seleção dos bancos de dados e informações que eles inserirão em seus sistemas ou plataformas. Um exemplo claro são as disputas que surgiram em vários países sobre a potencial violação de direitos de propriedade intelectual quando desenvolvedores de sistemas de IA incorporam bancos de dados ou conteúdo de propriedade de terceiros em seus sistemas sem obter sua autorização ou pagar por sua exploração comercial. Quanto à implementação de algoritmos tendenciosos, quaisquer restrições teriam que ser cuidadosamente avaliadas para garantir o respeito à liberdade de expressão.
Quanto aos usuários, muitos deles desenvolveram uma confiança quase cega nas informações que obtêm dos sistemas de IA. Alguns os veem como uma espécie de oráculos modernos, responsáveis por resolver seus problemas, a ponto de tomarem decisões que têm um impacto profundo em suas vidas com base em recomendações geradas por uma plataforma de IA.
Algumas pessoas pedem à IA apoio psicológico ou aconselhamento personalizado para resolver uma situação específica e aceitam os resultados da consulta mesmo acima do seu próprio julgamento. Segundo a Dra. Mara Dierssen, presidente do Conselho Espanhol do Cérebro, quando tarefas excessivas são delegadas à IA, o esforço neurológico é reduzido, o que também diminui a capacidade de pensar criticamente e resolver problemas de forma independente (Vademecum, Real Academia Nacional de Medicina da Espanha). Também há casos em que usuários usam ferramentas de IA para gerar ou distribuir conteúdo ilegal.
Nesses casos, os criadores de IA não precisariam assumir a responsabilidade pelo uso que cada pessoa faz de suas plataformas ou pelas decisões que elas tomam com base nelas. Talvez eles devessem simplesmente ser obrigados a incluir rótulos de advertência, em vez de reduzir ou verificar extensivamente o conteúdo que geram, pois isso diminuiria drasticamente os benefícios da IA.
Eleconomista