Processo do Google: Luta contra vazamentos de imagens de sexo e deepfakes

Parece um pesadelo – e pode acontecer com muitos: pessoas desconhecidas roubam fotos de nudez e sexo da nuvem privada de uma jovem alemã e as distribuem em sites pornográficos online. O mais assustador é que o conteúdo que a retrata e seu parceiro pode ser pesquisado no Google , incluindo seu nome verdadeiro. Um documento de identidade também foi incluído na nuvem vazada. A mulher recorreu à HateAid, uma organização sem fins lucrativos que ajuda pessoas afetadas pelo ódio e pela violência digital online.
Com a ajuda deles, ela contata muitos dos sites relevantes e também relata mais de 2.000 URLs ao Google que podem ser encontrados por meio da busca de imagens do mecanismo de busca. Embora o Google geralmente remova os resultados de pesquisa correspondentes, as imagens e vídeos continuam a reaparecer na internet e nos resultados de pesquisa do Google – assim como os deepfakes , ou seja, imagens criadas ou manipuladas por meio de inteligência artificial (IA) .
O caso levanta questões essenciais: até que ponto a proteção de dados na internet deve ir? Quais cenários de ameaça existem para os usuários — especialmente mulheres e pessoas percebidas como mulheres — e como eles podem ser enfrentados?
Gravações íntimas, nunca destinadas à publicaçãoA mulher, que deseja manter seu nome anônimo na mídia e é chamada pelo pseudônimo de Laura no site HateAid, soube do roubo de seus arquivos por acaso em 2023, quando pesquisou seu próprio nome no Google. Ela disse à revista "Der Spiegel" que encontrar as fotos e vídeos íntimos online, que nunca foram destinados à publicação, foi quase como um estupro. O incidente mudou completamente a vida de Laura: ela se mudou, trocou de emprego e sofre de transtorno de estresse pós-traumático.
Depois de não conseguir convencer o Google a remover permanentemente as gravações das pesquisas fora do tribunal, Laura agora entrou com uma ação judicial contra a empresa na Irlanda.

A HateAid os apoia nessa empreitada. "Estamos cobrindo todos os custos incorridos e todos os riscos futuros neste caso, porque pouquíssimos dos afetados conseguem imaginar entrar com uma ação judicial contra uma empresa como o Google por sua conta e risco", explica a diretora-gerente Josephine Ballon em entrevista à DW. Ela espera uma decisão histórica que esclareça se os mecanismos de busca são legalmente obrigados a remover permanentemente uma imagem dos resultados de busca após ela ter sido denunciada, mesmo que ela seja reenviada para outro lugar.
O que pode ser exigido do Google em relação à proteção de dados?A especialista em proteção de dados e cientista da computação Marit Hansen declarou à DW: "Há onze anos, o Tribunal de Justiça Europeu fez história na proteção de dados com sua decisão histórica sobre o direito ao esquecimento . O caso atual visa dar continuidade a isso." O direito ao esquecimento permite que uma pessoa solicite a exclusão de seus dados pessoais se certas condições forem atendidas.
Hansen, responsável pela proteção de dados do estado de Schleswig-Holstein, afirma que, em conformidade com o Regulamento Geral sobre a Proteção de Dados (RGPD) da UE e com o direito fundamental à proteção de dados, o uso dos próprios dados permanece controlável – e, portanto, "não é surpresa que isso crie obrigações para os provedores globais de mecanismos de busca . Mas agora é preciso decidir até que ponto essas obrigações se estendem no que diz respeito às imagens".
Mas será tecnicamente viável filtrá-los dos resultados da pesquisa? Segundo Hansen, é relativamente fácil fazer cópias exatas em que todos os bits dos arquivos de imagem correspondem.
Segundo o especialista, a situação é mais complicada quando se trata de conteúdo "idêntico ao núcleo" – onde há desvios em relação ao original, por exemplo, devido a cortes diferentes e até mesmo modificações, por exemplo, com o uso de IA. Hansen explica: "Essa questão está relacionada às possibilidades de busca reversa de imagens oferecidas por diversos provedores – incluindo o Google." As imagens são carregadas e o mecanismo de busca busca por imagens semelhantes – isso geralmente funciona, mas não é 100% confiável, e também há muitos resultados errôneos.
Portanto, segundo Hansen, os provedores de mecanismos de busca poderiam argumentar que a precisão necessária para filtrar tecnicamente imagens com elementos centrais idênticos é atualmente insuficiente. No entanto, plataformas como o Google devem ser responsabilizadas. O próprio Google deixou, até o momento, um inquérito da DW sem resposta sobre o caso em questão.
"Google lucra com a violência sexual contra mulheres"A HateAid vê o caso de Laura não apenas como um exemplo de proteção de dados e questões de privacidade na internet, mas também de violência sexualizada baseada em imagens contra mulheres e pessoas percebidas como femininas. E dos lucros que empresas como o Google obtêm com isso. "O mecanismo de busca torna o conteúdo acessível a um público amplo e lucra com o tráfego", diz Ballon.
É por isso que a HateAid está apoiando sua ação judicial com a campanha : Nossos nus não são da sua conta (duplo sentido: Nossas fotos de nus não são da sua conta). Ballon explica: "Mulheres e pessoas percebidas como femininas, em particular, frequentemente sofrem com o uso indevido de imagens íntimas. Ou imagens e vídeos falsos são criados com a ajuda de IA – teoricamente, hoje em dia, não é preciso mais do que uma foto de perfil do LinkedIn para isso. Este é um problema que afeta a sociedade como um todo e está crescendo – também estamos vendo isso em nossos serviços de aconselhamento para vítimas."
Isso pode acontecer com qualquer umO fenômeno da violência sexual baseada em imagens é provavelmente familiar para muitos, especialmente em relação a celebridades. Em 2014, por exemplo, houve um ataque hacker em larga escala a fotos privadas de estrelas predominantemente femininas, que foram então distribuídas online (conhecido como "Celebgate"). Deepfakes sexualmente explícitos de mulheres famosas como Taylor Swift e Giorgia Meloni circularam. Mas o caso de Laura mostra que tais coisas também podem acontecer com pessoas que não são vistas pelo público.
Embora a campanha associada ao processo também vise tornar a criação de tais deepfakes uma ofensa criminal, a menos que a pessoa retratada tenha consentido, o processo judicial visa forçar o Google a fornecer melhor proteção aos afetados.
"Sem esse direito, os afetados teriam que passar a vida inteira procurando suas imagens e, em seguida, enviando manualmente os pedidos de remoção", diz Ballon. "Esse é um fardo psicológico incrível que não deveria e não precisa existir."
dw