“Imagens de crianças, incluindo o conteúdo de vítimas conhecidas, estão sendo reaproveitadas para essa produção realmente maligna”, diz Rebecca Portnoff, diretora de ciência de dados da Thorn, grupo sem fins lucrativos de segurança infantil que tem visto um crescimento mês a mês da prevalência dessas imagens.
“A identificação da vítima já é um problema de agulha no palheiro, onde a polícia está tentando encontrar uma criança em perigo”, diz ela. “A facilidade de uso dessas ferramentas é uma mudança significativa, assim como o realismo. Tudo isso torna o trabalho ainda mais desafiador.”
A enxurrada de imagens pode confundir o sistema central de rastreamento criado para bloquear pornografia infantil da web, pois ele é projetado apenas para detectar imagens conhecidas de abuso, não para detectar novas imagens geradas. Também ameaça sobrecarregar os agentes da lei que trabalham para identificar vítimas, que passam a gastar mais tempo determinando se as imagens são reais ou falsas.
As imagens também provocam um debate sobre se elas violam as leis federais de proteção à criança, porque muitas vezes retratam crianças que não existem. Funcionários do Departamento de Justiça dos EUA que combatem a exploração infantil afirmam que as imagens são ilegais, mesmo que a criança mostrada seja gerada por IA, mas não citam nenhum caso em que um suspeito tenha sido acusado de gerar imagens do tipo.
As novas ferramentas de IA permitem que qualquer pessoa crie imagens realistas apenas a partir de um simples comando de texto. Os modelos, como DALL-E, Midjourney e Stable Diffusion, foram alimentados com bilhões de imagens retiradas da internet, muitas das quais mostravam crianças reais e vinham de sites de fotos e blogs pessoais. Eles então imitam esses padrões visuais para criar suas próprias imagens.
As ferramentas foram celebradas por sua criatividade e são usadas para ilustrar livros infantis, criar fotografias falsas no estilo de notícias e até criar pornografia sintética de personagens inexistentes que parecem adultos.
Mas elas também aumentaram a velocidade e a escala com que os pedófilos podem criar novas imagens explícitas. As ferramentas exigem menos sofisticação técnica do que métodos passados, como a superposição de rostos de crianças em corpos de adultos, e podem gerar rapidamente muitas imagens a partir de um único comando.
Código aberto facilita acesso
Nos fóruns de pedófilos, não fica claro como as imagens geradas por IA foram feitas. Mas especialistas em segurança infantil disseram que muitas pareciam ter se baseado em ferramentas de código aberto, como a Stable Diffusion, que pode ser executado de maneira irrestrita e sem vigilância.
A Stability AI, dona da Stable Diffusion, disse em um comunicado que proíbe a criação de pornografia infantil, auxilia investigações policiais sobre usos “ilegais ou mal-intencionados” e removeu material explícito de seus dados de treinamento, reduzindo a “capacidade dos malfeitores de gerar conteúdo obsceno”.
Mas qualquer um pode baixar a ferramenta para o seu computador e executá-la como quiser, evitando em grande parte as regras e a supervisão da empresa. A licença de código aberto pede aos usuários que não usem a ferramenta “para explorar ou prejudicar menores de qualquer maneira”, mas seus recursos de segurança subjacentes, incluindo um filtro para imagens explícitas, podem ser facilmente contornados com algumas linhas de código que um usuário pode adicionar ao programa.
Os testadores do Stable Diffusion têm discutido há meses o risco de que a IA possa ser usada para imitar os rostos e corpos de crianças, segundo apurou o Washington Post. Um comentarista relatou ter visto alguém usar a ferramenta para tentar gerar fotos falsas de uma atriz infantil de biquíni, dizendo que o episódio sinalizava que “algo feio prestes a acontecer”.
Mas a empresa defendeu sua abordagem de código aberto como importante para a liberdade criativa dos usuários. Emad Mostaque, CEO da Stability AI, disse ao site The Verge no ano passado que “no final das contas, é responsabilidade das pessoas decidir se são éticas, morais e legais ao operar a tecnologia”. Ele disse ainda que “o material ruim que as pessoas criam é uma porcentagem muito pequena do uso total”.
Os principais concorrentes do Stable Diffusion, DALL-E 2 e Midjourney, proíbem conteúdo sexual e não são fornecem código aberto, o que significa que seu uso é limitado aos canais administrados pela empresa e todas as imagens são registradas e rastreadas.
A OpenAI, startup por trás do DALL-E e do ChatGPT, tem moderadores humanos para fazer cumprir suas regras, incluindo uma proibição contra material de abuso sexual infantil, e removeu conteúdo explícito dos dados de treinamento de seu gerador de imagens para minimizar sua “exposição a esses conceitos”, disse um porta-voz.
Como os pedófilos operam
Em fóruns de pedófilos na dark web, os usuários discutiram abertamente estratégias sobre como criar fotos explícitas e driblar filtros anti-pornografia, incluindo trocar o inglês por outros idiomas, pois acreditam que outros idiomas sejam menos vulneráveis à supressão ou detecção.
Em um fórum com 3 mil membros, os participantes discutem maneiras de criar selfies geradas por IA e construir uma falsa persona em idade escolar na esperança de conquistar a confiança de outras crianças, diz Avi Jager, chefe de segurança infantil e exploração humana na ActiveFence, empresa que trabalha com redes sociais e sites de streaming para detectar conteúdo mal-intencionado.
Rebecca, da Thorn, diz que seu grupo também viu casos em que fotos reais de crianças abusadas foram usadas para treinar a ferramenta de IA para criar novas imagens.
Yiota Souras, diretora jurídica do National Center for Missing and Exploited Children, organização sem fins lucrativos que administra um banco de dados usado por empresas para sinalizar e bloquear pornografia infantil, diz que seu grupo percebeu um grande aumento nas denúncias de imagens geradas por IA nos últimos meses, assim como denúncias de pessoas que enviam imagens de abuso sexual infantil para ferramentas de IA com a intenção de gerar conteúdo do tipo.
Embora seja uma pequena fração das mais de 32 milhões de denúncias que o grupo recebeu no ano passado, o crescimento ameaça consumir o tempo e a energia dos investigadores que trabalham para identificar vítimas e que não têm a capacidade de acompanhar todos os casos, diz ela. O FBI disse em um alerta neste mês que viu um aumento em denúncias sobre crianças cujas fotos foram alteradas para “imagens de temática sexual que parecem verdadeiras”.
“Para a aplicação da lei, o que eles devem priorizar?” afirma Yiota.
Zona cinzenta
Alguns analistas jurídicos argumentam que o material cai em uma zona cinzenta legal porque imagens totalmente geradas por IA não retratam uma criança real. Em 2002, a Suprema Corte derrubou duas disposições de uma proibição do Congresso de 1996 sobre “pornografia infantil virtual”, alegando que sua redação era ampla o suficiente para criminalizar algumas representações literárias de sexualidade adolescente.
Os defensores da proibição argumentaram na época que a decisão tornava mais difícil para os promotores argumentar casos envolvendo abuso sexual infantil.
Daniel Lyons, professor de direito no Boston College, diz que a decisão merece ser revisada, dada a forma como a tecnologia avançou nas últimas duas décadas.
“Na época, pornografia infantil virtual era tecnicamente difícil de produzir de forma a se passar por uma coisa real”, diz ele. “Essa lacuna entre a realidade e os materiais gerados por IA se estreitou, e isso passou de um experimento de pensamento para um problema real e potencialmente grave na vida real.”
Tentativas
Separadamente, alguns grupos estão trabalhando em maneiras técnicas de confrontar o problema, explica Margaret Mitchell, pesquisadora de IA que liderou a equipe de IA Ética do Google.
Uma solução, que exigiria a aprovação do governo, seria treinar um modelo de IA para criar exemplos de imagens falsas de exploração infantil, para que os sistemas de detecção online soubessem o que remover, diz ela. Mas a proposta acarretaria seus próprios danos, acrescentou, porque este material pode ter um “custo psicológico massivo: é algo que você não ‘desver’”.
Outros pesquisadores de IA agora estão trabalhando em sistemas de identificação que poderiam imprimir códigos nas imagens, vinculando-os aos seus criadores. Pesquisadores da Universidade de Maryland publicaram no mês passado uma nova técnica para marcas d’água “invisíveis” que poderiam ajudar a identificar o criador de uma imagem.
Essas ideias provavelmente exigiriam a participação de toda a indústria, e mesmo assim, não pegariam todas as violações, diz Mitchell.
Mesmo quando essas imagens não retratam crianças reais, elas representam um “dano social horrível”, afirma Yiota do National Center for Missing and Exploited Children. Criadas rapidamente e em quantidades massivas, elas poderiam ser usadas para normalizar a sexualização de crianças ou enquadrar comportamentos abomináveis como comuns. Além disso, predadores poderiam usar as imagens para induzir crianças ao abuso.
“O fato de alguém poder fazer 100 imagens em uma tarde e usar essas imagens para atrair uma criança é incrivelmente prejudicial,” afirma ela.
Fonte: Terra Brasil