Milhares de imagens geradas por IA que retratam vítimas reais de abuso sexual infantil ameaçam “sobrecarregar” a Internet, alertou um órgão de vigilância.
A Internet Watch Foundation (IWF), organização do Reino Unido responsável pela detecção e remoção de imagens de abuso sexual infantil da Internet, disse que os seus “piores pesadelos” se tornaram realidade.
A IWF disse que os criminosos estão agora a usar os rostos e corpos de crianças reais que apareceram em imagens de abuso confirmado para criar novas imagens de abuso sexual através de tecnologia de inteligência artificial.
Os dados publicados pela organização afirmam que as imagens mais convincentes seriam difíceis de distinguir das fotografias reais, mesmo para analistas treinados, e alguns conteúdos eram agora suficientemente realistas para serem tratados como imagens reais ao abrigo da lei do Reino Unido.
A IWF alertou que a tecnologia estava apenas melhorando e representaria mais obstáculos para os vigilantes e as agências de aplicação da lei enfrentarem o problema.
A pesquisa ocorre antes do Reino Unido sediar a cúpula de segurança de IA na próxima semana, onde líderes mundiais e gigantes da tecnologia discutirão as questões em desenvolvimento em torno da inteligência artificial.
Na sua última investigação, a IWF afirmou ter também encontrado provas da comercialização de imagens geradas por IA e alertou que a tecnologia estava a ser utilizada para “nudificar” imagens de crianças cujas imagens vestidas foram carregadas online por razões legítimas.
Além disso, afirmou que a tecnologia de imagem de IA estava sendo usada para criar imagens de celebridades que foram “rejuvenescidas” e retratadas como crianças em cenários de abuso sexual.
Em um único mês, a IWF disse que investigou 11.108 imagens de IA que foram compartilhadas em um fórum de abuso infantil na dark web.
Destas, 2.978 foram confirmadas como imagens que violavam a lei do Reino Unido e 2.562 eram tão realistas que teriam de ser tratadas da mesma forma como se fossem imagens reais de abuso.
Susie Hargreaves, executiva-chefe da IWF, disse: “Nossos piores pesadelos se tornaram realidade. No início deste ano, alertámos que as imagens da IA poderiam em breve tornar-se indistinguíveis das imagens reais de crianças vítimas de abuso sexual e que poderíamos começar a ver estas imagens proliferarem em números muito maiores. Já passamos desse ponto.
“O assustador é que estamos vendo criminosos treinando deliberadamente sua IA em imagens reais de vítimas que já sofreram abusos.
“Crianças que foram violadas no passado estão agora a ser incorporadas em novos cenários porque alguém, algures, quer ver isso.
“Como se não bastasse que as vítimas soubessem que o seu abuso pode estar a ser partilhado em algum canto obscuro da Internet, agora correm o risco de serem confrontadas com novas imagens, de serem abusadas de formas novas e horríveis, nunca antes imaginadas.
“Esta não é uma situação hipotética. Estamos vendo isso acontecendo agora. Estamos vendo os números aumentarem e vimos a sofisticação e o realismo dessas imagens atingirem novos níveis.
“A colaboração internacional é vital. É um problema urgente que precisa de ação agora. Se não controlarmos esta ameaça, este material ameaçará sobrecarregar a Internet.”
A IWF disse temer que um dilúvio de conteúdo gerado por IA possa desviar recursos da detecção e remoção de abusos reais e, em alguns casos, possa levar à perda de oportunidades de identificar e proteger crianças reais.
Reescreva o texto para BR e mantenha a HTML tags