Pub.
Mundo
Tendência

IWF diz que IA está a multiplicar imagens de abuso sexual de menores 

Pub.

A Internet Watch Foundation (IWF) afirma, no seu relatório anual, ter encontrado cerca de 3 mil imagens de abuso sexual infantil criadas por inteligência artificial. Segundo esta organização, sediada no Reino Unido, imagens reais das vítimas estão sendo incorporadas em modelos de IA, que, então produzem novas representações delas.

De acordo com uma reportagem do jornal The Guardian, além disso, a tecnologia de IA também está sendo usada para criar imagens de celebridades que foram “rejuvesnecidas” e depois retratadas como crianças em cenários de abuso sexual. Outros exemplos de abuso sexual infantil incluem o uso de ferramentas de IA para “despir” fotos de crianças vestidas encontradas online. 

Publicidade

Susie Hargreaves, diretora executiva da IWF, afirmou que “os piores pesadelos se tornaram realidade”. “No início deste ano, alertamos que as imagens da IA poderiam tornar-se indistinguíveis das reais de crianças que sofrem abuso sexual e que poderíamos começar a ver estas imagens proliferarem em números muito maiores. Já ultrapassamos ese ponto.”

Para esta responsável, o que é assustador é que estão a ver criminosos treinado sua IA em imagens reais de vítimas que já sofreram abusos. “Crianças que foram violadas no passado estão a ser agora incorporadas em novos cenários porque alguém, em algum lugar, quer ver isso”.

Publicidade

A IWF revelou ainda que viu evidências de imagens geradas por IA sendo vendidas online. Essas descobertas, informa o The Guardian, foram baseadas em uma investigação realizada em um fórum sobre abuso infantil na dark web. 

A entidade analisou 11.108 imagens no fórum, sendo que 2.978 delas violavam a lei britânica de Proteção da Criança, que criminaliza a obtenção, a distribuição e a posse de “fotografia indecente ou pseudofotografia” de crianças. Desse total, mais de uma em cada cinco foram classificadas como categoria A, o tipo de conteúdo mais grave, que pode retratar estupro e violência sexual.

Publicidade

Dan Sexton, diretor de tecnologia da IWF, relatou que a ferramenta de geração de imagens Stable Diffusion foi a única citada no fórum. “Temos visto discussões em torno da criação de conteúdo usando Stable Diffusion, que é um software disponível abertamente.”

A Stability AI, a empresa do Reino Unido por trás do produto, informou que “proíbe qualquer uso indevido para fins ilegais ou imorais”.

Mostrar mais

Constanca Pina

Formada em jornalismo pela Universidade Federal Fluminense (UFF-RJ). Trabalhou como jornalista no semanário A Semana de 1997 a 2016. Sócia-fundadora do Mindel Insite, desempenha as funções de Chefe de Redação e jornalista/repórter. Paralelamente, leccionou na Universidade Lusófona de Cabo Verde de 2013 a 2020, disciplinas de Jornalismo Económico, Jornalismo Investigativo e Redação Jornalística. Atualmente lecciona a disciplina de Jornalismo Comparado na Universidade de Cabo Verde (Uni-CV).

Artigos relacionados

Botão Voltar ao topo