Alguns dos maiores empresas de tecnologia e IA do mundo concordaram em seguir novos princípios de segurança online concebidos para combater a criação e disseminação de material de abuso sexual infantil gerado por IA.
Amazon, Google, Meta, Microsoft e OpenAI, criadora do ChatGPT, estão entre as empresas que aderiram aos princípios, chamados Safety By Design. Os compromissos foram elaborados pelo grupo de segurança infantil on-line Thorn e pela organização sem fins lucrativos All Tech is Human e vê as empresas se comprometerem a desenvolver, implantar e manter modelos generativos de IA com a segurança infantil no centro, em um esforço para evitar o uso indevido da tecnologia em exploração infantil.
Os princípios fazem com que as empresas se comprometam a desenvolver, construir e treinar modelos de IA que abordem proativamente os riscos de segurança infantil, por exemplo, garantindo que os dados de treinamento não incluam material de abuso sexual infantil, bem como mantendo a segurança após sua liberação, permanecendo alertas e respondendo às questões de segurança infantil riscos que surgem.
Ferramentas generativas de IA, como o ChatGPT, tornaram-se a principal área de desenvolvimento no setor de tecnologia nos últimos 18 meses, com uma série de modelos de IA e ferramentas de geração de conteúdo sendo desenvolvidos e lançados pelas principais empresas.
Quanto mais empresas aderirem a estes compromissos, melhor poderemos garantir que esta poderosa tecnologia esteja enraizada na segurança, enquanto a janela de oportunidade ainda está aberta para ação.
A rápida ascensão fez com que as redes sociais e outras plataformas fossem inundadas com palavras, imagens e vídeos gerados pela IA, com muitos grupos de segurança online alertando para as implicações de mais conteúdos falsos e enganosos serem vistos e espalhados online.
No início deste ano, a instituição de caridade infantil NSPCC alertou que os jovens já estavam a contactar a Childline sobre material de abuso sexual infantil gerado por IA.
Falando sobre os novos princípios acordados, a Dra. Rebecca Portnoff, vice-presidente de ciência de dados da Thorn, disse: “Estamos numa encruzilhada com a IA generativa, que traz tanto promessas quanto riscos em nosso trabalho para defender as crianças do abuso sexual.
“Vi em primeira mão como o aprendizado de máquina e a IA aceleram a identificação de vítimas e a detecção de materiais de abuso sexual infantil. Mas estas mesmas tecnologias já estão, hoje, a ser mal utilizadas para prejudicar as crianças.
“O fato de este grupo diversificado de empresas líderes de IA ter se comprometido com os princípios de segurança infantil deveria ser um grito de guerra para o resto da comunidade tecnológica priorizar a segurança infantil por meio do Safety by Design.
“Esta é a nossa oportunidade de adoptar normas que previnam e mitiguem o uso indevido destas tecnologias para causar mais danos sexuais contra crianças. Quanto mais empresas aderirem a estes compromissos, melhor poderemos garantir que esta poderosa tecnologia esteja enraizada na segurança, enquanto a janela de oportunidade ainda está aberta para ação.”