OpenAI revelou uma nova ferramenta para criar vídeos ultra-realistas gerados por inteligência artificial a partir de entradas de texto, despertando preocupações sobre o uso indevido de tais sistemas de IA para manipular os eleitores antes das eleições.
A ferramenta de IA, chamada Sora, pode ser usada para criar vídeos de até 60 segundos com “cenas altamente detalhadas, movimentos de câmera complexos e vários personagens com emoções vibrantes”, disse a empresa ChatGPT em um blog na quinta-feira.
OpenAI compartilhou vários vídeos de amostra feitos com a ferramenta de IA, que pareciam surreais.
Um exemplo de vídeo mostra duas pessoas, aparentemente um casal, andando por uma rua nevada de Tóquio, de costas para a “câmera”.
O vídeo muito realista foi gerado pela ferramenta de IA a partir de um prompt de texto detalhado: “A bela e nevada cidade de Tóquio está movimentada. A câmera se move pelas movimentadas ruas da cidade, acompanhando diversas pessoas aproveitando o lindo clima de neve e fazendo compras nas barracas próximas. Lindas pétalas de sakura estão voando ao vento junto com flocos de neve.”
Outro vídeo feito com a ferramenta e compartilhado pelo chefe da OpenAI, Sam Altman, mostra mamutes peludos ultrarrealistas caminhando por uma paisagem nevada com montanhas cobertas de neve à distância.
A empresa ChatGPT afirma que o modelo de Sora entende como os objetos “existem no mundo físico” e “interpreta adereços com precisão e gera personagens atraentes que expressam emoções vibrantes”.
O anúncio da ferramenta de IA despertou preocupações entre muitos utilizadores das redes sociais, particularmente sobre a potencial divulgação pública de Sora num ano eleitoral nos EUA.
Os especialistas já levantaram inúmeras preocupações sobre o uso indevido dessa tecnologia de IA, incluindo vídeos deepfake e chatbots na disseminação de desinformação política antes das eleições.
“Minha maior preocupação é como esse conteúdo pode ser usado para enganar, manipular, fazer phishing e confundir o público em geral”, disse a hacker ética Rachel Tobac, membro do conselho consultivo técnico da Agência de Segurança Cibernética e de Infraestrutura (CISA) do governo dos EUA. postado em X.
Embora OpenAI reconhecesse os riscos associados ao uso generalizado da ferramenta, afirmando que estava “tomando várias medidas de segurança importantes antes de disponibilizar o Sora nos produtos de OpenAI, a Sra. Tobac disse que “ainda estava preocupada”.
Citando exemplos de como a ferramenta pode ser mal utilizada, ela disse que os adversários podem usar a ferramenta de IA para criar um vídeo que pareça mostrar um efeito colateral da vacina que não existe.
No contexto das eleições, ela disse que tal ferramenta pode ser mal utilizada para mostrar “filas inimaginavelmente longas com mau tempo” para convencer as pessoas de que não vale a pena sair para votar.
OpenAI disse que suas equipes estão implementando regras para limitar o uso potencialmente prejudicial de Sora, como mostrar violência extrema, semelhança de celebridades ou imagens de ódio.
“Estamos trabalhando com red teamers – especialistas em áreas como desinformação, conteúdo de ódio e preconceito – que estão testando o modelo de forma adversa”, disse o criador do ChatGPT.
Mas Tobac teme que os adversários possam encontrar formas de contornar as regras.
“Veja meu exemplo acima, solicitar a esta ferramenta de IA 'um vídeo de uma longa fila de pessoas esperando sob uma chuva torrencial fora de um prédio' não viola essas políticas – o perigo está na forma como é usado”, explicou ela .
“Se aquele vídeo gerado por IA de uma fila impossivelmente longa de pessoas sob uma chuva torrencial for usado por um adversário para postar nas redes sociais no dia da eleição, agora ele poderia ser usado para convencer certas pessoas a ficarem em casa e evitarem as urnas e a fila/ clima”, explicou o hacker.
Ela pediu à OpenAI que discutisse como poderia fazer parceria com canais de mídia social para reconhecer e rotular automaticamente vídeos gerados por IA compartilhados em plataformas, juntamente com o desenvolvimento de diretrizes para rotular esse conteúdo.
OpenAI não respondeu imediatamente a O Independentepedido de comentário.
“Esta ferramenta será a ferramenta mais poderosa para espalhar desinformação que já existiu na Internet. A elaboração de uma nova narrativa falsa agora pode ser feita em escala dramática e com muito mais frequência – é como ter agentes de IA contribuindo para a desinformação”, disse Gordon Crovitz, co-chefe da NewsGuard, uma empresa de rastreamento de desinformação. O jornal New York Times.