O criador do CahtGPT, OpenAI, expôs seu plano para evitar que sua tecnologia seja usada para espalhar desinformação e interferir nas eleições.
Mais de 50 países irão às urnas este ano, naquela que está a ser considerada a maior demonstração de democracia de sempre. No entanto, o recente aumento da inteligência artificial generativa levou a receios de que pudesse representar uma ameaça a eleições livres e justas.
Uma das principais preocupações diz respeito às imagens deepfake que podem ser criadas usando ferramentas como o Dall-E da OpenAI. Estes podem manipular imagens existentes ou gerar representações inteiramente novas de políticos em situações comprometedoras.
Outro tipo de IA que pode ser potencialmente mal utilizado são os geradores baseados em texto, como o ChatGPT, que podem criar uma escrita convincentemente humana.
“Enquanto nos preparamos para as eleições em 2024 nas maiores democracias do mundo, a nossa abordagem é continuar o nosso trabalho de segurança da plataforma, elevando informações precisas sobre votação, aplicando políticas ponderadas e melhorando a transparência”, afirmou um Postagem do blog OpenAI abordando a IA e as eleições.
“Como qualquer nova tecnologia, essas ferramentas trazem benefícios e desafios. Eles também não têm precedentes e continuaremos evoluindo nossa abordagem à medida que aprendermos mais sobre como nossas ferramentas são usadas.”
A OpenAI disse que reuniu membros de suas equipes de sistemas de segurança, inteligência de ameaças, jurídicas, de engenharia e políticas para investigar e resolver qualquer abuso potencial de sua tecnologia.
A empresa sediada em São Francisco já tem medidas em vigor para evitar que a sua ferramenta Dall-E aceite pedidos de geração de imagens de pessoas reais, no entanto, outras startups de IA não têm tais protecções.
O presidente-executivo da OpenAI, Sam Altman, disse anteriormente que estava “nervoso” com a ameaça que a IA geradora representa para a integridade eleitoral, testemunhando perante o Congresso em maio que poderia ser usada de uma forma inovadora para espalhar “desinformação interativa individual”.
Entre as novas medidas para evitar esse uso indevido está um novo recurso do ChatGPT que direciona os usuários dos EUA ao site CanIVote.org para oferecer informações confiáveis sobre votação.
Novas formas de identificar imagens geradas por IA também estão sendo desenvolvidas, com a OpenAI trabalhando com a Coalition for Content Provenance and Authenticity para colocar ícones em imagens falsas.
O conteúdo deepfake já foi usado na tentativa de influenciar as eleições, com áudio gerado por IA usado na preparação para as eleições na Eslováquia no ano passado que comprometeu um dos candidatos.
O Partido Trabalhista do Reino Unido também foi alvo de áudio deepfake, com uma gravação falsa do líder do partido, Keir Starmer, dizendo “Eu odeio Liverpool”, surgindo em outubro.
Uma pesquisa recente do site de comparação Finder.com descobriu que apenas 1,5% das pessoas no Reino Unido conseguiram identificar corretamente clipes deepfake de celebridades e políticos.