Meta e OpenAI estão trabalhando juntas para encontrar maneiras de rotular imagens geradas por inteligência artificial.
Ambas as empresas estão adicionando rótulos – ocultos ou não – que devem permitir que as pessoas rastreiem a origem de uma imagem ou outro conteúdo.
A OpenAI irá adicionar novos recursos ao ChatGPT e DALL-E 3, que colocarão uma tag nos metadados da imagem para deixar claro que ela foi criada com IA. Ela utilizará o padrão C2PA, que visa permitir que as imagens carreguem mais informações sobre como foram criadas e que também está sendo adotado por empresas de câmeras e outras que fabricam ferramentas para geração de imagens.
No entanto, a OpenAI observou que “os rótulos podem ser facilmente removidos acidentalmente ou intencionalmente”, e, portanto, não são uma garantia. A maioria dos sites de mídia social remove esses metadados, e eles podem ser removidos simplesmente fazendo uma captura de tela.
As ferramentas da Meta tentarão detectar conteúdo no Facebook, Instagram e Threads que foi gerado pela IA e rotulá-los.
A gigante das redes sociais disse que está atualmente desenvolvendo a capacidade e que a implementará em suas plataformas sociais nos “próximos meses”, e antes de uma série de importantes eleições globais este ano.
A Meta já coloca rótulos em imagens criadas usando sua própria IA, mas disse que seu novo recurso permitirá rotular imagens criadas por IA do Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock como parte de um esforço de toda a indústria para usar “melhores práticas” e colocar “marcadores invisíveis” nas imagens e seus metadados para ajudar a identificá-los como gerados por IA.
O ex-vice-primeiro-ministro, Sir Nick Clegg, agora presidente de assuntos globais da Meta, reconheceu a capacidade potencial de maus atores utilizarem imagens geradas por IA para espalhar desinformação como um dos principais motivos para a Meta introduzir o recurso.
“Este trabalho é especialmente importante, pois é provável que o espaço se torne cada vez mais adversário nos próximos anos”, disse ele.
“Pessoas e organizações que desejam ativamente enganar outras pessoas com conteúdo gerado por IA procurarão maneiras de contornar as salvaguardas implementadas para detectá-lo. Em toda a nossa indústria e na sociedade em geral, precisaremos continuar procurando maneiras de estar um passo à frente.
Enquanto isso, é importante que as pessoas considerem várias coisas ao determinar se o conteúdo foi criado por IA, como verificar se a conta que compartilha o conteúdo é confiável ou procurar detalhes que possam parecer ou não naturais.”
Relatórios adicionais de agências