Aparentemente, a intenção era acabar com a especulação. Mas a última imagem divulgada da Princesa de Gales apenas levou a mais disto.
Assim que a foto foi divulgada, as pessoas começaram a notar inconsistências: uma manga que parecia desaparecer e borrões nas bordas das roupas. Muitos sugeriram que tinha sido editada – e muitas agências de fotografia do Reino Unido e internacionais ficaram tão preocupadas que se lembraram da imagem, dizendo ao mundo que não podiam ter a certeza de que era real.
No dia seguinte ao seu lançamento, uma nova declaração atribuída a Kate apareceu em um tweet. “Como muitos fotógrafos amadores, ocasionalmente faço experiências com edição”, dizia. “Quero expressar minhas desculpas por qualquer confusão que a fotografia de família que compartilhamos ontem causou. Espero que todos que comemoram tenham tido um feliz Dia das Mães. C.”
A postagem não mencionou como as edições foram realmente feitas – quais alterações foram feitas ou qual software foi usado para fazê-las. Embora tenha levado a muitas especulações sobre inteligência artificial, não há nada que indique se ela foi ou não usada na imagem.
Mas a sugestão de que foi editado da mesma forma que “muitos fotógrafos amadores” o fazem pode ser uma indicação do facto de que as imagens alteradas estão a tornar-se cada vez mais predominantes – e cada vez mais convincentes. Há uma longa história de imagens enganosas, mas nunca foi tão fácil criá-las como agora.
Na verdade, as imagens editadas são agora tão comuns que as pessoas que as captam podem nem perceber que o estão a fazer. Novos telefones e outras câmeras incluem tecnologia que tenta melhorar as imagens – mas também pode alterá-las de maneiras desconhecidas.
Os novos telefones Pixel do Google, por exemplo, incluem um recurso “Best Take” que é uma parte fundamental de seu marketing. É uma tentativa de resolver um problema que atormenta as fotos desde que as pessoas começaram a usá-las para tirar retratos: em qualquer conjunto de fotos de um grupo de pessoas, é garantido que uma delas pisque ou desvie o olhar. Não seria bom poder juntar todas as melhores partes em uma imagem composta e aprimorada?
É isso que o Pixel faz. As pessoas podem tirar uma série de fotos semelhantes e o telefone irá reuni-las e encontrar os rostos das pessoas. Eles podem então ser trocados: o rosto de uma pessoa que pisca pode ser substituído por outra imagem e ficará perfeitamente mesclado.
Recentemente, também, usuários de telefones Samsung mais recentes notaram que suas câmeras pareciam sobrepor diferentes luas nas fotos que haviam tirado. Os usuários descobriram que, se apontassem a câmera para uma imagem borrada da Lua, novos detalhes que realmente não existiam apareciam; só foi descoberto após alguma investigação do Reddit.
Seguiu-se uma controvérsia, e a Samsung admitiu que seus telefones têm um “mecanismo de aprimoramento de detalhes de IA baseado em aprendizado profundo” integrado, que pode localizar a Lua e adicionar mais detalhes que não estavam realmente presentes quando a imagem foi tirada. A Samsung disse que foi construída para “melhorar os detalhes da imagem”, mas alguns clientes afetados reclamaram que estavam sendo imagens da Lua que na verdade não tiraram.
Tornou-se cada vez mais fácil alterar partes de uma foto depois de tirada também. A Adobe introduziu uma ferramenta chamada “preenchimento generativo” no Photoshop – os usuários podem selecionar parte de uma foto, dizer à IA o que gostariam que ela fosse trocada e fazer com que isso acontecesse. Um suéter contrastante pode ser trocado por um mais atraente em questão de segundos, por exemplo.
As inúmeras controvérsias levaram a algumas conversas sobre o que realmente é uma imagem. As fotografias podem nunca ter sido uma simples questão de luz atingindo um sensor, mas tornaram-se muito mais complicadas nos últimos anos. A era da “fotografia computacional” significa que os dispositivos usam seu hardware para processar imagens de maneiras que podem torná-las mais atraentes, mas menos precisas; ferramentas de edição prontamente disponíveis significam que alterações precisas nas fotografias não ficam mais confinadas à câmara escura.
Grande parte da conversa recente sobre manipulação de imagens tem se concentrado na inteligência artificial generativa, que facilita a edição de imagens ou sua criação completa. Mas as preocupações com imagens falsas remontam a muito mais tempo – o Photoshop, o software tão predominante que se tornou sinónimo de edições enganosas, foi criado em 1987, e a primeira imagem falsa foi criada quase imediatamente após a invenção da fotografia moderna.
A ascensão da IA, no entanto, levou a uma nova preocupação sobre como as imagens falsas podem prejudicar a confiança em qualquer tipo de imagem – e a novos trabalhos para tentar evitar que isso aconteça. Isso incluiu um novo foco na detecção e remoção de imagens enganosas das redes sociais, por exemplo.
As mesmas empresas de tecnologia que estão construindo novas ferramentas que podem editar imagens também estão procurando maneiras de as pessoas identificá-las. A Adobe possui novas ferramentas chamadas “Credenciais de Conteúdo” que permitem aos usuários destacar se uma imagem foi editada e como; OpenAI, Google e outros estão explorando a adição de marcas d’água invisíveis às imagens para que as pessoas possam verificar de onde elas vieram.
Algumas informações úteis já estão ocultas nos arquivos de imagens. As câmeras atuais incluem informações nos arquivos que criam sobre qual equipamento foi usado para fabricá-las e quando foram tiradas, por exemplo – embora seja fácil removê-las.
As agências de fotografia tradicionais há muito tempo têm regras que proíbem qualquer tipo de imagem enganosa ou editada. Mas exigem que essas agências exerçam alguma discrição: fixar as cores numa imagem é uma parte central do trabalho dos fotógrafos, por exemplo, e essas agências distribuem frequentemente fotografias de outras fontes que não podem necessariamente verificar, como aconteceu com a fotografia de Kate .
A Associated Press, que foi uma das primeiras agências a retirar a imagem, afirma no seu código de ética para fotojornalistas que “as imagens da AP devem sempre dizer a verdade”. “Não alteramos ou manipulamos digitalmente o conteúdo de uma fotografia de forma alguma”.
Essas palavras firmes não são necessariamente tão definitivas quanto parecem. O AP permite “pequenos ajustes no Photoshop”, como recortá-lo ou alterar as cores. Mas o objetivo deles é “restaurar a natureza autêntica da fotografia”, diz.
Da mesma forma, o código da AP permite imagens que “foram fornecidas e alteradas por uma fonte”. Mas diz que “a legenda deve explicá-lo claramente”, e exige que a transmissão de tais imagens seja aprovada por um “editor fotográfico sênior”.
A agência tem regras semelhantes sobre imagens geradas por IA: elas não podem ser usadas para adicionar ou remover elementos de uma foto e não podem ser usadas se forem “suspeitas ou comprovadas de serem representações falsas da realidade”. Não houve indicação de que a foto de Kate tivesse algo a ver com IA, e nem a AP ou outras agências fotográficas mencionaram a tecnologia em seu comunicado – mas, independentemente de como foi editada, emergiu em um mundo mais sintonizado do que nunca com a facilidade. e perigo de imagens enganosas.
Muito do trabalho nesse tipo de padrão aconteceu ao longo do último ano – desde que o ChatGPT foi lançado e deu início a um novo entusiasmo sobre a inteligência artificial. Mas levou a novos padrões sobre imagens enganosas, a um novo pensamento sobre fotografias que poderiam ter sido tiradas décadas antes e a uma nova preocupação sobre como é simples enganar as pessoas. Pode ser mais fácil do que nunca criar imagens falsas – mas isso pode ter tornado muito mais difícil usá-las.