O Google desativou um gerador de imagens depois que ele causou polêmica ao gerar imagens históricas racialmente diversas.
Nos últimos dias, o sistema de inteligência artificial Gemini AI do Google foi criticado por aparentemente estar programado para gerar diversas imagens – mesmo quando são inadequadas. Os usuários descobriram que pedir imagens de soldados nazistas ou dos fundadores dos EUA criaria imagens compostas principalmente ou apenas por mulheres e pessoas de cor.
O Google disse que estava tirando o sistema do ar até que fosse “melhorado”.
“Já estamos trabalhando para resolver problemas recentes com o recurso de geração de imagens do Gemini”, afirmou em comunicado. “Enquanto fazemos isso, vamos pausar a geração de imagens das pessoas e relançaremos uma versão melhorada em breve.”
Parece que o sistema foi construído para refletir a diversidade do mundo – e que o fazia mesmo quando solicitado a apresentar imagens históricas nas quais esse tipo de diversidade não é apropriado.
O Google já havia reconhecido o problema, dizendo em um comunicado que a geração de imagens de IA do Gemini gera propositalmente uma ampla gama de pessoas porque a ferramenta é usada por pessoas ao redor do mundo e isso deveria ser refletido, mas admitiu que a ferramenta estava “errando o alvo aqui”. .
“Estamos trabalhando para melhorar esse tipo de representação imediatamente”, disse o comunicado da empresa, postado em X.
“A geração de imagens de IA do Gemini gera uma ampla gama de pessoas. E isso geralmente é bom porque pessoas ao redor do mundo o usam. Mas está errando o alvo aqui.”
Jack Krawczyk, diretor sênior de experiências Gemini do Google, disse em uma postagem no X: “Estamos cientes de que Gemini está oferecendo imprecisões em algumas representações históricas de geração de imagens e estamos trabalhando para corrigir isso imediatamente.
“Como parte de nossos princípios de IA, projetamos nossos recursos de geração de imagens para refletir nossa base global de usuários e levamos a sério a representação e o preconceito.
“Continuaremos a fazer isso para solicitações abertas (imagens de uma pessoa passeando com um cachorro são universais!).
“Os contextos históricos têm mais nuances e iremos ajustar ainda mais para acomodar isso.”
Ele acrescentou que isso fazia parte do “processo de alinhamento” de implantação da tecnologia de IA e agradeceu aos usuários pelo feedback.
Alguns críticos rotularam a ferramenta como despertada em resposta ao incidente, enquanto outros sugeriram que o Google corrigiu excessivamente em um esforço para evitar a repetição de incidentes anteriores envolvendo inteligência artificial, preconceito racial e diversidade.
No passado, os sistemas de inteligência artificial fabricados por empresas como a Google aparentemente replicaram a natureza racista dos dados que lhe foram fornecidos. Em 2015, por exemplo, o Google Fotos foi criticado por rotular pessoas negras como “gorilas”.
Houve vários exemplos nos últimos anos envolvendo tecnologia e preconceito, incluindo software de reconhecimento facial que luta para reconhecer ou rotular incorretamente rostos negros e serviços de reconhecimento de voz que não conseguem entender o inglês com sotaque.
O incidente ocorre num momento em que o debate em torno da segurança e da influência da IA continua, com especialistas da indústria e grupos de segurança alertando que campanhas de desinformação geradas pela IA provavelmente serão implementadas para perturbar as eleições ao longo de 2024, bem como para semear a divisão entre as pessoas online.
Relatórios adicionais de agências