Um grupo de profissionais atuais e antigos das principais empresas de Silicon Valley que se dedicam ao desenvolvimento de inteligência artificial fez um alerta em uma carta aberta, indicando que sem medidas adicionais de segurança, a IA poderia representar uma ameaça à “extinção humana”.
A carta, assinada por 13 pessoas, a maioria ex-funcionários de empresas como OpenAI, Anthropic e DeepMind do Google, argumenta que os principais pesquisadores de IA precisam de mais proteções para poder criticar novas descobertas e buscar informações do público e dos legisladores sobre o rumo da inovação em IA.
“Acreditamos no potencial da tecnologia de IA para trazer benefícios sem precedentes à humanidade”, afirmou a carta na terça-feira. “Também reconhecemos os sérios riscos associados a essas tecnologias. Esses riscos vão desde o aprofundamento das desigualdades existentes, passando pela manipulação e desinformação, até a perda de controle de sistemas autônomos de IA, potencialmente resultando na extinção humana.”
A carta argumenta que as empresas que desenvolvem tecnologias poderosas de IA, incluindo a inteligência artificial geral (AGI), um sistema de IA teorizado que é tão ou mais inteligente que a inteligência humana, têm fortes incentivos financeiros para evitar uma supervisão eficaz, tanto por parte de seus funcionários quanto do público em geral.
Neel Nanda, da DeepMind, é o único pesquisador de IA atualmente afiliado a uma das empresas que assinaram a carta.
“Isso NÃO aconteceu porque atualmente tenho algo que gostaria de alertar sobre meus empregadores atuais ou anteriores, ou críticas específicas sobre suas atitudes em relação aos denunciantes”, ele escreveu em um tweet. “Mas acredito que a AGI terá consequências incríveis e, como todos os laboratórios reconhecem, pode representar uma ameaça existencial. Qualquer laboratório que pretenda fazer AGI deve provar que é digno da confiança pública, e os funcionários terem um direito robusto e protegido de denúncia é um primeiro passo fundamental.”
A mensagem pede que as empresas se abstenham de punir ou silenciar funcionários atuais ou antigos que falem sobre os riscos da IA, provavelmente fazendo referência a um escândalo recente na OpenAI, onde os funcionários que estavam saindo foram instruídos a escolher entre perder o patrimônio adquirido ou assinar um acordo de não depreciação sobre a empresa que nunca expiraria. (A OpenAI mais tarde retirou a exigência, afirmando: “Isso não reflete nossos valores ou a empresa que queremos ser.”)
“Estamos orgulhosos de nosso histórico de fornecer os sistemas de IA mais capazes e seguros e acreditamos em nossa abordagem científica para lidar com os riscos”, disse um porta-voz da OpenAI ao Independente. “Concordamos que um debate rigoroso é crucial dada a importância desta tecnologia e continuaremos a colaborar com governos, sociedade civil e outras comunidades em todo o mundo.”
A empresa acrescentou que toma uma série de medidas para garantir que seus funcionários sejam ouvidos e que seus produtos sejam desenvolvidos de maneira responsável, incluindo uma linha direta anônima para os trabalhadores e um Comitê de Segurança e Proteção que examina os desenvolvimentos da empresa. A OpenAI também destacou seu apoio ao aumento da regulamentação da IA e aos compromissos voluntários em torno da segurança da IA.
A carta aberta foi divulgada após um período de controvérsias para as principais empresas de IA, especialmente a OpenAI, que estão introduzindo assistentes e ajudantes de IA com novos recursos poderosos, como a capacidade de ter conversas voz-a-voz ao vivo com humanos e reagir a informações visuais, como um feed de vídeo ou um problema de matemática escrito.
A atriz Scarlett Johansson, que dublou uma assistente de IA no filme “Her”, acusou a OpenAI de usar sua voz como modelo para um de seus produtos, apesar de sua rejeição explícita a tal proposta. Embora o CEO da OpenAI tenha twittado a palavra “ela” no lançamento do assistente de voz, a empresa negou desde então ter usado a voz de Johansson como modelo.
Em maio, a OpenAI dissolveu uma equipe que havia sido formada especificamente para pesquisar os riscos de longo prazo da IA, menos de um ano após sua formação. Vários pesquisadores importantes da empresa também saíram nos últimos meses, incluindo o cofundador Ilya Sutskever.
Essas mudanças ocorreram após a empresa enfrentar uma batalha de alto nível no conselho no ano anterior, na qual Altman foi temporariamente afastado e reintegrado menos de uma semana depois.
O Independente entrou em contato com a Anthropic e o Google para mais comentários.
Este conteúdo reescrito visa fornecer uma análise aprofundada sobre os desafios e preocupações atuais relacionados ao desenvolvimento de inteligência artificial, demonstrando a necessidade de medidas de segurança adicionais e salvaguardas para mitigar os riscos potenciais associados a essa tecnologia.