O Reino Unido, os EUA e outros governos divulgaram planos que esperam impedir que a inteligência artificial seja sequestrada por atores desonestos.
O grande acordo – aclamado como o primeiro do género – representa uma tentativa de codificar regras que manterão a IA segura e garantirão que os sistemas sejam construídos para serem seguros desde a concepção.
Num documento de 20 páginas divulgado no domingo, os 18 países concordaram que as empresas que concebem e utilizam IA precisam de desenvolvê-la e implementá-la de uma forma que mantenha os clientes e o público em geral protegidos contra utilização indevida.
O acordo não é vinculativo e traz principalmente recomendações gerais, como monitoramento de abusos nos sistemas de IA, proteção de dados contra adulteração e verificação de fornecedores de software.
Ainda assim, a diretora da Agência de Segurança Cibernética e de Infraestruturas dos EUA, Jen Easterly, disse que era importante que tantos países colocassem os seus nomes na ideia de que os sistemas de IA precisavam de colocar a segurança em primeiro lugar.
“Esta é a primeira vez que vimos uma afirmação de que essas capacidades não deveriam ser apenas sobre recursos interessantes e a rapidez com que podemos colocá-los no mercado ou como podemos competir para reduzir custos”, disse Easterly à Reuters, dizendo que as diretrizes representam “um acordo de que a coisa mais importante que precisa ser feita na fase de design é a segurança.”
O acordo é o mais recente de uma série de iniciativas – poucas das quais com força – levadas a cabo por governos de todo o mundo para moldar o desenvolvimento da IA, cujo peso é cada vez mais sentido na indústria e na sociedade em geral.
Além dos Estados Unidos e da Grã-Bretanha, os 18 países que assinaram as novas directrizes incluem Alemanha, Itália, República Checa, Estónia, Polónia, Austrália, Chile, Israel, Nigéria e Singapura.
A estrutura trata de questões sobre como evitar que a tecnologia de IA seja sequestrada por hackers e inclui recomendações como a liberação de modelos apenas após testes de segurança apropriados.
Não aborda questões espinhosas sobre os usos apropriados da IA ou sobre como os dados que alimentam esses modelos são coletados.
A ascensão da IA alimentou uma série de preocupações, incluindo o receio de que pudesse ser utilizada para perturbar o processo democrático, turbinar a fraude ou levar à perda dramática de empregos, entre outros danos.
A Europa está à frente dos Estados Unidos na regulamentação em torno da IA, com os legisladores a elaborarem regras para a IA. A França, a Alemanha e a Itália também chegaram recentemente a um acordo sobre a forma como a inteligência artificial deve ser regulamentada, apoiando a “auto-regulação obrigatória através de códigos de conduta” para os chamados modelos básicos de IA, concebidos para produzir uma ampla gama de resultados.
A administração Biden tem pressionado os legisladores para a regulamentação da IA, mas o polarizado Congresso dos EUA fez pouco progresso na aprovação de uma regulamentação eficaz.
A Casa Branca procurou reduzir os riscos da IA para os consumidores, trabalhadores e grupos minoritários, ao mesmo tempo que reforçou a segurança nacional com uma nova ordem executiva em Outubro.
Reportagem adicional da Reuters