A IA pode ter implicações profundas para a segurança nacional – incluindo a apresentação de uma série de riscos, alerta um novo relatório encomendado pelo governo.
A inteligência artificial é uma ferramenta valiosa para ajudar altos funcionários do governo e da inteligência a tomar decisões, afirma. Mas também pode levar a imprecisões, confusão e outros perigos, alerta.
Os altos funcionários devem ser treinados para detectar esses problemas, e há uma necessidade crítica de que quaisquer sistemas de IA sejam cuidadosamente observados e monitorados continuamente para garantir que não conduzam a mais preconceitos e erros, alerta.
Podem surgir problemas, por exemplo, porque alguns responsáveis acreditam que a IA é muito mais capaz e segura do que realmente é. Na verdade, a inteligência artificial muitas vezes funciona com base em probabilidades – e pode estar totalmente errada.
Estas são as conclusões do novo relatório do Instituto Alan Turing, a organização nacional de investigação em IA do Reino Unido. Foi encomendado pelas agências de inteligência britânicas, pela Organização Conjunta de Inteligência (JIO) e pela Sede de Comunicação do Governo (GCHQ).
O governo disse que consideraria as recomendações do relatório e que já estava trabalhando no combate aos perigos potenciais que a tecnologia poderia trazer.
“Já estamos tomando medidas decisivas para garantir que aproveitamos a IA de forma segura e eficaz, incluindo a realização da Cúpula de Segurança da IA inaugural e a recente assinatura do nosso Pacto de IA na Cúpula para a Democracia na Coreia do Sul”, disse Oliver Dowden, vice-primeiro-ministro.
O relatório foi escrito pelo Centro de Tecnologia e Segurança Emergentes (CETaS), sediado no Instituto Alan Turing. As autoridades notaram a importância de os decisores garantirem que compreendem a natureza da informação que foi informada pela inteligência artificial.
“Nossa pesquisa descobriu que a IA é uma ferramenta crítica para a comunidade de análise e avaliação de inteligência. Mas também introduz novas dimensões de incerteza, que devem ser comunicadas de forma eficaz àqueles que tomam decisões de alto risco com base em insights enriquecidos com IA”, disse Alexander Babuta, diretor do Centro de Tecnologia e Segurança Emergentes do Instituto Alan Turing.
“Como instituto nacional de IA, continuaremos a apoiar a comunidade de inteligência do Reino Unido com pesquisa independente e baseada em evidências, para maximizar as muitas oportunidades que a IA oferece para ajudar a manter o país seguro.”
O GCHQ, que encomendou conjuntamente o relatório, disse que via um grande potencial na IA – mas que era importante trabalhar também na sua utilização segura.
“A IA não é novidade para o GCHQ ou para a comunidade de avaliação de inteligência, mas o ritmo acelerado da mudança é”, disse Anne Keast-Butler, diretora do GCHQ. “Num mundo cada vez mais contestado e volátil, precisamos de continuar a explorar a IA para identificar ameaças e riscos emergentes, juntamente com a nossa importante contribuição para garantir a segurança e a proteção da IA.”