Vírus sintéticos podem ser gerados através do uso indevido de inteligência artificial e potencialmente desencadear pandemias, alertou um ex-executivo do Google e especialista em IA.
O cofundador do Google DeepMind, Mustafa Suleyman, expressou preocupação de que o uso de IA para projetar patógenos para causar mais danos possa levar a um cenário como uma pandemia.
“O cenário mais sombrio é que as pessoas façam experiências com patógenos, patógenos sintéticos projetados que podem acabar acidentalmente ou intencionalmente sendo mais transmissíveis ou mais letais”, disse ele em um episódio recente de um podcast.
Semelhante à forma como existem restrições em vigor para impedir que as pessoas tenham acesso fácil a micróbios patogénicos como o antraz, o Sr. Suleyman apelou a meios para restringir o acesso à tecnologia avançada de IA e ao software que executa tais modelos.
“É aí que precisamos de contenção. Temos que limitar o acesso às ferramentas e ao know-how para realizar esse tipo de experimentação”, disse ele em O diário de um CEO podcast.
“Não podemos permitir que qualquer pessoa tenha acesso a eles. Precisamos limitar quem pode usar o software de IA, os sistemas em nuvem e até mesmo parte do material biológico”, disse o cofundador do Google DeepMind.
“E, claro, do lado da biologia, significa restringir o acesso a algumas das substâncias”, disse ele, acrescentando que o desenvolvimento da IA precisa de ser abordado com um “princípio de precaução”.
As declarações de Suleyman reflectem preocupações levantadas num estudo recente de que mesmo estudantes de licenciatura sem formação relevante em biologia podem detalhar sugestões para armas biológicas a partir de sistemas de IA.
Pesquisadores, incluindo os do Instituto de Tecnologia de Massachusetts, descobriram que os chatbots podem sugerir “quatro potenciais patógenos pandêmicos” em uma hora e explicar como eles podem ser gerados a partir de DNA sintético.
A pesquisa descobriu que os chatbots também “forneceram os nomes de empresas de síntese de DNA que provavelmente não rastreariam pedidos, identificaram protocolos detalhados e como solucioná-los e recomendaram que qualquer pessoa que não tivesse as habilidades para realizar genética reversa contratasse uma instalação central ou organização de pesquisa contratada”.
Esses grandes modelos de linguagem (LLMs), como o ChatGPT, “tornarão os agentes de classe pandémica amplamente acessíveis assim que forem identificados de forma credível, mesmo para pessoas com pouca ou nenhuma formação laboratorial”, afirma o estudo.
O estudo, cujos autores incluíam Kevin Esvelt, especialista em riscos biológicos do MIT, apelou a “medidas de não proliferação”.
Tais medidas poderiam incluir “avaliações de pré-lançamento de LLMs por terceiros, curadoria de conjuntos de dados de treinamento para remover conceitos prejudiciais e triagem verificável de todo o DNA gerado por fornecedores de síntese ou usado por organizações de pesquisa contratadas e ‘laboratórios de nuvem’ robóticos para projetar organismos ou vírus” .
Reescreva o texto para BR e mantenha a HTML tags