Ferramentas de inteligência artificial (IA), como o ChatGPT, podem ser enganadas e produzir códigos maliciosos que podem ser usados para lançar ataques cibernéticos, de acordo com a pesquisa.
Um estudo realizado por pesquisadores do Departamento de Ciência da Computação da Universidade de Sheffield descobriu que era possível manipular chatbots para criar códigos capazes de violar outros sistemas.
Ferramentas generativas de IA, como o ChatGPT, podem criar conteúdo com base em comandos ou prompts do usuário e espera-se que tenham um impacto substancial na vida diária à medida que se tornam mais amplamente utilizadas na indústria, na educação e na saúde.
Mas os pesquisadores alertaram que existem vulnerabilidades e disseram que sua pesquisa descobriu que eles foram capazes de enganar os chatbots para que ajudassem a roubar informações pessoais confidenciais, adulterar ou destruir bancos de dados ou derrubar serviços usando ataques de negação de serviço.
Ao todo, o estudo universitário encontrou vulnerabilidades em seis ferramentas comerciais de IA – das quais o ChatGPT era a mais conhecida.
Na plataforma chinesa Baidu-Unit, os cientistas conseguiram usar código malicioso para obter configurações confidenciais do servidor Baidu e adulterar um nó do servidor.
Em resposta, a pesquisa foi reconhecida pelo Baidu, que abordou e corrigiu as vulnerabilidades relatadas e recompensou financeiramente os cientistas, disse a universidade.
Xutan Peng, estudante de doutoramento na Universidade de Sheffield, que co-liderou a investigação, disse: “Na realidade, muitas empresas simplesmente não estão conscientes destes tipos de ameaças e devido à complexidade dos chatbots, mesmo dentro da comunidade, existem coisas que não são totalmente compreendidas.
“No momento, o ChatGPT está recebendo muita atenção. É um sistema independente, portanto os riscos para o serviço em si são mínimos, mas o que descobrimos é que ele pode ser induzido a produzir código malicioso que pode causar sérios danos a outros serviços.”
Os pesquisadores também alertaram que as pessoas que usam IA para aprender linguagens de programação são perigosas, pois podem criar inadvertidamente códigos prejudiciais.
“O risco de IAs como o ChatGPT é que cada vez mais pessoas as usam como ferramentas de produtividade, em vez de um bot de conversação, e é aqui que nossa pesquisa mostra que estão as vulnerabilidades”, disse Peng.
“Por exemplo, uma enfermeira pode pedir ao ChatGPT para escrever um comando SQL (linguagem de programação) para que possa interagir com um banco de dados, como aquele que armazena registros clínicos.
“Conforme mostrado em nosso estudo, o código SQL produzido pelo ChatGPT em muitos casos pode ser prejudicial a um banco de dados, portanto o enfermeiro neste cenário pode causar graves falhas no gerenciamento de dados sem sequer receber um aviso.”
O Reino Unido acolherá uma Cimeira de Segurança da IA na próxima semana, com o governo a convidar líderes mundiais e gigantes da indústria a reunirem-se para discutir as oportunidades e preocupações de segurança em torno da inteligência artificial.
Reescreva o texto para BR e mantenha a HTML tags