O fabricante do ChatGPT, OpenAI, diz que interrompeu várias redes de hackers apoiados pelo Estado que tentavam usar o chatbot de IA para promover suas atividades “maliciosos”.
A empresa disse que, juntamente com a Microsoft, desorganizou cinco grupos da China, Irã, Coreia do Norte e Rússia.
A OpenAI disse que os diferentes grupos ligados ao estado usaram seus serviços de IA para realizar pesquisas, traduções, encontrar erros de codificação e executar tarefas básicas de codificação para apoiar suas atividades.
O fabricante do ChatGPT disse que as contas identificadas associadas aos vários grupos foram encerradas.
“Construímos ferramentas de IA que melhoram vidas e ajudam a resolver desafios complexos, mas sabemos que atores mal-intencionados às vezes tentam abusar de nossas ferramentas para prejudicar outras pessoas, inclusive na promoção de operações cibernéticas”, disse OpenAI.
“Entre esses intervenientes maliciosos, os grupos afiliados ao Estado – que podem ter acesso a tecnologia avançada, grandes recursos financeiros e pessoal qualificado – podem representar riscos únicos para o ecossistema digital e para o bem-estar humano.
“Em parceria com a Microsoft Threat Intelligence, interrompemos cinco atores afiliados ao estado que procuravam usar serviços de IA para apoiar atividades cibernéticas maliciosas.
“As atividades desses atores são consistentes com avaliações anteriores da equipe vermelha que conduzimos em parceria com especialistas externos em segurança cibernética, que descobriram que o GPT-4 oferece apenas recursos limitados e incrementais para tarefas maliciosas de segurança cibernética, além do que já é possível com recursos não-IA disponíveis publicamente. ferramentas elétricas.”
Durante a Cimeira de Segurança da IA, organizada no Reino Unido no ano passado, os líderes mundiais e as empresas tecnológicas discutiram os perigos potenciais dos maus actores que utilizam aplicações generativas de IA para os ajudar a realizar ataques cibernéticos e outras actividades nefastas.
O Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido também alertou que mais hackers amadores e pouco qualificados já estavam usando ferramentas generativas de IA para ajudar a aprimorar as habilidades e criar ataques de spam e phishing mais eficazes e convincentes.
A OpenAI observou que vários dos grupos que interrompeu têm usado seus serviços para redigir e criar conteúdo “que poderia ser usado em campanhas de phishing”.