Os hackers no Irã utilizaram a popular ferramenta de IA ChatGPT para atacar feministas, revelaram pesquisadores.
De acordo com o criador do aplicativo OpenAI, foi um dos vários incidentes de atores apoiados pelo Estado que usaram a tecnologia em campanhas de hackers, incluindo grupos ligados à China, Coreia do Norte e Rússia.
Um relatório publicado na quarta-feira indicou que os hackers estão aprimorando suas habilidades e enganando seus alvos usando ferramentas generativas de inteligência artificial como o ChatGPT, que utiliza grandes quantidades de texto para gerar respostas que parecem humanas.
O grupo de hackers iraniano Crimson Sandstorm usou a tecnologia na tentativa de atrair feministas proeminentes para um site construído por invasores, de acordo com o relatório publicado por pesquisadores da Microsoft, um dos maiores patrocinadores da OpenAI.
Tanto a Microsoft quanto a OpenAI afirmaram que estão implementando uma proibição geral de grupos de hackers apoiados pelo Estado que usam seus produtos de IA.
“Independentemente de haver qualquer violação da lei ou dos termos de serviço, simplesmente não queremos que esses atores de ameaças tenham acesso a esta tecnologia”, disse Tom Burt, vice-presidente de segurança do cliente da Microsoft, em entrevista à Reuters antes do lançamento do relatório.
As autoridades russas, norte-coreanas e iranianas não retornaram imediatamente mensagens solicitando comentários sobre as alegações.
O porta-voz da embaixada da China nos EUA, Liu Pengyu, disse que se opunha a “difamações e acusações infundadas contra a China” e defendia a implantação “segura, confiável e controlável” da tecnologia de IA para “melhorar o bem-estar comum de toda a humanidade”.
A alegação de que hackers apoiados pelo Estado foram apanhados a utilizar ferramentas de IA para aumentar suas capacidades de espionagem é suscetível de sublinhar preocupações sobre a rápida proliferação da tecnologia e seu potencial para abusos. Autoridades de segurança cibernética no Ocidente têm alertado que atores desonestos estavam abusando de tais ferramentas, embora os detalhes tenham sido, até agora, escassos.
“Este é um dos primeiros, se não o primeiro, caso de uma empresa de IA que se apresenta e discute publicamente como os atores de ameaças à segurança cibernética usam tecnologias de IA”, disse Bob Rotsted, que lidera a inteligência de ameaças à segurança cibernética na OpenAI.
Tanto a OpenAI quanto a Microsoft descreveram o uso de suas ferramentas de IA pelos hackers como “estágio inicial” e “incremental”. Burt disse que nenhum dos dois viu espionagem cibernética fazer qualquer avanço.
O relatório descreveu grupos de hackers usando os grandes modelos de linguagem de forma diferente.
Hackers supostamente trabalhando em nome da agência de espionagem militar russa, amplamente conhecida como GRU, usaram os modelos para pesquisar “várias tecnologias de satélite e radar que podem pertencer a operações militares convencionais na Ucrânia”, disse a Microsoft.
A Microsoft disse que hackers norte-coreanos usaram os modelos para gerar conteúdo “que provavelmente seria usado em campanhas de spear-phishing” contra especialistas regionais. Os hackers iranianos também se apoiaram nos modelos para escrever e-mails mais convincentes, disse a Microsoft, a certa altura usando-os para redigir uma mensagem que tentava atrair “feministas proeminentes” para um site armadilhado.
A gigante do software disse que hackers apoiados pelo Estado chinês também estavam experimentando grandes modelos de linguagem, por exemplo, para fazer perguntas sobre agências de inteligência rivais, questões de segurança cibernética e “indivíduos notáveis”.
OpenAI disse que continuará a trabalhar para melhorar suas medidas de segurança, embora admita que os hackers provavelmente ainda encontrarão uma maneira de usar suas ferramentas.
“Tal como acontece com muitos outros ecossistemas, há um punhado de atores maliciosos que requerem atenção sustentada para que todos os outros possam continuar a desfrutar dos benefícios”, afirmou a empresa.
“Embora trabalhemos para minimizar o potencial uso indevido por esses atores, não seremos capazes de impedir todas as instâncias.”
Relatórios adicionais de agências.