Cuando Gary Schildhorn pegou o telefone enquanto voltava para o trabalho em 2020, ele ouviu a voz em pânico de seu filho Brett do outro lado da linha.
Ou assim ele pensou.
Um Brett angustiado disse ao Sr. Schildhorn que havia destruído o carro e precisava de US$ 9.000 para pagar a fiança. Brett disse que estava com o nariz quebrado, que havia batido no carro de uma mulher grávida e instruiu o pai a ligar para o promotor público designado para seu caso.
Schildhorn obedeceu, mas uma breve ligação com o suposto defensor público, que lhe ordenou que enviasse o dinheiro por meio de um quiosque Bitcoin, fez com que o pai preocupado se sentisse desconfortável com a situação. Após uma chamada de acompanhamento com Brett, Schildhorn percebeu que quase foi vítima do que a Comissão Federal de Comércio apelidou de “golpe de emergência familiar”.
“Uma ligação do FaceTime do meu filho, ele aponta para o nariz e diz: ‘Meu nariz está bem, estou bem, você está sendo enganado’”, disse Schildhorn, advogado corporativo na Filadélfia, ao Congresso. durante uma audiência no início deste mês. “Fiquei sentado lá no meu carro, fui fisicamente afetado por isso. Foi choque, raiva e alívio.”
O elaborado esquema envolve golpistas que usam inteligência artificial para clonar a voz de uma pessoa, que é então usada para enganar entes queridos para que enviem dinheiro para cobrir uma suposta emergência. Quando contatou o departamento local de aplicação da lei, Schildhorn foi redirecionado ao FBI, que então lhe disse que a agência estava ciente do tipo de fraude, mas não poderia se envolver a menos que o dinheiro fosse enviado para o exterior.
A FTC soou o alarme pela primeira vez em março; Não confie na voz. A agência alertou os consumidores que já se foram os dias das fraudes desajeitadas facilmente identificáveis e que as tecnologias sofisticadas trouxeram um novo conjunto de desafios que as autoridades ainda estão a tentar enfrentar.
Tudo o que é necessário para replicar uma voz humana é um breve áudio da pessoa falando – em alguns casos, facilmente acessível através de conteúdo publicado nas redes sociais. A voz é imitada por um programa de clonagem de voz de IA para soar exatamente como o clipe original.
Novos golpes de IA imitam entes queridos em apuros
Alguns programas exigem apenas um clipe de áudio de três segundos para gerar o que o golpista pretende com uma emoção ou estilo de fala específico, de acordo com Revista PC. A ameaça também está presente de que membros da família perplexos que atendem ao telefone e fazem perguntas para corroborar a história do golpista também possam ser gravados, fornecendo assim, inadvertidamente, mais munição para os golpistas.
“Os golpistas pedem que você pague ou envie dinheiro de maneiras que dificultam a recuperação do seu dinheiro”, disse o FTC estados consultivos. “Se o chamador disser para transferir dinheiro, enviar criptomoeda ou comprar cartões-presente e fornecer os números do cartão e PINs, isso pode ser sinal de fraude.”
A ascensão dos golpes de clonagem de voz de IA forçou os legisladores a explorar locais para regular o uso de novas tecnologias. Durante uma audiência no Senado em junho, a mãe da Pensilvânia, Jennifer DeStefano, compartilhou sua própria experiência com golpes de clonagem de voz e como isso a deixou abalada.
Na audiência de junho, Stefano contou ter ouvido quem ela acreditava ser sua filha de 15 anos chorando e soluçando ao telefone antes que um homem lhe dissesse que iria “bombear [the teen’s] estômago cheio de drogas e mandá-la para o México” se a mãe chamasse a polícia. Uma ligação para sua filha confirmou que ela estava segura.
“Nunca serei capaz de tirar da minha mente aquela voz e o grito desesperado por ajuda”, disse DeStefano na época. “Não há limite para o mal que a IA pode trazer. Se não for controlado e regulamentado, reescreverá o conceito do que é real e do que não é.”
Infelizmente, a legislação existente não protege as vítimas deste tipo de fraude.
O especialista em IP Michael Teich escreveu em uma coluna de agosto para IPWatchdog que leis destinadas a proteger a privacidade podem ser aplicadas em alguns casos de golpes de clonagem de voz, mas só podem ser acionadas pela pessoa cuja voz foi usada, e não pela vítima da fraude.
Entretanto, as leis de direitos de autor existentes não reconhecem a propriedade da voz de uma pessoa.
“Isso deixou-me frustrado porque estive envolvido em casos de fraude ao consumidor e quase caí nesta”, disse Schildhorn ao Congresso. “A única coisa que pensei que poderia fazer foi avisar as pessoas… Recebi ligações de pessoas de todo o país que… perderam dinheiro e ficaram arrasadas. Eles ficaram emocional e fisicamente magoados, quase ligaram para receber um abraço.”
A FTC ainda não estabeleceu quaisquer requisitos para as empresas que desenvolvem os programas de clonagem de voz, mas, segundo Teich, estas poderão enfrentar consequências jurídicas se não fornecerem salvaguardas no futuro.
Para enfrentar o número crescente de fraudes de clonagem de voz, a FTC anunciou um apelo aberto à ação. Os participantes são convidados a desenvolver soluções que protejam os consumidores dos danos da clonagem de voz, e os vencedores receberão um prêmio de US$ 25.000.
A agência pede às vítimas de fraude de clonagem de voz que denunciem essas fraudes em seu site.