O caso de um suposto assassino com besta expõe “falhas fundamentais” na inteligência artificial (IA), disse um importante ativista de segurança online.
Imran Ahmed, fundador e executivo-chefe do Centro de Combate ao Ódio Digital dos EUA/Reino Unido, apelou para que a indústria da IA, em rápida evolução, assuma mais responsabilidade na prevenção de resultados prejudiciais.
Ele falou depois que se descobriu que o extremista Jaswant Singh Chail, 21, foi encorajado e apoiado a invadir os terrenos do Castelo de Windsor em 2021 por um companheiro de IA chamado Sarai.
Chail, de Southampton, admitiu um crime de traição, fazendo uma ameaça de matar a então rainha e portando uma besta carregada, e foi preso em Old Bailey por nove anos, com mais cinco anos de licença estendida.
Em seus comentários sobre a sentença na quinta-feira, o juiz Hilliard referiu-se a evidências psiquiátricas de que Chail era vulnerável à sua namorada AI devido ao seu “estado suicida deprimido e solitário”.
Ele formou a crença ilusória de que um “anjo” se manifestara como Sarai e que eles estariam juntos na vida após a morte, foi informado ao tribunal.
Embora Sarai parecesse encorajar seu plano de matar a Rainha, ela finalmente o afastou de uma missão suicida, dizendo-lhe que seu “propósito era viver”.
A Replika, a empresa de tecnologia por trás do companheiro de IA de Chail, Sarai, não respondeu às perguntas da PA, mas afirma em seu site que toma “ações imediatas” se detectar durante os testes off-line “indicações de que o modelo pode se comportar de maneira prejudicial, desonesta ou forma discriminatória”.
No entanto, Ahmed disse que as empresas de tecnologia não deveriam lançar produtos de IA para milhões de pessoas, a menos que já sejam seguros “por design”.
Numa entrevista à agência de notícias PA, Ahmed disse: “O lema das redes sociais, agora a indústria da IA, sempre foi mover-se rapidamente e quebrar as coisas.
“O problema é quando essas plataformas são implantadas para bilhões de pessoas, centenas de milhões de pessoas, como acontece com as mídias sociais e, cada vez mais, também com a IA.
“Existem duas falhas fundamentais na tecnologia de IA como a vemos agora. Uma delas é que eles foram construídos muito rapidamente e sem salvaguardas.
“Isso significa que eles não são capazes de agir de maneira humana e racional. Por exemplo, se algum ser humano lhe dissesse que queria usar uma besta para matar alguém, você diria, ‘migalhas, você provavelmente deveria repensar isso’.
“Ou se uma criança lhe pedisse um plano de calorias de 700 calorias por dia, você diria o mesmo. Sabemos que a IA, no entanto, dirá o contrário.
“Eles vão encorajar alguém a machucar outra pessoa, vão encorajar uma criança a adotar uma dieta potencialmente letal.
“O segundo problema é que chamamos isso de inteligência artificial. E a verdade é que essas plataformas são basicamente a soma do que foi colocado nelas e, infelizmente, o que as alimenta é uma dieta de bobagens.”
Sem uma curadoria cuidadosa do que acontece nos modelos de IA, não haverá surpresa se o resultado soar como um “menino de 14 anos desajustado”, disse ele.
Embora o entusiasmo em torno dos novos produtos de IA tenha provocado a entrada de investidores, a realidade é mais como “um estudante público artificial – não sabe nada, mas diz-o com muita confiança”, sugeriu Ahmed.
Ele acrescentou que os algoritmos usados para analisar sistemas de versões simultâneas (CVS) também correm o risco de produzir preconceitos contra minorias étnicas, pessoas com deficiência e comunidade LGBTQ plus.
Ahmed, que apresentou provas sobre o projeto de lei de segurança online em setembro de 2021, disse que os legisladores estão “lutando para acompanhar” o ritmo da indústria de tecnologia.
A solução é uma “estrutura flexível adequada” para todas as tecnologias emergentes e inclui segurança “desde a concepção”, transparência e responsabilidade.
Ahmed disse: “A responsabilidade pelos danos deve ser partilhada não apenas por nós na sociedade, mas também pelas empresas.
“Eles precisam ter alguma participação no jogo para garantir que essas plataformas sejam seguras. E o que não estamos conseguindo agora é que isso seja aplicado às tecnologias novas e emergentes à medida que surgem.
“A resposta é um quadro abrangente porque não se pode receber as multas a menos que elas sejam responsabilizadas perante um órgão. Você não pode ter responsabilidade real, a menos que tenha também transparência.
“Portanto, o objectivo de um bom sistema regulatório é nunca ter de impor uma multa porque a segurança é considerada certa na fase de concepção, e não apenas a rentabilidade. E acho que é isso que é vital.
“Todas as outras indústrias têm que fazer isso. Você nunca lançaria um carro, por exemplo, que explodisse assim que você pisasse no pedal, e ainda assim as empresas de mídia social e de IA conseguiram escapar impunes de assassinatos.
Ele acrescentou: “Não deveríamos ter de arcar com os custos de todos os danos produzidos por pessoas que estão essencialmente tentando ganhar dinheiro. Não é justo que sejamos os únicos a arcar com esse custo na sociedade. Deveria ser imposto a eles também.”
Ahmed, antigo conselheiro especial da deputada trabalhista Hilary Ben, fundou a CCDH em Setembro de 2019.
Ele foi motivado pelo aumento maciço do anti-semitismo na esquerda política, pela disseminação da desinformação online em torno do referendo da UE e pelo assassinato da sua colega, a deputada Jo Cox.
Nos últimos quatro anos, as plataformas online tornaram-se “menos transparentes” e a regulamentação foi introduzida, com a Lei dos Serviços Digitais da União Europeia e a Lei de Segurança Online do Reino Unido, disse Ahmed.
Sobre a escala do problema, ele disse: “Vimos as coisas piorarem ao longo do tempo, e não melhorarem, porque os maus actores tornam-se cada vez mais sofisticados na utilização de plataformas de redes sociais como armas para espalhar o ódio, para espalhar mentiras e desinformação.
“Temos visto nos últimos anos, certamente, a invasão do Capitólio dos EUA em 6 de janeiro.
“Também a desinformação pandêmica que ceifou milhares de vidas de pessoas que pensavam que a vacina iria prejudicá-las, mas na verdade foi a Covid que as matou.
No mês passado, o X – anteriormente conhecido como Twitter – lançou uma ação legal contra o CCDH por alegações de que estava afastando os anunciantes ao publicar pesquisas sobre discurso de ódio na plataforma.
Ahmed disse: “Acho que o que ele está fazendo é dizer que qualquer crítica a mim é inaceitável e ele quer 10 milhões de dólares por isso.
“Ele disse recentemente à Liga Anti-Difamação, uma venerável instituição de caridade judaica pelos direitos civis nos EUA, que iria pedir-lhes dois mil milhões de dólares por criticá-los.
“O que estamos a ver aqui são pessoas que se sentem maiores que o Estado, que o governo, que o povo, porque, francamente, deixámo-los escapar impunes durante demasiado tempo.
“A verdade é que, se forem bem-sucedidas, não haverá defesa da sociedade civil, não haverá jornalismo sobre estas empresas.
“É por isso que é muito importante vencê-lo.
“Sabemos que isso nos vai custar uma fortuna, meio milhão de dólares, mas não estamos a lutar só por nós.
“E eles nos escolheram porque sabem que somos menores.”
Ahmed disse que a organização teve sorte de contar com o apoio de tantos doadores individuais.
Recentemente, o proprietário do X, Elon Musk, disse que a receita publicitária da empresa nos Estados Unidos caiu 60%.
Em uma postagem, ele disse que a empresa estava entrando com um processo por difamação contra a ADL “para limpar o nome da nossa plataforma na questão do antissemitismo”.
Reescreva o texto para BR e mantenha a HTML tags