Os chatbots de IA que simulam personalidades de pessoas mortas correm o risco de angustiar os entes queridos deixados para trás através de “assombrações digitais indesejadas”, incluindo publicidade, alertou um pesquisador. Um estudo da Universidade de Cambridge sugeriu que os chatbots de IA – conhecidos como deadbots – precisam de protocolos de segurança para evitar causar danos. Em uma cena semelhante a Black Mirror no episódio “Já volto”, algumas empresas já oferecem serviços que permitem a um chatbot simular padrões de linguagem e traços de personalidade de uma pessoa morta usando a pegada digital que ela deixou, de acordo com a pesquisa.
O estudo, publicado na revista Filosofia e Tecnologia destaca o potencial das empresas usarem deadbots para anunciar sub-repticiamente produtos aos usuários, da mesma forma que um ente querido que partiu, ou para angustiar crianças insistindo que um pai falecido ainda está “com você”. Os pesquisadores dizem que quando os vivos se inscrevem para serem virtualmente recriados após morrerem, os chatbots resultantes podem ser usados pelas empresas para enviar spam a familiares e amigos sobreviventes com notificações não solicitadas, lembretes e atualizações sobre os serviços que fornecem – semelhante a ser digitalmente “perseguido pelos mortos”.
Mesmo aqueles que se consolam inicialmente com um deadbot podem ficar esgotados por interações diárias que se tornam um “peso emocional avassalador”, argumentam os autores do estudo, mas também podem ser impotentes para suspender uma simulação de IA se seu ente querido, agora falecido, assinar um contrato prolongado com um serviço digital de vida após a morte. No episódio “Be Right Back” do Black Mirror, uma viúva angustiada usa a tecnologia de IA que permite que ela se comunique com um robô que imita seu marido morto.
Os especialistas em ética em IA do Centro Leverhulme para o Futuro da Inteligência de Cambridge descrevem a área como de “alto risco”. O coautor, Dr. Tomasz Hollanek, do Centro Leverhulme, disse: “É vital que os serviços digitais de vida após a morte considerem os direitos e o consentimento não apenas daqueles que eles recriam, mas daqueles que terão que interagir com as simulações. “Esses serviços correm o risco de causar grande sofrimento às pessoas se elas forem submetidas a assombrações digitais indesejadas provenientes de recriações de IA alarmantemente precisas daqueles que perderam. “O potencial efeito psicológico, especialmente num momento já difícil, pode ser devastador.”
Os pesquisadores dizem que já existem plataformas que oferecem a recriação de mortos com IA por uma pequena taxa, como o Projeto Dezembro, que começou a aproveitar modelos GPT antes de desenvolver seus próprios sistemas, e aplicativos como o HereAfter. Serviços semelhantes também começaram a surgir na China, segundo o estudo. A coautora do estudo, Dra. Katarzyna Nowaczyk-Basinska, disse: “Os rápidos avanços na IA generativa significam que quase qualquer pessoa com acesso à Internet e algum conhecimento básico pode reviver um ente querido falecido. “Esta área da IA é um campo minado ético. “É importante priorizar a dignidade do falecido e garantir que esta não seja prejudicada por motivos financeiros de serviços digitais de vida após a morte, por exemplo. “Ao mesmo tempo, uma pessoa pode deixar uma simulação de IA como um presente de despedida para entes queridos que não estão preparados para processar o seu luto desta forma. “Os direitos dos doadores de dados e daqueles que interagem com os serviços de IA após a morte devem ser igualmente salvaguardados.”
O Dr. Hollanek disse que as pessoas “podem desenvolver fortes laços emocionais com tais simulações, o que as tornará particularmente vulneráveis à manipulação”. Ele disse que devem ser consideradas formas de “aposentar os deadbots de forma digna”, o que “pode significar uma forma de funeral digital”. Os pesquisadores recomendam restrições de idade para deadbots e também pedem “transparência significativa” para garantir que os usuários estejam consistentemente cientes de que estão interagindo com uma IA. Eles também pediram que as equipes de design priorizassem protocolos de exclusão que permitissem que usuários em potencial encerrassem seus relacionamentos com deadbots de forma a proporcionar um encerramento emocional. Dr. Nowaczyk-Basinska disse: “Precisamos começar a pensar agora sobre como mitigar os riscos sociais e psicológicos da imortalidade digital, porque a tecnologia já está aqui.