O Google redigiu uma “constituição dos robôs” como uma das várias maneiras pelas quais está tentando limitar os danos causados pelos robôs.
Um dia, a empresa espera que sua divisão Deepmind Robotics seja capaz de criar um robô auxiliar pessoal que possa responder às solicitações. Pode ser solicitado que ele arrume a casa ou prepare uma boa refeição, por exemplo.
Mas um pedido aparentemente tão simples pode, na verdade, estar além da compreensão dos robôs. Além do mais, pode até ser perigoso: um robô pode não saber que não deveria arrumar a casa com tanta intensidade que seu dono ficasse ferido, por exemplo.
A empresa revelou agora um conjunto de novos avanços que espera facilitar o desenvolvimento de robôs que sejam capazes de ajudar nessas tarefas e de fazê-lo sem causar nenhum dano. Os sistemas destinam-se a “ajudar os robôs a tomar decisões mais rapidamente e a compreender e navegar melhor nos seus ambientes”, afirmou – e a fazê-lo com segurança.
As novas descobertas incluem um novo sistema chamado AutoRT, que utiliza inteligência artificial para compreender os objetivos dos humanos. Isso é feito usando modelos grandes, incluindo um modelo de linguagem grande (LLM) do tipo usado no ChatGPT, por exemplo.
Ele funciona pegando dados de câmeras do robô e alimentando-os em um modelo de linguagem visual ou VLM que pode compreender o ambiente e os objetos dentro dele, descrevendo-os em palavras. Isso pode então ser passado para o LLM que compreenderá essas palavras, gerará uma lista de tarefas que podem ser possíveis com elas e então decidirá quais delas devem ser realizadas.
Mas o Google também observou que a integração efetiva desses robôs em nossas vidas diárias exigiria que as pessoas tivessem certeza de que se comportariam com segurança. Como tal, o LLM que toma decisões dentro desse sistema AutoRT recebeu o que o Google chama de Constituição do Robô.
Esse é um conjunto de “instruções focadas na segurança a serem seguidas ao selecionar tarefas para os robôs”, disse o Google.
“Essas regras são em parte inspiradas nas Três Leis da Robótica de Isaac Asimov – em primeiro lugar, que um robô ‘não pode ferir um ser humano’”, escreveu o Google. “Outras regras de segurança exigem que nenhum robô execute tarefas que envolvam humanos, animais, objetos pontiagudos ou aparelhos elétricos.”
O sistema pode então usar essas regras para orientar seu comportamento e evitar quaisquer atividades perigosas, por exemplo, da mesma forma que o ChatGPT pode ser instruído a não ajudar pessoas com atividades ilegais.
Mas o Google também disse que não se pode confiar inteiramente na segurança desses modelos grandes, mesmo com essas tecnologias. Como tal, a Google ainda teve de incluir sistemas de segurança mais tradicionais emprestados da robótica clássica, incluindo um sistema que impedisse a aplicação de demasiada força e um supervisor humano que pudesse desligá-los fisicamente.