Não há evidências de que a inteligência artificial possa ser controlada e tornada segura, afirmou um especialista.
Mesmo os controlos parciais não seriam suficientes para nos manter a salvo da remodelação da sociedade pela IA, talvez para pior, disse Roman V Yampolskiy, um cientista da computação russo da Universidade de Louisville.
Nada deve ser retirado da mesa na tentativa de garantir que a inteligência artificial não nos coloque em risco, argumentou o Dr. Yampolskiy.
Ele disse que chegou à conclusão após uma revisão detalhada da literatura científica existente, que será publicada em um próximo livro.
“Estamos perante um evento quase garantido com potencial para causar uma catástrofe existencial”, disse o Dr. Yampolskiy num comunicado. “Não é de admirar que muitos considerem este o problema mais importante que a humanidade já enfrentou.
“O resultado pode ser prosperidade ou extinção, e o destino do universo está em jogo.”
A pesquisa para esse livro – IA: Inexplicável, Imprevisível, Incontrolável – mostrou que “não há provas” e “nenhuma prova” de que seria realmente possível resolver o problema da IA incontrolável.
Uma vez que parece que não será possível controlar totalmente qualquer IA, é importante lançar um “esforço significativo de segurança da IA” para garantir que seja o mais seguro possível, argumenta.
Mas, mesmo assim, poderá não ser possível proteger o mundo desses perigos: à medida que uma IA se torna mais capaz, há mais oportunidades para falhas de segurança, pelo que não seria possível proteger contra todos os perigos.
Além do mais, muitos desses sistemas de IA não são capazes de explicar como chegaram às conclusões que chegaram. Esta tecnologia já está a ser utilizada em sistemas como os de saúde e bancários – mas talvez não consigamos saber como essas decisões importantes foram realmente tomadas.
“Se nos acostumarmos a aceitar as respostas da IA sem explicação, tratando-a essencialmente como um sistema Oracle, não seremos capazes de dizer se ela começa a fornecer respostas erradas ou manipulativas”, disse o Dr. Yampolskiy em um comunicado.
Mesmo um sistema que foi construído precisamente para seguir ordens humanas pode ter problemas, observou ele: essas ordens podem contradizer-se, o sistema pode interpretá-las mal ou pode ser usado maliciosamente.
Isso poderia ser evitado usando uma IA mais como consultora, com um ser humano tomando as decisões. Mas se quiser fazer isso, então precisará dos seus próprios valores superiores para ajudar a aconselhar a humanidade.
“O paradoxo da IA alinhada com valores é que uma pessoa que ordena explicitamente que um sistema de IA faça algo pode receber um “não” enquanto o sistema tenta fazer o que a pessoa realmente deseja. A humanidade é protegida ou respeitada, mas não ambas”, disse o Dr. Yampolskiy.