OpenAI, os criadores do ChatGPT, formaram um novo grupo para se preparar para os “riscos catastróficos” da inteligência artificial.
A equipa de “Preparação” terá como objetivo “rastrear, avaliar, prever e proteger contra riscos catastróficos”, disse a empresa.
Esses riscos incluem a utilização da inteligência artificial para criar mensagens persuasivas poderosas, para pôr em perigo a segurança cibernética e para ser utilizada em armas nucleares e outros tipos de armas. A equipa também trabalhará contra a “replicação e adaptação autónoma”, ou ARA – o perigo de uma IA ganhar o poder de se copiar e alterar a si mesma.
“Acreditamos que os modelos de IA de ponta, que excederão as capacidades atualmente presentes nos modelos mais avançados existentes, têm o potencial de beneficiar toda a humanidade”, disse OpenAI. “Mas eles também representam riscos cada vez mais graves.”
Evitar essas situações perigosas significará construir estruturas para prever e depois proteger as pessoas contra as capacidades perigosas dos novos sistemas de inteligência artificial, disse a OpenAI. Essa será uma das tarefas da nova equipe.
Ao mesmo tempo, a OpenAI lançou um novo “Desafio de Preparação”. Isso encoraja as pessoas a pensar sobre “o uso indevido mais singular, embora ainda provável, potencialmente catastrófico do modelo”, como usá-lo para desligar redes de energia, por exemplo.
Submissões particularmente boas de ideias para usos maliciosos de inteligência artificial ganharão créditos para uso nas ferramentas da OpenAI, e a empresa sugeriu que algumas dessas pessoas poderiam ser contratadas para a equipe. Será liderado por Aleksander Madry, especialista em IA do Instituto de Tecnologia de Massachusetts, disse a OpenAI.
A OpenAI revelou a nova equipe como parte de sua contribuição para o AI Safety Summit do Reino Unido, que acontecerá na próxima semana. A OpenAI foi uma de uma série de empresas que assumiram compromissos sobre como irá garantir o uso seguro da inteligência artificial.
Reescreva o texto para BR e mantenha a HTML tags