O valor da OpenAI triplicou em apenas nove meses depois de garantir um novo acordo com a empresa de capital de risco Thrive Capital, segundo relatórios.
O criador do ChatGPT, que foi fundado em 2015 como uma organização sem fins lucrativos, agora é classificado como a terceira empresa privada mais valiosa do mundo, atrás da SpaceX de Elon Musk e da ByteDance, controladora da TikTok.
O último acordo, relatado pela primeira vez por O jornal New York Times, avalia a OpenAI em cerca de US$ 80 bilhões – acima dos US$ 27 bilhões do ano passado.
Os relatórios da nova avaliação surgem depois que a OpenAI lançou uma nova ferramenta de inteligência artificial chamada Sora, que cria vídeos a partir de um simples prompt de texto.
Sora já gerou elogios e preocupações desde que foi revelado na semana passada devido aos vídeos altamente realistas que é capaz de criar.
Especialistas em IA alertaram que ela poderia ser usada para espalhar desinformação, enquanto alguns temem que possa levar à automação em massa de indústrias criativas inteiras.
“Vocês vão acabar com tantas carreiras para as pessoas”, escreveu um usuário em um Fórum da comunidade OpenAI após a libertação de Sora.
“Fotógrafos, artistas, animadores, cineastas e possivelmente até atores. Estar nestas indústrias já é difícil e agora com isto as pessoas podem não ter mais empregos.”
O produto, que ainda não foi lançado ao público, segue lançamentos bem-sucedidos de outras IAs generativas líderes, incluindo o chatbot baseado em texto ChatGPT e a ferramenta baseada em imagens Dall-E.
A OpenAI tem frequentemente abordado questões de segurança sobre seus produtos, observando com o lançamento do Sora que ele poderia ser potencialmente mal utilizado.
“Envolveremos legisladores, educadores e artistas de todo o mundo para compreender as suas preocupações e identificar casos de utilização positivos para esta nova tecnologia”, afirmou a empresa.
“Apesar das extensas pesquisas e testes, não podemos prever todas as maneiras benéficas pelas quais as pessoas usarão nossa tecnologia, nem todas as maneiras pelas quais as pessoas irão abusar dela. É por isso que acreditamos que aprender com o uso no mundo real é um componente crítico para criar e lançar sistemas de IA cada vez mais seguros ao longo do tempo.”