OpenAI integrou seu gerador de imagens de IA em seu chatbot ChatGPT extremamente popular.
A empresa apoiada pela Microsoft revelou sua versão mais recente do DALL-E, chamada DALL-E 3, na quarta-feira, permitindo aos usuários gerar imagens com “significativamente mais nuances e detalhes” em comparação com sistemas anteriores
Ao convergir as capacidades de suas duas ferramentas distintas de IA generativa, os pesquisadores da OpenAI afirmam que os usuários agora serão capazes de “brainstorm” de ideias com a inteligência artificial.
O chefe da OpenAI, Sam Altman, deu um exemplo de como a funcionalidade dupla poderia ser usada, dizendo que ela poderia escrever e ilustrar uma história infantil para dormir a partir de algumas instruções simples.
Os sistemas atuais de texto para imagem, como Midjourney ou Dall-E 2 da OpenAI, muitas vezes interpretam mal os comandos dos usuários devido à sua incapacidade de compreender solicitações específicas.
Isso resultou no surgimento de engenheiros imediatos, também conhecidos como assistentes imediatos, que treinam para otimizar os resultados de ferramentas generativas de inteligência artificial, como ChatGPT e Dall-E.
“Nosso novo modelo de texto para imagem, DALL-E 3, pode traduzir solicitações diferenciadas em imagens extremamente detalhadas e precisas”, afirmou OpenAI.
“O DALL-E 3 é construído nativamente em ChatGPT, o que permite usar o ChatGPT como parceiro de brainstorming e refinador de seus prompts. Basta perguntar ao ChatGPT o que você deseja ver em qualquer coisa, desde uma frase simples até um parágrafo detalhado.”
A versão mais recente do DALL-E estará disponível apenas para usuários pagantes, com ChatGPT Plus e ChatGPT Enterprise recebendo a atualização em outubro.
A OpenAI também introduziu recursos de segurança aprimorados em seu gerador de imagens de IA, que afirma impedirá que as pessoas criem imagens obscenas ou odiosas.
Essas proteções incluem ignorar certas palavras e negar pedidos para retratar figuras públicas.
No início deste mês, o pioneiro da IA, Mustafa Suleyman, alertou que a IA poderia ser mal utilizada para potencialmente gerar vírus sintéticos que poderiam desencadear pandemias.
“O cenário mais sombrio é que as pessoas farão experiências com patógenos, patógenos sintéticos projetados que podem acabar acidentalmente ou intencionalmente sendo mais transmissíveis ou mais letais”, disse ele. O diário de um CEO podcast.
“É aí que precisamos de contenção. Temos que limitar o acesso às ferramentas e ao know-how para realizar esse tipo de experimentação.”
Reescreva o texto para BR e mantenha a HTML tags