OpenAI revela novo modelo de IA que funciona com voz e “lê” imagens

open ai

Mais eficiente que anteriores, novo modelo será ofertado gratuitamente

Publicado em 14/05/2024 – Por Anna Tong e Akash Sriram – Repórteres da Reuters – Washington

A OpenAI, criadora do ChatGPT, anunciou nesta segunda-feira o lançamento de um novo modelo de inteligência artificial chamado GPT-4o, que interpreta voz, texto e imagens.

A diretora de tecnologia da OpenAI, Mira Murati, disse durante conferência da companhia que o novo modelo será ofertado gratuitamente e que é mais eficiente que os modelos anteriores da empresa.

Os pesquisadores da OpenAI exibiram os novos recursos de assistente de voz do ChatGPT. Em uma demonstração, o assistente de voz do ChatGPT foi capaz de ler uma história para dormir com diferentes vozes, emoções e tons.

Em uma segunda demonstração, o assistente de voz do ChatGPT usou recursos de interpretação de imagens para resolver uma equação matemática escrita em uma folha de papel.

Os usuários pagos do GPT-4o terão limites de capacidade maiores do que os usuários pagos da empresa, disse Murati.

A OpenAI fez os anúncios um dia antes de a Alphabet realizar sua conferência anual para desenvolvedores do Google, na qual a empresa deve exibir novos recursos de IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *