OpenAI revela novo modelo de IA que funciona com voz e “lê” imagens

Ilustração com o logotipo da OpenAI
08/01/2024
REUTERS/Dado Ruvic
© REUTERS/Dado Ruvic

Por Agência Brasil — A OpenAI, criadora do ChatGPT, anunciou nesta segunda-feira o lançamento de um novo modelo de inteligência artificial chamado GPT-4o, que interpreta voz, texto e imagens.

A diretora de tecnologia da OpenAI, Mira Murati, disse durante conferência da companhia que o novo modelo será ofertado gratuitamente e que é mais eficiente que os modelos anteriores da empresa.

Os pesquisadores da OpenAI exibiram os novos recursos de assistente de voz do ChatGPT. Em uma demonstração, o assistente de voz do ChatGPT foi capaz de ler uma história para dormir com diferentes vozes, emoções e tons.

Em uma segunda demonstração, o assistente de voz do ChatGPT usou recursos de interpretação de imagens para resolver uma equação matemática escrita em uma folha de papel.

Os usuários pagos do GPT-4o terão limites de capacidade maiores do que os usuários pagos da empresa, disse Murati.

A OpenAI fez os anúncios um dia antes de a Alphabet realizar sua conferência anual para desenvolvedores do Google, na qual a empresa deve exibir novos recursos de IA.

 

*É proibida a reprodução deste conteúdo