Site Overlay

OpenAI lança modelo GPT-4o mais rápido e gratuito – novo assistente de voz fala tão naturalmente que você vai pensar que é uma farsa


Olhando para o futuro: A OpenAI acaba de lançar o GPT-4o (GPT-4 Omni ou “O” para abreviar). O modelo não é “mais inteligente” que o GPT-4, mas ainda assim algumas inovações notáveis ​​o diferenciam: a capacidade de processar dados de texto, visuais e de áudio simultaneamente, quase nenhuma latência entre perguntar e responder e uma voz incrivelmente humana.

Embora os chatbots atuais sejam alguns dos mais avançados já criados, todos eles sofrem de alta latência. Dependendo da consulta, os tempos de resposta podem variar de um segundo a vários segundos. Algumas empresas, como a Apple, querem resolver isso com processamento de IA no dispositivo. OpenAI adotou uma abordagem diferente com Omni.

A maioria das respostas de Omni foram rápidas durante a segunda-feira demonstração, tornando a conversa mais fluida do que uma sessão típica de chatbot. Também aceitou interrupções com elegância. Se o apresentador começasse a falar durante a resposta do GPT-4o, ele pausaria o que estava dizendo em vez de terminar a resposta.

A OpenAI credita a baixa latência do O à capacidade do modelo de processar todas as três formas de entrada – texto, visible e áudio. Por exemplo, o ChatGPT processou entradas mistas por meio de uma rede de modelos separados. Omni processa tudo, correlacionando-o em uma resposta coesa sem esperar pela saída de outro modelo. Ele ainda possui o “cérebro” GPT-4, mas possui modos adicionais de entrada que pode processar, o que Mira Murati, CTO da OpenAI, diz que deveria se tornar a norma.

“O GPT-4o fornece inteligência de nível GPT-4, mas é muito mais rápido”, disse Murati. “Acreditamos que o GPT-4o está realmente mudando esse paradigma para o futuro da colaboração, onde esta interação se torna muito mais pure e fácil.”

A voz (ou vozes) de Omni foi a que mais se destacou na demo. Quando o apresentador falou com o bot, ele respondeu com uma linguagem informal intercalada com pausas que soavam naturais. Ele até riu, dando-lhe uma qualidade humana que me fez pensar se period gerado por computador ou falsificado.

Especialistas reais e de poltrona irão, sem dúvida, examinar a filmagem para validá-la ou desmascará-la. Vimos a mesma coisa acontecer quando o Google lançou o Duplex. O ajudante digital do Google acabou sendo validadoentão podemos esperar o mesmo do Omni, mesmo que sua voz envergonhe o Duplex.

No entanto, talvez não precisemos de um escrutínio additional. OpenAI fez com que o GPT-4o falasse sozinho em dois telefones. Ter duas versões do bot conversando entre si quebrou um pouco essa ilusão humana. Embora as vozes masculinas e femininas ainda soassem humanas, a conversa parecia menos orgânica e mais mecânica, o que faz sentido se removermos a única voz humana.

Ao last da demo, o apresentador pediu para os bots cantarem. Foi outro momento estranho enquanto ele lutava para coordenar os bots para cantar um dueto, quebrando novamente a ilusão. O tom ultra-entusiasmado de Omni também precisa de alguns ajustes.

A OpenAI também anunciou hoje que está lançando um aplicativo de desktop ChatGPT para macOS, com uma versão para Home windows chegando ainda este ano. Os usuários pagos do GPT já podem acessar o aplicativo e ele eventualmente oferecerá uma versão gratuita em uma information não especificada. A versão internet do Bate-papoGPT já está rodando GPT-4o e o modelo também deverá ser disponibilizado com limitações para usuários gratuitos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

quatro + dez =