OpenAI déploie le modèle GPT-4o avec des vitesses plus rapides et des prix inférieurs


OpenAI a commencé à déployer sa dernière version de ChatGPT, GPT-4o, avec des vitesses plus rapides et des prix inférieurs.

OpenAI a commencé à déployer son dernier modèle d'IA générative, GPT-4o. Annoncée le 13 mai, la mise à jour devrait améliorer les capacités de ChatGPT dans des formats autres que le simple texte. Le « o » dans GPT-4o signifie « omni », a indiqué la société. Cela fait référence à la capacité de GPT-4o à comprendre et à traiter non seulement le texte, mais également la parole et la vidéo.

Pendant la présentation en streaming, Mira Murati, CTO d'OpenAI, a déclaré les capacités accrues en matière de voix et de vision sont « incroyablement importantes, car nous envisageons l’avenir de l’interaction entre nous et les machines ».

lire plus  Comment changer l'emplacement de YouTube TV [2022]

Améliorer les capacités de ChatGPT en tant qu'assistant vocal

OpenAI affirme que GPT-4o est censé faire du mode vocal de l'application ChatGPT un assistant plus que jamais, permettant aux utilisateurs de fournir une réactivité en temps réel. Utilisant un nouveau modèle de synthèse vocale, l'application mobile devrait vous permettre d'avoir une conversation de va-et-vient qui vous permettra même d'interrompre le chatbot pour le corriger ou clarifier ce que vous souhaitez.

Selon OpenAI, vous pouvez utiliser ChatGPT pour faire des choses comme demander une histoire à l'heure du coucher, régler un débat à table ou simplement avoir une conversation. Malheureusement, nos propres tests ne se sont pas révélés aussi naturels. En fait, je n'ai pas encore installé l'application sur mon téléphone pour faire quoi que ce soit en mode vocal. Il signale seulement que ses serveurs sont surchargés et réessaye plus tard. Un buzzkill majeur.

lire plus  Comment changer l'image de profil sur Gmail à l'aide d'un PC et d'un téléphone

Une analyse photo et vidéo encore, au mieux, médiocre

Le nouveau modèle est également censé permettre une meilleure analyse des images et des vidéos. Ici aussi, il est clair qu’il faut encore l’affiner et le corriger.

Hallucination d’analyse vidéo OpenAIHallucination d’analyse vidéo OpenAI

J'ai essayé de télécharger une vidéo de mon chien jouant dans le salon. Lorsque j'ai finalement réussi à obtenir une analyse de la vidéo, il a été indiqué à tort que la vidéo était à l'extérieur, avec des arbres, de l'herbe et d'autres feuillages. Euh, non.

Disponibilité plus large que jamais du dernier modèle

La bonne nouvelle, peut-être, est que GPT-4o est disponible à tous les niveaux, même pour les utilisateurs gratuits. Dans le passé, l'offre gratuite d'OpenAI n'avait accès qu'à la version précédente du modèle. Les utilisateurs du niveau Plus bénéficient d'une limite de messages jusqu'à cinq fois plus élevée, et Tarification des API pour 4o, c'est 50 % du prix du GPT-4 Turbo.

lire plus  Comment transférer des messages WhatsApp de l'iPhone vers Android

GPT-4o a une limite de connaissances d'octobre 2023, par rapport à la limite de connaissances de GPT-4 Turbo d'avril 2023. Les utilisateurs des forfaits Plus et Entreprise devraient avoir accès au nouveau modèle au cours des deux prochaines semaines, tandis que les autres (y compris les utilisateurs gratuits) pourraient ne pas avoir accès à GPT-4o avant cette date.

Que pensez-vous de la direction que prend ChatGPT ? Rendez-vous sur nos forumsoù j'espère que nous pourrons engager une conversation animée.

Laisser un commentaire

Aller au contenu principal