GPT-4 désormais disponible pour les abonnés ChatGPT Plus

Icône de temps de lecture 3 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale Plus d'informations

OpenAI enfin dévoilé GPT-4. Selon la société, son dernier modèle d'IA est plus précis et efficace car il peut gérer plus d'entrées sans confusion. En plus de cela, GPT-4 a en effet multimodal capacité, lui permettant de traiter des images. GPT-4 est désormais disponible pour les abonnés ChatGPT Plus, et les développeurs peuvent désormais y accéder en tant qu'API.

Après rapports À propos de son arrivée la semaine dernière, GPT-4 est enfin là, livré via l'infrastructure optimisée pour l'IA d'Azure. Il a été formé sur les supercalculateurs Microsoft Azure AI et présente quelques différences notables par rapport à GPT-3.5. En particulier, GPT-4 a marqué dans le 88e centile et au-dessus dans différents tests et points de repère. 

"Dans une conversation informelle, la distinction entre GPT-3.5 et GPT-4 peut être subtile", explique OpenAI dans un article de blog. "La différence apparaît lorsque la complexité de la tâche atteint un seuil suffisant - GPT-4 est plus fiable, créatif et capable de gérer des instructions beaucoup plus nuancées que GPT-3.5."

En général, OpenAI a déclaré qu'il est 82% moins possible que le nouveau modèle réponde aux sujets et demandes restreints, ce qui le rend sûr pour les utilisateurs. La qualité de sa réponse est également améliorée, avec jusqu'à 40% de probabilité de produire des réponses factuelles.

Une grande partie de GPT-4 se concentre sur sa capacité à gérer les requêtes plus efficacement. Comme l'a noté OpenAI, il peut désormais accepter 25,000 4 mots de texte sans rencontrer de confusion. C'est une bonne nouvelle pour les utilisateurs qui souhaitent utiliser tout le potentiel du modèle, car ils seront autorisés à fournir plus de détails et d'instructions dans leurs questions et demandes. Le plus grand point fort de GPT-4, cependant, est l'ajout d'une capacité multimodale, qui était l'une des plus grandes attentes du modèle depuis sa publication la semaine dernière. En utilisant cette nouvelle capacité, GPT-XNUMX peut désormais traiter les entrées d'image et les décrire à travers des textes, bien qu'il ne soit pas encore disponible pour tous les clients OpenAI car il est encore techniquement en cours de test avec l'aide de Be My Eyes et de sa fonction Virtual Volunteer .

Crédit d'image: OpenAI

"Par exemple, si un utilisateur envoie une photo de l'intérieur de son réfrigérateur, le Volontaire Virtuel pourra non seulement identifier correctement ce qu'il contient, mais aussi extrapoler et analyser ce qui peut être préparé avec ces ingrédients", a décrit OpenAi. . "L'outil peut également proposer un certain nombre de recettes pour ces ingrédients et envoyer un guide étape par étape sur la façon de les fabriquer."

Wow Bing peut maintenant décrire des images, maintenant qu'il sait qu'il utilise GPT-4 !
byu/BroskiPlaysYT inbing

Néanmoins, cette capacité de multimodalité semble être partiellement introduite dans le nouveau. Microsoft a déclaré que le chatbot de son moteur de recherche exécute le modèle depuis la semaine dernière. Cependant, il est important de noter que la fonctionnalité multimodale de Bing est encore limitée. Pour commencer, il ne peut accepter des images que via des liens fournis sur le Web, qu'il décrira comme une réponse. Pendant ce temps, lorsqu'on lui demandera des images à l'aide de descriptions, le chatbot fournira le contenu le plus pertinent, y compris les résultats d'image et plus encore.

Soit dit en passant, ces améliorations de GPT-4 ne signifient pas la fin des problèmes existants couramment présents dans tous les produits d'IA générative. Bien qu'OpenAI ait promis que le modèle serait plus sûr que GPT-3.5 en termes de refus de répondre aux instructions nuisibles, il peut toujours générer des hallucinations et des préjugés sociaux. Le PDG d'OpenAI, Sam Altman, a même décrit GPT-4 comme quelque chose de "toujours imparfait, toujours limité". Malgré cela, l'équipe se consacre à l'amélioration continue du modèle alors qu'il continue d'attirer davantage l'attention du public et que Microsoft l'injecte dans davantage de ses produits.

En savoir plus sur les sujets : ai, bing, ChatGPT, IA ouverte