Vous devrez peut-être attendre un peu plus longtemps pour obtenir l'option de téléchargement d'image pour la fonctionnalité multimodale de Bing

Icône de temps de lecture 2 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

OpenAI a officiellement publié GPT-4 et Microsoft a révélé que le modèle était "personnalisé pour la recherche". Une partie de cette révélation passionnante est la capacité multimodale du modèle, lui permettant de traiter des images. Cependant, cette fonctionnalité est encore limitée même sur Bing. De plus, le téléchargement d'images pour tirer parti de cette fonctionnalité pourrait encore être loin, comme l'a laissé entendre l'un des employés de Microsoft.

La multimodalité est le point fort du dernier modèle d'OpenAI. Et tandis que GPT-4 est déjà accessible par abonnés de ChatGPT Plus, la fonctionnalité est toujours en cours de test, ce qui la rend indisponible pour tous. Néanmoins, OpenAI a présenté dans son récent article de blog comment la multimodalité fonctionnerait dans GPT-4, qui peut essentiellement décrire et interpréter les images téléchargées.

GPT-4 décrivant les images téléchargées
GPT-4 décrivant les images téléchargées (Crédit image : OpenAI)
Bing Chat inclut des images dans ses réponses
Bing Chat inclut des images dans ses réponses

Wow Bing peut maintenant décrire des images, maintenant qu'il sait qu'il utilise GPT-4 !
byu/BroskiPlaysYT inbing

Cette capacité multimodale est apparemment disponible maintenant sur le nouveau, mais pas entièrement. Pour commencer, les utilisateurs peuvent demander à Bing Chat de décrire des images à l'aide des liens d'images extraits du Web, et il générera une réponse. De plus, le chatbot inclura désormais des images dans son processus, surtout si vous le lui demandez.

D'autre part, l'option de télécharger directement une image pour que Bing la décrive ou l'analyse n'est toujours pas disponible. L'arrivée de cette option a été évoquée récemment par un utilisateur sur Twitter à Mikhail Parakhin, responsable de la publicité et des services Web de Microsoft, qui a laissé entendre que ce n'était pas la priorité de l'entreprise pour le moment.

Pour rendre cela possible, Parakhin a noté le besoin de "plus de GPU" et a déclaré que cela était "beaucoup plus cher". Dans un récent rapport, Microsoft a révélé avoir déjà dépensé des centaines de millions de dollars pour construire un supercalculateur ChatGPT en reliant des milliers de GPU Nvidia sur sa plateforme de cloud computing Azure. Avec cela, si les mots de Parakhin sont pris au sérieux, Microsoft pourrait chercher à dépenser plus pour apporter complètement la fonctionnalité multimodale à Bing. Et d'après ce que Parakhin a dit, c'est possible, mais pas aujourd'hui.

En savoir plus sur les sujets : ai, bing, GPT-4, Microsoft Edge, IA ouverte

Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *