Vous devrez peut-être attendre un peu plus longtemps pour obtenir l'option de téléchargement d'image pour la fonctionnalité multimodale de Bing
2 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus
OpenAI a officiellement publié GPT-4 et Microsoft a révélé que le modèle était "personnalisé pour la recherche". Une partie de cette révélation passionnante est la capacité multimodale du modèle, lui permettant de traiter des images. Cependant, cette fonctionnalité est encore limitée même sur Bing. De plus, le téléchargement d'images pour tirer parti de cette fonctionnalité pourrait encore être loin, comme l'a laissé entendre l'un des employés de Microsoft.
La multimodalité est le point fort du dernier modèle d'OpenAI. Et tandis que GPT-4 est déjà accessible par abonnés de ChatGPT Plus, la fonctionnalité est toujours en cours de test, ce qui la rend indisponible pour tous. Néanmoins, OpenAI a présenté dans son récent article de blog comment la multimodalité fonctionnerait dans GPT-4, qui peut essentiellement décrire et interpréter les images téléchargées.
Wow Bing peut maintenant décrire des images, maintenant qu'il sait qu'il utilise GPT-4 !
byu/BroskiPlaysYT inbing
Cette capacité multimodale est apparemment disponible maintenant sur le nouveau, mais pas entièrement. Pour commencer, les utilisateurs peuvent demander à Bing Chat de décrire des images à l'aide des liens d'images extraits du Web, et il générera une réponse. De plus, le chatbot inclura désormais des images dans son processus, surtout si vous le lui demandez.
D'autre part, l'option de télécharger directement une image pour que Bing la décrive ou l'analyse n'est toujours pas disponible. L'arrivée de cette option a été évoquée récemment par un utilisateur sur Twitter à Mikhail Parakhin, responsable de la publicité et des services Web de Microsoft, qui a laissé entendre que ce n'était pas la priorité de l'entreprise pour le moment.
C'est beaucoup plus cher, nous devons d'abord déployer les fonctionnalités actuelles à grande échelle. Il s'agit d'apporter plus de GPU.
— Mikhaïl Parakhine (@MParakhine) 14 mars 2023
Pour rendre cela possible, Parakhin a noté le besoin de "plus de GPU" et a déclaré que cela était "beaucoup plus cher". Dans un récent rapport, Microsoft a révélé avoir déjà dépensé des centaines de millions de dollars pour construire un supercalculateur ChatGPT en reliant des milliers de GPU Nvidia sur sa plateforme de cloud computing Azure. Avec cela, si les mots de Parakhin sont pris au sérieux, Microsoft pourrait chercher à dépenser plus pour apporter complètement la fonctionnalité multimodale à Bing. Et d'après ce que Parakhin a dit, c'est possible, mais pas aujourd'hui.