Mogelijk moet u wat langer wachten voordat u de optie voor het uploaden van afbeeldingen voor de multimodale functie van Bing krijgt

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

OpenAI heeft GPT-4 officieel uitgebracht en Microsoft onthulde dat het model "aangepast voor zoeken" was. Een deel van deze opwindende onthulling is de multimodale capaciteit van het model, waardoor het beelden kan verwerken. Deze functie is echter nog steeds beperkt, zelfs op Bing. Sterker nog, het uploaden van foto's om deze functie te benutten, is misschien nog ver weg, zoals een van de medewerkers van Microsoft liet doorschemeren.

Multimodaliteit is het grootste hoogtepunt van het nieuwste model van OpenAI. En hoewel GPT-4 al toegankelijk is via abonnees van ChatGPT Plus, wordt de functie nog steeds getest, waardoor deze niet voor iedereen beschikbaar is. Desalniettemin liet OpenAI in zijn recente blogpost zien hoe de multimodaliteit zou werken in GPT-4, dat in feite geüploade afbeeldingen kan beschrijven en interpreteren.

GPT-4 beschrijft geüploade afbeeldingen
GPT-4 beschrijft geüploade afbeeldingen (Image Credit: OpenAI)
Bing Chat inclusief afbeeldingen in zijn reacties
Bing Chat inclusief afbeeldingen in zijn reacties

Wow Bing kan nu afbeeldingen beschrijven, nu het weet dat het GPT-4 gebruikt!
byu/BroskiPlaysYT inbing

Deze multimodale mogelijkheid is schijnbaar nu beschikbaar op de nieuwe Bing, hoewel niet volledig. Om te beginnen kunnen gebruikers Bing Chat vragen om afbeeldingen te beschrijven met behulp van de afbeeldingslinks die van internet zijn gehaald, en het zal een reactie genereren. Bovendien zal de chatbot nu afbeeldingen in zijn proces opnemen, vooral als je erom vraagt.

Aan de andere kant is de optie om direct een afbeelding te uploaden zodat Bing deze kan beschrijven of analyseren nog steeds niet beschikbaar. De komst van deze optie werd onlangs door een gebruiker aan de orde gesteld Twitter aan Mikhail Parakhin, hoofd Advertising en Web Services van Microsoft, die suggereerde dat dit voorlopig niet de prioriteit van het bedrijf is.

Om dit mogelijk te maken, merkte Parakhin op dat er behoefte is aan "meer GPU's" en zei dat dit "veel duurder" was. In een recente verslag, onthulde Microsoft dat het al honderden miljoenen dollars had uitgegeven om een ​​ChatGPT-supercomputer te bouwen door duizenden Nvidia-GPU's te koppelen aan zijn Azure cloud computing-platform. Hiermee, als de woorden van Parakhin serieus worden genomen, wil Microsoft misschien meer uitgeven om de multimodale functie volledig naar Bing te brengen. En op basis van wat Parakhin zei, is dit mogelijk, alleen niet vandaag.

Meer over de onderwerpen: ai, bing, GPT-4, Microsoft Edge, openAI