Bing kan snart ha muligheten til å bruke bilder, videoer og andre datatyper som svar

Ikon for lesetid 3 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

De nye ChatGPT-drevne Bing forbedres kontinuerlig, og Microsoft kan starte sin største utvikling neste uke. Andreas Braun, Microsoft Tyskland CTO, kunngjorde nylig at GPT-4 kommer neste uke. Ved siden av dette antydet lederen "multimodale modeller som vil tilby helt andre muligheter."

Microsoft har allerede investert milliarder av dollar i sine AI-initiativer, spesielt i nådeløst å forbedre Bing for å kunne konkurrere bedre med Google. Nå bekreftet programvaregiganten ankomsten av GPT-4 neste uke, som forventes å bli injisert i søkemotoren og chatboten.

Før utgivelsen av ChatGPT Bing var det rykter om Bing som bruker GPT-4. Imidlertid har Microsoft i stedet brukt GPT-3.5-modellen sammen med sin proprietære teknologi Prometheus, som lar Bing generere oppdaterte data. Overraskende nok, selv om den nye Bing fortsatt ikke er tilgjengelig for alle, har selskapet allerede planer om å gi søkemotoren et betydelig løft via den kommende GPT-4.

OpenAIs nye og kommende store språkmodell forventes å la Bing-chatboten generere raskere resultater, noe som kan være til stor hjelp siden den nåværende versjonen vanligvis tar noen sekunder å begynne å generere svar. Ikke desto mindre, bortsett fra hastighet, kan en multimodal evne være det største den nye LLM-introduksjonen kan bringe.

På Microsofts AI in Focus – Digital Kickoff-arrangement delte Braun noen detaljer om hva du kan forvente fra inngangen til en ny LLM. (via Heise)

"Vi introduserer GPT-4 neste uke, der vil vi ha multimodale modeller som vil tilby helt andre muligheter - for eksempel videoer," sa Braun, som beskrev LLM som en "game changer."

Dessuten bekreftet Braun at Microsoft har planer om å "gjøre modellene omfattende" ved å bruke multimodalitetsevnen. Når det er injisert, skal dette tillate Bing å gi en rekke data når den svarer på spørsmål, noe som betyr at den også kan behandle videoer, bilder og andre datatyper. Dette bør resultere i bedre svar, noe som gjør Bing til en mer effektiv søkeassistent for alle.

På den annen side er det viktig å merke seg at Bing ikke er den første innen multimodalitet. Nylig, du.com rullet ut sin multimodale chat-søkefunksjon, slik at brukere kan gi tekst- og stemmeinndata og motta svar utover samtaletekster. Søkemotoren sliter imidlertid fortsatt med å få oppmerksomhet fra publikum. I mellomtiden, til tross for at den ikke er fullt tilgjengelig for alle ennå, har Bing allerede en venteliste som utvides kontinuerlig. Injeksjonen av en multimodal kapasitet i den vil helt sikkert påvirke rivalene, som You.com. Likevel er det fortsatt tidlig å si hvor stor denne effekten vil være siden Brauns kunngjøring bare bekrefter svært få detaljer.

Brukerforum

0 meldinger