GPT-4 jest teraz dostępny dla subskrybentów ChatGPT Plus

Ikona czasu czytania 3 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Wreszcie zaprezentowano OpenAI GPT-4. Według firmy jej najnowszy model sztucznej inteligencji jest bardziej precyzyjny i wydajny, ponieważ może obsłużyć więcej danych wejściowych bez zamieszania. Oprócz tego GPT-4 rzeczywiście ma multimodalny możliwości, co pozwala na przetwarzanie obrazów. GPT-4 jest teraz dostępny dla subskrybentów ChatGPT Plus, a programiści mogą teraz uzyskiwać do niego dostęp jako interfejs API.

Po Raporty o swoim pojawieniu się w zeszłym tygodniu, GPT-4 jest już dostępny, dostarczany za pośrednictwem zoptymalizowanej pod kątem sztucznej inteligencji infrastruktury platformy Azure. Został przeszkolony na superkomputerach Microsoft Azure AI i ma pewne znaczące różnice w stosunku do GPT-3.5. W szczególności GPT-4 zdobył w 88. percentylu i powyżej w różnych testach i testach porównawczych. 

„W zwykłej rozmowie rozróżnienie między GPT-3.5 i GPT-4 może być subtelne”, mówi OpenAI w poście na blogu. „Różnica pojawia się, gdy złożoność zadania osiąga wystarczający próg — GPT-4 jest bardziej niezawodny, kreatywny i jest w stanie obsłużyć znacznie bardziej szczegółowe instrukcje niż GPT-3.5”.

Ogólnie rzecz biorąc, OpenAI stwierdziło, że jest o 82% mniej prawdopodobne, że nowy model będzie odpowiadał na ograniczone tematy i prośby, dzięki czemu będzie bezpieczny dla użytkowników. Poprawia się również jakość odpowiedzi, z prawdopodobieństwem uzyskania merytorycznych odpowiedzi do 40%.

Ogromna część GPT-4 koncentruje się na jego zdolności do efektywniejszej obsługi zapytań. Jak zauważył OpenAI, może teraz przyjąć 25,000 4 słów tekstu bez zamieszania. To dobra wiadomość dla użytkowników, którzy chcą w pełni wykorzystać możliwości modelu, ponieważ w swoich pytaniach i prośbach będą mogli podać więcej szczegółów i instrukcji. Największą atrakcją GPT-4 jest jednak dodanie możliwości multimodalnych, co było jednym z największych oczekiwań wobec modelu od czasu jego opublikowania w zeszłym tygodniu. Korzystając z tej nowej możliwości, GPT-XNUMX może teraz przetwarzać dane wejściowe obrazu i opisywać je za pomocą tekstów, chociaż nie jest jeszcze dostępny dla wszystkich klientów OpenAI, ponieważ wciąż jest technicznie testowany za pomocą Be My Eyes i jego funkcji Virtual Volunteer .

GPT-4 opisujący obrazy
Źródło zdjęcia: OpenAI

GPT-4 opisujący obrazy

„Na przykład, jeśli użytkownik wyśle ​​zdjęcie wnętrza swojej lodówki, Wirtualny Wolontariusz będzie w stanie nie tylko poprawnie zidentyfikować, co się w nim znajduje, ale także ekstrapolować i analizować, co można przygotować z tych składników”, OpenAi opisał tę funkcję . „Narzędzie może również zaoferować szereg przepisów na te składniki i wysłać przewodnik krok po kroku, jak je zrobić”.

Wow, Bing może teraz faktycznie opisywać obrazy, teraz, gdy wie, że używa GPT-4!
byu/BroskiPlaysYT inbing

Niemniej jednak wydaje się, że ta zdolność do multimodalności została częściowo wprowadzona do systemu nowy Bing. Microsoft powiedział, że chatbot jego wyszukiwarki obsługuje ten model od zeszłego tygodnia. Należy jednak zauważyć, że funkcja multimodalna Bing jest nadal ograniczona. Na początek może akceptować obrazy tylko za pośrednictwem linków podanych w Internecie, które opisze jako odpowiedź. Tymczasem poproszony o obrazy z opisami, chatbot dostarczy najtrafniejsze treści, w tym wyniki obrazków i nie tylko.

Bing Chat za pomocą funkcji multimodalnej w odpowiedzi

Na marginesie, te ulepszenia w GPT-4 nie oznaczają końca istniejących problemów powszechnie występujących we wszystkich generatywnych produktach AI. Chociaż OpenAI obiecało, że model będzie bezpieczniejszy niż GPT-3.5 pod względem odmowy reagowania na szkodliwe instrukcje, nadal może generować halucynacje i uprzedzenia społeczne. CEO OpenAI Sam Altman nawet opisane GPT-4 jako coś „nadal wadliwego, wciąż ograniczonego”. Mimo to zespół jest zaangażowany w ciągłe doskonalenie modelu, ponieważ nadal przyciąga on coraz większą uwagę opinii publicznej, a Microsoft wprowadza go do większej liczby swoich produktów.

Forum użytkowników

Wiadomości 0