GPT-4 je nyní k dispozici předplatitelům ChatGPT Plus

Ikona času čtení 3 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Více informací

OpenAI konečně odhaleno GPT-4. Podle společnosti je její nejnovější model umělé inteligence přesnější a efektivnější, protože dokáže bez zmatků zpracovat více vstupů. Kromě toho GPT-4 skutečně má multimodální schopnost zpracovávat obrázky. GPT-4 je nyní k dispozici předplatitelům ChatGPT Plus a vývojáři k němu nyní mohou přistupovat jako API.

Po Zprávy o svém příchodu minulý týden je GPT-4 konečně tady, dodávaný prostřednictvím infrastruktury Azure optimalizované pro umělou inteligenci. Byl trénován na superpočítačích Microsoft Azure AI a má některé pozoruhodné rozdíly od GPT-3.5. Zejména GPT-4 skóroval v 88. percentilu a výše v různých testech a benchmarcích. 

„V běžné konverzaci může být rozdíl mezi GPT-3.5 a GPT-4 jemný,“ říká OpenAI v blogovém příspěvku. "Rozdíl se projeví, když složitost úkolu dosáhne dostatečného prahu - GPT-4 je spolehlivější, kreativnější a dokáže zpracovat mnohem podrobnější instrukce než GPT-3.5."

Obecně OpenAI uvedla, že je o 82 % méně možné, že nový model bude reagovat na omezená témata a požadavky, takže bude pro uživatele bezpečný. Zlepšila se také kvalita jeho odpovědí s až 40% pravděpodobností vytvoření věcných odpovědí.

Velká část GPT-4 se zaměřuje na jeho schopnost efektivněji zpracovávat dotazy. Jak poznamenal OpenAI, nyní může přijmout 25,000 4 slov textu, aniž by došlo ke zmatku. To je dobrá zpráva pro uživatele, kteří chtějí využít plný potenciál modelu, protože budou moci ve svých dotazech a požadavcích uvést další podrobnosti a pokyny. Největším vrcholem GPT-4 je však přidání multimodální schopnosti, což bylo jedno z největších očekávání od modelu od jeho zveřejnění minulý týden. Pomocí této nové schopnosti může GPT-XNUMX nyní zpracovávat obrazové vstupy a popisovat je prostřednictvím textů, i když zatím není dostupná všem zákazníkům OpenAI, protože je stále technicky testována pomocí Be My Eyes a její funkce Virtual Volunteer. .

GPT-4 popisující obrázky
Obrazový kredit: OpenAI

GPT-4 popisující obrázky

„Například, když uživatel pošle obrázek vnitřku své lednice, virtuální dobrovolník bude nejen schopen správně identifikovat, co v ní je, ale také extrapolovat a analyzovat, co lze s těmito přísadami připravit,“ popsal OpenAi funkci. . "Nástroj pak může také nabídnout řadu receptů pro tyto ingredience a poslat krok za krokem návod, jak je vyrobit."

Wow Bing nyní může skutečně popisovat obrázky, nyní, když ví, že používá GPT-4!
byu/BroskiPlaysYT inBing

Zdá se však, že tato schopnost multimodality je částečně zavedena nový Bing. Microsoft uvedl, že chatbot jeho vyhledávače spouští model od minulého týdne. Je však důležité poznamenat, že multimodální funkce Bingu je stále omezená. Pro začátek může přijímat obrázky pouze prostřednictvím odkazů poskytnutých na webu, které popíše jako odpověď. Mezitím, když budete požádáni o obrázky pomocí popisů, chatbot poskytne nejrelevantnější obsah, včetně výsledků obrázků a dalších.

Bing Chat pomocí multimodální funkce v reakci

Na okraj, tato vylepšení v GPT-4 neznamenají konec existujících problémů běžně přítomných ve všech generativních produktech AI. Ačkoli OpenAI slíbila, že model bude bezpečnější než GPT-3.5, pokud jde o odmítnutí reagovat na škodlivé pokyny, stále může generovat halucinace a sociální předsudky. Dokonce i generální ředitel OpenAI Sam Altman popsáno GPT-4 jako něco „stále chybného, ​​stále omezeného“. Navzdory tomu se tým věnuje neustálému vylepšování modelu, protože stále přitahuje větší pozornost veřejnosti a protože jej společnost Microsoft vkládá do více svých produktů.

Uživatelské fórum

0 zprávy