GPT-4 je teraz k dispozícii pre predplatiteľov ChatGPT Plus

Ikona času čítania 3 min. čítať


Čítačky pomáhajú podporovať MSpoweruser. Ak nakupujete prostredníctvom našich odkazov, môžeme získať províziu. Ikona popisu

Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac

OpenAI konečne odhalený GPT-4. Podľa spoločnosti je jej najnovší model AI presnejší a efektívnejší, pretože dokáže spracovať viac vstupov bez zmätku. Okrem toho GPT-4 skutočne má multimodálne schopnosť spracovať obrázky. GPT-4 je teraz k dispozícii pre predplatiteľov ChatGPT Plus a vývojári k nemu teraz môžu pristupovať ako API.

Po Správy o svojom príchode minulý týždeň je GPT-4 konečne tu, dodávaný prostredníctvom infraštruktúry Azure optimalizovanej pre AI. Bol trénovaný na superpočítačoch Microsoft Azure AI a má niekoľko významných rozdielov od GPT-3.5. Najmä GPT-4 skóroval v 88. percentile a vyššie v rôznych testoch a benchmarkoch. 

„V bežnej konverzácii môže byť rozdiel medzi GPT-3.5 a GPT-4 jemný,“ hovorí OpenAI v blogovom príspevku. „Rozdiel sa prejaví, keď zložitosť úlohy dosiahne dostatočnú hranicu – GPT-4 je spoľahlivejší, kreatívnejší a dokáže zvládnuť oveľa jemnejšie inštrukcie ako GPT-3.5.“

Vo všeobecnosti OpenAI uviedla, že je o 82 % menej možné, že nový model bude reagovať na obmedzené témy a požiadavky, vďaka čomu bude pre používateľov bezpečný. Zlepšila sa aj kvalita jeho odpovedí, pričom až 40 % pravdepodobnosť získania vecných odpovedí.

Veľká časť GPT-4 sa zameriava na jeho schopnosť efektívnejšie spracovávať dopyty. Ako poznamenal OpenAI, teraz dokáže prijať 25,000 4 slov textu bez toho, aby došlo k zmätku. To je dobrá správa pre používateľov, ktorí chcú využiť potenciál modelu naplno, pretože budú môcť vo svojich otázkach a požiadavkách uviesť ďalšie podrobnosti a pokyny. Najväčším vrcholom GPT-4 je však pridanie multimodálnej schopnosti, ktorá bola jedným z najväčších očakávaní od modelu od jeho zverejnenia minulý týždeň. Pomocou tejto novej schopnosti dokáže GPT-XNUMX teraz spracovať obrazové vstupy a popísať ich prostredníctvom textov, aj keď ešte nie je dostupná pre všetkých zákazníkov OpenAI, pretože je stále technicky testovaná pomocou Be My Eyes a jej funkcie Virtual Volunteer. .

GPT-4 popisujúce obrázky
Obrazový kredit: OpenAI

GPT-4 popisujúce obrázky

„Napríklad, ak používateľ pošle obrázok vnútra svojej chladničky, virtuálny dobrovoľník bude nielen schopný správne identifikovať, čo sa v nej nachádza, ale aj extrapolovať a analyzovať, čo sa dá z týchto ingrediencií pripraviť,“ opísal OpenAi funkciu. . "Nástroj môže tiež ponúknuť množstvo receptov na tieto ingrediencie a poslať podrobného sprievodcu, ako ich vyrobiť."

Wow Bing teraz môže skutočne popisovať obrázky, teraz, keď vie, že používa GPT-4!
byu/BroskiPlaysYT inbing

Zdá sa však, že táto schopnosť multimodality je čiastočne zahrnutá do systému nový Bing. Microsoft uviedol, že chatbot jeho vyhľadávača používa tento model od minulého týždňa. Je však dôležité poznamenať, že multimodálna funkcia Bing je stále obmedzená. Na začiatok môže prijímať obrázky iba prostredníctvom odkazov uvedených na webe, ktoré popíše ako odpoveď. Medzitým, keď budete požiadaní o obrázky pomocou popisov, chatbot poskytne najrelevantnejší obsah vrátane výsledkov obrázkov a ďalších.

Bing Chat pomocou multimodálnej funkcie ako odpoveď

Na okraj, tieto vylepšenia v GPT-4 neznamenajú koniec existujúcich problémov bežne prítomných vo všetkých generatívnych produktoch AI. Hoci OpenAI sľúbila, že model bude bezpečnejší ako GPT-3.5, pokiaľ ide o odmietnutie reagovať na škodlivé pokyny, stále môže vytvárať halucinácie a sociálne predsudky. Dokonca aj generálny riaditeľ OpenAI Sam Altman popísané GPT-4 ako niečo „stále chybné, stále obmedzené“. Napriek tomu sa tím venuje neustálemu zdokonaľovaniu modelu, pretože neustále priťahuje väčšiu pozornosť verejnosti a pretože ho spoločnosť Microsoft zavádza do viacerých svojich produktov.

Používateľské fórum

0 správy