GPT-4 اکنون برای مشترکین ChatGPT Plus در دسترس است

نماد زمان خواندن 3 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

OpenAI بالاخره رونمایی شد GPT-4. به گفته این شرکت، آخرین مدل هوش مصنوعی آن دقیق تر و کارآمدتر است زیرا می تواند ورودی های بیشتری را بدون سردرگمی انجام دهد. علاوه بر آن، GPT-4 واقعاً دارد ملتمدل قابلیت، به آن اجازه می دهد تا تصاویر را پردازش کند. GPT-4 اکنون برای مشترکین ChatGPT Plus در دسترس است و توسعه دهندگان اکنون می توانند به عنوان یک API به آن دسترسی داشته باشند.

پس از گزارش در مورد ورود آن در هفته گذشته، سرانجام GPT-4 از طریق زیرساخت بهینه شده با هوش مصنوعی Azure ارائه شد. این بر روی ابررایانه های Microsoft Azure AI آموزش داده شده است و تفاوت های قابل توجهی با GPT-3.5 دارد. به طور خاص، GPT-4 گل در صدک 88 و بالاتر در آزمون ها و معیارهای مختلف. 

OpenAI در یک پست وبلاگ می گوید: "در یک مکالمه معمولی، تمایز بین GPT-3.5 و GPT-4 می تواند ظریف باشد." تفاوت زمانی آشکار می شود که پیچیدگی کار به آستانه کافی برسد - GPT-4 قابل اعتمادتر، خلاقانه تر است و قادر است دستورالعمل های ظریف تری را نسبت به GPT-3.5 انجام دهد.

به طور کلی، OpenAI گفت که 82 درصد کمتر ممکن است مدل جدید به موضوعات و درخواست‌های محدود پاسخ دهد و آن را برای کاربران ایمن کند. کیفیت پاسخ آن نیز بهبود یافته است، با احتمال 40 درصد برای تولید پاسخ های واقعی.

بخش بزرگی از GPT-4 بر توانایی آن در رسیدگی موثرتر به پرس و جوها تمرکز دارد. همانطور که OpenAI اشاره کرد، اکنون می تواند 25,000 کلمه متن را بدون تجربه سردرگمی بپذیرد. این خبر خوبی برای کاربرانی است که می خواهند از پتانسیل کامل این مدل استفاده کنند، زیرا آنها اجازه خواهند داشت جزئیات و دستورالعمل های بیشتری را در سؤالات و درخواست های خود ارائه دهند. با این حال، بزرگترین نکته برجسته GPT-4، اضافه شدن قابلیت چند وجهی است که یکی از بزرگترین انتظارات از مدل از زمان گزارش هفته گذشته بود. با استفاده از این قابلیت جدید، GPT-4 اکنون می‌تواند ورودی‌های تصویر را پردازش کرده و آن‌ها را از طریق متون توصیف کند، اگرچه هنوز برای همه مشتریان OpenAI در دسترس نیست، زیرا هنوز از نظر فنی با کمک چشمان من و ویژگی داوطلب مجازی آن در حال آزمایش است. .

GPT-4 تصاویر را توصیف می کند
اعتبار تصویر: OpenAI

GPT-4 تصاویر را توصیف می کند

OpenAi این عملکرد را توضیح داد: «به عنوان مثال، اگر یک کاربر تصویری از داخل یخچال خود بفرستد، داوطلب مجازی نه تنها می‌تواند به درستی آنچه در آن وجود دارد شناسایی کند، بلکه می‌تواند آنچه را که می‌توان با آن مواد تهیه کرد، استخراج و تجزیه و تحلیل کرد. . "این ابزار همچنین می تواند تعدادی دستور العمل برای آن مواد ارائه دهد و یک راهنمای گام به گام در مورد نحوه درست کردن آنها ارسال کند."

Wow Bing اکنون می تواند تصاویر را توصیف کند، حالا که می داند از GPT-4 استفاده می کند!
byu/BroskiPlaysYT inبینگ

با این وجود، به نظر می‌رسد که این قابلیت چندوجهی تا حدی وارد این سیستم شده است بینگ جدید. مایکروسافت گفت ربات چت موتور جستجوی آن از هفته گذشته این مدل را اجرا کرده است. با این حال، توجه به این نکته مهم است که ویژگی چندوجهی بینگ هنوز محدود است. برای شروع، فقط می تواند تصاویر را از طریق پیوندهای ارائه شده در وب بپذیرد، که به عنوان پاسخ توضیح می دهد. در همین حال، هنگامی که برای تصاویر با استفاده از توضیحات درخواست می شود، چت بات مرتبط ترین محتوا، از جمله نتایج تصویر و موارد دیگر را ارائه می دهد.

بینگ چت با استفاده از ویژگی چندوجهی در پاسخ

در یک نکته جانبی، این پیشرفت‌ها در GPT-4 به معنای پایان مشکلات موجود که معمولاً در همه محصولات هوش مصنوعی مولد وجود دارد، نیست. اگرچه OpenAI قول داده است که این مدل از نظر امتناع از پاسخگویی به دستورالعمل‌های مضر، ایمن‌تر از GPT-3.5 باشد، اما همچنان می‌تواند توهم و سوگیری‌های اجتماعی ایجاد کند. حتی سم آلتمن، مدیر عامل OpenAI شرح داده شده GPT-4 به عنوان چیزی "هنوز ناقص است، هنوز محدود است." با وجود این، تیم به بهبود مستمر مدل اختصاص دارد زیرا همچنان توجه عموم را به خود جلب می کند و مایکروسافت آن را به محصولات بیشتری تزریق می کند.

انجمن کاربر

پیام 0