مایکروسافت در حال توسعه مدل زبان بزرگ خود با 500 میلیارد پارامتر است

نماد زمان خواندن 1 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

یادداشت های کلیدی

  • ایجاد MAI-1 نشان دهنده عزم مایکروسافت برای کاهش اتکا به OpenAI برای مدل های AI است.
مایکروسافت

مایکروسافت از طریق مشارکت قوی خود با OpenAI، از یکی از برترین مدل‌های زبان بزرگ (LLM) صنعت استفاده می‌کند. فراتر از پیشنهادات OpenAI، تحقیقات مایکروسافت به طور مداوم مدل های زبان کوچکتر (SLM) را برای رقابت با استارتاپ های هوش مصنوعی و پروژه های منبع باز منتشر می کند. در حال حاضر، اطلاعات گزارش مایکروسافت در حال ایجاد LLM داخلی خود با نام رمز MAI-1 است.

در حالی که خانواده مدل Phi با حداکثر 14 میلیارد پارامتر آموزش داده شد، MAI-1 از حدود 500 میلیارد پارامتر استفاده خواهد کرد. این MAI-1 را به طور مستقیم با LLM های پیشرو در صنعت مانند Google Gemini و Amazon Titan رقابت می کند.

مصطفی سلیمان که اخیرا پیوست مایکروسافت، تلاش برای توسعه MAI-1 را رهبری می کند. مایکروسافت به غیر از استخدام مصطفی و اعضای کلیدی از هوش مصنوعی Inflection، دسترسی به فناوری Inflection را نیز امضا کرد. بنابراین، مایکروسافت ممکن است از برخی از فناوری هایی که از Inflection به دست آورده برای توسعه MAI-1 استفاده کند.

این خبر توسعه MAI-1 نشان می دهد که مایکروسافت به وضوح نمی خواهد برای مدل های هوش مصنوعی کاملاً به OpenAI وابسته باشد. می‌خواهد به مدل‌های پیشرفته هوش مصنوعی OpenAI، MAI-1 توسعه‌یافته داخلی دسترسی داشته باشد که توانایی‌هایی معادل مدل‌های پیشرفته OpenAI و مدل‌های کوچک خانواده Phi برای سناریوهای روی دستگاه خواهد داشت. .