مایکروسافت در حال توسعه مدل زبان بزرگ خود با 500 میلیارد پارامتر است
1 دقیقه خواندن
منتشر شده در
صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب
یادداشت های کلیدی
- ایجاد MAI-1 نشان دهنده عزم مایکروسافت برای کاهش اتکا به OpenAI برای مدل های AI است.
مایکروسافت از طریق مشارکت قوی خود با OpenAI، از یکی از برترین مدلهای زبان بزرگ (LLM) صنعت استفاده میکند. فراتر از پیشنهادات OpenAI، تحقیقات مایکروسافت به طور مداوم مدل های زبان کوچکتر (SLM) را برای رقابت با استارتاپ های هوش مصنوعی و پروژه های منبع باز منتشر می کند. در حال حاضر، اطلاعات گزارش مایکروسافت در حال ایجاد LLM داخلی خود با نام رمز MAI-1 است.
در حالی که خانواده مدل Phi با حداکثر 14 میلیارد پارامتر آموزش داده شد، MAI-1 از حدود 500 میلیارد پارامتر استفاده خواهد کرد. این MAI-1 را به طور مستقیم با LLM های پیشرو در صنعت مانند Google Gemini و Amazon Titan رقابت می کند.
مصطفی سلیمان که اخیرا پیوست مایکروسافت، تلاش برای توسعه MAI-1 را رهبری می کند. مایکروسافت به غیر از استخدام مصطفی و اعضای کلیدی از هوش مصنوعی Inflection، دسترسی به فناوری Inflection را نیز امضا کرد. بنابراین، مایکروسافت ممکن است از برخی از فناوری هایی که از Inflection به دست آورده برای توسعه MAI-1 استفاده کند.
این خبر توسعه MAI-1 نشان می دهد که مایکروسافت به وضوح نمی خواهد برای مدل های هوش مصنوعی کاملاً به OpenAI وابسته باشد. میخواهد به مدلهای پیشرفته هوش مصنوعی OpenAI، MAI-1 توسعهیافته داخلی دسترسی داشته باشد که تواناییهایی معادل مدلهای پیشرفته OpenAI و مدلهای کوچک خانواده Phi برای سناریوهای روی دستگاه خواهد داشت. .