Model Phi-2 2.7B dari Microsoft mengungguli model Google Gemini Nano-2 3.2B yang baru-baru ini diumumkan

Ikon waktu membaca 2 menit Baca


Pembaca membantu dukungan MSpoweruser. Kami mungkin mendapat komisi jika Anda membeli melalui tautan kami. Ikon Keterangan Alat

Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut

Microsoft Phi-2

Selama beberapa bulan terakhir, Microsoft Research telah merilis serangkaian model bahasa kecil (SLM) yang disebut “Phi”. Phi-1 dirilis pertama kali dengan 1.3 miliar parameter dan dikhususkan untuk pengkodean dasar Python. Pada bulan September, Penelitian Microsoft dirilis Model Phi-1.5 dengan 1.3 miliar parameter, tetapi dilatih dengan sumber data baru yang mencakup berbagai teks sintetis NLP. Meskipun ukurannya kecil, phi-1.5 memberikan kinerja yang hampir tercanggih jika dibandingkan dengan model berukuran serupa lainnya.

Hari ini, Microsoft mengumumkan peluncuran model Phi-2 dengan 2.7 miliar parameter. Microsoft Research mengklaim bahwa SLM baru ini memberikan kinerja canggih di antara model bahasa dasar dengan kurang dari 13 miliar parameter. Pada beberapa tolok ukur yang kompleks, Phi-2 cocok atau mengungguli model hingga 25x lebih besar.

Minggu lalu, Google mengumumkan Rangkaian model bahasa Gemini. Gemini Nano adalah model paling efisien dari Google yang dibuat untuk tugas di perangkat dan dapat dijalankan langsung di silikon seluler. Model bahasa kecil seperti Gemini Nano memungkinkan fitur seperti peringkasan teks, balasan cerdas kontekstual, dan koreksi tata bahasa dan pengoreksian tingkat lanjut.

Menurut Microsoft, model Phi-2 baru cocok atau mengungguli Google Gemini Nano-2 baru, meskipun ukurannya lebih kecil. Anda dapat menemukan perbandingan benchmark antara model Google Gemini Nano-2 dan Phi-2 di bawah.

ModelUkuranBBHBoolQMBPPMMLU
Gemini Nano 23.2B42.479.327.255.8
Fi-22.7B59.383.359.156.7

Selain mengungguli Gemini Nano-2, Phi-2 juga mengungguli performa model Mistral dan Llama-2 pada parameter 7B dan 13B di berbagai benchmark. Temukan detailnya di bawah ini.

ModelUkuranBBHKewajaran
Pemikiran
Bahasa
Memahami
MatematikaPengkodean
Lama-27B40.062.256.716.521.0
13B47.865.061.934.225.4
70B66.569.267.664.138.3
mistral7B57.266.463.746.439.4
Fi-22.7B59.268.862.061.153.7

Meskipun dua model phi sebelumnya tersedia di Hugging Face, Phi-2 telah tersedia di katalog model Azure. Anda dapat mempelajari lebih lanjut tentang Phi-2 di sini.

Lebih lanjut tentang topik: microsoft, penelitian microsoft, Fi-1, Fi-2

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai *