Microsoft mengumumkan Phi-3-vision, SLM multimodal baru untuk skenario AI pada perangkat

Ikon waktu membaca 1 menit Baca


Pembaca membantu dukungan MSpoweruser. Kami mungkin mendapat komisi jika Anda membeli melalui tautan kami. Ikon Keterangan Alat

Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut

Catatan kunci

  • Phi-3-vision adalah model parameter 4.2B yang mendukung tugas penalaran visual umum dan penalaran bagan/grafik/tabel

Pada Build 2024, Microsoft hari ini diperluas keluarga model bahasa kecil AI Phi-3 dengan visi Phi-3 baru. Phi-3-vision adalah model parameter 4.2B yang mendukung tugas penalaran visual umum dan penalaran bagan/grafik/tabel. Model dapat mengambil gambar dan teks sebagai masukan, dan tanggapan teks keluaran.

Microsoft hari ini juga mengumumkan ketersediaan umum Phi-3-mini dalam penawaran Models-as-a Service (MaaS) Azure AI. Model Phi-3 mendapatkan momentum karena hemat biaya dan dioptimalkan untuk skenario AI pada perangkat, edge, inferensi offline, dan terikat latensi.

Selain berita tentang model Phi-3, Microsoft mengumumkan fitur baru di seluruh API untuk memungkinkan pengalaman multimodal. Azure AI Speech kini memiliki analisis ucapan dan terjemahan universal. Azure AI Search kini hadir dengan peningkatan penyimpanan secara signifikan dan peningkatan ukuran indeks vektor hingga 12X tanpa biaya tambahan untuk memungkinkan beban kerja RAG yang besar dalam skala besar.

forum pengguna

Pesan 0