Applen On-Device-malli toimii paremmin kuin Microsoftin Phi-3-mini, palvelinmalli, joka on verrattavissa GPT-4 Turboon

Lukuajan kuvake 3 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Keskeiset huomautukset

  • Kilpailu tehokkaampien ja tehokkaampien tekoälymallien kehittämisestä johtaa lopulta parempiin tuotteisiin, intuitiivisempaan käyttökokemukseen ja laajempaan valikoimaan tekoälyllä varustettuja työkaluja, jotka ovat ulottuvillamme.
Apple-On-Device-model-and-Server-malli-benchmarks-5

Tämän vuoden huhtikuussa Microsoft ilmoitti Phi-3 pienten kielimallien (SLM) perhe. Phi-3-mini, jossa on 3.8 miljardin parametrin kielimalli, on koulutettu 3.3 biljoonalla tokenilla ja se voittaa Mixtral 8x7B:n ja GPT-3.5:n. Microsoft ilmoitti äskettäin Copilot+ PC:t jotka käyttävät Azure Cloudissa toimivia suuria kielimalleja (LLM) yhdessä useiden Microsoftin maailmanluokan pienten kielimallien (SLM) kanssa avatakseen uusia tekoälykokemuksia, joita voit käyttää paikallisesti suoraan laitteella.

WWDC 2024 -messuilla Apple julkisti Apple Intelligencen (sen Copilot-vaihtoehdon) laitteilleen. Apple Intelligence saa virtansa useista erittäin suorituskykyisistä generatiivisista malleista. Microsoftin tapaan Apple käyttää sekä On-Device-malleja että palvelinpohjaisia ​​malleja. Eilen Apple yksityiskohtainen kaksi perusmalleista, joita se käyttää Apple Intelligencen virtalähteenä.

  • Apple On-Device -malli on 3 miljardin parametrin SLM
  • Apple Server on LLM, joka isännöi Applen omaa Private Cloud Compute -palvelua ja toimii Applen piipalvelimilla

Tekniset yksityiskohdat:

  • Applen perusmallit ovat koulutettuja Applen AXLearn-kehys.
  • Apple koulutti malleja korkean tehokkuuden ja skaalautuvuuden avulla erilaisilla koulutuslaitteistoilla ja pilvialustoilla, mukaan lukien TPU:t ja sekä pilvi- että paikalliset GPU:t.
  • Apple koulutti perusmallinsa lisensoiduilla tiedoilla, mukaan lukien tiedot, jotka on valittu parantamaan tiettyjä ominaisuuksia, sekä julkisesti saatavilla oleva tieto, jonka on kerännyt verkko-indeksointirobottimme, AppleBot.
  • Laitteessa oleva malli käyttää sanakokoa 49 kt, kun taas palvelinmalli käyttää 100 kt:n sanakokoa, joka sisältää ylimääräisiä kieli- ja teknisiä tunnuksia.
  • IPhone 15 Prossa Apple pystyi saavuttamaan viiveen ensimmäiseen tunnukseen noin 0.6 millisekuntia kehotetunnusta kohden ja sukupolvinopeuden 30 merkkiä sekunnissa.

Arvioidakseen näiden mallien suorituskykyä Apple vertasi niitä sekä avoimen lähdekoodin malleihin (Phi-3, Gemma, Mistral, DBRX) että vastaaviin kaupallisiin malleihin (GPT-3.5-Turbo, GPT-4-Turbo). Apple väittää, että ihmisten tiehöylät suosivat sen malleja useimpiin vertailukelpoisiin kilpailijoihin verrattuna. Esimerkiksi Applen laitteessa oleva malli 3B-parametreilla ylittää mallit, kuten Phi-3-mini, Mistral-7B ja Gemma-7B. Ja Applen palvelinmalli verrataan suotuisasti DBRX-Instructiin, Mixtral-8x22B:hen ja GPT-3.5-Turboon, vaikka se on erittäin tehokas.

Voit tarkistaa Applen arviointitulokset alta.

Applen strateginen käyttö sekä laitteisiin että palvelinpohjaisiin malleihin heijastelee Microsoftin lähestymistapaa, mikä osoittaa trendin kohti hybridi-AI-ratkaisuja, jotka tasapainottavat tehoa ja tehokkuutta. Applen mallien vaikuttava suorituskyky, erityisesti niiden nopeus ja mieltymys ihmisten tiehöyleiden keskuudessa, korostaa potentiaalia pienemmille, tehokkaammille malleille kilpailla suurempia malleja tietyissä sovelluksissa.

Kun nämä kaksi jättiläistä jatkavat innovointia, tekoälyn tulevaisuus näyttää yhä lupaavammalta. Kuluttajat voivat odottaa näkevänsä tehokkaampia, yksilöllisempiä tekoälykokemuksia integroituna laitteisiinsa ja työnkulkuihinsa. Olipa kyseessä Microsoftin Copilot+ tai Applen Apple Intelligence, tekoälyn ja arkipäivän teknologian lähentyminen määrittelee uudelleen tapamme olla vuorovaikutuksessa digitaalisen maailman kanssa.

Käyttäjäfoorumi

0-viestit