Meta lanseeraa Purple Llaman; avoimet luottamus- ja turvallisuustyökalut tekoälyn vastuulliseen käyttöön

Lukuajan kuvake 2 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Meta AI on ilmoittanut julkaisevansa Purple Llaman, aloitteen, joka edistää generatiivisten tekoälymallien vastuullista kehitystä ja käyttöä. Tämä projekti käsittelee avoimen lähdekoodin tekoälymallien kasvavaa suosiota, ja niitä on ladattu yli 100 miljoonaan liekki malleja yksin.

Purple Llama saa inspiraationsa kyberturvallisuuskonseptista "purple teaming", joka yhdistää hyökkääviä ja puolustavia lähestymistapoja riskien lieventämiseen. Se tarjoaa työkaluja ja arvioita kahdelle avainalueelle: kyberturvallisuus ja syöttö/tulostussuojat.

Mitä tulee LLM:ään tietoverkkojen riskiä, ​​on tärkeää, että sinulla on tapa mitata riski siitä, että joku murtautuu tekoälymalliin. Mittarit voivat auttaa tässä antamalla pisteet, jotka osoittavat onnistuneen hakkeroinnin todennäköisyyden. Lisäksi kehittäjät voivat käyttää työkaluja arvioidakseen turvattomien koodiehdotusten esiintymistiheyttä. Tämä voi auttaa tunnistamaan ja korjaamaan tekoälymallien ongelmia, joita hakkerit voivat hyödyntää.

Saatavilla on työkaluja, jotka suojaavat tekoälymallien haitalliselta käytöltä. Nämä työkalut voivat auttaa estämään hakkereita varastamasta tai käyttämästä tietoja valeuutisten levittämiseen. Organisaatiot voivat ottaa nämä työkalut käyttöön suojatakseen tekoälymallejaan ja estääkseen niiden käytön pahantahtoisiin tarkoituksiin.

Toiseksi, mitä ovat tulo/lähtösuojat?

Input/Output (I/O) -suojatoimenpiteet ovat turvatoimia, jotka on toteutettu suojaamaan tietoja luvattomalta käytöltä, manipuloinnilta tai paljastamiselta järjestelmän sisään- ja ulostulokohdassa.

 

Purple Llama työskentelee parhaillaan muutamien asioiden parissa. Yksi niistä on Llama Guard, joka on avoimen lähdekoodin työkalu, jonka tarkoituksena on auttaa kehittäjiä tunnistamaan haitallista sisältöä ja välttämään sen luomista. Lisäksi he ovat luoneet sisällön suodatusohjeet, joita kehittäjät voivat noudattaa varmistaakseen, että heidän tekoälymallinsa eivät tuota haitallista sisältöä.

Metalla on paljasti että he ovat sitoutuneet avoimeen ekosysteemiin tekoälyn kehittämistä varten, mikä tarkoittaa, että he haluavat tehdä tekoälymallien kehittämisestä ja käytöstä helppoa kenen tahansa. He työskentelevät useiden kumppanien kanssa tässä projektissa, mukaan lukien AI Alliance, AMD, Google Cloud, Hugging Face (äskettäin paljastetut Meta AI -merkit), IBM, Microsoft ja NVIDIA.

Lisää aiheista: Meta

Jätä vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *