Meta lanserer Purple Llama; åpne tillits- og sikkerhetsverktøy for ansvarlig distribusjon av AI

Ikon for lesetid 2 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Meta AI har annonsert lanseringen av Purple Llama, et initiativ for å fremme ansvarlig utvikling og bruk av generative AI-modeller. Dette prosjektet tar for seg den økende populariteten til AI-modeller med åpen kildekode, med over 100 millioner nedlastinger av Llama modeller alene.

Purple Llama henter inspirasjon fra cybersikkerhetskonseptet «lilla teaming», som kombinerer offensive og defensive tilnærminger til risikoreduksjon. Den tilbyr verktøy og evalueringer for to nøkkelområder: cybersikkerhet og input/output-sikring.

Når det gjelder LLM Cybersecurity risiko, er det viktig å ha en måte å kvantifisere risikoen for at noen hacker seg inn i en AI-modell. Beregninger kan hjelpe med dette ved å gi en poengsum som indikerer sannsynligheten for et vellykket hack. I tillegg kan utviklere bruke verktøy for å evaluere frekvensen av usikre kodeforslag. Dette kan bidra til å identifisere og fikse problemer i AI-modellene deres som hackere kan utnytte.

Verktøy er tilgjengelige for å beskytte mot ondsinnet bruk av AI-modeller. Disse verktøyene kan bidra til å forhindre hackere i å stjele eller bruke data til å spre falske nyheter. Organisasjoner kan implementere disse verktøyene for å beskytte AI-modellene deres og forhindre at de blir brukt til ondsinnede formål.

Dernest, hva er Input/Output Safeguards?

Input/Output (I/O)-sikringer er sikkerhetstiltak implementert for å beskytte data mot uautorisert tilgang, manipulasjon eller avsløring ved inn- og utgang fra et system.

 

Purple Llama jobber for tiden med et par ting. En av disse er Llama Guard, som er et åpen kildekodeverktøy som har som mål å hjelpe utviklere med å identifisere og unngå å lage skadelig innhold. I tillegg har de laget retningslinjer for innholdsfiltrering som utviklere kan følge for å sikre at AI-modellene deres ikke genererer skadelig innhold.

Meta har avslørt at de er forpliktet til et åpent økosystem for AI-utvikling, noe som betyr at de ønsker å gjøre det enkelt for alle å utvikle og bruke AI-modeller. De jobber med flere partnere på dette prosjektet, inkludert AI Alliance, AMD, Google Cloud, Hugging Face (nylig eksponerte Meta AI-tokens), IBM, Microsoft og NVIDIA.

Brukerforum

0 meldinger