Meta lancerer Purple Llama; åbne tillids- og sikkerhedsværktøjer til ansvarlig implementering af kunstig intelligens

Ikon for læsetid 2 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

Meta AI har annonceret lanceringen af ​​Purple Llama, et initiativ til at fremme ansvarlig udvikling og brug af generative AI-modeller. Dette projekt adresserer den voksende popularitet af open source AI-modeller med over 100 millioner downloads af Llama modeller alene.

Purple Llama tager inspiration fra cybersikkerhedskonceptet "lilla teaming", der kombinerer offensive og defensive tilgange til risikoreduktion. Det tilbyder værktøjer og evalueringer for to nøgleområder: cybersikkerhed og input/output sikkerhedsforanstaltninger.

Når det kommer til LLM cybersikkerhed risiko, er det vigtigt at have en måde at kvantificere risikoen for, at nogen hacker sig ind i en AI-model. Metrics kan hjælpe med dette ved at give en score, der indikerer sandsynligheden for et vellykket hack. Derudover kan udviklere bruge værktøjer til at evaluere hyppigheden af ​​usikre kodeforslag. Dette kan hjælpe med at identificere og løse problemer i deres AI-modeller, som hackere kunne udnytte.

Værktøjer er tilgængelige til at beskytte mod ondsindet brug af AI-modeller. Disse værktøjer kan hjælpe med at forhindre hackere i at stjæle eller bruge data til at sprede falske nyheder. Organisationer kan implementere disse værktøjer for at beskytte deres AI-modeller og forhindre dem i at blive brugt til uhyggelige formål.

For det andet, hvad er input/output sikkerhedsforanstaltninger?

Input/Output (I/O) sikkerhedsforanstaltninger er sikkerhedsforanstaltninger, der er implementeret for at beskytte data mod uautoriseret adgang, manipulation eller offentliggørelse ved ind- og udgangspunktet fra et system.

 

Purple Llama arbejder i øjeblikket på et par ting. En af dem er Llama Guard, som er et open source-værktøj, der har til formål at hjælpe udviklere med at identificere og undgå at skabe skadeligt indhold. Derudover har de lavet retningslinjer for indholdsfiltrering, som udviklere kan følge for at sikre, at deres AI-modeller ikke genererer skadeligt indhold.

Meta har afslørede at de er forpligtet til et åbent økosystem for AI-udvikling, hvilket betyder, at de vil gøre det nemt for enhver at udvikle og bruge AI-modeller. De arbejder med flere partnere på dette projekt, herunder AI Alliance, AMD, Google Cloud, Hugging Face (for nylig afslørede Meta AI-tokens), IBM, Microsoft og NVIDIA.

Mere om emnerne: Meta