Meta lancia Purple Llama; strumenti aperti di fiducia e sicurezza per un’implementazione responsabile dell’IA
2 minuto. leggere
Edizione del
Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più
Meta AI ha annunciato il lancio di Purple Llama, un'iniziativa per promuovere lo sviluppo e l'uso responsabile di modelli di intelligenza artificiale generativa. Questo progetto affronta la crescente popolarità dei modelli di intelligenza artificiale open source, con oltre 100 milioni di download di Lama soli modelli.
Purple Llama si ispira al concetto di sicurezza informatica del “purple teaming”, combinando approcci offensivi e difensivi per la mitigazione del rischio. Offre strumenti e valutazioni per due aree chiave: sicurezza informatica e garanzie di input/output.
Quando si tratta di LLM sicurezza informatica rischio, è importante avere un modo per quantificare il rischio che qualcuno possa hackerare un modello di intelligenza artificiale. Le metriche possono aiutare in questo senso fornendo un punteggio che indica la probabilità che un attacco abbia successo. Inoltre, gli sviluppatori possono utilizzare strumenti per valutare la frequenza dei suggerimenti di codice non sicuro. Ciò può aiutare a identificare e risolvere i problemi nei loro modelli di intelligenza artificiale che gli hacker potrebbero sfruttare.
Sono disponibili strumenti per proteggersi dall’uso dannoso dei modelli di intelligenza artificiale. Questi strumenti possono aiutare a impedire agli hacker di rubare o utilizzare dati per diffondere notizie false. Le organizzazioni possono implementare questi strumenti per salvaguardare i propri modelli di intelligenza artificiale e impedire che vengano utilizzati per scopi nefasti.
In secondo luogo, cosa sono le salvaguardie di input/output?
Le salvaguardie di Input/Output (I/O) sono misure di sicurezza implementate per proteggere i dati da accesso, manipolazione o divulgazione non autorizzata nel punto di ingresso e di uscita da un sistema.
Purple Llama sta attualmente lavorando su alcune cose. Uno di questi è Llama Guard, uno strumento open source volto ad aiutare gli sviluppatori a identificare ed evitare di creare contenuti dannosi. Inoltre, hanno creato linee guida per il filtraggio dei contenuti che gli sviluppatori possono seguire per garantire che i loro modelli di intelligenza artificiale non generino contenuti dannosi.
Meta ha rivelato che sono impegnati in un ecosistema aperto per lo sviluppo dell’intelligenza artificiale, il che significa che vogliono rendere facile per chiunque sviluppare e utilizzare modelli di intelligenza artificiale. Stanno lavorando con diversi partner su questo progetto, tra cui AI Alliance, AMD, Google Cloud, Hugging Face (token Meta AI recentemente esposti), IBM, Microsoft e NVIDIA.
Forum degli utenti
0 messaggi