Meta rafforza la sicurezza dell’AI con nuovi strumenti Llama

Se stai progettando con l’AI o cerchi di difenderti dal lato meno piacevole della tecnologia, Meta ha appena rilasciato nuovi strumenti di sicurezza per Llama.

I migliorati strumenti di sicurezza per i modelli AI Llama arrivano insieme a nuove risorse da Meta, pensate per aiutare i team di cybersecurity a sfruttare l’AI per la difesa. È parte del loro impegno a rendere lo sviluppo e l’uso dell’AI un po’ più sicuri per tutti.

Gli sviluppatori che lavorano con la famiglia di modelli Llama ora hanno nuovi strumenti avanzati a disposizione. Puoi trovare questi ultimi strumenti di protezione Llama direttamente sulla pagina ufficiale di Meta, oppure dove si trovano molti sviluppatori: Hugging Face e GitHub.

Il primo è Llama Guard 4. Pensa a questo come un’evoluzione del filtro di sicurezza personalizzabile di Meta per l’AI. La novità più importante è che ora è multimodale, quindi può applicare le regole di sicurezza non solo al testo, ma anche alle immagini. Questo è cruciale con l’aumento delle applicazioni AI visive. Questa nuova versione sarà anche integrata nella nuova Llama API di Meta, attualmente in anteprima limitata.

Poi c’è LlamaFirewall. Questo è un nuovo pezzo del puzzle di Meta, progettato per funzionare come un centro di controllo per la sicurezza dei sistemi AI. Aiuta a gestire diversi modelli di sicurezza che lavorano insieme e si collega agli altri strumenti di protezione di Meta. Il suo compito? Individuare e bloccare i rischi che tengono svegli gli sviluppatori di AI – come attacchi sofisticati di “prompt injection” pensati per ingannare l’AI, generazione di codice potenzialmente pericoloso o comportamenti rischiosi da plugin AI.

Meta ha anche migliorato Llama Prompt Guard. Il modello principale Prompt Guard 2 (86M) ora è più bravo a riconoscere tentativi di jailbreak e prompt injection. Ancora più interessante è l’introduzione di Prompt Guard 2 22M.

Prompt Guard 2 22M è una versione molto più piccola e veloce. Meta sostiene che può ridurre la latenza e i costi computazionali fino al 75% rispetto al modello più grande, senza sacrificare troppo la capacità di rilevamento. Per chi ha bisogno di risposte rapide o lavora con budget più stretti, è un’ottima novità.

Ma Meta non si concentra solo sugli sviluppatori di AI; guarda anche ai difensori della sicurezza digitale in prima linea. Hanno ascoltato la richiesta di strumenti AI migliori per la lotta contro gli attacchi informatici e stanno condividendo aggiornamenti proprio per questo.

La suite di benchmark CyberSec Eval 4 è stata aggiornata. Questo toolkit open-source aiuta le organizzazioni a valutare quanto sono efficaci i sistemi AI nei compiti di sicurezza. L’ultima versione include due nuovi strumenti:

  • CyberSOC Eval: sviluppato con l’aiuto degli esperti di cybersecurity di CrowdStrike, questo framework misura come l’AI si comporta in un vero ambiente di Security Operation Centre (SOC). Serve a dare un quadro più chiaro dell’efficacia dell’AI nella rilevazione e risposta alle minacce. Il benchmark sarà disponibile a breve.

  • AutoPatchBench: questo benchmark testa quanto Llama e altre AI siano bravi a trovare e correggere automaticamente falle di sicurezza nel codice, prima che gli attaccanti possano sfruttarle.

Per aiutare a mettere questi strumenti nelle mani di chi ne ha bisogno, Meta ha lanciato il programma Llama Defenders. Questo sembra mirare a dare a partner e sviluppatori accesso speciale a una serie di soluzioni AI – alcune open-source, alcune in accesso anticipato, altre forse proprietarie – tutte orientate a diverse sfide di sicurezza.

Come parte di questo, Meta sta condividendo uno strumento di sicurezza AI usato internamente: l’Automated Sensitive Doc Classification Tool. Questo strumento applica automaticamente etichette di sicurezza ai documenti all’interno di un’organizzazione. Perché? Per evitare che informazioni sensibili escano dall’azienda o vengano accidentalmente inserite in sistemi AI (come quelli basati su RAG) dove potrebbero essere esposte.

Stanno anche affrontando il problema dell’audio falso generato dall’AI, usato sempre più nelle truffe. Il Llama Generated Audio Detector e il Llama Audio Watermark Detector sono condivisi con i partner per aiutarli a individuare voci generate da AI in possibili chiamate di phishing o frodi. Aziende come ZenDesk, Bell Canada e AT&T sono già pronte a integrarli.

Infine, Meta ha dato un’anticipazione su una tecnologia potenzialmente rivoluzionaria per la privacy degli utenti: Private Processing. Questa è una nuova tecnologia su cui stanno lavorando per WhatsApp. L’idea è permettere all’AI di fare cose utili come riassumere i messaggi non letti o aiutarti a scrivere risposte, senza però che Meta o WhatsApp possano leggere il contenuto dei messaggi stessi.

Meta è abbastanza trasparente sulla sicurezza, pubblicando il proprio modello di minaccia e invitando i ricercatori di sicurezza a testare l’architettura prima che venga resa pubblica. È un segno che sanno quanto sia importante fare le cose per bene sul fronte della privacy.

Nel complesso, è un ampio pacchetto di annunci sulla sicurezza AI da parte di Meta. È chiaro che vogliono mettere serio impegno nel mettere in sicurezza l’AI che costruiscono, fornendo al contempo alla comunità tech strumenti migliori per sviluppare in modo sicuro e difendersi efficacemente.

Nuova Vecchia

نموذج الاتصال