×

Dioptra: il nuovo strumento NIST per misurare gli attacchi maliziosi agli AI Model

Dioptra: il nuovo strumento NIST per misurare gli attacchi maliziosi agli AI Model - Socialmedialife.it

Il National Institute of Standards and Technology , agenzia del Dipartimento del Commercio degli Stati Uniti, ha recentemente reintrodotto un testbed innovativo progettato per valutare l’impatto degli attacchi malevoli, in particolare quelli che “contaminano” i dati di addestramento dei modelli di intelligenza artificiale . Questo strumento, chiamato Dioptra, rappresenta un’importante risorsa per aziende e istituzioni che si confrontano con i rischi connessi alla sicurezza dell’AI.

Dioptra: un tool modulare e open source

Funzionalità e obiettivi di Dioptra

Dioptra, il cui nome deriva da uno strumento classico di astronomia e topografia, è un tool modulare e open source basato sul web, rilasciato per la prima volta nel 2022. La sua principale funzione è aiutare le aziende che allenano modelli di AI e gli utenti di questi modelli a valutare, analizzare e monitorare i rischi associati. Secondo il NIST, Dioptra funge da piattaforma comune per sottoporre i modelli a minacce simulate, creando un ambiente di “red-teaming” in cui è possibile testare la resistenza degli algoritmi di AI a attacchi malevoli.

“Testare gli effetti degli attacchi avversariali sui modelli di apprendimento automatico è uno degli obiettivi di Dioptra,” afferma una nota stampa del NIST. Il software open source è disponibile per il download gratuito, rendendolo accessibile anche a piccole e medie imprese, così come ad agenzie governative, per condurre valutazioni sui reclami dei sviluppatori di AI riguardanti le prestazioni dei loro sistemi.

Interfaccia e accessibilità

La facilità d’uso è uno dei punti di forza di Dioptra. L’interfaccia è stata progettata per essere intuitiva e accessibile a una vasta gamma di utenti, consentendo anche a coloro che non sono esperti nel campo dell’AI di comprendere e utilizzare il tool per le loro necessità. Dioptra permette di eseguire benchmark e ricerche sui modelli AI, contribuendo così a un’analisi più profonda e dettagliata delle performance e della sicurezza di tali sistemi.

Collaborazioni internazionali e normative sull’AI

Joint Development tra USA e Regno Unito

Il lancio di Dioptra si inserisce in un contesto più ampio di collaborazione internazionale nella valutazione della sicurezza dei modelli di AI. In particolare, si segnala l’iniziativa congiunta tra gli Stati Uniti e il Regno Unito, che ha preso forma durante l’AI Safety Summit a Bletchley Park nel novembre dell’anno scorso. In quell’occasione, è stata presentata una sinergia per sviluppare strumenti avanzati di testing per i modelli di AI. Parallelamente, il Regno Unito ha lanciato un proprio strumento, denominato Inspect, destinato a valutare le capacità e la sicurezza globale dei modelli di AI.

Il ruolo dell’Ordine Esecutivo di Biden

Dioptra ha anche preso forma grazie all’Ordine Esecutivo emesso dal Presidente Joe Biden, che richiede al NIST di contribuire ai test sui sistemi di AI. L’ordine stabilisce normative che riguardano la sicurezza e la protezione dei modelli di AI, imponendo alle aziende, come APPLE, di informare il governo federale riguardo ai risultati di tutti i test di sicurezza prima della loro implementazione pubblica.

Limitazioni e sfide attuali

Barriere all’accesso ai modelli

Nonostante le potenzialità di Dioptra, ci sono delle limitazioni significative da considerare. Attualmente, Dioptra è utilizzabile esclusivamente su modelli scaricabili e utilizzabili localmente, come la crescente famiglia Llama di META. I modelli riservati dietro a interfacce di programmazione delle applicazioni , come GPT-4 di OPENAI, non sono supportati nel presente. Questa restrizione solleva interrogativi sulla completezza della valutazione degli attacchi maliziosi, poiché molti dei più sofisticati modelli di AI attuali sono di difficile accesso.

La sfida della valutazione di sicurezza

Un report recente dell’ADA LOVELACE INSTITUTE, un ente di ricerca nonprofit del Regno Unito, ha evidenziato che le valutazioni da sole non sono sufficienti a garantire la sicurezza reale dei modelli di AI. Le politiche attuali consentono ai fornitori di AI di scegliere in modo selettivo quali valutazioni condurre, il che potrebbe influire sull’affidabilità dei risultati. Nonostante il NIST non sostenga che Dioptra possa eliminare completamente i rischi associati ai modelli, essa offre l’opportunità di chiarire quali tipi di attacchi potrebbero incidere negativamente sulle prestazioni di un sistema AI e di misurare in che misura.

Dioptra rappresenta così una risposta concreta alle sfide crescenti elevate dall’uso sempre più diffuso dell’intelligenza artificiale e dalla necessità di garantire che i sistemi siano robusti contro attacchi malevoli.