L’analisi dei rischi nell’intelligenza artificiale: l’approccio innovativo di Bo Li e team

L’intelligenza artificiale sta rapidamente cambiando il panorama aziendale e tecnologico, con un crescente interesse per la sua sicurezza e conformità legale. Bo Li, professore associato presso l’Università di Chicago, ha fatto importanti passi avanti in questo settore, offrendo consulenze a molte aziende grazie alla sua esperienza nel campo dello stress testing degli algoritmi AI. Recentemente, ha co-fondato iniziative mirate a classificare i rischi associati ai modelli di linguaggio promossi da importanti aziende tecnologiche.

Bo Li e il focus sulla sicurezza dell’AI

Un percorso di ricerca focalizzato sui rischi

Bo Li, insieme a ricercatori di diverse università e alle aziende Virtue AI e Lapis Labs, ha sviluppato una tassonomia dei rischi dell’AI. Questo sistema di classificazione rappresenta un riferimento per le consulenze rivolte alle aziende, le quali ora si preoccupano più delle problematiche legali, etiche e di compliance rispetto alla mera intelligenza dei modelli. Il lavoro di Li è cruciale per individuare le inefficienze nei modelli attuali e per fornire linee guida chiare sulla sicurezza dell’AI. “Abbiamo bisogno di principi per la sicurezza dell’AI, riguardanti la conformità alle normative e l’uso ordinario,” afferma Li.

Analisi delle normative esistenti

Per creare questo benchmark, i ricercatori hanno esaminato le normative governative relative all’AI in paesi come Stati Uniti, Cina ed Europa. Hanno anche analizzato le politiche di utilizzo di 16 delle più grandi aziende di AI a livello mondiale. Questo lavoro di ricerca fornisce uno strumento utile per le aziende, permettendo loro di misurare l’affidabilità e la conformità dei modelli di AI a standard globali.

Benchmark AIR-Bench 2024: un nuovo standard per la valutazione dei modelli AI

Come funziona AIR-Bench 2024

L’AIR-Bench 2024 è uno strumento innovativo che utilizza migliaia di prompt per valutare vari modelli di linguaggio rispetto a rischi specifici di conformità e sicurezza. I risultati ottenuti indicano che, ad esempio, il modello Claude 3 Opus di Anthropic si distingue per la sua capacità di rifiutare di generare contenuti pericolosi, mentre Gemini 1.5 Pro di Google evita di produrre contenuti non consensuali. Tuttavia, il modello DBRX Instruct di Databricks ha registrato punteggi inferiori in molte categorie, il che solleva interrogativi sulle sue funzionalità di sicurezza.

Reazioni delle aziende e futuro di AIR-Bench

Nonostante il punteggio negativo di DBRX Instruct, Databricks ha confermato la sua intenzione di migliorare le funzionalità di sicurezza del modello. Tuttavia, le aziende coinvolte, come Anthropic e Google, non hanno fornito dettagli immediati riguardo ai risultati delle loro rispettive analisi. Quest’analisi dei modelli fornisce un’importante opportunità per le aziende di comprendere i rischi e di adeguarsi meglio alle normative vigenti, specialmente quando si tratta di applicazioni del mondo reale.

Il panorama normativo dell’intelligenza artificiale

Criticità e opportunità nel rispetto delle normative

Il lavoro di Bo Li ha evidenziato delle lacune significative nelle normative governative rispetto alle politiche aziendali delle imprese AI. I risultati suggeriscono che le regole esistenti non sono sufficientemente comprensive e che vi è ampio margine per migliorare la regolamentazione degli algoritmi. “Se si testano alcuni modelli contro le politiche di un’azienda, non necessariamente sono conformi,” afferma Li. Questo porta alla necessità di un’evoluzione delle norme di sicurezza.

Un confronto con altri progetti di ricerca

Nel contesto di questo lavoro, altri ricercatori, come il team del MIT, stanno contribuendo a ordinare il paesaggio dei rischi nell’AI. Hanno recentemente presentato una loro banca dati sui pericoli dell’AI, raccogliendo informazioni da 43 framework diversi. Ciò riflette la necessità di linee guida chiare per le organizzazioni che stanno adottando l’AI, considerando le diverse problematiche, come privacy, sicurezza e disinformazione.

L’evoluzione della sicurezza nell’AI

Riconoscere i rischi emergenti

Con l’avanzare delle tecnologie AI, diventa fondamentale per i ricercatori e le aziende esplorare i rischi emergenti, come la “sticky emotionality” dei modelli AI. Bo Li ha recentemente analizzato la versione più potente di Llama 3.1 di Meta, riscontrando che, sebbene il modello fosse più capace, la sua sicurezza non fosse migliorata in modo significativo. Questa osservazione evidenzia una disconnect preoccupante nel campo della sicurezza AI rispetto ai progressi tecnologici.

Un futuro incerto ma necessario

Mentre i lavori continuano per affinare le pratiche di sicurezza e sviluppo dell’AI, è chiaro che le aziende devono prestare maggiore attenzione alle implicazioni legali ed etiche. Ai fini di garantire un utilizzo sicuro e responsabile della tecnologia, è fondamentale che i modelli siano costantemente testati e migliorati in base agli standard emergenti. Questa tendenza verso una maggiore attenzione ai rischi potrebbe portare a un futuro in cui l’AI è non solo più potente, ma anche più sicura per tutti.

Share
Published by