Milano, 6 febbraio 2025 – Durante l’Ai Action Summit, tenutosi a Parigi, l’esperto di intelligenza artificiale Stuart Russell ha espresso preoccupazioni significative riguardo all’uso di questa tecnologia in ambito bellico. Russell, co-direttore dell’associazione internazionale per una AI sicura e etica, ha sottolineato l’importanza di avere “garanzie assolute” per evitare scenari catastrofici. La sua dichiarazione giunge in un momento cruciale, in seguito al cambiamento di policy di Google, che ha aperto la porta all’utilizzo dell’intelligenza artificiale per applicazioni militari.
Rischi della militarizzazione dell’intelligenza artificiale
Russell ha messo in evidenza i rischi associati a un’eventuale militarizzazione dell’intelligenza artificiale, descrivendo una situazione in cui le armi potrebbero operare autonomamente, decidendo chi colpire e quando farlo. “Immaginate armi che ricevono ordini vaghi, come attaccare e distruggere tutto ciò che si muove in una determinata area”, ha affermato. Tuttavia, i pericoli non si fermano qui; l’esperto ha sollevato la questione di come l’AI potrebbe essere programmata per eliminare individui basandosi su criteri discriminatori, come età, sesso, gruppo etnico o religione.
Investimenti e opposizioni globali
Attualmente, circa 75 paesi stanno investendo nello sviluppo di armi a controllo remoto, con l’intento di renderle completamente autonome. Altri 100 stati, invece, si oppongono a queste tecnologie e cercano di vietarle. Russell ha insistito sulla necessità di una risposta globale, suggerendo che l’Onu dovrebbe intervenire per stabilire regole chiare e vincolanti.
Interrogativi etici e necessità di prove
La questione non è solo tecnica, ma solleva interrogativi etici fondamentali. “Chiedere garanzie assolute è ragionevole, soprattutto se consideriamo il potenziale di estinzione umana derivante da sistemi di intelligenza artificiale superiori alle nostre capacità”, ha dichiarato Russell. Ha inoltre sottolineato che non basta una semplice promessa di impegno o un invito a fidarsi degli esperti. È necessario disporre di prove statistiche o matematiche che possano essere verificate e ispezionate, affinché si possa garantire un uso sicuro dell’intelligenza artificiale in contesti critici. Qualsiasi approccio che non rispetti questi standard, avverte, potrebbe portare a conseguenze disastrose.