Intelligenza artificiale e scienza: i rischi di un uso improprio nella ricerca scientifica

L’intelligenza artificiale sta rivoluzionando la scienza, ma presenta rischi significativi legati a errori metodologici e alla ridefinizione della conoscenza scientifica, sollevando interrogativi sull’affidabilità delle sue previsioni.
Intelligenza artificiale e scienza: i rischi di un uso improprio nella ricerca scientifica - Socialmedialife.it

L’intelligenza artificiale sta trasformando il panorama della scienza, ma il suo utilizzo presenta rischi significativi. Un articolo di Arvind Narayanan e Sayash Kapoor pubblicato su Nature mette in luce due problematiche principali: gli errori metodologici nell’uso degli strumenti di machine learning e la ridefinizione della conoscenza scientifica. Questi aspetti sollevano interrogativi cruciali sull’affidabilità delle previsioni generate dall’IA e sulla comprensione dei meccanismi sottostanti.

Errori metodologici nell’uso dell’intelligenza artificiale

Il primo problema evidenziato dagli autori riguarda la costruzione, l’addestramento e la valutazione dei modelli predittivi. L’intelligenza artificiale si basa sull’identificazione di schemi nei dati; tuttavia, se questi dati sono mal gestiti o manipolati, il modello può “imparare” informazioni errate che sembrano valide ma non lo sono affatto. Un esempio chiaro è rappresentato dal fenomeno del data leakage, dove nel set di addestramento si trovano informazioni che dovrebbero essere escluse perché appartengono ai dati di test. In tali situazioni, il modello non apprende realmente a riconoscere un fenomeno; piuttosto sfrutta inconsapevolmente indizi che gli consentono di “indovinare” le risposte corrette.

Un’altra questione critica è rappresentata dai bias presenti nei dati utilizzati per l’addestramento. Narayanan e Kapoor citano uno studio sistematico su 415 ricerche relative all’analisi radiologica per diagnosticare Covid-19 tramite IA durante la pandemia. Solo 62 studi soddisfacevano criteri minimi di qualità, mentre molti presentavano difetti metodologici gravi come valutazioni errate o duplicazione dei dati.

Particolarmente emblematico è stato un caso in cui i modelli erano stati addestrati con dati provenienti esclusivamente da adulti positivi al Covid-19 contro bambini negativi tra 1 e 5 anni. Il risultato fu che il modello imparò a distinguere adulti da bambini invece che malati da sani, portando a conclusioni fuorvianti sulla sua efficacia diagnostica.

La ridefinizione della conoscenza scientifica

Il secondo problema sollevato dagli autori va oltre l’aspetto tecnico ed investe la concezione stessa della conoscenza scientifica contemporanea. Si osserva una tendenza crescente ad accettare come “scientifico” un modello semplicemente perché produce previsioni accurate senza fornire alcuna comprensione dei meccanismi sottostanti.

Questa evoluzione epistemologica implica una riflessione profonda sui problemi affrontati dall’IA rispetto alle soluzioni proposte dalla scienza tradizionale. Gli algoritmi dell’IA operano riconoscendo probabilità basate su schemi appresi durante l’addestramento; tuttavia non offrono spiegazioni sui fenomeni analizzati né sul loro funzionamento interno.

A differenza delle teorie fisiche classiche come quella quantistica — fondata su principi ben definitivi — i modelli IA mancano del contesto teorico necessario per interpretare correttamente le correlazioni tra i dati analizzati. Le risposte fornite dall’intelligenza artificiale sono probabilistiche ma prive del rigore teorico richiesto dalla scienza: non c’è una legge generale o un principio causale alla base delle sue previsioni.

Riflessioni finali sul valore epistemico delle teorie scientifiche

Narayanan e Kapoor avvertono chiaramente riguardo al rischio insito nell’accettare passivamente le risposte fornite dall’intelligenza artificiale senza cercarne le spiegazioni più profonde. La scienza ha sempre mirato a comprendere non solo cosa accade ma anche perché ciò avviene attraverso modelli teorici coerenti con i fenomeni osservati.

La distinzione fondamentale tra intelligenza artificiale e approccio scientifico tradizionale risiede nella capacità della seconda di dedurre leggi generali dai principi fondamentali piuttosto che limitarsi a produrre risultati utilitaristici basati sulle correlazioni apprese dai dati storici.

In sintesi, mentre l’intelligenza artificiale può rivelarsi uno strumento utile in vari ambiti come medicina ed ingegneria, essa non deve sostituire il rigoroso processo conoscitivo proprio della scienza moderna; rinunciare alla ricerca del significato profondo dietro alle osservazioni potrebbe compromettere seriamente l’integrità dell’impresa scientifica stessa.