L’intelligenza artificiale alimenta il razzismo? Le nuove scoperte incredibili che gettano una luce bieca sulla tecnologia.
In un’epoca in cui l’intelligenza artificiale gioca un ruolo sempre più centrale nelle nostre vite quotidiane, emergono all’orizzonte nuovi problemi legati all’uso improprio dei motori di ricerca. Recentemente, è stata sollevata l’attenzione su come Google, Microsoft e piattaforme come Perplexity stiano contribuendo, seppur involontariamente, alla diffusione di teorie razziste, alimentando le convinzioni errate di superiorità razziale. Un argomento che sprigiona curiosità e preoccupazione, analizzando come queste tecnologie si interfaccino con questioni sociali di grande rilevanza.
Da qualche tempo, la ricerca sul razzismo scientifico ha attirato l’interesse di esperti e attivisti. Patrik Hermansson, un ricercatore del gruppo antirazzista Hope Not Hate del Regno Unito, si è immerso in un’indagine approfondita su questo tema inquietante. La sua esplorazione ha preso forma attorno alla Human Diversity Foundation, un ente controverso e finanziato dal miliardario Andrew Conru. Questo gruppo si propone di rappresentare il successore del Pioneer Fund, un’organizzazione con una storia legata a ideali inquietanti risalenti agli anni ’30, volti a promuovere la teoria del “perfezionamento della razza“.
Nella sua ricerca, Hermansson si è ritrovato a utilizzare Google per ottenere dati sui punteggi del quoziente intellettivo di diverse nazioni. È affascinante, ma anche piuttosto allarmante, notare come semplici query possano rivelare questioni così profonde e problematiche. Quando ha cercato il “QI del Pakistan“, ha ricevuto un riepilogo fornito dall’intelligenza artificiale, che indicava un punteggio di 80. Questo, si è scoperto, era soltanto l’inizio di una concatenazione di dati inaccettabili.
Proseguendo con la sua ricerca, Hermansson ha cercato anche il “QI della Sierra Leone“, ottenendo un risultato ancora più sconvolgente: 45,07. Il punteggio attribuito al Kenya era di 75,2. La risposta di Google, apparentemente casuale, non era affatto un dato isolato. I numeri, che avrebbero dovuto sollevare domande su come vengono elaborati e presentati i dati, erano, in effetti, direttamente associati agli studi di Richard Lynn.
Risultato affascinante e inquietante: Lynn, professore dell’Università dell’Ulster scomparso di recente, ha avuto un ruolo cruciale nella diffusione di queste teorie discutibili. La sua eredità, troppo spesso basata su evidenze dubbie e pericolose teorie, continua a sopravvivere nei risultati della ricerca, con un’influenza che rimane tangibile nel presente. Hermansson osserva che Lynn era considerato un “leader fondamentale” nel campo del razzismo scientifico e i dati tratti dal suo lavoro rischiano di alimentare nuovamente ideologie estremiste.
Le scoperte di Hermansson non sono risultate isolate. Un’indagine condotta da Wired ha constatato che anche altri motori di ricerca, come quelli supportati da Microsoft, mostrano una tendenza preoccupante e simile. La ricerca ha rivelato che Copilot e Perplexity fanno rimando agli studi di Lynn per quanto riguarda le valutazioni del QI. Questo è un segnale forte e evidente di come il sistema di intelligenza artificiale stia perpetuando un ciclo di disinformazione e ideologie problematiche.
Il timore tra gli esperti è che la diffusione di queste teorie razziste attraverso le piattaforme digitali collegate all’AI possa intensificare le convinzioni errate di alcuni individui. L’accessibilità e la riproducibilità di materiale che promuove la supremazia bianca, in un contesto già vulnerabile e polarizzato dal punto di vista sociale, pongono gravi interrogativi sull’etica dell’uso dell’intelligenza artificiale nel nostro quotidiano. Rimanere vigili su questi sviluppi è cruciale, per garantire che i motori di ricerca mantengano un ruolo positivo e non diventino veicoli di ideologie pericolose.
This post was last modified on 4 Novembre 2024 11:04