I genitori di quattro giovani britannici hanno avviato un’azione legale contro TikTok, accusando la piattaforma di social media di essere responsabile della morte dei loro figli in seguito a sfide pericolose nel 2022. La causa riguarda le tragiche scomparse di Isaac Kennevan, Archie Battersby, Julian “Jules” Sweeney e Maya Walsh, che avrebbero partecipato alla “blackout challenge”, una sfida che prevede di trattenere il respiro il più a lungo possibile. L’azione legale è stata presentata alla Corte suprema dello Stato del Delaware e rappresenta i genitori, con la madre di Archie, Holly Dance, in prima linea.
La questione ha ottenuto una risonanza notevole anche negli Stati Uniti, dove il Social Media Victims Law Center ha sporto denuncia per omicidio colposo contro TikTok e la sua società madre, ByteDance. TikTok ha risposto affermando di vietare contenuti e sfide pericolose, indirizzando gli utenti verso il Centro Sicurezza per la gestione di tali contenuti. Tuttavia, i genitori sostengono che le morti siano state il risultato di decisioni aziendali mirate a massimizzare il tempo di permanenza degli utenti sulla piattaforma, creando dipendenze dannose nei giovani.
I genitori dei ragazzi coinvolti hanno espresso la loro frustrazione riguardo alla gestione della piattaforma. La madre di Jules, Ellen Room, ha cercato di ottenere accesso ai dati della piattaforma per comprendere meglio le circostanze della morte del figlio. Ha anche lanciato una campagna per l’introduzione di una legge, nota come “legge Jules”, che permetterebbe ai genitori di accedere agli account social dei propri figli in caso di decesso. La proposta di legge è stata discussa in parlamento il 13 gennaio 2025. Ellen ha dichiarato che i genitori devono essere informati sui pericoli dei social media, sottolineando che non si aspettava che TikTok contenesse materiali dannosi, ma credeva fosse una piattaforma per sfide innocue.
In Francia, un caso simile ha visto sette famiglie intentare una causa contro TikTok, accusando la piattaforma di esporre i loro figli a contenuti pericolosi, che hanno portato due di loro al suicidio all’età di 15 anni. Secondo quanto riportato da Giovanni D’Agata, presidente dello “Sportello dei Diritti”, l’algoritmo di TikTok avrebbe mostrato video che promuovono l’autolesionismo e il suicidio. Questo caso, che sarà trattato da un tribunale di Créteil, rappresenta il primo di questo tipo in Francia.
TikTok, di proprietà della cinese ByteDance, si trova sotto scrutinio da parte delle autorità europee per la diffusione di contenuti inappropriati. Negli Stati Uniti, la piattaforma affronta numerose cause legali per accuse di dipendenza e danni alla salute mentale dei giovani, simile a quanto accade con altre piattaforme social come Facebook e Instagram. Quest’anno, la CEO di TikTok, Suu Kyi Chu, ha dichiarato davanti al Congresso degli Stati Uniti di prendere seriamente in considerazione le problematiche legate alla salute mentale degli utenti più giovani, annunciando investimenti per migliorare la sicurezza della piattaforma.
La causa in Francia si aggiunge ad un’altra azione legale avviata dai genitori contro Character.AI, un’azienda che permette di creare personaggi virtuali basati sull’intelligenza artificiale. I genitori sostengono che il loro figlio sia diventato dipendente dalla sua partner virtuale, portandolo al suicidio. La crescente attenzione verso le implicazioni legali e sociali delle piattaforme di social media continua a sollevare interrogativi sulla responsabilità delle aziende riguardo ai contenuti che promuovono e sugli effetti che questi possono avere sui giovani utenti.