Meta, la società madre di Instagram, sta implementando una nuova misura di sicurezza sulla popolare piattaforma di condivisione di foto e video. Questa funzionalità è progettata per proteggere i minori dalla visualizzazione di contenuti espliciti indesiderati nei messaggi diretti (DM) di Instagram.
Il cuore della nuova funzione è un sistema di rilevamento automatico delle immagini di nudo inviate tramite messaggi diretti. Se il destinatario viene identificato come un minorenne in base alla sua data di nascita, qualsiasi foto di nudo ricevuta verrà automaticamente offuscata, rendendo il contenuto visivamente indistinto.
Oltre all’offuscamento delle immagini, gli utenti minorenni che ricevono foto di nudo vedranno un pop-up che spiega come bloccare il mittente o segnalare la chat. Inoltre, verrà visualizzato un messaggio che incoraggia il destinatario a non sentirsi obbligato a rispondere.
Una delle principali motivazioni dietro questa mossa è contrastare il crescente problema delle truffe di “sextortion” su Instagram. Queste truffe coinvolgono l’invio di foto di nudo da parte di account falsi, allo scopo di ricattare le vittime minorenni per ottenere ulteriori immagini esplicite o denaro.
La funzione sarà attiva di default per gli account degli adolescenti, ma potranno scegliere di disabilitarla. Per gli account degli adulti, invece, sarà disattivata di default, ma potranno abilitarla se lo desiderano.
Meta ha annunciato che il sistema sarà testato nelle prossime settimane e verrà implementato a livello globale “nei prossimi mesi”. Questo lancio graduale consentirà di valutare l’efficacia della misura e apportare eventuali miglioramenti prima di un’adozione completa.