Foto: Reuters

La presidente della Commissione europea, Ursula von der Leyen, ha criticato duramente Grok, l'AI di Elon Musk, dopo la diffusione di contenuti sessualmente abusivi generati dalla piattaforma, definendo inammissibile l'uso dell'AI per lo "spogliare digitale" di donne e bambini e sottolineando i danni concreti dei deepfake. Von der Leyen ha inoltre affermato che l'UE non si affiderà alla cosiddetta protezione della Silicon Valley e interverrà se necessario per proteggere minori e cittadini. La Commissione ha ordinato a X di conservare tutti i dati su Grok, giudicando illegali le immagini e i video generati dall'AI, a seguito di deepfake pornografici e violenti su donne e bambini, che hanno spinto a indagini a Bruxelles, Parigi e Londra. In particolare, l'Ofcom, regolatore britannico delle comunicazioni, ha avviato un'inchiesta su X per possibili violazioni legate a pornografia infantile e abuso di immagini intime, verificando il rispetto degli obblighi di protezione online. A livello internazionale, Paesi come Indonesia e Malesia hanno imposto restrizioni temporanee, mentre altri valutano misure simili. Sotto pressione, Elon Musk ha reso la funzione di modifica di immagini e video tramite AI accessibile solo agli abbonati a pagamento. Lanciata prima di Capodanno, la funzione ha permesso la creazione di revenge porn, deepfake e contenuti pedopornografici, con migliaia di richieste pubbliche durante le vacanze di fine anno per spogliare donne, minorenni e personaggi famosi, evidenziando l'ampiezza del fenomeno. Diversi governi, tra cui quello britannico, hanno minacciato divieti, mentre in Germania un ministro ha definito la situazione "un'industrializzazione della molestia sessuale". Finora, Musk ha respinto le accuse, definendo la funzione come uno strumento ricreativo e attribuendo agli utenti la responsabilità legale delle eventuali conseguenze, suscitando nuove critiche sul piano etico e morale. La vicenda solleva dunque interrogativi importanti sul ruolo delle grandi piattaforme digitali e sulla necessità di regolamentazioni più stringenti per l'intelligenza artificiale.

Corrado Cimador