
Il caso di Grok con i deepfake illegali nel 2026 ha spinto l’Unione Europea e il Regno Unito a imporre limiti stringenti alla funzione di generazione immagini del chatbot di X, la piattaforma di Elon Musk. Dopo l’emersione di contenuti sessuali espliciti, anche con soggetti minorenni, e materiale di propaganda nazista e terroristica, Grok ha disattivato la funzione per gli utenti non paganti.
Le immagini restano generabili solo tramite app, ma non sono più condivisibili sul social. Il governo britannico ha minacciato sanzioni fino al 10% del fatturato globale, mentre Bruxelles ha denunciato contenuti illegali mascherati da opzioni “spicy”. Un report di AI Forensics ha rivelato che il 53% delle immagini conteneva nudità o abiti succinti, l’81% raffigurava donne, il 2% minori. I dati confermano un uso sistemico del chatbot per fini illeciti, spesso sfuggendo a controlli. L’analisi, condotta su oltre 20mila immagini, ha acceso l’allarme in Francia e Germania. Nel Regno Unito, le autorità hanno rilevato l’uso di Grok per creare pornografia infantile su forum del dark web, spingendo la Camera dei Comuni ad abbandonare X.
Le tecnologie AI, se non controllate, alimentano dinamiche dannose, dove la legalità cede il passo alla viralità. Il fenomeno non è nuovo. Deepfake sessuali colpiscono da anni donne e ragazze famose, ma ora coinvolgono anche adolescenti comuni. La pornografia resta il primo ambito di diffusione dei contenuti AI. Il vero rischio è l’assenza di regolazione: l’uso non consensuale di queste tecnologie amplifica violenza, abusi e discriminazioni. La pressione europea su Musk e X potrebbe essere solo l’inizio. L’intervento normativo è urgente per tutelare utenti e spazio digitale. Il caso Grok deepfake illegali 2026 impone un cambio di rotta.
