Il 6 maggio 2026 il Garante per la protezione dei dati personali ha pubblicato un documento che torna ad accendere i riflettori sui deepfake e, soprattutto, chiede al legislatore uno strumento nuovo: la facoltà di inibire più rapidamente dall'Italia l'accesso alle piattaforme e ai servizi che generano contenuti manipolati ritenuti lesivi dei diritti delle persone. Tra i servizi citati esplicitamente nelle comunicazioni dell'Autorità degli ultimi mesi figurano strumenti generalisti come ChatGPT e Grok e applicazioni specializzate nella creazione di immagini sessualmente esplicite senza consenso, come Clothoff.
Cosa chiede esattamente l'Autorità
Il punto centrale del documento è la richiesta di ampliare i poteri di intervento del Garante per poter ordinare in tempi rapidi il blocco della connessione dall'Italia verso piattaforme e servizi considerati dannosi. La logica, spiega l'Autorità, è spezzare quella che definisce la «catena virale» delle condivisioni: nel caso dei deepfake, soprattutto a sfondo sessuale o diffamatorio, il danno si moltiplica nelle prime ore e una procedura lenta arriva quando il contenuto è già ovunque.
L'Autorità ricorda che l'uso di servizi capaci di manipolare immagini e voci reali — fino a generare contenuti sessualmente espliciti senza consenso — può configurare non solo violazioni della normativa europea sulla protezione dei dati, ma anche veri e propri illeciti penali. E richiama i propri interventi recenti: a gennaio 2026 un provvedimento di avvertimento rivolto agli utenti di servizi basati sull'IA come Grok, ChatGPT e Clothoff, e già nell'ottobre 2025 una misura di blocco proprio nei confronti di Clothoff.

Il contesto: i casi recenti e l'AI Act
La presa di posizione arriva dopo una serie di episodi che hanno tenuto banco in Italia, dalla diffusione di immagini false di personalità pubbliche — tra cui la presidente del Consiglio — fino a casi che hanno coinvolto persone comuni, in particolare donne, prese di mira con immagini intime sintetiche. Sul piano europeo, il Regolamento sull'intelligenza artificiale (AI Act) prevede obblighi di trasparenza per i contenuti generati o manipolati artificialmente, come l'etichettatura e i marcatori tecnici; tuttavia parte di queste regole — e in generale l'impianto sui sistemi ad alto rischio — è stata oggetto di rinvii nel pacchetto di semplificazione digitale dell'Unione, con scadenze spostate avanti nel tempo. Il Garante, in sostanza, dice che gli obblighi a carico di chi produce i contenuti non bastano se manca la possibilità di agire in fretta sulla loro diffusione.
Cosa cambierebbe per utenti e piattaforme
Se il legislatore accogliesse la richiesta, il Garante potrebbe disporre il blocco dell'accesso a un servizio dall'Italia con una procedura accelerata, in modo simile a quanto già avviene per altri illeciti gravi online. Per gli utenti significherebbe, in casi limite, non poter più raggiungere un determinato sito o app dal territorio nazionale; per le piattaforme, un incentivo forte a dotarsi di filtri più efficaci a monte e di canali di rimozione rapidi. Restano sul tavolo le obiezioni classiche: il rischio di blocchi troppo ampi, la facilità di aggirarli con strumenti tecnici, il bilanciamento con la libertà di informazione. Ma la direzione indicata è netta: l'Autorità chiede di passare dalla moral suasion a poteri concreti e immediati.
I prossimi passaggi
Ora la palla è al Governo e al Parlamento, anche nel quadro dell'adeguamento italiano all'AI Act e delle norme nazionali in discussione sull'intelligenza artificiale. Nel frattempo il Garante continuerà a usare gli strumenti di cui dispone — istruttorie, avvertimenti, provvedimenti di blocco mirati — e a chiedere ai gestori delle piattaforme misure proattive. Per chi subisce un deepfake resta il consiglio pratico: documentare il contenuto, segnalarlo subito alla piattaforma e rivolgersi alle autorità, perché in questi casi la velocità della rimozione fa la differenza tra un danno contenuto e uno irreparabile.




