Il Garante della Privacy lancia l'allarme sui deepfake generati con l’IA. Il documento pubblicato il 6 maggio 2026 evidenzia rischi per la dignità, la privacy e la sicurezza delle persone. Manipolare immagini e voci senza consenso può costituire violazione dei diritti fondamentali e, in alcuni casi, un reato. Per contenere i danni, l’autorità propone nuove facoltà: bloccare l’accesso dall’Italia a piattaforme che offrono strumenti per creare falsi dannosi. L’obiettivo è proteggere studenti, docenti e cittadini, accelerando l’intervento in caso di violazioni della protezione dei dati.
Come bloccare dall’Italia siti di deepfake: la proposta del Garante e i rischi pratici
| Aspetto | Dettaglio operativo |
|---|---|
| Fatto chiave | Il Garante pubblica un documento ufficiale il 6 maggio 2026 sull’allarme deepfake e IA. |
| Fatto chiave | Viene evidenziata la possibilità che la manipolazione di immagini e voci costituisca violazione dei diritti fondamentali e potenziale reato. |
| Fatto chiave | Il Garante propone nuove facoltà per bloccare l’accesso dall’Italia a siti che offrono strumenti per creare falsi dannosi. |
| Fatto chiave | Vengono citate piattaforme come Grok, ChatGPT e Clothoff tra gli esempi monitorate; Clothoff aveva già un provvedimento nell’ottobre 2025. |
| Fatto chiave | L’obiettivo è interrompere rapidamente la diffusione di contenuti dannosi e limitare i danni alle vittime in caso di violazione della protezione dei dati. |
| Fatto chiave | La proposta solleva questioni di bilanciamento tra sicurezza, libertà di espressione e rischio di blocco eccessivo. |
La proposta del Garante prevede di estendere le prerogative per interdizioni mirate all'accesso dall'Italia a siti che offrono strumenti per generare deepfake dannosi. In pratica, gli interventi potrebbero essere disposti rapidamente, impattando sulla diffusione di contenuti potenzialmente lesivi prima che questi raggiungano massa critica tra utenti e studenti.
Questa opzione mira a contenere i danni alle vittime, accelerando la risposta in caso di violazioni della protezione dei dati. L'approccio, però, pone questioni di bilanciamento tra sicurezza e libertà d'espressione, nonché di accuratezza nel filtraggio per evitare errori o blocchi collaterali su contenuti legittimi.
In contesto scolastico, l'efficacia di tale blocco verrebbe misurata in tempi rapidi di intervento su contenuti creati e condivisi in ambienti educativi, social e di messaggistica. L'adozione di questa facoltà richiede procedure chiare: criteri, tempistiche e giustificazioni per i blocchi, oltre a meccanismi di reclamo per gli operatori interessati.
Il documento cita esempi di piattaforme IA già monitorate, tra cui Grok, ChatGPT e Clothoff, con Clothoff oggetto di provvedimento nell’ottobre 2025. Tali riferimenti mostrano una traiettoria di intervento che potrebbe accelerare l’adozione di misure simili in futuro.
Confini operativi e limiti della proposta
La proposta resta spesso indefinita su quali siti rientrino nell’interdizione, quali strumenti siano considerati utili per la creazione di falsi, quali soglie di pericolo giustifichino l’interruzione, e quali diritti di ricorso siano previsti per i soggetti interessati.
Inoltre, occorrono meccanismi trasparenti per evitare l’elusione tramite VPN o proxy, e per limitare l’impatto su contenuti leciti o ricerche accademiche.
Azioni pratiche per le scuole e le famiglie
Per le scuole, è fondamentale aggiornare le procedure di sicurezza digitale e definire responsabilità chiare. In prima linea devono essere docenti e personale ATA, con formazione base su deepfake e riconoscimento di contenuti fuorvianti. Occorre un protocollo di segnalazione rapida e un piano di comunicazione per studenti e genitori.
Esegue una mini guida operativa:
- Verifica contenuti sospetti nelle risorse didattiche online o condivise con la classe.
- Assegna responsabilità chiare per docenti, tutor e personale di segreteria per la gestione dei casi.
- Attiva protocolli di blocco solo quando serve, in conformità con le norme privacy.
- Comunicazione mirata a studenti e genitori su deepfake e sicurezza online.
FAQs
Deepfake e IA: il Garante propone nuove facoltà per bloccare piattaforme in Italia
Resta l’allarme sui rischi per dignità, privacy e sicurezza. Il Garante propone nuove facoltà, incluso il blocco dall’Italia di piattaforme che offrono strumenti per creare falsi dannosi. Il documento ufficiale è stato pubblicato il 06/05/2026.
Consistono in interdizioni mirate dall’Italia a siti che generano deepfake dannosi; gli interventi potrebbero essere disposti rapidamente per contenere contenuti lesivi; sono previsti meccanismi di ricorso e criteri chiari per i blocchi.
Le scuole dovrebbero aggiornare le procedure di sicurezza digitale e definire responsabilità chiare. È necessaria formazione su deepfake e un protocollo di segnalazione rapida, con comunicazione mirata a studenti e genitori.
Piattaforme citate includono Grok, ChatGPT e Clothoff; Clothoff aveva già un provvedimento nell’ottobre 2025. L’approccio suggerito potrebbe accelerare l’adozione di misure simili in futuro.