PHOTO
Il 14 ottobre 2025 andrà in discussione al Consiglio europeo una proposta di Regolamento del Consiglio stesso e del Parlamento europeo, nota come Chat Control, che mira a stabilire un quadro giuridico chiaro e armonizzato per la prevenzione e la lotta agli abusi sessuali sui minori online.
Il tema è molto delicato, è in discussone tra le forze politiche ed i governi dell’Unione da ormai quasi quattro anni. Difficile non essere sensibili, col desiderio di evitare o limitare fortemente gli abusi su minori online. Già nell’attuale regolazione si mira a responsabilizzare le piattaforme online, per impedire il diffondersi di materiale pedopornografico.
Nella discussione in corso però si fa un salto di qualità, sul quale anche i diversi Paesi non hanno una posizione univoca, cioè il controllo anche dei contenuti delle chat private.
“In linea di principio – scrive Il Post - lo Csar (Regulation to Prevent and Combat Child Sexual Abuse) prevede che praticamente qualsiasi conversazione privata in digitale sia sottoposta a un controllo, per verificare se gli utenti siano coinvolti in attività legate alla pedofilia, come lo scambio di immagini o tentativi di attirare e molestare minorenni. Il regolamento propone quindi che ogni messaggio, audio, foto o video inviato su piattaforme come WhatsApp, Telegram o Gmail sia controllato direttamente dallo smartphone o dal dispositivo che si sta usando in quel momento, quindi prima che il contenuto sia inviato al destinatario. I servizi e le applicazioni per scambiarsi messaggi dovrebbero integrare al loro interno un sistema che controlla i contenuti mentre vengono scritti, caricati e preparati per essere inviati a qualcuno. Il controllo dovrebbe avvenire tramite algoritmi per identificare frasi sospette nei messaggi e tramite sistemi di firma digitale (“hash”) per controllare le immagini, confrontandole con archivi curati dalle forze dell’ordine e contenenti i materiali già noti per essere legati alla pedofilia”.
La critica delle organizzazioni digitali: “una backdoor per la sorveglianza”
La critica su questi sistemi di IA, che agirebbero prima che i messaggi vengano criptati, lamenta l’introduzione di un nuovo livello di gestione di quei contenuti che potrebbe costituire una porta secondaria (backdoor) accessibile da terzi, allo scopo di leggere i contenuti non ancora cifrati.
Tra i critici l’Electronic Frontier Foundation, una delle principali organizzazioni che si occupano di tutela dei diritti online, osserva che il sistema proposto potrebbe costituire un pericoloso precedente per la libertà di espressione.
Precedente pericoloso: sacrificare diritti in nome della sicurezza
Lo abbiamo già scritto in precedenza su altre questioni, criticando fortemente la relazione di Draghi all’Unione europea, in cui l’ex premier italiano ha lanciato un’idea di deregolazione della normativa a tutela dei cittadini e dei lavoratori dell’Unione per rendere “competitiva l’Europa”. Proprio andando a indebolire il sistema di regole a tutela del trattamento dei dati personali degli europei.
Possiamo dire con lucidità che le scorciatoie sono sempre pericolose. Immaginare di ridurre diritti indisponibili per un “fine più alto” rischia di legittimare autoritarismi, sia di natura economica che sociale. Quanto ci vorrà per dire: estendiamo il controllo anche al “terrorismo” proponendo di fatto una torsione autoritaria dei nostri sistemi?
Chiaro che esistono temi di grande delicatezza, perché toccano i più fragili. Reati odiosi, ma aprire ad un controllo massivo della popolazione, fino “all’intimità” delle loro conversazioni personali, mette in discussione la libertà personale e, di fatto, non si noterebbe più la differenza tra l’Unione europea e quei “Paesi autoritari” che tanto si criticano.
Questa proposta, oltretutto, viene discussa in una fase storica di grande incertezza, già con venti di guerra che soffiano da oriente e da est, con una propaganda massiccia che vorrebbe spingere il nostro sistema produttivo e sociale verso un modello produttivo e sociale di guerra. Il quadro geopolitico non ci consente lo spazio per commettere errori.
Il rischio di falsi positivi e violazioni della privacy
Bisogna anche dire che più soggetti autorevoli ritengono che il sistema di segnalazione potrebbe produrre numerosi falsi positivi, con l’esposizione di conversazioni private nelle quali non c’è in realtà nulla di illegale. Potrebbero esserci anche problemi nel caso di comunicazioni tra adolescenti consenzienti, con contenuti che potrebbero essere scambiati per pedopornografici anche se non lo sono.
Inoltre, tali sistemi mancherebbero totalmente di trasparenza, sia sulle procedure adottate che sulle modalità di detenzione dei dati, temi che riguardando 27 Stati aprirebbero falle sulla tutela dei dati personali al punto di cancellare il senso stesso dell’attuale regolazione europea in materia di privacy.
Infine, la questione più spinosa, quella che ci fa considerare pericolosa la chat control: una volta sviluppato, il “modello” di controllo potrebbe successivamente essere sfruttato dai governi per fare un controllo preventivo delle comunicazioni tra cittadini, attivisti politici, oppositori e giornalisti. Scelta che demolirebbe definitivamente il senso di quanto stabilito alla costituzione dell’Unione europea e di quanto sancito nella nostra Carta Costituzionale.
Alessio De Luca, Area politiche per lo sviluppo della Cgil