È di pochi giorni fa la decisione del Consiglio dei ministri di predisporre una delega al governo per la regolazione dell’intelligenza artificiale. Sappiamo che l’Unione Europea ha già definito un Regolamento, strumento normativo che sarà direttamente applicato nei 27 Paesi. E che le tempistiche per la sua piena applicazione varieranno dai 6 mesi ai 2 anni a seconda della fattispecie definite, perché l’attuazione in un contesto nazionale necessita di un’integrazione normativa. Non sorprende, dunque, che si proceda in un’elaborazione sul tema. Quello che troviamo non opportuno è che, ancora una volta, a un dibattito parlamentare necessario su una materia così complessa, si preferisca procedere attraverso una legge delega. La Cgil ha effettuato più audizioni alla Camera, così come hanno fatto altre associazioni, parti sociali, esperti, docenti. Ora, tutto questo lavoro di analisi – durato mesi – verrà bypassato in assenza di dibattito parlamentare. Il testo scritto dal Consiglio dei ministri perimetra alcuni temi, cogliendo una parte delle questioni che necessitano di una regolazione, ma la sua genericità conferisce all’esecutivo un eccessivo mandato su questioni che determineranno una profonda trasformazione della società e del mondo del lavoro. Il testo di delega individua nuove fattispecie di reati, questione che risponde più una natura securitaria dell’esecutivo che a un giusto bisogno di tutela collettiva e individuale delle persone e dei lavoratori.

IL RUOLO DEI PRIVATI

Ci sono poi alcuni temi che, anche se indicati genericamente nella delega, preoccupano per l’impostazione. A partire dall’idea che i dati sensibili dei cittadini in ambito di ricerca e sperimentazione scientifica e in ambito sanitario, considerati giustamente di rilevante interesse pubblico, possano essere trattati non solo dal “pubblico”, ma anche da soggetti privati. Come sappiamo l’uso dei dati per lo sviluppo o la gestione di strumenti di I.A. a soggetti privati, senza un controllo attento dei processi, rischia di esporre la popolazione a profilazioni che possono determinare una limitazione nell’accesso ai servizi essenziali e favorire processi di privatizzazione, oltre ad esporla a una costante e invasiva proposta commerciale.

E LA SANITÀ PUBBLICA?

L’istituzione di una Piattaforma di intelligenza artificiale per l’assistenza sanitaria è un aspetto interessante per la capacità di raccordare dati e semplificare processi. La preoccupazione però, ancora una volta, è l’assenza di una chiara e inclusiva definizione dei parametri di istruzione dello strumento, oltre al solito tema di come i dati verranno trattati e dove verranno conservati. Dovrebbe essere interesse collettivo che la “definizione di tali strumenti” fossero oggetto di un confronto largo tra le parti, a partire da un accesso trasparente ai dati e di relazioni tra istituzioni, comunità scientifica, associazioni di rappresentanza e autorità competenti. Sarebbe necessario definire con chiarezza la governance pubblica dei dati dei cittadini, non solo quindi la specifica identificazione di un diritto individuale della persona, ma una chiara strategia dello Stato nella definizione e gestione delle infrastrutture, piattaforme di I.A. e cloud pubblico, senza la quale non sarà possibile tutelare fattivamente i cittadini dall’abuso da parte del “mercato”.

IL SOLITO APPROCCIO LIBERISTA

Nel testo di delega da un lato si definisce un sistema securitario, dall’altro invece si ha un approccio liberista e sregolato nella tutela della collettività davanti a specifici interessi economici. Lo abbiamo già detto anche in audizioni pubbliche in X e XI commissione della Camera dei Deputati nelle scorse settimane: se vogliamo costruire un modello che utilizzi in maniera sana la trasformazione generata dall’intelligenza artificiale e più in generale dal processo di digitalizzazione, è indispensabile definire spazi di confronto tra le parti e rafforzare le authority, a partire dal Garante per il trattamento dei dati, Agcom, Agcm, Consob, dando loro risorse, autonomia finanziaria, personale e strumenti tecnologi e infrastrutturali adeguati a controllare e contrastare abusi e illeciti.

AGENZIE CHE RISPONDONO AL GOVERNO

In quest’ottica troviamo l’attribuzione all’AgID e all’ANC della responsabilità di Autorità nazionale per l’Intelligenza Artificiale, inserito nel testo, una operazione non coerente con le necessità sino ad ora da noi espresse e neanche in linea con le indicazioni dell’UE. Le due Agenzie non sono “autorità amministrative terze”, sono emanazione della Presidenza del Consiglio e interamente dipendenti dal governo. Non hanno le caratteristiche funzionali e tecniche per rispondere ai compiti identificati nella delega. È invece necessario, come è stato per l’attuazione del Gdpr, identificare una autorità che abbia specifiche capacità tecniche e giuridiche e autonomia funzionale. Tra le altre cose, alle stesse agenzia, viene attribuito il compito di “sostenere” i settori di pertinenza dal punto di vista dello sviluppo industriale dell’IA. Vogliamo a tal proposito ricordare la cancellazione dell’Istituto per la Cybersicurezza nella scrittura del Pnrr, condizione che oggi ci vede in ritardo di due anni rispetto al resto d’Europa nella definizione di un Istituto che avrebbe dovuto indirizzare e sostenere la ricerca, sostenere economicamente progetti pubblici e privati. Tornare sulla questione attribuendo ad ANC e all’AgID tale prerogativa è un atto che può solo peggiorare il danno già realizzato.

LA PROPOSTA: UN’AUTORITÀ PER L’INTELLIGENZA ARTIFICIALE

Sarebbe molto più lineare definire una Autorità per l’intelligenza artificiale, come definito nel regolamento europeo, ripercorrendo quanto si fece con il Garante per il trattamento dei dati, forse anche guardando ad una collaborazione tra diverse autorità già esistenti, visti perimetri di competenza già coincidenti con le attività di Garante, Agcom eccetera. Vogliamo ricordare che proprio l’ultima Direttiva Europea sui lavoratori delle piattaforme digitali indica la necessità e chiede agli Stati dell’Unione di rafforzare le autorità indipendenti, per una puntuale regolazione del mondo del lavoro, per ovviare ad azioni irregolari delle imprese che utilizzano sistemi algoritmici e di intelligenza artificiale, dinamica che la stessa UE prevede in crescita. Invece, da una parte la delega male attribuisce le competenze sulla regolazione dell’I.A., dall’altra il governo non rafforza le autorità indipendenti, in difficoltà dal punto di vista economico e organizzativo, con un organico molto qualificato, ma assolutamente insufficiente a rispondere alla diffusione del fenomeno, oltre a una struttura funzionalmente sottostimata e una progressiva riduzione dell’autonomia decisionale delle strutture che istruiscono casi e procedono alle ispezioni.

IL LAVORO DIMENTICATO

Questo però non ci stupisce, sono anni che si lascia l’Ispettorato Nazionale del Lavoro agonizzare con scarse risorse e ormai una conclamata incapacità di intervenire efficacemente sulle realtà territoriali. Invece proprio alla collaborazione tra ispettorato del lavoro e autorità indipendenti questo governo dovrebbe puntare se volesse il rispetto dei diritti individuali e la tutela del lavoro. Infine, il brevissimo capitolo sul lavoro lascia margini indefiniti alle scelte del governo, ovviamente totalmente assente il ruolo delle parti sociali e della contrattazione.

Alessio De Luca è responsabile dell’Ufficio progetto lavoro 4.0 della Cgil nazionale