È giunto all’approvazione finale da parte del Parlamento europeo il nuovo regolamento europeo sull’intelligenza artificiale, l’AI Act, la cui entrata in vigore è attesa per fine maggio 2025, dopo l’approvazione formale anche da parte del Consiglio europeo, che dovrebbe avvenire entro il prossimo mese.

Abbiamo già avuto modo di dire come questa normativa rappresenti un unicum a livello internazionale di regolazione dell’Intelligenza Artificiale, il primo vero approccio alla definizione di un quadro di regole armonizzate sull’uso dell’IA in Europa. Il contesto giuridico in cui si inserisce non è caratterizzato da un vuoto normativo, data l’esistenza di norme europee e nazionali (come il regolamento sulla protezione dei dati personali – Gdpr o l’articolo 4 della L300/70 per l’Italia) che ricadono su diversi aspetti dell’intelligenza artificiale. L’AI Act costituisce dunque uno strumento volto piuttosto ad evitare un’eccessiva frammentazione e creare condizioni di fiducia e sicurezza intorno allo sviluppo e all’utilizzo dell’IA stessa.

Da qualunque parte la si guardi, dagli entusiasti ai critici ai prudenti, tutti concordano sulla profonda e radicale innovazione e sullo stravolgimento del modo di vivere e lavorare che questa tecnologia sta producendo e produrrà in tempi brevissimi: dalla raccolta, all’organizzazione e alla memorizzazione di una notevole quantità di dati (megadati o big data) oltre che all’aumento senza precedenti della potenza di calcolo degli elaboratori elettronici, le applicazioni sono potenzialmente infinite e coinvolgono tutti i settori, a partire da quello bancario, assicurativo, fino a quello dei trasporti, dell’assistenza sanitaria, dell’amministrazione pubblica, dell’energia come quelli dei servizi alle persone e alle imprese. Lo studio di Mckinsey di fine 2023 ci dice che nel 2030 l’AI potrebbe contribuire fino a 15,7 trilioni di dollari nell’economia mondiale (più dell’odierna produzione di Cina e India messe insieme). Quello che rischiamo è uno stravolgimento sociale di portata inimmaginabile.

In questo contesto abbiamo già evidenziato come Cgil gli spazi di miglioramento e allargamento della normativa, soprattutto con riferimento al rapporto con il mondo del lavoro, che resta ai margini di questa prima regolamentazione. Assume importanza fondamentale la riflessione anche sulla soft law, quale strumento di supporto alla regolazione dell’IA e agli impatti economici, sociali ed etici della stessa. A titolo esemplificativo rilevano: la prima organica presa di posizione politica del Parlamento europeo con la Risoluzione del 2017 recante raccomandazioni in materia di diritto civile sulla robotica; il ruolo degli orientamenti etici pubblicati dal gruppo indipendenti di esperti ad alto livello sull’intelligenza artificiale della Commissione europea nel 2018; i principi sull’intelligenza artificiale emanati dall’organizzazione per la cooperazione e lo sviluppo economico (Ocse) nel marzo 2019 e, da ultimo, il codice di condotta di cui si sta discutendo in sede di G7 accanto alla discussione che sta crescendo intorno ai principi etici per un’IA responsabile, tracciabile, governabile, affidabile ed equa. Elemento in comune di questa produzione documentale è la generale preoccupazione sulla tutela dei diritti, delle libertà individuali e della dignità umana nell’alveo dello sviluppo di sistemi di intelligenza artificiale e algoritmica.

L’orologio dell’apocalisse creato dal Bollettino degli scienziati atomici nel 1947, il Doomsday Clock, ci ricorda che l’umanità è, oggi, a 90 secondi dalla mezzanotte nucleare e da gennaio del 2024 anche l’IA è stata inserita tra le cause dello spostamento delle lancette. È già in corso una modificazione profonda degli assetti e delle relazioni tra soggetti, fisici e giuridici, tra le generazioni stesse, incidendo fortemente sul mercato del lavoro e sulla distribuzione del reddito. Enti e istituzioni internazionali, come il Fmi e l’Ocse, mettono al centro delle proprie analisi l’urgenza di prevedere percorsi e strumenti di governo e mitigazione degli effetti per garantire un approccio sostenibile alla rivoluzione digitale e lo fanno chiedendo che i Paesi attuino azioni per sostenere i lavoratori e le lavoratrici a basso salario tramite politiche quali salario minimo e la contrattazione collettiva proprio per limitare le perdite di potere d’acquisto; garantire il rispetto dei diritti fondamentali e il benessere dei lavoratori, affinché l’Intelligenza Artificiale sostenga “mercati lavorativi inclusivi, anziché ostacolarli”; lavorare perché sia garantita migliore e maggiore formazione. Si parla esplicitamente della necessità di istituire reti di sicurezza sociale complete che offrano programmi di riqualificazione per i lavoratori vulnerabili, frenando la disuguaglianza.

Dello stesso parere il World Economic Forum, che nel proprio “Future of Jobs Report 2023” stima che il 44% delle competenze di tutti i lavoratori, a prescindere dal lavoro e dalle forme di lavoro, saranno stravolte nei prossimi cinque anni a causa di automazione e intelligenza artificiale. A questo si aggiunge che tutti gli altri lavori, sebbene considerati stabili, subiranno anch’essi l’impatto delle nuove tecnologie. Come evidenzia il Cese, la diffusione delle tecnologie di IA è trasversale e influenza tutte le professioni: sarà, dunque, necessario un costante aggiornamento, imparare ad utilizzare nuovi strumenti, restare al passo con variazioni sempre più rapide e frequenti nella metodologia di esecuzione delle proprie attività. Insomma, un costante e perenne reskilling.

C’è anche un altro aspetto meno dibattuto e relativo a quei lavori che resteranno utili e necessari ma che, con l’intervento dell’automazione e dell’intelligenza artificiale, saranno svolti in tempi ridotti rispetto ad oggi. Un recente report del McKinsey Global Institute sull’economia statunitense afferma che entro il 2030 “fino al 30% delle ore attualmente lavorate potrebbero essere automatizzate”. Questo può voler dire riduzione dell’orario di lavoro, che a parità di salario significherebbe migliore equilibrio vita-lavoro per i lavoratori e le lavoratrici, essere occupati su attività a valore aggiunto tralasciando quelle ripetitive e alienanti, con un conseguente e probabile miglioramento della qualità di prodotti e servizi. Restano il rischio e il timore che di fronte a questa ottimizzazione dell’orario di lavoro, nella scelta tra un miglioramento della qualità della vita o taglio dei costi e delle risorse, le aziende sceglieranno la seconda opzione e questo richiede tutta la nostra attenzione e intervento, regolamentativo e contrattuale.

Proprio a partire da questo, vogliamo in questo spazio provare a delineare tendenze, prospettive e necessità di implementazione di regolamentazioni distinte e contrattazione specifica che vadano a colmare il vulnus e fornire elementi di salvaguardia del lavoro e dei diritti dei lavoratori e delle lavoratrici, anche al fine di approntare azioni e strumenti di riqualificazione e formazione adeguati. Il tema centrale per noi, in primo luogo, come organizzazione sindacale, è il governo di un sistema che vede meccanismi così performanti da poter modificare gli assetti sociali, economici e politici del mondo; un sistema, oltretutto, in mano a poche aziende. Guido Scorza, giurista e componente del Garante per la protezione dei dati personali, ricorda come l’AI Act vada considerato come un “metodo di lavoro” al cui interno dobbiamo inserire le ulteriori tutele e strumenti necessari, dalla salute alla sanità, dalla giustizia alla salvaguardia dei lavoratori e delle lavoratrici.

Dobbiamo attrezzarci concretamente per gestire la tecnologia in un contesto che per decenni fino ad oggi ha visto piuttosto le organizzazioni disinvestire in termini economici e di professionalità in nome di un’austerità combattuta con la cultura dei tagli lineari. Nella Pa italiana negli ultimi 10 anni si sono perse 168mila persone, e ad oggi il numero totale degli impiegati pubblici è nettamente inferiore a quello dei principali Paesi europei in proporzione alla popolazione e agli occupati[1]. Non va meglio nel settore privato, in un sistema produttivo italiano caratterizzato, come ci dice l’Inapp, dal 98% di micro e piccole imprese che investono circa l’1,5% in IA e poco più del 2% in cybersecurity.

Ci troviamo in una situazione in cui, contemporaneamente, si devono governare i processi con l’Intelligenza artificiale, sperimentando applicazioni e strumenti nei diversi settori (approccio verticale), e governare la IA, definendo regole e linee guida (approccio orizzontale), in un percorso che integra a non sceglie alternativamente i due approcci. Per fare questo è necessario investire su tre dimensioni centrali perché il sistema economico e di sviluppo sia in equilibrio e le dinamiche sociali e del lavoro restino salde: persone, modelli organizzativi, governance.

Le persone non possono essere escluse dai processi tecnologici che si stanno determinando: ciò significa, lato lavoristico, che risulta indispensabile investire oggi nell’anticipazione dei bisogni di trasformazione delle mansioni e affermazione di nuove professionalità, calando la riqualificazione e la formazione dentro i singoli processi. Non si tratta di trasformare ogni lavoratore/lavoratrice in specialista della tecnologia e in particolare dell’IA, ma si tratta di dotare le persone di strumenti, competenze e conoscenze per gestire i cambiamenti sul lavoro, le mansioni e le professioni stesse. Come recita Eggers, bisogna trasformare i lavoratori “da rematori a timonieri”, prima che la rivoluzione già in atto decreti definitivamente l’obsolescenza delle competenze e delle professioni. Le macchine, la robotica, l’IA integrano e sostituiscono l’uomo non solo in attività ripetitive, ma anche in processi di analisi e talvolta decisionali: è qui che le organizzazioni e anche il sistema scolastico dovrebbero permettere l’emersione di competenze relazionali e comunicative, valore aggiunto dell’intervento umano, ma ad oggi la replicazione di modelli “conosciuti” sta producendo conseguenze anacronistiche.

Anche i modelli organizzativi si devono riadattare in un approccio di ascolto e sperimentazione all’interno e all’esterno, accompagnando e guidando la tecnologia e gli impatti che questa produce (il caso della riduzione dell’orario di lavoro, per citarne uno). Su tutto, è necessario che ci sia una governance efficiente ed efficace, in un approccio multistakeholder, fondato sul coinvolgimento dei diversi soggetti, parti sociali in primis, per costruire piani di investimento adeguati e guidare le ricadute occupazionali e sociali. Si tratta di ottenere un effetto Goldilocks, quella situazione per cui si raggiunge un equilibrio necessario al funzionamento corretto, equo ed etico del sistema. L’integrazione di regolamentazione, governance, contrattazione dovrebbe proprio tendere a questo nuovo equilibrio.

E la tenuta dei contesti lavorativi, caratterizzati da queste specificità tutte nuove, è e resta un perno centrale della contrattazione: ridefinire mansioni e professionalità, delineare nuovi percorsi di carriera, per allargare le maglie dell’occupazione e dare voce alle lavoratrici e ai lavoratori che, nell’era dell’intelligenza artificiale, degli algoritmi, dei robots e cobots, scontano ulteriori fragilità e criticità. Principi guida da seguire e declinare nelle negoziazioni nazionali e di secondo livello sono primi passi e strumenti essenziali per l’organizzazione sindacale: dal mantenimento del controllo umano, alla verificabilità di dati e processi, al riconoscimento del ruolo di “guida” e di “user” in capo al lavoratore, così come il coinvolgimento delle organizzazioni sindacali con informazioni preventive da parte dell’azienda e nel processo di adozione di algoritmi/robot/intelligenze artificiali e di ridefinizione dell’organizzazione del lavoro. Su queste sfide si muove e si struttura una parte importante della nostra azione sindacale presente e futura.

Federica Cochi è presidente dell’Apiqa