Dopo un lungo e articolato percorso, nel febbraio di quest’anno gli Stati membri hanno raggiunto un accordo politico sul testo del regolamento sull’intelligenza artificiale (IA), che permetterà di arrivare alla sua formale approvazione da parte del Parlamento europeo e del Consiglio entro la fine della legislatura.

A breve, quindi, l’Europa si doterà di regole armonizzate sull’“immissione sul mercato, la messa in servizio e l’uso” nell’Unione di sistemi di IA e quelle regole, trattandosi di un regolamento e non di una direttiva, saranno direttamente applicabili negli Stati membri (anche se alla loro integrale applicazione si giungerà per fasi successive).

Le potenzialità d’impatto dell’IA sulla nostra società, e sul lavoro in particolare, sono talmente vaste, complesse e in così rapido mutamento che, se da un lato rendono vano qualsiasi tentativo di farne una mappatura attendibile, dall’altro richiedono al legislatore una risposta regolativa che – rifiutando un approccio fondato sul determinismo tecnologico – si ponga a reale garanzia dei diritti fondamentali e della democrazia.

Su questo presupposto valoriale è costruito, quanto meno sulla carta, l’impegno dell’Unione che – come stabilisce l’art. 1 del regolamento sull’IA – intende “promuovere l’adozione di un’intelligenza artificiale incentrata sull’uomo e affidabile”, nella consapevolezza che la grande trasformazione in atto porterà con sé indubbie potenzialità, anche per il mondo del lavoro, ma ancor più indubbi rischi, anche per chi lavora.

Di questi rischi il regolamento fornisce un esempio molto chiaro quando sottolinea che i sistemi di IA utilizzati nel corso dei processi di selezione e valutazione “possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale”.

Va sottolineato che, per espressa previsione del regolamento, sono fatte salve – a livello nazionale e dell’Unione, per il presente e per il futuro – le disposizioni “più favorevoli ai lavoratori in termini di protezione dei loro diritti in relazione all’uso dei sistemi di IA da parte dei datori di lavoro”, insieme alla possibilità “di incoraggiare o consentire l’applicazione di contratti collettivi più favorevoli ai lavoratori”.

Il nuovo regolamento dovrà dunque dialogare con una pluralità di altre fonti, eurounitarie e nazionali, lavoriste (come la normativa a tutela della salute e sicurezza sul lavoro e il diritto antidiscriminatorio) e non lavoriste (come il Gdpr). Non è difficile immaginare che su questo puzzle di regole e limiti si apriranno questioni e interrogativi complessi.

Più nello specifico, il regolamento delinea una scala di rischi graduata sulla base della loro gravità, distinguendo tra rischio inaccettabile, alto e non alto, e regolando conseguentemente divieti e obblighi in capo ai fornitori e agli operatori dei sistemi di IA (datori di lavoro e committenti inclusi). Per quanto riguarda il settore del lavoro, i sistemi di IA impiegati per “l’occupazione, la gestione dei lavoratori e l’accesso al lavoro autonomo” vengono classificati come sistemi “ad alto rischio” (pur prevedendo diverse eccezioni che andranno attentamente monitorate); si tratta, come specifica l’allegato III, dei sistemi di IA utilizzati per selezionare lavoratori e lavoratrici, per prendere decisioni che li/le riguardano (dalla promozione alla cessazione del rapporto) e per controllarne le prestazioni.

In linea con il suo approccio cd. risk-based, il regolamento non proibisce l’uso di questi sistemi ad alto rischio bensì lo consente a certe condizioni (su cui vedi oltre), mentre vieta le pratiche di IA che presentano un rischio “inaccettabile”. Limitandoci a quanto maggiormente rileva in materia di lavoro, risultano vietati i sistemi che possono influenzare il comportamento umano (come le tecniche subliminali, manipolative o ingannevoli assistite dall’IA), quelli che consentono di attribuire un “punteggio sociale” alle persone (classificandole in base al comportamento o alle caratteristiche personali) o che utilizzano la categorizzazione biometrica degli individui, nonché gli strumenti di IA che deducono le emozioni di una persona sul posto di lavoro (eccetto che per motivi medici o di sicurezza).

Divieti che, come si è detto, sono complementari rispetto a quelli previsti dalla legislazione vigente: si pensi, ad es., al divieto di indagini sulle opinioni di cui all’art. 8 dello Statuto dei lavoratori, già fatto espressamente salvo dalla normativa a protezione dei dati personali, che a sua volta pone altri limiti.

Dei sistemi classificati ad alto rischio, come quelli che rientrano sotto il cappello del cd. management algoritmico, è invece permesso l’uso purché si rispetti una serie di vincoli, che vengono stabiliti lungo tutta la catena del valore, dal fornitore del sistema di IA – gravato della maggior parte degli obblighi di verifica, mappatura, valutazione dei rischi e trasparenza, su cui non ci si può in questa sede soffermare (né sulle relative criticità) – all’utilizzatore finale, che da parte sua deve rispettare un insieme (più limitato) di obblighi.

Per quanto qui interessa, in particolare, datori di lavoro o committenti devono utilizzare i sistemi di IA ad alto rischio in conformità alle istruzioni d’uso ricevute dal fornitore e sono tenuti a monitorarne il funzionamento – in applicazione della regola della sorveglianza umana – e a sospenderne l’impiego in caso di malfunzionamenti. È inoltre imposta una “valutazione d’impatto sui diritti fondamentali” di tali sistemi, ma solo in capo agli operatori di diritto pubblico e a quelli privati che forniscono servizi pubblici e non alla generalità degli operatori, come invece era stato proposto con un emendamento del Parlamento.

A questi obblighi “minimi”, come sottolinea lo stesso regolamento, se ne affiancano altri derivanti dalla normativa in materia di data protection oltre che settoriale, tra i quali vi è anzitutto il fondamentale dovere di effettuare una “valutazione d’impatto sulla protezione dei dati personali” imposto dal Gdpr a tutti i titolari di trattamenti di dati in presenza di un rischio elevato per i diritti e le libertà delle persone (e tale è il caso del ricorso a processi decisionali automatizzati), con la possibilità di raccogliere le opinioni degli interessati e dei loro rappresentanti; e vi sono anche gli specifici obblighi informativi nei confronti di lavoratori e lavoratrici e dei loro rappresentanti imposti dal novellato d.lgs. n. 152/1997 al datore di lavoro che utilizzi nei confronti dei suoi dipendenti sistemi decisionali o di monitoraggio integralmente automatizzati.

Con particolare riferimento all’impiego di sistemi di IA ad alto rischio sul luogo di lavoro, il regolamento prevede l’obbligo per i datori di informare lavoratori e lavoratrici e i loro rappresentanti, conformemente alle norme e alle procedure previste dal diritto e dalle prassi dell’Unione e degli Stati membri. Si introduce così un mero dovere di informazione (a livello individuale e collettivo), mentre non è stata accolta la più ampia valorizzazione della dimensione collettiva della tutela avanzata dal Parlamento europeo con un emendamento al regolamento che, se recepito, avrebbe sancito il ben più pregnante obbligo di consultare “i rappresentanti dei lavoratori allo scopo di trovare un accordo” sulle pratiche di IA in azienda.

Il compromesso raggiunto sul punto tra Consiglio e Parlamento si rivela in sostanza insoddisfacente in considerazione dell’importanza dell’azione sindacale ai fini della protezione effettiva dei lavoratori e delle lavoratrici, che, per avere voce in capitolo sul modo in cui l’IA li/le riguarda ed esercitare il diritto di dare forma a una “digitalizzazione equa”, hanno bisogno degli strumenti tipici del potere collettivo (come ben sottolinea l’Etuc nel suo Action Programme 2019-2023). E il soggetto collettivo ha bisogno di dotarsi di competenze nuove per svolgere adeguatamente questo compito, in primo luogo attraverso la leva della contrattazione.

Per orientarsi all’interno di questo grande puzzle è dunque imprescindibile l’adozione di una bussola valoriale antropocentrica. Il regolamento, nei suoi primi considerando, definisce l’IA come uno “strumento per le persone, con l’obiettivo finale di aumentare il benessere umano”, e quindi anche la qualità del lavoro: nel comporre il puzzle con l’obiettivo di guidare le potenzialità dell’IA ma anche di fronteggiarne i rischi, quelle parole costituiscono un monito fondamentale per tutti.

Mariapaola Aimo, professoressa ordinaria di Diritto del lavoro dell’Università di Torino, componente consulta giuridica della Cgil