La gestione dell’organizzazione del lavoro è sempre più determinata da tecniche di algorithmic management. Di cosa stiamo parlando? Niente più che di strumenti di supporto alle decisioni manageriali che operano grazie ad algoritmi in grado di processare un gran numero di dati, apprendere ed elaborare regole adattabili ai diversi processi organizzativi. È dunque un concetto che contiene sia una specificità tecnologica, sia l’elemento gerarchico e organizzativo.

Gdpr e Statuto dei lavoratori

Tra i dati che “educano” gli algoritmi ci sono quelli derivanti dallo svolgimento dell’attività lavorativa, e qui entra in gioco il sistema di protezione dei dati che in Europa è legge dal 2016 (Gdpr). Una normativa che, nel nostro Paese, si innesta sul dettato dello Statuto dei lavoratori, lungimirante nella tutela di fattispecie ampie, tanto da poter essere strumento di tutela a più di 50 anni dalla sua formulazione.

Mentre infatti lo Statuto prevede all’articolo 4, seppur novato, l’intervento obbligatorio dei rappresentanti dei lavoratori in caso di utilizzo di tecnologie che consentono il controllo di lavoratrici e lavoratori, rimane parimenti centrale l’articolo 8 che, come sappiamo, “vieta al datore di lavoro di effettuare indagini, anche a mezzo di terzi, sulle opinioni politiche, religiose o sindacali del lavoratore, nonché su fatti non rilevanti ai fini della valutazione dell'attitudine professionale del lavoratore”.

Se dunque a queste lungimiranti formulazioni si aggiungono le previsioni del Gdpr, che indica cosa debba intendersi per profilazione all’articolo 4 per poi sancire all’articolo 22 il diritto dei lavoratori/trici a non essere sottoposti a “decisioni basate unicamente sul trattamento automatizzato, ivi inclusa la profilazione” con conseguenti obblighi di trasparenza in capo al titolare del trattamento dei dati, si può contare su un quadro regolatorio che consente spazio di manovra alle organizzazioni sindacali.

Il ruolo dei contratti nazionali

C’è infatti un’ossatura giuridica cui fare riferimento per intervenire, ma per il sindacato è ormai improrogabile l’inserimento nei ccnl di strumenti obbligatori di informazione e consultazione in favore dei rappresentanti dei lavoratori in caso di implementazione di strumenti algoritmici.

Intanto si può agire invocando il rispetto dell’articolo 1 bis del d.lgs 152/97 introdotto dal d.lgs 105/22 (cd. Decreto trasparenza), che tenta di ridurre l’asimmetria di potere tra datore di lavoro e lavoratrici e lavoratori.

Il nuovo articolato stabilisce gli ulteriori obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati. Il tema di fondo è la trasparenza, principio che sottende il Gdpr, ancora più stringente, come abbiamo visto, quando si parla di trattamenti automatizzati e ben definito proprio dal comma 6 dell’articolo 1 bis dlgs 152/97, laddove si afferma l’obbligo delle informazioni “in modo trasparente, in formato strutturato, di uso comune e leggibile da dispositivo automatico”.

Verificare la trasparenza

Dunque il compito del sindacato è intanto verificare che vi sia la trasparenza prescritta al fine di esercitare il dovuto controllo sull’esercizio dei poteri datoriali, e informare i lavoratori del loro diritto a richiedere informazioni aggiuntive (comma 3 articolo 1bis dlgs 152/97).

Come sappiamo, del resto, la giurisprudenza si è già espressa, proprio su ricorsi effettuati dalle categorie della Cgil, sia a Torino che a Palermo, il che ci deve spingere a esigere, con motivata ragione, per ogni azienda la esplicitazione dei meccanismi algoritmici utilizzati per l’organizzazione del lavoro.

La Cassazione indica la strada

Del resto anche la Corte di Cassazione, con ordinanza 30123 del 2023 che prende le mosse da un provvedimento dell’Autorità garante per la protezione dei dati personali di divieto di utilizzo di dati personali per la creazione di una piattaforma web da parte di un ente associativo, stabilisce che l’opacità dell’algoritmo impedisce di consentire l’adesione dei singoli a una piattaforma informatica, giacché il consenso può essere validamente prestato solo se espresso rispetto a un “trattamento chiaramente individuato”.

Di fatto, dunque, la Cassazione stigmatizza l’impossibilità di conoscere il percorso seguito dalla macchina per produrre l’output e dunque di dare un consenso “libero e specifico”.

Leggi anche

Lavoro

Intelligenza artificiale e lavoro, studiare ci salverà

Per il filosofo Mario De Caro, nel giro di 20 anni l’80 per cento dei mestieri cambierà o sparirà. Serviranno più welfare e formazione permanente

Intelligenza artificiale e lavoro, studiare ci salverà
Intelligenza artificiale e lavoro, studiare ci salverà

Intelligenza artificiale e regole europee

Dobbiamo poi considerare che, in base alla nuova regolamentazione europea sull’Intelligenza artificiale, le tecnologie applicate al rapporto di lavoro sono di per sé stesse considerate ad alto rischio, con tutto ciò che ne consegue. Sappiamo che proprio l’applicazione di sistemi di IA rende possibile una maggiore opacità delle scelte organizzative dei datori di lavoro e una rischiosa debolezza contrattuale. La causa è una sempre più accentuata asimmetria informativa tra datori e lavoratori, determinata dalla scarsa intelligibilità di ragionamenti algoritmici capaci di regolare i rapporti di lavoro a partire dalle fasi preassuntive fino alla cessazione del rapporto stesso.

Informazione e partecipazione

Stante dunque l’informativa dovuta sulle informazioni, ossia i dati che vengono utilizzati e le logiche di calcolo, appare necessario prevedere anche per via contrattuale una informazione consuntiva che consenta di conoscere gli esiti della procedura di calcolo algoritmica.

Forse sarebbe necessario anche iniziare a interrogarsi sulla necessità, insieme alla definizione più netta dei diritti di informativa ex ante ed ex post in capo ai lavoratori e alle loro rappresentanze, di una forma di partecipazione simile a quella prevista nell’ambito della salute e sicurezza, specie nella fase di controllo.

Bisogna quindi trovare una strada che ci consenta di esercitare un ruolo centrale per il controllo di un utilizzo corretto, non discriminatorio, trasparente, affidabile e sorvegliato dei meccanismi algoritmici e di intelligenza artificiale in ambito lavorativo.

Cinzia Maiolini, segretaria nazionale Filctem Cgil