Lo scorso 11 marzo il Consiglio dell’Unione Europea e il Parlamento hanno trovato un accordo sulla proposta di direttiva sul lavoro tramite piattaforma. I mesi che hanno preceduto questo accordo non sono stati scevri da colpi di scena e cambiamenti dell’ultimo minuto, lasciando trasparire da un lato le difficoltà legate alla definizione di un quadro legislativo unitario su un tema così poco omogeneo, e dall’altro la potenza e l’ampiezza degli interessi toccati. Dagli Uber files che hanno visto Macron coinvolto in prima persona, alla titubanza di molti stati membri, l’attività delle grandi lobby delle multinazionali con fatturati miliardari ha lasciato tracce evidenti. Ma ha soprattutto messo in luce l’incapacità di immaginare politiche di sviluppo e di innovazione che non abbiano nella competizione al ribasso dei salari e dei diritti dei lavoratori un canale privilegiato per garantire il sostentamento di modelli di business chiaramente altrimenti insostenibili.

Nonostante lo spazio occupato nel dibattito pubblico dalla proposta di direttiva e dal riconoscimento di queste nuove forme di lavoro mediate da piattaforme digitali, sono pochi i Paesi ad aver avviato un serio dibattito su come lo sviluppo dell’economia delle piattaforme e il progresso tecnologico stiano trasformando il mondo del lavoro, modificandone le modalità’ di accesso, gli equilibri di potere e gli strumenti di tutela. La discussione si è principalmente incanalata sul riconoscimento dello status lavorativo dei lavoratori di piattaforma, o sulla possibilità o necessità di avviare processi di trasparenza sugli algoritmi che ne definiscono le condizioni di lavoro. Richieste di trasparenza che nella maggior parte si riducono a istanze di mera visibilità dei processi, senza interrogarsi su quali iniziative politiche e pubbliche si dovrebbero intraprendere per partecipare al governo delle scelte algoritmiche, utilizzare il patrimonio di dati raccolto per finalità pubbliche e condivise, e ristabilire un corretto bilanciamento dei poteri, restituendo un ruolo sia ai lavoratori sia agli imprenditori che si rapportano con questo tipo di tecnologie.

I lavoratori si trovano oggi ad affrontare una serie di sfide legata alla stagnazione, ai processi di transizione digitale e verde, e alla diffusione di tecnologie sempre più performanti e pervasive sul posto di lavoro. L’utilizzo di algoritmi e dell’intelligenza artificiale per ottimizzare i processi produttivi si va espandendo velocemente, passando dall’economia digitale a quella più tradizionale e toccando tutti gli aspetti legati alla gestione della forza lavoro. Gli algoritmi scandiscono i tempi e le modalità di prestazione del lavoro, misurano la produttività dei lavoratori e ne valutano la condotta, hanno il potere di assegnare turni, promozioni, licenziare e anche di riconoscere le emozioni dei lavoratori. Inoltre, la logica che ne stabilisce il funzionamento e le scelte è fissata nella maggior parte dei casi da imprese terze che forniscono piattaforme e strumenti digitali già calibrati su obiettivi che sono genericamente identificati, con interessi e secondo parametri non esplicitamente dichiarati. In altri termini, i criteri di efficienza e produttività che governano gli algoritmi che a loro volta governano i lavoratori sono nella gran parte dei casi definiti in maniera unilaterale da chi controlla la tecnologia.

Sembra evidente a chi scrive, che questo sia già di per sé un grosso problema. A cui si somma una certa indolenza, mista a sublimazione, nel pensare che intelligenza artificiale e algoritmi godano di una imparzialità intrinseca, o nel riconoscere che in realtà questi ultimi rappresentino molto di più di un susseguirsi di bit e regole e che la conoscenza tecnica della tecnologica non impedisca di discuterne gli impatti e le conseguenze sul piano sociale. Una delle questioni incalzanti e difatti l’atteggiamento acritico nei confronti dell’adozione di tecnologie algoritmiche sul posto di lavoro. I piani di problematicità che conseguono questo approccio ingenuamente “tecno-ottimista” sono molteplici e principalmente ricadano nel considerare la tecnologia come autonoma e obiettiva, generando di fatto un certo passivismo che impedisce una programmazione condivisa del suo utilizzo, generando una perdita in termini di redistribuzione sociale e valore aggiunto. Tanto per i lavoratori, quanto per le imprese.

La tecnologia ha bisogno di essere integrata nel posto di lavoro piuttosto che calata dall’alto, e soprattutto è necessario discuterne i perimetri e gli spazi di azione per evitare che si trasformi in uno strumento unicamente rivolto al controllo delle performance dei lavoratori e alla disciplina. Infatti, va tenuto in conto che la tecnologia, soprattutto quella algoritmica, porta con sé un potenziale discriminatorio intrinseco legato alla riproduzione di quei bias sociali di cui i dati stessi che la alimentano sono forieri. E pertanto potrebbe essere necessario e opportuno limitarne le aree di intervento. Viene, inoltre, da chiedersi quali sono e come si misurano le responsabilità degli errori derivanti dalla tecnologia, e soprattutto in capo a chi ricadono. E questo è ancor più cogente quando la tecnologia è acquistata e adottata come un pacchetto già pronto all’uso per nulla disegnato secondo le esigenze del posto di lavoro e dei lavoratori.

La definizione di queste nuove problematiche e nuova organizzazione del luogo di lavoro impone di ripensare il ruolo e gli strumenti politici e infrastrutturali a disposizione delle istituzioni del mercato del lavoro. È necessario definire un nuovo patto sociale che preveda dei meccanismi in grado di assicurare alle parti sociali e alle istituzioni un accesso quanto più ampio possibile alle infrastrutture digitali, garantendo che il loro funzionamento sia comprensibile ai più e che tale conoscenza possa concretizzarsi in forme di partecipazione allo sviluppo delle tecnologie, delle sue finalità e dei suoi usi nel posto di lavoro, e che possa beneficiare ambo lavoratori e imprese.

Sia la direttiva del lavoro tramite piattaforma, sia il regolamento sull’intelligenza artificiale, entrambe in fase di approvazione in sede europea, contengono espliciti riferimenti alla trasparenza dei sistemi algoritmici e di AI e precludono l’utilizzo di sistemi di AI per la raccolta di dati biometrici o per il riconoscimento delle emozioni nei posti di lavoro. Tuttavia, le numerose eccezioni e la mancata previsione di obblighi di contrattazione collettiva, se non a scopi consultivi, minano la solidità di queste previsioni e sollevano perplessità sull’efficacia della tutela.

Esiste difatti il rischio che le limitazioni siano aggirate da interpretazioni unilaterali delle eccezioni e che la richiesta di trasparenza, se non accompagnata da strumenti per regolare l’adozione della tecnologia sul posto di lavoro e rafforzare la contrattazione collettiva, si trasformi in mera visibilità dei processi. Al contrario, andrebbero potenziati ed integrati tutti gli strumenti a disposizione per ricreare delle condizioni di parità ai tavoli negoziali. Per esempio, attraverso la definizione di standard, la promozione di tecnologie basate su principi di open-source e interoperabilità, la protezione della privacy e la creazione di spazi digitali comuni che permettano di scambiare dati e avere accesso ai parametri di funzionamento degli algoritmi così da ristabilire una base di conoscenza comune su cui basare la contrattazione.

Infatti, il ruolo del sindacato nell’era digitale non può prescindere dall’accesso alle informazioni e ai dati custoditi e gestiti dagli algoritmi e dai sistemi di intelligenza artificiale. Un obbligo di trasparenza assieme alla definizione di una chiara responsabilità (accountability) del datore di lavoro nell’utilizzo di questi sistemi sono elementi fondamentali per permettere al sindacato e alle istituzioni la verifica del rispetto delle condizioni contrattuali e delle leggi sul lavoro. E per scongiurare il rischio di trasformare il concetto di trasparenza in mera visibilità di processi e parametri che definiscono le condizioni di lavoro applicate, i lavoratori, i loro rappresentanti, i sindacati e le istituzioni pubbliche devono poter non solo accedere a queste informazioni ma poterle influenzare ed intervenire attivamente nelle scelte di adozione tecnologiche a livello dell’impresa e di settore.

Con il Decreto Trasparenza (D.Lgs 104/2022), in Italia è stato introdotto un obbligo di trasparenza per l’utilizzo dei sistemi di decisioni e monitoraggio automatizzati sul posto di lavoro. L’obbligo prevede che i datori di lavoro forniscano informazioni dettagliate sull’uso di tali sistemi, le finalità di utilizzo nonché la condivisone dei dati utilizzati per addestrare tali sistemi. Inoltre, la legge estende tale obbligo di condivisione delle informazioni anche in favore dei rappresentanti dei lavoratori, l’ispettorato del lavoro ed il ministero. La portata innovativa della norma, mortificata dai cambi introdotti dal governo Meloni, consiste in due parti. La prima è quella di prevedere degli obblighi informativi concreti, richiedendo non solo accesso ai parametri che condizionano i processi decisionali ma anche le misure adottate per controllare la qualità dei sistemi automatici adottati e i suoi potenziali impatti discriminatori. Inoltre, la norma prevede esplicitamente che siano resi disponibili i dati utilizzati per addestrare i sistemi e definire le metriche automatiche, dando così una possibilità concreta di auditing dei sistemi decisionali automatizzati e non basandosi su una attestazione di conformità fornita dal provider stesso della tecnologia oggetto di audizione.

Il secondo punto fondamentale della norma è la previsione dell’estensione dell’accesso ai dati e alle informazioni alle rappresentanze sindacali. Sebbene il decreto non preveda esplicitamente un obbligo di contrattazione sindacale prima dell’adozione di tali sistemi, fermo restando l’articolo 4 dello statuto dei lavoratori, la possibilità di conoscere l’utilizzo, le finalità e poter accedere ai dati di questi sistemi elimina quella opacità dei processi che permette ai sindacati di conoscere le effettive condizioni di lavoro dettate dagli algoritmi e di iniziare una battaglia sindacale laddove manchi il rispetto delle disposizioni vigenti o sia necessario richiedere condizioni migliori.

Con l’introduzione di tecnologie algoritmiche e intelligenza artificiale con un potenziale di autoapprendimento che potrebbe svilupparsi in maniera imprevedibile anche per gli stessi sviluppatori, e tenuto conto che gli stessi datori di lavoro potrebbero non essere interamente alfabetizzati rispetto alle possibili conseguenze dell’adozione di queste tecnologie e dei suoi sviluppi nel posto del lavoro, l’importanza di generare meccanismi di decisione condivisa si fa ancora più pressante. Esempi di co-determinazione in cui lavoratori e sindacati esercitano un potere di informazione e di consultazione, fino a poter esprimere un proprio e vero diritto di veto sulle scelte aziendali, possono anche aiutare a mitigare i rischi associati alla mancanza di una chiara accountability, ossia la catena di responsabilità associata all’uso di queste tecnologie. Difatti, un aspetto per nulla secondario è quello della disciplina della responsabilità tra fornitori di software di gestione algoritmica e sistemi di intelligenza artificiale e datori di lavoro, dove questi ultimi sono i soli responsabili della applicazione della tecnologia all’interno del posto del lavoro. Appare evidente che il problema dell’alfabetizzazione algoritmica, se così la possiamo definire, è ben più trasversale rispetto al rapporto lavoratore-macchina, ma investe tutti gli stakeholders dalle imprese ai fornitori di tecnologia, ai sindacati e allo stato.

Per un mercato del lavoro e un posto di lavoro capaci di trarre vantaggio dal progresso tecnologico, è necessario che imprese, sindacati ed istituzioni sviluppino le necessarie competenze per governare i dati e le tecnologie. La creazione di uno spazio digitale pubblico, in cui imprese, sindacati e istituzioni possano scambiare dati e informazioni in forma protetta potrebbe rappresentare un passo avanti verso la definizione di diritti digitali del lavoro e del lavoratore che, oltre a garantire un utilizzo corretto degli algoritmi e della tecnologia sul posto di lavoro, aiuterebbe a ricostituire la soggettività dei lavoratori digitali. Questa opzione politica illustra un possibile modo per correggere le asimmetrie e gli squilibri che possono essere creati dalla raccolta diffusa di dati sui processi lavorativi e dall'utilizzo di pratiche di gestione algoritmica. I dati dovrebbero essere considerati un bene pubblico e i sindacati dovrebbero avere accesso sia ai dati che agli algoritmi e diventare parte attiva della governance algoritmica sul lavoro per garantire una transizione digitale equa per tutti i lavoratori.

Annarosa Pesole, esperta politiche del lavoro e del digitale, ex consulente del ministero del lavoro e delle politiche sociali