Il Parlamento europeo, dopo anni di approfondimenti e analisi tecniche e valutazioni di esperti, il 12 giugno 2023 ha approvato, durante la riunione congiunta delle commissioni per il Mercato interno e la protezione dei consumatori e per le Libertà civili, la giustizia e gli affari interni, l’ultima proposta di regolamento per fissare un quadro normativo omogeneo sull’intelligenza artificiale in Unione Europea.

Accordo entro fine anno

Ora inizieranno i negoziati con i Paesi dell'Ue in Consiglio per la stesura finale della legge. L'obiettivo del Parlamento è quello di raggiungere un accordo entro la fine di quest'anno e promulgare la norma per il 2024. L’indirizzo è quello di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell'Ue siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente.

Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l'IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale. Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'IA: la filosofia è che anche se molti sistemi di intelligenza artificiale comportano un rischio minimo, devono essere valutati. Sono considerati a rischio inaccettabile:

- manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini;

- classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali;

- sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.

Alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza "post", in cui l'identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale. Sono considerati ad alto rischio i sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali:

  1. I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell'Ue sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.
  2. I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell'Ue:

- identificazione e categorizzazione biometrica di persone naturali;

- gestione e funzionamento di infrastrutture critiche;- 

- istruzione e formazione professionale;

- occupazione, gestione dei lavoratori e accesso all'autoimpiego;

- accesso e fruizione di servizi privati essenziali e servizi pubblici essenziali;

- forze dell'ordine;

- gestione delle migrazioni, asilo e controllo delle frontiere;

- assistenza nell'interpretazione e applicazione legale della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita. L'IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:

- rivelare che il contenuto è stato generato da un'intelligenza artificiale;

- progettare il modello in modo da impedire la generazione di contenuti illegali;

- pubblicare riepiloghi dei dati utilizzati per l’addestramento e diritti d'autore.

Sono considerati a rischio limitato i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake). Tali sistemi devono rispettare requisiti di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA.

L'impatto sul lavoro

La norma arriva in una più ampia regolazione dei sistemi digitali e poggia sulla già solida regolazione europea sul trattamento dei dati, con un progetto ambizioso di disciplina dell’intelligenza artificiale, tenendo al centro l’elemento umano. Chiaro che l’IA impatta e impatterà sempre più sul lavoro, sia dal punto di vista dell’occupazione e della trasformazione delle professionalità, sia con riferimento ai diritti fondamentali di lavoratori e lavoratrici.

Si tratta, dunque, di una vera e propria sfida intersettoriale, infrastrutturale nonché antropologica e culturale cui siamo di fronte, che implica un cambio di paradigma e di prospettiva del lavoro stesso. La Cgil è consapevole di avere di fronte una complessa responsabilità, che comporta anche l’esigenza di monitorare e, ove possibile, intervenire sulla qualità della norma da un lato, dall’altro continuare a verificare l’efficacia del quadro normativo nel contesto reale. Spesso regole equilibrate e indispensabili non hanno trovato reale applicazione calate nel sistema produttivo ed economico del nostro Paese generando, di fatto, confusione sulle modalità di attuazione e sulla reale tutela delle persone. Certamente questo potrà essere un nuovo strumento da utilizzare nella rinnovazione dei contratti e nella stipula di accordi che intervengano su organizzazione del lavoro, tempi e orari e riconoscimento professionale e salariale.

Alessio De Luca, Ufficio Progetto Lavoro 4.0
Federica Cochi, presidente Apiqa