Della Chat GPT avevamo già fatto conoscenza (leggi qui). Ora, come già sapevamo da qualche tempo (leggi qui), OpenAI, società fondata nel 2015, tra gli altri, da Elon Musk come compagnia senza scopo di lucro e trasformatasi nel 2019 in una società a scopo di lucro, ha presentato GPT-4. Un'evoluzione di GPT-3 dotata di un numero di parametri decisamente maggiore e potente, supportata da un database più capiente.

Di fatto, per fare un iniziale semplice paragone, GPT-3 poteva produrre testi con fino a 3.000 parole; la nuova versione riesce a utilizzarne 25.000, proponendosi per testi più complessi e articolati. Ma ciò che tende questa versione più performante, e più inquietante, è la capacita di vedere, cioè di riconoscere immagini e di interpretarle. Di fatto si è sviluppata una sorta di funzionalità di input multimodale, cioè una possibilità di alimentazione tramite foto, immagini e grafici, che genereranno sempre un output di testo.

A breve si prevedono possibilità di alimentazione della chat anche con video e audio. Questa caratteristica rende questa applicazione di IA (intelligenza artificiale) utilizzabile in campi ancora più ampi. Basti pensare che, oltre a essere una componente del motore di ricerca Bing, ne viene già sperimentato l’utilizzo ad esempio per creare un tutor virtuale per gli studenti (Khan Academy) e se ne può immaginare un utilizzo che ad esempio arrivi a descrivere le immagini per ipovedenti. Questo se consideriamo un utilizzo finalizzato alla cura e all’ausilio della persona.

Ma è del tutto evidente che si apre anche uno spazio decisamente nuovo, che inferisce anche il capitolo sorveglianza. I sistemi saranno infatti potenzialmente più performanti e dunque più rischiosi anche in termini di privacy. Del resto è evidente che Chat Gpt, oltre all’accesso a un patrimonio informativo enorme, incamera le chat con gli utenti, chat che potrebbero essere utilizzate per altri scopi diversi da quello della mera interazione e senza il consenso dell'utente, e aumenterà in modo esponenziale il suo “patrimonio informativo” con l'acquisizione e l’analisi delle immagini.

Del resto il Garante della privacy si era già espresso in merito alla versione precedente, GPT-3 (il documento) indicando come “non c’è dubbio che per accedere al servizio è indispensabile lasciare un indirizzo e-mail e attivare un account, ed è altrettanto certo che il servizio archivia la cronologia delle nostre domande. Insomma, qualcuno, qualcosa su di noi, la mette da parte per certo“. Dunque il Garante, pur senza stigmatizzare la nuova applicazione, metteva in guardia rispetto alla necessaria consapevolezza rispetto alla cessione talvolta inconsapevole di informazioni, ricordando che non si sta conversando con un amico ma con “un prodotto commerciale realizzato da soggetti che, nella vita, in maniera del tutto legittima, fanno gli imprenditori” e dunque devono trarne un vantaggio. I dati sono decisamente una buona moneta.

Le nuove funzionalità ovviamente non rendono Chat GPT-4 più intelligente delle versioni precedenti, ma le implementazioni hanno, secondo i programmatori, ridotto del 40% le possibilità di errori (il cosiddetto “tasso di allucinazione”) e dell’82% la possibilità che si producano testi violenti o dannosi. Ma, è bene ribadirlo ancora, non si tratta di un'applicazione intelligente ma solo più performante. Di sicuro il continuo sviluppo di Chat GPT sta comportando la necessità per alcune big tech di superare gli assistenti vocali (Siri, Alexa) che rispondono a meccanismi di comando e controllo e che hanno database con i dati necessari alla risposta e non rapidamente implementabili. Del resto pare che una quota parte dei licenziamenti di Amazon riguardino proprio la divisione che si occupava di Alexa.

Rimangono comunque fermi i rischi correlati all’utilizzo di queste tecnologie che, oltre alla profilazione e alla violazione della privacy e alla possibilità di falle in termini di cybersecurity, vanno dalle possibili campagne di disinformazione (chi verifica la correttezza delle risposte della chat?), a forme di pregiudizio legate, come sempre all’impostazione dell’algoritmo fino a qualche possibile e prevedibile danno in termini di corretto accesso alle fonti, in caso di suo utilizzo acritico.

Maggiori sono le capacita di questi meccanismi di IA, maggiore è ovviamente anche la platea di professioni impattate. Pensiamo ai traduttori, ai correttori di bozze anziché agli analisti di dati o ai giornalisti sino agli addetti al customer care, solo per fare qualche esempio. Esempi non esaustivi, dato che trattiamo solo alcuni dei possibili effetti sostitutivi che impattano e sempre più impatteranno sulle più diverse professionalità. Il che, pensando anche alle altre applicazioni possibili di meccanismi di IA, costringe a un serio ragionamento che coinvolga l’intero mondo delle professioni e indica la centralità di predisposizione di piani formativi e di orientamento professionali. Quel che non cambia, a maggior sicurezza di tutt*, è la necessità di studiare le tabelline: né la versione 3 nè la 4 di Chat GPT sembrano infatti in grado finora di dare un risultato corretto alle moltiplicazioni.

Cinzia Maiolini è responsabile Ufficio 4.0 Cgil 

Leggi anche

Internazionale

Di cosa parliamo quando parliamo di GPT-4

Di cosa parliamo quando parliamo di GPT-4
Di cosa parliamo quando parliamo di GPT-4