PHOTO
“Se parlate con ChatGPT di questioni sensibili e poi viene fuori una causa legale o qualcosa di simile, potremmo essere costretti a consegnare quelle informazioni. E penso che sarebbe un disastro”. Questo è quanto ha dichiarato Sam Altman durante un episodio del podcast statunitense This Past Weekend, aggiungendo che, a differenza di professionisti in carne ed ossa come avvocati, medici o terapeuti, le aziende che creano chatbot di intelligenza artificiale non sono vincolate dal segreto professionale.
Il riferimento specifico in questo caso è alla possibilità di dover condividere con le autorità eventuali ricerche o conversazioni fatte con l’intelligenza artificiale nel caso queste siano considerate “prove” utilizzabili a seguito di contenziosi di tipo legale o addirittura durante un processo. È recente un’ordinanza - cui OpenAI si è opposta - che l’avrebbe costretta a conservare le chat di milioni di utenti di ChatGPT in tutto il mondo per consentire alla corte statunitense che sta esaminando la causa intentata dal New York Times, di verificare la fondatezza delle accuse che riguarderebbero l’utilizzo di contenuti protetti da copyright senza consenso, per addestrare i suoi modelli. Ma non è certo questo l’unico esempio di come i contenuti da noi condivisi possono essere accessibili a terzi, anche in circostanze diverse, comprese quelle fraudolente.
Sono infatti molteplici ormai gli studi che evidenziano i pericoli sociali e di privacy legati all'uso di strumenti come ChatGPT per le consulenze professionali o, addirittura (fenomeno in rapida crescita), per il supporto emotivo, quasi si trattasse di uno psicologo o del proprio migliore amico.
Una ricerca condotta dalla stessa OpenAI, insieme al Mit Media Lab ha evidenziato come alcune persone utilizzino il chatbot come vero e proprio sostituto delle interazioni umane.
Questo fenomeno, avvertono sempre gli autori dello studio, può influire sulle relazioni interpersonali e portare allo sviluppo di disturbi psicologici. Se a questo aggiungiamo il problema della protezione dei dati, desta non poca preoccupazione lo scenario che ci troviamo di fronte, soprattutto se lo stesso Altman dichiara: “Questo è uno dei motivi per cui a volte ho paura di usare certi strumenti AI: non so quante informazioni personali voglio condividere, perché non so chi potrà accedervi”.
Quello che è certo è che le aziende tech sono in competizione non solo per dominare il settore dell'AI a livello commerciale, ma anche per definire i valori che guideranno lo sviluppo della tecnologia in futuro.
In questo contesto, l’assenza di regole univoche e globalmente condivise gioca un ruolo pesante e pericoloso, perché in una competizione in cui tutto ha l’opportunità di essere tecnicamente ed eticamente possibile, il rischio di conseguenze sociali è elevatissimo: dalla messa in discussione della tutela dei dati personali al condizionamento psicologico, fino ad arrivare, nei casi più gravi, alla contraffazione delle informazioni, preludio per possibili ingerenze manipolatorie anche nei processi democratici.
L’IA ha sicuramente rivoluzionato il modo in cui interagiamo con la tecnologia. Ma ogni rivoluzione richiede responsabilità, anche da parte di chi ne è un semplice utente. Questo significa che bisogna acquisire consapevolezza delle proprie azioni e delle possibili conseguenze.
La privacy online, ormai è evidente, non è mai garantita per impostazione predefinita: va costruita, costantemente, con attenzione, buonsenso e conoscenza. Per cominciare, è necessario allora avere chiaro quali sono le tipologie di informazioni che non bisogna mai condividere con un’intelligenza artificiale:
Confessioni e informazioni potenzialmente “compromettenti”
Sì, confessioni, perché esiste anche un sistema, capace di parlare cento lingue e programmato con una profonda conoscenza del Nuovo Testamento, che in una chiesa cattolica nella città di Lucerna, ha raccolto confessioni e domande e ha offerto consigli spirituali. Si chiama Deus in machina. “Peccato” che i fedeli che si affidano alla macchina per una confessione digitale potrebbero non sapere esattamente chi ha accesso a quei dati e come verranno utilizzati. Ci sono poi le informazioni potenzialmente “compromettenti”: segreti legali, problemi familiari delicati, o qualsiasi altra dichiarazione intima o riservata. Quando si comunica con un chatbot o un sistema IA ogni parola digitata può infatti essere registrata e archiviata. Anche in questo caso ci si espone a un duplice rischio: da un lato, ad essere in pericolo sono reputazione e privacy, dall’altro, le informazioni condivise potrebbero avere potenziali implicazioni legali e aprire la strada a possibili forme di “sorveglianza emotiva”, trasformando un momento di vulnerabilità in un pericolo concreto.
Password e credenziali di accesso
Chiedere all’IA di “ricordare” una password o di aiutarti a recuperarla è uno degli errori più gravi che si possono commettere. Le conversazioni potrebbero essere lette da sviluppatori o, peggio, intercettate da hacker. Per non parlare del fatto che l’intelligenza artificiale generativa è estremamente veloce e potente nel decifrare password. Quindi perché considerarla un’alleata sicura?
Anche perché è evidente che in un contesto malevolo le conseguenze di un accesso non autorizzato possono essere devastanti: furto di dati personali, di account relativi a e-mail e social network, violazioni bancarie.
Dati personali sensibili
Il Garante della privacy italiano ha più volte lanciato l’allarme riguardo alla necessità di prevedere una base giuridica chiara e una tutela rafforzata a garanzia dei dati personali utilizzati (quasi sempre secondo il principio del silenzio assenso) per l’addestramento di modelli di IA. Codice fiscale, indirizzo di casa, numero di telefono, Iban, documenti d’identità e altre informazioni analoghe. Questi dati possono essere archiviati, e utilizzati senza il consenso dei diretti interessati, con gravi implicazione per la privacy, fino ad arrivare al rischio più grave: il furto di identità.
Esercitare il diritto di opposizione è senz’altro una buona mossa, che riduce non poco i rischi. Ma bisogna sempre tenere alta l’attenzione nel gestire le proprie informazioni online. Tra i dati personali sensibili rientrano inoltre anche quelli sanitari. Chiedere ad un chatbot di interpretare esami di laboratorio o di ricevere una diagnosi, oltre che pericoloso per la salute lo è anche per la privacy. La riservatezza è un valore fondamentale nell'assistenza sanitaria per prevenire discriminazioni e imbarazzi, ma i chatbot non rispondono di certo a questi criteri.
Dati legati al proprio lavoro
Le attenzioni sopra richiamate vanno poste anche in ambito lavorativo, ad esempio se si usa l’intelligenza artificiale per scrivere report, redigere email o analizzare dati. Condividere con un chatbot testi, documenti, strategie aziendali o procedure interne può infatti esporre l’azienda a rischi enormi e, conseguentemente, avere ripercussioni gravi per le lavoratrici e i lavoratori che lo hanno fatto.
Per questo motivo è fondamentale che le aziende adottino politiche di sicurezza rigorose e garantiscano percorsi di formazione continua per chi utilizza strumenti di IA al lavoro.
In conclusione, mentre le sorti dello sviluppo di questa tecnologia sono in balia di scenari geopolitici e tecnologici su cui non abbiamo alcuna opportunità di incidere, abbiamo invece la possibilità e la necessità di imparare a difenderci dai possibili “effetti collaterali”. Come nella vita reale la regola principale è dunque quella di non dire all’IA nulla che non diresti ad alta voce in una stanza piena di sconosciuti.
Questo esercizio di buonsenso non ci metterà al riparo da tutto, ma di sicuro ridurrà i rischi cui siamo quotidianamente esposti e servirà per allenare attenzione e consapevolezza.
Barbara Apuzzo, Responsabile Politiche e sistemi integrati di telecomunicazioni Cgil nazionale






















