Vi ricordate l’ingegnere Blake Lemoine di Google che riteneva di aver colloquiato con una IA senziente? Si trattava di un chatbot, Lamda, (Language Model for Dialogue Applications), un sistema a rete neurale dedicata al linguaggio e, dunque, congegnato in modo tale da poter essere allenato alla lettura di un elevato numero di parole ed alla conseguente interazione con l’utente.

Lamda rispondeva a domande, essendo di fatto allenata a sostenere un dialogo, ma si trattava di un sistema di modello linguistico di certo non senziente, capace di collegare tra loro una sequenza di lemmi attingendo ad un enorme database.

Su questo sistema Google ha basato la sua risposta al chatbot gpt, di cui abbiamo già trattato su Collettiva: si tratta di Bard, il cui lancio è avvenuto ai primi di febbraio e che, ad oggi, non è ancora disponibile al pubblico.

Di questo nuovo chatbot, si è parlato da subito a causa di una risposta errata dovuta ad una cattiva comprensione della domanda posta, contenuta proprio nel video promozionale (il che è costato a Google una caduta del titolo pari ad una perdita di circa 100 miliardi di dollari). Questo “scivolone”, incorso proprio mentre Microsoft dichiarava di voler inserire il Chatbot Gpt nel suo motore di ricerca Bing, ha comportato per Google la necessità di palesare l’imperfezione del suo sistema e la necessità di procedere con test in cui saranno coinvolti i dipendenti, test atti a migliorare le performance del chatbot.

Pare infatti che saranno loro a dover dedicare tempo a migliorare le risposte di Bard, sulla base di linee guida specifiche che, tra le altre cose, chiedono di non fare apparire Bard umano, e di fare particolare attenzione ad affermazioni che possano risultare omofobe, razziste, in generale pregiudizievoli in merito a provenienza o orientamento sessuale, opinioni politiche

Cosa ci dice questa attività di Google? In primo luogo, come avevo già evidenziato, che l’utilizzo di algoritmi di intelligenza artificiale finalizzati a permettere un dialogo strutturato tra chatbot ed utente, simulando una conversazione umana, è un campo in cui le bigtech stanno investendo in modo consistente. Sistemi che, per quanto “intelligenti”, necessitano però ancora di molto lavoro umano finalizzato al loro addestramento. Il che, del resto è affermazione valida per molta parte delle nuove applicazioni tecnologiche.

Ovviamente l’applicazione di questi chatbot copre ambiti di impiego ampi e consente una interazione rapida con i servizi online, ma di certo, con la loro progressiva diffusione, essi saranno in grado di rivoluzionare la ricerca di informazioni on line.

In generale si tratta ancora di sistemi perfettibili ma già diffusi, che hanno però implicazioni importanti sia dal punto di vista etico, sia dal punto di vista della possibile verifica della veridicità delle informazioni fornite e, infine, ancora, in tema di privacy.

In questo senso, dunque, l’importanza della regolamentazione e della presenza di sistemi di controllo. Per quanto attiene alla privacy, un esempio è costituito dall’intervento del Garante sulla app Replika. È infatti del 2/2/2023, ossia di pochi giorni fa, il provvedimento 39 del Garante della privacy che blocca la chatbot Replika, “una chatbot, con interfaccia scritta e vocale, basata sull’intelligenza artificiale che genera un 'amico virtuale’ che l’utente può decidere di configurare come amico, partner romantico o mentore”.

Una app, Replika, che consente di creare chatbot personalizzate, grazie all’IA e che si propone come “in grado di migliorare lumore ad il benessere emotivo dell’utente, aiutandolo a comprendere i suoi pensieri e i suoi sentimenti, a tenere traccia del suo umore, ad apprendere capacità di coping (ossia, di controllo dello stress) a calmare l'ansia e a lavorare verso obiettivi come il pensiero positivo, la gestione dello stress, la socializzazione e la ricerca dell'amore”.

Replika, che utilizza un modello Gpt-3 (Generative pre-trained transformer 3), conta circa 10 milioni di utenti, non è l’unica app di questo genere, ed è stata segnalata dagli utenti anche per le avances a sfondo sessuale a loro rivolte. Già, perché come sappiamo i meccanismi di IA apprendono e probabilmente Replika ha rielaborato ed utilizzato messaggi provenienti dagli utenti stessi. Un circolo tutt’altro che virtuoso!

Ed ecco poi che il Garante italiano è intervenuto sui temi di competenza. Partendo infatti dall’assunto che la app da scaricare veniva indicata nei due principali Appstore come idonea ai maggiori di 17 anni, mentre nei termini di servizio se ne indicava il divieto per i minori di 13, è stato verificato dal Garante che non esistevano filtri all’entrata che verificassero davvero l’età né blocchi di interdizioni per i minori rispetto a risposte che il Garante ha considerato “palesemente in contrasto con le tutele che andrebbero assicurate ai minori e, più in generale, a tutti i soggetti più fragili”.

Il Garante poi ha effettuato anche la dovuta verifica del trattamento dei dati. Ha evidenziato che “la privacy policy non può ritenersi conforme ai principi e agli obblighi previsti dal Regolamento in tema di trasparenza”, poiché non rivela nulla in tema di trattamento dati in specie dei minori, e fatte le dovute ulteriori considerazioni ha disposto in via d’urgenza “nei confronti di Luka Inc, società statunitense sviluppatrice e gestrice di Replika, in qualità di titolare del trattamento dei dati personali effettuato attraverso tale applicazione, la misura della limitazione provvisoria, del trattamento dei dati personali degli utenti stabiliti nel territorio italiano”.

Un esempio, tra i molti, dei rischi che si annidano nei sistemi che usano IA, e parimenti dell’importanza, accanto ad un tema di “educazione” generale all’utilizzo critico delle nuove applicazioni tecnologiche, della presenza di “controllori” pubblici e di un quadro di regolamentazione che tuteli gli utenti.

Di sicuro anche gli impatti su alcune professioni, come abbiamo avuto modo di dire, saranno significativi il che ancora una volta ci obbliga a mantenere alta l’attenzione: a maggior ragione rispetto a sistemi che hanno a che fare con molte espressioni del nostro agire umano, con i nostri diritti e con gli effetti anche manipolatori rispetto alle informazioni rese disponibili da meccanismi sofisticati.

Tecniche predittive, profilazioni, pregiudizi insiti nell’algoritmo, la generazione di informazioni che possono tradursi in disinformazione o cattiva informazione, sono temi che tanto più evolve la tecnologia tanto più abbiamo l’obbligo di comprendere ed affrontare in una dimensione complessiva, per tutelare diritti, per affrontare temi contrattuali, per prevedere e arginare i rischi.

Cinzia Maiolini, responsabile Ufficio 4.0 Cgil

Leggi anche

Economia

Chat gpt, solo una macchina

Quali professioni saranno sostituite da questi applicativi? Una domanda cui il sindacato non può sottrarsi
Chat gpt, solo una macchina
Chat gpt, solo una macchina