PHOTO
Viviamo nell’epoca più iper-connessa di sempre, eppure mai così tante persone, a qualsiasi età, si sono sentite sole. Frequentiamo luoghi virtuali ricchi di “amici”, ma è improbabile che in caso di bisogno reale chiameremmo una o uno di loro. Questa condizione paradossale, fatta di (apparente) presenza di persone con cui tuttavia non riusciamo davvero a connetterci, sta riscrivendo il significato stesso della parola “solitudine”.
In tale scenario, che restituisce plasticamente l’immagine dei danni causati da una società fondata ormai sulla frammentazione sociale (a partire dal mondo del lavoro, sempre più precario), si inserisce il business di coloro che sfruttano qualsiasi condizione per accrescere il proprio potere, economico e non solo. È in questo preciso incastro che si crea quel corto circuito che, con buona pace dei pionieri di internet che sognavano di creare comunità virtuali ma reali (perché fatte da persone in carne e ossa), si inseriscono i creatori di Chatbot emotivi (o Chatbot emozionali).
Definizioni quasi poetiche, peccato però che di emotivo o emozionale non abbiano proprio niente. Attenzione però anche banalizzarli e considerarli semplicemente come semplici App, frutto dell’Intelligenza Artificiale. Sono qualcosa di più sfumato e al tempo stesso più potente e pervasivo. Progettati per riconoscere, comprendere e simulare le emozioni umane durante una conversazione, rappresentano un vero e proprio cambio di paradigma nel modo in cui le persone cercano e trovano risposte ai propri bisogni affettivi. Non è fantascienza: si tratta di ingegneria comportamentale applicata. Nascono così App come Replika, progettate per agire come amici virtuali o addirittura come partner.
Per farlo, i Chatbot utilizzano l'elaborazione del linguaggio naturale (Nlp) e l'analisi del sentimento per empatizzare con l'utente, creando un'interazione più profonda e simulando la compagnia umana. Gli algoritmi di apprendimento automatico di cui sono dotati hanno infatti alla base l’analisi (in costante evoluzione) di milioni di conversazioni, questo gli permette di interpretare persino il contesto emotivo in cui le parole vengono utilizzate. Attraverso tecniche sofisticate di antropomorfizzazione digitale così alimentate, riconoscono gli stati d'animo (tristezza, gioia, rabbia) e adattando il tono della conversazione di conseguenza.
Questi chatbot riescono dunque a mascherare la loro natura artificiale, imitando l'empatia, e rendendo dunque sempre più difficile distinguere una conversazione con un sistema automatico da una con una persona reale. E qui avviene il paradosso. Perché sebbene le persone sappiano perfettamente di parlare con qualcosa di non umano, vi si rivolgono comunque, e sempre più diffusamente. In questo scenario, quello che preoccupa è l’età, sempre più bassa, dei principali fruitori. Lo denunciano con forza i dati di diverse associazioni che si occupano di infanzia e adolescenza.
Tra questi citiamo quelli riportati della Fondazione Carolina, che con il suo bellissimo progetto “Cuori e algoritmi” riporta esempi agghiaccianti: “Quasi 1 adolescente su 3 cerca nei Chatbot un amico digitale sempre disponibile”. Più di 1 su 4 li usa per sfogarsi senza essere giudicato. 1 su 5 spera di poter “dare e ricevere affetto”, anche da un’intelligenza artificiale. 2 su 3 considerano fondamentale non essere giudicati e ricevere risposte gentili e comprensive.” C’è un dato, però, che colpisce più di tutti gli altri: “il 76% degli stessi ragazzi teme che le persone possano isolarsi, preferendo i Chatbot alle relazioni umane. Capite cosa significa? I ragazzi vedono il rischio. Lo riconoscono. Ne hanno paura. Eppure, continuano a cercare nei Chatbot qualcosa che non trovano altrove”.
È evidente che ognuno di questi esempi meriterebbe un serio approfondimento a parte. Perché limitarsi ad affrontare gli aspetti tecnologici di questo fenomeno, senza calarli nel contesto antropologico e psicologico in cui si alimentano è riduttivo. Vale tuttavia la pena segnalare il rischio, sempre più concreto e ampiamente documentato per gli utenti (di qualsiasi età) di subire effetti psicologici a lungo termine, tra cui la possibilità di sviluppare dipendenze affettive o “trappole emotive”, quando si attribuiscono a una macchina sentimenti reali. Ma il tema è davvero troppo ampio e importante per essere affrontato in poche righe. Quello che invece possiamo e dobbiamo sottolineare è il fatto che la capacità mimetica di questi Chatbot deve necessariamente sollevare importanti questioni etiche riguardo la trasparenza, il consenso informato e l’utilizzo dei dati.
Confidare i propri sentimenti ad un algoritmo, espone la parte più vulnerabile di sé. Chattare con un Chatbot non è come scrivere un diario segreto. A raccogliere pensieri e sentimenti c’è sempre qualcuno (questa volta si, in carne ed ossa), che utilizzerà quei dati per profilare e, nella migliore delle ipotesi, per sfruttarli commercialmente. Quello che sta dietro queste App è infatti un vero e proprio “capitalismo dell’amore” che monetizza i bisogni affettivi umani. Una volta creata la dipendenza, l’illusione di un rapporto intimo fatto di empatia, consigli e supporto emotivo, chiede di essere ripagata tramite forme di abbonamento. C’è poi un lavoro enorme da fare con le ragazze e i ragazzi di questo tempo.
Un lavoro che deve affiancare a percorsi di acquisizione di competenze digitali, cura e attenzione ai sentimenti. La difficoltà nell’approcciarsi ai propri coetanei, la paura del giudizio o del rifiuto, così come la diffusione di esperienze traumatiche come bullismo o abbandoni creano diffidenza verso le relazioni umane, ma l’idea di trovare nell’interazione con intelligenze artificiali una possibile “soluzione”, un vero e proprio rifugio dalla vita reale è un campanello d’allarme sociale che suona fortissimo. Un suono che non si può ignorare.
Sappiamo bene che arginare la diffusione di questi utilizzi distorti dell’IA è cosa non facile. I confini tra regole e forzature appaiono sempre più labili e richiedono attenzione e adattamenti costanti. Nel frattempo però possiamo ripartire da noi. Contrapponendo, a queste forme di intelligenza artificiale, presenza fisica reale. Possiamo, e dobbiamo farlo subito.
Barbara Apuzzo, Responsabile Politiche e sistemi integrati di telecomunicazioni Cgil nazionale






















