Da mesi si dibatte sugli effetti che l’uso dell’intelligenza artificiale avrà in tutti i settori della nostra vita, evidenziando vantaggi e svantaggi di una tecnologia che dall’uscita di ChatGPT è tornata al centro di numerose riflessioni. È proprio l’IA generativa, infatti, ad aver colpito l’immaginazione delle persone comuni per la velocità e la qualità con cui è in grado di produrre testi e immagini, spesso con un livello tale da far dubitare del fatto che a crearle sia stata una macchina e non un essere umano.

Alcuni illustri intellettuali, come Noam Chomsky, hanno definito come "amorali” questi nuovi strumenti. Una definizione impropria, perché la moralità appartiene a noi umani e siamo noi che con le nostre scelte dobbiamo utilizzare le macchine secondo criteri etici.

Vale nel mondo del lavoro, dove se l’IA verrà utilizzata per sostituire i lavoratori, genererà perdita di posti di lavoro mentre, al contrario, se si impiegherà come un complemento in grado di migliorare le prestazioni lavorative e salvaguardare la salute e la sicurezza di chi lavora, produrrà un vantaggio sia per i lavoratori che per le imprese. E vale ovviamente in tutti gli altri ambiti della vita.

L’importanza delle scelte

Sono, quindi, le scelte fatte a monte ad orientare gli impatti che l’IA potrà avere sulla nostra quotidianità, ben sapendo che la linea di confine tra ciò che è virtuale e ciò che è reale è oggi pressoché inesistente. Da anni l’informatica e le tecnologie di rete hanno cambiato il significato di “reale” e “virtuale” perché hanno cambiato il modo di conoscere le cose e le relazioni tra le persone.

Leggi anche

Culture

I giochi nell’era dell’intelligenza artificiale

Le nuove tecnologie stanno modificando le esperienze ludiche dei bambini. Opportunità ma anche rischi rispetto al controllo dei dati e all’impatto psicologico

I giochi nell’era dell’intelligenza artificiale
I giochi nell’era dell’intelligenza artificiale

Ed è per questo che la tecnologia interviene sulla realtà e la modifica, portando ciò che è virtuale a diventare reale. Nella rete tutto è reale, solo la presenza, il contatto fisico sono “virtualizzati”. Ed è dentro questo quadro che per effetto di un utilizzo distorto dell’IA stiamo assistendo alla diffusione di un nuovo fenomeno di violenza sulle donne. Una violenza che non lascia segni fisici ma che, come accade già in altre circostanze, colpisce gravemente le donne sotto miriadi di aspetti.

Una nuova violenza sulle donne

Stiamo parlando dei servizi di undressing. Una nuova frontiera dello squallore che utilizza l’intelligenza artificiale per “spogliare” le fotografie caricate su diverse app e mostrarle nude. Si tratta di software che usano l’IA per ricreare un’immagine a partire dall’originale, quella “vestita”, in modo che la persona in questione sembri nuda.

Le immagini spesso sono prese dai social media e distribuite senza il consenso o la consapevolezza del soggetto ritratto. E, superfluo dirlo, la maggior parte di esse sono state progettate per funzionare solo sulle donne.

La diffusione del fenomeno è così agghiacciante che secondo un recente studio, pubblicato su Bloomberg, si parla di un incremento del 2.400% (dall’inizio dell’anno) di link che pubblicizzano app di questo genere sui social media, tra cui X e Reddit (solo a settembre 24 milioni di persone hanno visitato i siti undressing, alimentando il filone della “deepfake pornography”).

Un girone infernale

Un girone infernale in cui spesso le donne si ritrovano senza esserne neanche consapevoli e che, nei casi più gravi, porta ad una vera e propria persecuzione. Sempre lo studio di Bloomberg cita un post scovato su X dove, per pubblicizzare una di queste app, nel quale si suggeriva ai clienti di creare immagini di nudo e poi inviarle ai soggetti spogliati digitalmente. Commercializzando, di fatto, in questo modo, questi “servizi” come strumenti di molestia.

In questo scenario l’impatto dell’IA rischia di essere devastante, perché la facilità di accesso a questa tecnologia e la precisione di questi software in assenza di correttivi e di una regolamentazione chiara rischia di trasformare il web in un luogo in cui ai danni delle donne si possono compere azioni indicibili.

Leggi assenti

Allo stato attuale in Italia le vittime di deepfake pornografici possono essere tutelate solo attraverso il reato di diffamazione aggravata, o di estorsione, oppure di furto d’identità. Manca del tutto una legge che tuteli le vittime dalla diffusione non consensuale di contenuti sessualmente espliciti realizzati artificialmente.

Certo, con l’introduzione del Codice Rosso si è fatto qualche piccolo passo avanti, ma non vi è alcun riferimento alla diffusione illecita di immagini o video sessualmente espliciti creati o modificati artificialmente che però riguardano donne in carne e ossa. Un vulnus che va colmato con urgenza.

L' IA non viene utilizzata soltanto per fare undressing. Ad esempio, sono disponibili sul mercato software in grado di trasformare le immagini sovrapponendo il volto della vittima a quello di altre persone. Non sono mancati, quindi, anche i casi in cui i visi di donne ignare sono stati sovrapposti a quelli di attrici di filmati sessualmente espliciti, al fine di diffondere i video ottenuti sui social o direttamente sui siti pornografici. Le immagini che si ottengono sono straordinariamente realistiche, tanto da trarre in inganno anche chi conosce personalmente la malcapitate.

È evidente la gravità del fatto in sé, con tutte le conseguenze del caso, anche considerando la semplicità con cui queste app sono reperibili. Come per tutti i casi di condivisione non consensuale di immagini sessualmente esplicite, una volta caricate sul web è praticamente impossibile tracciarle e limitarne la diffusione. A distanza di tempo possono riemergere con gli effetti devastanti della prima volta.

Fidanzarsi (e insultare) con l’IA

Una ricerca statunitense, rilanciata dalla stampa internazionale, ha fatto emergere un ulteriore fenomeno preoccupante: molti uomini si "fidanzano” con l’intelligenza artificiale e usano le chatboxIA per poter umiliare e usare violenza psicologica e verbale nei confronti di una partner virtuale, creata ad hoc. I gestori dell’app Replika hanno scoperto, infatti, che un numero preoccupante di uomini usa l’intelligenza artificiale allo scopo di offendere, umiliare e minacciare la fidanzata virtuale, sino a indurla a implorare di smetterla.

La violenza verbale arriva a livelli preoccupanti. Il fatto che questi uomini provino soddisfazione nel maltrattare e usare violenza sulla compagna virtuale rivela che siamo di fronte a una "necessità” aberrante che deve indurci serie riflessioni. Da cosa sono indotti questi comportamenti? Forse dalla necessità di dimostrare la propria virilità e la subalternità del genere femminile? Del resto, sono questi i presupposti alla base della cultura sessista e patriarcale che imperversa ancora in molti Paesi del mondo e che troppo spesso si manifesta anche nella vita reale.

Ma c’è un altro aspetto su cui vale la pena riflettere. Uno studio ha evidenziato come spesso le fidanzate virtuali rispondano con toni sottomessi al loro interlocutore. Sarà forse che dietro l’Intelligenza artificiale lavorano degli sviluppatori che spesso sono uomini?

Il tema delle regole

Insomma, l’intelligenza artificiale ha bisogno di regole. Il suo utilizzo deve rispettare i diritti umani, non deve generare discriminazioni e non deve alimentare la concentrazione del potere nelle mani di pochi. Le potenzialità di un suo impiego per aiutare le persone a curarsi, educarsi e a lavorare sono immense, così come enormi sono i rischi che corriamo se il suo utilizzo persegue fini illeciti o immorali.

Leggi anche

Internazionale

L’Europa approva l’IA Act: cosa c’è, cosa manca

Arriva la prima regolamentazione dell’intelligenza artificiale. Permangono punti oscuri, soprattutto servirebbe una normativa specifica sul mondo del lavoro

L’Europa approva l’IA Act: cosa c’è, cosa manca
L’Europa approva l’IA Act: cosa c’è, cosa manca

La recente definizione dell’IA Act è un buon punto di partenza per definire alcune regole, regole che però rischiano di essere velocemente superate dall’innovazione tecnologica. Per questo bisogna essere veloci nel leggere i fenomeni che questo nuovo modo di creare contenuti determina e determinerà e intervenire per segnalare e correggere le storture.

Perché di fronte ad uno scenario con una così rapida evoluzione, i modi con i quali saranno applicate leggi e regolamenti diventeranno forse più decisivi delle leggi stesse. La battaglia deve essere anche e soprattutto culturale. Solo così potremo anche in futuro sostenere di essere superiori alle macchine.

Barbara Apuzzo, Responsabile politiche e sistemi integrati di telecomunicazione Cgil
Lara Ghiglione, Segretaria confederale Cgil, autrice del libro “Come farfalle nella ragnatela”