“Nelle prossime settimane, Instagram inizierà a notificare ai genitori che utilizzano la supervisione se i loro figli adolescenti tentano ripetutamente di cercare termini correlati al suicidio o all’autolesionismo in un breve lasso di tempo. Questa è l’ultima protezione per gli Account Adolescenti e le funzionalità di supervisione parentale di Instagram”.

È con questo messaggio che nei giorni scorsi Instagram ha lanciato i suoi “Nuovi avvisi per far sapere ai genitori se i loro figli adolescenti hanno bisogno di supporto”.

Secondo quanto pubblicato dalla piattaforma social, a fronte di ricerche ripetute riguardanti termini che si riferiscono al suicidio o ad atti di autolesionismo, i genitori riceveranno una notifica via e-mail, SMS o WhatsApp, a seconda delle informazioni di contatto fornita, oltre che tramite il proprio account Instagram. Non tutti però.

Gli avvisi saranno inviati infatti solo ai genitori iscritti al programma di supervisione parentale di Instagram, a condizione, dunque, che i figli posseggano un Account Teenager. Ora, chi ha figli adolescenti e una qualche dimestichezza con il mondo digitale, sa che già in questo primo discrimine si cela il fallimento di questa misura.

Per aprire un account è infatti sufficiente indicare la propria data di nascita, ed è consuetudine tra gli adolescenti indicare un’età maggiore, proprio per non incappare in qualche forma di filtro o censura.

Per avere una qualche efficacia, dunque, lo scenario dovrebbe innanzitutto prevedere un’alfabetizzazione digitale avanzata e aggiornata da parte degli adulti, con specifiche skills riguardanti i social network. Questi, poi, dovrebbero attivare l’Account dei propri figli, indicando correttamente la loro età, per poi presidiarne l’attività (i cui rischi, lo ricordiamo, vanno anche oltre quelli sopracitati).

Ma anche così facendo, nulla impedirebbe ai ragazzini di aprire un secondo profilo, con una data di nascita diversa, e di bypassare dunque tutto quel percorso virtuoso appena citato. D’altronde, basta dare un’occhiata ai contenuti del Centro assistenza di Meta per averne prova.

Viene chiesta la conferma di aver compiuto almeno 13 anni e non in tutte le aree geografiche è previsto che possa essere richiesto un documento d’identità per accertare l’età (non in Italia, ad esempio). Come se non bastasse, è sufficiente fare un giro sul web per scovare decine di blog in cui gli utenti si scambiano trucchi e informazioni su come aggirare l’ostacolo.

Il tutto, mentre genitori ignari (nella maggior parte dei casi) dell’esistenza di tutte queste dinamiche, dovrebbero svolgere il ruolo di supervisori.

Aggiunge Meta inoltre: “Queste notifiche avviseranno i genitori se un adolescente tenta di intrattenere determinati tipi di conversazioni relative al suicidio o all'autolesionismo con la nostra IA". E qui c’è il secondo punto da mettere in evidenza, perché sembrerebbe che il provvedimento adottato da Meta più che essere nato per proteggere i minori, serva proprio per proteggere la Big Tech dai problemi legati all’introduzione dell’IA.

Sebbene infatti Meta spieghi che la propria intelligenza artificiale è già addestrata per rispondere in modo sicuro agli adolescenti e fornire risorse appropriate su argomenti potenzialmente pericolosi, la piattaforma è in questi giorni impegnata a difendersi in due processi negli Stati Uniti in cui viene accusata, seppur su tematiche diverse, di aver recato danni ai minori.

Il primo, in corso a Los Angeles riguarda l’accusa di creare deliberatamente dipendenza negli adolescenti. Il secondo, nel New Mexico, cerca di determinare se Meta abbia omesso di proteggere i bambini dallo sfruttamento sessuale sulle sue piattaforme.

Nel frattempo, cresce la lista dei Paesi che pensano di bandire l’utilizzo dei social sotto una certa soglia di età, e sono sempre di più le famiglie, i distretti scolastici e gli enti governativi, che stanno citando in giudizio Meta, sostenendo che progetta deliberatamente le sue piattaforme in modo da creare dipendenza e causando, in bambini e adolescenti, problemi che in un numero sempre crescente di casi portano a depressione, disturbi alimentari e persino al tentato suicidio.

A fronte di tutto questo, ecco dunque che l’idea dell’alert appare ai più smaliziati più come una foglia di fico, utile per nascondere la mancanza di volontà o forse l’incapacità di gestire un fenomeno che sembra essere sfuggito di mano.

Inoltre, quello che non viene preso in considerazione è il cosiddetto “displacement effect”, ovvero “l’effetto spostamento”. Il giovane utente, seppur monitorato, sarà sempre tendenzialmente più evoluto dal punto di vista digitale rispetto ai propri genitori.

Una volta (ri)conosciute le misure restrittive della piattaforma in uso, se disgraziatamente determinato ad effettuare ricerche su temi legati a forme di autolesionismo, si sposterà altrove. Questo è infatti l’aspetto più delicato della vicenda, che mette in luce l’inefficacia di una misura che non guarda al cuore del problema: il malessere del minore. Non è con restrizioni (tra l’altro facilmente aggirabili) che si risolve il problema.

E soprattutto, non è immaginabile che sia il mercato ad autoregolarsi, specialmente in circostanze così gravi, definendo strategie non coordinate con il decisore pubblico e con chi si occupa di salute pubblica. Analogamente, è inverosimile pensare di spostare sui genitori, con un semplice alert, il peso e la responsabilità di una esposizione dei minori a contenuti potenzialmente dannosi su cui, peraltro, non hanno alcun controllo.

Il punto vero è che quei contenuti non dovrebbero esserci. Punto. Lucrare su ambienti digitali ormai acclaratamente pericolosi per i più piccoli, scaricando la responsabilità del controllo e degli effetti sulle famiglie è dunque davvero surreale. Senza contare il fatto che esistono ulteriori rischi, legati alla privacy, che ruotano intorno a questa iniziativa.

Uno dei metodi che Meta sta testando per verificare l’età degli utenti riguarda la possibilità di registrare un video selfie, per far analizzare dall’IA di un fornitore terzo i dati biometrici raccolti (https://www.facebook.com/help/instagram/292521846402382/?helpref=uf_share). 

Anche in questo, caso Meta rassicura dicendo che “La tecnologia dei nostri fornitori stima soltanto l'età, non identifica persone specifiche” ma, visti i precedenti, e trattandosi di dati altamente sensibili, prudenza e norme a tutela degli utenti sono indispensabili.

Il punto, infatti, anche in questa vicenda, ruota sempre intorno allo stesso problema: vi è un’assoluta asimmetria nei rapporti di forza tra le grandi piattaforme e gli utenti. Un’asimmetria i cui effetti, le norme europee a tutela della privacy, riescono ancora, seppur flebilmente, in qualche circostanza a presidiare.

Quello che sembra essere invece sfuggito del tutto è il fatto che temi delicatissimi, come quelli che riguardano i minori e la loro salute, non possono essere contenuti dentro un recinto fatto di regole fai da te. Serve un lavoro organico e coordinato tra istituzioni, organismi di vigilanza e Big Tech.

Serve la volontà politica di creare ambienti digitali più sicuri. Trovando il modo di orientare le scelte delle grandi piattaforme in questa direzione. L’avvento dell’IA rappresenta in questo senso un’opportunità ma anche un grande pericolo, se non correttamente indirizzata.

E poi serve cultura digitale. Perché saper utilizzare uno strumento non sempre corrisponde alla comprensione di quelli che possono essere i rischi ad esso collegati. Questo andrebbe insegnato ai più piccoli, già dalle scuole medie. Ma andrebbe insegnato, insieme al rispetto, anche e soprattutto ai più grandi, con i quali condivideranno spazi fisici e digitali. È questa la forma di responsabilità che ci si deve aspettare da loro.

Barbara Apuzzo, Responsabile Politiche e sistemi integrati di telecomunicazioni Cgil nazionale

Leggi anche