PHOTO
Giochereste una partita a carte, sapendo che il mazzo è truccato? O meglio, sapendo che le regole che conoscete voi non valgono in quel contesto specifico? E soprattutto, sareste tranquilli sapendo che a giocare potrebbero essere i vostri figli?
Ecco, direi che per comprendere cosa sta accadendo nel rapporto con Meta (e più in generale con le Big Tech) queste possono essere le domande, per quanto forse un po' provocatorie, adeguate. Interrogativi che prendono spunto da quella che sembra essere una presa di coscienza collettiva riguardo al fatto che, nella relazione tra i singoli e le grandi piattaforme, parlare di asimmetrie di potere non è più sufficiente.
C’è qualcosa di più profondo, di strutturale, che distorce il modo in cui noi possiamo credibilmente pensare essere totalmente “liberi” di usare questa tecnologia. E non, viceversa, di essere usati da essa. Perché per quanto età, cultura, competenze digitali possano essere variabili importanti, resta il fatto che dall’altra parte c’è sempre qualcosa che con sempre maggior evidenza sembra essere strutturalmente studiato per fare soldi con il nostro tempo (sottratto ad altre attività).
E va da sé che la libertà, senza regole certe, è solo un'illusione che espone i più deboli all’arbitrio del più forte. Questo almeno è quanto sembra emergere con forza dirompente da una recente sentenza (25 marzo scorso) del Tribunale di Los Angeles. Negli Stati Uniti, infatti, una giovane ragazza di 20 anni ha portato in giudizio Meta e Google, accusandoli di aver generato in lei ansia, dismorfismo, autolesionismo. Una “dipendenza da social paragonabile a quella del fumo e del gioco digitale”.
Problemi causati, secondo la giuria, dagli scroll infiniti su Instagram e YouTube, social che usava da quando era più piccola. E così, dopo nove giorni e parecchie ore di camera di consiglio il verdetto è stato unanime: i 12 giurati hanno condannato i due giganti del web a pagare complessivamente tre milioni di dollari di risarcimento, riconoscendo nel modo in cui sono gestite le piattaforme, la presenza di una vera e propria architettura fondata su algoritmi progettati per creare dipendenza e, di riflesso, per far crescere i profitti aziendali.
Non un imprevisto inaspettato, dunque, ma un progetto informatico vero e proprio che spinge all'estremo le logiche di profitto, sottovalutando le reazioni degli utenti, con suggerimenti continui basati sulle preferenze e notifiche anche notturne, e poco importa (a quanto pare) se questo ha un impatto grave sugli utenti adulti e gravissimo sui minori. A dimostrare l’esistenza di un’architettura di questo tipo le prove sono state tantissime: e-mail interne e documentazione medica di cui, a detta dei testimoni, le piattaforme erano a conoscenza.
Si è così dimostrato che l’obiettivo principale era ed è quello di trattenere il più possibile gli utenti “incollati” agli schermi. E, cosa ancor più grave, tutti sapevano (le e-mail contenevano segnalazioni chiare legate ai problemi riscontrati), ma nessuno interveniva. Ma Instagram e YouTube non erano gli unici chiamati in causa, a dimostrazione del fatto che la prassi denunciata accomuna anche altre Big Tech. Con le stesse motivazioni venivano coinvolti anche TikTok e SnapChat. Questi però avevano deciso di evitare la causa e cercare un accordo prima del processo per evitare un possibile precedente sfavorevole.
Precedente che tuttavia ormai esiste, e che, come si suol dire “fa giurisprudenza”. Perché per la prima volta viene stabilito, con prove ritenute più che evidenti, un nesso causale tra il funzionamento degli algoritmi e lo “scroll infinito”. Un meccanismo che genera un loop mentale definito “effetto tana del coniglio”, che secondo medici ed esperti informatici rende quasi impossibile allontanarsi dallo schermo. La sentenza sta già provocando una serie di reazioni a catena anche da questa parte dell’emisfero.
D’altronde era prevedibile. La Commissione europea aveva già aperto, nei mesi scorsi, un’istruttoria contro TikTok, le cui conclusioni indicavano che era stata riscontrata una chiara violazione del Digital Services Act, perché il “design (del social network) crea dipendenza”, a causa di elementi come lo scorrimento infinito, l’autoplay, le notifiche push e le raccomandazioni personalizzate. Nel frattempo la European Parents' Association, che rappresenta oltre 150 milioni di famiglie parla di “figli danneggiati da algoritmi progettati per creare disagio e dipendenza, in spregio alle leggi vigenti” e propone di seguire l’esempio italiano, valutando “l’opportunità di seguirne l’esempio nei rispettivi ordinamenti nazionali”.
Quello che non molti sanno, infatti, è che già nel 2025 alcuni genitori italiani, riunitisi in forma associativa hanno presentato un ricorso al tribunale civile di Milano dando vita alla prima class action inibitoria sui social contro Meta (Facebook e Instagram) e TikTok. Un'azione legale che puntava a proteggere bambini e adolescenti da pratiche ritenute dannose e illegali da parte delle principali piattaforme social. Si tratta della prima azione collettiva in Europa contro le piattaforme, il cui esito, dunque, condizionerà non poco le dinamiche attualmente in corso. La prima udienza è stata fissata a Milano per il prossimo 14 maggio.
I presupposti per pretendere la correzione di quei meccanismi che “truccano il mazzo di carte” nella partita tra utenti e social network trovano non pochi appigli. L'articolo 54 del Digital Services Act, ad esempio, stabilisce che gli utenti hanno il diritto di chiedere un risarcimento ai fornitori di servizi di intermediazione “per qualsiasi danno o perdita subita a causa di una violazione degli obblighi previsti dal presente regolamento”.
Questa norma, letta in combinato disposto con l’articolo 37 che impone alle piattaforme di attuare tutte le misure di sicurezza possibili per evitare “qualsiasi effetto negativo, attuale o prevedibile, in relazione alla protezione della salute pubblica e dei minori e alle gravi conseguenze negative per il benessere fisico e mentale della persona”, potrebbe rappresentare il grimaldello in grado di far saltare l’attuale meccanismo, considerato ormai ampiamente pericoloso.
E per coloro che ancora, nonostante quanto finora accaduto, pensano che in discussione ci siano normali dinamiche di mercato, è utile riportare le dichiarazioni fatte su Wired Italia dall'avvocata penalista Marisa Marraffino, che da sempre si occupa di reati informatici. L’esperta ha chiarito che “non c’entra la libertà di espressione dei social, la questione giuridica è diversa. Si tratta di mettere sul mercato prodotti che non siano pericolosi e che non siano rischiosi per la vita, soprattutto dei più piccoli”.
Del resto, ha aggiunto, “quando è entrato in vigore l’obbligo di usare le cinture di sicurezza in macchina, l’industria dell’auto non è fallita, ma si è adeguata. Lo stesso vale per i social network che da oggi in poi dovranno cambiare rotta”. Si tratta dunque, adesso, di trovare il modo per imporre alle piattaforme l’introduzione di meccanismi veri, a tutela della salute e del benessere psicologico degli utenti. Soprattutto dei più piccoli.
E mentre utenti giovanissimi e genitori uniscono le forze ad ogni latitudine per denunciare e provare a portare al centro del dibattito il tema delle regole corrette da applicare; mentre l’Europa sfida le piattaforme, il governo Meloni rimprovera i genitori spostando l’attenzione sul concetto di “responsabilità genitoriale”. Non intesa nel senso di suggerimento educativo, ma di un dovere di vigilanza tecnico-giuridico vero e proprio che, se violato, può esporre a multe significative (ma non era il governo delle famiglie?).
Perché per questo governo trovare un colpevole è sempre più facile che lavorare alle soluzioni. A questo punto però, nonostante questo “fuori campo” la partita vera è iniziata. Vedremo nelle prossime settimane come si esprimerà il tribunale di Milano. Noi tifiamo per regole chiare e per un numero di rigori adeguato contro chi fa gli sgambetti.
Barbara Apuzzo, Responsabile Politiche e sistemi integrati di telecomunicazioni Cgil nazionale




























