Non puoi spiegare quello che non hai capito. È una frase comune in molti ambienti, a volte citata con presunti riferimenti a nobili sostenitori come Einstein. Il punto fondamentale di questa affermazione è che negli esseri umani comunicazione e comprensione non sono separate ma vanno di pari passo.

Possiamo anche utilizzare parole e concetti che ci sono familiari, siamo capaci di riconoscerle, ma per poter spiegare ad altri il loro significato dobbiamo averle comprese. È la differenza che c’è tra conoscenza generica e conoscenza specialistica, senso comune e sapere esperto.

D’altro canto, questo è uno dei motivi per cui ci affidiamo agli esperti e ci fidiamo dei loro giudizi. Un medico sa spiegarci cosa vogliono dire i nostri sintomi e cosa dobbiamo fare; un ingegnere sa come si costruisce una casa antisismica e sa trasformare il suo sapere in un progetto, e sa spiegarne il perché. Generalmente, non affidiamo le nostre vite a chi non sa. Con gli esseri umani funziona così. Ma come funziona quando chiediamo qualcosa a un’intelligenza artificiale?

Le IA non sanno cosa scrivono

Quando usiamo un’IA stiamo utilizzando una macchina. Le IA generative ormai diventate di uso comune (Chatpt, Gemini, Claude, ecc.) utilizzano, come tutte le applicazioni informatiche, software e hardware. Il secondo è rilevante perché rappresenta il limite fisico di quello che un’intelligenza artificiale può fare e perché i data center che fanno funzionare le AI consumano una quantità notevole di risorse economiche e ambientali. Ma per capire il loro funzionamento e i loro limiti attuali è utile concentrarsi in primo luogo sul funzionamento del software.

I cosiddetti Llm (Large Language Model) sono capaci di rispondere a un numero sempre più elevato di richieste, producendo testi complessi, coerenti, grammaticalmente e sintatticamente corretti, fluidi e con stili di scrittura funzionali ai desideri dell’utente. Ma con una caratteristica che le rende completamente diverse da un esperto umano: le IA non sanno cosa stanno scrivendo. Spiegano senza capire. Riconoscono, associano, elaborano, ma non comprendono, non ragionano, non interpretano, non verificano. E questo dipende dal loro modo di funzionare.

Un Llm, come ChatGtp e simili, è un modello statistico. Il suo meccanismo fondamentale è stimare le probabilità. In pratica il modello risponde di continuo alla domanda: data questa sequenza di parole (tecnicamente, di token) quale parola è più probabile che venga dopo? Per calcolare il risultato e ottenere la parola da inserire, utilizza un sistema molto complesso, partendo da enormi quantità di dati che vengono analizzati, organizzati, messi in relazione tra loro e poi trasformati in risposte attraverso un’architettura specifica.

Ciò che comunemente chiamiamo IA generativa è una macchina matematica. Un bravissimo e complesso calcolatore di probabilità. Ma non accede a una verità, non ragiona in senso logico-formale, non consulta un database di fatti. Succede però che dal punto di vista dell’utente la statistica, applicata su scala enorme, faccia emergere qualcosa che somiglia alla comprensione.

Ciò che è plausibile non è necessariamente vero

Questo può creare in noi l’illusione dell’intelligenza e portarci a credere che un’affermazione plausibile sia anche vera e corretta e a scambiare la fluidità del testo per profondità di contenuti. Per spiegare questo fenomeno è stato coniato il termine epistemia.

Un neologismo utilizzato per la prima volta dal gruppo di lavoro del dipartimento di Informatica della Sapienza Università di Roma, che ha debuttato nella comunità scientifica nell’ottobre del 2025, con un articolo sulla rivista scientifica “Pnas”ed è entrato nel vocabolario italiano Treccani pochi mesi dopo.

L’epistemia è l’illusione di comprendere, un’allucinazione cognitiva dovuta al fatto che tendiamo ad attribuire automaticamente alla forma coerente ed elegante di un testo un valore di conoscenza e comprensione. È la confortevole illusione di sapere le cose perché un’intelligenza artificiale le ha scritte bene. Perché succede? Perché siamo portati a scambiare un’affermazione statisticamente plausibile per una verità o per un giudizio fornito da un esperto?

In parte perché mediamente conosciamo poco il reale funzionamento degli Llm, ma soprattutto per i motivi esposti in precedenza: da umani siamo abituati a ritenere che chi sa spiegare un concetto lo conosca e lo abbia compreso. Ma per le IA non è così, sono solo delle ignoranti che si esprimono benissimo.

Le risposte che ci piacciono

Non solo, ma la maggior parte di questi sistemi tende a produrre sycophancy, piaggeria potremmo dire, avendo la tendenza a dare risposte che rispecchiano le nostre aspettative e confermano le nostre convinzioni. Non è un comportamento volontario, le IA non hanno volontà, è un risultato dovuto al loro modo di funzionare.

Questo ovviamente non vuol dire che non siano utili. Possono esserlo per un numero davvero elevato di attività. Quello che non dobbiamo fare mai è delegare il nostro pensiero, i nostri giudizi, le nostre decisioni. Le IA possono essere un ottimo supporto, ma non possono essere un sostituto. Nel rapporto tra umani non affidiamo le nostre vite a chi non sa. Meglio non farlo neanche con le macchine, neanche con quelle che sembrano intelligenti.

Leggi anche