
di Walter Quattrociocchi
Riportiamo qui una terza serie di considerazioni di Walter Quattrociocchi (Professore Ordinario di Informatica presso l’Università di Roma La Sapienza, dove dirige il Center for Data Science and Complexity for Society), fondamentali per demistificare il discorso sull’Ai, al centro di immensi interessi economici che puntano a colonizzare anche la scuola.
Per le altre riflessioni cfr.
https://nostrascuola.blog/2025/08/26/intelligenza-artificiale-chatgpt-e-large-language-model-alcuni-chiarimenti-fondamentali/
https://nostrascuola.blog/2025/09/04/llm-large-language-models-chatgpt-gemini-ecc-come-funzionano-davvero-parte-2/
***
C’è un’illusione diffusa — e sempre più redditizia — secondo cui i modelli linguistici “spieghino le cose”. Non importa quali. Filosofia, fisica quantistica, diritto comparato o la tua relazione con tua madre (o tua nonna). Basta scrivere una domanda, e il modello ti risponde con frasi chiare, ben strutturate, plausibili. Il problema è che sembri capirci qualcosa anche quando non ci capisci nulla. E che il modello ti asseconda in quel momento preciso in cui ti servirebbe l’esatto contrario.
Un LLM non è una mente, non è una sorgente di conoscenza, non è un motore di verità. È un sistema statistico per la predizione del prossimo token, addestrato su quantità immense di testo, ottimizzato per generare sequenze fluenti che suonino bene. Nient’altro. Non possiede concetti, non ha un’idea del mondo, non opera per verifica, non è dotato di senso critico, non sa distinguere una teoria da un’opinione né una contraddizione da una variazione stilistica. Il suo compito è campionare parole a partire da un prompt, pescando all’interno di uno spazio di embedding che rappresenta, in forma compressa, le relazioni statistiche tra stringhe testuali. Il modello non sceglie parole perché “ha capito” — le sceglie perché in fase di addestramento quelle sequenze risultavano più probabili in quel tipo di contesto.
Nessuna epifania. Solo regressione su una distribuzione. Finché il task è semplice, vicino a quanto già visto, l’output è passabile (ma va sempre preso con le pinze). Se gli chiedi di scrivere un’email cortese, riassumere un testo breve, elencare i premi Nobel, produrre codice base, il sistema opera in zone ad alta densità nello spazio semantico. Ha abbastanza esempi simili nel training set da potersi muovere per interpolazione, sempre però riassemblando, non capendo. Ma appena esci da questi territori — appena chiedi un confronto teorico, una valutazione critica, una spiegazione strutturata di concetti che si collocano fuori da cluster densi — lo spazio si svuota. Si perde pure il supporto della densità statistica che già di suo non è garanzia di affidabilità.
L’output diventa una simulazione di coerenza, una linea di linguaggio tracciata in territori dove il modello ha poca o nessuna esperienza. Ma il tono resta identico: fluente, ordinato, autorevole. Non c’è un segnale d’allarme. Non c’è un freno interno. Il modello è costruito per rispondere sempre. Anche quando non sa — cioè sempre. E tu non hai modo di saperlo. Non hai accesso alla distribuzione da cui ha campionato. Non sai se la risposta che hai ricevuto è rappresentativa o un outlier verbale. Se ripeti il prompt, l’output cambia. A volte dice il contrario. Ma la forma resta impeccabile. E tu confondi la forma per sostanza (anzi se sei pop-filosofo o dotto-immaginario sono proprio la stessa cosa). Perché non hai strumenti per distinguere un’asserzione sensata da una ben formulata.
Il sistema non è ergodico: ciò che ti mostra in una realizzazione non riflette la sua distribuzione complessiva. Tu vedi una frase singola, ma il comportamento del modello è un processo stocastico ad altissima varianza. Il problema non è che sbaglia. È che non segnala quando sbaglia, e tu non hai modo di accorgertene se non conoscevi già la risposta. Se fai due prompt simili, ma con toni diversi, la risposta sarà diversa.
Non è affidabile.
Ed è qui che emerge il rischio cognitivo vero, quello di seconda generazione. Il modello non ti fornisce solo errori grossolani facili da correggere. Ti fornisce spiegazioni plausibili. Ed è esattamente lì che ti frega. Perché se non hai una mappa mentale autonoma, un quadro concettuale costruito con pazienza, verifica, confronto e dubbi, allora l’output del modello ti sembra verosimile. Ma solo perché ti manca il criterio per valutarlo. Il LLM diventa, di fatto, un moltiplicatore della tua ignoranza. Ti impacchetta un’illusione ben formattata. Non ti dà conoscenza, ma qualcosa che la imita bene abbastanza da passare il filtro superficiale del tuo senso comune. E nel momento in cui inizi a usarlo per colmare le tue lacune, sei un dotto immaginario con abduzione debole e mente estesa (modo elegante per qualificare la sciatteria).
È il trionfo dell’epistemia: la coincidenza apparente tra linguaggio ben fatto e conoscenza affidabile. L’errore più diffuso è prendere un LLM per quello che non è. Se lo usi come fosse Google, sbagli. Google ti mostra fonti. ChatGPT ti dà sintesi accozzate in base a come le parole appaiono più frequentemente insieme. Ma non sai da dove vengono, con che criterio sono state fatte, e soprattutto non sai cosa manca. E se non sai cosa manca, tutto ti sembra completo. Se lo usi per “farti spiegare le cose”, peggio ancora.
Non è un professore paziente, non è uno studioso sintetico, non è un collega più sveglio. È un motore statistico ad alta risoluzione, addestrato per ripetere in modo nuovo quello che altri hanno già scritto. Con l’aggravante che tu non sei in grado di capire se quello che dice è reale, distorto o completamente inventato. Lo usi per cercare chiarezza, e ottieni un testo che sembra chiaro. Ma la chiarezza è nel linguaggio, non nella struttura. Ti fidi del tono. Ti rassicura la sintassi. Ma sotto, se guardi bene, non c’è niente. È qui che casca l’imbecille. Non quello che usa l’LLM. Quello che lo consulta al posto del pensiero. Quello che “chiede per capire”, ma non ha nessun filtro per decidere se la risposta è sensata. Quello che fa prompt sempre più raffinati credendo che il modello “ci arrivi”, mentre sta solo migliorando la confezione dell’errore. Quello che parla come se avesse studiato, ma ha solo chiesto a una macchina di suonare esperta al posto suo.
Un LLM, per definizione, non può colmare lacune. Può solo restituirti una media pesata di tutto quello che è già stato detto su un tema simile, senza alcun controllo sulla validità dei dati, né sulle contraddizioni tra i pezzi. E se tu quella lacuna ce l’hai, allora ti stai affidando a una macchina cieca, con voce sicura, per orientarti in un territorio che non conosci. È un suicidio intellettuale in differita.
Un LLM è un generatore di linguaggio, non una fonte di conoscenza. È uno specchio probabilistico: riflette quello che già sai. Se non sei una cima, lo specchio riflette quello. E se non sai nulla, riflette il vuoto. Bene. Ma pur sempre vuoto.
