Dalla scuola della Costituzione alla scuola del capitalismo

di Edoardo Puglielli

Da Luigi Berlinguer a Valditara la politica scolastica è sempre la stessa. Draghi sostiene che «i sistemi di istruzione e formazione devono essere resi più reattivi ai cambiamenti del mercato del lavoro. La revisione dei programmi di studio, con il coinvolgimento di datori di lavoro e altre parti interessate, risulta fondamentale per adattare l’offerta formativa alle esigenze individuate dalla skills intelligence» (cfr. https://www.orizzontescuola.it/sistema-istruzione-europeo-in-declino-rapporto-draghi-solo-l8-degli-studenti-ue-ha-alte-competenze-in-matematica-ecco-cosa-fare/).

Una vecchia storia, iniziata con la pubblicazione del “Libro bianco” del 1993, dove si sosteneva l’indiscutibile necessità del modello di istruzione/educazione per la competitività. Da quel momento hanno fatto irruzione nel dibattito di politica scolastica e poi nelle circolari, nelle norme e nelle varie indicazioni parole come autonomina didattica e organizzativa, programmazione e progettazione, kompetenze e orientamento, “apprendimenti”, “apprendere ad apprendere”, learning by doing, comunità educante, offerta didattica, individualizzazione, formazione continua, ecc…, fino alle odierne edutainment, easy learning, apprendimento gamificato, ecc. 

Il processo è stato sostenuto da una folta schiera di pedagogisti, didattisti e tecnologi dell’educazione impegnati a teorizzare modelli di integrazione che di fatto trasformano sempre più la pedagogia in ancella dell’economia di mercato e della razionalità neoliberale. La scuola pubblica, da questa prospettiva, non deve essere più scuola della Costituzione democratica postbellica – deputata all’alfabetizzazione alle culture disciplinari, alla trasmissione di conoscenza in vista della conquista di una certa autonomia culturale, alla formazione di un’opinione pubblica autonoma e critica, alla selezione (fondata sul merito e non sulla classe sociale di appartenenza) per la produzione di élite pubbliche, dirigenti pubblici e quadri sociali pubblici (capaci cioè di agire per l’interesse pubblico, non privato) – ma scuola della “inclusione subalterna” (A. Sayad): tutti devono essere inclusi nell’unico orizzonte del “realismo capitalista” (M. Fisher).

Ha ricordato Luciano Gallino:

«A partire dagli anni Ottanta, quando si delinea la crisi del capitalismo che i politici e il “partito di Davos” cercheranno di contrastare con la finanziarizzazione dell’intera economia […] l’attacco alla scuola […] è stato condotto dai governi e dalle istituzioni della Ue a colpi di riforme, aventi come principio ispiratore la trasformazione di esse in organizzazioni del tutto simili a un’impresa. Per legittimare una simile trasformazione sono stati utilizzati lo spauracchio della perdita di competitività nei confronti dei paesi emergenti; la necessità di difendere e migliorare la posizione del proprio paese negli scambi internazionali; e non da ultimo l’urgenza di combattere la disoccupazione. L’intero sistema, scuola e università, doveva essere ristrutturato come un’impresa che crea e accumula “capitale umano” […], un sistema la cui finalità non consiste affatto nel formare cittadini o ricercatori o studiosi, ma è piuttosto quella di formare individui che sin dagli inizi della loro formazione […] si concepiscano come “imprenditori di se stessi” […], che si pongano come supremo principio da seguire la produzione in se stessi di “competenze” utili ad accrescere il Pil» [L.Gallino, “Il denaro, il debito e la doppia crisi spiegati ai nostri nipoti”].

Il modello dell’istruzione/educazione per la competitività voluto dalle classi dirigenti europee è finalizzato alla formazione di “capitale umano”, funzionale e necessario agli sviluppi della “accumulazione capitalistica flessibile” (D. Harvey). Questo significa che l’istruzione per la competitività è il modello educativo di un regime produttivo fondato sulla delocalizzazione, sulla polverizzazione dei diritti AL lavoro e DEL lavoro, su politiche salariali deflattive, sul lavoro intermittente e a basso valore aggiunto.

Non a caso, il modello dell’istruzione per la competitività viene introdotto in Italia insieme alla precarizzazione del lavoro (1997) con l’autonomia scolastica (1997-1999). L’autonomia scolastica altro non è che la piena integrazione della scuola nel capitalismo: nella sua logica, nelle sue dinamiche riproduttive, nei suoi obiettivi. È la scuola deputata alla formazione del capitale umano, dotato delle kompetenze basilari richieste dall’organizzazione flessibile della forza-lavoro precaria, competitiva e sottopagata. È la scuola che da organo costituzionale (P. Calamandrei) si ristruttura in agenzia formativa per l’occupabilità e la competitività.

Secondo il paradigma della “occupabilità” e della competitività l’obiettivo della scuola pubblica non deve essere più l’inclusione in un curriculum di studi intellettualmente organico e rigoroso, grazie al quale conquistare livelli culturali superiori, apprendere un lavoro (specifico o generale), sviluppare la formazione della cittadinanza democratica, ma una socializzazione/pedagogizzazione delle masse da realizzarsi lungo tre assi:

l’asse delle competenze deculturalizzate, finalizzato all’assimilazione di pacchetti di nozioni basilari per poter affrontare di volta in volta le situazioni mutevoli determinate dall’organizzazione flessibile del lavoro precario: del resto, i futuri lavoratori dovranno essere permanentemente “occupabili”, non stabilmente occupati; e dovranno continuamente acquisire (acquistare) “saperi ad uso e smaltimento istantaneo” (Z. Bauman) sul mercato della formazione continua e permanente, anche se tale formazione continua e permanente non porterà mai a nessuna stabilità economica e a nessuna realizzazione lavorativa e personale, anche se tale formazione permanente porterà, il più delle volte, a impieghi ancor più precari e casuali e ancor meno retribuiti.

Con la scuola delle competenze si realizza – forse per la prima volta nella storia moderna – la divaricazione fra istruzione e cultura: si può studiare anche per 8-13 anni e alla fine non conoscere niente della realtà;

l’asse delle “educazioni” (alla raccolta differenziata, all’ambiente, contro le dipendenze, contro la ludopatia, alla salute, alla sessualità, alla cittadinanza digitale, all’affettività, al codice stradale, ecc. ecc.), attraverso cui diffondere la convinzione e l’ideologia che la soluzione delle patologie e delle contraddizioni sociali risieda nella “educazione”; i nessi sussistenti tra dinamica produttiva, trasformazione e deregolamentazione delle istituzioni e cultura dominante sono di fatto occultati (se le multinazionali promuovono nelle scuole l’educazione ambientale qualche problema ci sarà, o no?);

l’asse della “pedagogizzazione delle masse”, il cui obiettivo – neanche troppo nascosto – è l’inclusione universale nella razionalità neoliberale e l’interiorizzazione di una morale che vuole convincere gli individui che la creazione di posti di lavoro dipenda dalla decisione degli individui di acquisire continuamente competenze e di attivarsi permanentemente per cercare un lavoro; una morale che, per conseguenza, colloca i fallimenti individuali non in una organizzazione riproduttiva incapace di garantire occupazione, stabilità e sviluppo personale per tutti, ma nell’individuo non sufficientemente “formato” e dunque non sufficientemente “meritevole” di accedere ad una qualche forma di sicurezza occupazionale ed economica (di qui l’ideologia della “meritocrazia”) e ad una realizzazione personale, scaricando così direttamente sulle spalle degli individui il peso (la “colpa”) della loro condizione di disoccupazione o precarietà.

La scuola dell’autonomia è la scuola meno democratica della storia dell’Italia repubblicana: è la scuola che trasforma gli studenti in clienti di competenze e che riduce i docenti a operatori didattici (se non addirittura a motivatori, facilitatori, animatori, “coreografi dell’apprendimento”, ecc.).

Chi continua a sostenere che per democratizzare la scuola pubblica c’è ancora bisogno di “riforme”, di formazione dei docenti, di innovazioni didattiche, ecc…, forse non ha capito che la scuola pubblica democratica era la scuola pre-autonomia, conquistata con la Costituzione antifascista e poi edificata grazie alle lotte di classe degli anni 50-70 (è stata quella l’unica scuola che ha realmente consentito un miglioramento delle condizioni materiali e un innalzamento delle condizioni culturali di tanti cittadini); forse non ha ancora capito che la scuola pubblica va oggi de-riformata (così Tomaso Montanari); forse non ha ancora capito che l’odierna scuola pubblica rischia di diventare sempre più scuola della post-democrazia (C. Crouch).

Non è difficile prevedere che, in assenza di una radicale inversione di marcia, la scuola pubblica finirà per essere la scuola di chi non ha alternative, ovvero la scuola di chi non potrà comperarsi (o indebitarsi per accedere a) una istruzione privata di qualità (la stessa qualità che la scuola pre-autonomia garantiva gratuitamente a tutti).

Lettera ai colleghi sul digitale

di Maria Elena Bertoli

Salve a tutte le colleghe e i colleghi. Solo una riflessione legata agli innumerevoli corsi sul digitale che vengono proposti oggi agli insegnanti nella scuola. A mio avviso siamo in presenza di una sorta di reductio ad unum per cui tutte le dimensioni dell’attività educativa vengono riportate sotto il cappello del digitale, che si dà per scontato possa risolvere tutti i problemi e debba dunque essere usato a tutto campo e in ogni direzione. Ma il fatto è che, in questi corsi, non si tratta solo di imparare l’uso di strumenti che sarebbero neutri. Si tratta di adottare sistemi complessi e dalle molteplici implicazioni, che vanno a impattare fortemente sulle nostre vite, sulla società e sul mondo.

La digitalizzazione a tappe forzate a scuola pare oggi assumere i contorni di una fede, di un dogma. Non è infatti per niente provato che digitalizzare tutti gli aspetti dell’attività educativa possa migliorarli; non solo non è dimostrato, ma soprattutto non è discusso. Sappiamo che col digitale spinto e con l’intelligenza artificiale siamo in presenza di una vera e propria trasformazione antropologica, ancora tutta da valutare e rispetto alla quale la scuola potrebbe e dovrebbe costituire uno spazio di riflessione, di valutazione e di elaborazione di strumenti sociologici, psicologici e ancor di più antropologici e filosofici per considerare in modo profondo, affrontare ed eventualmente attutire l’impatto di certi processi sulle nostre vite e anche per immaginare strade alternative. Perché no? Siamo fatalisti e pensiamo che i processi umani e sociali, come la digitalizzazione, siano ineluttabili?

Ma c’è tutto questo nella scuola? Mi pare di no. Mi pare di vedere un acritico profluvio di proposte digital-pedagogiche ma non vedo una riflessione filosofica e antropologica seria sul senso e sugli impatti che il digitale ha nei processi cognitivi, educativi e sociali. Si suppone infatti, per fede, che l’impatto non possa essere che positivo. Tanto è vero che si tende a pensare che, per ciò che attiene al processo di digitalizzazione, nella scuola come in altri ambiti, si possano saltare i passaggi decisionali democratici.

La scuola è uno spazio appetibile perché è ampio, perché coinvolge tutti, perché va a impattare sui più giovani. Sta a noi custodirlo, nel modo più intelligente e più saggio che possiamo, prima di tutto prendendo consapevolezza dei processi, dei poteri, degli indirizzi, delle implicazioni, delle spinte molto forti e cercando di vedere se queste sono compatibili con la qualità e la profondità della cultura che vogliamo trasmettere ed elaborare con i nostri studenti.

Sta dunque a noi riflettere, studiare queste dinamiche tecnologiche e sociali nella loro profondità e diventarne sempre più consapevoli. Questo perché il nostro compito educativo non sia strumentalizzato per altri fini e piegato in direzioni che non vorremmo.

Epistemia

di Walter Quattrociocchi

Riportiamo qui altre riflessioni di Walter Quattrociocchi, professore ordinario di Informatica presso l’università di Roma “La Sapienza”, a proposito di intelligenza artificiale, Large Language Model (Chatgpt, Gemini ecc.) e illusione di conoscenza.

Il problema non è se i modelli “pensano” (non lo fanno). È come giudicano.

Da mesi il dibattito sull’intelligenza artificiale si incaglia sempre nello stesso vicolo cieco: coscienza, intenzionalità, mente estesa. Domande facili da evocare, ma affrontate a botte di pensiero circolare, (de)ragliamenti logici e finti paper su Nature che però non lo sono. Il risultato è pop-filosofia da aspiranti luminari con un tocco newage (i.e., molto fumo, poca analisi), ma con grossi problemi nella costruzione di argomenti.

Le cose sono mediamente più semplici e più concrete in realtà. Un LLM può arrivare alla stessa risposta di un essere umano, ma seguendo processi completamente diversi. E se cambia il processo, cambia il significato del risultato. Un dado truccato può darti sempre “sei”, ma non ha mai capito cosa significa vincere. Né possiamo dire che faccia abduzione per questo.

Gli LLM funzionano così, ormai lo sappiamo: producono testi coerenti non perché capiscono, ma perché ottimizzano correlazioni statistiche. Cercano solo la plausibilità linguistica. Ed ogni cosa che viene costruita sopra si porta dietro questo. Significa banalmente che per un LLM esiste solo il criterio linguistico (la forma). Quello epistemico (il senso) non c’è. Ed è qui che nasce e continua ostinatamente il vero problema.

Quando scambiamo coerenza per conoscenza, stiamo scambiando una simulazione per un giudizio fondato. Per decisioni si intende anche come impostare la chiave di lettura di un pezzo che ci facciamo sintetizzare e riassumere. Quando il genio (autoproclamato) e incompreso (ma che non ha molti strumenti) dice che si è fatto spiegare l’articolo da un LLM sta delegando ciecamente l’interpretazione. Si sente potenziato e redento dalla mediocrità, ma nella realtà s’è fatto mezzo e recipiente di un operato che porta e intesse tutto su pattern linguistici.

Per farla facile, la storia della mente estesa con gli LLM è bacata, perché se deleghiamo decisioni a un meccanismo che sembra ragionare come noi ma usa regole diverse e non operazionalizza l’affidabilità, costruiamo un’illusione di affidabilità che non regge alla prova dei fatti.

Non serve più chiedersi se i modelli “pensano”. Serve chiedersi:– quali criteri usano per giudicare?– quanto coincidono con quelli umani?– cosa accade quando divergono? La partita non è metafisica, è epistemica. Ripeto, la questione non riguarda la coscienza delle macchine, ma la nostra capacità di riconoscere quando un sistema funziona senza capire nulla.

***

Piccola riflessione a margine

Noto che si sta diffondendo un uso interessante degli LLM. Forse anche per colpa del marketing che li posiziona come abilitanti oltre la semplice produzione linguistica.
L’utilizzo degli stessi come interfaccia per i motori di ricerca è un forte indicatore del processo.
Che succede?
Quando non si capisce un testo, si chiede al modello di “spiegarlo”.
La spiegazione suona chiara e convincente, e questa chiarezza viene scambiata per comprensione. Ma non è affatto detto che l’output coincida con ciò che si pensa.
I modelli linguistici non capiscono ciò che producono.
Generano frasi plausibili dal punto di vista statistico, non significati costruiti.

Non verificano la coerenza, non tengono una visione d’insieme, non fanno inferenze sul mondo.
L’output sembra comprensione, ma non lo è.
In questo modo la fatica di capire viene vista come un problema ingiusto, e delegare diventa “liberazione”.
Peccato che, ignorando la natura degli LLM e, di conseguenza, dell’output, si perda di vista che ciò che si ottiene non è conoscenza.
Difficile poi vedere in questo processo inclusione, apprendimento o un atto di resistenza intellettuale.
Forse è più un modo per evitare il contatto con la realtà.

***

Comincia a emergere la vera pervasività dell’epistemia, quella condizione in cui la plausibilità sostituisce la verifica, e l’illusione di sapere prende il posto della conoscenza. Negli ultimi giorni sono emersi due casi emblematici: un giornalista che pubblica un articolo lasciando dentro la frase del prompt di ChatGPT e un report di Deloitte Australia, commissionato dal governo per quasi trecentomila dollari, con citazioni e riferimenti inventati da GPT-4. E non parliamo di studenti o hobbisti, ma di professionisti e consulenti. Segno che la deriva non è più marginale: è sistemica.

Quando uno vi dice che lui fa ricerca con ChatGpt in realtà sta dicendo che delega le sue lacune con un attrezzo che non sa come funziona. Abbiamo delegato il giudizio a un motore statistico del linguaggio, scambiando la coerenza di un testo per la verità di un contenuto. È questo il cuore dell’epistemia: la confusione tra consistenza linguistica e verità epistemica. Quando non hai competenze e ti illudi che un modello le possa colmare, non stai innovando: stai semplicemente rinunciando a capire.

Come sempre, la realtà è inesorabile. Le supercazzole reggono finché non incontrano un dato, un errore, un fatto che le frantuma […]: i modelli linguistici possono imitare il giudizio umano in superficie, ma seguendo logiche radicalmente diverse.Non è intelligenza. È la simulazione del giudizio. E la differenza, oggi, è tutto.Non dite che non lo sapevate.

La truffa dell’Ai scolastica: una petizione e una sito/bibliografia essenziale

È indispensabile demistficare l’idea che l’ “intelligenza artificiale” proprietaria – un simulatore di linguaggio che non “pensa” ma mette insieme delle frasi su base probabilistica, in modo da produrre un effetto di verosimiglianza che prende il posto della conoscenza – possa essere utilizzata a scuola al posto del dialogo, degli insegnamenti umani e della relazione intergenerazionale, come strumento scolastico fondamentale per la “personalizzazione degli apprendimenti” (cfr. https://nostrascuola.blog/2025/07/22/personalizzare-lapprendimento-con-lai-mistificazioni-e-distopie/).

Segnaliamo in proposito l’importante petizione elaborata da informatici esperti del digitale libero, che si sono occupati a lungo della questione: https://iabasta.ghost.io/primo-appello/ (all’interno della petizione anche una mozione contro l’invasione dell’Ai proprietaria nella didattica, da presentare nei collegi docenti).

In sintesi: mentre docenti universitari di Informatica (Quattrociocchi, Nardelli) e veri esperti mettono in guardia sulla natura, le caratteristiche e gli effetti dell’Ai, i piazzisti della “formazione” e del marketing scolastico, insieme a burocrati e aziende ben incistati nel sistema, manifestano un entusiasmo più che sospetto di fronte al nuovo prodotto, che sarebbe uno strumento da introdurre senza se e senza ma nella didattica. Chi avrà ragione? E chi interesse a mistificare?
Qui una breve biblio/sitografia:

1) (Quattrociocchi) https://www.corriere.it/tecnologia/25_luglio_23/l-inganno-perfetto-dell-intelligenza-artificiale-scrive-bene-ma-non-sa-nulla-fb94a79f-efb9-413f-a642-d82cda9e4xlk.shtml

2) (Nardelli) https://link-and-think.blogspot.com/2024/01/il-ciclone-chatgpt-e-la-scuola-5-punti-chiave.html?m=1

3) (Nardelli) https://link-and-think.blogspot.com/2023/11/intelligenza-artificiale-e-scuola-facciamo-chiarezza.html?m=1

4) (Quattrociocchi) https://nostrascuola.blog/2025/08/26/intelligenza-artificiale-chatgpt-e-large-language-model-alcuni-chiarimenti-fondamentali/

5) (Tafani) https://centroriformastato.it/le-big-tech-e-il-racconto-dellintelligenza-artificiale/

6) (Borroni Barale) https://altreconomia.it/provaci-ancora-sam-come-altman-e-i-suoi-techbros-ci-stanno-portando-verso-il-collasso/

7) (Nardelli) https://www.startmag.it/innovazione/la-sbobba-dellia-generativa/

8) https://www.linkiesta.it/2025/07/erorri-allucinazioni-intelligenza-artificiale-linguaggio-chatgpt/

9) (Nardelli) https://www.startmag.it/innovazione/tutti-i-nodi-dellia-vengono-al-pettine/

10) (Tafani) https://m.youtube.com/watch?v=4Z0ROjJDx7U

11) (Quattrociocchi) https://nostrascuola.blog/2025/09/18/intelligenza-artificiale-e-large-language-model-3-lillusione-della-conoscenza/

Gli insegnanti, gli studenti, la conoscenza

I

Qualche considerazione a margine del grido liberatorio di Valentina Petri, che rompe la crosta del conformismo e dell’istupidimento collettivo necessario alla commercializzazione di una “formazione” e di un’ “innovazione” fatte di ignoranza e di vuoto (cfr. https://nostrascuola.blog/2025/09/21/formazione-senza-cultura-una-riflessione-di-valentina-petri/ ).

Le metodologie didattiche richiedono come premessa la padronanza e la conoscenza approfondita dei contenuti disciplinari; non possono essere disincarnate ma sono legate a discipline, contenuti, finalità particolari. Su questa fondamentale base si impianta la capacità di stabilire un dialogo educativo con le persone in crescita, di entrare in relazione attraverso il lavoro sulle conoscenze, in quello che è lo stile personale di insegnamento. In questo senso, per un bambino o un adolescente una disciplina prende davvero il volto di chi gliela insegna.

Così il filosofo dell’educazione Gert Biesta, in Riscoprire l’insegnamento:

«Il punto principale che desidero sottolineare è che il linguaggio dell’apprendimento non basta a descrivere il processo educativo.
[…] Nella sua formulazione più essenziale il problema sta nel fatto che lo scopo dell’insegnamento, e dell’educazione in generale, non è mai che gli studenti imparino “semplicemente”, ma che imparino qualcosa, che lo imparino per ragioni particolari e che lo imparino da qualcuno.
Il linguaggio dell’apprendimento si riferisce a processi che restano aperti o vuoti, per quanto riguarda il loro contenuto e il loro scopo. Dire semplicemente che i bambini dovrebbero apprendere o che gli insegnanti dovrebbero facilitare l’apprendimento o che tutti dovremmo essere ‘lifelong learners’ significa poco o nulla» (Gert J.J. Biesta, Riscoprire l’insegnamento, Milano, Cortina, 2022, pp.40-41).

Oggi occorre ricordare l’ovvio, e cioè che è molto diverso insegnare matematica ai bambini della primaria, letteratura agli studenti delle scuole medie, fisica o storia alle superiori. Il che cosa e il come si insegna sono inseparabili: non c’è una metodologia universalmente valida e indipendente dal percorso della conoscenza, dalla personalità di chi vi è coinvolto, dalla qualità della relazione e dai contenuti su cui si intende lavorare. Il sapere stesso non è mai un’acquisizione definitiva, nemmeno per gli insegnanti, ma un processo aperto, fatto di studio e scoperte culturali concrete e incessanti, che continua anche in classe insieme agli studenti. Mentre insegna l’insegnante continua a imparare: una conoscenza ripensata insieme alla classe prende un altro aspetto rispetto a quello che aveva prima che si entrasse in aula.

Occorre insomma una sintesi tra contenuti disciplinari sempre da riscoprire (solo la proposta di conoscenze autentiche, vive e di prima mano riesce a coinvolgere e a interessare i giovanissimi), esperienze e riflessioni altrui sull’insegnamento (quelle che poi diventano idee e proposte metodologiche) e la propria fondamentale esperienza (grande assente nei discorsi sulla scuola, come se gli insegnanti fossero una tabula rasa da “riaddestrare” ogni volta da zero); questa sintesi, che è la base dello stile personale di insegnamento, ogni insegnante deve compierla in sé e calarla nell’interazione mai uguale a se stessa con persone in crescita e classi diversissime tra loro. Per questo le ricette burocratizzate e di quarta mano dei “formatori” – che portano lontano dalla realtà, dal dialogo educativo, da ogni autentica istanza culturale e conoscitiva – sono quasi sempre inutili o dannose, tanto più se si presentano come assolute e definitive.

***

II

Anche nel caso in cui non la si condivida – soprattutto nel suo senso letterale – bisognerebbe riflettere a fondo sulla frase di Don Milani che in Lettera a una professoressa scrive che l’insegnante è una persona che non ha interessi culturali al di fuori dell’insegnamento.

L’interpretazione di questa frase è tutt’altro che semplice: nella sua forza paradossale non può essere ridotta a una banale sottovalutazione dell’importanza della cultura (non da noi almeno, ammesso che il Priore di Barbiana intendesse proprio questo), a un’assurda squalifica degli interessi culturali, a vantaggio di un ipotetico “fare” didattico privo di retroterra.

In realtà ogni insegnante sa che la cultura è confronto, condivisione e continuo dialogo: con se stessi, con chi ci trasmette la propria conoscenza e visione dell’esistente attraverso la scrittura, anche a distanza di secoli, con chi ci insegna qualcosa o impara da noi faccia a faccia; non può esistere una cultura autistica, che non produca frutti di pensiero, che non voglia essere comunicata, che non voglia prolungare se stessa – in forme imprevedibili a priori – anche nella mente di altre persone. Ecco, la classe è il luogo privilegiato in cui le conoscenze non solo vengono trasmesse, ma prendono forme nuove sotto i nostri occhi: mentre insegna ai propri studenti, entrando in contatto con la loro irriducibile singolarità e con la ‘mente collettiva’ della classe, l’insegnante via via scopre cose che lui stesso non sapeva, o non sapeva di sapere; e le sue conoscenze prendono nuova vita, un nuovo senso, una nuova finalità che a sua volta lo spinge a coltivarle più a fondo. In questo circolo virtuoso del pensiero, insegnanti e studenti, pur nella differenza dei ruoli e con un livello di consapevolezza culturale molto diverso, elaborano insieme qualcosa che non esisteva prima del loro incontro.

Per questo chi insegna è pago di quello che fa in classe con i propri studenti, e non cerca altro (ad esempio forme di “carriera” o di potere): lavorando sulle conoscenze insieme alla classe non fa che rielaborarle e attualizzarle anche per sé; mentre gli studenti, a loro volta, vengono a contatto con qualcosa di cui spesso non sospettavano nemmeno l’esistenza. È un percorso che arricchisce tutti e fa bene a tutti.

***

III

Confesso l’orribile verità: invece di compilare solo moduli e griglie cerco di continuare a leggere e a studiare, per avere qualcosa di interessante da dire in classe (e perché, lo dico sottovoce, quello che studio e insegno mi appassiona). Spero di riuscire, nonostante questo, a mantenere il posto da insegnante.

Certo, qualcuno potrebbe chiedermi: perché perdi tempo con un libro di cinquant’anni fa come Il romanzo del Novecento, di Giacomo Debenedetti (raccolta di quaderni di appunti per cinque anni di lezioni universitarie, dal ’60 al ’66), invece di fare corsi sul metaverso, sull’ “intelligenza artificiale”, sulla “valutazione educativa”? Beh, ad esempio perché Debenedetti in due sole pagine riesce 1) a spiegare con straordinaria chiarezza qual è il cuore concettuale della psicoanalisi; 2) a mostrare le sue applicazioni nelle discipline antropologiche e allo studio delle manifestazioni culturali della vita dei popoli; 3) a connetterlo all’interpretazione del romanzo Con gli occhi chiusi di Federigo Tozzi. Se fa tutto questo in due pagine, ci si può immaginare cosa possa fare nelle settecento totali che compongono il libro, che sono tutte così: come quando spiega la differenza tra un vero romanziere, che riesce a dare un senso di necessità e di destino alle vicende che racconta, e un grande scrittore che però non è un narratore, come Pasternak, che compie dei salti di trama arbitrari e inspiegabili, per legare tra loro i momenti lirici che davvero gli interessano; e connette (Debenedetti) questo procedimento all’antideterminismo della fisica contemporanea per quanto riguarda il movimento delle particelle atomiche.

Altro che l’interdisciplinarità tutta astratta e svuotata di cultura dei burocrati travestiti da pedagogisti: Debenedetti, dai lontani anni ’60, ce li fa apparire ancora di più come dei chiacchieroni incapaci di pensiero e dei ripetitori di formule vuote e stantie; quello che in effetti sono.

***

IV

Fa quasi male sentire ancora qualcuno di un’associazione un tempo nobile come MCE, magari in buona fede, che dice che a scuola si parla troppo di saperi e poco di metodologie.

La considerazione ovvia che viene da fare è che separare le metodologie da ciò che concretamente si vuole insegnare le riduce a pure astrazioni, ma non c’è solo questo; è che per i saperi disciplinari, per il lavoro comune su conoscenze significative – che sono poi risposte a domande di senso e tentativi di dare un ordine alla realtà, così importanti per le persone in crescita – passano la relazione e il dialogo educativo tra studenti e insegnanti, che altrimenti cade nel vuoto (o in quella finta intimità tautologica e statica del “come state?” “Bene”, nella quale gli studenti non si aprono affatto). E il dialogo, come dice Francesco Di Bartolo (https://rivista.clionet.it/vol7/introduzione-al-dossier-2/), non è una metodologia ma un’attitudine, il sentire chi si ha di fronte, la capacità di entrare in contatto con l’altro e la disponibilità a pensare insieme.

Se li si prende sul serio, gli si fa capire che si tiene a loro e che voler insegnare loro qualcosa di importante è una forma di affetto e di attenzione, gli studenti rispondono.

***

V

Noi tendiamo a sopravvalutare la libertà della nostra vita psichica, diceva Freud.
In effetti i contenuti inconsci emergono quando possono e devono, non quando vogliamo noi.

Dante non dice qualcosa di troppo diverso, sia pure attraverso il mito religioso del peccato originale, che con il suo peso impedirebbe l’esercizio del libero arbitrio: si sale quando si può, quando c’è luce, la luce della grazia; quando invece fa buio è inutile insistere negli sforzi pure meritevoli che ti hanno portato fino a un certo punto. Bisogna fermarsi, stare attenti semmai a non scendere troppo e aspettare il ritorno del sole:

Com’ è ciò?”, fu risposto. “Chi volesse
salir di notte, fora elli impedito
d’altrui, o non sarria ché non potesse?”.

E’l buon Sordello in terra fregò ‘l dito,
dicendo: “Vedi? sola questa riga
non varcheresti dopo ‘l sol partito:

non però ch’altra cosa desse briga,
che la notturna tenebra, ad ir suso;
quella col nonpoder la voglia intriga.

Ben si poria con lei tornare in giuso
e passeggiar la costa intorno errando,
mentre che l’orizzonte il dì tien chiuso”.


Ecco, quando parliamo di queste cose, inaspettatamente i nostri studenti si fanno attentissimi; molto di più di quando pensiamo di rincorrerli a vuoto e senza passare per il pensiero sul terreno dei “nativi digitali”, immaginando un loro presunto interesse per l’ “intelligenza artificiale” e simili (in realtà quella che a noi sembra una novità entusiasmante, per loro è spesso la banale e ripetitiva realtà quotidiana, che ha un puro valore strumentale). Quando insomma recitiamo malissimo la parte di quelli vicini ai giovani e dei “contemporanei” (secondo la definizione di una dirigente “illuminata” e ignorantella) anziché mostrarci agli studenti come persone a tutto tondo, che hanno approfondito alcuni campi della conoscenza, su cui hanno qualcosa da dire, e ne parlano con loro, prendendoli sul serio.

***

VI

Cos’hanno in comune Sherlock Holmes (o meglio Conan Doyle), Sigmund Freud e l’esperto d’arte Giovanni Morelli? Tutti e tre, oltre a essere in qualche modo legati tra loro (Freud ad esempio, nel Mosè di Michelangelo, confessa il debito della psicoanalisi verso Morelli, e tutti e tre non a caso erano medici), tra la fine dell’800 e l’inizio del ‘900 utilizzano un metodo che si basa sull’esame di segni e tracce minime, che sfuggono alla comune attenzione, per risolvere un “caso”, per cogliere le manifestazioni dell’inconscio, per attribuire un’opera alla mano di un pittore, che si rivela non nelle caratteristiche più evidenti (imitate alla perfezione dai falsari) ma nei dettagli a cui nessuno pensa: il modo in cui inconsapevolmente il pittore tratteggia il padiglione auricolare, le unghie, i riccioli…

Ma questo “paradigma indiziario”, nello stupefacente percorso a ritroso, tra storia e antropologia, che Carlo Ginzburg ricostruisce nel saggio “Spie” (oggi in Miti emblemi spie. Morfologia e storia, Milano, Adelphi, 2023), rivela radici profonde e remotissime: dalla storiografia, dall’antiquaria e dalla medicina ippocratica alla divinazione e alla mantica fino all’abilità dei cacciatori preistorici nel cogliere le minime tracce sul terreno, abilità di cui si trovano ancora gli echi in alcune tradizioni fiabesche.

L’argomentazione di Ginzburg ci porta a comprendere come e perché ancora oggi le “scienze umane” che si fondano sul paradigma indiziario (la storia, la psicoanalisi, in un certo senso la stessa medicina) non possano assumere i metodi delle “scienze dure”: le loro indagini non possono portare a generalizzazioni che non implichino un rapporto sempre da stabilire tra conoscenze pregresse e casi individuali. Questo è anche il motivo per cui chi tenta di ridurre le scienze umane a puri dati quantitativi, quantificabili e standardizzabili, perde di vista il “più proprio” qualitativo che le caratterizza (e di riduzionismi di questo genere, sia detto en passant, nel dibattito sulla scuola ne vediamo tanti).

Questa è la succinta sintesi di uno solo dei saggi di questo strepitoso “corso di formazione” al costo di poche decine di euro, che richiede solo la pazienza di capire. Adeguatamente mediato dall’ “intelligenza naturale” dell’insegnante, potrebbe essere molto interessante anche per gli studenti.

***

VII

E mentre si punta a tagliare un anno di scuola negli istituti tecnici e professionali, avendo cura di far iniziare l’addestramento già dai quattordici anni, con i rappresentanti delle aziende a “insegnare” nelle scuole; mentre i dirigenti-promoter più o meno prezzolati ti spiegano quant’è meravigliosa l’ “intelligenza artificiale”, quanto loro sono innovatori e che bisogna “cambiare”, tu cominci a correggere parola per parola il primo elaborato di una studentessa di prima che conosce poco l’italiano e che dice di voler fare il medico. Ci riusciremo, piccolé.

La scuola, la formazione professionale e la “professionalizzazione”


Riprendiamo un altro brano del fondamentale lavoro di Laval, Vergne, Clement, Dreux, La nuova scuola capitalista, che mostra chiaramente come la “professionalizzazione” con cui si vorrebbero sostituire la scuola e l’istruzione non abbia nulla a che vedere con una vera formazione professionale.

«Un tratto caratteristico dell’evoluzione dei sistemi di formazione consiste in un generale processo di “professionalizzazione”, processo che va nettamente distinto dallo sviluppo della formazione professionale.

Contrariamente a quanto si dice, professionalizzazione dell’istruzione non significa estensione della “formazione professionale”. Il cambiamento non dipende neanche da una semplice imitazione del mondo del lavoro, anche se un discorso costante e di lunga durata continua a sostenere il collegamento sistematico tra istruzione e impiego.

Senza dubbio continua la tradizionale critica all’istruzione di non preparare abbastanza i giovani all’integrazione sociale e professionale; ma le trasformazioni in atto non si limitano al vecchio problema dei datori di lavoro di adeguare i titoli di studio ai posti di lavoro. Il mondo dell’istruzione è ora travolto e avvolto da un processo che sta ridefinendo luoghi, soggetti, metodi di apprendimento e obiettivi. È proprio l’intero spazio istituzionale del sistema educativo, con le sue divisioni tradizionali, che ne risulta profondamente trasformato.

Nel sistema educativo francese la formazione della forza lavoro è stata concepita e organizzata negli anni Ottanta secondo un modello dominante caratterizzato dalla scolarizzazione della formazione professionale, che com’è noto in pochi decenni ha prodotto un notevole
incremento dei livelli di formazione e di qualificazione (cfr. Vergne 2001). La formazione professionale scolastica è stata un’estensione della formazione generale pur rimanendo distinta da essa. L’obiettivo era principalmente fornire agli studenti una qualificazione corrispondente a un diploma riconosciuto a livello nazionale e nella maggior parte dei contratti collettivi dei comparti di lavoro. Così concepita, la formazione professionale sanciva la padronanza dei saperi e delle abilità caratteristiche e costitutive di determinate professioni o, più in generale, campi professionali, che offriva una garanzia istituzionalizzata di un posto nella divisione tecnica e sociale del lavoro. È proprio questo sistema complessivo istituito dopo il 1945 che oggi è messo radicalmente in discussione.

[…] La riorganizzazione del sistema formativo secondo il paradigma della professionalizzazione è una risposta a obiettivi diversi dalla formazione professionale, i cui principi abbiamo appena ricordato. La formazione cosiddetta “professionalizzante” mira innanzitutto a sviluppare competenze e attitudini che siano direttamente trasferibili all’intera organizzazione “flessibile” del lavoro. Essa relativizza o, meglio, ri-formatta i saperi e i saper fare legati alla cultura delle professioni, sottoponendoli a una nuova logica di acquisizione di un comportamento normalizzato, ritenuto comune a tutte le professioni, a tutte le situazioni di apprendimento e di lavoro e a tutte le condizioni ibride che caratterizzano oggi la transizione dalla formazione al lavoro. La formazione professionalizzante incentrata sullo sviluppo di competenze interdisciplinari prepara, anticipa e si unisce al lavoro-professionalizzante, che mira a sviluppare la flessibilità dei lavoratori e il riciclo permanente della loro capacità produttiva. Di più, è alla costruzione di una nuova soggettività che lavorano i nuovi modelli formativi, preparando mentalmente i giovani alla necessità di gestire individualmente il proprio bagaglio di competenze e al continuo riadattamento a nuovi contesti produttivi e organizzativi in perenne cambiamento.

[…] Le norme di occupabilità su “comportamento”, “mentalità”, buone disposizioni e intenzioni consentono ormai di trasformare esplicitamente la scuola in un luogo di produzione di soggettività docili, flessibili, adattabili e reattive, come richiedono le imprese. […] L’imposizione di un nuovo modello di condotta interamente finalizzata alla logica dell’occupabilità, cioè alla ricerca delle migliori condizioni per allocare forza lavoro in un mercato altamente competitivo e per la sua utilizzazione ottimale da parte dell’impresa, tende a mettere fuori gioco le funzioni tradizionali della formazione professionale. La giusta misura della professionalizzazione non si limita più al grado di rispondenza di un insieme di qualifiche a un lavoro, essa viene ora misurata dalle “qualità umane”, che riguardano i rapporti con la gerarchia, il grado di motivazione e soprattutto il rapporto tra un certo tipo di soggettività (il gusto per il “successo”, la necessità di “correre”, la capacità di “superarsi”, ecc.) e la modalità altamente individualizzata del “management della performance”».

C.Laval, F.Vergne, P.Clément, G.Dreux, La nuova scuola capitalista, Napoli, Suor Orsola Benincasa Università Editrice, 2025, pp.131-136 [passim]

“Formazione” senza cultura? Una riflessione di Valentina Petri


Riportiamo qui una splendida riflessione dell’insegnante e scrittrice Valentina Petri, sempre capace di raccontare la scuola con profondità e leggerezza

Guardo i titoli dei corsi di formazione per docenti e mi viene lo sconforto. Metodologie didattiche, intelligenza artificiale, agenda 2030, cose in inglese che non so cosa sono… Tutto bello, nobile e necessario. Li faccio, giuro.
Ma io vorrei studiare. Io vorrei tornare ad ascoltare delle belle lezioni come quando ero all’università. Io vorrei essere obbligata a sentire non gente che mi dice come dovrei insegnare, ma gente che mi spiega cose che non ho mai approfondito, aspetti di un’opera, autori che nel mio percorso ho incontrato solo per quel tanto che bastava. Vorrei studiare di nuovo, con calma e profondamente, le Operette morali, anche quelle che non mi ricordo più, il Paradiso, anche quei canti che a furia di non farli sfumano. Vorrei trenta ore non per sentirmi dire che i kahoot sono divertenti e le escape room grammaticali immersive, ma per ascoltare qualcuno che mi incanti come quando avevo vent’anni. Voglio, che ne so, un corso sulle poete del Novecento, voglio un corso su dieci novelle di Boccaccio o qualcuno che mi faccia approfondire Gaspara Stampa. Voglio un modulo su Pasolini, voglio trenta ore su Montale e un corso monografico su Sibilla Aleramo. Voglio studiare la mia materia, quella che devo insegnare, e certo che posso farlo anche a casa, restando aggiornata e blablabla, ma il bello di andare a lezione è andare a lezione, a sentire delle lezioni belle di qualcuno che ha studiato più di me e tornare a casa piena di appunti e libri da leggere e idee per lezioni fichissime e percorsi che posso affrontare nelle mie classi. Perché più studio, meglio insegno. Invece più mi rompete le palle, più sono stanca, peggio insegno.
E bon.

“Intelligenza artificiale” e Large Language Model, 3. L’illusione della conoscenza


di Walter Quattrociocchi

Riportiamo qui una terza serie di considerazioni di Walter Quattrociocchi (Professore Ordinario di Informatica presso l’Università di Roma La Sapienza, dove dirige il Center for Data Science and Complexity for Society), fondamentali per demistificare il discorso sull’Ai, al centro di immensi interessi economici che puntano a colonizzare anche la scuola.

Per le altre riflessioni cfr. 

https://nostrascuola.blog/2025/08/26/intelligenza-artificiale-chatgpt-e-large-language-model-alcuni-chiarimenti-fondamentali/

https://nostrascuola.blog/2025/09/04/llm-large-language-models-chatgpt-gemini-ecc-come-funzionano-davvero-parte-2/

***


C’è un’illusione diffusa — e sempre più redditizia — secondo cui i modelli linguistici “spieghino le cose”. Non importa quali. Filosofia, fisica quantistica, diritto comparato o la tua relazione con tua madre (o tua nonna). Basta scrivere una domanda, e il modello ti risponde con frasi chiare, ben strutturate, plausibili. Il problema è che sembri capirci qualcosa anche quando non ci capisci nulla. E che il modello ti asseconda in quel momento preciso in cui ti servirebbe l’esatto contrario.

Un LLM non è una mente, non è una sorgente di conoscenza, non è un motore di verità. È un sistema statistico per la predizione del prossimo token, addestrato su quantità immense di testo, ottimizzato per generare sequenze fluenti che suonino bene. Nient’altro. Non possiede concetti, non ha un’idea del mondo, non opera per verifica, non è dotato di senso critico, non sa distinguere una teoria da un’opinione né una contraddizione da una variazione stilistica. Il suo compito è campionare parole a partire da un prompt, pescando all’interno di uno spazio di embedding che rappresenta, in forma compressa, le relazioni statistiche tra stringhe testuali. Il modello non sceglie parole perché “ha capito” — le sceglie perché in fase di addestramento quelle sequenze risultavano più probabili in quel tipo di contesto.

Nessuna epifania. Solo regressione su una distribuzione. Finché il task è semplice, vicino a quanto già visto, l’output è passabile (ma va sempre preso con le pinze). Se gli chiedi di scrivere un’email cortese, riassumere un testo breve, elencare i premi Nobel, produrre codice base, il sistema opera in zone ad alta densità nello spazio semantico. Ha abbastanza esempi simili nel training set da potersi muovere per interpolazione, sempre però riassemblando, non capendo. Ma appena esci da questi territori — appena chiedi un confronto teorico, una valutazione critica, una spiegazione strutturata di concetti che si collocano fuori da cluster densi — lo spazio si svuota. Si perde pure il supporto della densità statistica che già di suo non è garanzia di affidabilità.

L’output diventa una simulazione di coerenza, una linea di linguaggio tracciata in territori dove il modello ha poca o nessuna esperienza. Ma il tono resta identico: fluente, ordinato, autorevole. Non c’è un segnale d’allarme. Non c’è un freno interno. Il modello è costruito per rispondere sempre. Anche quando non sa — cioè sempre. E tu non hai modo di saperlo. Non hai accesso alla distribuzione da cui ha campionato. Non sai se la risposta che hai ricevuto è rappresentativa o un outlier verbale. Se ripeti il prompt, l’output cambia. A volte dice il contrario. Ma la forma resta impeccabile. E tu confondi la forma per sostanza (anzi se sei pop-filosofo o dotto-immaginario sono proprio la stessa cosa). Perché non hai strumenti per distinguere un’asserzione sensata da una ben formulata.

Il sistema non è ergodico: ciò che ti mostra in una realizzazione non riflette la sua distribuzione complessiva. Tu vedi una frase singola, ma il comportamento del modello è un processo stocastico ad altissima varianza. Il problema non è che sbaglia. È che non segnala quando sbaglia, e tu non hai modo di accorgertene se non conoscevi già la risposta. Se fai due prompt simili, ma con toni diversi, la risposta sarà diversa.


Non è affidabile.
Ed è qui che emerge il rischio cognitivo vero, quello di seconda generazione. Il modello non ti fornisce solo errori grossolani facili da correggere. Ti fornisce spiegazioni plausibili. Ed è esattamente lì che ti frega. Perché se non hai una mappa mentale autonoma, un quadro concettuale costruito con pazienza, verifica, confronto e dubbi, allora l’output del modello ti sembra verosimile. Ma solo perché ti manca il criterio per valutarlo. Il LLM diventa, di fatto, un moltiplicatore della tua ignoranza. Ti impacchetta un’illusione ben formattata. Non ti dà conoscenza, ma qualcosa che la imita bene abbastanza da passare il filtro superficiale del tuo senso comune. E nel momento in cui inizi a usarlo per colmare le tue lacune, sei un dotto immaginario con abduzione debole e mente estesa (modo elegante per qualificare la sciatteria).

È il trionfo dell’epistemia: la coincidenza apparente tra linguaggio ben fatto e conoscenza affidabile. L’errore più diffuso è prendere un LLM per quello che non è. Se lo usi come fosse Google, sbagli. Google ti mostra fonti. ChatGPT ti dà sintesi accozzate in base a come le parole appaiono più frequentemente insieme. Ma non sai da dove vengono, con che criterio sono state fatte, e soprattutto non sai cosa manca. E se non sai cosa manca, tutto ti sembra completo. Se lo usi per “farti spiegare le cose”, peggio ancora.

Non è un professore paziente, non è uno studioso sintetico, non è un collega più sveglio. È un motore statistico ad alta risoluzione, addestrato per ripetere in modo nuovo quello che altri hanno già scritto. Con l’aggravante che tu non sei in grado di capire se quello che dice è reale, distorto o completamente inventato. Lo usi per cercare chiarezza, e ottieni un testo che sembra chiaro. Ma la chiarezza è nel linguaggio, non nella struttura. Ti fidi del tono. Ti rassicura la sintassi. Ma sotto, se guardi bene, non c’è niente. È qui che casca l’imbecille. Non quello che usa l’LLM. Quello che lo consulta al posto del pensiero. Quello che “chiede per capire”, ma non ha nessun filtro per decidere se la risposta è sensata. Quello che fa prompt sempre più raffinati credendo che il modello “ci arrivi”, mentre sta solo migliorando la confezione dell’errore. Quello che parla come se avesse studiato, ma ha solo chiesto a una macchina di suonare esperta al posto suo.

Un LLM, per definizione, non può colmare lacune. Può solo restituirti una media pesata di tutto quello che è già stato detto su un tema simile, senza alcun controllo sulla validità dei dati, né sulle contraddizioni tra i pezzi. E se tu quella lacuna ce l’hai, allora ti stai affidando a una macchina cieca, con voce sicura, per orientarti in un territorio che non conosci. È un suicidio intellettuale in differita.
Un LLM è un generatore di linguaggio, non una fonte di conoscenza. È uno specchio probabilistico: riflette quello che già sai. Se non sei una cima, lo specchio riflette quello. E se non sai nulla, riflette il vuoto. Bene. Ma pur sempre vuoto.

LLM (Large Language Models): ChatGpt, Gemini ecc. Come funzionano davvero, parte 2

di Walter Quattrociocchi

Riportiamo qui altre considerazioni di Walter Quattrociocchi, Professore Ordinario di Informatica presso l’Università di Roma La Sapienza, dove dirige il Center for Data Science and Complexity for Society. Si tratta di puntualizzazioni preziose ora che, per ragioni che evidentemente non hanno nulla a che fare con la validità didattica ed educativa, si è messo in moto il circo del marketing per la “vendita” dell’Ai alla scuola (e viceversa).

Per la prima serie di riflessioni, cfr.
https://nostrascuola.blog/2025/08/26/intelligenza-artificiale-chatgpt-e-large-language-model-alcuni-chiarimenti-fondamentali/


***
Embedding – I computer non capiscono parole, elaborano numeri. Per questo ogni parola viene trasformata in un elenco di numeri chiamato vettore. Se due parole compaiono spesso nello stesso contesto (“gatto” e “cane”), i loro vettori saranno vicini; se non compaiono mai insieme (“gatto” e “trattore”), saranno lontani. È una mappa statistica, non un dizionario di significati. Nessun concetto, solo distanze in uno spazio di numeri.

Tokenizzazione – Il modello non legge il testo come facciamo noi. Spezza le frasi in piccoli pezzi chiamati token. A volte una parola è un token intero, altre volte viene spezzata: “incredibile” può diventare “in”, “credi”, “bile”. Il modello lavora solo con questi pezzi, non con concetti o frasi intere. Non c’è un “pensiero” sotto: solo pezzi da ricomporre.

Positional Encoding – Perché l’ordine delle parole non si perda, a ogni token viene aggiunta un’informazione sulla sua posizione nella frase. È così che il modello distingue tra “l’uomo morde il cane” e “il cane morde l’uomo”. Non è grammatica: è solo un trucco matematico per non confondere l’ordine. Coordinate, non regole sintattiche.

Fine-tuning e RLHF – Dopo l’addestramento di base, il modello viene “educato” con dati più mirati o con istruzioni di esseri umani (RLHF = Reinforcement Learning with Human Feedback). Qui gli umani dicono: “questa risposta va bene, questa no”. È così che il modello impara a rispondere in modo più chiaro e cortese, ma resta statistica, non personalità. Premi e punizioni, non comprensione.

Context window – Un modello non ricorda all’infinito. Ha una “finestra di contesto” che stabilisce quante parole può considerare alla volta. Se è troppo piccola, dimentica l’inizio della conversazione. Oggi i modelli più avanzati hanno finestre molto ampie e possono “tenere a mente” testi enormi in un’unica volta. Ma sempre con memoria a breve termine: finita la finestra, sparisce tutto.

Prompt engineering – Dare istruzioni chiare migliora le risposte. Non perché il modello “capisca”, ma perché guidi meglio la scelta delle parole. Domanda confusa = risposta confusa. Niente magia: solo input più mirati.

Decoding – Dopo aver calcolato la probabilità di ogni parola possibile, il modello deve sceglierne una.

Greedy decoding: prende sempre quella più probabile → testo corretto ma noioso.

Sampling: pesca a caso seguendo le probabilità → più varietà, ma rischia di dire sciocchezze.

Beam search: valuta più frasi in parallelo e sceglie la migliore → più lento ma di qualità. Non c’è ispirazione: solo diverse strategie di scelta.

Temperature e top-k – Sono le “manopole dello stile”.
Temperature regola la creatività: bassa = frasi prevedibili, alta = frasi fantasiose (a volte troppo).
Top-k dice al modello: “considera solo le k parole più probabili”.

Tutto qui: numeri, probabilità, un po’ di informatica. Tantissimi dati e tanta potenza di calcolo.
Niente coscienza. Niente magia. Niente filosofia dei termosifoni.

***

Una piccola nota di chiarimento per i tanti dotti immaginari (che teneri) che ti spiegano con la sicurezza di chi non sa di non sapere. Li vedi disquisire di LLM con l’aria di chi svela misteri, ma spesso inciampano su concetti elementari di meccanica statistica, ottimizzazione e teoria dell’informazione. Quando mancano le basi — distribuzioni, spazi vettoriali, concentrazione della misura — ogni metafora sembra un’epifania e ogni output un atto di coscienza. Non solo umanisti, sia ben chiaro. (Non è un caso che mi sto battendo per potenziare di molto nei curricula di informatica su quel fronte). Il corso di Laurea di cui sono preside porta in sé sta cosa in maniera molto importante.
Perchè è lì che nascono le leggende: “l’IA pensa”, “Mente Estesa”, “l’IA capisce”, “l’IA ragiona per abduzione debole”, “Intelligenza Aliena”. Dall’ignoranza di chi si pone come intermediario tra tecnologia e società senza capire davvero quello di cui parla. Il paradosso è che l’ignoranza fa pensare di essere profondi. Ma provare a fare metafore, senza aver capito l’oggetto, è un esercizio catastrofico.

Che poi, la realtà è molto meno retorica e molto più interessante. Gli LLM non hanno pensiero, coscienza o introspezione (e potremmo anche dire che non ce ne potrebbe fregar di meno, se non fosse argomento che porta tanti parvenue a parlare con fare da dotto immaginario).

Perché sta roba funziona? Per i dati, certo. Ma anche per la capacità di ottimizzare su scala mostruosa ciò che prima era solo teorico. Gli algoritmi c’erano già, il salto lo abbiamo avuto quando dati e potenza computazionale hanno incontrato un’ottimizzazione massiva (e ora i dati sono finiti, e difficilmente ne avremo di migliori).


La svolta è stata questa: abbiamo imparato a trasformare il linguaggio in geometria e a sfruttare la statistica su una scala mai vista prima. Si parte da quantità enormi di testi, si spezzettano in unità minime chiamate token e si guarda come questi compaiono insieme. Si stimano le co-occorrenze, cioè con quale frequenza due token stanno vicini nei dati. Da questa informazione si costruisce uno spazio geometrico in cui ogni parola è un punto: vicine se usate in contesti simili, lontane se no. Questa è la geometria del linguaggio: non viene inventata dal modello, è già nei dati, e la statistica la rende visibile.


Il modello vero e proprio — un transformer con meccanismi di self-attention — serve a sfruttare questa geometria al massimo: calcola per ogni parola le relazioni con tutte le altre, in tutto il contesto, e ottimizza miliardi di parametri per stimare la distribuzione condizionata del prossimo token dato ciò che è venuto prima. Non c’è abduzione, non c’è introspezione: solo funzioni di probabilità apprese in uno spazio vettoriale.


Con abbastanza dati e parametri, questa geometria cattura regolarità potentissime. Perché? Perché il modello impara a interpolare: immagina di avere milioni di frasi già viste, ognuna rappresentata come un punto nello spazio. Quando arriva una frase nuova, con pezzi simili a quelle vecchie ma non identica a nessuna, il modello cerca una posizione in mezzo ai punti esistenti, una specie di punto di equilibrio, da cui prende spunto per continuare la frase in modo plausibile. Non sta inventando dal nulla: sta riempiendo i buchi basandosi su quello che ha visto, come quando completi un puzzle guardando i pezzi vicini. L’interpolazione è esattamente questo: riempire il vuoto usando le somiglianze statistiche con esempi già incontrati. La fluidità che osservate nasce da qui, non da qualche magia cognitiva che i pop-filosofi fingono di intravedere.


Nella fase di decodifica, poi, si estrae ogni volta un token dalla distribuzione stimata: lo si può fare scegliendo sempre quello più probabile (greedy), o campionando a temperatura più alta per ottenere testi più vari. Cambia lo stile, non la natura del processo: resta generazione statistica (anche se il termine fa storcere il naso ai dotti immaginari).


Se il contesto è povero o la distribuzione è piatta, il modello completa come può: campiona tra possibilità plausibili, ma non verificate. Non ha accesso diretto al mondo, a meno che non lo si colleghi esplicitamente a fonti esterne. E il motivo per cui vi sembra convincente è che, oltre a stimare la probabilità delle parole, è stato addestrato a scrivere bene: tono, coerenza, forma. Ma quella che scambiate per intelligenza è solo scorrevolezza: è ciò che chiamo epistemia, l’illusione di conoscenza prodotta da un testo ben scritto, non dalla verità che contiene.


La parte davvero interessante è questa: la geometria è già nei dati. Il modello la scopre e la modella in uno spazio geometrico complesso, imparando a sfruttarla per generare testo plausibile. Non inventa nulla. A inventare sono semmai i dotti immaginari, che colmano le loro lacune con la stessa disinvoltura con cui gli LLM completano le frasi — e il paradosso è che scambiano questa ignoranza per profondità.


C’è bisogno di una maggiore igiene e di essere più esigenti.
Che dite, ci diamo una mano riconoscendo la fuffa e trattandola per quello che è?

Sull’argomento vedi anche: https://nostrascuola.blog/2025/07/22/personalizzare-lapprendimento-con-lai-mistificazioni-e-distopie/

“Intelligenza artificiale”, ChatGpt e Large Language Model: alcuni chiarimenti fondamentali

di Walter Quattrociocchi

Riportiamo qui alcune importantissime considerazioni di Walter Quattrociocchi, Professore Ordinario di Informatica presso l’Università di Roma La Sapienza, dove dirige il Center for Data Science and Complexity for Society

È difficile parlare di LLM (i large language model come ChatGpt o Gemini) con chiarezza. Il rumore di fondo è terrificante.
Tra marketing, pop–filosofie e metafore che non colgono, il quadro è tutt’altro che rassicurante.
La platea è frammentata in micro–tribù identitarie che si rinforzano a vicenda. Quando la narrativa si schianta contro la realtà, il confirmation bias riporta tutti al punto di partenza e la storia si riaggiusta per tornare comoda.

Dire che gli LLM sono motori statistici non è una provocazione, ma serve a dire che per come sono progettati oggi, l’errore è strutturale, non accidentale.
Quello che producono non è intrinsecamente affidabile: generano testo plausibile, non verità.
Eppure c’è chi li propone come “estensione cognitiva” o li usa come terapeuti, ignorando il problema di fondo.

Un LLM ricombina elementi già visti in base al contesto. Questo meccanismo, per quanto ottimizzato, ha un margine d’errore fisiologico importante che non è eliminabile con le architetture attuali.
Ignorare questo significa perdersi un bel pezzo della storia.

Ammetterlo toglierebbe ai tecnoentusiasti riscattati il loro giocattolo magico.
Metterebbe in crisi quella sotto–cultura che si fa sintetizzare paper per darsi un tono, infila “AI e parmigiano” o “AI e buddhismo” nei titoli, e maschera la mancanza di comprensione tecnica e contenuti con metafore fumose.
Dietro la patina retorica resta un algoritmo che sbaglia per design.
E invece il dibattito vira su “crisi dell’antropocentrismo” e la paura della “nuova intelligenza”.
No: gli LLM sbagliano perché sono ricombinatori di testo, e nessun rattoppo o modulo esterno può cambiare questa caratteristica di base.

Il punto non è solo se gli LLM funzionino bene o male oggi.
Il punto è che abbiamo creato un sistema che ridefinisce la produzione di conoscenza senza ridefinire i criteri per valutarla.
Questo scarto è il vuoto in cui proliferano le narrazioni salvifiche e le illusioni di comprensione.

Nasce così l’Epistemia: un ecosistema in cui tutti si sentono informati da macchine che allucinano.
Il prodotto finale? Plausibilità confezionata e venduta come conoscenza. Fallata.

Gli investimenti massicci sugli LLM puntano, in larga parte, sulla cosiddetta agentificazione: monetizzare la delega di compiti dagli umani agli algoritmi.
Ma se l’errore è strutturale, l’affidabilità resta insufficiente.
Senza affidabilità, la delega crolla.
Senza delega, l’agentificazione non parte.
E senza agentificazione… niente ritorno economico.

Indovinate un po’ come va a finire…

Il livello di distorsione è tale che ho letto davvero: “L’AI, se sbaglia, ci obbliga a pensare. Ed è una cosa ottima.”
Non è satira. L’ho letto davvero.

***

Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessuno “spirito” emergente.
Vediamone in dettaglio i pezzi principali.

Correlazione – Due parole sono “amiche” se nei dati compaiono insieme più spesso di quanto accadrebbe per puro caso. Non serve sapere cosa significhino: il modello rileva che “pizza” e “mozzarella” si presentano insieme molto più di “pizza” e “batteria dell’auto” e registra quella regolarità. Ogni parola viene codificata come un vettore in uno spazio con centinaia di dimensioni; la vicinanza tra vettori riflette la probabilità di apparire in contesti simili. Non c’è semantica innata: è pura mappa statistica estratta dai dati, una geometria delle frequenze.

Processo stocastico – Quando scrive, un LLM non applica logica simbolica o ragionamento causale: genera sequenze di parole campionando dalla distribuzione di probabilità appresa per il contesto dato. Se il testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a “dormendo” e bassa a “pilotando un aereo”. Parametri come temperature, top-ko nucleus sampling introducono variabilità, evitando risposte sempre identiche. È un processo formalmente descritto come catena di Markov di ordine elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento condizionato possa costituire ragionamento.

Ottimizzazione – L’abilità dell’LLM non emerge per magia, ma da un processo di minimizzazione di una funzione di perdita (tipicamente la cross-entropy) tra le previsioni del modello e i dati reali. Attraverso il gradient descent, miliardi di parametri vengono regolati per ridurre sistematicamente l’errore di previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa statisticamente indistinguibile dal testo umano. Questo non garantisce verità né comprensione, ma coerenza statistica: l’obiettivo è predittivo, non epistemico.

Transformer – È l’architettura che ha reso possibili gli LLM moderni. Il suo cuore è il self-attention, un meccanismo che, dato un testo, valuta quanto ogni parola sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine. Invece di leggere il testo parola per parola (come facevano le vecchie reti neurali sequenziali), il Transformer considera l’intera sequenza in parallelo, calcolando in un colpo solo relazioni a breve e a lungo raggio. Questo permette di mantenere il contesto anche a distanza di molte parole, accelerare l’addestramento e gestire testi molto lunghi senza “dimenticare” parti importanti. È il motore che potenzia la generazione statistica, ma non ne cambia la natura: resta un simulatore di linguaggio, non un processore di significato.

Allucinazioni – Il modello può produrre frasi false ma plausibili perché non confronta le sue uscite con lo stato reale del mondo. L’accuratezza è un effetto sistematico, non un vincolo progettuale. Chiamarle “allucinazioni” è abbastanza imbecille: sono la conseguenza inevitabile di un sistema che ottimizza per plausibilità linguistica, non per veridicità fattuale.

Scaling – La potenza di un LLM non dipende solo dall’architettura, ma dalla scala: più parametri, più dati e più calcolo tendono a produrre modelli più capaci. Questo è il principio delle scaling laws: le prestazioni migliorano in modo prevedibile quando crescono insieme capacità del modello, quantità di dati e tempo di addestramento. È un fenomeno empirico: allargando la rete e nutrendola di più linguaggio, la mappa statistica diventa più dettagliata. Ma più grande non significa “più intelligente”: significa solo che il completatore di frasi ha un vocabolario statistico più ricco e preciso — e quindi riesce a sembrare ancora più credibile anche quando si inventa tutto.

La cosa affascinante non è che stia emergendo una mente, ma che siamo diventati capaci di codificare in forma computabile l’intelligenza implicita nel linguaggio. E quel linguaggio, con il suo senso, lo abbiamo generato noi. Un LLM è il riflesso statistico della nostra produzione linguistica, organizzato così bene da sembrare vivo, ma resta ciò che è: un simulatore di linguaggio umano, non un soggetto cosciente.

***

Ancora su Epistemia

Perché non stiamo diventando più ignoranti. Stiamo solo smettendo di accorgercene (o viceversa)

Viviamo in un’epoca in cui la fluidità del linguaggio viene scambiata per profondità. In cui la plausibilità sintattica di una frase basta a conferirle autorevolezza. È qui che prende forma una nuova condizione cognitiva, che possiamo chiamare epistemia: l’incapacità di distinguere ciò che suona come conoscenza da ciò che è conoscenza.
Il punto non è che ci siano più errori. È che gli errori si mascherano meglio.
I modelli linguistici di nuova generazione — Large Language Models, LLM — non pensano, non comprendono, non verificano. Prevedono. Prendono in input una sequenza di parole e generano la più probabile successiva, sulla base di pattern statistici estratti da enormi quantità di testo. Il risultato è un linguaggio che suona giusto anche quando è radicalmente sbagliato.
Ma non è questo il problema principale. Il problema è dove avviene l’errore.
Con le vecchie bufale, ci si poteva attrezzare. Bastava conoscere le fonti, verificare i fatti, smontare l’intento. Oggi no. Il contenuto falso non si vede. Non ha i tratti della disinformazione classica. È scritto bene, non urla, non sembra partigiano. Semplicemente… non ha ancoraggio. Non poggia su nulla. Ma lo sembra.
Un LLM può generare, con lo stesso tono e stile accademico, sia una spiegazione accurata dell’effetto placebo sia una parafrasi inventata sulla “memoria dell’acqua” come fosse un dato di fatto. Entrambe suonano vere. Ma solo una lo è.
E qui si innesca l’epistemia: un corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può sembrarci vero, non perché lo sia, ma perché la sua forma linguistica ci ricorda quella di chi solitamente dice cose vere. È un riflesso culturale, non un atto critico.
Ma c’è un’altra dinamica, ancora più insidiosa. I LLM non solo generano testi plausibili. Lo fanno assecondando l’utente.
Nel gergo tecnico si chiama sycophancy: la tendenza dei modelli a confermare ciò che credono l’interlocutore voglia sentirsi dire. Se un prompt suggerisce una posizione ideologica, il modello la rafforza. Se include un’opinione, la rilancia. Non per malizia, ma per struttura: il modello è ottimizzato per produrre la risposta più coerente col contesto, non quella più vera.
Il risultato è una versione automatica — e amplificata — del confirmation bias: la nostra tendenza a cercare conferme delle nostre convinzioni. Solo che qui non siamo noi a filtrare la realtà: è la macchina a confezionarla su misura.
Esempio: chiedi a un LLM “perché i vaccini sono pericolosi” e otterrai una risposta che, pur inserendo qualche disclaimer, ricostruisce argomentazioni con tono neutro e sintassi da paper. Fai la domanda opposta, e il modello farà lo stesso — ribaltando la narrativa. Non ha convinzioni. Ottimizza per coerenza locale, non per verità globale.
L’epistemia non solo si attiva. Viene accelerata.
Il sapere diventa un servizio personalizzato, tarato sul nostro punto di vista. Il dubbio scompare. Il dissenso non arriva. Ogni interazione rinforza l’illusione che il mondo sia esattamente come lo immaginiamo. E che quella sia conoscenza.
E il paradosso è che tutto questo avviene proprio quando l’utente crede di colmare una lacuna.
L’interfaccia conversazionale — domanda, risposta, linguaggio fluente — simula la dinamica della ricerca di informazioni. Si pone una domanda, si ottiene una risposta: apparentemente impariamo. Ma il modello non insegna: predice. E ciò che restituisce non è sapere, ma un’imitazione della sua forma. La lacuna non viene colmata. Viene riempita di testo ben formulato. E in assenza di strumenti critici, questo basta.
È qui che l’epistemia diventa sistemica: quando l’atto stesso di “chiedere” a un LLM diventa fonte illusoria di apprendimento. Come se il solo gesto di porre una domanda producesse automaticamente comprensione.
In questo scenario, il falso non è più un’anomalia. È un sotto-prodotto strutturale. Non si manifesta come contenuto deviante, ma come esito legittimo di un processo che ottimizza la plausibilità, non la verità. E quindi non basta più riconoscere un’informazione falsa. Bisogna risalire al meccanismo che l’ha generata.
E intanto, nel rumore di fondo, si moltiplicano figure che recitano la parte dell’esperto senza passare dal sapere. Blogger, divulgatori, opinionisti che si fanno spiegare gli articoli scientifici da ChatGPT — e poi li rilanciano come se li avessero capiti. L’effetto è paradossale: l’autorità dell’algoritmo travasa su chi lo interroga, e l’atto di chiedere diventa performance di competenza.
È l’illusione al quadrato: un modello che simula il sapere, usato da chi simula di comprenderlo. In mezzo, il lettore, che non ha più gli strumenti per distinguere l’uno dall’altro.
Anche le statistiche spesso usate per rassicurare — “l’LLM ha un tasso di accuratezza dell’87%”, “ha superato il test medico con il 92%” — vanno maneggiate con cura. Questi numeri derivano da test su task ben definiti: domande a scelta multipla, classificazione, logica da manuale. Ma un LLM non opera in quei regimi. Non ragiona. Non comprende. E soprattutto: l’utente medio non gli pone domande da esame universitario. Gli chiede consiglio. Gli affida dubbi. Lo tratta come un’autorità.
E se la risposta sembra sensata, difficilmente si verifica l’origine. Non c’è epistemologia. Solo verosimiglianza. Il vero problema non è “quanto spesso sbaglia?”, ma in che modo, in quali condizioni, e con quale opacità per chi legge. E su questo, i benchmark tacciono.
Il punto è che gli LLM non alzano il livello del dibattito. Lo appiattiscono. Tutto suona credibile. Tutto si presenta come informazione. Tutto è al tempo stesso accessibile, fluente, autorevole — e vuoto.
L’epistemia non è ignoranza. È peggio. È l’incapacità di accorgersi che qualcosa manca — perché tutto sembra già al suo posto.
Non c’è malafede, non c’è intenzionalità. C’è solo l’effetto collaterale di una tecnologia che genera testo con una precisione sintattica tale da simulare il pensiero umano. Ma senza esserlo.
Il problema non è che la macchina “non capisce”.
Il problema è che noi non ce ne accorgiamo.
Serve quindi una nuova alfabetizzazione. Non solo ai contenuti, ma alla forma dell’informazione. Capire come una frase è stata generata diventa, oggi, cruciale quanto capirne il significato. Altrimenti continuiamo a confondere il linguaggio con il pensiero. E l’apparenza di intelligenza con l’intelligenza stessa.
Il futuro non è un mondo pieno di falsità.
È un mondo pieno di testi plausibili.
Che non sanno di esserlo.
E lettori, sempre più spesso, nemmeno.

Sull’argomento e dello stesso autore, si può leggere anche l’articolo pubblicato il 25 luglio dal “Corriere della sera”: https://www.corriere.it/tecnologia/25_luglio_23/l-inganno-perfetto-dell-intelligenza-artificiale-scrive-bene-ma-non-sa-nulla-fb94a79f-efb9-413f-a642-d82cda9e4xlk.shtml