Breve dialogo sull’intelligenza artificiale

di Stefano Borroni Barale*, Luca Malgioglio

Pubblichiamo qui, in una versione non integrale e privo dell’apparato delle note, un articolo uscito sul numero 64 della rivista Le nuove frontiere della scuola.

Questo breve dialogo è la continuazione e la sintesi di un confronto molto fecondo, che dura ormai da tempo, sulle tematiche del digitale e su un’idea della tecnologia non asservita ai grandi interessi economici. L’intenzione è quella di liberare la riflessione attorno alle nuove tecnologie, e all’Intelligenza artificiale in particolare, dal pensiero magico e dal tecnoentusiasmo del PNRR sulla scuola

LM: Stefano, la lettura del tuo bellissimo libro sull’intelligenza artificiale [L’intelligenza inesistente, Milano, Altreconomia, 2023] mi ha aiutato a chiarire un paio di questioni che mi piacerebbe approfondire ulteriormente insieme a te. La prima la porrei così: l’intelligenza artificiale, come molte altre cose, ci viene presentata come un prodotto senza storia, un dato di fatto tecnologico di fronte al quale l’unico approccio possibile sarebbe quello di capire come utilizzarlo. In questa prospettiva, il suo uso a scuola confermerebbe quello che scriveva Lucio Russo venticinque anni fa nel suo libro Segmenti e bastoncini

«Le continue ondate di innovazione tecnologica, che immettono nel mercato prodotti sempre nuovi, spesso basati su tecnologie raffinate, richiedono in compenso masse di consumatori “evoluti”, attenti cioè alle novità, capaci di mutare continuamente le abitudini di consumo, abbastanza “colti” per recepire rapidamente i messaggi pubblicitari e leggere manuali di istruzioni, ansiosi di superare l’amico e il vicino nella rapidità di acquisto dei prodotti dell’ultima generazione, consumando in rapida successione i prodotti lanciati via via sul mercato. In definitiva la nuova produzione, concentrata e automatizzata, richiede più conoscenze ai suoi clienti che ai suoi dipendenti. La nuova scuola deve quindi preparare soprattutto consumatori, oltre che contribuenti ed elettori. Queste figure, a differenza dei tecnici e dei dirigenti, possono ignorare i processi produttivi e, tanto più, fare a meno di qualunque tipo di cultura generale».

Il tuo libro, mi sembra, va nella direzione opposta: prima di considerare l’intelligenza artificiale un prodotto tecnologico – di cui viene comunque spiegato il funzionamento, in modo così chiaro da permettere anche a un profano come me di capire di cosa si tratta – ne ricostruisce la storia come idea, a partire dal suo progenitore più prossimo, la Cibernetica, rispetto alla quale sono state prese delle decisioni, anche sulla base di motivazioni politiche, che hanno portato lo sviluppo dell’Ai in direzioni molto diverse rispetto alle intenzioni del fondatore della Cibernetica, Norbert Wiener. Vista in questa prospettiva l’Ai, lungi dall’apparirci come un dato di fatto che può essere solo accettato così com’è, ci si mostra come il risultato di un processo storico e di precise scelte, che hanno indirizzato il suo sviluppo in una delle direzioni possibili; il che ha ovviamente escluso altre possibili linee di sviluppo. Ecco, mi sembra che uno dei grandi meriti del tuo libro sia proprio quello di averci ricordato che quello che sembra un prodotto finito, frutto di uno sviluppo tecnologico che sembrerebbe essersi fatto da sé, ha in realtà una storia ed è il risultato di idee e di scelte, tra l’altro non molto felici. Mi chiedo se questa consapevolezza non potrebbe rimettere nelle mani dell’uomo uno strumento che a volte viene presentato come autonomo e indipendente – quasi dotato di vita propria – rispetto all’intelligenza umana che lo ha ideato: se l’Ai è uno strumento umano, questo non significa che il come svilupparlo e utilizzarlo è ancora una decisione tutta umana, che può indirizzarsi creativamente in direzioni nuove e maggiormente utili, magari diverse da quelle che corrispondono agli enormi interessi delle multinazionali del digitale? Trovi questo ragionamento corretto, e corrispondente alle intenzioni che avevi nello scrivere L’intelligenza inesistente?

SBB: Caro Luca, anzitutto grazie per la domanda davvero stimolante. La risposta è sì… e no. Da un lato è verissimo che l’idea dell’Ai ha una storia che è figlia dello spirito del tempo che la genera (la Guerra fredda); questo è ciò di cui mi sono reso conto scrivendo il libro, al punto da rendere questa tesi il perno attorno al quale ruota la mia “pars destruens”, in cui i sostenitori dell’idea dell’Ai fanno una magra figura, sia per la loro abitudine a produrre cattiva metafisica, che per la prassi del loro agire politico per diffonderla. 

Al tempo stesso, però, non mi sento di sottoscrivere che da ciò derivi automaticamente che questo “rimette nelle mani dell’uomo uno strumento che a volte viene presentato come autonomo e indipendente”.  Per spiegare le motivazioni di questa mia contrarietà mi serve introdurre una citazione da un recente articolo scritto a quattro mani con il mio collega di ricerche di CIRCE (http://www.circex.org), Rinaldo Mattera:

«Per il filosofo Gilbert Simondon l’alienazione tecnica non è altro che il divario tra cultura e tecnica. Ovvero la convinzione diffusa che la tecnica sia un sapere volgare o addirittura banale, per sua natura inferiore alla “vera cultura”, quella umanistica; ma anche l’analogo opposto, cioè la convinzione che la tecnica sia un sapere eccelso o persino salvifico, riservato a pochi eletti. Simondon è convinto che questo divario abbia gravi ripercussioni: a causa di questa distanza tra l’essere umano e gli oggetti tecnici (esseri tecnici), questi ultimi possono essere percepiti come pericolosi o magici, a seconda dei casi. È bene non lasciare spazio a fraintendimenti sulla seconda definizione: Simondon non usa le parole esseri tecnici per indurre in qualche modo l’idea che questi oggetti tecnici possano mai prendere vita […], ma per sottolineare una caratteristica assai interessante delle moderne macchine [e dei moderni agenti software, come ChatGPT, NdA], ossia quella di ‘evolversi’ in maniera darwinistica, non solo a causa dell’azione della natura, ma di interazioni cibernetiche (comunicazione, controllo e azione) con noi animali e con la nostra cultura».

In altre parole, la relazione tra noi e gli esseri tecnici – siano essi hardware, software o entrambi è ben rappresentata da una citazione di John M. Culkin (dal suo articolo “A schoolman’s guide to Marshall McLuhan” del 1967) che tu mi hai già sentito recitare più volte a mò di “mantra”:

«Diveniamo ciò che ammiriamo. Diamo forma ai nostri strumenti e, poi, questi ci plasmano [a loro volta]».

Per questo non mi convincono le posizioni antropocentriche, che riportano tutto alle decisioni degli esseri umani, facendo in tal modo “scomparire” la nostra “controparte” macchinica. Una volta che gli esseri tecnici “vengono al mondo”, la cosa più importante diviene il feedback, la comunicazione e il controllo reciproco tra noi agenti cibernetici autonomi (dotati di controllo e volontà autonoma) e gli esseri tecnici che abbiamo prima concepito e poi assemblato , se parliamo di Ai, nella forma di agenti cibernetici automatici. Al proposito ci viene in aiuto Milani, in Tecnologie Coniviviali (Eleuthéra, 2022), che così riassume puntualmente il pensiero di Simondon:

«Studiando la genesi degli esseri tecnici si può comprenderne l’evoluzione, la maniera in cui le varie parti di una macchina entrano in risonanza fra loro, e con la cultura dell’epoca, evolvendosi per dar luogo a sistemi via via più integrati. Ogni oggetto ha dunque caratteristiche oggettive, per le quali appartiene a una stirpe dotata di specifiche caratteristiche, e come tale va compreso […]».

In altre parole gli esseri tecnici non sono tutti uguali: alcuni appartengono al retaggio del dominio, nel senso che sono funzionali a stabilire relazioni di comando/obbedienza a favore di chi li ha concepiti, altri appartengono al retaggio della libertà, pertanto hanno un potenziale liberatorio immenso. La strada per creare delle Ai orientate al bene comune o conviviali passa per la promozione dell’estinzione del retaggio del dominio e la proliferazione del retaggio della libertà, attraverso opportune scelte che si compiono in ogni momento della storia, più precisamente nei momenti in cui si operano le scelte che caratterizzeranno la prossima generazione di agenti. Un esempio pratico potrebbe essere una riunione in cui si decidono le feature del prossimo iPhone 15 o 16. Quello di cui dobbiamo prendere coscienza, come società, è che oggi queste scelte sono diventate scelte massimamente politiche, per questo è intollerabile che restino ristrette ad una minoranza di manager onnipotenti chiusi in segrete stanze, altrimenti rischiamo un nuovo tipo di totalitarismo che, lasciando in piedi la forma della democrazia, la svuota dall’interno attraverso la creazione di un apparato composto da ideologia tecnoentusiasta, burocrazia tecnofila (quella che si compiace, ad esempio, del fatto che il codice sorgente del software possa dettare legge) e tecnologie del dominio. 

Anche rispetto a ciò che scrive Lucio Russo credo sia necessaria un’esegesi e un aggiornamento. Oggi purtroppo siamo in una fase successiva e peggiore del processo che lui identifica. Il retaggio del dominio ha perseguito per due decadi e mezzo l’obiettivo di creare oggetti tecnici frictionless, purtroppo con grande successo. La tecnologia di oggi non necessita più di alcuna formazione per essere “consumata”, e grazie a ciò i cittadini, trasformati in meri utenti, sono stati ulteriormente alienati dalla tecnica. 

Se uno strano virus selettivo sterminasse oggi la casta degli “esperti” tecnologi, quanti anni ci vorrebbero per ritornare al livello tecnologico attuale, sempre che questo fosse possibile? Nemmeno gli informatici di professione, ormai, sanno nel dettaglio come funziona un agente cibernetico automatico come ChatGPT. Ma lo stesso potrebbe dirsi delle moderne autovetture: tutti sapevamo mettere le mani nella vecchia Fiat 500 e sostituire una candela, ma chi saprebbe ora mettere le mani in un veicolo ibrido a benzina/elettrico, con tutte le sue tecnologie sovrapposte e magari connesso a Internet (e via Internet bloccabile da parte del costruttore)?

LM: […] Ho però anche un’idea su cui forse non sarai del tutto d’accordo, e che potrebbe sembrarti il risultato della posizione antropocentrica di cui parlavi sopra. Ho sempre pensato che il problema stesse in un’idea preesistente all’Ai, e che attraverso l’Ai viene portata ulteriormente avanti: quella cioè per cui la conoscenza non è ciò che sta dentro l’essere umano ma una realtà oggettiva esterna, un prodotto che si può sempre acquistare.

L’idea l’ha sintetizzata bene, in modo esplicito e piuttosto sconcertante, l’ex ministro Bianchi, quando ha detto che la scuola non deve dare più conoscenze perché tanto “ormai c’è internet” e le conoscenze (anzi, le “informazioni”) sono lì a nostra disposizione.

Ecco, il punto è proprio questo: l’esaltazione del ‘fuori’, mi sembra, induce a trascurare ciò che avviene dentro gli esseri umani; inoltre, considerato che l’individuo non è una monade ma si struttura internamente solo attraverso una rete di relazioni umane, far scomparire l’altro umano – come accade nel “rapporto” con l’umanità simulata dell’Ai – porta alla scomparsa, nello stesso tempo, della relazione, del carattere dialogico della conoscenza e dell’individuo stesso, nella sua irripetibile unicità. Ignorare che le conoscenze, anche nella loro natura relazionale, prendono forma e diventano un mondo solo all’interno degli individui – con una stratificazione nel tempo di innumerevoli nozioni, idee, ricordi, esperienze, emozioni, affetti, immagini, fantasie, che si collegano tra loro in modo imprevedibile e danno vita a configurazioni mentali sempre nuove, corrispondenti alla storia personale di ciascuno – potrebbe avere delle conseguenze micidiali in campo educativo.

Avere chiaro che a contare e a essere fecondo per il futuro è ciò che l’essere umano sa, pensa e ha dentro di sé, dovrebbe portare infatti gli insegnanti a curare l’arricchimento e la crescita umana e culturale dei propri studenti, a mostrare l’apertura del sapere, a suscitare un continuo confronto con storie, scoperte, punti di vista sul mondo, a propiziare la conoscenza della realtà e di se stessi attraverso percorsi culturali che mettano in dialogo la smisurata ricchezza della storia umana e i percorsi di crescita di ogni singolo individuo. Se invece si pensa che le conoscenze siano fuori, fino addirittura ad auto-organizzarsi attraverso l’Ai, divenendo in realtà rapporti matematici e forme automatiche che simulano il pensiero, prive di sostanza conoscitiva e affettiva, l’essere umano può anche rimanere vuoto e passivo (gli “hollow men” di eliotiana memoria?) e l’educazione può puntare a far sviluppare “competenze” minime di adattamento a una realtà data, che non è più nemmeno necessario conoscere. 

Mi chiedo se sia anche questa una posizione antropocentrica, che può indurre a misconoscere la vera natura della tecnologia e a non cogliere le opportunità che la tecnologia – che dopo tutto è stata creata dagli esseri umani e dovrebbe essere essa stessa pensiero – porta con sé, anche in termini di possibilità di trasformazione positiva della realtà, umana e non umana. È una questione su cui a questo punto ho dei dubbi: sono sicuro che tu puoi aiutarmi a scioglierli.

SBB: La tua è una proposta assai stimolante. Credo che il tema che poni al centro sia interamente culturale, bisogna poi vedere se la proposta culturale che, per semplicità, attribuiremo all’ex Ministro Bianchi, promuova o contrasti l’alienazione tecnica, ossia – come abbiamo visto – il divario tra cultura e tecnica. 

Io credo che il Bianchi-pensiero si possa tranquillamente inserire nel filone di coloro che praticano l’ossessione dei dati, posizione magistralmente riassunta da Nick Barrowman come segue:

«Siamo tentati di presupporre che i dati siano autosufficienti e indipendenti dal contesto e che, con sufficienti dati, le preoccupazioni relative a causalità, bias (distorsione), selezione e incompletezza possano essere ignorate. È una visione seducente: I dati grezzi, non corrotti dalla teoria o dall’ideologia, ci condurranno alla verità; i problemi complessi saranno risolti semplicemente buttandoci sopra un numero sufficiente di dati. Non saranno necessari esperti, a parte quelli che dovranno produrre i dati e divulgare le loro scoperte; non saranno rilevanti le teorie, i valori o le preferenze, né sarà necessario vagliare alcuna ipotesi. (ibidem, traduzione mia)».

Il credo di tale setta, che altro non è se non un culto minore dello scientismo più estremo, produce distorsioni paradossali: la prima è l’antropomorfizzazione dei dati, la seconda è il perseguire tale culto anche contro la stessa scienza da cui dovrebbe discendere. La prima è ben rappresentata nell’opera di Shawn DuBravac, ex capo economista della Consumer Electronics Association e sedicente futurista e “trendcaster”, che scrive:

«I dati sono immediati…. Quando i dati nascono, quando vengono tracciati, catturati o copiati per la prima volta, vogliono essere immediatamente utilizzati, per esercitare forza e influenza…. I dati si muovono costantemente verso l’efficienza. Eliminano le barriere, colmano le distanze, distruggono i momenti che separano il riconoscimento dalla comprensione. Poiché i dati vogliono essere compresi, aborriscono l’attrito».

La seconda, invece, la possiamo individuare in una dichiarazione dell’ex caporedattore della rivista Wired citato da Barrowman nel suo articolo:

«Possiamo lanciare i numeri nei più grandi cluster di calcolo che il mondo abbia mai visto e lasciare che gli algoritmi statistici trovino modelli dove la scienza non è in grado di farlo (ibidem)».

Qui risulta evidente come il culto/ossessione del dato muova i suoi passi all’interno del pensiero magico come scrive Barrowman. Insomma, costoro credono in maniera così assoluta nella bontà della scienza da finire col negarla del tutto, a favore della credenza nell’idea che i dati, soli e di per sé renderanno inutili gli sforzi umani: anche il progresso scientifico diviene una mera questione tecnica: l’unica condizione necessaria sarà possedere gli strumenti per raccogliere i dati, e tutto il resto verrà di conseguenza. 

Chi frequenta le scienze “dure” o “esatte” sa bene che le cose non stanno così perché:

«Il modo in cui i dati vengono interpretati, registrati e raccolti è il risultato di decisioni umane: decisioni su cosa misurare esattamente, quando e dove farlo e con quali metodi. Inevitabilmente, ciò che viene misurato e registrato ha un impatto sulle conclusioni che vengono tratte (ibidem)»

Chiarito questo, pare evidente che tale pensiero ricade in pieno nel secondo caso analizzato da Simondon “la convinzione che la tecnica sia un sapere eccelso o persino salvifico, riservato a pochi eletti”. Quindi la posizione che per semplicità abbiamo assegnato all’ex-ministro Bianchi sicuramente lavora nella direzione di aumentare l’alienazione tecnica.

Nella tua riflessione, invece, mi sembra di leggere echi della psicologia culturale di Bruner, in particolare della sua idea che oltre al pensiero scientifico, che cerca di spiegare la realtà in termini di relazioni di causa-effetto, costruendo categorizzazioni e concettualizzazioni al servizio della costruzione di generalizzazioni astratte, esista un pensiero narrativo la cui funzione è di dare senso all’esperienza dell’individuo, che ha un’importanza cruciale nella costruzione dell’idea del Sé. Ovviamente credo che Bruner avesse ragione, così come concordo con la tua idea che l’informazione, e di conseguenza gli “strati superiori” della struttura DIKW – Data, Information, Knowledge, Wisdom, possano esistere solo nella mente dell’osservatore; non sono un “dato grezzo” disponibile, come piacerebbe al culto del dato.

Anche il nostro amato Italo Calvino, nel suo saggio “Cibernetica e fantasmi”, pur giocando sornionamente con l’ipotesi di una macchina in grado di praticare “la letteratura come arte combinatoria”, conclude i suoi ragionamenti scrivendo:

«Ma il risultato poetico sarà l’effetto particolare di una di queste permutazioni sull’uomo empirico e storico, sarà lo shock che si verifica solo in quanto attorno alla macchina scrivente esistono i fantasmi nascosti dell’individuo e della società»,

ponendo quindi l’accento non solo sul ruolo dell’uomo, ma pure della società e della cultura. 

*Stefano Borroni Barale è laureato in fisica teorica all’Università di Torino.
Inizialmente ricercatore nel progetto EU-DataGrid, per l’Istituto nazionale di fisica nucleare (Infn), si è poi dedicato alla formazione sindacale internazionale.
Oggi insegna informatica in un Itis del torinese.
Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di Come passare al software libero e vivere felici (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero, e de L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale (Altreconomia, 2023), di cui si parla anche in questo articolo. 

2 pensieri riguardo “Breve dialogo sull’intelligenza artificiale

Scrivi una risposta a Luca Malgioglio Cancella risposta