Proprio un anno fa, nel novembre 2024, pubblicavamo su questo blog un articolo dedicato alla sperimentazione sull’Intelligenza artificiale promossa dal Ministero in quindici scuole-pilota. In occasione della sua presentazione, il ministro affermava che "l’Italia si ispira all’esperienza di altre nazioni", in particolare della Corea del sud in cui “questa sperimentazione sta avendo risultati eccezionali”. In realtà, la Corea del sud aveva solo annunciato, non senza opposizioni e polemiche, un ambizioso progetto per l’introduzione massiccia, attraverso la distribuzione di dispositivi digitali agli studenti, di “libri di testo digitali supportati dalla AI” in circa seimila scuole primarie e secondarie di primo e secondo grado.
Ebbene, le attività di quel progetto sono poi effettivamente iniziate e già dopo pochi mesi è possibile dire com’è andata. In due parole: decisamente male. Al punto che il progetto è stato di fatto sospeso e proseguirà, forse, in forma drasticamente ridimensionata. Praticamente nessuno, in Italia, ne ha dato notizia, se si eccettua un ampio articolo Paolo Benanti sul Sole 24 ore del 29 ottobre scorso. La vicenda invece ha fatto discutere a livello internazionale. Un puntuale resoconto è disponibile su Rest of world [1], una rivista no profit on line che si occupa appunto della diffusione della tecnologia digitale al di fuori del “mondo occidentale”.
In sintesi, è successo che il progetto è partito effettivamente nel marzo 2025, quando sono stati resi disponibili per le scuole interessate i primi libri di testo digitali di matematica, inglese e informatica, sviluppati da dodici editori autorizzati, sulla base di modelli linguistici pre-addestrati forniti da OpenAi e da Anthropic - che avevano stipulato un accordo con il governo coreano. Quest’ultimo aveva investito l’equivalente di circa 850 milioni di dollari per il programma, inclusi i costi per le attrezzature e la formazione degli insegnanti. Le case editrici autorizzate avevano a loro volta speso circa 570 milioni di dollari per sviluppare i testi. L’iniziativa era stata fortemente voluta dall’ex presidente della Repubblica coreana Yoon Suk Yeol, che ne aveva fatto una bandiera della sua politica di sviluppo guidato dal digitale. Nel frattempo è accaduto che lo stesso Yoon, a causa di alcuni scandali personali e di una propensione autoritaria contestata dai partiti di opposizione, abbia proclamato la legge marziale, sia stato sconfessato dal Parlamento, destituito e arrestato per insurrezione. Il progetto, come si diceva, è comunque iniziato, sia pure in un contesto di gravissima crisi istituzionale.
Subito si sono manifestate, segnalate dalla maggioranza delle scuole coinvolte, serie difficoltà,, che RoW riassume così: problemi tecnici che hanno rallentato il lavoro didattico, rischi per la privacy dei dati degli utenti, aumento sensibile del tempo trascorso davanti allo schermo, carico di lavoro più gravoso per insegnanti e studenti. Ma soprattutto si è contestato il fatto che i libri contenessero inesattezze fattuali anche gravi e in genere presentassero un livello qualitativo mediocre. Anche l’aspetto considerato più promettente, l’individualizzazione dell’apprendimento, non ha registrato progressi apprezzabili. Come ha testimoniato uno studente intervistato dalla rivista, “non avevo chiaro come usarli bene [i libri digitali ndr]. Lavorando individualmente sul mio portatile, ho trovato difficile rimanere concentrato e seguire il programma. I libri di testo non fornivano lezioni adatte al mio livello”.
Alla fine, dopo quattro mesi dall’inizio della sperimentazione è intervenuto il Parlamento coreano e i libri basati sull'intelligenza artificiale sono stati privati del loro status ufficiale di “libri di testo” e classificati come "materiale supplementare", il che significa che la loro adozione è stata lasciata alla discrezione di ciascuna scuola. Alla fine del primo semestre di scuola, a luglio 2025, solo il 37% delle scuole proseguiva la sperimentazione; all’inizio del settembre scorso la percentuale era scesa al 19. A ciò ha contribuito anche l’azione del Sindacato coreano degli insegnanti e dei lavoratori dell’istruzione che, già prima dell’avvio della sperimentazione, aveva denunciato il ministro dell’istruzione per abuso di potere proprio a causa dell’obbligatorietà dell’adozione dei testi digitali o di gruppi di cittadini, come quello delle Mamme politiche che avevano denunciato l’aumento del tempo che bambini e bambine erano costrette a passare davanti agli schermi. La vicenda avrà anche strascichi legali: le case editrici hanno annunciato poche settimane fa di voler intraprendere un’azione legale contro il governo per l’interruzione di fatto di un progetto sul quale avevano investito ingenti risorse finanziarie.
Indubbiamente, sull’esperimento hanno pesato, oltre alle difficoltà tecniche e alle complicazioni legali relative alla privacy, il modo fortemente “calato dall’alto” con cui è stato condotto, la fretta con cui si è avviata la pratica in classe, in definitiva la sua politicizzazione spuria - ovvero l’identificazione del progetto con un protagonista politico, cosa ben diversa dall’apertura di un vero dibattito politico.
Credo tuttavia vi sia anche qualcosa di più “strutturale” all’origine del fallimento. E’ forse l’idea stessa di introdurre l’IA nelle scuole che non funziona. L’IA generativa non si introduce per volontà di un “decisore” - sia esso l’insegnante, il dirigente scolastico, il ministro o chi altro. L’IA si è già introdotta da sè, rapidamente e “molecolarmente” anche nelle scuole; sta cambiando il modo di lavorare, di comunicare, di apprendere di ciascuno. Non è una “nuova tecnologia”, è un fattore di trasformazione dell’ecosistema relazionale e cognitivo, in prospettiva anche di quello fisico. Ignorarla è impossibile o comunque produce solo danni. Bisogna gestirla in modo da massimizzarne le potenzialità e ridurre i rischi. (Può sembrare banale ma è in questi termini che ragionano i documenti internazionali che ormai da qualche anno si stanno producendo).
Il fatto è che non è facile. Bisogna avere una idea di scuola abbastanza forte da permetterci di riorganizzare a nostra volta quell’ecosistema facendo in modo che anche gli algoritmi siano al servizio di quell’idea. Bisogna agire a livello didattico-metodologico ma anche sul curricolo di base e sulle stesse ragioni di fondo dell’essere scuola. E’ un lavoro che dovrebbe svolgersi a livello altrettanto molecolare, anche se il coordinamento fra istituzioni educative e il ruolo di regia di un entità centrale rimane essenziale. Soprattutto dovremmo aver chiaro che la questione non è tecnica e neppure puramente didattica ma pedagogica in senso più ampio e quindi politica.
Intanto, il mitico Massachusetts Institute of Technology ha intrapreso una serie ricerche sugli effetti dell’IA generativa sull’educazione. Ne sono frutti, in particolare, uno studio scientifico del suo Media Lab sull’impatto sulle strutture cerebrali dell’uso dei LLM per la redazione di testi e un documento del Theaching systems Lab intitolato Una guida all’IA nella scuola. Prospettive per i perplessi. [2] Nell’introduzione, il principal investigator Justin Reich avverte che scrivere una guida sull'IA generativa nelle scuole nel 2025 è un po' come scrivere una guida all'aviazione nel 1905, appena due anni dopo il lancio dei fratelli Wright. “Nessuno nel 1905 avrebbe potuto dire il modo migliore per costruire un aereo, pilotarne uno o gestire un sistema aeronautico. E nessuno nel 2025 può dire come gestire al meglio l'IA nelle scuole”. Ma d’altra parte “la diffusione di strumenti di IA sta introducendo una nuova dimensione di caos nelle pratiche scolastiche”. E allora “cosa si fa quando qualcosa deve essere fatto, ma nessuno può dire con sicurezza cosa dovrebbe essere?”. Reich risponde che il modo migliore è “ascoltare i colleghi”. E in effetti la Guida è in pratica una serie di interviste a insegnanti ed educatori di vari ordini di scuola in vari contesti che raccontano esperienze, approcci, risultati. A volte anche in contrasto fra loro. Sono storie di successi ma anche di fallimenti. La Guida suggerisce di leggerli e sperimentarli, sempre in via provvisoria. L’appello “ai nostri educatori, ai nostri deputati, ai nostri ricercatori, ai nostri genitori, ai nostri governi” è di “provare una varietà di approcci e capire quali funzionano meglio in quali contesti” in modo che, fra dieci anni, scrivere un’altra Guida possa “avere tutt’altro significato”.
In fondo, è l’impostazione opposta a quella che ha clamorosamente fallito in Corea.
__________________________________________________
[2] A guide to AI in schools. Perspectives for the Perplexed. Agosto 2025. Reperibile in: https://tsl.mit.edu/wp-content/uploads/2025/08/GuideToAIInSchools.pdf