Quando si parla di intelligenza artificiale a scuola, il rischio è oscillare tra due semplificazioni opposte. La prima è quella entusiasta: l’AI risolverà i problemi della scuola, personalizzerà l’apprendimento, alleggerirà il lavoro dei docenti e renderà tutto più efficiente. La seconda è quella apocalittica: l’AI distruggerà lo studio, svuoterà il pensiero, renderà gli insegnanti superflui e trasformerà gli studenti in utenti passivi. Le fonti più serie oggi non confermano né l’una né l’altra visione in forma assoluta. Dicono piuttosto una cosa più impegnativa: l’AI può aiutare l’educazione, ma solo se la scuola resta profondamente umana, pedagogicamente guidata e politicamente governata. Se invece viene introdotta senza criteri, può amplificare superficialità, disuguaglianze e dipendenza cognitiva.
UNESCO insiste da tempo su un principio chiave: l’AI in educazione deve essere human-centred, centrata sull’essere umano, e va inserita dentro una visione che protegga agency, pensiero critico, etica e diritti. Nei suoi documenti più recenti UNESCO non presenta l’AI come una scorciatoia per sostituire la relazione educativa, ma come qualcosa che va governato con competenze specifiche per studenti e insegnanti. Per questo ha pubblicato sia una Guidance for generative AI in education and research, sia due quadri di competenze distinti, uno per i docenti e uno per gli studenti. Nel framework per gli insegnanti individua 15 competenze in cinque dimensioni, tra cui mindset human-centred, etica dell’AI, fondamenti tecnici, pedagogia dell’AI e uso dell’AI per l’apprendimento professionale. Nel framework per gli studenti insiste invece sul fatto che i sistemi educativi devono preparare i ragazzi a usare e comprendere l’AI in modo sicuro, critico e significativo.
Questo punto è cruciale perché cambia la domanda di partenza. Non bisogna chiedersi solo “come usare l’AI a scuola?”, ma “che cosa significa insegnare quando gli studenti hanno già in tasca strumenti che riassumono, scrivono, spiegano, imitano il linguaggio umano e producono risposte in pochi secondi?”. L’OECD, nel suo Digital Education Outlook 2026, formula una risposta molto netta: la GenAI può supportare l’apprendimento solo se è guidata da chiari principi didattici. Se invece viene usata senza supporto pedagogico, il rischio è che migliori la performance apparente senza produrre veri guadagni di apprendimento. In una formula brutale ma utile: lo studente può sembrare più bravo senza aver imparato davvero.
Qui entriamo nel cuore del problema educativo. Insegnare al tempo delle AI non significa semplicemente permettere o vietare uno strumento. Significa ridefinire che cosa conta come apprendimento. Se una macchina può riassumere un testo, generare una scaletta, spiegare una poesia, correggere una bozza o produrre un tema formalmente impeccabile, allora la scuola deve difendere con ancora più forza ciò che l’AI non garantisce automaticamente: comprensione profonda, capacità di giudizio, relazione tra concetti, confronto tra fonti, autonomia di pensiero, responsabilità interpretativa. L’OECD lo dice con chiarezza in un altro documento del 2025: in un mondo di AI potenti, la questione centrale diventa che cosa gli insegnanti debbano insegnare e che cosa gli studenti debbano davvero imparare.
Un primo esempio concreto aiuta a capire la posta in gioco. Un insegnante può usare un sistema generativo per produrre in pochi minuti tre versioni diverse della stessa spiegazione: una più semplice, una più tecnica, una più narrativa. Questo può essere molto utile per differenziare la didattica, preparare materiali o costruire supporti per studenti con bisogni diversi. Ma se quello stesso sistema viene usato dagli studenti per produrre compiti senza attraversare davvero il processo di studio, l’AI smette di essere un supporto e diventa un sostituto della fatica cognitiva. L’OECD sottolinea proprio questo: i sistemi generalisti possono essere usati pedagogicamente, ma i risultati migliori emergono più spesso con strumenti progettati per l’apprendimento, creati con intenzione didattica, co-progettati con docenti e sottoposti a valutazioni rigorose.
Questo significa anche che non tutta l’AI educativa è uguale. Una piattaforma pensata per il tutoring, la revisione guidata o l’apprendimento collaborativo è diversa da un chatbot generalista interrogato in modo casuale. L’OECD insiste su una distinzione che secondo me andrebbe ripetuta ovunque: la GenAI amplifica buona pedagogia e cattiva pedagogia. Se una scuola ha già una visione educativa forte, criteri chiari e insegnanti formati, l’AI può aiutare. Se invece una scuola è già fragile, frettolosa o solo ossessionata dall’efficienza, l’AI rischia di accelerare il peggio.
Il ruolo dei docenti, quindi, non diminuisce. Cambia e, per molti versi, diventa ancora più importante. Lo Stanford HAI ha sottolineato che i ragazzi stanno correndo avanti nella familiarità con la tecnologia mentre le scuole faticano a tenere il passo. Nel 2025 Victor Lee, che guida il programma AI+Education dello Stanford Accelerator for Learning, ha detto esplicitamente che i bambini avanzano rapidamente nella comprensione pratica di questi strumenti mentre le scuole stanno ancora cercando di costruire politiche adeguate. Questo scarto è pericoloso: se la scuola arriva sempre dopo, smette di educare e si limita a inseguire.
Lo Stanford AI Index 2025 aggiunge un dato molto utile: negli Stati Uniti, la percentuale di insegnanti che si sente davvero preparata a insegnare l’AI resta limitata, con differenze tra ordini di scuola. Quindi il problema non è solo se introdurre l’AI nei curricula, ma con quali docenti, con quale formazione e con quali tempi di accompagnamento. Se la politica scarica tutto sulla buona volontà del singolo insegnante, la trasformazione diventa disordinata e ingiusta.
A questo punto bisogna dire una cosa scomoda ma vera: il dibattito pubblico spesso parla degli studenti come se il problema fosse solo la copiatura. Ma il problema è più profondo. L’AI non mette in crisi solo il compito a casa. Mette in crisi l’idea stessa di verifica, di autorità del testo, di mediazione del sapere e persino di tempo dello studio. Se una risposta arriva subito, se un tema si produce in venti secondi, se un riassunto appare già pronto, diventa più difficile far percepire agli studenti il valore della lentezza, dell’errore, della riscrittura e del percorso. Eppure proprio questi elementi sono la sostanza della formazione. Questa è una mia inferenza, ma è fortemente sostenuta dai documenti OECD e UNESCO che insistono sul fatto che l’uso non guidato dell’AI può migliorare output apparenti senza veri learning gains.
Per questo, secondo me, uno dei compiti più urgenti della scuola oggi è insegnare il doppio sguardo. Da un lato far conoscere l’AI, perché non serve a nulla proibire ciò che struttura già il presente. Dall’altro insegnare a prenderne le distanze, a valutarla, a interrogarla, a riconoscerne limiti, allucinazioni, bias, scorciatoie e costi nascosti. UNESCO, nei suoi framework, mette al centro proprio questo: non un addestramento all’uso cieco, ma competenze che combinano fondamenti tecnici, etica, pensiero critico e partecipazione responsabile.
Un secondo esempio concreto riguarda la scrittura. Un insegnante può chiedere a uno studente non semplicemente “scrivi un tema”, ma “mostrami il processo”: la prima idea, le domande iniziali, ciò che hai chiesto eventualmente all’AI, come hai verificato la risposta, dove non eri convinto, che cosa hai riscritto e perché. In questo modo l’oggetto della valutazione si sposta dal prodotto finito al percorso cognitivo. È un cambiamento importante, perché rende l’AI visibile invece di lasciarla agire nell’ombra. L’OECD suggerisce proprio di orientare i sistemi verso usi che arricchiscano l’apprendimento senza sostituire lo sforzo mentale o il giudizio professionale del docente.
C’è poi un tema enorme di equità. Le fonti internazionali ricordano che l’accesso alle opportunità educative legate all’AI non è distribuito in modo uniforme. Lo Stanford AI Index, nel capitolo Education, mostra che negli Stati Uniti persistono divari nell’accesso ai corsi di computer science al liceo e differenze legate a reddito, geografia, dimensione della scuola, genere, razza ed etnia, e disabilità. Quindi introdurre AI a scuola senza affrontare le disuguaglianze di partenza rischia di ampliare la forbice tra chi ha contesto, dispositivi, sostegno familiare e insegnanti preparati e chi no.
Questo vale anche per i diritti dell’infanzia e dell’adolescenza. UNICEF, nella nuova Guidance on AI and children del 2025, sottolinea che i bambini usano sempre più sistemi AI e che questo apre insieme opportunità e rischi. Tra i rischi ci sono privacy, profilazione, contenuti inappropriati, sistemi non trasparenti e, in alcuni casi, perfino chatbot che possono dare risposte pericolose in contesti delicati come il supporto psicologico. Anche se questo aspetto riguarda più direttamente la protezione dei minori che la didattica, ci dice qualcosa di importante: la scuola non può introdurre AI senza una cornice forte di tutela, alfabetizzazione critica e responsabilità adulta.
Un altro punto serio riguarda i genitori. Stanford HAI, nel testo rivolto alle famiglie, dice che i genitori dovrebbero aiutare a orientare le politiche scolastiche emergenti. Questo mi sembra centrale: la scuola non può essere lasciata sola, ma nemmeno i genitori possono ridursi a due posizioni opposte, cioè entusiasmo ingenuo o divieto puro. Servono alleanze nuove tra docenti, famiglie e studenti. Non per difendere una scuola del passato, ma per evitare che il presente venga colonizzato da strumenti potentissimi senza discussione pubblica.
A questo punto, la domanda vera non è “AI sì o no a scuola?”. La domanda vera è: che cosa deve restare irriducibilmente umano nell’atto di insegnare? L’OECD, nel suo documento del 2026, mette al centro proprio il rapporto tra insegnamento human-centred e GenAI. Il World Economic Forum, nei testi più recenti sull’educazione, insiste sul fatto che la tecnologia può liberare tempo per mentorship, relazione e cura, ma che la connessione umana resta decisiva. Questa è forse la distinzione più importante di tutte: se l’AI libera tempo per insegnare meglio, allora può essere utile. Se invece sostituisce la presenza, la relazione, il conflitto cognitivo, il dubbio e la responsabilità educativa, allora la scuola perde la sua funzione più profonda.
La mia tesi
La mia tesi è questa: insegnare al tempo delle AI significa difendere e rinnovare il cuore umano della scuola, non fingere che la tecnologia non esista e non lasciarle il comando. L’AI può aiutare docenti e studenti, ma non deve diventare il nuovo mediatore sovrano del sapere. La scuola ha bisogno di formare persone capaci di usare strumenti potenti senza farsi usare da quegli stessi strumenti. Ha bisogno di docenti più preparati, non più marginali. Ha bisogno di politiche pubbliche più serie, non di slogan sull’innovazione. E ha bisogno di una nuova alfabetizzazione: non solo digitale, ma critica, etica, cognitiva e relazionale.
Glossario
AI centrata sull’essere umano
Un modo di progettare e usare l’intelligenza artificiale in cui le decisioni importanti, i diritti e la dignità delle persone restano al centro.
Agency
La capacità di una persona di capire, scegliere e agire in modo consapevole, senza delegare tutto a una macchina.
GenAI, intelligenza artificiale generativa
Sistemi che producono testi, immagini, audio, video o codice a partire da richieste umane.
Pensiero critico
Capacità di valutare informazioni, confrontare fonti, riconoscere errori, dubbi e contraddizioni.
Apprendimento profondo
Quando una persona capisce davvero un concetto, lo collega ad altri, lo sa usare e non lo ripete soltanto.
Performance apparente
Un risultato che sembra buono all’esterno, ma che non corrisponde a una comprensione reale.
Learning gains
Miglioramenti reali nell’apprendimento, non solo nella velocità o nell’aspetto del lavoro consegnato.
Buona pedagogia
Un modo di insegnare che aiuta davvero a capire, crescere, ragionare e diventare più autonomi.
Cattiva pedagogia
Un modo di insegnare troppo superficiale, meccanico o centrato solo sul risultato finale.
Dipendenza cognitiva
Quando una persona si abitua a far fare alla macchina parti del pensiero che dovrebbe allenare da sé.
Allucinazioni dell’AI
Risposte sbagliate o inventate date da un sistema AI come se fossero vere.
Bias
Distorsioni o squilibri presenti nei dati o nei sistemi che portano a risultati ingiusti o poco affidabili.
Alfabetizzazione AI
Capacità di capire che cos’è l’AI, come funziona, dove può aiutare, dove può sbagliare e come usarla in modo responsabile.
Valutazione del processo
Modo di valutare non solo il compito finale, ma anche il percorso con cui ci si è arrivati.
Differenziazione didattica
Preparare spiegazioni e materiali diversi per studenti con bisogni, ritmi e livelli differenti.
In parole semplici
- L’AI a scuola non è automaticamente buona e non è automaticamente cattiva.
- Può aiutare gli insegnanti a preparare materiali e spiegazioni diverse.
- Può aiutare gli studenti solo se non sostituisce del tutto il loro pensiero.
- Il rischio è consegnare testi perfetti senza aver capito davvero nulla.
- La scuola deve insegnare non solo a usare l’AI, ma anche a dubitare, verificare e scegliere.
- Gli insegnanti diventano ancora più importanti, non meno.
- Se la scuola usa l’AI senza metodo, aumenta la confusione e la disuguaglianza.
- Se la usa bene, può rafforzare studio, autonomia e pensiero critico.
- Il punto non è avere risposte più veloci. Il punto è formare menti più libere.
Note semplici sugli studiosi e sulle istituzioni citate
UNESCO
È l’agenzia delle Nazioni Unite per educazione, scienza e cultura. Nei documenti recenti sull’AI a scuola insiste sul fatto che la tecnologia deve restare subordinata alla dignità umana, alla relazione educativa e ai diritti di studenti e docenti.
OECD, OCSE
Organizzazione internazionale che studia educazione, economia e politiche pubbliche. Nei suoi report recenti spiega che la GenAI può aiutare l’apprendimento solo se guidata da principi didattici chiari e da insegnanti preparati.
Victor Lee
Studioso di educazione e tecnologie digitali a Stanford. Ha richiamato l’attenzione sul fatto che i giovani stanno sperimentando l’AI molto rapidamente, mentre le scuole stanno ancora cercando regole e strumenti adeguati.
Stanford HAI
Centro di ricerca di Stanford dedicato all’intelligenza artificiale human-centered. Nel suo AI Index monitora anche il rapporto tra AI, scuola e formazione degli insegnanti.
UNICEF
Agenzia ONU per l’infanzia. Nei suoi testi più recenti ricorda che bambini e adolescenti usano sempre più sistemi AI e che servono tutele forti su privacy, sicurezza, sviluppo e diritti.
2026 | OECD, Digital Education Outlook 2026
https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html
2026 | OECD, How to effectively use generative AI in education
https://www.oecd.org/en/blogs/2026/01/how-to-effectively-use-generative-ai-in-education.html
2026 | OECD, Reimagining teaching in an accelerating world
https://www.oecd.org/en/publications/reimagining-teaching-in-an-accelerating-world_d0edfe8c-en/full-report/component-6.html
2025 | UNESCO, AI competency framework for teachers
https://www.unesco.org/en/articles/ai-competency-framework-teachers
2025 | UNESCO, AI competency framework for students
https://www.unesco.org/en/articles/ai-competency-framework-students
2025 | Stanford HAI, What parents need to know about AI in the classroom
https://hai.stanford.edu/news/what-parents-need-to-know-about-ai-in-the-classroom
2025 | Stanford HAI, AI Index 2025, Education chapter
https://hai.stanford.edu/assets/files/hai_ai-index-report-2025_chapter7_final.pdf
2025 | Stanford HAI, AI Index 2025, Education page
https://hai.stanford.edu/ai-index/2025-ai-index-report/education
2025 | UNICEF Innocenti, Policy guidance on AI for children
https://www.unicef.org/innocenti/reports/policy-guidance-ai-children
2023 | UNESCO, Guidance for generative AI in education and research
https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research
2025 | OECD, What should teachers teach and students learn in a future of powerful AI?
https://www.oecd.org/en/publications/what-should-teachers-teach-and-students-learn-in-a-future-of-powerful-ai_ca56c7d6-en.html

Commenti