L’intelligenza artificiale a scuola: promesse di personalizzazione e rischi etici

Nel settembre 2025 il Ministero dell’istruzione e del merito ha pubblicato le Linee guida per l’introduzione dell’intelligenza artificiale nella scuola: un documento che segna una svolta epistemologica, riconoscendo nei sistemi di apprendimento automatico strumenti destinati a ridefinire i processi educativi. Non più semplicemente oggetto di studio, l’intelligenza artificiale diventa mediatore privilegiato della conoscenza, con la promessa — o la minaccia — di realizzare il sogno secolare di un’educazione perfettamente personalizzata, accessibile ventiquattro ore su ventiquattro, immune dalle disuguaglianze strutturali che hanno sempre caratterizzato i sistemi scolastici.

La questione filosofica che emerge è profonda: possiamo affidare la formazione delle menti future a sistemi automatici di elaborazione dei linguaggi che, per quanto sofisticati, restano meccanismi probabilistici privi di intenzionalità? Tra entusiasmo tecnologico e cautela etica, l’intelligenza artificiale sta aprendo un nuovo capitolo nella storia millenaria della pedagogia.

Il paradigma del tutor artificiale e la promessa della personalizzazione

La visione dominante nell’ambito ed-tech propone i modelli linguistici generativi come potenziali tutor personalizzati in grado di adattarsi alle esigenze individuali di ogni studente. Secondo quanto riportato da Agenda Digitale nell’analisi di Khan Academy e Duolingo, questi sistemi promettono di abbattere il problema antropologico della massificazione scolastica, offrendo percorsi formativi costruiti su misura per ciascun discente.

I meccanismi sono noti: algoritmi che analizzano pattern di risposta, individuano lacune concettuali, calibrano la difficoltà degli esercizi e forniscono feedback immediato. Come osservano Calvani, Sancassani e Vivanet nella ricerca pubblicata su Cittadinanza Digitale, quando ben guidati questi strumenti possono supportare studenti nel chiarire concetti, organizzare contenuti, esercitarsi in modo personalizzato e riflettere sul proprio modo di apprendere. L’intelligenza artificiale diventa così organizzatore esterno della conoscenza, estensione della mente che amplifica le capacità cognitive individuali.

Il quadro europeo delle competenze digitali DigComp 2.2 include esplicitamente la capacità di interagire in modo critico e consapevole con sistemi intelligenti, riconoscendo che le competenze richieste vanno oltre l’uso strumentale e comprendono consapevolezza dei limiti, riflessione etica e sviluppo del pensiero critico. In questa prospettiva, l’intelligenza artificiale non sostituisce il processo educativo ma lo trasforma in un’esperienza di mediazione attiva tra soggetto e sapere.

Rischio algoritmico e sfide etiche nella scuola digitalizzata

Accanto alle promesse, emergono tuttavia rischi sistemici che il Regolamento europeo sull’intelligenza artificiale — l’AI Act approvato nel giugno 2024 e progressivamente applicabile dal 2026 — individua come critici. I sistemi di intelligenza artificiale utilizzati in educazione rientrano tra quelli “ad alto risicio” poiché influenzano percorsi di apprendimento e opportunità di vita, sottoponendosi a rigorosi requisiti di trasparenza, supervisione umana e garanzia della robustezza tecnica.

Il rischio etico più significativo, denunciato da molteplici fonti tra cui Scuola7 e Diario della Formazione, riguarda i bias algoritmici e la discriminazione: gli strumenti di intelligenza artificiale, addestrati su grandi quantità di dati, riflettono inevitabilmente i pregiudizi presenti in quei dati — culturali, sociali, di genere o razziali. Un sistema utilizzato per la valutazione o la personalizzazione dei percorsi potrebbe inavvertitamente perpetuare stereotipi se i dati di addestramento non sono rappresentativi, equi e bilanciati.

La sorveglianza pedagogica rappresenta un’ulteriore preoccupazione. L’apprendimento personalizzato richiede la raccolta massiva di dati su comportamenti, tempi di risposta, errori ricorrenti, preferenze cognitive: una quantità di informazioni che, se gestita senza adeguata protezione della privacy, configura forme di controllo digitale mai conosciute nella storia dell’educazione. Il Garante per la protezione dei dati personali ha sottolineato come sia fondamentale sottoporre l’informativa agli interessati in un linguaggio semplice e chiaro, indicando “quelle informazioni che potrebbero risultare inaspettate per l’interessato”.

Viene inoltre il rischio della dipendenza cognitiva: affidarsi eccessivamente al tutor artificiale può compromettere lo sviluppo dell’autonomia intellettuale, della capacità di perseveranza nel dubbio, della tolleranza per la frustrazione che costituiscono competenze essenziali per la formazione di personalità mature. Come ammonisce l’analisi di EduNews24, serve evitare il “copia e incolla” pavloviano e guidare verso l’interiorizzazione dei contenuti attraverso domande mirate e riflessione critica.

Ruolo del docente e centralità della persona

Le Linee guida del Ministero dell’istruzione e del merito ribadiscono con forza un principio irrinunciabile: l’intelligenza artificiale non sostituisce il docente, ma lo affianca, richiedendo un nuovo protagonismo da parte dello studente che, sostenuto da strumenti intelligenti e accompagnato da un pensiero pedagogico solido, può diventare artefice del proprio percorso di apprendimento.

Questa posizione trova fondamento nell’antropologia filosofica che informa la tradizione pedagogica europea. L’educazione non è mera trasmissione di informazioni ma incontro intersoggettivo, relazione che trasforma tanto chi insegna quanto chi impara. Il docente umano apporta qualità irriducibilmente non algoritmiche: empatia, intuizione contestuale, capacità di cogliere il disagio non espresso, responsabilità etica per il destino del discente.

La sfida per il progetto pedagogico contemporaneo consiste nel configurare un’integrazione sinergica in cui l’intelligenza artificiale amplifichi le potenzialità umane senza sopprimerle. Come suggerisce l’approccio di Sancassani e colleghi, l’autonomia digitale è una competenza chiave del cittadino consapevole, e l’intelligenza artificiale può contribuire a costruirla quando inserita in ambienti formativi progettati in modo etico e intenzionale.

Verso un’educazione algoritmicamente consapevole

Il concetto di algoretica, proposto da Cittadinanza Digitale, indica una nuova area educativa dedicata all’etica degli algoritmi: non si tratta solo di insegnare a usare bene l’intelligenza artificiale, ma di educare a comprenderne i valori, le implicazioni e i limiti. L’UNESCO nella Recommendation on the Ethics of Artificial Intelligence del 2021 ha affermato che l’educazione è “la prima linea di difesa contro gli usi non etici dell’intelligenza artificiale”.

Le scuole devono sviluppare percorsi di alfabetizzazione all’intelligenza artificiale che comprendano: conoscenza di come funziona un algoritmo, di cosa sono i dati e come vengono trattati; analisi etica di casi d’uso reali per valutare rischi e benefici; coltivazione del pensiero critico verso le risposte generate automaticamente; comprensione dei limiti cognitivi dei sistemi di linguaggio che, nonostante apparenze sofisticate, non possiedono comprensione semantica né coscienza.

Il Regolamento europeo richiama esplicitamente principi condivisi a livello continentale: intervento e sorveglianza umani, robustezza tecnica e sicurezza, privacy e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e responsabilità. Questi valori devono informare ogni implementazione tecnologica nella scuola.

Un bivio epistemologico

L’introduzione dell’intelligenza artificiale nell’educazione ci pone di fronte a un bivio epistemologico fondamentale. Da un lato, la possibilità concreta di democratizzare l’accesso alla conoscenza, abbattere barriere geografiche ed economiche, offrire supporto personalizzato a studenti con esigenze diverse. Dall’altro, il rischio di una mercificazione dell’apprendimento, di una sorveglianza pedagogica onnipresente, di una alienazione cognitiva che sostituisca la fatica del comprendere con la rapidità dell’ottenere risposte.

La scelta non è tecnologica ma etica e politica. Richiede una governance dell’innovazione che non si lasci guidare esclusivamente da criteri di efficienza o da logiche di mercato, ma che ponga al centro la dignità della persona umana in formazione. Richiede docenti formati non solo all’uso degli strumenti, ma alla comprensione critica dei fondamenti epistemologici e dei limiti ontologici dell’intelligenza artificiale.

L’intelligenza artificiale a scuola non è inevitabile: è una possibilità che diventa realtà solo attraverso scelte consapevoli. La sfida per la pedagogia contemporanea consiste nel preservare ciò che rende umana l’educazione — la relazione, la curiosità autentica, il confronto con l’alterità — mentre si abbracciano le potenzialità di strumenti che, se governati con saggezza, possono davvero ampliare gli orizzonti del sapere.

Quale equilibrio tra efficienza algoritmica e umanità educativa siamo disposti a praticare nelle scuole del nostro presente?


Fonti:

  • Ministero dell’istruzione e del merito, Linee guida per l’introduzione dell’intelligenza artificiale nella scuola, agosto 2025
  • Regolamento (UE) 2024/1689 — AI Act, Giugno 2024
  • UNESCO, Recommendation on the Ethics of Artificial Intelligence, 2021
  • Calvani, Sancassani, Vivanet, Tutor AI in classe: progettare l’apprendimento per fasi, Cittadinanza Digitale, 2024
  • Agenda Digitale, Tutor AI come insegnanti: il futuro dell’apprendimento personalizzato, maggio 2024
  • AI4Business, LearnLM-Tutor, come l’AI può cambiare il modo di fare education, luglio 2024
  • Diario della Formazione, Intelligenza artificiale a scuola: cosa cambierà con le nuove linee guida, settembre 2025

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo