Roma, 22 novembre 2025 – Da mesi, nelle università e nei centri di ricerca italiani, si cerca di capire come **l’intelligenza artificiale** possa davvero aiutare a valutare ciò che le persone comprendono. È un tema che coinvolge **ricercatori**, **insegnanti** e studenti, e che ha catturato l’attenzione di molti dopo la pubblicazione di dati raccolti tra Sapienza, Politecnico di Milano e alcune scuole superiori del Lazio, alla fine di ottobre.
## **Intelligenza artificiale e comprensione: una strada ancora da tracciare**
I primi risultati delle sperimentazioni sono arrivati a metà novembre. L’uso di modelli di **machine learning**, affiancati alle tradizionali prove di comprensione, ha permesso in più occasioni di cogliere dettagli spesso sfuggiti alla sola correzione manuale. “Quando correggiamo temi o questionari – ha spiegato ieri il professor **Giuseppe Mauri**, docente di Didattica alla Sapienza – ci accorgiamo che le macchine mettono in luce difficoltà comuni tra gli studenti che magari noi non notiamo subito”.
Nel laboratorio di **Ingegneria informatica** del Politecnico, una ventina di studenti hanno testato un sistema che analizza non solo il contenuto delle risposte scritte, ma anche il tempo impiegato e le revisioni fatte. Un algoritmo che, spiega **Elisa Parisi**, ricercatrice milanese, “ci aiuta a capire non solo se la risposta è giusta, ma come lo studente ci è arrivato”. Un aspetto che, dicono i tutor coinvolti nella prova, spesso fa la differenza per capire le vere **competenze**, più che una semplice memoria.
## **Numeri e limiti: cosa dicono gli studi**
L’**Osservatorio Nazionale sull’Innovazione Didattica** ha diffuso qualche dato: su un campione di 2.300 studenti, i sistemi di IA hanno riconosciuto con precisione gli errori concettuali nell’81% dei casi, contro il 74% degli insegnanti presi singolarmente. “Non vogliamo sostituire il giudizio dell’insegnante”, ha precisato Mauri, “ma usare strumenti diversi per avere un quadro più chiaro delle difficoltà reali”.
Ma i limiti restano evidenti. In certi casi, l’analisi semantica delle risposte fatica con gli stili espressivi meno convenzionali degli studenti stranieri o con chi ha disturbi specifici dell’apprendimento. “Circa il 13% delle risposte – dice Parisi – sfugge ancora agli algoritmi o viene valutata in modo troppo rigido”.
## **Le scuole riflettono: quale ruolo per l’IA in classe**
Al liceo Tasso di Roma, la preside Laura Falcetti ha raccolto i pareri degli insegnanti dopo un ciclo di prove a metà novembre. “Alcuni erano scettici – racconta – temevano che un algoritmo riducesse tutto a numeri. Altri invece hanno apprezzato l’aiuto per correggere compiti scritti lunghi”. Soprattutto nelle materie umanistiche, dove la comprensione resta al centro.
C’è chi mette in guardia dal rischio di affidarsi troppo ai dati prodotti dall’**intelligenza artificiale**, perdendo così il contatto umano tra docente e studente. “Le macchine ci aiutano a individuare errori ricorrenti”, spiega Falcetti, “ma solo noi possiamo cogliere lo sforzo individuale”.
## **Cosa ci aspetta: prospettive e dubbi**
Nei prossimi mesi le sperimentazioni andranno avanti in altre scuole del centro-nord. Alcune università stanno lavorando a piattaforme che integrino l’**IA** per dare feedback automatici agli studenti. Si pensa anche all’uso dell’analisi semantica per personalizzare il percorso didattico in base alle difficoltà trovate.
I ricercatori invitano però alla prudenza: “Serve trasparenza sugli algoritmi”, avverte Parisi. E aggiunge: “Ogni modello va adattato al contesto linguistico e culturale”. Lo ribadisce anche il Ministero dell’Istruzione nelle linee guida pubblicate lo scorso ottobre, sottolineando quanto sia fondamentale il ruolo dell’insegnante.
Solo così – dicono gli esperti – l’**intelligenza artificiale** potrà diventare uno strumento in più per capire non solo quello che sappiamo ma come impariamo davvero. Una sfida che coinvolge tutti: dalle aule scolastiche ai laboratori universitari, fino alle famiglie attente alle differenze nei percorsi educativi.