F. Lincei - Didattica/IA - 24nov2025 | A | 10d
1 Giornata di studio su didattica e intelligenza artificiale
Si affronta il tema complesso dell’impatto dell’intelligenza artificiale nell’educazione scolastica, considerato “un tema interessante di grandissima attualità che interroga tutti quanti noi”. L’evento nasce per recepire “una domanda di formazione su questo tema che è venuta proprio dai docenti”, raccolta attraverso questionari sottoposti ai partecipanti alle attività formative dell’anno precedente. L’intelligenza artificiale genera una “rivoluzione che ha determinato del cambiamento rapido e radicale del modo in cui noi lavoriamo”, toccando anche “quella della pedagogia e dell’educazione”. Viene citato il dato che “l’87% di studenti utilizza l’intelligenza artificiale generativa”, segnando un’accelerazione nello sviluppo di queste tecnologie. Si esplora il duplice ruolo dell’IA, paragonato a un “farmacon, è davvero medicina e veleno”. Un tema centrale è l’introduzione dell’intelligenza artificiale nel sistema scolastico, incluso “all’interno dei programmi”, come evidenziato dalla partecipazione di una responsabile del Ministero dell’Istruzione “della revisione degli ordinamenti scolastici”. Vengono discusse le potenzialità, come la creazione di “esperienze coinvolgenti” e “vantaggi per i docenti, preparazione dei materiali, riduzione del carico didattico burocratico”, ma anche le criticità, tra cui la mancanza di competenze e il problema di “una coperta che deve coprire tutto”, in un settore “sottofinanziato”. Emergono temi minori come la personalizzazione della didattica, l’insegnamento della logica formale a scuola, il rapporto tra IA e creatività, e le questioni etiche legate al suo utilizzo.
2 Principi, applicazioni e criticità per un uso consapevole a scuola
L’argomento verte sull’integrazione dei sistemi di intelligenza artificiale generativa nei contesti didattici, esplorandone le potenzialità, i limiti e le implicazioni pratiche. Si sottolinea che “l’intelligenza artificiale è uno strumento nuovo” (31) e che “non c’è un’indicazione ad utilizzarlo, c’è semplicemente la definizione di principi di riferimento che devono accompagnare appunto l’adozione dell’intelligenza artificiale in maniera consapevole e sicura” (1837). Viene posta particolare attenzione al ruolo del docente, che deve evolversi verso una figura di “teacher, che è un po’ una cosa che è uscita fuori quasi per caso e per scherzo, ma è un insegnante che mantiene le sue caratteristiche di, diciamo, dimensionali di pedagogia, di pedagogista, […] ma è anche vero che deve essere disposto a sposare quella che è la alcuni costrutti della cultura maker, cioè la capacità di fare costruire, progettare, cocostruire con gli studenti, coprogettare con gli studenti” (2195). Un tema centrale è il superamento della concezione dello strumento come fornitore di risposte, a favore di un approccio che lo veda come “interlocutore cognitivo, uno spazio in cui si fanno domande, si fanno delle ipotesi, si ricevono delle risposte, i dubbi vengono rilanciati, trasformati, messi alla prova” (825). In questa prospettiva, “l’obiettivo non è chiedere alla macchina di dirci il vero, perché ragione in modo statistico e quindi una verità statistica quella che ci fornisce, ma nell’usarla per vedere meglio il problema, per affrontare meglio il problema che vogliamo risolvere” (835). Viene inoltre esaminata la questione della valutazione, con proposte che spostano l’attenzione dalla soluzione al processo, come “farci portare insieme a un eventuale progetto, un eventuale assignment, anche i prompt usati alla soluzione dell’assignment e questo mette in evidenza, avendo ovviamente spiegato come usare questi strumenti per risolvere i problemi, mette in evidenza il tipo di ragionamento che fanno loro e quindi la profondità che loro raggiungono per risolvere il problema” (967). Tra i temi minori emergono la necessità di sviluppare competenze specifiche, poiché “non è automatico che siamo tutti capaci di fare le domande giuste” (2308) e “buona scrittura dei prompt, il fare bene le domande, il formulare bene le proprie richieste diventa una competenza che ha dietro una letteratura, un mercato e tutto quanto” (2294). Vengono infine segnalate criticità come l’affidabilità delle risposte, poiché “quando si guarda in rete, quando si guarda l’intelligenza artificiale non sempre le risposte possono essere affidabili, le risposte sono state selezionate in base ai gusti di cui ha fatto artificiale, quindi quello che viene detto non può essere preso come oro colato” (31), e il rischio di “overconfidenza prima della competenza” (1084) da parte degli studenti.
3 L’integrazione dei modelli linguistici di grandi dimensioni nei processi di insegnamento e apprendimento
Viene trattata dell’integrazione dei modelli linguistici di grandi dimensioni, come l’intelligenza artificiale generativa, nei processi di insegnamento e apprendimento. Vengono esplorati i vantaggi per i docenti, tra cui la “preparazione dei materiali” e la “riduzione al carico didattico burocratico”, nonché la possibilità di “monitoraggio dei progressi dell’apprendimento”. Per gli studenti, si sottolinea la “personalizzazione” dell’esperienza formativa, il supporto all’“accessibilità” e la “preparazione nel mondo del lavoro”, considerando che “queste tecnologie saranno fondamentali per accedere al mondo del lavoro”. Un tema minore ma ricorrente è la personalizzazione, citata come “personalizzare i materiali” per i docenti e “personalizzare l’esperienza di insegnamento, l’esperienza di apprendimento”. Viene riconosciuta la necessità di un approccio critico e guidato, poiché questi strumenti, utilizzati “con la guida continua, sistematica, però discreta dell’insegnante”, possono aiutare a “costruire e approfondire significati per i concetti”. Un ulteriore tema minore è la sfida della valutazione in questo nuovo contesto, che richiede “valutazioni umanistiche, io direi semplicemente umane, perché se non c’è il sistema automatico tocca a noi valutare le cose”.
4 L’impatto dei grandi modelli linguistici sulla scrittura e sulla didattica
Valutazione e integrazione degli strumenti di intelligenza artificiale generativa nei processi di produzione, revisione e apprendimento della lingua.
Si verte sulle capacità e i limiti dei grandi modelli linguistici, in particolare ChatGPT, nell’ambito della produzione e della revisione dei testi. “Traduzione automatica, per esempio, funziona - uso spesso questo avverbio - fastidiosamente bene, fa degli errori, ma ormai ha raggiunto il risultato di una buona traduzione umana non revisionata in molti ambiti”. Viene esaminato l’uso di questi strumenti per attività come la riformulazione, la sintesi e il miglioramento della chiarezza. “Il fatto che i benchmark, i cosiddetti sistemi di valutazione delle le pratiche di valutazione adottate dall’industria eh siano ingannevoli” solleva questioni sulla valutazione oggettiva delle loro prestazioni. Un tema centrale è l’impatto nella didattica: da un lato, “per favore qui per favore usi Chat GPT prima di consegnarmi il lavoro” ne suggerisce un uso guidato; dall’altro, “se il compito dello studente è scrivere segni, mettere inchiostro su carta senza preoccuparsi del rapporto di questo con cose più ampie, dice giustamente me li faccio, me li copio pari pari da chat GPT” evidenzia il rischio di un utilizzo sostitutivo e non critico. Emerge la tensione tra l’opportunità di “aumentare il lavoro creativo e ridurre il lavoro noioso” e la necessità di sviluppare e preservare competenze fondamentali. Viene infine accennato allo sviluppo di “un LLM italiano” come possibile risorsa specifica.
5 Didattica e intelligenza artificiale: ruolo del docente e nuove competenze
L’integrazione dell’intelligenza artificiale generativa nella scuola come ambiente cognitivo e culturale, che trasforma il processo di apprendimento dalla trasmissione di contenuti alla padronanza di processi critici e dialogici, richiedendo nuove literacy e ridefinendo la centralità del docente come mediatore, guida e garante della qualità epistemica.
L’arrivo dell’intelligenza artificiale generativa rende una trasformazione già in atto “ancora più centrale e strutturale”. L’IA non è vista come “un oracolo e non è un sostituto del pensiero”, ma come “un ambiente, uno spazio in cui il pensiero umano può esercitare verifica, contestualizzazione, confronto fra prospettive”. Questo sposta “il focus della didattica dalla padronanza dei contenuti alla padronanza dei processi cognitivi”, dove “il valore educativo non sta più nella quantità delle informazioni, ma nella qualità con cui gli studenti interagiscono, con cui gli studenti imparano a analizzare, scomporre, verificare, argomentare”. Il ruolo del docente evolve conseguentemente: “passa dal curatore del processo” a “regista del dialogo tra lo studente e l’intelligenza artificiale” e “mediatore critico” che deve “vedere le omissioni, deve cercare i bias, deve insegnare a valutare”. Il suo intervento è essenziale per mantenere vivo “il giudizio, la responsabilità epistemica e la profondità del pensiero”, rendendo “ancora più necessaria la presenza del docente”. Emerge la necessità di nuove competenze, le New Literacy, che includono “la capacità di comprendere, valutare, utilizzare in modo critico l’intelligenza artificiale” e la data literacy, “la capacità di leggere, saper lavorare con i dati, analizzarli e discuterli”. Viene affrontato il tema del pensiero critico, con l’IA che può offrire occasioni per svilupparlo, ad esempio quando “le cosiddette allucinazioni possono essere occasione di indagine a scuola e di analisi”, ma anche con il rischio che un “uso costante diffuso dei chatbot indebolisca l’efficienza delle funzioni cognitive superiori”. La cornice delle cyber humanities suggerisce che “la tecnologia non è un insieme di funzioni, è un ambiente culturale”. Viene infine citato un parallelo storico con l’introduzione della scrittura, anch’essa vista inizialmente come “questa invenzione rovinosa per la didattica umana”, a sostegno di un approccio ottimista e ponderato all’innovazione.
6 Evoluzione dell’intelligenza artificiale: dall’emulazione simbolica del pensiero all’apprendimento statistico dai dati
L’evoluzione dell’intelligenza artificiale è segnata da un passaggio da “un sistema di manipolazione simbolica” a un approccio basato sui dati, dove la convergenza di “competenza tecnica, come far funzionare reti neuronali, capacità computazionale, macchine che riescono a farle girare e disponibilità di dati su web” ha reso possibile l’apprendimento automatico. Questo ha portato all’era dell’AI generativa, caratterizzata da prestazioni notevoli in campi come il riconoscimento di immagini e capacità di ragionamento che “riescono a piazzarsi nei primi tre posti alle Olimpiadi internazionali della matematica”. Emerge tuttavia una dualità fondamentale tra l’intelligenza artificiale simbolica, la cosiddetta “symbolic AI”, e quella statistica. La prima, basata sulla “logica formale”, è ritenuta “assolutamente indispensabile per arrivare a livelli di garanzia assolutamente elevati” in sistemi critici, come il “controllo avionico”, dove l’incertezza non è ammissibile. La seconda, che opera per “inferenza statistica”, sebbene potente, solleva problemi di “allucinazioni”, trasparenza e “bias” che “in larga parte di solito dipendono dai dati che sono stati usati per fare il training”. La frontiera della ricerca mira a “una integrazione riconciliazione tra questi due approcci”, come nei sistemi neurosimbolici che integrano “intelligenza neurosimbolica e intelligenza statistica”. Ulteriori temi minori includono le sfide regolatorie, come l’AI Act che “chiede che questi sistemi siano trasparenti e spiegabili”, le preoccupazioni per le “capacità emergenti” dei sistemi che “tendono a diventare strategici, quindi magari a cercare di ingannare l’interlocutore”, e l’impatto nell’educazione, dove si studiano “i fondamenti, il pensiero computazionale, rappresentazione dei dati, quindi non soltanto coding, ma anche primi approcci al machine learning”.
7 Le basi logiche e matematiche dell’intelligenza artificiale simbolica e la sua rilevanza per l’istruzione.
L’importanza della logica formale come fondamento per lo studio dell’intelligenza artificiale e la sua introduzione nei curricula scolastici. Viene proposta “l’idea che invece dell’intelligenza artificiale a scuola, perché non insegnare la logica formale”, ponendo le basi per lo studio dell’IA partendo dalla disciplina logica. La logica è definita come “la disciplina che studia in modo rigoroso la struttura delle argomentazioni e le regole del ragionamento”. L’argomento traccia una connessione storica e concettuale tra logica, informatica e IA, sostenendo che “Leai è una storia lunga, nasce nel 1956” con John McCarthy, il quale “propone di utilizzare con il connubio tra informatica e logica matematica per costruire l’AI simbolica”. Viene enfatizzata la rilevanza della logica matematica, i cui “oggetti del discorso sono le proposizioni” e i “modelli rispetto ai quali una frase, una proposizione è vera o falsa”, citando il contributo di Alfred Tarski che “definisce una definizione matematicamente rigorosa di quando una proposizione è vera”. Un tema minore è l’applicazione pratica della logica nell’IA simbolica, come “la deduzione automatica, cioè costruire algoritmi, cioè procedure, programmi che dimostrano teoremi”, utilizzabile per “provare la correttezza dei sistemi”. Un altro tema minore affronta le criticità nell’istruzione, come la carenza di “questa propensione a investire poi le risorse in questo ambito” e la sfida che “la maggior parte dei docenti che sono in cattedra a matematica e tecnologia non ne hanno studiata di informatica, quindi bisogna insegnargliela”. Viene infine menzionata l’esistenza di diverse logiche, come “le logiche epistemiche, le logiche temporali, le logiche dinamiche”, nate dagli “stimoli della computer science e della artificial intelligence”.
8 Opportunità, rischi e la costruzione di un approccio critico e consapevole
Viene tratta l’introduzione dell’intelligenza artificiale generativa, in particolare dei modelli linguistici di grandi dimensioni, nei contesti scolastici. L’argomento verte sulla necessità di un uso non passivo di questi strumenti, poiché “l’intelligenza artificiale può accedere molto velocemente, in maniera più profonda di quanto possa essere fatto con la ricerca internet a un database enorme di informazione”. Si sostiene che la scuola sia il luogo deputato a sviluppare “un approccio più consapevole, più critico” e a favorire “una postura diversa da quella passiva che caratterizza un pochino il consumatore di conoscenza”. Vengono esplorati i rischi ineliminabili, come “le allucinazioni, i rischi della per la privacy” e la potenziale “perdita del pensiero critico”, che coesistono con le opportunità. L’attenzione è posta sulla responsabilità degli insegnanti nell’guidare gli studenti, in quanto “se non si usano a scuola, naturalmente le studentesse, gli studenti difficilmente possono acquisire queste competenze per un approccio più consapevole e critico”. Viene menzionato il tema del divario digitale, poiché “scuole con meno risorse avranno anche meno opportunità di avanzare”. L’argomento include anche la proposta di utilizzare l’IA come strumento di riflessione per discipline classiche e per “rivedere e anche il senso un po’ diverso, anche stimolante nei confronti per gli studenti, le discipline classiche”. Un tema minore ricorrente è la formazione dei docenti, identificata come “il nodo critico”. Viene infine citata la sperimentazione in atto in “un limitatissimo campione di scuole” italiana.
9 Principi e procedure per un utilizzo consapevole e conforme alla normativa nella scuola italiana.
Il documento ministeriale delinea i principi per l’introduzione dell’intelligenza artificiale nel sistema scolastico, sottolineando la necessità di un “utilizzo non occasionale” all’interno di un “progetto didattico” strutturato. Vengono identificati i requisiti normativi, con particolare attenzione alla protezione dei dati personali, ai “requisiti tecnici” e alle “certificazioni”. L’approccio deve essere by design e by default, ovvero conforme alla protezione dei dati “già al momento della sua progettazione”. Le linee guida promuovono “l’equità” e “l’innovazione etica e responsabile”, fornendo “istruzioni operative e strumenti di accompagnamento”. L’utilizzo dell’IA è presentato come una possibilità, non un obbligo, in un “quadro di riferimento” che le scuole possono adottare. Sono menzionate applicazioni per il dirigente scolastico, i docenti e gli studenti, nonché l’importanza della “formazione per i docenti”. Il testo cita una sperimentazione in “12 scuole” e la necessità di “comunità di pratica”, pur riconoscendo che le esperienze sistematiche sono ancora limitate. Viene infine evidenziata la necessità di “attività formativa, audit o valutazioni periodiche” in un’ottica di costante aggiornamento.
10 La risposta formativa a una tecnologia pervasiva: risorse, competenze e divari.
Viene trattata l’introduzione e la gestione dell’intelligenza artificiale nel sistema educativo, dalla scuola all’università fino alla formazione aziendale, come risposta a una “domanda di formazione su questo tema che è venuta proprio dai docenti”. Emerge con forza la centralità della “formazione docenti”, identificata come “il nodo critico”, che non può essere demandata a “interventi sicuramente meritori dal basso”, come webinar su “unisciti a noi che imparerai a utilizzare l’ultima app di intelligenza artificiale”. Tale formazione richiede un approccio strutturato e non può essere una “risposta tecnica”, ma deve integrare “le competenze pedagogiche, didattiche, eccetera con le nuove tecnologie, non scordandosi, appunto, la cornice etica e normativa”. Si sottolinea la necessità di risorse dedicate, poiché “questa è roba che in qualche maniera richiede tante risorse che sono al di là di un istituto”, auspicando “una risorsa nazionale per gli insegnanti”. Un tema minore ma ricorrente è il “digital divide”, per cui “scuole con meno risorse avranno anche meno opportunità di avanzare”. Questo si collega al rischio di divaricazione delle “barriere socioeconomiche”, poiché “i contesti privilegiati vogliono dire quantomeno accesso anticipato delle risorse formative, quindi agli strumenti, ai dispositivi, ai software, ai servizi intes intelligenza artificiale, ma anche alle competenze”. L’argomento affronta anche le potenzialità inclusive dell’IA, che offre “degli assistenti che ci consentono di non lasciare nessuno indietro, incluse le persone con bisogni, diciamo, particolari” e strumenti per “riduzione dei divari territoriali”. Viene infine menzionato il contesto economico-finanziario, con riferimento agli “investimenti di information technology” e al dibattito sulla “bolla delle AI”, e la necessità di “conoscere esattamente… dove vengono fatti gli investimenti” che sono “da parte di aziende private”.
8C25D792558AE2D01BC85E630CA9D24F7007B99263B90C91E2C2D58E7696144CB6D704AE09BACC2DEAE4BB6F4C2EDC6A48579EC8D4A84AACF46BF0D20E7256F65167653C1727B4D38D55DD45C55C0057F10E5C72D102500CBF2C2C05304587C381DCA655A00DC4156FB2129189AF5861783202377A94F20B63CE6E326575894F9448E7A17F76B803847A8F102875B934350A7440E7B2B4953A202FDE38285A17B4DD8D1AB4D2C22BB4DBE81C11D4332F8DEFEC0B05E2A32D35E8BC911E721CA39BC854AED6C511CBC109D64D5DC175B307736C8AFA39DFBB01B898F6A381BAAF18C1822E054E362EA381DF1B64D1042A68C953725BA744530256984FE6715C02DEEDC90C51B9EAFE966EA3741AB2D4F805B583BADFA175DFDC31819816FE07D0F2C4C0197281215CA379B66223A5DFDA1F1EAA9240008302B5206B57C46895064542D3D2C10A3E494CC66BD14E326381A61430C423BC398751A48FCBD036E9B530EBA75D61AF5A8AB882D1131123F69BAEF6DB5DA168154B