
«Vista la portata del fenomeno, per noi insegnanti l’irrompere dell’intelligenza artificiale nella vita scolastica è paragonabile alla pandemia di Covid19. Allora abbiamo dovuto attrezzarci in tempi brevissimi con la didattica a distanza e inventarci un nuovo modo di insegnare. L’arrivo dell’IA sulla scena non presenta le stesse caratteristiche emergenziali però, oggi come allora, il cambiamento si impone. Per adesso, si subisce». Serena Braglia insegna Lettere alla scuola secondaria di primo grado “Enrico Fermi”, a Reggio Emilia: sa che alcuni dei suoi studenti i compiti a casa li fanno fare a ChatGpt e non sono certo gli unici. Il problema è generalizzato ed è impossibile far finta di nulla. Né sarebbe intelligente, considerato che più passa il tempo e più l’IA diventa parte integrante della nostra quotidianità, invisibile ma presente in tutti i dispositivi di ricerca che già utilizziamo. Lo scorso maggio Google ha annunciato l’introduzione di Gemini – diretto concorrente di ChatGpt – nei motori di ricerca del gruppo, per cui, con il passare del tempo, diventerà (è già diventata?) sempre meno evidente la distinzione tra ricerca in rete e richiesta ai sistemi di Ia.
Strumento pervasivo finché si vuole, ma sempre uno strumento: né buono né cattivo in sé. Può essere motore di miglioramento, anche e soprattutto a scuola, tra i ragazzi, a patto di non sottovalutare le possibili conseguenze negative: «Soprattutto nell’adolescenza – prosegue Braglia – il cervello si sviluppa, le sinapsi proliferano. Ma se i ragazzi chiedono all’IA di risolvere i calcoli per loro, di tradurre dalla lingua straniera, di esprimere giudizi o di essere creativa… Il rischio è che si ritrovino con alcune capacità cognitive inibite». E speriamo di no, considerato che stanno venendo alla luce i bambini della generazione Beta la cui caratteristica sarà crescere fianco a fianco con l’intelligenza artificiale. Miglioreranno insieme? Sapranno collaborare per il bene comune? Crediamoci. Per ora, tocca a noi – adulti non sempre digitalmente alfabetizzati – cavalcare (o farci stravolgere) dal cambiamento inarrestabile.
«Qualcosa bisognerà inventarsi per sopravvivere – ragiona Marco Andreoli, professore di Lettere al liceo artistico “Enzo Rossi”, a Roma – perché lo strumento c’è e fa passi da gigante. La cosa singolare è che persino all’università si fanno ancora esami chiedendo agli studenti di portare una tesina, cosa del tutto anacronistica perché ChatGpt e le altre IA disponibili sono perfettamente in grado di comporne una credibile per un esame universitario. La peggiore delle soluzioni è impedire ai ragazzi l’accesso a questi strumenti. Proibire non paga mai. Piuttosto, spetta ai docenti capire cosa sia questo gigante, questo mostro». E chissà che uno dei problemi non stia proprio in questo atteggiamento: considerare l’IA un nemico significa arrendersi in partenza perché con un antagonista così, la guerra non si può che perdere. Davanti ai mostri meglio scappare… «E un mostro fino a quando non lo conosciamo. Resta da capire – si domanda Andreoli – se esiste la volontà da parte dei docenti di compiere questo scatto epocale. Magari a un passo dalla pensione». Sicuro non aiuta poter contare su una classe di insegnanti tra le più vecchie d’Europa (e peggio pagate): l’età media supera i 50 anni.
«Molti dirigenti lungimiranti in questi anni hanno investito soldi ed energie nella formazione digitale del loro corpo docente e ci sono iniziative all’avanguardia. A fronte di qualche arretratezza. L’IA – secondo Gianni Ferrarese, professore al liceo per 43 anni, autore del libro “101 idee per usare l’intelligenza artificiale in classe» (Erickson) – è uno strumento come un altro. Quando è stata introdotta la penna a sfera c’è chi ha alzato le barricate sostenendo che i bambini non avrebbero più imparato la bella scrittura, a cui pareva adatto solo il pennino». Del resto, Platone criticava la scrittura stessa. Ogni epoca ha avuto il suo nemico, negli ultimi trent’anni dalla televisione cattiva maestra si è passati ai videogiochi fonte di tutti ai mali, e poi al computer, allo smartphone che rimbambisce ai social che isolano… Con gli adulti sempre divisi, chi sul fronte del vietare, chi su quello dell’educare. «La scuola – prosegue Ferrarese – è bloccata in una metodologia didattica superata. La lezione frontale, dove l’insegnante spiega, poi chiede ai ragazzi di studiare a casa quel che ha detto e infine di ripeterglielo in classe, non è più proponibile. Ma esistono molti altri metodi, e anche molto più creativi. È quel che si chiama attivismo pedagogico, sono gi studenti stessi con attività laboratoriali a creare il loro sapere. Si assegna loro un ruolo attivo. In questa visione l’IA permette di fare molto».

Imagoeconomica
Rielaborazione dei testi e senso critico: a scuola si impara di più senza l'Ia
«Dobbiamo trovare una sorta di equilibrio tra “l’intelligenza artificiale dominerà il mondo” e “l’intelligenza artificiale porrà fine al mondo”» è il pensiero espresso da Isabella Iturrate, liceale americana del New Jersey, che ha incoraggiato la sua scuola a supportare gli studenti che desiderano apprendere l’intelligenza artificiale. Questo equilibrio, secondo Isabella, «sarà impossibile trovarlo senza utilizzare l’intelligenza artificiale in classe e parlarne a scuola». Molte scuole hanno adottato una politica di “astinenza genAI” in classe, ma questo significa solo che gli studenti non stanno imparando le competenze di cui avranno bisogno in futuro, ha spiegato Kartik Hosanagar, professore dell’Università della Pennsylvania: «Sebbene esistano pro e contro nell’uso dell’intelligenza artificiale di base in classe, non possiamo semplicemente fingere che non esista».
Resta, però, aperta la domanda se gli strumenti di intelligenza artificiale possano davvero aiutare gli studenti a imparare? Alcuni ricercatori dell’Università della Pennsylvania sono convinti di no. E, anzi sostengono che l’utilizzo dei grandi modelli linguistici (LLM) come ChatGpt inibisca i processi di apprendimento a lungo termine: per mostrarlo hanno lavorato con alcuni studenti delle scuole superiori che avevano accesso a ChatGpt, il chatbot di Ia di OpenAI, mentre facevano degli esercizi di matematica progettati dai loro insegnanti su argomenti che avevano trattato a lezione. C’era poi un secondo team di studenti che non aveva accesso ad alcun strumento di intelligenza artificiale, ma che poteva consultare gli appunti delle lezioni. Quelli con ChatGPT hanno risolto correttamente il 48% in più degli esercizi rispetto al secondo gruppo.
A seguire, sono stati fatti altri test di matematica, senza strumenti di supporto – né ChatGpt né appunti delle lezioni – e il primo gruppo senza l’intelligenza artificiale a disposizione ha ottenuto un punteggio inferiore del 17% rispetto agli studenti che non avevano avuto a disposizione ChatGpt, dall’inizio. Secondo i ricercatori dell’Università della Pennsylvania, questo risultato negativo deriva dall’utilizzo di Gpt Base come una “stampella”. Invece di impegnarsi attivamente con il materiale, gli studenti tendevano a chiedere direttamente le soluzioni, togliendosi l’opportunità di sviluppare una comprensione approfondita degli argomenti trattati a lezione.
C’è anche un altro aspetto interessante che emerge dallo studio, “L’intelligenza artificiale generativa può danneggiare l’apprendimento”, che riguarda un terzo gruppo di studenti che ha avuto accesso a una versione rivista di ChatGpt che funzionava non offrendo le risposte, bensì dei suggerimenti che orientassero nel processo di risoluzione degli esercizi di matematica. Gli studenti che lo hanno utilizzato hanno ottenuto risultati decisamente migliori nei problemi, risolvendone correttamente il 127% in più rispetto agli studenti che hanno svolto gli stessi problemi matematici senza alcun ausilio tecnologico. Ma il test ancora successivo ha mostrato che questi studenti che prima avevano una sorta di tutoraggio IA non hanno ottenuto risultati migliori rispetto agli studenti che hanno semplicemente svolto i loro problemi aritmetici alla vecchia maniera, da soli: i punteggi nei test si sono eguagliati, quando tutti gli studenti sono stati messi nelle stesse condizioni di non poter consultare alcunché. ChatGPT sembra produrre un eccesso di sicurezza? Gli studiosi americani dell’Università della Pennsylvania hanno paragonato il problema dell’apprendimento con ChatGPT al pilota automatico (Copilot è il nome che Microsoft ha scelto per il suo assistente di intelligenza artificiale, ndr). Hanno raccontato come un eccessivo affidamento al pilota automatico abbia portato l’Amministrazione federale dell’aviazione degli Stati Uniti a raccomandare ai piloti di ridurre al minimo l’uso di questa tecnologia. L’ente regolatore voleva assicurarsi che i piloti sapessero ancora come volare quando il pilota automatico non funziona correttamente.
Uno studio scientifico, fatto in Germania, va nella stessa direzione e mostra che gli studenti tedeschi che utilizzavano ChatGpt che è progettato per rispondere alle domande degli utenti in un linguaggio naturale, simile a quello umano, su un’ampia gamma di argomenti erano in grado di trovare materiali di ricerca più facilmente, ma tendevano a sintetizzare tali materiali in modo meno abile e meno approfondito rispetto ai loro coetanei che al posto di ChatGPT usavano i motori di ricerca tradizionali, che indirizzano gli utenti a siti web che potrebbero contenere informazioni rilevanti.
Sui processi di apprendimento Matt Beane, professore di Technology Management dell’Università della California, va oltre: «L’apprendimento formale ti consente di cominciare a giocare. Ma avere una conoscenza concettuale del lavoro o fare esercizi di pratica è ben diverso dalla capacità di svolgere il lavoro sotto pressione. Per arrivarci, la maggior parte di noi fa ancora prevalentemente affidamento sulla collaborazione con una persona esperta. Questo rapporto plasma il nostro lavoro consentendoci di stratificare lentamente, in maniera incrementale, quelle competenze che ci permettono di ottenere risultati nel momento del bisogno», scrive nel suo ultimo libro “Il Dna delle competenze. Come salvare l’abilità umana nell’era delle macchine intelligenti” che uscirà in Italia il 28 febbraio per Egea. «Perché le tecnologie intelligenti siano davvero utili, il legame tra esperto e principiante dovrà sopravvivere. Per prosperare, il futuro dell’abilità ha bisogno delle stesse tecnologie che ci preoccupano – scrive ancora –. Dobbiamo usarle per arricchire, espandere e amplificare lo sviluppo delle competenze per tutti. Dobbiamo renderle parte della soluzione, non del problema».
Viene da chiedersi se questo significherà focalizzarsi ancora di più su formazione umana, attitudini e sensibilità, attributi propri degli esseri umani che mai potranno essere sostituiti. Forse, l’intelligenza artificiale in mezzo a tanti cambiamenti travolgenti può aiutarci a concentrarci di più sull’umanità.