Non è vero che d’estate la stampa offre poco, e che in agosto non succede niente. A tempo di record, sfidando le ferie estive, è uscito ieri il rapporto dell’INValSI sull’esito della prova standardizzata nell’esame di stato della secondaria di I grado: quella indirizzata suppergiù ai nostri 14enni. Questo rapporto è già un segno incoraggiante non solo perché i ricercatori dell’INValSI si sono fatti in quattro, ma soprattutto perché mostra che le scuole hanno collaborato con tempestività. Il 100% del campione stratificato, con la sola eccezione di una scuola d’Abruzzo che ha sospeso gli esami per il terremoto, ha risposto alla richiesta e non ha fatto mancare i propri dati al database, costruito in tempi brevissimi.
Qual è il valore di una prova standardizzata l’abbiamo già detto in diverse occasioni. La comparabilità fra scuole, cioè la costruzione di una scala ordinata che permetta ad una scuola di sapere se è “in media” o “sotto la media” rispetto a tutte le altre, porta un primo calmiere all’anarchia delle valutazioni finali. Pensiamo alla comparazione sul medesimo territorio: due scuole di I grado su una stessa zona che hanno risultati in uscita molto differenziati inviano al segmento successivo studenti disomogenei, il che significa che una parte di loro che parte con un ritardo accumulato che farà la differenza.
Senza in questo momento chiederci il solito “di chi è la colpa”, è un fatto che il “sistema” (quello responsabile della formazione degli insegnanti, delle circolari sulla valutazione, degli standard organizzativi etc.) non è stato in grado negli ultimi decenni di garantire un sistema equilibrato su tutto il territorio nazionale. Non si tratta dei programmi, uguali per tutti, ma degli esiti. Quelli per i quali un 100 dato alla maturità ha un contenuto paragonabile (non certo identico) in qualunque zona d’Italia sia assegnato. Quelli per i quali il titolo di studio, ovunque conseguito, produce (in diversi modi) le medesime competenze in uscita.
La prova nazionale si guarda bene dal fissare degli standard. Per questo è necessario un lavoro lungo di misurazioni successive, di confronto fra output (i risultati scolastici) e outcome (risultati più a lungo termine come l’inserimento nel mondo del lavoro o la prosecuzione degli studi, il long life learning etc.) e di paragoni a livello internazionale. Fornisce però dei paletti comuni, un punto con il quale tutti possono paragonarsi. I risultati forniti per adesso sono quelli “grezzi” in termini di percentuale di risposte corrette, considerando ogni domanda come = 1 e non come dotata di un peso e di una difficoltà maggiore o minore (come nelle più famose prove PISA); per questi ulteriori dati si aspetta il rapporto generale condotto su tutte le scuole.
Una prova standardizzata si guarda bene anche dall’indicare le strade per i miglioramenti interni: la struttura incide massicciamente sugli esiti, e un buon ordinamento prende in considerazione non solo i programmi, i metodi, le ore scolastiche, ma anche i finanziamenti, l’arruolamento, la formazione etc.: non si fanno le nozze coi fichi secchi. Ma intanto all’Istituto nazionale per la valutazione del sistema si fanno passi avanti, notevoli: a livello di procedure statistiche, di perfezionamento dei quadri di riferimento, di predisposizione delle prove. Bisogna lasciare il tempo al bambino di crescere e dimostrare le sue potenzialità, basta che la strada sia percorsa senza tentennamenti. E intanto le prime comparazioni fra scuole fanno riflettere.
Vediamo i miglioramenti metodologici rispetto all’anno passato. L’accuratezza dei dati è oggetto di attenzione massima, giacché si tratta della base per qualsiasi considerazione successiva. Sicuramente la procedura per il campionamento è stata seguita con grande cura, così come la raccolta dei dati di contesto socioeconomico degli alunni, e le metodologie per depurare i dati in uscita da quelli distorti da comportamenti opportunistici. La prudenza dell’anno passato, che aveva fatto solo ipotizzare comportamenti scorretti in alcune scuole (leggi: aiutare gli studenti) è stata sostituita da una meticolosa ricerca di strumenti per riconoscere tali situazioni e poterle così espungere dai risultati, perché non invalidassero l’intero database (v. p. 22-23 del rapporto).
L’anno scorso la possibile distorsione dei dati riguardava una ventina di scuole, quasi tutte al sud, e avrebbe spiegato l’anomalia per la quale i dati nazionali in termini di voti assegnati davano sempre un sud molto forte, mentre i risultati OCSE PISA indicavano costantemente una distanza notevole rispetto al Nord (ai livelli alti della graduatoria OCSE, almeno in alcune regioni). Da qui i controlli che quest’anno invertono la graduatoria. La distanza in termini di punteggio grezzo fra nord-centro e sud è attualmente per italiano di 27,9 punti (calcolati su 40 item) al nord contro 25,1 su 40 al sud. Questo dato conferma la distanza, ma non è così catastrofico come quello che proviene dalle prove PISA 2006, dove lo scarto (sempre per le prove di lettura) era fra un 506 del Nord Est (Italia 469, media OCSE 500) e un 443 nel Sud e addirittura 425 nel Sud-Isole. La distanza appare più realistica nelle prove dell’INValSI, dove forse gioca anche la motivazione a partecipare, più alta che nelle “straniere” prove PISA.
Quello dei comportamenti opportunistici è un fenomeno destinato a diminuire (mi auguro), giacché non è possibile materialmente occultare i comportamenti non corretti, che vengono evidenziati con strumenti validati a livello internazionale. Comincia ad essere di pubblico dominio il fatto che il valore di una prova comparativa è il miglioramento delle sorti dell’Italia nel suo complesso, e non gli interessi particolari di questo o quel dirigente, collegio docenti, insegnante che sia; come non è interesse di nessuno abbassare il livello delle prestazioni richieste in proporzione all’ignoranza crescente, il che produrrebbe magari voti alti per tutti, e sfascio a livello internazionale. Il problema non è più quello dei voti; è invece trovare il punto da cui avviare l’inversione di tendenza, e forse sono proprio le prove standardizzate, nella loro portata comunque limitata.
Del resto i quadri di riferimento cominciano ad essere un punto di riferimento per il mondo della scuola. La ripresa dell’insegnamento della grammatica, o della geometria e della probabilità, è un merito da attribuire in buona parte alla presenza di questi ambiti nelle prove INValSI, fin della sessioni pilota. I ragazzi quest’anno sono stati preparati non solo sugli argomenti di studio, ma anche sulle modalità con cui viene chiesto loro di dimostrarsi competenti: gli item degli anni precedenti, gli esempi messi a disposizione a suo tempo, cominciano ad avere un effetto benefico. Si tratta di item la cui formulazione si perfeziona nel tempo, sia come validità nel misurare ciò che è oggetto di prova, sia come varietà di processi richiesti e di gradi di difficoltà.
Interessanti dal mio punto di vista le prove di italiano: le domande di comprensione del testo chiedono sempre di mettere in moto processi anche raffinati di inferenza, di ricostruzione del significato attraverso segnali impliciti, di collegamento logico fra parti diverse. Sul versante della coerenza testuale, grammatica e processi cognitivi vanno di pari passo, là dove un connettivo o una forma implicita del verbo fanno la differenza. Imparare a ragionare sulla lingua è un aspetto primario della competenza di un giovane.
Si tratta di un punto dolente della nostra pratica didattica, emerso anche dalle prove internazionali. Il difetto delle nostre scuole non è affatto il nozionismo, come da più parti è stato affermato in passato (da sostituire con “imparare ad imparare”), ma l’automatismo, la risposta routinaria, l’algoritmo prevedibile “studio-sono interrogato”, che fa da contraltare all’altrettanto logoro algoritmo “spiego-interrogo”. In mezzo c’è un mondo di azioni, di gesti, di esperienze vissute in classe, attraverso le quali le nozioni vengono apprese attivamente utilizzando il meglio di sé, la capacità di ragione e di affezione, l’attenzione agli scopi per i quali i contenuti esistono e alle domande alle quali rispondono.
Paradossalmente, la ripresa del senso dello studio è la migliore risposta alle sfide delle prove standardizzate.