L’iniziativa di un gruppo di associazioni legate al mondo della scuola che auspicano la revisione della modalità censuaria delle misurazioni Invalsi ha ragioni comprensibili. Da un po’ di tempo a questa parte i risultati delle prove Invalsi stanno uscendo dai confini della “misurazione” e cominciano ad avere degli effetti pratici, benché a macchia di leopardo. Non sfugge agli osservatori che ad un certo punto si passa dalla raccolta dei dati al loro utilizzo, con conseguenze sulla “policy”, tali cioè da incidere sul sistema, e ciò richiede molta attenzione perché la cura non generi effetti indesiderati.



Un nuovo uso dei dati Invalsi è previsto fra i criteri perché una istituzione scolastica possa essere accreditata per lo svolgimento del TFA (presumibilmente quindi una “buona” scuola): è richiesto necessariamente che essa si collochi almeno entro la media regionale dei dati Invalsi (DM 93 30.11.2012 Allegato A art. 1 c ). Questi valori medi risentono però del fattore Escs, cioè del contesto socioculturale, e non sono ancora dati di valore aggiunto che misurano l’efficacia della scuola, come ci ricorda il prof. Checchi: non parteciperebbero scuole che operano benissimo in territori difficili contrastando arditamente un livello culturale basso. la restituzione alle scuole da Invalsi del dato medio in paragone con un campione di 200 classi/scuole con medesimo background socio-culturale serve in parte a ridurne l’effetto; ma per la identificazione delle scuole da accreditare tale dato non pare essere considerato. Che cosa succede poi se una scuola non ha ricevuto i dati di alcune classi, escluse a causa di un alto tasso di propensione al cheating (comportamenti “opportunistici”)? Non sono pochi i casi di cheating “falsi positivi”: gli studenti non si diversificano per abilità e non si collocano in modo standard sulla gaussiana, ma non perché hanno copiato o è stato loro suggerito, bensì perché sono tutti piuttosto bravi. Mi risulta che ciò sia accaduto al Liceo Quadri di Vicenza, dove i risultati di classe non sono arrivati per questo motivo; paradossalmente il liceo Quadri di Vicenza non è adatto a ospitare tirocinanti per il TFA perché i suoi risultati medi sono… troppo alti. Qui è necessario qualche aggiustamento.



Sulla scorta del progetto sperimentale Vales (cfr. sito Invalsi) si comincia a parlare di “piani di miglioramento”, che hanno come obiettivo finale migliori esiti di apprendimento attraverso il controllo di una serie di processi. Il progetto è sperimentale, ma il suo influsso comincia a sentirsi anche oltre le scuole coinvolte (300 finanziate + 300 volontarie). A “valutare” le scuole non sarà l’Invalsi, che ha solo messo a disposizione un’ampia batteria di indicatori studiati a livello internazionale, ma le scuole stesse, attraverso protocolli e procedure comuni e comparabili, anche con l’aiuto di esperti esterni.



Un problema sostanziale, a mio avviso, riguarda l’individuazione da parte delle singole scuole dei fattori specifici che sono in grado di incidere positivamente sugli apprendimenti dei loro studenti: la sinergia fra ricerche sugli esiti e ricerche sui processi, impostasi a partire dagli anni duemila, comporta che i processi vengano identificati secondo criteri di efficacia rispetto agli esiti. È cioè importante concentrare i piani di miglioramento su processi che abbiano una sicura ricaduta sugli esiti (giacché il nostro problema attuale è generare risorse umane qualificate, in grado di incidere positivamente sulla ripresa economica). Chi però sa dire in modo certo quali “punti di debolezza” delle singole scuole vanno migliorati? Sono certo opportuni piani di miglioramento, ma quanto questo “funzionerà” si vedrà solo a distanza di anni, tenendo conto che anche il sistema ha le sue responsabilità. 

Gli studi internazionali hanno messo in luce che, mentre i processi localizzati nelle scuole sono difficilmente intrecciabili con gli esiti, incidono sicuramente elementi “di sistema” come per esempio il grado di autonomia delle scuole (per questo il fattore è monitorato dal progetto Ocse Talis – Teaching And Learning International Survey, pag 37). Dopo i risultati disastrosi di Pisa 2000 la Germania spinse sull’acceleratore dell’analisi degli indicatori Pisa proprio per decidere su quali progetti sperimentali investire, e investì in autonomia. Sarebbe interessante conoscere quanto tali studi vengono tenuti in considerazione nelle politiche italiane.

Intanto però la realizzazione di piani di miglioramento di scuola diventa fattore di valutazione del dirigente, chiamato dal superiore gerarchico regionale a programmare alcuni obiettivi e a raggiungerli. Come questo nesso fra aspetti contrattuali e vita scolastica possa avvenire virtuosamente non so dire: la vita di una scuola come organismo di relazioni umane è cosa assai delicata, in cui l’impegno del dirigente a bene operare ha un valore molto alto (ma qui c’è in gioco anche lo stipendio). 

Oltre tutto la mole dei dati aumenta: oltre a quelli provenienti dalle misurazioni Invalsi, le scuole avranno presto a disposizione il nuovo Fascicolo “Scuola in chiaro” (da non confondere con il sito “Scuola in chiaro” – ah, se ci fosse il garante-dei-nomi-di-progetto a fare da filtro!): il merito del Fascicolo è quello di mettere insieme in un formato comune diverse banche-dati, in modo da rendere disponibile tutto quanto viene raccolto da enti diversi sulla vita di una istituzione scolastica (per esempio le competenze professionali degli insegnanti che provengono dall’anagrafe professionale). Rispetto alla mancanza di dati quantitativi fruibili di anni fa, si tratta di uno sforzo notevole, anche per la definizione di benchmark comuni. Mi veniva in mente un paragone: non ci sarebbe stata la grande storiografia tedesca dell’Ottocento senza lo sforzo immane della pubblicazione, a partire dal 1826, dei Monumenta Germaniae Historica, volumi che nella biblioteca dell’Università Cattolica – ricordo − occupano un’intera parete. La pubblicazione delle fonti fu seguita da una stagione critica intensa, che rese feconda l’erudizione filologica.

Mi trovo impegnata in questi giorni come relatore in conferenze regionali di servizio per dirigenti (“Valutazione e autovalutazione delle istituzioni scolastiche”) promosse dal Miur, e sono stata colpita dalla mole di tutti questi dati. Vedo però che a tutti quelli che vengono coinvolti nei seminari (in teoria tutti i dirigenti scolastici d’Italia) è chiaro che l’interpretazione dei dati richiede criteri adeguati, e che un approccio critico adeguata a questo lavoro non si improvvisa. Il contesto, si dice, è il criterio guida perché ogni scuola dia le spiegazioni più motivate dei suoi esiti; la “narrazione” sembra però la versione moderna dell’autovalutazione pre-Invalsi, se è sganciata da punti di riferimento oggettivi. Ecco perché è fondamentale la lettura competente e l’interpretazione “validata” dei vari dati e della loro relazione con gli esiti. Come il professor Checchi sono convinta che ci voglia una certa cautela: l’immissione di informazioni se diventa ipertrofica non favorisce la distanza critica, le associazioni frettolose fra dati e spiegazioni possono portare fuori strada, le soluzioni a buon mercato sono sempre peggiori dei ragionamenti di lungo periodo. Ecco perché accanto all’autovalutazione interna ci vogliono anche buone ricerche scientifiche da parte di chi questo servizio dovrebbe offrire alla società, cioè l’università (come furono in Germania gli studi di Ludwig Woessman dopo i primi risultati delle rilevazioni Ocse).

Quanto ai dati Invalsi, essi ci parlano di alcuni apprendimenti degli studenti, e solo indirettamente vengono messi in relazione a processi a livello di scuola. In un punto la relazione è più visibile, ed è l’orientamento delle prove al raggiungimento di competenze trasversali: non basta che i nostri studenti si impadroniscano di automatismi, conoscenze statiche, algoritmi: è richiesto, per “sapere” veramente, che si metta in moto il ragionamento personale, la capacità di porre i problemi e di trovare soluzioni. Questo serve all’uscita dalla stagnazione:  chi ha voglia guardi il breve video di introduzione alla mostra Benzine: le energie della tua mente organizzata dalla Fondazione Golinelli (anche se condivido solo in parte l’ipotesi della mostra).

I risultati Invalsi mostrano con chiarezza che alcune competenze trasversali sono poco presidiate. I nostri studenti: a) fanno fatica a rispondere a domande aperte, specialmente se devono spiegare una procedura o fornire i criteri di una risposta; b) non mettono in atto strategie per utilizzare tutti gli impliciti sia nel problema di matematica (con conseguente errore nel problem posing) sia nella comprensione di un testo; c) non si rendono conto del senso globale dei testi (aspetti 5a e 6 del quadro di riferimento per la lettura), ma anche dello scopo di un problema (che non è “fare il calcolo”). 

E se per migliorare gli apprendimenti si dovesse lavorare su questi punti deboli, con una certa lena e coinvolgendo tutte le materie scolastiche? Anche la storia o la chimica possono attivare le medesime competenze, su qualunque tipo di testo o di problema. È l’ipotesi di una azione di formazione-informazione nell’ambito dei progetti Pon, svoltasi a Napoli all’inizio di febbraio. Sottoporre gli studenti a batterie di item simili su contenuti di italiano o di matematica risultati deboli è certo meno efficace che non insegnare a ragionare per problemi su qualunque contenuto. Se c’è qualcosa che le prove Invalsi stanno facendo è spingere nelle direzione della padronanza consapevole di alcuni “processi”, sia in matematica sia in lettura sia in grammatica e indirettamente su tutto il curricolo. 

Per questo, se di policy dobbiamo parlare, è richiesto il contributo sia della ricerca scientifica sia della ricerca in didattica.