Con un comunicato stampa da toni a tratti trionfalistici, il 3 novembre scorso, l’ufficio stampa del ministro Giannini segnalava la pubblicazione dei “Rapporti di autovalutazione” (Rav) che le scuole italiane (8.511 scuole statali e 2.126 scuole private) sono state chiamate a compilare tra lo scorso anno scolastico e la prima decade del mese di ottobre. A conclusione del lavoro di diagnosi, gli istituti hanno definito anche specifici obiettivi di miglioramento, da perseguire nel corso di un triennio. Il frutto del lavoro è accessibile a tutti, all’interno del portale “Scuola in Chiaro”, “rinnovato per l’occasione”.
Trasparenza e responsabilità, sono le due parole chiave ricorrenti nel testo pubblicato dal ministero; l’operazione realizzata rappresenta sicuramente una importante novità che va al di là della logica dell’adempimento burocratico: con un grande impegno organizzativo e attraverso il coinvolgimento dei vari attori scolastici, i nostri istituti sono chiamati a fornire di sé una rappresentazione costruita secondo una griglia di lettura comune per tutte le scuole, private e statali. E’ un importante momento di riflessione per tutti, in cui per un attimo ci si ferma, ci si mette in gioco e si riflette su dati generalmente non condivisi e non facilmente accessibili in un unico luogo.
Dai pochi dati riportati dal comunicato emergono anche alcune ombre che meriterebbero di essere oggetto di approfondimento e discussione.
In primo luogo si afferma, con soddisfazione, che “oltre il 95% delle scuole, con picchi del 100% in alcune regioni nelle istituzioni statali, ha pubblicato il Rav”. Questo significa che una percentuale, piccola, ma comunque non trascurabile, di istituti è venuta meno ad un adempimento obbligatorio. A leggere tra le righe, sembrerebbero meno ligie al dovere le scuole del Sud, rispetto a quelle del Nord e le scuole private paritarie rispetto a quelle statali. Qual è il profilo delle scuole che non ha proceduto ad elaborare il Rav secondo le consegne del ministero? Perché sono venute meno al mandato ricevuto? E con quali conseguenze? Ha intenzione il Miur di rendere disponibili informazioni su queste questioni?
Nel rapporto tutti gli istituti sono chiamati ad esprimere un giudizio su se stessi in relazione alle 11 aree di analisi proposte (relative al “contesto”, agli “esiti” ed ai “processi”), utilizzando una scala crescente da 1 a 7.
Un elemento di attenzione è rappresentato dal fatto che “le scuole tendono a posizionarsi omogeneamente sul territorio, intorno ad un livello 4”. In particolare, per le prove Invalsi la valutazioni medie complessive si collocano attorno al valore di 4,15. Tali informazioni sono accolte con soddisfazione dal ministro, che interpreta la media come un dato positivo e l’espressione di una distribuzione equilibrata su tutti i livelli.
Considerando che la valutazione numerica del rapporto sulle aree, pur motivata, è attribuita motu proprio dalle istituzioni scolastiche (i rischi di autoreferenzialità o di giudizi parziali o tendenziosi sono sempre in agguato), sembrerebbe che le scuole, soprattutto in relazione ai risultati delle prove Invalsi, abbiano preferito rinunciare ad esporsi troppo, sia in negativo che in positivo. E questo è in contrasto con i risultati stessi delle prove del Sistema Nazionale di Valutazione, che, come è noto, riproducono realtà molto eterogenee e diversificate all’interno del nostro sistema scolastico nazionale.
La difficoltà delle scuole a sbilanciarsi, anche in un territorio positivo, nasce da un vincolo implicito nella stesura del rapporto stesso: la stesura della quinta sezione del rapporto.
Nella parte finale del Rav si passa dall’analisi alla proposta e si chiede alle scuole di definire gli obiettivi di miglioramento in termini di priorità e traguardi definiti e misurabili, facendo riferimento — possibilmente — ad aree di analisi dotate di minore forza all’interno dell’istituzione scolastica. Nasce da qui, a mio avviso, la tendenza di molte scuole con risultati molti positivi sulle prove Invalsi a fornire rappresentazioni più caute. Se la valutazione è eccellente, è difficile delineare dei margini di miglioramento. Ed aumentano i rischi di una valutazione negativa se non si riescono a mantenere i livelli di eccellenza.
I processi di autovalutazione ora in atto suscitano non poche perplessità anche in relazione all’attuale fase dei processi di autovalutazione, quelli che prevedono la pubblicazione di tutti i rapporti e la fruibilità da parte di chiunque sia interessato a consultarli.
La pubblicazione dei Rav in unico portale aperto, rappresenta, come si è detto, un’operazione assolutamente innovativa e rivoluzionaria per il nostro sistema scolastico.
Il ministro non manca di vantare le nuove funzionalità di Scuola in Chiaro, a cominciare dal tutorial appositamente predisposto per accompagnare anche i neofiti nella lettura di documenti che, per loro natura, presentano un linguaggio e dei contenuti non privi di tecnicismi e di non immediata interpretazione per i non addetti ai lavori.
Sulla piattaforma sono possibili tre livelli di accesso:
1. l’intero rapporto con le tabelle dei dati che le scuole hanno deciso di rendere visibili;
2. la sintesi del rapporto attraverso le autovalutazioni e le relative motivazioni che la scuola si è attribuita per ogni rubrica di valutazione;
3. il set degli indicatori e dei descrittori con l’eccezione di alcuni dati “sensibili” interni al contesto e riferibili alle caratteristiche socio-culturali delle famiglie.
Stando alla nota del Miur del 2 settembre si sarebbero dovuto pubblicare:
A) solo i dati Invalsi con i risultati derivanti dal confronto con le 200 scuole aventi un indice Escs (status economico, sociale e culturale di provenienza delle famiglie) simile. Si tratta dei risultati delle prove Invalsi non riportati in termini assoluti, ma nel confronto con scuole avente caratteristiche simili per la composizione del corpo studentesco;
B) la sola variabilità dei risultati tra le classi.
In realtà — forse inconsapevolmente — sono le istituzioni scolastiche a scegliere il livello di trasparenza nella pubblicazione dei dati. Di default, il sistema rende visibile tutti i dati, compresi i valori assoluti ed i risultati conseguiti dalle singole classi. Alcune scuole hanno optato per la scelta di non rendere visibile alcun dato e di limitarsi alla pubblicazione alla sola analisi qualitativa riferita ai punti di forza e di debolezza sugli esiti degli studenti nelle prove standardizzate, altre invece hanno autorizzato la pubblicazione di tutti i dati, fino ai dati sui punteggi delle singole scuole (in termini assoluti e non riferiti alle classi con Escs analogo) e delle singole classi.
Non sono mancati casi di giornalisti zelanti che hanno passato in rassegna i Rav delle scuole di un intero territorio, stilando una graduatoria degli istituti, secondo il modello delle “league tables” del Regno Unito, con una impostazione — di forte appeal giornalistico ma non corretta sul piano metodologico — che tradisce la logica ed il significato dei processi di autovalutazione che si vorrebbero attuare.
Il Rav è strumento di diagnosi per i singoli istituti, utile a definire un percorso di auto-miglioramento. Ogni lettura parziale ed “aggressiva” del rapporto rischia di minare sia l’operazione trasparenza che il buon esito delle azioni progettate per superare le criticità rilevate.
L’esperienza anglosassone ha mostrato i gravi rischi di tale approccio: è necessario considerare i dati nel loro insieme, contestualizzarli e riferirli al livello economico, sociale e culturale delle famiglie di provenienza degli studenti. In relazione ai risultati delle prove standardizzate — che comunque rappresentano solo uno dei numerosi output scolastici —, per valutare una scuola occorre considerare il cosiddetto “valore aggiunto” e non i punteggi grezzi. La definizione del valore aggiunto di una scuola non è un processo semplice, e non si può realizzare neppure con i dati ora a disposizione dall’Invalsi. Come evidenziano gli esperti del settore, è necessario effettuare rilevazioni specifiche con due valutazioni, articolate nel tempo, di gruppi di studenti di scuole diverse.
Sarebbe interessante, a questo punto, indagare sulle scelte di trasparenza delle singole scuole; quali sono le scelte adottate sul cruscotto di 49 indicatori del Rav? Quali indicatori sono stati resi pubblici e quali no? È possibile descrivere un profilo delle scuole sulla base delle opzioni adottate? Eventualmente, le scelte di trasparenza sono state motivate e discusse nei collegi dei docenti, oppure sono state casuali e sono scaturite semplicemente dall’inerzia di mantenere le impostazioni del sistema?
I dati ora a disposizione rispondono solo parzialmente a tali questioni e forse sarebbe importante dedicare energie ad ulteriori approfondimenti.
Una riflessione su tali aspetti è urgente, anche perché i meccanismi di valutazione del nostro sistema di istruzione, così come definiti dal Regolamento del 2013 e dai successivi provvedimenti attuatori, appaiono per tanti versi ancora fragili e vulnerabili, e sembrano essere percepiti più come elemento di giudizio e di tensione per le singole scuole che come reale strumento di “accountability”, in grado di costituire un’opportunità reale ed efficace per i processi di miglioramento da mettere in atto.