Precedute da molti rumors e da una indiscrezione giornalistica giungono alfine le notizie sulla prova standardizzata esterna collocata da quest’anno all’interno dell’esame di terza media.

I fatti.

La legge 53 (Riforma Moratti) all’art 3 prevede che all’interno degli esami di stato vi sia una parte, non solo definita, ma anche corretta a livello nazionale.



Dopo qualche rinvio dovuto probabilmente alla delicatezza dell’innovazione, il Ministro Moratti diede ordine all’INVALSI di prepararla, ma alla vigilia delle elezioni.

Cambiò il governo.

Il Ministro Fioroni fu colto nel primo anno dalle stesse perplessità del Ministro Moratti, ma alla fine sbloccò di nuovo la situazione ed ecco che per la prima volta gli studenti di terza media nel giugno 2008 hanno dovuto rispondere a prove sul core curriculum (italiano e matematica) con griglie di correzione definite centralmente. Per addolcire la pillola e stemperare le ostilità ogni commissione poteva decidere che farsene dei risultati. Sarebbe interessante fra l’altro sapere qualcosa in proposito.



I due ministri non hanno agito di fantasia, ma hanno voluto o dovuto importare degli strumenti di garanzia della attendibilità dei voti liberamente (forse troppo liberamente…) dati dalle scuole. De maturità fabula narratur.

Escono ora con un certo ritardo i risultati del campione a suo tempo estratto.

Il ritardo si spiega.

I risultati infatti rovesciano gli esiti di PISA 2000, 2003 e 2006, di tutte le valutazioni internazionali precedenti a partire dagli anni 70 ed anche dell’ultima valutazione campionaria delle scuole effettuata da INVALSI nel 2007. Le scuole campionate del Sud sono superiori a quelle del Nord in Matematica di 1,5 punti, in Italiano di 3,9 punti ed in Grammatica in particolare di ben 7 punti su 100.



Il profano benevolo non capisce dove sta il problema.

Non può essere che gli studenti del Sud rispondano meglio in questo caso perché le domande rispondono maggiormente alle logiche di una preparazione scolastica magari più tradizionale di quella ipotizzata da PISA? e che gli stessi studenti si sentano motivati a dare il meglio di sé in prove di cui capiscono l’utilità personale? se così fosse sarebbero eventualmente da accusarsi di opportunismo, ma non di ignoranza.

Indubbiamente molti pensano, probabilmente con qualche ragione, che i risultati così bassi del Sud in PISA siano anche causati da questi fattori e non a caso ci si sta anche muovendo a livello centrale per motivare e preparare di più insegnanti e studenti a PISA 2009, in modo che diano di sé una immagine più realistica e migliore.

Ma c’è un ma.

Purtroppo il trattamento dei dati statistici può intuire dove si bara. All’interno dei gruppi classe i risultati, soprattutto in competenze strumentali di base, tendono a disporsi secondo una forma a campana: pochi alle estreme, molti nel mezzo. Naturalmente la campana può collocarsi a livelli diversi a secondo del livello di competenza del gruppo. Se invece di una campana abbiamo un leggero dosso o addirittura una tavola, c’è qualcosa che non va. Se il dosso sta in basso vuol dire che la domanda era troppo difficile, se sta in alto che era troppo facile o che qualcuno ha copiato. Ma se in altri contesti si verifica dalle risposte che la domanda non era troppo facile, perché la percentuale delle risposte esatte è normale, è la seconda ipotesi quella giusta.

Ed infatti nel comunicato INVALSI si parla di scuole con risultati di eccellenza in stragrande maggioranza collocate al Sud (20 su 24).

Che fare? Anche i dati delle somministrazioni censuarie ai tempi della Moratti avevano avuto lo stesso problema negli stessi territori. Dovremo rinunciare, come dice qualcuno, a fare valutazioni su tutti e limitarci ai campioni blindando le somministrazioni come i termovalorizzatori?

Purtroppo i dati dei campioni non servono per la valutazione delle scuole e per dare attendibilità ai titoli di studio. L’utilità di piccoli PISA nazionali è relativa.

Al contrario, a partire da questo caso, per completare l’utilizzazione di questi preziosi dati, sarebbe utile che le scuole potessero collocare i loro risultati all’interno del loro contesto, per sapere a che punto stanno e che si abbozzasse qualche ipotesi sul dove collocare il livello di accettabilità, cioè il 6, ovvero il sufficiente.

Il cittadino peraltro si domanda se non ci siano strumenti amministrativi per garantire l’attendibilità dei dati; forse abbiamo finalmente trovato un oggetto concreto su cui valutare i dirigenti.