È stato messo autorevolmente in evidenza sulle colonne del Corriere della Sera dei giorni scorsi ciò che da tempo su questo sito si era segnalato: la distanza fra la distribuzione geografica delle eccellenze negli esami di stato ed i risultati del Servizio Nazionale di Valutazione Invalsi, stavolta arrivato al 2° anno delle superiori cioè a solo tre anni prima della “maturità”. Negli esami di stato il Sud – Calabria in testa – eccelle con una grandinata di 100 e lode, mentre nei dati Invalsi si torna alla solita graduatoria delle valutazioni internazionali: Nord su e Sud giù.



L’impressione che i risultati degli esami al Sud fossero gonfiati la si è sempre avuta, ma è indubbiamente altra cosa avere delle evidenze quali quelle che solo le prove standardizzate esterne possono dare.

Già da tempo tuttavia l’indagine internazionale Pisa segnala questa realtà. Nel rapporto nazionale Pisa 2003 Maria Teresa Siniscalco, project manager nazionale, aveva per la prima volta messo in rilievo questo aspetto. Infatti nel questionario che ogni studente campionato da Pisa deve compilare dopo aver terminato di rispondere agli item è presente una domanda in cui si chiede quale è l’ultimo voto “ufficiale” ricevuto in matematica (focus dell’indagine). Le possibilità che le risposte non siano attendibili sono limitate, sia per la mancanza di interesse ad alterare i dati, sia perché sui grandi numeri le eventuali scorrettezze vedrebbero annullato il loro effetto.



Dalle analisi di Siniscalco risultava che la scala delle capacità degli allievi, come fotografata dai voti della scuola, era perfettamente parallela a quella di Pisa, con un effetto dunque di un rinforzo di attendibilità reciproco. Ma risultava anche che ad uguali voti corrispondevano diversi effettivi livelli fra licei, istituti tecnici ed istituti professionali – il che è comprensibile. E risultava soprattutto che ad uguali voti corrispondevano diversi effettivi livelli Pisa nelle diverse parti di Italia, il che è decisamente meno comprensibile. In sintesi, un livello leggermente inferiore al livello medio Ocse corrispondeva in Lombardia ad un 5, e nel complesso d’Italia ad un bel 7.



Nel 2006 Pisa non aveva raccolto le informazioni su questo dato per la difficoltà di individuare il voto di scienze (focus dell’indagine) che potesse fare da punto di riferimento. Ma nel 2009 i dati sui voti nelle competenze focus dell’indagine (che sono quelle di Lettura) dichiarati dagli studenti delle diverse regioni italiane – tutte separatamente campionate – sono disponibili di nuovo. Tuttavia, nonostante la scottante attualità  del tema né il Rapporto nazionale Pisa 2009 né i Rapporti  regionali fin qui rilasciati hanno proseguito sulla strada indicata nel 2003.

Fa eccezione il rapporto lombardo, in uscita nell’autunno, che dedica al tema un apposito capitolo a cura di Guido Gay ricercatore Eupolis (l’ente di ricerca di Regione Lombardia) e Moris Triventi, ricercatore del Dipartimento di Sociologia dell’Università di Milano Bicocca.

Queste le sintetiche conclusioni. In primo luogo ancora una volta, a conferma di quanto rilevato nel 2003, in tutte le regioni, senza eccezioni, sussiste una relazione positiva tra il voto in Italiano ricevuto nel primo quadrimestre e il livello delle competenze in Lettura. Al crescere del voto cioè cresce il livello delle competenze. Gli insegnanti italiani hanno in mano la scala di valori giusta, ma il problema sta nel fatto che la “appendono” ad altezze diverse.

Infatti ad una singola valutazione scolastica corrisponde un ampio intervallo di livelli medi di competenza. A titolo d’esempio, un 5 in Lombardia corrisponde mediamente a 489 punti, valore superiore ad un 7 in Calabria (479 punti in media). E ancora, per ottenere 8 in Lombardia sono necessarie competenze in lettura di fascia superiore (565 punti) mentre in Campania basta molto meno (506 punti). Complessivamente, la Lombardia è la regione in cui le valutazioni sono maggiormente severe, sono associate cioè ai maggiori livelli di competenze tra le regioni italiane.

In conclusione è evidente l’esistenza di una eterogeneità negli standard valutativi secondo una precisa scansione geografica: maggiore severità al Nord, un livello intermedio al Centro e standard decisamente meno impegnativi al Sud.

La frattura geografica negli standard valutativi si evidenzia anche quando si considerino i valori medi per macro area. Per ogni voto, il livello delle competenze richieste è maggiore al Nord (Ovest ed Est) rispetto a quanto necessario al Centro e, con maggiore evidenza, al Sud. Pisa 2009 conferma pertanto in Lettura quanto già emerso in Matematica in Pisa 2003, in consonanza con le più dettagliate indagini condotte da Invalsi.

Sembra urgente l’adozione di misure che mirino quanto meno ad attenuare l’ingiustizia sociale di questa realtà. Almeno dove i voti contano anche per le scelte di vita e professionali, come negli esami di stato finali.