Si racconta – non si sa se sia vero – che in Giappone il piccolo battaglione campionario di quindicenni che vanno a sostenere il test internazionale OCSE PISA venga accompagnato dai compagni di scuola con incoraggiamenti da stadio olimpico e acclamazioni da curva sud, come supporto psicologico ai giovani eroi che tengono alto l’onore nazionale. Se pure fosse esagerato, e molto nipponico, l’aneddoto dice dell’attenzione che in certi Paesi riscuotono queste prove.



L’Italia, pur avendo partecipato alle misurazioni internazionali fin dalla prima edizione PISA nel 2000, fino a ora le ha trattate con imperdonabile disinteresse e a volte con una certa sufficienza piena di pregiudizio: sono test tipicamente “anglosassoni” per studenti abituati ai quiz, la nostra scuola ha ben altri fondamenti culturali, in fondo i nostri studenti in Erasmus sono i migliori. A parte poi scoprire che le domande a risposta aperta sono più numerose delle domande a crocetta, e che le competenze richieste sono anche molto alte. In ogni caso, mentre in Germania subito dopo i primi deludenti risultati del 2000 furono attivati piani di emergenza di vario tipo (v. art. su le scuole autonome), in Italia la prima iniziativa del Ministero fu un seminario interno solo nel febbraio 2005.



Ora, visto che si svolgerà nel prossimo mese di aprile 2009 la quarta rilevazione OCSE PISA con al centro le capacità di lettura, da questo autunno è stata avviata dal MIUR e dall’INValSI una campagna di informazione sugli obiettivi e le modalità della indagine, con l’intento di invitare tutti – studenti, insegnanti, dirigenti scolastici e indirettamente genitori – a viverla con consapevolezza e serietà.

La cosa non è senza conseguenze. Infatti uno dei traguardi (o benchmark) di Lisbona è la diminuzione del 20% della percentuale di quindicenni con scarsa capacità di lettura (in pratica quelli che si trovano sotto il “livello due” di PISA), cioè dal 19,4% del 2000 a un 15,5% nel 2010. In Europa nessun progresso è stato fatto dal 2000 al 2003, e anzi in alcuni casi c’è stato un peggioramento (media UE salita al 19,8%), a parte alcuni Paesi virtuosi (Finlandia passata dal 7 al 5,7% e Irlanda stabile all’11%). Fra i paesi in calo c’è l’Italia che è passata dal 18,9% (2000) al 23,9% (2003) al 26,4% (2006): cioè più di un quarto non sa procurarsi informazioni da un testo scritto, capirne la logica interna e paragonarlo con quello che sa (sono queste le tre dimensioni indagate).



Almeno su questi dati è necessario ragionare. Perché i nostri vanno così male? Come ovviare?

Intanto, i risultati medi dell’Italia sono il frutto non solo dell’alto numero percentuale di scarsi, ma anche del basso numero di studenti ai livelli di eccellenza (quasi la metà della media OCSE): le questioni da affrontare sono dunque di natura diversa. Inoltre le carenze si concentrano in certe regioni della penisola, con il Nord Est che risulta ai primissimi posti della scala OCSE e il Sud-Isole al margine inferiore, e questo ci interroga sulla disomogeneità del nostro sistema di istruzione e dei contesti sociali in cui esso opera; infine la varianza dei risultati, sebbene meno estesa che in altri Paesi, riproduce il divario già noto fra i licei (e a volte i tecnici) da un lato e gli istituti professionali dall’altro, secondo una forbice che si apre irrimediabilmente nel corso del triennio delle medie: è la questione della coerenza del curricolo.

Competenze di lettura in Italia: dati aggregati e disaggregati per macroarea (fonte INValSI sui dati PISA 2006)

Questo per quanto riguarda alcuni aspetti strutturali. Se si guardano invece le singole domande, quelle in cui gli studenti italiani si bloccano sono, a sorpresa, proprio le domande aperte, dove le omissioni della risposta superano di gran lunga le medie OCSE. Qui, dove si richiede di dare soluzioni proprie e non risposte standardizzate, pur stando alle consegne e ai vincoli proposti, di ragionare e di rischiare un’opinione motivandola, casca l’asino: sotto il livello-soglia stanno le capacità solo applicative, meccaniche, riproduttive, quelle che potevano essere accettabili in un’economia taylorista e che oggi con evidenza non bastano più. La “sufficienza” non può voler dire “qualcosa ha detto”: è questione di standard di accettabilità.

Si suggerisce che sia anche questione di metodologie didattiche, e che il modello trasmissivo (la tipica lezione frontale) non regga più. Certo non regge il nozionismo: i nostri studenti di liceo, benché per lo più non ricevano un insegnamento in forme innovative, laboratoriali etc., paiono già pronti al problem solving: si sa che una bella traduzione dal latino “fa competenza”, se non altro perché abitua al pensiero ipotetico deduttivo. È questione di comprendere bene in che modo maturano le fantomatiche competenze e abilità, di trovare le strade che tutti possano percorrere, e di utilizzare i nostri curricoli scolastici (fra i più articolati) per questo. Non si tratta di “studiare per il test”, ma di non farsi trovare irresponsabilmente disattenti alle competenze di rielaborazione della conoscenza richieste dal mondo di oggi.

Si è valutata seriamente l’ipotesi che i nostri quindicenni già ora possono fare meglio se sono avvertiti del tipo di domande e della abilità richieste, se sono seriamente impegnati, se vengono motivati a rispondere. Da qui il programma di informazione, finanziato con Fondi sociali europei del Programma Operativo Nazionale “Competenze per lo sviluppo”, e quindi riservato in prima battuta alle “regioni convergenza” del PON (Calabria, Campania, Puglia e Sicilia).

Si è trattato di un considerevole impegno per l’INValSI e il MIUR: sono stati realizzati, fra novembre e dicembre, circa 130 seminari in 24 province tenuti da circa 200 formatori esperti (fra cui chi scrive), per informare e sensibilizzare sull’indagine OCSE-PISA circa 20.000 insegnanti di italiano, matematica e scienze del biennio della scuola secondaria di secondo grado. Una quantità di materiali dei seminari sono pubblicati in rete, e vi si può accedere dal sito dell’INValSI (v. collegamento a fianco).

L’obiettivo è stato quello di chiarire le finalità dell’indagine, rileggendo i quadri di riferimento, analizzando le prove per capire come sono costruite e quali informazioni (ovviamente relative agli oggetti di indagine) restituiscono i risultati. In un secondo momento sarà necessario anche operare sui fattori “malleabili”: quelli che sicuramente incidono sui risultati e che possono essere modificati ex ante. Ma qui ci sono anche scelte politiche importanti da fare, per le quali occorre un certo baldanzoso coraggio.