La recente lettera del presidente dell’INValSI Piero Cipollone ai dirigenti scolastici, che è già stata commentata su queste colonne, contiene anche osservazioni sulle prove a cui gli studenti vengono sottoposti, le quali hanno come scopo la “rilevazione degli apprendimenti”.

Il punto saliente di una misurazione nazionale, diversamente dalla misurazioni internazionali come OCSE PISA, è appunto rilevare l’operato delle scuole in termini di apprendimento degli studenti. L’OCSE, dopo i precedenti tentativi di IEA (progetti TIMSS e PIRLS) di costruire prove sul “minimo comune multiplo” dei programmi scolastici delle diverse nazioni partecipanti, ha decisamente abbandonato questa strada e ha imboccato quella di misurare non ciò che la scuola fa, bensì quello che i quindicenni comunque (a scuola e fuori) hanno maturato in termini di autonomia nell’uso di saperi strumentali all’esercizio della cittadinanza, proiettandosi quindi verso il futuro: cosa saranno in grado di fare da adulti? Anche per questo motivo la correlazione fra le prove PISA e i diversi sistemi scolastici riguarda per lo più aspetti strutturali o di sistema, per esempio l’incidenza di esami centralizzati sui risultati, ma non l’operato concreto delle scuole al loro interno.



La misurazione nazionale dovrebbe avere tutt’altro scopo, e guardare indietro: cosa è stata capace di fare la scuola in termini di crescita degli apprendimenti, al netto di quello che fanno la famiglia e il contesto socio-economico, e dell’assetto istituzionale comune a tutte le scuole italiane? La scuola infatti serve a fare crescere gli apprendimenti degli alunni e a fornire loro competenze sempre più alte nel corso del percorso di studi: se così non fosse, essa si limiterebbe a riprodurre le condizioni socio-culturali delle famiglie di provenienza senza alcun “valore aggiunto”.



Se l’OCSE PISA pertanto basa le proprie prove sugli aspetti cognitivi sottostanti all’utilizzo di codici alfa-numerici, prescindendo da curricoli e conoscenze scolastiche, il Sistema Nazionale di Valutazione fa invece esplicito riferimento agli obiettivi e ai saperi scolastici, benché selezionati su alcune competenze fondamentali come la padronanza della lingua scritta e della matematica: il core del core curriculum di cui ha parlato Tiziana Pedrizzi.

Chiarita la diversità di prospettive e di oggetti, vale la pena di osservare più da vicino di quali “apprendimenti” si stia parlando.



Limitando la mia attenzione alle prove di italiano, il punto di partenza è sicuramente la “competenza chiave” numero uno dell’Europa, cioè la padronanza della lingua materna. Tale competenza, secondo il documento elaborato per l’innalzamento dell’obbligo scolastico, si estrinseca in realtà in tre sotto-ambiti: la padronanza del parlato (ascoltato o prodotto), la padronanza della lingua scritta, la comprensione della lingua scritta, oggetto appunto delle prove. Le prove INValSI testano sia la padronanza generale delle strutture della lingua italiana sia la padronanza linguistica applicata a testi particolari.

La fonte per il Quadro di riferimento è la normativa attualmente in vigore. In realtà in Italia esistono, oltre al citato documento per l’obbligo, altri due documenti contemporaneamente operanti, e cioè le Indicazioni nazionali del ministro Moratti e le Indicazioni per il curricolo del ministro Fioroni. Uno dei contributi del Sistema Nazionale di Valutazione è quello di fondere gli aspetti comuni di questi due documenti in un unico quadro alla base delle prove, e di fare da bacino collettore tra la pratica didattica nelle scuole (rappresentata nel Gruppo di lavoro dai molti insegnanti dei diversi gradi scolastici) e il curricolo nazionale garantito a tutto il sistema. In questo contesto si colloca anche l’introduzione della prova standardizzata interna all’esame di stato conclusivo del I ciclo, che consente di collegare fra loro, attraverso una prova comune nazionale, le diverse esperienze di tutte le scuole medie in Italia.

Come accade in tutte le misurazioni che riguardano variabili latenti, il test si basa sulla definizione il più precisa possibile delle dimensioni e dei processi coinvolti nella competenza-macro. Così il quadro di riferimento delle prove di italiano analizza la competenza di comprensione dei testi scritti individuando una competenza testuale (organizzazione logica degli argomenti), una competenza lessicale (in termini di ampiezza ma anche di profondità di richiami interni al lessico) e una competenza morfosintattica (che soprintende a tutti i nessi di coesione – fra cui per esempio nessi temporali, aspetti modali dei verbi, coreferenze pronominali, portata logico-semantica dei connettivi etc.). E’ da qui che derivano le prove sia su testi particolari sia sulle strutture della lingua italiana.

Nella preparazione delle prove ci sono almeno due problemi, che cominciamo ad affrontare solo ora, dal momento che la storia della valutazione in Italia data massimo 5-6 anni, a fronte dei 30 di altri paesi come USA o Australia, e che impegnano fortemente l’INValSI.

Da un lato la difficoltà di costruire prove, diverse dalle prove di profitto cui si sottopongono gli studenti a scuola, che siano in grado di cogliere la variabile latente in maniera affidabile, coprendo tutti i sotto-aspetti e tutti i livelli di difficoltà (cosa si misura e con quale gamma di diversi “pesi”). Il grado di difficoltà di un quesito per esempio è un aspetto fondamentale: per misurare una serie di individui di diverso grado di abilità è infatti necessario disporre di un numero elevato di “pesi” di diversa difficoltà. Avendo sempre concepito i nostri curricoli in termini di contenuto, e avendone definito il ‘grado’ in modo improprio-aggettivale (“semplici elementi di …, strutture fondamentali …, sufficiente capacità …”), ci troviamo davanti la questione dei descrittori: cosa comporta, quanto è semplice, e perché? In questo campo all’estero ne sanno molto più di noi: l’OCSE è in grado di descrivere in maniera assolutamente esatta la prestazione di uno studente di livello “due”, anche utilizzando a questo scopo la metodologia dell’Item Response Theory, che in Italia si sta affermando solo recentemente. La nostra difficoltà a costruire curricoli verticali dipende in buona parte dalla mancanza di strumenti di validazione esterna per misurare la progressione di difficoltà dei curricoli scolastici.

Dall’altro lato c’è il problema della piegatura che tutto ciò comporta nella pratica scolastica: come si fa per esempio a fare una morfosintassi finalizzata all’acquisizione di competenze ? Non si tratta del deteriore teaching to the test, bensì di un opportuno richiamo ai fini dell’istruzione, che non si basano sull’autoreferenzialità delle materie scolastiche, bensì sulla loro cooperazione alla costituzione della cultura in senso lato: non bisogna cadere nel tranello di pensare in termini di competenze “funzionali” in senso utilitaristico, perché una popolazione “acculturata” ha soprattutto capacità di operare su modelli astratti, formalizzazione del pensiero razionale e argomentato, consapevolezza della stratificazione dei contributi culturali alla risoluzioni dei problemi fondamentali della vita personale e associata. Il tema è quello del rapporto fra curricoli e competenze in uscita, che non può più essere differito. Anche questo è un buon motivo per ripensare le “discipline”, in termini di contributo alla crescita delle abilità e delle competenze degli studenti, rompendo la scontatezza della loro riproduzione – come veniva suggerito dai due articoli di Roberto Vicini e Giovanni Cominelli su questo importante tema.