È un momento caldo per l’università italiana, e non perché siamo in agosto. Da poco è stato avviato il processo della VQR (la Valutazione della qualità della ricerca, 2004-2010) e stanno per partire (il bando è uscito il 27 luglio) le procedure di abilitazione nazionale per professori associati e ordinari. Le due cose hanno punti di contatto importanti: dal punto di vista istituzionale, il ruolo dell’Anvur; dal punto di vista della discussione non soltanto tecnica, ma culturale, sono in gioco in entrambe le vicende le modalità, i parametri, i criteri di valutazione che possono essere applicati alla ricerca. Sia per una valutazione delle strutture universitarie (dipartimenti, facoltà, atenei) che per conferire un’abilitazione che consenta poi il reclutamento è necessario valutare i prodotti della ricerca. Come farlo?



La discussione che si è sviluppata su questo “come” – pochi contestano oggi che si debba farlo – è stata ed è accesa, e sarebbe opportuno restasse quello che deve essere, ossia una discussione su un tema importante di cultura e politica della ricerca: troppo spesso viene presentata e sentita da qualcuno come una lotta tra “vecchi” e “nuovi”, tra Vandea accademica che resiste all’innovazione e avanguardia produttiva, tra baroni locali e studiosi “internazionali”, tra cordate accademiche e bande varie. Ciò che è in gioco è piuttosto un conflitto di idee, che ha bisogno di posizioni anche nette, comunque chiare, magari dure, ma che può essere produttivo – può essere una vera discussione – se delle idee si parla e non delle persone, delle loro molteplici aggregazioni, delle loro mire. 



Un tratto caratterizzante di quanto è avvenuto e sta avvenendo in Italia è dato non solo dal ruolo dell’Anvur, ma anche dal modo in cui l’Anvur lo sta interpretando. Sull’Anvur e la sua ambigua natura istituzionale ha scritto in questa sede Sandro Staiano, che si è soffermato anche sull’uso delle procedure bibliometriche e in genere “quantitative” che si è scelto di adottare. Su questo secondo aspetto mi limito a brevi osservazioni, per richiamare quelle che mi sembrano le questioni principali per poi accennare ad un contesto problematico più vasto. 

Il primo problema riguarda in generale l’uso di “indicatori”, ossia di dati quantitativi dai quali si dovrebbero ricavare indicazioni, appunto, sulla qualità della ricerca svolta. Gli indicatori sono “sintomi”, per così dire, che possono consentire, date certe condizioni definite e controllate, ragionevoli inferenze. La bibliometria è diventata negli anni una tecnica complessa e ha elaborato indicatori raffinati, tra cui il famoso indice Hirsch o H-index (il numero di citazioni ricevuto incrociato con il numero di pubblicazioni prodotte). L’uso di indicatori è ragionevole se sono date molte condizioni (si può contestare, ad esempio, come si è fatto, che le citazioni siano un indice di qualità: si può citare un lavoro per motivi opposti, oppure per amicizia, o citare se stessi), e se la banca dati su cui ci si basa è affidabile. Non voglio soffermarmi su questo. 



Osservo un’altra cosa: se il sistema valutato sulla base di indicatori è un sistema consapevole di sé (costituito da attori consapevoli), una valutazione basata su indicatori produrrà inevitabilmente la tendenza di alcuni ad agire sugli indicatori stessi, non sul fenomeno che dovrebbero indicare. Le tacche di un termometro indicano una temperatura corporea che può indicare uno stato patologico dell’organismo (e poi si tratta di capire quale patologia); ma un bambino – sano – che non vuole andare a scuola cercherà di riscaldare il termometro. Così, se il numero di citazioni ricevute dagli articoli di una rivista contribuisce al ranking della rivista, i direttori potranno indurre chi pubblica in essa a citare articoli dalla rivista stessa. Fantasie malfidenti? È già avvenuto: un sondaggio svolto tra 6.670 autori da ricercatori dell’University of Alabama, pubblicato su “Science”, ha rivelato che più del 20% delle riviste si comportavano in questo modo. Tra i rei della coercitive citation svettava il “Journal of Business Research”.

Fenomeni di retroazione (di risposta dei soggetti valutati all’uso di indicatori estrinseci) possono essere anche positivi, ma comunque creano problemi. Per fare un esempio meno legato alla disonestà, e più alle “buone pratiche”: laddove alcuni criteri puramente esterni, non riguardanti la qualità intrinseca di prodotti, come ad esempio la presenza di un comitato scientifico, diventano parametri di valutazione, gradualmente tutte le riviste o le collane provvederanno a dotarsene: un effetto positivo è raggiunto, ma l’indicatore alla fine non serve più a discriminare, ha annullato se stesso.

Non pretendo di dire in due parole nulla di conclusivo su una discussione complessa (rimando a molti interventi sul sito www.roars.it). Vorrei solo ricordare che questa complessità avrebbe richiesto prudenza. La peculiarità italiana è stata  la precipitazione. Per la VQR, l’Anvur ha allestito  classifiche di riviste in un paio di mesi, con rapide consultazioni con le società scientifiche, che prevedevano però l’adesione ad uno schema prefissato, senza precedenti all’estero: quello di una lista ristrettissima di poche riviste suddivise in fasce di merito, senza indicazioni di criteri, senza protezione contro conflitti di interesse, senza trasparenza. 

Conclusa questa vicenda, l’ombra lunga degli indicatori quantitativi si è riversata sulle procedure di abilitazione. Con un decisivo salto di qualità, gli indicatori bibliometrici (per alcuni settori scientifici) e il conteggio del numero di pubblicazioni e delle pubblicazioni in riviste di “fascia A” sono diventati condizioni per la valutazione di singole persone. Qui il passaggio è davvero fondamentale, e gravissimo: gli indicatori quantitativi, con i problemi che comportano, e che aumenteranno per quella autoconsapevolezza del sistema valutato che ricordavo, hanno in ogni caso una certa presa su grandi numeri e strutture complesse. Se la pubblicazione su una rivista internazionale non garantisce la qualità, un Dipartimento dove nessuno avesse mai pubblicato su riviste internazionali si presenta comunque male. Ma applicato a singoli, il criterio quantitativo può portare a serie distorsioni e ingiustizie, soprattutto se organizzato in modo approssimativo, come di nuovo in fretta e furia ha suggerito l’Anvur: per calcolare il numero di pubblicazioni si sommano insieme articoli, libri, traduzioni, saggi in volumi collettanei, per cui un libro sul Risorgimento frutto di anni di ricerche vale in linea di principio come la traduzione di un libro altrui.

C’è un filo comune in tutto ciò? O è solo improvvisazione? Improvvisazione  credo ci sia stata, al Ministero come all’Anvur: ma vi sono anche aspetti culturali ed ideologici che conviene mettere in discussione. Provo a indicarli (senza indicatori) in poche parole. 

L’università è chiamata sempre di più a rendere conto di ciò che fa verso la collettività e verso lo Stato (che è in Italia l’ente erogatore di finanziamento). Questo principio in sé legittimo di accountability è applicato però nel quadro di una cultura economicistica, o se si vuole in un contesto in cui quella che è stata a lungo la funzione socialmente riconosciuta dell’università – produrre cultura, trasmettere cultura – non è percepita più come centrale. Come ha sottolineato già a metà degli anni 90 in relazione alle università nordamericane un bel libro di Bill Readings (The University in Ruins, Harvard University Press), la parola d’ordine è diventata “eccellenza” (che, come una scoria tossica non trattata, comincia ad andare per la maggiore ora da noi) e lo scopo percepito lo human resource development, non la cultura. 

In questo contesto, ciò che sfugge alla misurabilità ed alla commisurabilità è sospetto, e dunque lo sono in prima linea le scienze umane. La particolare difficoltà di applicare criteri quantitativi e bibliometrici di valutazione alle scienze umane, richiamato qui da Adriano Fabris, non è che un aspetto di tutto questo: rendicontabile all’esterno è ciò che è traducibile in un linguaggio quantitativo “oggettivo”, che prescinde dalla logica interna di un campo di ricerca e di un ambito della cultura. Assumere questo modello come prevalente, e applicarlo alla valutazione di individui che svolgono ricerca vuol dire trasformare modi e scopi della ricerca. In questa logica, tecnocratica e aziendale, che ha piena legittimità nel suo ambito, e naturalmente in alcuni ambiti di gestione dell’università stessa, conta il funzionamento del meccanismo e contano i risultati statisticamente considerati. È per questo che qualcuno difende oggi metodi palesemente inadeguati di valutazione o normative palesemente ingiuste con ragionamenti del tipo: ci saranno comunque errori statisticamente poco rilevanti; le ingiustizie saranno meno che in passato. Eppure c’è una differenza di fondo tra un sistema che produce errori per sua inevitabile imperfezione, ed un sistema che programma falsità, che prevede ingiustizie, in nome del fatto che i conti tornino. Pensate a qualcuno che scriva un libro sapendo che un quarto di ciò che scrive è falso; a un giudice che condanni venti persone sapendo che due di quelle sono innocenti. Cose del genere non sono valutabili in un ottica di quantità e di percentuali, anche dove le percentuali fossero più favorevoli: cose come diritti, verità, democrazia, consapevolezza critica, o anche semplicemente conoscenza (quanto vale un teorema?). 

Credo che sia opportuno riportare al centro della discussione, anche sugli aspetti tecnici della valutazione e del reclutamento, la funzione civile e culturale dell’università. Un tempo, secondo Readings, era legata alle culture nazionali e ai loro Stati. Oggi è da collegare con una più complessa e problematica cultura cosmopolita e globale, che non può essere quella delle multinazionali. Attenzione: non si tratta principalmente di difendere, come ha fatto di recente Martha Nussbaum, la funzione civile delle discipline umanistiche. Il problema riguarda altrettanto le scienze naturali, basti ricordare un detto scherzoso del Nobel per la fisica Richard Feynman: “Science is like sex. Sure, it may give some practical results, but that’s not why we do it”.

Concludo ricordando un recente episodio che riguarda la mia università. Senato accademico e consiglio d’amministrazione hanno dovuto dire no alla realizzazione di un polo tecnologico sulla collina degli Erzelli a Genova, in cooperazione con privati ed enti locali, per l’impossibilità di investire in esso una quarantina di milioni. Di fronte agli attacchi violenti nella stampa locale contro l’incapacità dell’Ateneo di “investire nel futuro” i direttori di alcuni dipartimenti hanno dovuto sottolineare che il compito delle università non è quello di fare ardite operazioni imprenditoriali, ma è quello di “offrire formazione e fare ricerca”. C’era bisogno di ricordarlo? C’è bisogno.