Una radiografia della ricerca italiana come mai è stata fatta fino ad ora. Così, adesso sappiamo che nell’area delle “scienze politiche e sociali” l’Università di Milano-Bicocca è in testa per qualità della ricerca tra i grandi atenei, mentre Pisa Sant’Anna guida il gruppo delle piccole. E così via per tutte le 14 aree scientifiche (la divisione è del Cun, Comitato universitario nazionale) nelle quali si suddivide il “sapere” di casa nostra. Da ieri l’università italiana ha le sue pagelle: il Rapporto Vqr (Valutazione della Qualità e della Ricerca) realizzato dall’Anvur dopo due anni di lavoro e presentato a Roma, alla presenza del ministro Carrozza, si preannuncia come una miniera di dati che potrebbero cambiare, e non poco, le lenti abituali con le quali guardiamo l’università italiana. I numeri sono imponenti: 95 università valutate (tutte), 38 enti di ricerca, 184.878 “prodotti di ricerca” (dagli articoli scentifici alle banche dati, ai poli museali), 450 superdocenti impegnati nella valutazione insieme a quasi 15mila revisori. Ilsussidiario.net ne ha parlato con Sergio Benedetto, coordinatore di tutta la Vqr.
Professore, di che cosa disponiamo esattamente da oggi?
Ognuna delle 14 aree scientifiche in cui sono suddivise le discipline universitarie nel nostro paese vede una graduatoria di tutte le università e degli enti di ricerca. Questa graduatoria, oltre che per università, è fatta anche per dipartimenti. In breve, si può sapere in quale ateneo si trova il miglior dipartimento italiano di fisica, solo per fare un esempio.
Perché fino ad oggi mancavano informazioni così dettagliate?
L’ultimo esercizio di valutazione è stato fatto negli anni 2001-03. Non sta a me dire perché: andrebbe chiesto ai ministri precedenti. Ovviamente non aveva le stesse dimensioni di quello presentato oggi (ieri, ndr).
Gli enti valutati che percentuale sono del totale italiano?
Le università ci sono tutte: pubbliche, private, telematiche, statali, non statali… tutti gli enti che rilasciano un titolo di terzo livello sono stati valutati. Gli enti di ricerca presi in esame sono i 12 vigilati dal Miur, quindi non ci sono ad esempio quelli vigilati dal ministero della Salute (ad eccezione di due che si sono sottoposti volontariamente alla valutazione), più 26 enti “volontari”.
Chi sono i destinatari di questo enorme lavoro, professore?
I risultati sono pubblicati, consultabili sul sito e visibili a tutti. I potenziali interessati sono tanti: si va dagli organi che dirigono università ed enti di ricerca, i quali potranno mettere in atto politiche di miglioramento basate su dati che presentano gli elementi di forza e di debolezza dei loro enti, ai giovani ricercatori che cercano un buon dipartimento per svolgere un dottorato di ricerca o per usufruire di una borsa post-dottorato, e che quindi potranno indirizzare la loro domanda a quei dipartimenti dove la ricerca nel loro settore è stata valutata ai livelli più alti.
Dati del genere sono rivolti anche alle famiglie italiane?
Certamente. Se in una famiglia c’è uno studente che vuole iscriversi ad un corso di laurea magistrale dove la ricerca gioca un ruolo significativo, o ancor più a un dottorato di ricerca, certamente farebbe bene ad andare a vedere la graduatora delle università migliori in quel campo.
Il Rapporto Vqr valuta la ricerca, ma non la didattica, perché?
Sono due valutazioni che hanno metodologie molto diverse. L’Anvur comincerà dall’anno prossimo a fare anche valutazione della didattica, ma questo esercizio di valutazione era dedicato per legge solamente alla ricerca. È vero però che nell’università la didattica non può essere distinta dalla ricerca; un’università per essere tale deve svolgere entambe ad un livello ragionevole di qualità.
Qual è secondo lei il dato più saliente che emerge dalle graduatorie?
Non esiste un ateneo che eccelle in tutti i campi, il panorama è composito. Diciamo che ci sono un paio di università che emergono in molte aree e sono quelle di Padova e Bologna nel segmento dimensionale delle grandi università. Tra le piccole spiccano decisamente la Scuola superiore Sant’Anna e la Normale di Pisa, la Sissa di Trieste per la matematica e la fisica, la Bocconi tra le private nel settore dell’economia.
E dal punto di vista geografico?
Con molte cautele si può dire che c’è una prevalenza qualitativa delle università del nord rispetto a quelle del sud. A seconda delle aree infatti ci sono anche realtà molto buone in alcune università del sud. D’altra parte quando qualcuno cerca una buona università, non cerca una buona università in tutto.
Il Vqr restituisce una fotografia “certificata” della nostra università, dice l’Anvur nella presentazione del Rapporto. Che cosa vuol dire?
“Certificata” vuol dire che non si tratta del solito ranking internazionale che mette in ordine le università senza approfondire la produzione scientifica pubblicazione per pubblicazione, come è stato fatto in questo caso. Il Vqr si è valso di 450 docenti esperti in tutti i settori italiani e stranieri e di 15mila revisori, che hanno preso in esame ciascuna delle pubblicazioni sottoposte alla valutazione dandone un giudizio. È una analisi “certificata” dall’eccellenza di coloro che hanno partecipato a questo esercizio di valutazione.
Che nesso c’è tra valutazione operata dal Vqr e finanziamenti?
L’Anvur ha fatto la “radiografia” della ricerca italiana ma non è il medico e non propone la cura, che spetta solo al ministro. Il ministro Carrozza ha detto che i risultati Vqr saranno utilizzati a questo fine. Intanto mi limito a rilevare che il decreto sul fondo di finanziamento ordinario 2012 predisposto dall’ex ministro Profumo prevedeva una quota normale, destinata alle università classificate per dimensione, e una quota premiale, così suddivisa: due terzi da assegnare sulla base dei risultati legati alla ricerca, un terzo dipendente dai risultati legati alla didattica. Per il 90 per cento la quota “ricerca” sarebbe stata ripartita tra gli atenei sulla base dei risultati Vqr.
Quali sono state le maggiori difficoltà incontrate nella realizzazione del Rapporto?
Era una scommesa complicata, il fatto che siamo riusciti a concluderla in tempo testimonia del fatto che tutti hanno dato un contributo prezioso, in primis gli enti che si sono sottoposti alla valutazione. I rettori hanno chiesto di avere valutazioni a livelli di dettaglio che noi non ci aspettavamo; per questo il loro incoraggiamento è stato prezioso. Mi preme dire che tutti i rapporti delle 14 aree e tutte le valutazioni sono state approvate all’unanimità da tutti i 450 esperti dei gruppi di valutazione.
Le critiche, specie quelle sui criteri di valutazione delle produzioni scientifiche come la bibliometria, hanno in qualche modo influito sul vostro lavoro?
C’è chi ci ha criticato sempre e comunque, su tutto, in un modo che dimostra una certa dose di preconcetto. Davvero un ente che svolge così tante attività come l’Anvur non riesce a farne nemmeno una che sia condivisibile? Sì, il punto sta nel fatto che abbiamo usato per molte aree scientifiche la valutazione bibliometrica. Ma questa è utilizzata nelle aree scientifiche da più di 30 anni, e il fatto che in Italia se ne sia fatto uno uso marginale dipende dal fatto che nel nostro paese non si è mai fatta valutazione. In ogni caso, i confronti effettuati tra i risultati della valutazione bibliometrica e quelli della valutazione peer review hanno dato un grado di correlazione molto elevato.
Accoglierete le critiche?
Certamente. Noi siamo disponibilissimi, a fronte di critiche costruttive, a studiare tutti i miglioramenti possibili. Naturalmente un esercizio di valutazione di questa portata, fatto in due anni, non può essere esente da errori. Non credo però che questi ultimi compromettano i risultati finali. Da parte nostra mettiamo a disposizione della comunità scientifica tutti i dati, fino al livello del singolo foglio excel. Ma non possiamo rispondere di ciò che non dipende da noi…
A che cosa si riferisce?
Molto spesso le critiche sottintendono il fatto che non si vuole la valutazione. Migliorare e criticare la valutazione va bene, ma che questa si faccia è un bene per tutti.