Fin da quando si è progettato di dare una valutazione oggettiva e misurabile della ricerca si è posto il problema di differenziare le metodiche secondo la tipologia di scienza con cui il sistema della valutazione doveva confrontarsi: le discipline umanistiche e sociali da un lato, le discipline scientifiche (im)propriamente dette o scienze “dure” dall’altro.
Per quanto riguarda queste ultime si è inizialmente pensato che il criterio cosiddetto bibliometrico potesse garantire i criteri di obiettività da ogni parte invocati. Tale criterio si basa su una valutazione di tipo numerico basato sostanzialmente sul sistema delle citazioni ottenute da un dato articolo all’interno di un vasto numero di riviste dello stesso settore disciplinare. Che il prodotto venga trattato sulla base del numero delle citazioni ottenute o sul valore intrinseco della rivista su cui è pubblicato (IF) il risultato sembra non cambiare molto.
Pur consolidato nella pratica e ampiamente accettato dalla comunità scientifica, questo criterio, nato e sviluppatosi però per stilare un giudizio delle riviste scientifiche e non dei singoli prodotti della ricerca, ha in realtà destato perplessità crescenti. Esso infatti implica inevitabilmente una considerazione su come questo ordine citazionale si è venuto ad organizzare nel tempo intorno alle banche dati (gestite da società private, non dimentichiamolo, e non da agenzie governative) che governano l’intero processo. Esso infatti rimanda comunque ad un giudizio emesso da un ricercatore cui spetta la decisione se pubblicare o meno il prodotto scientifico sulla rivista.
D’altro canto però l’unico quesito che ci si dovrebbe porre è questo: il ricercatore che riceve la delega da parte della comunità scientifica metterebbe a rischio la propria credibilità e quella della comunità di riferimento appunto solo per disconoscere risultati scientifici importanti e che altri poi riconoscerebbero come tali? L’intera universalità della scienza andrebbe rapidamente incontro ad un ridimensionamento drastico. Non ho particolari dubbi quindi che il ricercatore “delegato” sia in grado di prendere una decisione ineccepibile sul piano strettamente scientifico e scevro anche da condizionamenti di altra natura; prendo a prestito le parole di Vincenzo Barone per meglio affermare il concetto: “…è opportuno ribadire fin dall’inizio che il vero metro della qualità scientifica di un lavoro di ricerca è il giudizio critico, articolato e consapevole, che viene elaborato dalla comunità disciplinare di riferimento”.
L’opportunità di richiamare questo concetto di comunità scientifica come garante e depositaria ultima del giudizio scientifico sta nel fatto che, in quanto entità mal definibile se non addirittura astratta, è proprio sulla sua terzietà che si appuntano le critiche più puntute. Una fra tutte è che la comunità, la cui autorevolezza si baserebbe appunto sul concetto definito da Merton come “riconoscimento dei pari”, è in realtà formata di uomini che, in modo più o meno volontario, potrebbero essere spinti a forzare e distorcere i propri giudizi per motivi vari (interessi di scuola, eccesso di autocitazioni, mode culturali presenti anche nelle discipline scientifiche ecc.). Eppure la maggior parte degli scienziati, non a caso, si trovano d’accordo nel riconoscere ai criteri bibliografici, e quindi al sistema competitivo mertoniano, una validità abbastanza universale sia pure limitatamente alle scienze dure.
Ma non basta: il sistema della valutazione nelle discipline scientifiche non è in realtà demandato soltanto a criteri bibliometrici: molti dei Gev (Gruppi Esperti Valutatori) hanno introdotto fra i loro criteri anche quello della peer review. Ad esempio prodotti apparsi su riviste scientifiche non presenti nella banca dati adottata o per i quali vi è divergenza fra il criterio della qualità della rivista (IF) e l’indice citazionale, saranno sottoposti in modo sistematico a peer review. Inoltre una quota fissa di prodotti individuati in modo casuale seguirà comunque quest’ultimo tipo di valutazione da parte preferibilmente di reviewers stranieri, al fine di studiare la correlazione tra i due metodi di valutazione. A questa valutazione poi sarà affiancata una scheda specifica per ogni prodotto, talché non appaia troppo arbitraria la valutazione stessa. Non si dimentichi infine che essa inciderà solo per il 50% della valutazione finale che sarà basata per la restante quota su criteri tutt’altro che bibliometrici, quali la capacità di attrarre risorse esterne attraverso finanziamenti ottenuti da progetti di ricerca sia nazionali (Prin, Firb) che internazionali (Programmi Quadro dell’Unione europea ecc.), la capacità di istituire collegamenti internazionali (presenza di colleghi di istituzioni estere come coautori del prodotto), numero di studenti di dottorato, assegnisti di ricerca, borsisti ecc. ed altri ancora più o meno legati alla capacità delle Istituzioni di autofinanziare iniziative di ricerca. Per quanto fino a qui detto mi pare quindi che un rifiuto assoluto dei parametri di valutazione adottati nell’ambito delle discipline scientifiche, costituiti appunto da un mix di criteri bibliometrici e di peer review, apparirebbe, anche agli occhi dell’opinione pubblica, come una esplicita ammissione da parte della comunità scientifica della sua incapacità ad autovalutarsi e a correggersi, il che farebbe venire meno il presupposto stesso intorno a cui la comunità scientifica si è costituita.