Quando sentii parlare per la prima volta dei metodi bibliometrici o scientometrici ero alla fine del mio dottorato di ricerca a Saragozza, in Spagna. Era il 1990, ed ebbi l’occasione di seguire un corso tenuto sull’argomento da un professore russo. O forse sarebbe meglio dire sovietico. Perchè, chi immaginava in quei mesi, anche sotto il grande impatto emotivo della caduta del Muro di Berlino, che l’Unione sovietica stava per scomparire? Il nostro professore credeva intensamente nel progetto politico dell’Urss “rinnovata”, era uno studioso colto e informato e aderiva con convinzione alla visione marxista. Sentii così parlare con ammirazione dei metodi sviluppati presso l’Isi, l’Institute for scientific information e del suo fondatore, Eugene Garfield, e imparai ad usare lo Science citation index. Ma come? Proprio un austero professore della Mosca sovietica ci parlava del genio imprenditoriale di Garfield, il quale aveva trasformato in una macchina per produrre denaro le idee e le discussioni degli ultimi decenni sulla scienza come fenomeno sociale e culturale, la “scienza della scienza”, uno dei cui filoni più importanti era opera di studiosi marxisti? Era un paradosso che è utile – mi propongo di mostrarlo alla fine di questo articolo – per capire qualche cosa dell’occidente post ideologico che si andava delineando, qualcosa che ha a che vedere con la scienza o, per meglio dire, con quella tecnoscienza che invade il panorama prepotentemente, fino alla nausea (e ciò aiuta a spiegare il vigore sorprendente dell’occultismo, delle varie profezie, magie, giochi d’azzardo senza speranza e via dicendo).



Il nome Isi (che risale al 1960) indicava ancora una finalità ibrida, a cavallo fra lo studio della scienza attraverso una metodologia statistica e lo sfruttamento commerciale di tale metodologia nell’ambito scientifico-tecnico che più denaro muove nel mondo contemporaneo, ossia quello biomedico; e infatti nel 1992 l’Istituto è entrato in pieno nel mondo degli affari legati alla informazione (oggi i servizi sono offerti dalla Thomson Reuters). 



L’idea di partenza era di agevolare i ricercatori, le istituzioni e le aziende del settore biomedico nell’accesso a una massa crescente di lavori pubblicati, in un periodo – ormai sembra preistoria – in cui non esisteva Internet e si andava delineando l’idea delle banche dati informatiche. Come discernere al loro interno e velocemente il grano dal loglio? Non era certamente un problema nuovo: valutare l’interesse di un lavoro è stato sempre un aspetto importante dell’attività dello studioso in ogni disciplina, anzi un tempo era una delle principali attività delle accademie delle scienze europee. Era un lavoro intenso, ma non veloce, anzi richiedeva di ascoltare attentamente nelle adunanze, di leggere pazientemente monografie spesso corpose, frutto a loro volta e non di rado di un lungo lavoro. 



Più nuova è una prassi oggi generalizzata ma che ha avuto origine nelle scienze “dure” nell’Ottocento, ossia la pubblicazione di “articoli” in “periodici” scientifici, spesso più brevi e quindi su aspetti puntuali, alle volte anche provvisori: ma le varie comunità scientifiche di riferimento si sono assunte anche questo onere, con pazienti letture critiche di ogni singolo lavoro prima e dopo la pubblicazione. Sempre in quel periodo, in Germania, è emerso un nuovo modo di vedere il compito “alto” di un professore universitario: non soltanto insegnare, come nella tradizione, ma indagare alla ricerca di risultati originali. L’esempio per eccellenza è quello di un processo elaborato nel laboratorio di un “istituto”, ottenuto per la prima volta, da comunicare velocemente attraverso un articolo in un periodico scientifico per l’appunto; un processo che è un passo avanti nello sforzo della scienza per “strappare i suoi misteri” alla Natura… ma che potrà forse trovare uno sfruttamento tecnico e quindi generare profitto.

Il passaggio dal laboratorio universitario a quello industriale non stravolgeva ancora la “lentezza” di cui parlavamo, che era derivata dall’esigenza di leggere, di meditare, di verificare, radicata a sua volta in una esigenza intima, più recondita ma fondamentale: l’aspirazione alla verità che, questa sì, risale alla tradizione classica dell’università. Una verità che nel corso della modernità si è espressa in termini sempre più liberi: il giudizio poggiava fortemente sulla solidità del metodo e dell’argomentazione, garantita anche dall’informazione dell’autore, sulla sua consapevolezza dei problemi aperti e dello stato dell’arte, rilevata fra l’altro dalle citazioni (le note e la bibliografia). 

Questi processi di una valutazione che descrivo come “lenta”, generavano opinioni condivise e coesione – in grado di smussare la tendenza della scienza alla rottura – e anche una categoria di autorevolezza che era alla base dell’emergere delle figure di maestro, che hanno svolto un ruolo cruciale nello sviluppo della scienza in ogni luogo per lungo tempo. 

Nel mondo della ricerca biomedica, all’inizio degli anni Sessanta del Novecento, faceva già capolino l’impazienza di accaparrarsi quell’idea nuova nella quale, come Paperon de Paperoni, si vedeva già il dollaro venturo; quell’impazienza che oggi ha raggiunto livelli di isterismo di cui sono il miglior esempio le conferenze stampa “annuncio” che scavalcano completamente i meccanismi di controllo pre e post della ricerca scientifica classica. 

Come accelerare, anzi come bypassare la comunità scientifica tanto lenta nel valutare la pubblicistica scientifica? L’idea fondamentale di Garfield è stata quella di valutare gli articoli scientifici senza leggerli. È un’idea geniale, non c’è che dire, dal punto di vista imprenditoriale. Per farlo egli si è giovato di idee che circolavano allora, come ricordavamo all’inizio, relative alla scienza concepita come sistema sociale e culturale.

Erano idee dirompenti, che alla visione della scienza come grande edificio di conoscenze oggettive, frutto sì dello sforzo umano e continuamente migliorabile, ma essenzialmente autonomo e solido per sé stesso, sostituivano quel che era quasi una “denuncia”, perché si descriveva la scienza come un’impresa frutto di visioni culturali a priori rafforzate dalla condivisione, nella quale i risultati di laboratorio si potevano “aggiustare” per dar forza a una teoria, nella quale vi erano in azione molti meccanismi per assegnare valore o autorevolezza o viceversa estromettere… e fra questi le stessecitazioni bibliografiche. Le citazioni non come fatto scientifico in sé stesse (allo scopo di far capire come si collega una ricerca con la ricerca precedente, allo scopo di poter sviluppare l’argomentazione), nemmeno come fatto retorico, ma come puro è semplice registro delle reti di influenza che agivano nelle comunità scientifiche.

Questa visione “relativista” apriva la strada all’idea di usarlo come materiale grezzo di analisi statistiche. Per esempio nelle ricerche sulla struttura sociale della scienza, dell’identificazione di tendenze e linee di ricerca indipendentemente dall’analisi del contenuto dei lavori, come quelle predilette dal professore russo del quale parlavo all’inizio. Oppure, come nella bibliometria, per stabilire una specie di auditel della ricerca scientifica: le riviste di maggior “impatto” e i ricercatori di maggior “indice”. Il passo è stato breve per confondere “impatto” e “indice” con autorevolezza e valore. E siccome l’impatto e l’indice sono numeri, allora usiamo solo numeri senza complicarci con il contenuto, ad esempio il numero degli articoli pubblicati, in riviste con un certo impatto, indipendentemente da ciò che essi contengono. Fiducia cieca nei puri numeri. Oblio della ricerca della verità. Fast food della ricerca.

Negli anni passati ho seguito l’avanzare della bibliometria, sopratutto nelle scienze biomediche, e le tante denunce sullo stravolgimento delle politiche editoriali delle riviste con grave danno per la ricerca, e sopratutto per il modo di concepire sé stessi come ricercatori dei giovani; ho visto che esse insidiavano le scienze fisiche e matematiche (Alessandro Figa Talamanca in Italia è stato tra i più all’erta), e la rivolta dell’Unione matematica internazionale; ho visto le prime reazioni in ambito umanistico, spesso, ahimè, improntate alla visione miope di “ciò riguarda solo gli scienziati”, dimenticando l’unità della cultura e dell’università. Certo neanche nei miei incubi peggiori avrei potuto immaginare che in Italia venissero adottati in modo così follemente radicale, acritico, opaco per valutare l’università, proprio nel paese che ho scelto per la profondità della propria tradizione di umanesimo scientifico – eredità di alcuni grandi maestri che praticavano l’amorevole, “lenta” ricerca della verità.