A seguito dell’articolo di Adriano Fabris, mi servo di una variante di un antico slogan bertinottinano per suggerire un’idea (che bertinottiana non è) relativa alla vexata quaestio della valutazione accademica in ambito umanistico. L’idea, in sintesi, è composta di quattro punti: 1. che la valutazione debba essere fatta su scala locale; 2. che coinvolga il più possibile tutte le componenti della vita accademica, cioè studenti, borsisti, ricercatori, associati e ordinari; 3. che sia essenziale e ridotta a passaggi cruciali di carriera; 4. che contempli e richieda anche momenti di autovalutazione (sia di interi dipartimenti, sia di singoli individui).



Invece di argomentare punto per punto – il che mi richiederebbe più spazio di quanto è opportuno utilizzare in questa sede – mi limito a presentare un affresco del sistema di valutazione in ambito umanistico negli Stati Uniti. Troppo spesso, infatti, in Italia si finisce per voler essere più americani degli americani ma senza capire che cosa è essenziale del sistema a stelle e strisce e scimmiottandone soltanto aspetti esteriori.



Da insider avanzo la seguente tesi: ciò che è essenziale dell’accademia americana (e che diventa particolarmente rilevante in ambito umanistico) è che ogni valutazione implica un rapporto tra un valutante e un valutato. Quindi, che le valutazioni vengono sempre fatte in ultima analisi da una persona definita che si prende la responsabilità di valutare. Questa persona (che in genere è il direttore di dipartimento) si serve sì di vari strumenti, ma alla fine è chiamata ad emettere discrezionalmente la propria valutazione. Se si perde di vista questo punto e si vagheggiano sistemi impersonali di valutazione nei quali vengano immessi dati e che impersonalmente producano valutazioni, si rischia di creare un mostro.



Per evitare la genesi del mostro occorrerebbe intendere la relazione tra valutante e valutato non in termini marxiani come relazione tra un oppressore e un oppresso (che quindi va il più possibile spersonalizzata ricorrendo a strumenti tecnico-formali) ma in termini aristotelici, come il rapporto tra due amici di pari virtù che si scambiano critiche ed elogi nel tentativo di eccellere il più possibile nella propria disciplina.

Per questo, ad esempio, non ha alcun senso stilare una classifica ufficiale delle riviste migliori o decidere ufficialmente se vale di più un libro o un articolo. In America non c’è nulla di tutto ciò, per lo meno non in ambito umanistico. Il valore di una rivista dipende grossomodo dalla sua acceptance rate, cioè quanti tra gli articoli ricevuti verranno effettivamente accettati per la pubblicazione. Una rivista di buona categoria avrà una acceptance rate inferiore al 10%. Allo stesso modo, non viene ufficialmente dichiarato quale forma di pubblicazione ha più valore. In ambito di studi storiografici il libro ha ancora un suo peso preponderante mentre in settori più tecnici, come la filosofia analitica, l’articolo è preferito.

In generale, però, il metodo della peer review anonima è universale e vale sia per i libri che per gli articoli. Convengo con svariati colleghi che questo metodo presenta luci ed ombre. Ma sono fermamente convinto della sua sostanziale correttezza; in altri termini, ritengo sia il male minore. È vero, talvolta capita di vedersi articoli respinti con commenti al vetriolo. Questo non fa bene all’ego e non è in generale particolarmente piacevole. Tuttavia, se si ha la ragionevole certezza che il proprio articolo è buono, lo si può sempre rispedire così com’è ad un’altra rivista. A me è capitato che articoli respinti con disprezzo venissero poi accettati di buon grado anche da riviste di reputazione superiore. E spesse volte i commenti aiutano davvero a migliorare il prodotto, evitando di mettere su carta stampata affermazioni che col senno di poi si rivelerebbero imbarazzanti.

Un capitolo di rara ottusità sembra essere l’introduzione del cosiddetto impact factor. Spesso in ambito umanistico si cita per criticare, vi sono libri e articoli che nel tempo si stabiliscono come riferimenti polemici standard perché presentano posizioni esageratamente faziose o irrealistiche. In quest’ottica, qualcuno potrebbe essere tentato di scrivere qualcosa di particolarmente idiota o stravagante, che venga continuamente citato come esempio da non seguire e così totalizzare un sacco di punti bibliometrici. In ambito umanistico di cose idiote o stravaganti ne vengono già scritte molte senza che si introduca uno strumento per incentivarne la produzione.

Tornando al punto principale, in America è il direttore di dipartimento che, vista la lista di pubblicazioni nel corso dell’anno, valuta infine l’attività del singolo docente. Questo consente anche di tener conto di fattori esterni, ad esempio, una collega che ha appena avuto un bambino potrà ricevere una valutazione buona anche avendo pubblicato meno di un collega che non ha avuto impegni familiari preponderanti.

Avanzo quindi una proposta scandalosa: dovrebbero essere i direttori del dipartimento, visti i risultati scientifici e tenuto conto di pochi, essenziali criteri, ad indicare quali colleghi sono maturi per diventare associati o ordinari. Oppure dovrebbe essere un organo interno al singolo ateneo che decide dopo aver sentito il parere del dipartimento, come i tenure committees in molti atenei americani. Al contempo, i colleghi dovrebbero, con l’aiuto di studenti, borsisti etc. monitorare costantemente l’attività del dipartimento e stilare ogni paio d’anni un’autovalutazione della didattica, della ricerca, degli avanzamenti di carriera da sottoporre al direttore e a colleghi esterni per stabilire gli obiettivi futuri.

Mi rendo conto mentre scrivo che tutto questo non è facilmente applicabile in un sistema ancora totalmente ingessato come quello italiano, dove il margine di libertà dei singoli atenei è minimo, se non inesistente, e dove in fondo non esiste una cultura della valutazione che abbia un impatto reale (non esistono incentivi salariali o simili). 

In questo contesto difficilmente riformabile, non mi stupisco se il lettore italiano vede nella mia proposta solo il rischio di inciuci e pastette. Se non altro si sappia però che in America la valutazione funziona come ho descritto e che chi millanta altrimenti sta invocando un’America prodotta dalla propria fantasia.

Inoltre, ritengo che l’aumento della qualità in generale non derivi meccanicamente dalla concorrenza ma sia direttamente proporzionale all’aumento di responsabilizzazione di chi valuta e di chi è valutato. In fin dei conti non esistono sistemi talmente perfetti da essere interamente immuni dall’arbitrio di chi li utilizza, quindi, tanto varrebbe rendere il tutto trasparente e chiedere a chi guida i dipartimenti di prendersi la responsabilità per i propri colleghi e i propri sottoposti.