Sembra che l'origine della scientometria sia avvenuta nell'URSS, quando i bibliotecari si trovavano a decidere a quali nuove riviste abbonarsi e quindi quali vecchie e oramai antiquate riviste dalla loro collezione scartare progressivamente.
Il modo più agile che si decise di sfruttare fu semplicemente quello di annotare quale particolare fascicolo o volume cartaceo di una data rivista venisse spesso lasciato sul tavolo della sala di lettura della biblioteca dagli scienziati diligentemente frequentanti: rappresentava quindi la misura chiave indicativa di quanto spesso una data rivista fosse realmente consultata dai ricercatori che visitavano regolarmente una particolare biblioteca. Alla fine, i periodici che non venivano consultati spesso venivano scartati, il loro abbonamento interrotto (un atto sempre molto doloroso, per i bibliotecari!), mentre venivano accesi nuovi abbonamenti per riviste innovative ‘emergenti’, fortemente (e magari rumorosamente?) richieste da una folla di scienziati.
Questa era la forma originale e primigenia di valutazione della ‘forza’ scientifica e dell'autorevolezza di una determinata rivista. In seguito, nel mondo occidentale si verificò un cambiamento importante e piuttosto rapido. Ronald Reagan e Margaret Thatcher decisero di sottoporre l'economia degli Stati Uniti e del Regno Unito a un controllo anche ideologico. La questione che ci riguarda era: come misurare lo ‘sforzo lavorativo’ dei professori universitari e degli scienziati, una categoria all'epoca sotto esame e apertamente accusata di una sorta di ‘pigrizia accademica’? La libertà accademica, era forse un modo bizzarro di trascorrere un'esistenza felice, ma improduttiva? Quelle persone pigre ricevevano uno stipendio solo per trascorrere la loro placida vita in college di lusso e vecchi edifici alla moda?
L'unico modo che i responsabili dell’introduzione del un nuovo stile di valutazione del lavoro accademico trovarono (o meglio ‘inventarono’), a quel punto, fu quello di misurare i loro ‘risultati’, che erano naturalmente identificati nel loro lavoro più tradizionale, ovvero le pubblicazioni scientifiche. La quantità di citazioni di un singolo articolo e/o la quantità di citazioni di una determinata rivista, spesso calcolate su un periodo di due anni, divennero la Stele di Rosetta della produttività intellettuale. L'impact factor è diventato il dogma di una era di un parossistico ‘publish-or perish’, che si è rapidamente diffusa in modo virale in (quasi) tutto l'ambiente delle istituzioni accademiche e di ricerca, dalle grandi università ai piccoli college fino a minuscoli centri di ricerca e fondazioni culturali.
Il sistema si è evoluto secondo queste rigide regole di ‘misura fredda’, le persone sono state assunte, i colleghi sono stati licenziati, sono fioriti nuovi dipartimenti e ha trionfato il dogma dell'impact factor, poi progressivamente corretto dal professor Jorge E. Hirsch come ‘Indice H’, uno stratagemma che si è evoluto nel sistema scientometrico per evitare alcuni trucchi e pregiudizi che potrebbero confondere il reale ‘valore della citazione’ di un dato articolo. Tuttavia, la quantità di citazioni ricevute da un singolo articolo si è stabilizzata (e così rimane) come il metodo principale, se non l'unico, per attribuire un livello concreto di autorità qualitativa a un singolo autore di una pubblicazione scientifica. Le riviste hanno seguito lo stesso destino: le più citate sono diventate le più apprezzate, le meno citate sono miseramente decadute, al di là del fatto che magari rappresentavano fonti insostituibili di informazioni specializzate e di nicchia.
Il terribile passo successivo si è verificato quando le nuove generazioni di giovani scienziati, dovendo decidere a quale rivista presentare i propri dati, si sono attenute rigorosamente a tale indubbia ‘filosofia’. In effetti non avevano molte altre scelte, pena l’auto-emarginazione. Si doveva forzatamente decidere la rivista più quotata tra le varie disponibili. Decisamente pericolosa la motivazione del ‘publish or perish’ che spingeva i giovani colleghi a:
La comunità scientifica, compresi i colleghi che lavorano nelle biblioteche pubbliche o private, deve opporsi a questa terribile tendenza. L'unico, insostituibile modo di giudicare il curriculum di colleghi giovani o esperti resta la lettura attenta e serena dei loro articoli, comprese le minuzie e i dettagli anche minori delle metodologie scelte.
Enrico Alleva e Stella Falsini
AIB studi, vol. 64 n. 3 (settembre/dicembre 2024). DOI 10.2426/aibstudi-14137. ISSN: 2280-9112, E-ISSN: 2239-6152 - Copyright (c) 2023 Enrico Alleva, Stella Falsini