logo


  1. AM Rispondi

    Ritengo che il numero delle citazioni sia uno dei parametri, e forse non il più importante, per valutare un lavoro scientifico o una rivista. Lo stesso dicasi per il numero dei download. Ma tornando alle citazioni occorre distinguere la tipologia delle citazioni. Escludiamo dapprima le autocitazioni, ma anche citazioni di altri possono avere un significato limitato con riferimento al valore della ricerca. Vi sono le citazioni interessate, come ad es. gli allievi che citano i loro maestri ad ogni occasione e quelle dei candidati nei concorsi che citano abbondantemente i potenziali commissari, soprattuttlo quelli che hanno maggiore probabilità di entrare nella commissione concorsuale. Vi sono infine le citazioni di scambio. Ritengo comunque che le citazioni da parte di autori stranieri abbiano maggior valore perchè generalmente sono meno "interessate", ma per queste citazioni conta molto il pubblicare (1) in lingua inglese e (2) su riviste internazionali a larga diffusione e di buon livello scientifico.

  2. Alessandro Figa' Talamanca Rispondi

    Penso che non si possa più dire che una citazione comporti il riconoscimento da parte di altro autore della importanza di un articolo. E' diventato molto comune citare articoli che non si sono mai letti. Certamente la maggior parte dei lavori citati non sono rilevanti per il lavoro dell'autore citante. Utilizzando l'ottima banca dati delle recensioni della American Mathematical Society ho confrontato in diversi casi il numero delle citazioni di un autore nelle "reference lists", con il numero delle citazioni nelle recensioni. Il risultato è che spesso un autore citato nelle "reference lists" dieci volte di più di un altro autore arranca un bel po' dietro il secondo autore nel numero di citazioni che appaiono nelle recensioni. Il numero degli autori che possono essere citati in una recensione è naturalmente limitato. Si citano in genere i due o tre lavori, al massimo, che sono rilevanti per il lavoro recensito. Si tratta insomma di "moneta" non svalutata come quella delle citazioni in bibliografia.

  3. Oliviero Carugo Rispondi

    Secondo me e' impossibile (e quindi inutile) ricercare una tecnica che consenta di "misurare il merito scientifico" in modo perfetto. Gli scienziati sono come i calciatori: cercano di fare gol. Ma conta di piu' chi ne fa uno solo in una partita vinta1 a 0 oppure chi ne segna quattro in una partita persa 5 a 4? Oppure e' meglio segnare di testa e di collo del piede? A me pare che il controllo di qualita' della produzione scientifica dovrebbe servire piu' che altro a evitare i purtroppo frequenti scandali. Nel caso di giudizi individuali, su di un singolo scienziato, si potrebbero evitare assunzioni sbagliate e invereconde carriere. In quello di giudizi collettivi, per esempio su un dipartimento, si potrebbero evitare ingerenze politico-clientelari. Sarebbe invece rischioso accettare meccanismi automatici brutali. Come per esempio vincolare gli onorari a un qualche indice di produttivita' individuale, indice che per definizione e' inaffidabile.

  4. giuseppe saccomandi Rispondi

    Attenzione che la bibliometria possa dare delle informazioni interessanti non ci piove, ma che possa essere più democratica della recensione alla pari è falso. Chiaramente la bibliometria può essere facilmente falsificata. La cosa è stata dimostrata recentemente dal caso della rivista international journal of nonlinear sciences and numerical simulation salita stranamente ed improvvisamente al secondo posto della categoria ISI mechanics grazie ad un uso scandaloso delle autocitazioni (basta vedere il JCR 2008 ed i dati che riguardano la rivista). Molto riviste stanno usando lo stesso metodo. L'editor chiede agli autori di un lavoro sottomesso di citare un numero impressionante e inadeguato di lavori dello stesso giornale. Se questi non lo fanno si ritarda l'accettazione finale del lavoro. Inoltre esiste il fenomeno del decimo eminente. Il 10% dei lavori di una rivista fanno il 90% del suo impact factor. Basta andare wul web of science è divertirsi. Per esempio dei 3062 lavori pubblicati da Nature nel 2000 ben 33 hanno più di 1000 citazioni, ma ben 1656 hanno meno di 10 citazioni con moltissimi con zero citazioni. Insomma, per valutare per bene un lavoro bisogna leggerlo e capirlo.