Lavoce.info

Un passo nella giusta direzione

E’ un fatto positivo che la valutazione della ricerca nelle università italiane abbia avuto luogo e che le linee guida si riferissero a standard di eccellenza internazionali. Il suo limite principale è la mancanza di un chiaro legame con la riallocazione di risorse finanziarie a favore delle università migliori. Perché se il punteggio basso di un ateneo può contribuire a dare più voce ai ricercatori di qualità, certamente un incentivo economico sarebbe stato più potente. Considerazioni analoghe si applicano anche a chi sta in cima alla classifica.

Si è conclusa la valutazione della produttività scientifica delle università e dei centri di ricerca italiani organizzata dal Comitato di indirizzo per la valutazione della ricerca (Civr) per il periodo 2001-2003. (1)
È un fatto positivo che abbia avuto luogo e che le linee guida si riferissero esplicitamente a standard di eccellenza internazionali. Il suo limite principale è la mancanza di un chiaro legame con la riallocazione di risorse finanziarie consistenti a favore delle università migliori in termini di ricerca, a scapito delle università peggiori.

Criteri di valutazione

L’obiettivo esplicito era considerare il “Posizionamento del prodotto rispetto all’eccellenza scientifica nella scala di valore condivisa dalla comunità scientifica internazionale”. Questo criterio è essenziale nel valutare la ricerca dei singoli e delle università. Non so se questo sia successo in tutte le discipline. Nell’area che conosco meglio, la mia esperienza diretta come referee e un’attenta lettura delle conclusioni finali del panel incaricato di scienze economiche e statistiche suggerisce che questo criterio di eccellenza scientifica internazionale sia stato in larga parte rispettato.
Questo non è successo senza discussioni e dissensi. Esiste ancora nell’accademia italiana una componente che ritiene che il riferimento a standard internazionali nasconda l’imposizione di un paradigma particolare (l’economia neoclassica) dominante negli Stati Uniti e di lì esportato. Questa posizione è sbagliata ed è basata su una visione distorta e antiquata di che cosa sia la ricerca economica a livello internazionale. E ignora gli sviluppi nuovi e la diversificazione avvenuta dalla fine degli anni Sessanta a oggi. Fortunatamente queste posizioni si sono rivelate minoritarie.

Altri aspetti interessanti

Un altro elemento positivo è che l’esercizio sia stato condotto con grande trasparenza, in tempi relativamente brevi e con buona efficienza, nonostante alcuni problemi tecnici. Certamente può essere ripetuto regolarmente, in modo da riflettere i cambiamenti di qualità in corso nelle università italiane.
È interessante che in alcuni casi chi (rettori, direttori di dipartimento, eccetera) doveva decidere dentro le università gli studi da sottomettere, lo abbia fatto non in base a criteri di qualità, ma di equilibrio politico interno: pensavano forse che l’esercizio non sarebbe stato serio o che non ci sarebbero state conseguenze finanziarie? Nonostante tutto, per economia e statistica la valutazione del Civr dà risultati più affidabili di quelli che si ottengono valutando la qualità della ricerca nelle università sulla base del numero dei progetti finanziati dal Miur (come ad esempio l’indagine Censis-Repubblica).
È certamente possibile e necessario introdurre miglioramenti e cambiamenti nel processo di valutazione e nelle strutture che ne sono incaricate, ma manca qui lo spazio per una discussione approfondita. (2) Un tema su cui bisogna discutere è invece l’istituzione di un un’agenzia per la ricerca come la National Science Foundation negli Stati Uniti, separata e indipendente dalle strutture ministeriali, e incaricata di valutare la qualità scientifica degli gli atenei e dei progettidi ricerca. Un secondo tema importante è che cosa possiamo imparare da esercizi sulla valutazione delle università condotti in altri paesi, come il Research Assessment Exercise nel Regno Unito.

Limiti

Il limite principale di tutto il processo di valutazione appena condotto è la mancanza di un chiaro legame con la riallocazione delle risorse finanziarie a favore delle università con il livello di ricerca più alto, a scapito delle università di peggiore qualità.
A regime, il ministro Moratti ha suggerito che il 30 per cento delle risorse dovrebbero essere allocate sulla base della valutazione della qualità della ricerca scientifica di ciascun ateneo.
Tuttavia, non è chiaro quali saranno in pratica le conseguenze finanziarie per ciascuna università di questo primo ciclo di valutazione e quando verrà ripetuto. Se al giudizio non seguisse una riallocazione delle risorse, il processo risulterebbe di limitata utilità. Solo se i soldi vanno dove si produce ricerca (come avviene per esempio nel Regno Unito, nel contesto di un sistema essenzialmente pubblico) si può nutrire un minimo di speranza per il futuro della ricerca nell’università. D’altra parte, si può facilmente immaginare le resistenze che possono sorgere verso una tale riallocazione e non mi è chiaro se esista in Italia la volontà politica di vincerle.

Risultati

Quali sono le conclusioni di questo processo di valutazione per il raggruppamento che comprende le scienze economiche e statistiche? Un primo risultato interessante è che se la qualità media della ricerca in economia e statistica non è soddisfacente, quella in economia aziendale è assolutamente disastrosa (con poche eccezioni). Basta un unico dato indicativo: solo il 27 per cento dei contributi di economia aziendale sono pubblicati su riviste internazionali di qualche prestigio. (3) Per economia la proporzione è il 57 per cento e per statistica il 75 per cento.
Per quanto riguarda il ranking delle università non ci sono molte sorprese. (4)
Tra le grandi strutture la Bocconi (0.89), Bologna (0.81), Siena (0.80), Torino (0.76) e la Cattolica (0.70) occupano i primi cinque posti. Tra le medie strutture, Modena e Reggio Emilia (0.89), Salerno (0.86), Venezia(0.86), Pavia (0.85), e Padova (0.85) sono in testa alla classifica.
Rimane il fatto deprimente che nei ranking internazionali le università italiane vanno male. Appaiono, per esempio, al meglio solo tra il cinquantesimo ed il sessantesimo posto (Bocconi e Bologna ) tra le istituzioni europee e statunitensi, in termini di stock di produzione scientifica totale nel periodo 1996-2000 (pesata per la qualità delle riviste). In termini di produzione pro capite le cose vanno peggio (solo la Bocconi appare tra il sessantesimo e il settantesimo posto). (5)

Conclusioni

Una domanda interessante è come risponderanno le università alla loro posizione nelle classifiche. Per esempio, a quali pressioni si sentirà sottoposta un’università che è in fondo alle classifiche, per fare meglio? L’umiliazione in termini di reputazione può essere fonte di miglioramento, ma non basta. L’incentivo economico sarebbe certamente più potente. Per ora c’è da sperare che la brutta figura fatta contribuisca a dare più voce ai ricercatori di qualità e li aiuti nelle loro battaglie per un’università migliore. Considerazioni analoghe si applicano per le università in cima alla classifica: l’incentivo economico rafforzerebbe il loro desiderio di rimanervi.
Se gli incentivi fossero giusti (e non lo sono nella situazione attuale, nemmeno con la riforma Moratti), bisognerebbe lasciare autonomia alle università nelle politiche di assunzione, promozione e remunerazione. In mancanza di incentivi per le università ad assumere i migliori ricercatori e di stipendi competitivi e differenziati per attrarli, la fuga dei cervelli verso l’estero continuerà.
È troppo presto per dire se le dovute conseguenze verranno tratte da questo primo passo nella direzione giusta e se esso verrà seguito da altre modifiche sostanziali. Confesso che il mio ottimismo del desiderio è tenuto sotto controllo dal pessimismo della ragione, che riconosce come sia difficile cambiare un sistema distorto con molti ricercatori e dipartimenti di bassa qualità avversi al cambiamento.

(1) Ricordiamo brevemente le procedure. Le “strutture” (dipartimenti, centri di ricerca) dovevano selezionare un numero di contributi (articoli, capitoli in libri, etc.) prodotti durante il periodo 2001-2003 pari al 50 per cento del numero medio di ricercatori a tempo pieno nel triennio (per l’università, in pratica, un prodotto ogni quattro unità di personale accademico). I contributi venivano assegnati a componenti di diversi panel (uno per ciascuna area di ricerca) composti da esperti selezionati dal ministero dell’Istruzione, dell’università e ricerca, che a loro volta li assegnavano a referee esterni. I contributi dovevano essere valutati in base alla qualità, rilevanza, originalità e internazionalizzazione. Ciascun contributo poteva essere valutato come “eccellente”, “buono”, “accettabile”, o “limitato” dai referee. Ciascun panelista, sulla base del lavoro dei referee proponeva una di queste quattro valutazioni, su cui poi il panel doveva esprimersi a maggioranza. Il Civr procedeva poi ad aggregare i voti per ciascuna struttura e a esprimerli come qualità media ponderata (quindi su una scala che ha 1.0 come valore massimo) dando peso 1 a “eccellente”, peso 0.8 a “buono”, peso 0.6 ad “accettabile” e peso 0.2 a “limitato”. Per dettagli si veda: http://vtr2006.cineca.it/
(2) Temi specifici da discutere sono, ad esempio: a) la scelta tra misure di flusso e di stock (meglio queste ultime); b) il numero totale e per membro dei contributi (ora troppo piccolo); c) l’automatizzazione (o meno) di parte del processo sulla base di una classifica delle riviste fondata sulla loro qualità (o del tipo di case editrici per libri e capitoli); d) la lunghezza del periodo coperto e la frequenza della valutazione; e) la scelta dei membri dei panel.
(3) Riviste con Impact Factor attribuito dall’Institute for Scientific Information.
(4) Una sorpresa è la classifica di Roma Tor Vergata (ventottesima su trentuno strutture medie), che risulta meglio piazzata (seconda) nella classifica di Dosi e Sembenelli, basata sul numero di contributi pro capite che compaiono in Econ Lit. (Si veda G. Dosi e A. Sembenelli, “Una nota sulla produttività scientifica dei docenti italiani nelle discipline economiche”, mimeo, 2005, tabella 4). Lascio agli interessati decidere quanto ciò sia dovuto al fatto che una minoranza di ricercatori di grande valore sia circondata da un grande numero di ricercatori mediocri e quanto alla scelta dei contributi presentati al Civr.

Leggi anche:  Caro affitti per studenti e famiglie: le scelte da fare

(5) Si veda tabella B1 e B2 (prime due colonne) in Combes, P.P. and L. Linnemer, “Where are the economists Who Publish? Publication Concentration and Rankings in Europe Based on Cumulative Pubblications”. Journal of the European Economic Association, December 2003.

Un punto critico nella valutazione

di Giampaolo Arachi e Alberto Zanardi

La diffusione dei risultati del primo ciclo di valutazione della produzione scientifica condotta dal Civr sul triennio 2001-03 rappresenta una novità di grande rilievo per la ricerca italiana.

Come ben documentato dai commenti di Fabio Schiantarelli e Tullio Jappelli apparsi su lavoce.info, il processo di valutazione è stato articolato e complesso, riguardando oltre 17mila prodotti di ricerca valutati da oltre 150 esperti che si sono avvalsi del giudizio di 6.600 referee esterni. Questo enorme sforzo ha portato come prodotto finale a delle graduatorie dei vari atenei italiani, distintamente per ciascuna area di ricerca, a seconda del giudizio attribuito alla loro produzione scientifica.

Questione di metodologia

Nelle dichiarazioni del ministro Moratti la valutazione del Civr dovrebbe fornire la base per assegnare una parte rilevante delle risorse pubbliche (il 30 per cento del Fondo di funzionamento ordinario del Miur) secondo criteri di qualità della ricerca. Ovviamente, l’effettiva attuazione di questi indirizzi è condizionata all’esito delle prossime elezioni, sebbene in questi giorni si siano moltiplicate le richieste perché il finanziamento degli atenei, e la ripartizione delle risorse tra le loro strutture interne, sia condizionato, seppur parzialmente, ai risultati del Civr.
È comprensibile che questo esercizio di valutazione abbia suscitato un ampio dibattito sull’appropriatezza della metodologia utilizzata. In particolare, nell’ambito dell’area delle scienze economiche, si sono registrate delle profonde divergenze circa i criteri adottati e i rischi di discriminazione delle aree disciplinari meno rappresentate a livello internazionale. Rispetto a queste questioni centrali, che mettono in discussione l’intero impianto della valutazione, vogliamo qui soffermarci su un aspetto tecnico apparentemente marginale, che tuttavia può condizionare in modo radicale la lettura dei risultati diffusi dal Civr.

È necessario richiamare brevemente i punti essenziali della procedura seguita.
Le linee guida dettate dal Civr richiedevano che ogni struttura, intesa come singolo ateneo o centro di ricerca, selezionasse un numero di contributi (articoli, capitoli in libri, eccetera), prodotti durante il periodo 2001-2003, pari al 50 per cento del numero di ricercatori a tempo pieno afferenti a quella struttura nella media del triennio. Ciascun contributo è valutato da un panel di area (ad esempio, “scienze economiche e statistiche”) secondo la scala “eccellente”, “buono”, “accettabile”, o “limitato”. A partire da queste valutazioni, il Civr ha poi ricavato un indicatore sintetico della qualità della ricerca per ogni struttura in ciascuna area mediante una media pesata che assegna il peso 1 a “eccellente”, 0,8 a “buono”, 0,6 ad “accettabile” e 0,2 a “limitato”. Si è quindi creata una graduatoria delle strutture in base a questo indicatore distintamente per ciascuna area di ricerca.
È chiaro che il valore assunto da questo indicatore sintetico varia al variare del numero dei contributi presentati (tranne, ovviamente, nel caso limite di una struttura che abbia solo prodotti di un unico livello di qualità). Quindi, il numero dei contributi valutati dovrebbe essere proporzionale a un indicatore di produzione potenziale misurato, ad esempio, dal numero di ricercatori afferenti a una particolare struttura in quella specifica area. Questo è il punto critico. Il legame fra contributi presentati e numero di ricercatori è stato fissato nelle linee guida del Civr con riferimento all’intera struttura e non alla specifica area oggetto di valutazione. È quindi accaduto che nelle singole aree molti atenei siano stati valutati su un numero di contributi superiore/inferiore al 50 per cento dei ricercatori di quell’area.
Con quali effetti? È ovviamente impossibile stabilire quali pubblicazioni avrebbero presentato, e a quali pubblicazioni avrebbero rinunciato, gli atenei che si sono rispettivamente posizionati al di sotto o al di sopra della regola del 50 per cento. Tuttavia, per comprendere la rilevanza del problema può essere utile ricorrere a qualche ipotesi ragionevole. Sebbene i criteri specifici utilizzati dai panel non fossero noti al momento della presentazione dei contributi, è verosimile ritenere che gli atenei fossero in grado di selezionare nell’ambito della propria produzione scientifica i contributi migliori, quelli “eccellenti” o “buoni”. Si può quindi assumere che se a un ateneo fosse stato richiesto di sottoporre più contributi rispetto a quelli effettivamente presentati, li avrebbe integrati con pubblicazioni di qualità certamente non superiore. Specularmente, un ateneo che avesse dovuto ridurre il numero di contributi presentati, avrebbe ritirato quelli di qualità più bassa.
La tabella 1 mostra i risultati di questo esercizio limitatamente all’area di scienze economiche e statistiche e alle strutture di “medie dimensioni” secondo la classificazione del Civr. Ovviamente, date le ipotesi qui adottate, gli atenei che hanno presentato al Civr relativamente pochi contributi (quelli “sotto la regola del 50 per cento”) tendono a scendere in graduatoria, mentre quelli effettivamente valutati su un numero di pubblicazioni superiore a quanto indicato dalla regola del 50 per cento risalgono posizioni. Il riordinamento che ne risulta non è affatto marginale, con alcuni salti di posizione particolarmente ampi (Venezia, Pisa e Palermo verso il basso; Lecce, Cassino e Padova verso l’alto).
Rimediare all’errore commesso in questo ciclo di valutazione è estremamente difficile. Qualsiasi criterio alternativo utilizzato per correggere il ranking sarebbe oggetto di legittime opposizioni da parte delle università perdenti. È quindi auspicabile che nei prossimi cicli di valutazione si ponga maggiore attenzione a questi dettagli tecnici, ad esempio verificando, sia in fase di presentazione che di valutazione, la corrispondenza fra numerosità dei contributi e numerosità dei ricercatori.

Struttura

Classifica modificata

Classifica originaria

Guadagni/perdite di posizione

Prodotti presentati in eccesso (+)/
difetto (-)

Univ. PADOVA

1

5

4

0

Univ. SALERNO

2

2

0

-1

Univ. PAVIA

3

4

1

-2

Univ. MODENA e REGGIO EMILIA

4

1

-3

-6

Univ. CHIETI-PESCARA

5

6

1

-2

Univ. LECCE

6

23

17

6

Univ. URBINO

7

7

0

0

Univ. BERGAMO

8

10

2

1

Univ. PIEMONTE ORIENTALE

9

8

-1

0

Univ. MILANO-BICOCCA

10

9

-1

0

Univ. MILANO

11

12

1

0

Univ. TRENTO

12

11

-1

0

Univ. VENEZIA

13

3

-10

-14

Univ. ROMA TRE

14

13

-1

-1

Univ. TRIESTE

15

14

-1

-3

Univ. CALABRIA

16

17

1

0

Univ. UDINE

17

16

-1

0

Univ. BRESCIA

18

18

0

0

Univ. CASSINO

19

27

8

4

Univ. CAGLIARI

20

19

-1

0

Univ. PARMA

21

20

-1

0

Univ. CATANIA

22

22

0

1

Univ. PISA

23

15

-8

-5

Univ. Politecnica MARCHE

24

24

0

0

Univ. VERONA

25

25

0

-1

Univ. ROMA TOR VERGATA

26

28

2

0

Univ. PERUGIA

27

26

-1

-2

Univ. PALERMO

28

21

-7

-9

Univ. MESSINA

29

29

0

-4

Univ. GENOVA

30

30

0

0

Univ. NAPOLI PARTHENOPE

31

31

0

0

La replica di Franco Cuccurullo

In merito alle osservazioni formulate dai Colleghi Prof. Zanardi e Prof. Arachi, nel loro articolo dello scorso 8 febbraio (Un punto critico nella valutazione), mi preme puntualizzare quanto segue.
Il VTR, come noto, mira a far emergere i  punti di forza delle Strutture (i cd “gioielli di famiglia”) e non, secondo una logica punitiva, i prodotti di scarsa qualità realizzati in ciascuna Area.
In teoria, secondo le nostre Linee guida, una Struttura avrebbe anche potuto scegliere di non presentare prodotti in un’Area con molti ricercatori, presentandone un numero maggiore, in via compensativa, in un’altra, ma con il rischio concreto di far emergere in quest’ultima anche prodotti di basso livello qualitativo! Il CIVR, quindi, nella seconda parte del processo di valutazione delle Strutture (che si concluderà nell’arco dei prossimi due mesi), avrebbe espresso un giudizio negativo sulla prima Area, considerandola INATTIVA (pur se con molti ricercatori!), mentre la maggior attribuzione di prodotti alla seconda Area, avrebbe potuto tradursi in un abbassamento critico del livello  complessivo di qualità della stessa. In sostanza, fermo restando il vincolo numerico complessivo dei prodotti da presentare, la Struttura deve operare le proprie scelte, Area per Area, in piena autonomia decisionale e responsabilità, per poter poi adottare, in relazione ai risultati, le proprie strategie di policy. Infine, alcune considerazioni, non secondarie:

1)   Ha senso che una piccola Struttura operi in molte Aree o è più opportuno che concentri le proprie risorse su poche e solide vocazioni?

2)   E’ logico considerare le Aree come compartimenti blindati, quando sappiamo bene che non pochi ricercatori operano nominalmente in un’Area ma di fatto, attraverso consolidate collaborazioni, pubblicano entro il perimetro disciplinare di un’altra Area?

3)   Una numerosità subcritica di ricercatori in un’Area, tale da non poter consentire la costituzione di un gruppo interno di ricerca, anche se sufficientemente compensativa in termini di copertura dei carichi didattici, perché dovrebbe costringere la Struttura a partecipare alla gara anche in quell’Area?

4)   Infine, se la Struttura considera debole già in partenza, una propria Area, per quale motivo pretenderne il suicidio?

Apettando l’agenzia per la ricerca

di Pier Mannuccio Mannucci

Uno dei principali problemi della ricerca scientifica italiana, sia nelle università che negli enti come Cnr ed Enea, è sempre stato la mancanza pressoché totale di un processo indipendente di valutazione. Il Comitato di indirizzo per la valutazione della ricerca (Civr) ha recentemente terminato il primo esercizio di valutazione degli atenei e degli enti di ricerca relativo al periodo 2001-2003 e ne ha pubblicati i risultati (www.civr.it).
Come sono stati composti i panel di valutazione per area-scientifico disciplinare? In linea di massima (almeno nel settore che conosco) si sono scelti membri di valore, di cui era obiettivamente documentata la competenza, la qualità e l’impatto delle pubblicazioni scientifiche. Era scarso, se non assente, il numero di valutatori legati al mondo politico e spesso inesistenti sul piano scientifico. Si è cercato di evitare i conflitti di interesse, includendo nei panel un buon numero di stranieri e soprattutto di ricercatori italiani all’estero (20-25 per cento del totale). Questi ultimi si sono rivelati i più attivi e i più utili, rispetto agli stranieri, che si sono spesso impegnati poco (nonostante fosse prevista anche una ricompensa monetaria).

La classifica e i finanziamenti

Il rapporto del Civr rappresenta comunque il primo tentativo di fare una classifica di merito delle università e degli enti di ricerca. Il processo di valutazione del Civr non considerava tutti i prodotti di ricerca, ma solo i prodotti migliori. Questa scelta di valutazione aveva ovviamente dei limiti perché tendeva a comprimere le differenze; come pure aveva limiti il criterio di valutare per ogni ateneo ed ente un numero di prodotti proporzionale al numero dei ricercatori. Tale criterio ha favorito le istituzioni più piccole che, essendo giudicate su un numero ridotto di prodotti, più facilmente potevano scegliere i migliori. L’esempio più eclatante è stato fornito dall’università della Tuscia, la quale ha presentato un solo prodotto, che è stato giudicato eccellente, risultando quindi la prima in assoluto nel campo delle scienze mediche. Comunque, le differenze fra università ed enti paragonabili per dimensioni si vedono, anche se compresse dal metodo di valutazione. Per esempio, fra i mega atenei il ranking della prima classificata nelle scienze mediche (l’Università Statale di Milano) e quello dell’ultima (Palermo) registra una differenza del 25 per cento.
Rimangono ora del tutto da verificare le conseguenze pratiche dell’esercizio di valutazione del Civr. Ci possiamo aspettare che si premino i migliori atenei ed enti con l’attribuzione di maggiori fondi per la ricerca? Il ministro Moratti ha promesso che il 30 per cento del fondo di finanziamento ordinario (Ffo) delle università e degli enti sarà assegnato secondo le classifiche del Civr. Non vi è purtroppo nessuna garanzia che il “premio” in termini di Ffo determini un maggiore sostegno per la ricerca, tenendo conto del fatto ben noto che il 90 per cento o più delle spese degli atenei sono per stipendi e amministrazione.
Da questo punto di vista appare più interessante la proposta contenuta nel progetto di legge dei Ds per una Authority per la ricerca. In essa si propone che la valutazione possa portare all’attribuzione massima di una percentuale molto più bassa del Ffo (2 per cento), ma che questa sia unicamente destinata alla ricerca scientifica e ai dottorati di ricerca. I compiti dell’Authority appaiono più ampi di quelli assegnati al Civr: fra questi anche la vigilanza “sulla competenza e correttezza della comunicazione pubblica” degli atenei ed enti di ricerca. Chi è quotidianamente disgustato dai proclami di mirabolanti scoperte scientifiche vantate dai potenti uffici stampa di atenei ed enti di ricerca privati (e dalla complicità di una parte della stampa quotidiana e periodica nel diffonderle al pubblico ignaro e illuso), non può che essere lieto nel vedere che chi si candida a governare il paese si rende finalmente conto che questa prassi è dannosa per l’immagine stessa della scienza e degli scienziati.
Rispetto al meccanismo del Civr e quello dell’Authority dei Ds, il Gruppo 2003 persegue da tempo un obiettivo più ambizioso: quello ben sintetizzato nella proposta di Garattini relativo all’Agenzia per la ricerca (pubblicato pochi giorni orsono su lavoce.info). L’Agenzia riassumerebbe in un’unica entità, affidata a un board scientificamente competente e svincolato dal ministero e dai condizionamenti politici, le
funzioni di valutazione ed erogazione di tutti i fondi disponibili, assegnati secondo merito scientifico e con continuità e affidabilità nel tempo.

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  Un’agenda comune per la formazione professionale in Europa

Precedente

Il fisco à la carte dei distretti

Successivo

Gas, una crisi annunciata

  1. Emanuele

    Finalmente si è fatto quello che si doveva fare. Seppur con i limiti da lei enunciati nel suo articolo sembra di capire che qualcosa di importante si è mosso nel mondo della valutazione accademica. Già il mero fatto di vedere la propria università inserita in una classifica dovrebbe suscitare qualche emozione a chiunque faccia parte di quella istituzione: orgoglio d’appartenenza per i migliori e malcontento per i peggiori. Conoscendo l’orgoglio che da sempre contraddistingue noi italiani sono certo che il fatto di sentirsi in competizione con altri non faccia altro che aumentare lo stimolo a fare meglio. Credo sia importante mantenere un continuo monitoraggio dei risultati (nella speranza che la frequenza con la quale siano aggiornate queste classifiche sia elevata) e altrettanto importante giudico la loro pubblicazione su organi di informazione pubblica. Da questo punto di vista La Voce potrebbe essere uno strumento importante per generare trasparenza ed interesse verso questo “Campionato italiano” delle Università. Un suggerimento: perchè la Voce non si prende il compito di pubblicare le classifiche per intero aggiornate di volta in volta?

  2. Alessandro Figà-Talamanca

    Non sono un esperto di economia. Mi sembra però che le argomentazioni della relazione di minoranza del “panel” per le Scienze Economiche e Statistiche, come pure le risposte della maggioranza, meritino una discussione più approfondita della veloce menzione che se ne fa in questo articolo, per concludere che la posizione di minoranza riflette il “vecchio che resiste” e quella di maggioranza “il nuovo che avanza”. Cominciamo quindi a publicare i due documenti e a sollecitare un dibattito tra gli esperti, che sia illuminante anche per i non esperti.

    • La redazione

      Grazie per il suo messaggio. Grazie alla trasparenza delle procedure di valutazione del CIVR i documenti rilevanti sono gia’ disponibili a chiunque sia interessato. Si veda la Relazione Finale d’Area per il Raggruppamento di Scienze Economiche e Statistiche. Particolarmente informativa e’ la
      Relazione Finale del Consensus Group di Economia, e le Appendici 4 e 5. Il tutto è disponibile a http://vtr2006.cineca.it/rel_area/panel_13.pdf

  3. Mario Strada

    L’iniziativa dovrebbe continuare, migliorandola se possibile, e, come suggerito, essere la base per valutare la ripartizione di fondi a Universita’ e Istituti Universitari. A mio parere, a regime, dovrebbe condizionare una quota molto importante dei flussi finanziari (70/80%?). Credo poco all'”umiliazione” per giudizio poco positivo. Per esempio, si potrebbe immaginare che si possa arrivare “a regime” entro un determinato lasso di tempo (anche lungo:10 anni) ma con percentuali annue fisse di incremento del peso della valutazione sul totale delle somme erogate, eventualmente con una o piu’ verifiche intermedie per verificare gli effetti pratici. Solo cosi’, a mio avviso, si puo’ lasciare ragionevole autonomia decisionale a Universita’ ed Istituti. Perche’ in un modo o nell’altro dovranno darsi una regolata in termini di qualita’. Circa i criteri di decisione del panel (a maggioranza): se ho ben capito il processo di decisione, sarebbe opportuno che il numero dei voti a favore o contro una determinata valutazione (eccellente, buono, ecc.) influisca sul punteggio, facendolo slittare verso il basso o verso l’alto a seconda che la maggioranza sia stata risicata o unanime. I giudizi finali cosi’ rispecchierebbero un po’ di piu’ la diversita’ delle opinioni.

  4. Marco Arnone

    Vorrei aggiungere una considerazione sulla eta’ di pensionamento in universita’. Sarebbe opportuno introdurre una eta’, ad esempio 65 anni, in cui (far)andare tassativamente in pensione. Questo ridurrebbe l’eta’ media, aumenterebbe il turnover dei docenti, con maggiori possibilita’ di inserimento di giovani.

Lascia un commento

Non vengono pubblicati i commenti che contengono volgarità, termini offensivi, espressioni diffamatorie, espressioni razziste, sessiste, omofobiche o violente. Non vengono pubblicati gli indirizzi web inseriti a scopo promozionale. Invitiamo inoltre i lettori a firmare i propri commenti con nome e cognome.

Powered by WordPress & Theme by Anders Norén