tirsdag den 27. oktober 2009

Framing og kvalitetssikring af historien

For nyligt skrev videnskabshistorikeren Kristian Hvidtfelt Nielsen (KHN) i Politiken (her), at "Baggrunden for den voldsomt stigende interesse for forskningsindikatorer er, at mange landes forskningssystemer oplever et øget behov for at kunne allokere midler til de mest succesfulde forskningsmiljøer på en mere neutral og billig måde."
Ud over det pudsige i at et forskningssystem kan have oplevelser, er udsagnet rent historisk set ikke videre informativt. Hvorfor 'oplever' systemet' dette påståede behov? Hvem har skabt behovet? Fordyrede fordelingsprocesser? Hvad er historien?
Indlægget i Politiken og KHNs tilsvarende indlæg om samme emne på Videnskab.dk (her) er framet ret problematisk som et valg mellem to ligestillede former for 'kvalitetssikring', men for det første er dette jo ikke tilfældet, og for det andet forholder KHN sig slet ikke specifikt til videnskabsministeriets nationale forskningsindikator, selvom konteksten henviser hertil, og begge artikler for den uindviede læser vil kunne opfattes som konkluderende (som der står i manchetten hos Videnskab.dk): "Forskningsindikatorer er en mere objektiv måde at vurdere kvaliteten af forskning på end peer review." selvom det tilføjes, at "den er ikke fejlfri". Og taler vi om Videnskabsministeriets bibliometriske forskningsindikator er det med det objektive jo mildest talt omstridt.
Bortset fra det, viderebringer KHN i sidstnævnte indlæg 10 såkaldte 'bud' eller regler for fornuftig anvendelse af forskningsindikatorer, formuleret af en ansat ved Thompson Reuters - i stil med "Overvej om de tilgængelige data er tilstrækkelige til at analysere forskningen med hensyn til de ønskede kvalitetsparametre"; "Sammenlign kun sammenlignelige størrelser (ikke æbler og pærer)", etc. og hvis det endelig skal være, er den slags regler selvfølgelig udmærkede. Men når nu KHN ikke selv vil sige det, så må jeg understrege, at videnskabsministeriets forskningsindikator befinder sig helt hinsides denne bibliometriske snusfornufts pædagogiske rækkevidde.
Tilbage til spørgsmålet - hvor kommer dog det hele fra? Måske er det korte svar, at bibliometrien (der har sin egen komplicerede videnskabshistorie som jeg ikke er ekspert i) på et tidspunkt opdages som et muligt redskab i en hel værktøjskasse af nye politisk-administrative måder at tænke-og-styre på helt generelt (bl.a. kendt som New Public Management); måder, som netop anvender indikatorer, efterligning af konkurrence mellem virksomheder, og nationale sammenligninger, som de kendes fra utallige OECD-anbefalinger. I et nyt særnummer af Minerva (vol. 47, issue 3, 2009) kredser flere af artiklerne om spørgsmålet, ikke mindst Isabelle Bruno med artiklen "The ‘‘Indefinite Discipline’’ of Competitiveness Benchmarking as a Neoliberal Technology of Government". Heri peges på, at "benchmarking subjects policy-makers to a disciplinary technology that operates without law enforcement but with peer pressure and reputational incentives", en ny form for blød magtudøvelse, en 'governmentalitet', som virker gennem hvad der iscenesættes som en rationel proces af samarbejde og konkurrence om at nå - eksempelvis - Barcelona-målsætningen (om at hvert land skal anvende 3% af BNP på forskning).
Og hvem har så ansvaret for, at vi også har fået denne højere form for djøfisme i Danmark? Det er vel ingen overraskelse, at den neoliberale rygende pistol er regeringens. Læser man regeringens udspil til reformer af uddannelse og forskning og iværksætteri i Danmark, alias Globaliseringsrådets publikation "Fremgang, Fornyelse og Tryghed. Strategi for Danmark i den globale økonomi – de vigtigste initiativer" (Regeringen, april 2006 [her]) er det jo næsten som en drejebog for det hele. Jf. afsnit 7.1: "Universiteter med en høj kvalitet i forskning, uddannelse og videnspredning skal have en forholdsmæssig større andel af de samlede basismidler. Samtidig skal en del af de konkurrenceudsatte forskningsmidler uddeles i konkurrence mellem universiteterne." Etc. etc.
På s. 11 læser man at "[Globaliserings]Rådet blev nedsat i april 2005 til at rådgive regeringen om en strategi for Danmark i den globale økonomi. Rådet har været bredt sammensat med medlemmer fra bl.a. fagforeninger, erhvervslivets organisationer, virksomheder, uddannelser og forskning."
Okay. Hvem repræsenterede den frie forskning i rådet? AC's repræsentant? Næppe. Professor Niels Egelund fra DPU? Han var vel mest med pga. af sin ekspertise i Folkeskolen. Jeg kan ikke på listen over de 26 rådsmedlemmer finde nogen oplagte kandidater til den rolle.
Nåeh jo. Der var jo hele fem ministre med som rådsmedlemmer, og en af dem var Minister for videnskab, teknologi og udvikling...

1 kommentar:

Heine sagde ...

Efter at have overværet og punktvis deltaget i debatten i 3-4 årtier er man tilbøjelig til at resignere, hver gang man igen hører en eller anden omtale et tal, her en "bibliometrisk indiakator", som udtryk for "kvalitet". Og her oven i købet uanset at hovedarkitekten bag den norske model, som den danske bygger på, Gunnar Sivertsen, udtrykkeligt har pointeret, at der ikke er tale om en vurdering af kvalitet, ligesom de fleste kyndige bibliometrikere gør, når der er tale om publikationstal.
Hvis folk absolut vil lade sig nøje med kvantitet fremfor kvalitet, så fred være med dem, fristes man til at sige.
Men det er bestemt opmuntrende at der stadig bliver taget til genmæle. Så lad os fortsætte med det.