fredag den 26. september 2008

Verden er politisk!

- hvad enten man vil erkende det eller fortrænge det. Nedenstående som er citeret fra Forskerforum bekræftiger at rankingsystemer er et politisk styringsværktøj.

Citat:
"26.09.2008
Ranking: DTU i top - siger DTU
Der er store udsving i universiteternes kvalitet, konstaterer dagbladet BØRSEN i dag på baggrund af en selvbestaltet ranking ”Børsen University Scorecard”.
Det er DTU, som står bag analysen – og ikke overraskende indtager DTU førstepladsen på ranglisten. Syddansk Universitet og Aarhus Universitet lander på de næste pladser, og KU i midten. Nummer sjok blandt de otte er RUC, fulgt af IT-Universitetet og Handelshøjskolen CBS og Aalborg.
BØRSENs ranking mødes af protester fra de andre universiteter, fordi den ikke er baseret på kvalitet, men på politik. På indikatoren student / vip –ratioen indtager DTU f.eks. en suveræn førsteplads med 3 studerende pr. lærer, mens CBS i den anden ende har 19 studerende pr. lærer. Placering på den indikator afhænger af bevillinger, og her er DTU åbenlyst forkælet af Regeringen.
BØRSENs selvbestaltede rankingliste offentliggøres samtidig med, at Folketinget diskuterer, hvordan Globaliseringsmilliarderne skal fordeles – og rankinglisten kan læses som en anbefaling af, at forskningspenge skal fordeles strategisk.
Rankingen er nemlig lavet ud fra DTUs ønske-kriterier. Det fremgår helt tydeligt af BØRSENs omtale, som holder mikrofon for DTU-rektor Lars Pallesen. Han er fortaler for, at de såkaldte basismidler skal fordeles efter international gennemslagskraft, kvalitet og relevans i forskningen”. Og det bør BØRSENs ranking bruges til: ”Politikerne bør beslutte, hvad vi har brug for, og så støtte de universiteter, der er dygtige til de ting, og som ligger højt på ranglisten”.
Aalborg-rektor Finn Kjærsdam har kun en kommentar: ”Hvad man gør internt på hvert universitet for at måle best-practise, må man selv om. Men jeg troede, at det hørte til god dannelse blandt universiteterne, at man ikke ligger og måler hinanden på hjemmelavede kriterier”.

Placeringerne i "kvalitetsundersøgelsen" er udregnet på baggrund af seks indikatorer, som ifølge BØRSEN er udvalgt ”i overensstemmelse med regerings ønske om at fremme Danmarks globalisering:
1. Rankingplacering på THES og SHANGHAI. 2. Antal studerende pr. lærer. 3. Andel af internationalt anerkendte vip’ere. 4. Andel internationale studerende. 5. Internationalt sam-publikationer. 6. Citationsindeks på teknik, naturvidenskab og sundhed.
DTU slutter som nummer et på alle indikatorer, undtaget på den internationale rankingplacering (KU og AU). Men det betyder ikke så meget, for det er den lindikator, som DTU-analysen vægter lavest. Den højest vægtede indikator (40 pct.) er citationsindekse - en stærkt omdiskuteret indikator, fordi det vægter de hårde videnskaber og tidsskrifter på bestemte videnskabsfelter (Thompsons)." Citat slut

6 kommentarer:

Curt Hansen sagde ...

Det kan være svært at tage den slags alvorligt, men der vil uden tvivl blive spildt mange kræfter på konstruktion og diskussion af den slags lister fremover. Mere stof fra dagens Børsen her.

Jonas Geldmann sagde ...

Problemet med at argumentere fagligt mod et useriøst index som dette er, at man hurtigt skydes i skoene rent faktisk at købe præmisserne. men alligevel:

Hvis Stud/VIP rationen skal bruges skal det være fordi VIP= underviser, ellers siger det jo ikke meget. Kigger man på de universiteter, der ligger højst og sammenligner med de universiteter, der har fået indlejret sektorforskningsinstitutioner er sammenfaldet slående.

DTU er blevet lagt sammen med RISØ og Danmarks Fiskeriundersøgelser, men Århus er blevet lagt sammen med DMU og DJF. i denne undersøgelse styrker det universiteternes profil, men bare en lille smule indsigt i institutionernes forskning og særligt undervisning tydeligt viser det er en forringelse.

Det lykkes altså DTU er give et styrket billede af sig selv på noget der i mine øjne har stillet dem dårligere.

Med hensyn til den lave vægtning af THE og SHANGHAI skyldes det jo nok at begge indeks kigger på universiteterne samlede spektrum og specialiserede ”universiteter” som DTU bliver derfor trukket ned. DTU er dog heller ikke at finde på THEs top50 over verdens bedste tekniske universiteter.

Sune Auken sagde ...

Jeg på denne baggrund foreslå, at danske universitetsforskere rankes og belønnes efter følgende, anerkendte kriterier

1) Hvor tæt de er på at være 191 cm høje.
2) Om de er Grundtvigforskere.
3) Hvor tæt de er på at være født 1. december 1970.
4) I hvilket omfang de holder af dårlige b-film.
5) Om de har skrevet artikler om førstepersonsfortællere.
6) Om de har krøllet hår, men vigende hårlinje.

Jeg vil gerne på denne baggrund udtale, at jeg er glad for, at vi er nået frem til et objektivt resultat, idet det er entydigt, hvilken forsker som er den førende i landet. Jeg mener, at det nu er dokumenteret, at ingen andre forskere end mig, skal have alle pengene.

Peter Ingwersen sagde ...

Amatørvidenskabens score card
Efter gennemgang af det offentligt tilgængelige materiale publiceret i dagbladet Børsen den 26. september, 2008, under overskriften: ’DTU er Danmarks Bedste universitet’, har jeg følgende videnskabelige forbehold og bemærkninger til den såkaldte analyses resultater.
1. de anvendte bedømmelseskriterier mellem universiteterne er bestemt ad-hoc og følger ingen anerkendt international standard for inter-universitær forskningsbedømmelse; man kunne fx lige så godt have haft et kriterium benævnt ”Citationer per VIP”.
2. vægtningen af de enkelte kriterier er opfundet til lejligheden og ikke videnskabeligt gennemprøvet; ”citation impact” indgår to gange bedømmelserne: i Shanghai/THES-analyserne (5 %) og imellem de udvalgte universiteter (40 %).
3. i to af seks kriterier er der ikke foretaget bedømmelse af alle parter (Shanghai/THES-analyserne; international medarbejderandel).
4. kriteriet vedr. studerende per VIP ratio er afhængigt af de forskellige taxameterordninger, som de enkelte universiteter har opnået i deres kontrakter; de kan derfor ikke sammenlignes direkte.
5. ”Citation Impact 2003-07” angivet for de enkelte universiteter er usammenlignelig! Dette skyldes, at de enkelte universiteter har vidt forskellige forsknings- og publikationsprofiler – også indenfor de brede områder ”TEK/NAT”; ”SUNDHED” og ”SAMFUND”.
6. det er ikke umiddelbart videnskabeligt funderet, hvordan ’DTU’ kan opnå den vægtede værdi 2.0 for ’Citation Impact’, da DTU i de offentliggjorte tal blot opnår 5.4 i TEK/NAT slagkraft, ingen i SUNDHED eller SAMFUND, mens KU og SDU opnår langt højere slagkraft over hele linien?

Specielt er forbehold 5) centralt og hele analysen falder sammen rent videnskabeligt som følge heraf. Siden slutningen af 90-erne har man internationalt indenfor videnskabsmåling (scientometrics/bibliometrics) opereret med såkaldte ”Crown Indicators” (Leiden-gruppen; Danmarks Biblioteksskole, analyse af Miljøforskningsprogrammet, etc. ), netop for at undgå de uvederheftige og forsimplede analyser som Børsens amatørbidrag.

En Crown Indicator udtrykker simpelthen enhedens (her: universitetets) slagkraft indenfor sin specifikke forskningsprofil, set op imod verdens gennemslagskraft for samme profil. Det er der jo ikke tale om her i Børsens analyser. Direkte at sammenligne fx KU, DTU og RUC indenfor TEK/NAT, er som at sammenligne frugtkurve med cykler og malerier. Det er fuldstændig udenfor de videnskabelige standarder indenfor forskningsevaluering. Analyserne ville blive bedømt til dumpegrænsen på seriøse læreranstalter, som forsker i forskningsevaluering, selv på et BA-kursus.

Det er derfor forståeligt, dels at mange ikke ønsker at kommentere undersøgelsen, dels interessant at formanden for rektorkollegiet, Jens Oddershede, SDU, ikke gennemskuer, at hans eget universitet snydes i amatøranalysen. Det er klogt af formanden at tage forbehold, idet en hurtig analyse af Danmarks publikationsandel på globalt niveau i Science Citation Index og Social Science Citation Index fra 2003 i Thomson Dialog viser, at vi ikke stiger mærkbart efter fusionerne:


Jeg er allerede i gang med at anvende Børsen-analyserne som skrækeksempel på uvidenskabelighed indenfor forskningsanalyse og -bedømmelse.
Peter Ingwersen, Professor i Informationsformidling; Danmarks Biblioteksskole

Claus Emmeche sagde ...

Læs hellere Peter Ingwersens indlæg, nu med tabel, dette sted (C.E.)

Leif Hansen sagde ...

En enkelt kommentar til Jespers indlæg:

Det er ikke rigtigt, at DTU ligger nr. 1 på alle indikatorer. *Faktisk ligger de ikke nr. 1 på andre end stud/VIP ratio. Man skal ikke lade sig forlede af, at de står øverst i deltabellerne i Børsens artikel. Det er fordi det skal lægge op til slutresultatet: at de samlet set er nr. 1! Dette kan statistisk set selvfølgelig godt lade sig gøre, men er her et resultat af en nøje tilrettelagt afstemning af de enkelte indikatorer.
Tilsyneladen er de også nr. 1 på indikatoren for citationsimpact, men det er blot et resultat af en "regnefejl" i Børsen - se min kommentar til Peter Ingwersens indlæg "Amatørvidenskabens scorecard"
Leif Hansen
Chefkonsulent,
Copenhagen Business School Library