Ranglijsten/ rankings

Werking van de wetenschap

Factsheet

Welke rol spelen rankings in het definiëren en vergelijken van de prestaties van landen en universiteiten? Hoe worden deze rankings gebruikt en wat zijn de beperkingen ervan? In deze factsheet gaan we in op de verschillende rankings die er zijn voor de innovatieve prestaties van landen en universitaire rankings. We geven voorbeelden van veelgebruikte rankings en delen Nederlandse posities in verschillende universitaire rankings.

Foto: EyeEm Mobile GmbH/Hollandse Hoogte

In het kort

  • Rankings geven een globaal beeld van de positie van landen en individuele universiteiten.
  • Nederland scoort met haar universiteiten doorgaans relatief goed op deze rankings.
  • Rankings zijn een versimpeling van een complexe realiteit. Ze kunnen een startpunt zijn voor het gesprek over prestaties, maar een gewogen kwaliteitsoordeel vraagt meer gedetailleerde informatie over prestaties en doelstellingen.

Rankings of ranglijsten (in deze factsheet rankings genoemd) zijn een populaire manier om vergelijkingen te maken, maar roepen ook veel kritiek op. Er zijn rankings van innovatiesystemen en rankings van individuele instellingen. Sommige rankings meten meerdere aspecten, sommige meten maar één aspect. Ze geven gebruikers een eenvoudig en snel beeld van de positie van landen of van instellingen. Ook al zijn rankings meestal gebaseerd op meerdere onderliggende indicatoren, het is de resulterende totaalpositie die het meest in het oog springt en aandacht krijgt. Dat is tegelijkertijd een valkuil van rankings. Ze zijn globaal en doen (te) weinig recht aan de complexiteit van datgene wat gemeten wordt.

In deze factsheet gaan we eerst in op de verschillende soorten rankings die er zijn:

  1. rankings van de innovatieve prestaties van landen; en
  2. universitaire rankings.

Daarna gaan we uitgebreid in op de beperkingen van rankings en het gebruik ervan.
 

1. Rankings van de innovatieve prestaties van landen

Informatie over de innovatieve prestaties van landen is te vinden in de volgende veel gebruikte rankings:

  • De European Innovation Scoreboard, is vanaf 2001 een jaarlijkse publicatie van de Europese Commissie. De Scoreboard vergelijkt landen op basis van een 32-tal kwantitatieve indicatoren, gegroepeerd in een viertal categorieën: 1) “framework conditions”, de belangrijkste aanjagers van innovatieve prestaties buiten bedrijven; 2) “investments”, publieke en private investeringen in onderzoek en innovatie; 3) “innovation activities”, de innovatie-activiteiten van bedrijven; en 4) “impacts“, de effecten van innovatieve activiteiten van bedrijven. Het resultaat is een samenvattende innovatie index score en een rangordening van landen op basis van deze score die varieert van matige innovatoren tot innovatieleiders. De gegevens zijn vooral afkomstig van Eurostat.
  • De Global Innovation Index, vanaf 2007 is dit een jaarlijkse index van de World Intellectual Property Organization. Er wordt gebruik gemaakt van 78 indicatoren om de innovatieve prestaties van 139 landen en economieën in de wereld te beoordelen. Hiervan zijn 63 indicatoren gebaseerd op kwantitatieve gegevens, 10 betreffen samengestelde indicatoren en 5 zijn gebaseerd op een survey van het World Economic Forum.
  • De World Competitiveness Ranking, vanaf 1989 is dit een jaarlijkse ranking van het International Institute for Management Development. De concurrentiekracht van 69 economieën wordt vergeleken op basis van 341 criteria, ondergebracht in 20 pijlers. Een groot deel van de data is afkomstig van internationale, nationale en regionale bedrijven. Deze data wordt aangevuld met data uit een enquête over hoe marktdeelnemers de concurrentiekracht ervaren.

Hoewel er overlap is tussen de pijlers van de Global Innovation Index (GII) en de World Competitiveness Ranking (WCR), maken de indexen gebruik van verschillende achterliggende indicatoren. De WCR maakt sterker gebruik van de resultaten van de jaarlijkse survey onder marktdeelnemers dan de GII. De indicatoren voor de European Innovation Scoreboard en de World Competitiveness Ranking zijn over de jaren heen redelijk constant, de GII is meer aan verandering onderhevig. In 2017 is de GII op meerdere fronten aangepast (aantal, samenstelling, definities en groepering).

De Global Innovation Index en de World Competitiveness Ranking zijn breed samengestelde rankings die gebaseerd zijn op een groot aantal indicatoren, die vele maatschappelijke en economische gebieden bestrijken. Dat varieert van financiële markten en infrastructuur tot onderwijs en innovatie. Per gebied zijn weer deel-rankings beschikbaar. Om een goed beeld te krijgen van de prestaties van een land is het bij deze rankings aan te bevelen om vooral te kijken naar de onderliggende deel-rankings en indicatoren.

In onderstaande tabel is te zien dat Nederland in de Top-10 staat bij elk van de bovenstaande landenrankings voor het meest recente jaar. 

Positie op rankings
European Innovation Scoreboard 3
Global Innovation Index 8
World Competitiveness Ranking 10

2. Rankings van universiteiten

Er zijn verschillende internationale rankings van universiteiten. Ieder met een eigen smaakje, wat tot uiting komt in de achterliggende indicatoren en de weging die de indicatoren meekrijgen. Sommige zijn vooral op onderzoek georiënteerd, terwijl andere rankings aandacht besteden aan de prestaties van universiteiten op meerdere gebieden, zoals onderwijs en internationalisering. Sommige zijn alleen gebaseerd op cijfermateriaal, al dan niet aangeleverd door de universiteiten zelf, andere zijn voor een deel gebaseerd op de resultaten van een vragenlijstonderzoek. We zetten de meest gebruikte op een rij:

  • De Shanghai Ranking
  • QS World University Rankings
  • De Times Higher Education Ranking
  • De Leiden Ranking
  • U-multirank

De Shanghai Ranking

De Academic Ranking of World Universities (ARWU) was de eerste wereldwijde universitaire ranking, oorspronkelijk gestart met een nationaal Chinees doel, maar al snel uitgegroeid tot een internationaal gebruikte ranking. Deze ranking wordt vanaf 2003 jaarlijks gepubliceerd door de Shanghai Jiao Tong Universiteit (daarom ook wel Shanghai Ranking genoemd). De positie op de algemene Shanghai Ranking wordt vastgesteld met indicatoren die vooral betrekking hebben op onderzoek: 

  • Alumni van een instituut die prijzen hebben gewonnen (de Nobelprijs of prijzen in specifieke gebieden (10%);
  • De staf van een instituut die prijzen hebben gewonnen (de Nobelprijs of prijzen in specifieke gebieden (20%);
  • Hoog geciteerde onderzoekers in 21 brede categorieën (20%);
  • Artikelen gepubliceerd in Nature and Science (20%);
  • Artikelen in twee citatie-indexen (de Science Citation Index-expanded en de Social Science Citation Index (20%); en
  • Academische prestaties per wetenschapper van een instituut (10%).

Van 2007 tot en met 2016 heeft de ranking ook deelrankings voor onderzoeksvelden (Science, Engineering, Life Sciences, Medical Sciences, Social Sciences) en vanaf 2017 deelrankings per discipline.

QS World University Rankings

De QS World University Rankings is een ranking van 1.000 topuniversiteiten en gebruikt hiervoor de volgende tien indicatoren:

  • Academische reputatie, gemeten op basis van een vragenlijstonderzoek onder academici (30%);
  • Citatie-impactscore per faculteit, gebaseerd op de Scopus database van Elsevier (20%);
  • Werkgeversreputatie, gemeten op basis van een vragenlijstonderzoek onder werkgevers van universitair afgestudeerden (15%);
  • Arbeidsmarktperspectieven, een samengestelde indicator op basis van (1) het percentage afgestudeerden met een betaalde aanstelling binnen 15 maanden na afstuderen en (2) alumni impact, een indicator voor het produceren van afgestudeerden met maatschappelijke impact (5%);
  • Staf student ratio (10%);
  • Het aandeel internationale studenten (5%);
  • Het aandeel internationale staf (5%);
  • Internationale samenwerkingen (5%)
  • Duurzaamheid (5%).

Deze ranking, met een breder perspectief dan de Shanghai Ranking, kent deelrankings op 55 gebieden/ disciplines. De rangorde van de universiteiten is een andere dan bij de Shanghai Ranking, wat te verklaren is door het gebruik van een set van indicatoren met een ander perspectief. De Shanghai Ranking is gebaseerd op feitelijke wetenschappelijke presentaties, terwijl de QS Ranking ook gebaseerd is op reputatie, studentenuitkomsten en duurzaamheid. 

De Times Higher Education Ranking

Het tijdschrift ‘The Times Higher Education’ publiceert sinds 2004 de THE World University Rankings. De ranking bestrijkt net als de QS Ranking een breed palet aan universitaire activiteiten: onderwijs (30%), onderzoeksomgeving (29%), kwaliteit van onderzoek (30%), industrie (4%) en internationale oriëntatie (7,5%). Een derde van de scores is gebaseerd op een reputatie survey onder wetenschappers. De methodologie van deze ranking is al verschillende malen gewijzigd naar aanleiding van kritieken. Door de wijzigingen in de methodologie adviseert men de resultaten van het een jaar niet te vergelijken met die van eerdere of latere jaren.

De Leiden Ranking

De Leiden Ranking wordt opgesteld door het Centrum voor Wetenschaps- en Technologiestudies (CWTS) van de Universiteit Leiden. Het is nog meer dan de Shanghai Ranking een specifieke onderzoeksranking, die alleen is gebaseerd op bibliometrische gegevens (publicaties en citaties) uit het Web of Science. Daardoor richt de ranking zich vooral op de Natuurwetenschappen en de Medische wetenschappen, waarin het traditie is te publiceren in internationaal wetenschappelijke tijdschriften. Het is een interactieve ranking van ruim 1300 onderzoeksuniversiteiten wereldwijd, waarbij de gebruiker zelf de parameters bepaalt:

  • Tijdsperiode: de ranking begint met de periode 2006-2009, dat telkens één jaar opschuift;
  • Dekking: één van de vijf wetenschapsgebieden of het totaal ervan;
  • Regio dan wel een land;
  • De drempelwaarde van de publicatie-output van een universiteit;
  • Type indicator: impact, samenwerking (op basis van co-publicaties) en vanaf 2019 ook open access en gender;
  • Zeven indicatoren voor wetenschappelijke impact waaronder de top 1%, top 5%, top 10% en top 50%;
  • Vijf indicatoren voor samenwerking (totaal aantal co-publicaties, aantal internationale co-publicaties, aantal co-publicaties met bedrijven, en aantal co-publicaties gebaseerd op afstand, ofwel < 100 km ofwel > 5000 km).  

Sinds januari 2024 biedt het Centrum voor Wetenschaps- en Technologiestudies (CWTS) van de Universiteit Leiden ook de CWTS Leiden Ranking Open Edition. Deze ranking is gebaseerd op bibliometrische gegevens van de OpenAlex database. De positie van de universiteiten varieert sterk al naargelang de gebruikte indicator, zoals blijkt uit drie geselecteerde indicatoren in de tabel verderop in deze factsheet met de positie van Nederlandse universiteiten op enkele rankings.

U-multirank

In 2014 is een nieuw type ranking ontwikkeld, met financiële ondersteuning van de Europese Commissie. Ontwikkeld door een samenwerkingsverband Centrum für Hochschulentwicklung (CHE) in Duitsland en het Center for Higher Education Policy Studies (CHEPS) en CWTS in Nederland. Deze ranking pretendeert niet zozeer een ranking te zijn, als wel een instrument om universitaire prestaties op een vijftal dimensies met een dertigtal aspecten te vergelijken op basis van informatie over meer dan 1.300 hoger onderwijsinstellingen. De prestaties worden beoordeeld van zeer goed (een A-score) tot zwak (een E-score). De gebruikte dimensies zijn:

  • Onderwijs en leren;
  • Regionale betrokkenheid;
  • Kennistransfer;
  • Internationale oriëntatie;
  • Onderzoek.

De U-multirank presenteert op zijn website enkele kant en klare rankings, waaronder één op het gebied van onderzoek en onderzoekssamenwerking. In het achterliggende bestand worden de resultaten van de Nederlandse universiteiten op deze kant en klare ranking gepresenteerd voor de jaren 2017 tot en met 2022. Hierin is te zien dat in 2022 bijna alle Nederlandse universiteiten de hoogste score behalen (A: very good) op de indicatoren citatie-impactscore en aantal onderzoekspublicaties (genormaliseerd). Ze behalen allemaal de hoogste score op 'top cited' publicaties (het aandeel van de publicaties van een universiteit dat - vergeleken met andere publicaties in hetzelfde veld en in het hetzelfde jaar - tot de top 10% meest geciteerde publicaties behoort). Op de indicator co-publicaties met industriële partners scoren alle universiteiten een A (very good), behalve Tilburg University. De indicatoren gezamenlijke publicaties internationaal en gezamenlijke publicaties regionaal laten een meer divers beeld zien. Met name op de laatste indicator liggen de scores beduidend lager. De U-multirank is opgegaan in de European Higher Education Sector Scoreboard van de Europese Commissie. Dit scoreboard werd gepubliceerd in januari 2025 en bevat data tot en met het jaar 2022.  

Resultaten van enkele rankings voor universiteiten

De volgende tabel laat zien welke positie de Nederlandse universiteiten innemen op enkele van de hiervoor beschreven rankings.

Shanghai 2025 QS World 2026 THE 2026 Leiden CWTS/ PP(10%) impact 2020-2023 Leiden CWTS / PP(Collab) 2020-2023 Leiden CWTS/ PP(industry) 2020-2023 Leiden CWTS Open Edition/ PP(10%) impact 2020-2023
EUR 125 140 107 108 309 422 103
LEI 125 119 70 64 216 250 93
RU 125 279 154 97 201 451 122
RUG 73 147 82 126 427 317 139
TiU 750 347 325 278 349 1236 342
TUD 175 47 57 141 913 59 166
TU/E 350 140 192 244 649 18 360
UM 350 239 131 198 160 341 255
UT 550 203 190 281 409 182 535
UU 56 103 66 219 221 85
UVA 125 53 62 52 137 470 67
VU 175 194 176 58 62 500 65
WUR 175 153 66 81 426 31 151
Aantal NL universiteiten in Top100 2 2 5 6 1 3 4
Beschikbaar vanaf 2003 2009-2010 2014 2006 2006 2006 2018-2021

Bovenstaande tabel laat een gevarieerd beeld zien wat betreft de positie van de Nederlandse universiteiten, te verklaren uit de diversiteit aan methodieken: bij enkele rankings staat slechts een enkele Nederlandse universiteit in de top-100, terwijl bij andere rankings bijna de helft deel uitmaakt van de top-100. Ook laat de tabel zien dat de meeste universiteiten wel in één of meerdere rankings in de top-100 staan. Zo is de Universiteit Utrecht in de Shanghai Ranking al jaren de hoogst scorende Nederlandse universiteit. In de QS Ranking had Nederland in 2014/2015 maar liefst zes universiteiten in de top-100. In de daaropvolgende jaren schommelde dit aantal tussen de twee en drie universiteiten met in 2026 de Universiteit van Amsterdam en de TU-Delft in de top 100. In de THE Ranking staat net iets minder dan de helft van de Nederlandse universiteiten in de top-100. Universiteit Utrecht neemt sinds 2024 geen deel maar aan de THE Ranking. In de Leiden Ranking PP(industry) neemt de technische universiteit van Eindhoven een toppositie in met plek achttien.

Ook in de rankings per discipline of vakgebied zijn de Nederlandse universiteiten te vinden in de top-100. In de Shanghai Ranking per subject (Global Ranking of Academic Subjects, 2025) is bij 47 van de 54 disciplines minimaal één Nederlandse universiteit vertegenwoordigd (uitzonderingen zijn de disciplines Telecommunication Engineering’, 'Materials Science & Engineering, ‘Nanoscience & Nanotechnology’, ‘Textile Science & Engineering’ , ‘Mining & Mineral Engineering’ ‘Biomedical Engineering’ en ‘Mathematics’). Bij de discipline 'Psychology' zijn zelfs negen Nederlandse universiteiten in de top-100 vertegenwoordigd. In de THE subject Ranking voor 2025 staan bij alle elf brede wetenschapsgebieden minimaal twee Nederlandse universiteiten in de top-100. In de QS Subject Ranking 2025 is er zelfs in 45 van de 55 disciplines ten minste één Nederlandse universiteit aanwezig in de top-50. 

We kunnen universiteiten naast een plaats op de ranking ook op een andere manier met elkaar vergelijken door te kijken naar grootte (op basis van het totale budget) en de onderwijsfunctie (op basis van aantallen ingeschreven studenten). Het budget per student verschilt enorm tussen universiteiten (bron is de ETER-database met gegevens over Europese hoger onderwijsinstellingen). 

Internationale vergelijking

In de onderstaande tabel is het aantal universiteiten in de top-100 in verschillende universitaire rankings weergegeven. Universiteiten uit de Verenigde Staten zijn veruit het meest vertegenwoordigd met 125 top-100 noteringen in de verschillende rankings. Hierna volgen China en het Verenigd Koninkrijk met 54 top-100 noteringen. Nederland heeft 15 top-100 noteringen in deze universitaire rankings. In de eerste instantie lijkt dit veel minder vaak dan de universiteiten uit de Verenigde Staten of China. Echter hebben deze landen veel meer universiteiten dan Nederland. Waar de Verenigde Staten bijna 16 keer meer universiteiten heeft, is het aantal universiteiten in China zelfs 27 keer meer dan in Nederland. Nederland heeft 13 universiteiten. Dat er 15 top-100 noteringen zijn, komt doordat universiteiten in meerdere rankings voor kunnen komen. Het land met de meeste universiteiten ter wereld is volgens de CWTS Leiden Ranking Traditional Edition China met 356 universiteiten. 

Aantal top-100 noteringen in universitaire rankings, per land
Shanghai 2025 QS World 2026 THE 2026 Leiden CWTS/ PP(10%) impact 2020-2023 Totaal aantal top-100 noteringen Totaal aantal universiteiten per land
Verenigde Staten 37 25 35 28 125 204
China 15 5 7 27 54 356
Verenigd Koninkrijk 8 17 11 18 54 61
Australië 5 9 6 7 27 35
Duitsland 4 5 8 0 17 58
Nederland 2 2 5 6 15 13
Frankrijk 4 4 4 0 12 34
Zwitserland 5 1 2 2 10 8
Canada 3 4 3 0 10 32
Zweden 3 3 3 1 10 13
Zuid-Korea 1 3 4 0 8 52
Japan 2 4 2 0 8 59
België 2 1 1 0 4 8
Denemarken 2 0 1 0 3 5
Noorwegen 1 0 0 0 1 7
Ierland 0 1 0 0 1 7
Finland 1 0 0 0 1 9
Oostenrijk 0 0 1 0 1 14

Beperkingen van rankings

Naast veel aandacht hebben de universitaire rankings in de loop van de tijd ook commentaar en kritische beschouwingen opgeleverd. Zo doen ze bijvoorbeeld (te) weinig recht aan de veelvormige prestaties van een universiteit die verschillende activiteiten heeft op een groot aantal wetenschapsgebieden, welke prestaties moeilijk in één cijfer zijn te vatten. Hierdoor worden appels bij peren opgeteld. Verder komen universiteiten met een specialisatie op het gebied van de Sociale- en Geesteswetenschappen niet goed uit de verf wanneer de ranking gebruik maakt van publicatie en citatie-indicatoren, die vooral zijn toegesneden op de exacte wetenschapsgebieden met hun traditie van publiceren in wetenschappelijke tijdschriften. Ook de grootte van een universiteit kan van invloed zijn op de positie in een ranking, zeker als hiervoor niet wordt gecorrigeerd.

Ook de manier waarop een ranking tot stand komt (welke data worden gebruikt en in hoeverre zijn deze vergelijkbaar?) en de combinatie van indicatoren die gebruikt worden hebben invloed op de positie van universiteiten. Daarnaast leiden veranderingen in de methodiek tot verschillen in posities van universiteiten van jaar tot jaar, ook al zijn er geen aanwijsbare veranderingen te zien bij de universiteit. Hierdoor hebben vergelijkingen door de tijd een beperkte betekenis in verhouding tot de feitelijke situatie (European University Association, 2013). Wanneer de positie van een universiteit op een ranking daalt ten opzichte van het voorafgaande jaar, betekent dit dan ook niet dat de prestaties van de betreffende universiteit per definitie achteruit zijn gegaan. Daarnaast kunnen de scores van universiteiten in een groep van de ranking heel dicht bij elkaar liggen: de verschillen in scores tussen die universiteiten zijn dan marginaal. Bij kleine veranderingen in de scores, schuiven die universiteiten bij een volgende meting meerdere posities in de ranking op. Vandaar dat bijvoorbeeld de Shanghai Ranking na positie 100 alleen met groepen van universiteiten werkt. 

Deze beperkingen worden verder ondersteund door een studie van onderzoekers van het Joint Research Centre van de Europese Commissie (Saisana e.a., 2011). In deze studie zijn twee veel gebruikte rankings, de Shanghai Ranking en de THE Ranking, onder de loep genomen en is op basis van simulaties gekeken naar de invloed van de methodologie op de positie van individuele instellingen. De conclusie van de studie is dat de rankings zeer gevoelig zijn voor (veranderingen in) de onderliggende statistische methodologie. Waar de positie van de top 10 universiteiten robuust zijn bij veranderingen, is dit veel minder het geval bij de overige posities. De resultaten zijn wel robuust wanneer regio’s in de wereld (zoals Noord-Amerika, Europa en Azië) met elkaar worden vergeleken.

De kritiek heeft in 2006 geleid tot de formulering van een aantal principes, de zgn. ‘Berlin Principles on Ranking of Higher Education Institutions’ (2006). De principes hebben een goed en verantwoord gebruik en ontwerp van rankings ten doel en moeten leiden tot een verbetering van de kwaliteit van de dataverzameling, methodologie en verspreiding van de resultaten. De principes richten zich op:

  1. De doelstellingen van de ranking: een ranking moet slechts één van de manieren zijn om het hoger onderwijs te beoordelen, helder zijn over het doel en de doelgroepen, rekening houden met de diversiteit van de instellingen, transparant zijn over de informatiebronnen en de – taalkundige, culturele, economische en historische - context van het universitaire systeem specificeren;
  2. Het ontwerp en de weging van indicatoren: bij een ranking is de methodologie transparant, worden er valide en relevante indicatoren gekozen, wordt er meer naar prestaties dan naar input van een instelling gekeken en worden veranderingen in indicatoren en de weging ervan beperkt gehouden;
  3. De verzameling en verwerking van de data voor de ranking: bij een ranking worden goedgekeurde en verifieerbare data gebruikt, data die met de goede wetenschappelijke procedures zijn verzameld, en worden kwaliteitsmaatstaven toegepast op het proces van ranking;
  4. De presentatie van de resultaten: een ranking geeft de gebruikers inzicht in de factoren die gebruikt zijn om de ranking te ontwikkelen, de ranking wordt zo samengesteld dat fouten worden beperkt en gecorrigeerd kunnen worden.

Sindsdien zijn deze principes verder aangevuld in bijvoorbeeld ‘The San Francisco Declaration on Research Assessment’ (2013) en ‘Leiden Manifesto for research metrics’ (2015). Daarnaast zijn deel-rankings op specifieke wetenschapsgebieden ontstaan, rankings die zich tot één aspect beperken. En zijn er interactieve ranglijsten ontwikkeld, waarbij de gebruiker op basis van onderliggende data zelf vergelijkingen kan maken.

Het gebruik van rankings

Rankings worden op verschillende manieren gebruikt. De gemeenschappelijke noemer daarin is dat ze gebruikt worden voor het verkrijgen van een beter inzicht en het maken van beter onderbouwde keuzes en beslissingen. Daarnaast maken universiteiten graag gebruik van een goede positie op één van de ranglijsten om de eigen universiteit te promoten. Bij gebruikers van rankings kan gedacht worden aan:

  • Internationale studenten die een universiteit willen kiezen voor hun studie (master/ promotie);
  • Onderzoekers die een universiteit willen kiezen voor een loopbaan;
  • Bedrijven die een vestigingsplaats willen kiezen;
  • Beleidsmakers (van instellingen, overheid) die willen zien wat de internationale positie is van landen, systemen en instellingen daarbinnen.

Bij het gebruik van rankings is het raadzaam om de informatie uit rankings als één van de bronnen voor dergelijke keuzes en beslissingen te gebruiken, en ook aanvullende informatie mee te nemen. Zo leveren de publicaties over de innovatieve prestaties van landen, zoals de WCR en de GII, naast een hoeveelheid ranglijstjes (voor het totaal en voor onderliggende aspecten) ook veel achtergrondmateriaal in de vorm van analyses en beschouwingen.

Omdat rankings vooral een globaal beeld geven van de positie van landen en universiteiten, moeten ze met de nodige voorzichtigheid worden gebruikt. Kleine veranderingen in de methodologie (welke indicatoren, hoe worden de data verzameld) kunnen namelijk al leiden tot veranderingen in de lijst.

Tot slot

Ondanks alle kritiek worden rankings nog steeds gebruikt in discussies over de prestaties van landen en universiteiten. Om de resultaten van de rankings toch op een zinvolle manier te gebruiken, zouden ze vooral aanleiding moeten zijn om de bewustwording over specifieke onderwerpen tot stand te brengen. Met andere woorden, als startpunt voor gesprek. En daarbij is het belangrijk te kijken naar wat een land wil bereiken, of wat de missie van een universiteit is (wat voor universiteit willen we zijn en met wie willen we ons vergelijken). De rankings waarbij de gebruikers zelf kunnen “spelen” met de gegevens, verdienen daarbij de voorkeur.  

Voor een uitleg van de gebruikte definities en afkortingen verwijzen we graag naar de webpagina Definities en afkortingen.

Downloads