• U moet ingelogd zijn om onderwerpen te kunnen volgen.

    Log-in als u al een account heeft of maak een gratis account aan.

Ranglijsten / rankings

Rankings of ranglijsten zijn een populaire manier om vergelijkingen te maken, maar roepen ook veel kritiek op. Er zijn ranglijsten van nationale hoger onderwijssystemen, innovatiesystemen en ranglijsten van individuele instellingen. Sommige ranglijsten meten meerdere aspecten, sommige meten maar één aspect.

Rankings zijn populair omdat ze gebruikers een eenvoudig en snel beeld geven van de positie van landen of van instellingen, meestal universiteiten. Ook al zijn rankings meestal gebaseerd op meerdere onderliggende indicatoren, het is de resulterende totaalpositie die het meest in het oog springt en aandacht krijgt. Dat is tegelijkertijd een valkuil van rankings. Ze zijn globaal en doen (te) weinig recht aan de complexiteit van datgene wat gemeten wordt.

In deze factsheet gaan we eerst in op de verschillende soorten rankings die er zijn, waarna de beperkingen en het gebruik van rankings aan de orde komen.

Rankings van de innovatieve prestaties van landen

Informatie over de innovatieve prestaties van landen is te vinden in de volgende veel gebruikte  rankings:

  • De Innovation Scoreboard, vanaf 2001 een (jaarlijkse) publicatie van de Europese Commissie. De Scoreboard vergelijkt landen op basis van een 25-tal kwantitatieve indicatoren, gegroepeerd in een achttal categorieën. Het resultaat is een samenvattende innovatie index score en een rangordening van landen op basis van deze score die varieert van matige innovatoren tot innovatieleiders. De gegevens zijn vooral afkomstig van Eurostat.
  • De Global Innovation Index, vanaf 2007 is dit een jaarlijkse index van de World Intellectual Property Organization. Gebruikt 82 indicatoren om de innovatieve prestaties van 128 landen en economieën in de wereld te beoordelen. Hiervan zijn 58 indicatoren gebaseerd op kwantitatieve gegevens, 19 betreffen samengestelde indicatoren en 5 zijn gebaseerd op een survey van het World Economic Forum.
  • De Global Competitiveness Index, vanaf 1997 is dit een jaarlijkse index van het World Economic Forum waarin de concurrentiekracht van bijna 140 landen wordt beoordeeld op basis van een breed scala van 114 indicatoren die in 12 pijlers zijn ondergebracht. Hoger onderwijs en innovatie zijn twee van de pijlers. Een belangrijk deel van de resultaten van de indicatoren is afkomstig van een jaarlijkse survey onder bedrijven.

Hoewel er overlap is tussen de pijlers van de Global Innovation Index (GII) en de Global Competitiveness Index (GCI), maken de indexen gebruik van verschillende achterliggende indicatoren. De GCI maakt sterker dan de GII gebruik van de resultaten van de jaarlijkse survey onder bedrijven. Terwijl de indicatoren voor de European Innovation Scoreboard over de jaren heen redelijk consistent zijn, worden de methodologie en de gebruikte indicatoren bij de GII en de GCI wel regelmatig aangepast.  

Rankings van hoger onderwijssystemen

  • Universitas21 Higher Education Systems Ranking (U21 HE) komt sinds 2012 jaarlijks uit en geeft een vergelijking van nationale systemen voor hoger onderwijs van verschillende landen. De gebruikte indicatoren omvatten vier systeemaspecten: bronnen, omgeving, verbondenheid en output.
  • QS presenteert een soortgelijke ranking van hoger onderwijssystemen: de QS Higher Education System Strength ranking, op basis van de gemiddelde positie van hoger onderwijsinstellingen op de QS World ranking toegang tot hoger onderwijs en de positie van de best presterende instelling van het land, met een correctie voor de economische positie van het land. 

In onderstaande figuur is te zien dat Nederland in de Top-10 staat bij elk van de bovenstaande landenrankings voor het meest recente jaar.

De Nederlandse positie op rankings van landen, 2016

Gegevens: Download als csv bestand
Bron: Europese Commissie: EU-Innovation Scoreboard 2016; World Intellectual Property Organization: Global Innovation Index 2016; World Economic Forum: Global Competitiveness Index 2016/2017; Universitas21: Higher Education System Ranking 2016; QS: Higher
Notities: Een lager cijfer in de grafiek betekent een betere (hogere) positie op de ranking. Wanneer Europa-breed wordt gekeken, neemt Nederland bij de Innovation Scoreboard van de EU een zesde positie in. Zwitseland is dan de koploper.


Voor de GCI en de EIS zijn gegevens voor meerdere jaren beschikbaar. 

De Global Innovation Index en de Global Competitiveness Index zijn breed samengestelde rankings die gebaseerd zijn op een groot aantal indicatoren, die vele maatschappelijke en economische gebieden bestrijken. Dat varieert van financiële markten en infrastructuur tot onderwijs en innovatie. Per gebied zijn weer deel-rankings beschikbaar. Om een goed beeld te krijgen van de prestaties van een land is het bij deze rankings aan te bevelen om vooral te kijken naar de onderliggende deel-rankings en indicatoren.

Rankings van universiteiten

Er zijn verschillende internationale rankings van universiteiten. Ieder met een eigen smaakje, wat tot uiting komt in de achterliggende indicatoren en de weging die de indicatoren meekrijgen. Sommige zijn vooral op onderzoek georiënteerd, terwijl andere rankings aandacht besteden aan de prestaties op meerdere gebieden van universiteiten, zoals onderwijs en internationalisering. We zetten de meest gebruikte op een rij. Sommige zijn alleen gebaseerd op cijfermateriaal, al dan niet aangeleverd door de universiteiten zelf, andere zijn voor een deel gebaseerd op de resultaten van een survey.

De Shanghai ranking

De Academic Ranking of World Universities (ARWU) was de eerste wereldwijde universitaire ranking, oorspronkelijk gestart met een nationaal Chinees doel, maar al snel uitgegroeid tot een internationaal gebruikte ranking. Deze ranking wordt vanaf 2003 jaarlijks gepubliceerd door de Shanghai Jiao Tong Universiteit (daarom ook wel Shanghai ranking genoemd). De positie op de algemene Shanghai ranking wordt vastgesteld met indicatoren die vooral betrekking hebben op onderzoek: 

  • Alumni van een instituut die prijzen hebben gewonnen (de Nobelprijs of prijzen in specifieke gebieden (10%);
  • De staf van een instituut die prijzen hebben gewonnen (de Nobelprijs of prijzen in specifieke gebieden (20%);
  • Hoog geciteerde onderzoekers in 21 brede categorieën (20%);
  • Artikelen gepubliceerd in Nature and Science (20%);
  • Artikelen in twee citatie-indexen (de Science Citation Index-expanded en de Social Science Citation Index (20%); en
  • Academische prestaties op de indicatoren per wetenschapper van een instituut (10%).

Sinds enkele jaren heeft de ranking ook deelrankings voor onderzoeksvelden (science, engineering, life sciences, medical sciences, social sciences) en disciplines (mathematics, physics, chemistry, computer science, economics / business).

Twaalf Nederlandse universiteiten staan in de ranking 2016 in de top 400. Uitzondering is Tilburg University, verklaarbaar vanuit de disciplinaire achtergrond van deze universiteit (bij de deelranking op het gebied van de sociale wetenschappen staat Tilburg University in de top-100). Er zijn naar schatting bijna 1.200 universiteiten wereldwijd in de ranking opgenomen. De Shanghai ranking is de enige ranking die vanaf positie 100 de universiteiten in grotere groepen plaatst. Binnen deze groepen zijn de universiteiten alfabetisch gerangschikt.

QS World University Ranking

De QS World University Rankings stelt een ranking van meer dan 900 topuniversiteiten samen en gebruikt hiervoor de volgende zes indicatoren:

  • Academische reputatie, gemeten op basis van een survey onder academici (40%);
  • Werkgeversreputatie, gemeten op basis van een survey onder werkgevers van universitair afgestudeerden (10%);
  • Citatiescore per faculteit, gebaseerd op de Scopus database van Elsevier (20%);
  • Staf student ratio (20%);
  • Het aandeel internationale studenten (5%);
  • Het aandeel internationale  staf (5%).

Deze ranking, met een breder perspectief dan de Shanghai ranking, kent deelrankings op een veertigtal gebieden / disciplines. De rangorde van de universiteiten is een andere dan bij de Shanghai ranking, wat te verklaren is door het gebruik van een set van indicatoren, die een ander perspectief heeft: de QS ranking is vooral te karakteriseren als een ranking op basis van reputatie, terwijl de Shanghai ranking een ranking is die is gebaseerd op feitelijke wetenschappelijke prestaties.  

De Leiden Ranking

De Leiden Ranking wordt opgesteld door het Centrum voor Wetenschaps- en Technologiestudies (CWTS) van de Universiteit Leiden. Het is nog meer dan de Shanghai ranking een specifieke onderzoeksranking, die alleen is gebaseerd op bibliometrische gegevens (publicaties en citaties) uit het Web of Science. Daardoor richt de ranking zich vooral op de natuurwetenschappen en de medische wetenschappen, waarin het traditie is te publiceren in internationaal wetenschappelijke tijdschriften. Het is een interactieve ranking van de 750 grootste onderzoeksuniversiteiten in de wereld, waarbij de gebruiker zelf de parameters bepaalt:

  • Tijdsperiode: de ranking begint met de periode 2006-2009, die telkens één jaar opschuift;
  • Dekking: één van de vijf wetenschapsgebieden of het totaal ervan;
  • Regio dan wel een land;
  • De drempelwaarde van de publicatie-output van een universiteit;
  • Type indicator: impact of samenwerking (op basis van co-publicaties);
  • Drie indicatoren voor impact (top 1%, top 10% en top 50%);
  • Vier indicatoren voor samenwerking (totaal aantal co-publicaties, aantal internationale co-publicaties en aantal co-publicaties gebaseerd op afstand, ofwel < 100 km ofwel > 5000 km).  

De positie van de universiteiten varieert sterk al naargelang de gebruikte indicator, zoals blijkt uit twee geselecteerde indicatoren in de tabel hierna met de positie van Nederlandse universiteiten op enkele rankings.

De “University-Industry Research Connections" (UIRC) ranking

Deze ranking van het CWTS geeft voor dezelfde groep als bij de Leiden Ranking van 750 universiteiten het aandeel co-publicaties van universiteiten en bedrijven weer. Naast deze UIC intensiteit geeft de ranking ook cijfers over het aandeel van de publicaties met bedrijven in het betreffende land (% domestic UIC’s). Dat gebeurt voor het totaal van alle wetenschapsgebieden van de betreffende universiteit en voor zeven afzonderlijke brede wetenschapsgebieden. Deze zijn: Wiskunde, informatica en techniek; Natuurwetenschappen; Levenswetenschappen; Aard- en omgevingswetenschappen; Medische wetenschappen; Sociale wetenschappen en Cognitieve wetenschappen.

De laatste versie van de UIRC ranking was die van 2014. Het CWTS werkt aan een nieuwe methode voor deze ranking, met een gebruikersvriendelijke inrichting.

De Times Higher Education Ranking

Het tijdschrift ‘The Times Higher Education’ publiceert sinds 2004 de THE World University Rankings. De ranking bestrijkt net als de QS ranking een breed palet aan universitaire activiteiten: onderwijs (30%), onderzoek (30%), citaties (30%), inkomsten van bedrijven (2,5%) en internationale oriëntatie (7,5%).
De ranking kent subject-rankings op een zestal gebieden. Een derde van de scores is gebaseerd op een reputatie survey onder wetenschappers. De methodologie van deze ranking is al verschillende malen gewijzigd naar aanleiding van kritieken. Door de wijzigingen in de methodologie adviseert men de resultaten van het ene jaar niet te vergelijken met die van eerdere of latere jaren.

U-multirank

In 2014 is een nieuwe type ranking ontwikkeld, met financiële ondersteuning van de Europese Commissie. Ontwikkeld door een samenwerkingsverband van CHE in Duitsland en het CHEPS en CWTS in Nederland. Deze ranking pretendeert niet zozeer een ranking te zijn, als wel een instrument om universitaire prestaties op een vijftal dimensies met een dertigtal aspecten te vergelijken op basis van informatie over meer dan 1.300 hoger onderwijsinstellingen. De prestaties worden beoordeeld van zeer goed (een A-score) tot zwak (een E-score). De gebruikte dimensies zijn:

  • Onderwijs en leren;
  • Regionale betrokkenheid;
  • Kennistransfer;
  • Internationale oriëntatie;
  • Onderzoek.

Nieuw is dat U-multirank op zijn website enkele kant en klare rankings presenteert. Eén op het gebied van onderzoek en onderzoekssamenwerking en één op het gebied van onderwijs en leren (onderverdeeld in 13 disciplines).

Resultaten van enkele rankings

Als we kijken naar het algemene beeld dat uit de resultaten van de rankings naar voren komt, dan zien we dat de top van de universitaire rankings wordt gedomineerd door Amerikaanse en Britse universiteiten. Zo staan in de top-50 van de Shanghai ranking 31 Amerikaanse en 7 Britse universiteiten. Daar staat tegenover dat deze wetenschapssystemen weinig universiteiten hebben in de subtop, terwijl het landen zijn met veel universiteiten. Nederland en enkele andere landen (zoals Zwitserland, Zweden en Duitsland) hebben wel relatief veel instellingen in de subtop (100-500) van de rankings. De rankings laten zien dat het Nederlandse wetenschapssysteem over de breedte goede prestaties levert. En wanneer we bijvoorbeeld bij de Shanghai ranking de Universiteit Utrecht vergelijken met Europese universiteiten in de top-50 op de scores van de onderliggende indicatoren, dan zien we op sommige indicatoren grote, maar op sommige indicatoren ook kleine verschillen. Soms doet Utrecht het zelfs beter.

We kunnen universiteiten naast een plaats op de ranking ook op een andere manier met elkaar vergelijken door te kijken naar grootte (op basis van de totale uitgaven) en de onderwijsfunctie (op basis van aantallen ingeschreven studenten). Als we dan de Universiteit Utrecht vergelijken met de top-50 Europese universiteiten van de Shanghai ranking dan zien we dat de meeste Europese universiteiten veel meer geld te besteden hebben én veel minder studenten opleiden dan de Universiteit Utrecht (bron is de ETER-database met gegevens over Europese hoger onderwijsinstellingen).

De volgende tabel laat zien welke positie de Nederlandse universiteiten innemen op enkele van de hiervoor beschreven rankings.

De positie van Nederlandse universiteiten op enkele internationale rankings

Shanghai 2016QS World 2016/2017Leiden CWTS/ PP(10%) 2016Leiden CWTS / PP(Collab) 2016THE 2015/2016UIRC 2014: % co-publicaties
EUR1251445115671128
LEI93102658167164
RU1251909375125326
RUG7211311825574197
TiU-33033967225641
TUD17562160375654
TU/e2501212604541761
UM2501731612988166
UT35017727934814943
UU651045810362183
UVA12557647158308
VU1251998132154294
WUR12511979874731
Aantal NL universiteiten in Top100 328784
Beschikbaar vanafVanaf 2003Vanaf 2009/10Vanaf 2013Vanaf 20132013/14Van 2008 t/m 2014
Gegevens: Download als csv bestand
Bron: divers
Notities: De universiteiten zijn alfabetisch geordend. PP(top 10%): het aandeel van de publicaties van een universiteit, dat - vergeleken met andere publicaties in hetzelfde veld en in hetzelfde jaar - tot de top 10% meest geciteerde publicaties behoort. PP(collab): het aandeel co-publicaties van een universiteit, waarbij is samengewerkt met een of meer andere organisaties t.o.v. het totaal van de publicaties van die universiteit. UIRC 2014 % co-publicaties: betreft het aandeel publiek-private co-publicaties op het totaal aantal publicaties.


Bovenstaande tabel laat een gevarieerd beeld zien wat betreft de positie van de Nederlandse universiteiten, te verklaren uit de diversiteit aan methodieken: bij enkele rankings staan slechts een paar Nederlandse universiteiten in de top-100, terwijl bij andere meer dan de helft deel uitmaakt van de top-100. Ook laat de tabel zien dat elke universiteit wel in één of meerdere rankings in de top-100 staat. De Universiteit Utrecht is in de Shanghai ranking al jaren de hoogst scorende Nederlandse universiteit. De Universiteit Utrecht heeft vanaf 2003 acht keer in de top-50 gestaan, maar staat sinds 2012 net buiten de top-50. In 2014/2015 had Nederland 6 universiteiten in de QS top-100, in 2016/2017 is dit aantal gedaald tot 2. De UvA scoort van de Nederlandse universiteiten het hoogst in deze ranking. In de Leiden ranking staat meer dan de helft van de Nederlandse universiteiten in de top 100, net als bij de THE ranking. Bij de UIRC ranking van het CWTS nemen twee technische universiteiten, die van Eindhoven en Delft, zelfs een toppositie in met respectievelijk een eerste en vierde positie.

Ook in de rankings per discipline of vakgebied zijn de Nederlandse universiteiten te vinden in de top-100. Zo zijn in de Shanghai ranking per subject bij elk van de vijf brede vakgebieden één of meer Nederlandse universiteiten in de top-100 vertegenwoordigd (tabel 1 in het achterliggende excel bestand). Zo staan bij de sociale en medische wetenschappen respectievelijk 7 en 6 Nederlandse universiteiten in de top-100. In de THE subject-ranking voor 2015/2016 staan bij elk van de zes brede wetenschapsgebieden minimaal 3 Nederlandse universiteiten in de Top-100 (tabel 2 in het achterliggende excel bestand). Bij Gezondheid zijn dat zelfs 7 Nederlandse universiteiten (zeven van de acht universiteiten met een universitair medisch centrum). In de QS Subject Ranking 2016 zit bij vrijwel elk van de 40 disciplines minstens één Nederlandse universiteit in de Top-50 (tabel 3 in het achterliggende excel bestand). Uitzonderingen zijn Uitvoerende kunsten, Computerwetenschappen en Informatica, Wiskunde, Biologie, Chemie en Verpleegkunde.

Beperkingen van rankings

Naast veel aandacht hebben de universitaire rankings in de loop van de tijd ook commentaar en kritische beschouwingen opgeleverd. Zo doen ze bijvoorbeeld (te) weinig recht aan de veelvormige prestaties van een universiteit die verschillende activiteiten heeft op een groot aantal wetenschapsgebieden, welke prestaties moeilijk in één cijfer zijn te vatten. Hierdoor worden appels bij peren opgeteld. Verder komen universiteiten met een specialisatie op het gebied van de sociale en geesteswetenschappen niet goed uit de verf wanneer de ranking gebruik maakt van publicatie en citatie-indicatoren, die vooral zijn toegesneden op de exacte wetenschapsgebieden met hun traditie van publiceren in wetenschappelijke tijdschriften. Ook de grootte van een universiteit kan van invloed zijn op de positie op een ranking, zeker als hiervoor niet wordt gecorrigeerd.

Als reactie hierop zijn deel-rankings op specifieke wetenschapsgebieden ontstaan, rankings die zich tot één aspect beperken en zijn er interactieve ranglijsten ontwikkeld, waarbij de gebruiker op basis van onderliggende data zelf vergelijkingen kan maken.

Een punt van kritiek is ook dat de manier waarop een ranking tot stand komt (welke data worden gebruikt en in hoeverre zijn deze vergelijkbaar?) en de combinatie van indicatoren die gebruikt worden invloed hebben op de positie van universiteiten. Daarnaast leiden veranderingen in de methodiek tot verschillen in posities van universiteiten van jaar tot jaar, ook al zijn er geen aanwijsbare veranderingen te zien bij de universiteit. Hierdoor hebben vergelijkingen door de tijd een beperkte betekenis in verhouding tot de feitelijke situatie (European University Association, 2013). Wanneer de positie van een universiteit op een ranking daalt ten opzichte van het voorafgaande jaar, betekent dit dan ook niet per definitie dat de prestaties van de betreffende universiteit achteruit zijn gegaan. Daarnaast kunnen de scores van universiteiten in een groep van de ranking heel dicht bij elkaar liggen: de verschillen in scores tussen die universiteiten zijn dan marginaal. Bij kleine veranderingen in de scores, schuiven die universiteiten bij een volgende meting meerdere posities in de ranking op. Vandaar dat bijvoorbeeld de Shanghai ranking na positie 100 alleen met groepen van universiteiten werkt. 

Deze beperkingen worden verder ondersteund door een studie van onderzoekers van het Joint Research Centre van de Europese Commissie (Saisana e.a., 2011). In deze studie zijn twee veel gebruikte rankings, de Shanghai ranking en de THE ranking, onder de loep genomen en is op basis van simulaties gekeken naar de invloed van de methodologie op de positie van individuele instellingen. De conclusie van de studie is dat de rankings zeer gevoelig zijn voor (veranderingen in) de onderliggende statistische methodologie. Waar de positie van de top 10 universiteiten robuust zijn bij veranderingen, is dit veel minder het geval bij de overige posities. De resultaten zijn wel robuust wanneer regio’s in de wereld (zoals Noord-Amerika, Europa en Azië) met elkaar worden vergeleken.

Het gebruik van rankings

Rankings worden op verschillende manieren gebruikt. Gemeenschappelijke noemer daarin is dat ze gebruikt worden voor het verkrijgen van een beter inzicht, en het maken van beter onderbouwde keuzes en beslissingen. Bij gebruikers van rankings kan gedacht worden aan:

  • Internationale studenten die een universiteit willen kiezen voor hun studie (master / promotie);
  • Onderzoekers die een universiteit willen kiezen voor een loopbaan;
  • Bedrijven die een vestigingsplaats willen kiezen;
  • Beleidsmakers (van instellingen, overheid) die willen zien wat de internationale positie is van landen, systemen en instellingen daarbinnen.

Bij het gebruik van rankings is het raadzaam om de informatie uit rankings als één van de bronnen voor dergelijke keuzes en beslissingen te gebruiken, en ook aanvullende informatie mee te nemen. Zo leveren de publicaties over de innovatieve prestaties van landen, zoals de GCI en de GII, naast een hoeveelheid ranglijstjes (voor het totaal en voor onderliggende aspecten) ook veel achtergrondmateriaal in de vorm van analyses en beschouwingen.

Omdat rankings vooral een globaal beeld geven van de positie van landen, nationale wetenschapssystemen en van individuele universiteiten daarbinnen, moeten ze met de nodige voorzichtigheid worden gebruikt. Kleine veranderingen in de methodologie (welke indicatoren, hoe worden de data verzameld) kunnen namelijk al leiden tot veranderingen in de lijst.

Te zien is dat met name de universitaire rankings in de loop der tijd veel kritiek hebben gekregen. Ondanks deze kritiek maken universiteiten graag gebruik van een goede positie op één van de ranglijsten om de eigen universiteit te promoten.

De kritiek heeft in 2006 geleid tot de formulering van een aantal principes, de zgn ‘Berlin Principles on Ranking of Higher Education Institutions’ (2006). De principes hebben een goed en verantwoord gebruik en ontwerp van rankings ten doel en moeten leiden tot een verbetering van de kwaliteit van de dataverzameling, methodologie en verspreiding van de resultaten. De principes richten zich op:

  1. De doelstellingen van de ranking: een ranking moet slechts één van de manieren zijn om het hoger onderwijs te beoordelen, is helder over het doel en de doelgroepen, houdt rekening  met de diversiteit van de instellingen, is transparant over de informatiebronnen en specificeert de – taalkundige, culturele, economische en historische - context van het universitaire systeem;
  2. Het ontwerp en de weging van indicatoren: een ranking is transparant over de methodologie, kiest valide en relevante indicatoren, kijkt meer naar prestaties dan naar input van een instelling en houdt veranderingen in indicatoren en de weging ervan beperkt;
  3. De verzameling en verwerking van de data voor de ranking: een ranking gebruikt goedgekeurde en verifieerbare data, gebruikt data die met de goede wetenschappelijke procedures zijn verzameld, en past kwaliteitsmaatstaven toe op het proces van ranking;
  4. De presentatie van de resultaten: een ranking geeft de gebruikers inzicht in de factoren die gebruikt zijn om de ranking te ontwikkelen, stelt de ranking zo samen dat fouten worden beperkt en fouten gecorrigeerd kunnen worden.

Tot slot: ondanks alle kritiek zijn rankings niet meer weg te denken uit discussies over de prestaties van landen of de prestaties van universiteiten. Om de resultaten van de rankings toch op een zinvolle manier te gebruiken, zouden ze in het geval van universitaire rankings vooral aanleiding moeten zijn om de bewustwording over specifieke onderwerpen in het hoger onderwijsbeleid en –praktijk tot stand te brengen. Met andere woorden, als startpunt voor gesprek, tegen de achtergrond van de missie van de universiteit (wat voor universiteit willen we zijn en met wie willen we ons vergelijken). De rankings waarbij de gebruikers zelf kunnen “spelen” met de gegevens, verdienen daarbij de voorkeur.  

Meer informatie