• U moet ingelogd zijn om onderwerpen te kunnen volgen.

    Log-in als u al een account heeft of maak een gratis account aan.

Zetten slimme steden publieke belangen onder druk?

De G5-gemeenten gebruiken data en slimme technologie voor efficiënter en effectiever bestuur, innovatie en participatie. Wat betekent dat voor inwoners? Hoe zit het bijvoorbeeld met autonomie en privacy als je voortdurend wordt gemeten en gestuurd? En hebben stedelingen zelf controle over de technologie?

Dit artikel is onderdeel van een reeks van drie.

Digitalisering kan invloed hebben op maatschappelijke en ethische kwesties. Dit beschreven we eerder in het rapport  Opwaarderen: borgen van publieke waarden in de digitale samenleving. Hoe zit het met slimme steden; op welke manier beïnvloeden zij deze waarden?

In Eindhoven, Den Haag, Rotterdam, Amsterdam en Utrecht interviewden we de zogenaamde slimmestadsprofessionals: projectleiders, kwartiermakers en strategisch adviseurs op het gebied van ‘smart city’ en datagedreven werken. In diezelfde gemeenten interviewden we verschillende maatschappelijke organisaties met een kritische blik op de datagedreven stad. Bovendien spraken we ze over concrete manieren om deze waarden te beschermen. Die strategieën publiceren we volgende week.

Nu eerst: wat zijn de gevolgen van slimmestadpraktijken voor online veiligheid en beveiliging, rechtvaardigheid, autonomie, controle over de technologie, menselijke waardigheid, machtsbalans en privacy? Hieronder is een samenvattend overzicht te vinden van de publieke waarden en de voorbeelden van kwesties die spelen in slimme steden die in de interviews genoemd werden. 

Online veiligheid en beveiliging

Nog voor cyberaanval Petiya een deel van de containeroverslag in de Rotterdamse haven enkele dagen platlegde, vroeg de slimmestadprofessional in Rotterdam zich in ons interview af: hoe weerbaar is de stad wanneer systemen uitvallen? Ook andere professionals zijn bang voor cybercriminaliteit en de gevolgen daarvan voor de stad. Ze zien de veiligheid van datasystemen als een grote uitdaging. Ook hebben verschillende gemeenten al datalekken moeten melden. Zowel de diefstal van persoonlijke gegevens als hacks van gemeentesystemen kunnen een grote impact hebben op het leven van individuen.

Rechtvaardigheid

Is de verzameling en analyse van veel persoonlijke data wel gerechtvaardigd, als je kijkt naar de maatschappelijke kosten en baten? De maatschappelijke organisaties vragen zich bijvoorbeeld af hoeveel gevallen van uitkeringsfraude er nu echt worden gevonden met data (bijv. interview Waag Society Amsterdam). Een terechte vraag. In Westland is men gestopt met ‘analyse-gestuurd handhaven’ op uitkeringsfraude en hoewel men in Zwolle de kosten van de dataverzameling en -analyse van dergelijke fraude eruit haalt, levert het handhaven niet veel extra op.

Dataverzameling brengt vragen met zich mee. Van wie zijn de data? Wie mag de gegevens zien en gebruiken? En wie heeft de kennis om dat ook daadwerkelijk te kunnen doen? In Amsterdam en Eindhoven zijn er met private bedrijven flinke onderhandelingen over de toegangs- en eigendomsrechten van data die in de publieke ruimte verzameld worden (interviews Eindhoven en Amsterdam). Gemeenten zijn nu in projecten soms afhankelijk van bedrijven die de data (wel) goed kunnen opslaan of analyseren en dat is niet altijd wenselijk (interview Rotterdam). En zelfs wanneer data voor iedereen open beschikbaar zijn, sluit deze niet altijd aan op de behoeften van alle stedelingen (interview Creating010). Ook heeft niet iedereen de computervaardigheden om de data te lezen en analyseren. (interview Waag Society Amsterdam).

Een ander project waarin rechtvaardigheid een rol speelt, is het optimaliseren van bezoeken van kinderen aan de jeugdarts. Dit gebeurt nu voor elk kind op vaste momenten. Verschillende gemeenten blijken te experimenteren met maatwerk via risicoprofielen. Zo kunnen ze per groep beter inschatten hoeveel tijd nodig is voor een consult. Of hoe vaak een kind door de arts gezien moet worden. Dit brengt zorgen over verantwoordelijkheid met zich mee: stel dat het een keer mis gaat, terwijl een kind in de groep met een laag risico was ingedeeld? Is de wethouder dan verantwoordelijk, of de maker van het algoritme? (Interview gemeente Utrecht). En leidt het streven naar maatwerk tot het structureel benadelen van bepaalde groepen? Tot onterechte uitsluiting of stigmatisering? De slimmestadprofessionals kennen voorbeelden uit het buitenland waarbij data-analyse heeft geleid tot discriminatie. Data-analyses en algoritmes met dergelijke vooroordelen moeten überhaupt voorkomen worden, vinden de professionals. Dat begint al bij de data-verzameling, welke metingen voer je uit en welke categorieën (bijvoorbeeld groepen) onderscheid je daarbij?

Autonomie

Autonomie is niet vanzelfsprekend in de slimme stad. Vooral wanneer er in de lokale overheid meer automatische beslissingen en handelingen plaatsvinden op basis van data en algoritmes. Dat lijkt de Chinese burger te overkomen: de regering wil in 2020 een verplicht Social Credit systeem invoeren. Hierin gaat zij de betrouwbaarheid van burgers scoren (interview SETUP Utrecht). Een van de private voorbeeldsystemen hiervoor is het Sesame Credit systeem van Alibaba. Dit systeem neemt niet alleen mee of de persoon in kwestie zijn rekeningen betaalt, maar ook het type producten dat hij of zij aanschaft: het kopen van luiers doet de betrouwbaarheidsscore toenemen, in tegenstelling tot het urenlang spelen van videogames (Botsman, 2017). En wat zal het betekenen voor de toekomstige Social Credit Score van een Chinese burger als hij een kritisch bericht over de overheid schrijft of deelt? Of als een vriendin van hem dat doet? De Chinese overheid stelt dat het breken van vertrouwen zal leiden tot restricties, bijvoorbeeld op vakantiebestemmingen (Botsman, 2017). In Nederland hebben stedelijke of nationale overheden gelukkig geen plannen voor een vergelijkbaar systeem.

Er zijn er wel voorbeelden van (pilot)projecten die als doel hebben met data en nieuwe technologie gedrag te beïnvloeden. Dit kan consequenties hebben voor de autonomie van inwoners of bezoekers. Zoals het project op Stratumseind in Eindhoven dat we vorige week bespraken. Wat gebeurt er als iemand staat te dollen met zijn vrienden onder een lantaarnpaal? Waar de systemen en/of de betrokken partijen zullen bepalen of jouw gedrag moet worden beïnvloed aan de hand van alle beschikbare gegevens, is jouw rol beperkt tot het afdragen van data zonder dat je daar toestemming voor hebt gegeven (Frissen 2015). Digitale huishoudboekjes die automatisch vaste lasten afboeken beperken ook de handelingsvrijheid. Je kunt namelijk niet zelf kiezen waar je geld aan uitgeeft. Tegelijkertijd leidt het voorkomen van extra schuld en het afbetalen van rekeningen wel tot meer bestedingsvrijheid op de lange termijn.

Controle over de technologie

Het grootste probleem van geautomatiseerde sturing ontstaat als de sturing niet zichtbaar is, vinden de maatschappelijke organisaties (Interview ICX Den Haag; Interview Waag Society Amsterdam). Dan is er sprake van een black box society (zie ook Pasquale (2015), waarnaar diverse professionals verwezen). Weten inwoners welke technologie er in hun stad aanwezig is? En wat deze voor hen kan betekenen?

In de praktijk blijkt het niet altijd even duidelijk. In Stratumseind staan er enkele borden met een foto van een camera (interview DATAstudio Eindhoven). Deze borden informeren mensen over – een deel van – de dataverzameling. Maar niet over de analyse en de toepassing ervan. Ook verhullend taalgebruik, zoals ‘knalsensoren’ in plaats van ‘microfoons’, draagt bij aan de onzichtbaarheid van technologie in de openbare ruimte (interview SETUP Utrecht). Maatschappelijke organisaties hebben veel kritiek op het gebrek aan transparantie van projecten.

Om controle te houden over een technologie, is het bovendien belangrijk oog te hebben voor de beperkingen van een data-gedreven aanpak. Soms zijn er patronen te vinden in data die toevallig zijn. Of er zijn juist problemen die zo onregelmatig optreden dat ze niet uit big data-analyses te halen zijn (interview Den Haag). Ze vinden het daarom belangrijk dat professionals binnen de gemeente controle houden over de specifieke definities van problemen en interventies en dit niet over te laten aan bijvoorbeeld (zelflerende) algoritmen.

Door je blind te staren op data-gedreven oplossingen en optimalisatie, sluit je bovendien snel andere oplossingsrichtingen uit (interview Creating010 Rotterdam). Denk aan het aanpakken van verkeersopstoppingen en bijbehorende luchtproblematiek in het stadscentrum via optimalisatie van de verkeersstromen. Het centrum alleen toegankelijk maken voor voetgangers en fietsers is ook een oplossing, al komt deze niet uit de data.

Daarnaast is het belangrijk stil te staan bij de kwaliteit, validiteit en betrouwbaarheid van data. Meet je wat je wilt meten? Zijn metingen te herhalen en komen daar dezelfde resultaten uit? Het blijkt erg moeilijk om de betrouwbaarheid van gegevens te beoordelen die niet van sensoren komen, maar uit publieke administraties (procesdata) (interviews Den Haag en Rotterdam). En een voorbeeld van twijfelachtige validiteit bleek het meten van eenzaamheid onder oudere mensen via de mate van sociaal contact. Eenzaamheid wordt voor ouderen namelijk veel meer bepaald door de intensiteit van contacten (interview DATAstudio Eindhoven). Sommige slimmestadprofessionals waren zich ervan bewust dat gegevens nooit volledig neutraal zijn, maar altijd in een specifieke sociale context moeten worden begrepen, waarbij technologische en methodologische beperkingen altijd een rol spelen (interviews Utrecht en Den Haag).

Menselijke waardigheid

Het besef groeit dat de slimme stad niet zozeer over nieuwe technologie gaat, maar in eerste instantie over mensen en hoe zij sociaal en cultureel samenleven (Creating010 Rotterdam). Kunnen mensen en hun welbevinden wel in data worden weergegeven? Diverse slimmestadprofessionals vinden het risicovol om complexe fenomenen via dashboards te reduceren tot één of enkele cijfers. Naast versimpeling is er de eerder genoemde zorg voor partijdigheid in de verzameling, analyse en toepassing van data (bijv. interviews gemeente Amsterdam, Den Haag en Utrecht). Het geschetste beeld doet dan geen recht aan de sociale werkelijkheid, maar zou wel de basis kunnen gaan vormen voor beleidsbeslissingen. Met gevolgen voor mensen in de stad.

De implicaties van datagedreven sturing in de stad zullen vooral gevoeld worden door mensen die afwijken van deze normen. Dit zou social chilling of social cooling kunnen veroorzaken: mensen  conformeren zich aan de geldende normen en gedragen zich gereserveerd, niet-creatief en risicomijdend (interview SETUP Utrecht).

De zorgen over beperkingen van dataficering staan op gespannen voet met de hoop dat cijfers een objectievere basis voor besluitvorming bieden. Ook voor het interne management. In de slimmestadprojecten die er tot nog toe zijn, vormen cijfers vaak input voor werkbesprekingen tussen medewerkers en leidinggevenden. Dat heeft gevolgen voor hoe medewerkers benaderd worden. Wanneer een medewerker tien cases doet en een ander zestig, zal dat verantwoord moeten worden (interview 2, gemeente Den Haag). Ook hier speelt de vraag of de cijfers voldoende inzicht geven in de complexiteit van het werk. En in hoeverre mogen medewerkers ‘imperfect’ zijn en afwijken van de door data gedefinieerde normen?

Machtsevenwicht

De samenwerking tussen overheden, publieke dienstverleners, bedrijven, kennisinstellingen en in sommige gevallen ook inwoners, zorgt voor verschuivende verhoudingen en verantwoordelijkheden. De verdeling staat niet van begin af aan helemaal vast en is onderdeel van het leerproces.

Volgens de slimmestadprofessionals komen projecten nog te vaak voort uit de ‘aanbodzijde’ en te weinig vanuit een maatschappelijke vraag. Het stimuleren van ICT-bedrijven en lokale welvaart bijvoorbeeld, blijkt in de praktijk niet eenvoudig te combineren met het oplossen van maatschappelijke problematiek.

Ook is eigenaarschap van data een belangrijke kwestie. Bedrijven willen graag data hebben (interview gemeente Eindhoven) en hebben – in tegenstelling tot de gemeente – al de capaciteiten voor de opslag en de analyse ervan (interview gemeente Rotterdam). De gemeenten zoeken naar manieren om meer regie te kunnen nemen en het eigenaarschap anders te regelen.

Privacy

Privacy kwam in elk interview naar voren, maar de professionals benadrukten tegelijkertijd dat dit niet de belangrijkste kwestie moet zijn in het debat over de slimme stad. De projecten voeren namelijk analyses uit op groeps- en gebiedsniveau. Ze gebruiken zelden persoonsgegevens. Alleen wanneer kwalitatieve informatie in de analyses wordt betrokken, speelt privacy op individueel niveau een rol. Denk aan informatie uit open velden in een aanmeldingsformulier van een publieke organisatie.

Toch zijn hier twee kanttekeningen bij te plaatsen. Bij big data gaat het om groepsprofilering, maar karakterisering door tal van groepsprofielen kan soms veel vrijgeven over individuele stadsbewoners. Zo kunnen analyses op groepsniveau gevolgen hebben voor het individu (interview DATAStudio Eindhoven).

Daarnaast past volgens sommige professionals ook het recht om imperfect te zijn binnen de notie van privacy. Hoeveel ruimte is er nog voor anders of creatief gedrag wanneer gedrag wordt geoptimaliseerd naar geldende idealen? (interview SETUP Utrecht).

Sturen met data vraagt om waarborgen

De slimme stad vraagt dus niet alleen om aandacht voor privacy en veiligheid, maar ook om een bredere bescherming van de menselijke waardigheid van het individu. Over het algemeen waren de maatschappelijke organisaties behoorlijk sceptisch of gemeenten zich wel bewust zijn van risico’s van digitalisering en het werken met slimme technologie. Ze denken dat de verwachtingen te optimistisch zijn en ‘niemand dat feestje wil verstoren’. Bij de G5-gemeenten zijn echter allerlei strategieën aanwezig of in ontwikkeling. Denk aan regelgeving, communicatie, veranderingen in de organisatie of technische maatregelen. Deze bespreken we volgende week in ‘Waarborgen in gemeentelijke democratie, beleid, techniek en organisatie’.