Artikel
18 jun '19
18 juni '19
10 min

Vijf vragen aan…Sander Klous

Veel organisaties zijn zich bewust van het feit dat ze iets met data moeten en de waarde die het in zich heeft. Maar tegelijkertijd stoeien organisaties met allerlei vragen. Een data gedreven organisatie word je niet van vandaag op morgen, maar het is zeker de moeite waard om met (big) data aan de slag te gaan. Wij stelden Sander Klous, hoogleraar Big Data Ecosystems for Business and Society aan de Universiteit van Amsterdam, vijf vragen over (big) data.

1. Voor welke uitdagingen staat de publieke sector als het gaat om big data en artificial intelligence?

Er zijn bijna geen beslissingen meer die door ons genomen worden zonder dat ze zijn beïnvloed door data-analyse. Bijvoorbeeld omdat je informatie hebt opgezocht op Google, je vertrouwt op je navigatiesysteem of de prijs van een product is bepaald door een algoritme. We noemen dat onzichtbaar prikkeldraad, waar we ons leven min of meer door geleid worden. Op dit moment is dat prikkeldraad nog niet onzichtbaar. Er gaan nog regelmatig dingen fout op momenten dat algoritmes ons proberen te beïnvloeden. Denk aan een navigatiesysteem dat niet weet of een weg is afgesloten. Of de advertenties die je online te zien krijgt van een product dat je net hebt gekocht. Die fouten zorgen voor irritatie en die irritatie is het prikkeldraad dat dan even voelbaar wordt. Een algoritme probeert jouw beslissing te beïnvloeden op een manier die je niet bevalt.

In de komende jaren worden data-analyses steeds beter, omdat er meer en betere data beschikbaar is en algoritmes slimmer worden. Dan wordt het prikkeldraad dus echt onzichtbaar. Ik ben van mening dat we op een uniek moment in de tijd zijn aangekomen als het om data-analyse gaat. Dit is het moment waarop we moeten bepalen als maatschappij wat we acceptabel vinden. Welk deel van onze autonomie geven we op? Ik vind het prima als de lichten van mijn auto automatisch aan gaan als het donker wordt, maar bij politieke keuzes, bij wie je kiest als levenspartner, wil ik weten dat ik word beïnvloed en hoe ik word beïnvloed.

“Dit is het moment waarop we moeten bepalen als maatschappij wat we acceptabel vinden. Welk deel van onze autonomie geven we op?”

Ik verwacht niet dat we als maatschappij in staat zijn om in één keer een volledig raamwerk neer te leggen dat richting geeft aan keuzes gerelateerd aan bovenstaande uitdaging. Eerder denk ik dat er de komende jaren incidenten zullen zijn die uiteindelijk voor de rechter komen. De rechter zal vervolgens via jurisprudentie de kaders bepalen op basis van bestaande wetgeving. Maatschappij en politiek zullen vervolgens reageren en mogelijk tot aanvullende wetgeving komen als de rechterlijke beslissingen onwenselijk blijken. Na een aantal jaar hebben we dan een lappendeken van jurisprudentie en politieke uitspraken die voor verwarring gaan zorgen. Iets vergelijkbaars hebben we gezien bij het thema privacy. Dat is uiteindelijk opgelost door er een Europese werkgroep op te zetten (werkgroep 29), die een en ander heeft geharmoniseerd. Wanneer het gaat om ethiek op het gebied van data-analyse verwacht ik ook een dergelijke route.

De uitdaging van de publieke sector is om te bepalen welke rol ze willen spelen in dit traject. Iedere instantie zal daarin eigen keuzes maken. Gemeenten nemen meer de rol op zich om burgers te beschermen, ministeries proberen beleid te bepalen en te regisseren, de rechterlijke macht is zich aan het bijscholen op het onderwerp, uitvoeringsorganisaties zijn aan het nadenken over de impact van algoritmes op hun bedrijfsvoering en hoe ze daar risicomanagement op kunnen doen, toezichthoudende instanties vragen zich af waar hun verantwoordelijkheden liggen en ga zo maar door.

2. Wat hebben we van data geleerd de afgelopen jaren?

We hebben vooral geleerd dat het gebruik van data om allerlei soorten inzichten te creëren niet stopt en steeds verder doordringt in de haarvaten van onze maatschappij. Daarbij zijn er zowel positieve als negatieve effecten. Het is aan ons om die effecten te kanaliseren, want tegenhouden is geen optie. Data-analyse is onderdeel van onze maatschappij en is dat eigenlijk altijd al geweest. Het ontwikkelt zich ook met de maatschappij mee, net als bijvoorbeeld taal doet. En net als taal is het ook geen optie om er geen gebruik van te maken, omdat het soms op een ongewenste manier wordt ingezet.

Een belangrijk verschil met taal is dat er rondom data machtsblokken ontstaan in de vorm van overheden of grote bedrijven. De belangen van die partijen verschillen soms van de maatschappelijke belangen. Ik heb wel eens een gesprek gevoerd met iemand die onderzoek deed naar algoritmes van datingsites. Het was een eyeopener voor die persoon dat de datingsite er helemaal geen belang bij heeft om ervoor te zorgen dat jij op de eerste dag op die website de liefde van je leven vindt. Een tweede inzicht van de afgelopen jaren is dat we niet naïef moeten zijn over de belangen die op het spel staan en dat we ervoor moeten zorgen dat de belangen van alle stakeholders op de juiste manier worden beschermd.

3. Hoe verhouden big data en privacy zich tot elkaar?

Wat we met big data en artificial intelligence proberen te doen is uiteindelijk het begrijpen van gedrag. Dat kan gedrag zijn van een persoon, een groep, een proces, een organisatie of van een machine. Om dat gedrag zo goed mogelijk te begrijpen is het nodig om zoveel mogelijk informatie te verzamelen over dat onderwerp en daar vervolgens geavanceerde analyses op los te laten. Als dat onderwerp een persoon is, dan is privacy dus ook direct onderdeel van de discussie. Want welke informatie mag je verzamelen en wat voor analyses mag je doen op verzamelde data?

Er zijn de afgelopen jaren een heleboel technieken ontwikkeld om privacy te beschermen. Ook zijn er regelmatig discussies die worden aangeduid als privacy discussies, maar
dat in feite niet zijn. Ik kan mij nog herinneren dat een leverancier van navigatiesystemen een aantal jaar geleden in het nieuws kwam. Het bedrijf maakte zogenaamde “speed profiles”, zodat ze op ieder moment wisten hoe hard er op iedere plek werd gereden. Dat was heel handig voor de gebruikers van die systemen, zo kregen ze namelijk de optimale route aangeboden, die je zo snel mogelijk van A naar B brengt. De rapen waren gaar toen men erachter kwam dat deze data ook aan de politie werd aangeboden, die er vervolgens radarcontroles mee optimaliseerde. Meerdere mensen vonden dit een grove inbreuk op de privacy.

“Het doel van snelheidscontroles is om wegen veiliger te maken en dat lijkt mij een maatschappelijk belang, toch?”

Echter, het gaat hier om gemiddelde snelheden die niet herleidbaar zijn naar personen. Er is dus helemaal geen inbreuk op privacy. Bovendien kun je je afvragen waarom hier zo negatief op gereageerd werd. Het doel van snelheidscontroles is om wegen veiliger te maken en dat lijkt mij een maatschappelijk belang, toch? Kortom, er is zeker een verband tussen big data, de analyse van die data en privacy. Daarbij moeten de juiste afwegingen worden gemaakt. Welke informatie mag worden verzameld, hoe die mag worden geanalyseerd, of de juiste technieken worden ingezet om het privacy risico zo klein mogelijk te maken en of de juiste discussies worden gevoerd omtrent wat wij als maatschappij wel of niet acceptabel vinden.

4. Waar houd jij je als expert op dit gebied nu voornamelijk mee bezig?

Ik hou mij op dit moment voornamelijk bezig met de vraag hoe we de uitkomsten van data-analyse kunnen vertrouwen en hoe die worden gebruikt. Vertrouwen gaat daarbij veel verder dan alleen betrouwbaarheid. Het bevat ook ethische elementen, bijvoorbeeld op het gebied van discriminatie en uitsluiting. In de publieke sector, maar ook daarbuiten zie ik vaak dat transparantie het doel is waar men zich op richt. Echter, transparantie kan volgens mij geen doel op zich zijn. Uiteindelijk is de hoop dat transparantie leidt tot vertrouwen. In de praktijk blijkt dat er geen rechtstreeks verband is tussen transparantie en vertrouwen. Denk aan een pak melk dat je koopt in de supermarkt. De meeste mensen kijken naar de verloopdatum op het pak melk en als die datum niet bereikt is, dan koop je het pak melk. Waarom vertrouw je die verloopdatum? Er zijn maar weinig mensen die hebben gecontroleerd hoe die verloopdatum wordt uitgerekend en of dat wel ergens te vinden is. Transparantie is dus helemaal niet zo belangrijk.

Je vertrouwt de verloopdatum op basis van je ervaring. Die ervaring leidt tot een positieve reputatie gekoppeld aan het merk van het pak melk en de supermarkt. Mensen weten waarschijnlijk dat we een voedsel- en warenautoriteit hebben in Nederland en gaan er dan vanuit dat er wel een expert naar heeft gekeken. Hetzelfde kennen we bij KPMG maar al te goed van de jaarrekeningcontrole. De accountant kijkt naar de manier waarop de jaarrekening is opgesteld. Vervolgens zetten we een stempeltje als het goed genoeg is, waarmee we de mening van die expert koppelen aan ons merk. Het merk heeft een reputatie die gekoppeld is aan de eerdere ervaringen die de gebruikers van de jaarrekening hebben gehad met KPMG.

Zowel mijn wetenschappelijke activiteiten bij de Universiteit van Amsterdam als mijn praktijkgerichte activiteiten bij KPMG zijn gericht op het inrichten van een controle model voor algoritmes. Het blijkt dat er veel overlap is in methodologie met andere controletypes, zoals hierboven genoemd. Toch zijn er ook aanzienlijke verschillen. Zo zijn er bijvoorbeeld nog geen standaarden voor ethische aspecten die een rol spelen bij het toetsen van algoritmes en worden algoritmes vaak Agile ontwikkeld. Typische controlemechanismen zoals traceerbaarheid en privacy impact assessments werken dan vaak niet goed, omdat ze de innovatiesnelheid belemmeren. Wetenschappelijke uitdagingen die aanbod komen zijn: hoe definieer ik succes? Praktische uitdagingen zijn: hoe communiceer ik over het algoritme met een breed publiek?

5. Hoe kijk jij naar de toekomst van big data, artificial intelligence en ecosystemen?

De toekomst van big data en artificial intelligence staat vooral in het teken van het volwassen worden van ecosystemen. Een belangrijk element daarin is verwachtingsmanagement. We moeten gaan accepteren dat algoritmes fouten maken. In plaats van volledig in te zetten op het uitsluiten van die fouten, kunnen we dan een meer gebalanceerde discussie voeren over de risico’s en de maatregelen die daarbij horen.

Eenzelfde ontwikkeling hebben we eerder gezien in het cyber security domein. Oorspronkelijk was de gedachte dat er nooit iemand mocht inbreken op een systeem. Inmiddels zijn die verwachtingen aangepast. De boodschap is nu dat in ieder systeem kan worden ingebroken, als er genoeg inspanning voor wordt geleverd. Het gevolg is dat er nu meer wordt ingezet op het vroegtijdig ontdekken dat er is ingebroken en op het uitvoeren de juiste acties die daar vervolgens aan gekoppeld zijn. Ook wordt er nadrukkelijk nagedacht over de “cost of control”, hoeveel zijn we bereid te investeren om iets tegen inbraak te beschermen?

“Oorspronkelijk was de gedachte dat er nooit iemand mocht inbreken op een systeem. Inmiddels zijn die verwachtingen aangepast.”

Vertaald naar data-analyse betekent dat, dat we in een big data ecosysteem goed in de gaten moeten houden wanneer de uitkomst van een analyse niet goed is, wat voor consequenties daaraan zitten en welke maatregelen de verschillende partijen in het ecosysteem moeten nemen op het moment dat het mis gaat. Als die discussie beter in balans komt en de verwachtingen realistischer worden, kunnen we gaan bouwen aan vertrouwen via de eerdergenoemde keten: ervaring, reputatie merk. Dat is het moment waarop bedrijfsleven en maatschappij pas echt kunnen gaan profiteren van big data en artificial intelligence.

Dit artikel is verschenen in het magazine van Driessen Groep thema Data, uitgave juni 2019. Abonneer je gratis op het magazine Trends in HR.

Lieke Jansen
Hoofdredacteur