In veel toepassingsdomeinen wordt momenteel enthousiast gewerkt aan het najagen van de beloften die Big Data te bieden heeft, ook in het sociale domein. De doelen zijn meestal wel helder: voor de commerciële bedrijven is dat winstgevendheid, voor overheidsorganisaties is dat het bereiken van doelen op het gebied van efficiency en effectiviteit. Wie kan daar nu tegen zijn?
Wel, het blijkt dat veel mensen daar tegen zijn. Onmacht en onwetendheid spelen soms een rol, maar er worden valide en fundamentele vragen gesteld. Vinden we het wel oké dat ‘ze’ zo’n beetje ‘alles’ van ons weten? Krijgen de grootdatabezitters van de multinationals niet meer macht dan individuele staten, die tenminste nog democratisch geregeerd worden? Alles kan, maar is alles ook gewenst?
Voor relatief technische toepassingen, zoals data-analyse voor het verbeteren van de betrouwbaarheid van dijken, het verbeteren van de gezondheid en productiviteit van koeien of verminderen van files zijn veel mensen het eens dat dit in principe goede ideeën zijn. Komen we dichter op de mens, vooral de kwetsbare mens, dan krijgen de fundamentele vragen scherpere kantjes. Wordt de privacy niet geschonden? Zijn we niet te betuttelend? Worden groepen niet bij voorbaat in een hokje geduwd? Is technologisering van dit domein überhaupt een goed idee?
De maatschappij bepaalt wat we acceptabel vinden en wat niet
Het is tijd dat we deze vragen gaan beantwoorden. Daarbij zullen niet alleen de techneuten, bestuurders en ondernemers het antwoord gaan formuleren: de maatschappij bepaalt wat we acceptabel vinden en wat niet. Dat vooronderstelt dat de maatschappij weet wat er aan de hand is en dat ook kan beoordelen.
De vaak bepleite transparantie in de manier waarop data verzameld én gebruikt wordt is daar één voorwaarde van. Die transparantie geldt ook voor de manier waarop systemen ontworpen zijn. Maar transparantie is niet genoeg.
Naast transparantie is even groot belang dat we met zijn alleen een basisbegrip van al die analysemethoden gaan ontwikkelen. Niet dat we allemaal data scientists hoeven te worden; we kunnen immers ook Facebook gebruiken zonder programmeur te zijn of een auto besturen zonder monteur te zijn. Maar we weten wél dat Facebook zonder internetverbinding niet werkt, en dat een auto zonder benzine niet loopt.
Tot slot is het van belang dat we de vragen en zorgen kunnen adresseren door onze manier van werken aan te passen. Ontwerpen middels een ‘privacy by design’ aanpak, het mogelijk maken dat data écht afgeschermd wordt en heldere en geaccepteerde manieren om ‘data governance’ te regelen. Organisaties als TNO werken hier aan mee; bijvoorbeeld in het Privacy&Identity lab, of in het PRANA-DATA project.
Freek Bomhof, onderzoeker bij TNO, ondersteunt en adviseert organisaties bij het verzamelen, delen, veredelen en analyseren van Big Data
Meer weten?
Op de cursus Informatie-uitwisseling in het sociaal domein leert u hoe Big Data, rekening houdend met maatschappelijke belangen, ingezet kan worden in het sociaal domein
Het risico van een gebrek aan pivacy bij eHealth, mHealth, Big Data etc hangt samen met het verdienmodel in de zorg. We betalen namelijk vrijwel uitsluitend voor ziektemanagement en niet voor gezondheidszorg. Zorgverzekeraars mogen elk jaar opnieuw hun premies berekenen en maken bij groter risico alleen maar meer omzet. Het huidige verdienmodel van zowel zorgleveranciers en zorgverzekeraars is wat dat betreft dus pervers en onder concurrerende private verzekeraars wordt het behalen van een goede marge vooral bewerkstelligd door slimme manieren van risicoselectie en daar komt Big Data natuurlijk goed van pas. Maatschappelijk is dat denk ik geen wenselijke situatie en zouden we daarom eerst naar een zorgsector gebaseerd op het model van een Accountable Care Organization moeten gaan voordat we er op kunnen vertrouwen dat het delen van gegevens over onze gezondheid gunstig zal zijn in het maatschappelijk belang.