Data honger versus data privacy

Nederland en Europa staan op een kruispunt wat betreft artificial intelligence (kunstmatige intelligentie, ai). Moeten we ons focussen op innovatie om de inhaalslag te maken ten opzichte van de Verenigde Staten en China of allereerst zorgen dat we de juiste kaders scheppen om deze innovatie in goede banen te leiden?

Waar ze in de VS pleiten voor een ‘vrijer’ gebruik van data om innovatie te versnellen, kiest Europa voor een langere route met Europese en lokale richtlijnen voor ai-gebruik en af en toe een druk op de pauzeknop, zoals mogelijk met het verbieden van gezichtsherkenning in publieke ruimtes.

Ai ethisch ingezet

Je mag gerust spreken van fundamentele keuzes, want met betrekking tot ai is er – net als met veel andere technologie – geen weg terug. Met dit verschil dat ai veel meer disruptie-potentieel heeft dan alle eerdere technologiegolven die we de afgelopen veertig jaar hebben gezien. Het is dus terecht dat Europese overheden, organisaties en – met name – individuen garanties willen hebben over de impact van algoritmes, modellen, diep-lerende machines en robot-gestuurde processen. Ze willen het vertrouwen hebben dat ai ethisch ingezet wordt en hen niet op een later moment in de staart kan bijten.

Omdat vertrouwen te voet komt en te paard gaat, moeten we de komende jaren investeren in een structuur die vertrouwen wekt en rechtvaardigt. Dat blijkt in de praktijk best lastig. Het succes van ai is direct verbonden met de beschikbare data, of dat nu gestructureerde of ongestructureerde data in de vorm van tekst, foto’s of videobeelden betreft. Data is een randvoorwaarde om ai-toepassingen goed te kunnen laten werken, waarbij het privacy-aspect rondom deze data uiteraard een hele belangrijke rol speelt.

Als je al die data moet gebruiken voor een ai-toepassing, heb je dan ook inzicht in welke data er in welke vorm beschikbaar is en waar deze data voor gebruikt mag worden? Welke maatregelen zijn er dan nodig om te voldoen aan de wet- en regelgeving, om discriminatie (bias) uit te sluiten en transparantie te kunnen bieden (welke algoritmes, hoe komen keuzes tot stand)? 

Beeldvorming rondom ai

Het voorbeeld van ‘crime prediction ai’ dat in de Verenigde Staten werd gebruikt om criminaliteit in bepaalde wijken te voorspellen en dat vooroordeel bevestigend bleek, is genoegzaam bekend. Of dat Amazon een algoritme gebruikte om cv’s van sollicitanten te analyseren, en erachter kwam dat de uitkomst niet helemaal discriminatie-vrij was. En zo zijn er meer voorbeelden te noemen, die niet echt helpen bij een positieve beeldvorming rondom ai. Wat is daarvoor dan wel nodig? Als het gaat om het bewerkstelligen van vertrouwen in ai, worden vaak de volgende criteria aangehaald: transparantie, uitlegbaarheid en aansprekende resultaten.

Het ‘black box’-principe, dat momenteel vaak nog een manier is om ai-modellen uit te rollen, is niet langer houdbaar. Mensen accepteren nu nog vaak ongelezen de gebruiksvoorwaarden van een app, waardoor hun data via realtime marktplaatsen verhandeld kan worden. Hierin is inmiddels  al een kentering opgetreden; al dan niet onder invloed van wet- en regelgeving zoals de AVG krijgen mensen meer de beschikking en controle over hun data. Voor organisaties die ai-toepassingen bouwen, betekent dit dat ze inzichtelijk moeten maken welke data ze op welke manier gebruikt hebben voor hun modellen en dat ze toestemming hebben om deze data te gebruiken.

Daarbij is het belangrijk om op te merken dat mensen eerder geneigd zijn om hun gegevens beschikbaar te stellen aan organisaties die in staat zijn om hun vertrouwen te winnen. Dit zorgt ervoor dat hun ai-toepassingen beter kunnen inspelen op de behoeften en wensen van hun klanten. Het is vanuit dat standpunt logisch dat betrouwbaarheid, de bruikbaarheid en daarmee ook de herleidbaarheid van data bij veel organisaties bovenaan de agenda staat, en dat organisaties een beter inzicht willen krijgen in de hele data levenscyclus.

Inzicht en overzicht

Hieruit vloeit de behoefte voort aan een zogenaamde data of asset catalog, een omgeving waarin je eenvoudig data kunt zoeken en vinden en die inzicht biedt in de kwaliteit van de data. Veel organisaties die over grote hoeveelheden data beschikken, richten momenteel een dergelijke catalogus in of bereiden er één voor. Hoewel de behoefte vaak primair ontstaat om inzicht te verkrijgen in alle beschikbare data, kunnen deze data na indexering en (automatisch gecreëerde) tags verrijkt worden met wat voor data het betreft, voorstellen rondom data schoning, betekenis en met de voorwaarden voor gebruik.

Tot slot kunnen we stellen dat ai met een grote waarschijnlijkheid een positieve impuls kan geven aan de maatschappij, bijvoorbeeld op het gebied van arbeidsproductiviteit, gezondheid en klimaat, zoals ook eind vorig jaar verwoord in het Strategisch Actieplan voor artificiële intelligentie van het ministerie van Economische Zaken en Klimaat. Maar we moeten niet alle risico’s negeren door blind allerlei innovaties de markt in te duwen; volg de weg der geleidelijkheid en win het vertrouwen, zonder voorbij te gaan aan de data privacy en ethische aspecten.

Bron: Computable