Door: Voorzitter Rob van den Hoven van Genderen

http:// [https://www.rijksoverheid.nl/documenten/beleidsnotas/2019/10/08/strategisch-actieplan-voor-artificiele-intelligentie]

Gelukkig, Nederland is voorzien van een “Strategisch  Actie Plan voor AI”, afkorting: SAPAI (sic).

Het actieplan is door het ministerie van economische zaken in oktober uitgebracht maar was reeds lang in voorbereiding, gezien de talrijke  verwijzingen naar acties in “de loop van 2019”.

Het plan loopt op drie sporen: Maatschappelijke en economische kansen benutten, Scheppen van de juiste voorwaarden, Versterken van de fundamenten. Het plan is bedoeld om het onderzoek en toepassing van AI in Nederland te versnellen en te versterken. Om het allemaal niet te ingewikkeld te maken is het plan voorzien van een ‘infographic” (gestileerd stripverhaal) zodat ook de visueel georiënteerden onder ons kennis kunnen nemen van de aandachtspunten. Overigens doet dit plan me sterk denken aan het”Informatica stimuleringsplan”uit 1983 (zonder icoontjes) waarbij ik als maagdelijke beleidsmedewerker/secretaris voor economische zaken betrokken was bij de kersverse  stafdirectie informaticabeleid. Met  vond het destijds nog nodig een overheidsbeleid te ontwikkelen omdat het gebruik van informatica  blijkbaar gestimuleerd moest worden omdat het anders verkeerd zou kunnen aflopen.  De markt moest geholpen worden door de overheid,  Informatica was de sleutel voor de toekomst. Dit AI-actie plan loopt dezelfde route; logische gemeenplaatsen die in elk vergelijkbaar plan worden herhaald. AI is de sleuteltechnologie voor de toekomst. Evenals in 1983 is in het eerste spoor public private partnership van groot belang, verder samenwerking met Europese partners (origineel) , accent op mens en maatschappij en natuurlijk: nu vernieuwd recept, inclusiviteit!

Een beetje verdacht is de oriëntatie op de toepassing van AI bij de overheid: samenwerking bij de uitwisseling en koppeling van gegevens en databestanden. Een verwijzing naar de FAIR-principes voor datagebruik vergroot deze verdenking (Findable, Accessible, Interoperable, Reusable) (p.34) door aan te geven dat :”data geschikt worden gemaakt, of kan hun geschiktheid worden vastgesteld voor hergebruik (delen) door zowel mensen als machines onder duidelijk beschreven condities”.  Gelukkig wordt wel regelmatig herhaald dat alle oplossingen transparant en voor de burger toegankelijk moeten zijn. Daarnaast wordt  overal  onderzoek gedaan naar slimme(smart) oplossingen, van energietransitie tot onderzoek naar autonome voertuigen waar problemen moeten worden geïnventariseerd op multidisciplinaire basis: “Autonoom rijden zal de veiligheid verhogen, maar leidt ook tot vragen, bijvoorbeeld over het omgaan met onzekerheden binnen autonome systemen. Waar ligt de verantwoordelijkheid voor de besturing? Hoe kunnen AI-algoritmen voor autonoom rijden worden gecontroleerd en uitgelegd aan de verschillende belanghebbenden voor acceptatie en veiligheid, etc. Het CWI, TNO, de Faculteit der Rechtsgeleerdheid van UvA en het Instituut voor Informatica van UvA werken onder de noemer ‘Meaningful Control of Autonomous Systems’ (MCAS) samen aan een antwoord op deze vraagstukken.(p.18)

Het tweede spoor richt zicht op educatie en bewustwording. Vanzelfsprekend wil Nederland voorloper zijn op bij de ontwikkeling en toepassing van AI want we hebben immers de capaciteiten met een goed opgeleide bevolking en een “open mind”voor nieuwe kansen! Eigenlijk schot voor open doel want  “Nederland heeft een al een voorhoedepositie in Europa in kwalitatief hoogwaardige digitale en intelligente connectiviteit voor effectieve AI-toepassingen”(sic). Bovendien heeft Nederland al een toppositie in fundamenteel en toegepast onderzoek.  De nadruk  ligt op fundamenteel onderzoek, dat verbonden is met toegepast en praktijkgericht onderzoek . Dit accent is terug te vinden in de wetenschapsagenda van NWO waar vanzelfsprekend vooral aandacht is voor verantwoord, human centric, vertrouwenwekkend, transparant en uitlegbaar AI onderzoek.  (p.27).

SURF krijgt een supercomputer van de minister en er worden  AI meerjarenprogramma’s uitgebracht op alle terreinen van het onderwijs, overheid en bedrijfsleven  in onderzoeks-labs,  onder andere tussen TNO en defensie. Gelukkig barsten we volgens het rapport van het talent en scholingsmogelijkheden dus ook met de internationale voorsprong komt het wel goed. Zeker nu ook het curriculum om de digitale geletterdheid in primair en voortgezet onderwijs te bevorderen wordt aangepast . Voor de invloed van AI op het werk wordt voor onderzoek door NWO wordt drie miljoen uitgetrokken, voor de zorg is hiervoor wel 7,5 miljoen beschikbaar (watermolecuul op gloeiende plaat!).

Het derde spoor trekt vanuit mijn interesseprofiel  de meeste aandacht. Gelukkig wordt erkend dat de grondrechten een belangrijke rol spelen bij de toepassingen van AI. De overheid heeft in dit rapport diepgaand over deze kwestie nagedacht. Geconstateerd wordt dat:De privacy kan worden geschonden als de verwerking van persoonsgegevens niet voldoet aan de eisen van behoorlijkheid en transparantie uit de AVG.(p.41) . Men ziet dit gevaar bij het gebruik van gezichtsherkenningstechnologie en het gebruik van big data.  Er wordt tevens bij stilgestaan dat door de toepassing van AI:-de vrijheid van meningsvorming in gevaar kan worden gebracht ; de menselijke waardigheid en autonomie kan worden aangetast en het recht op een eerlijk proces door te veel te leunen op AI kan worden geschaad.

Allemaal een waarheid als een koe. Gelukkig is zijn er hierover een beleidsbrieven gestuurd naar de Kamer over AI, publieke waarden en mensenrechten, AI en rechtspleging. waarin het kabinet beleid aankondigt om publieke waarden en mensenrechten bij AI-ontwikkelingen te borgen. Deze brieven en de beleidsvoorstellen zijn  gebaseerd op het onderzoek van o.a. de Universiteit Utrech en andere , deels wetenschappelijke bronnen.. Overigens wordt het vertrouwen in de overheid door mij niet direct versterkt door de antwoorden van de minister, onder andere ten aanzien van het transparantiebeginsel: Dat impliceert dat de overheid in andere gevallen (niet zijnde directe besluitvorming, RHG)waarin zij algoritmes gebruikt, niet op voorhand gehouden is deze inzichtelijk en controleerbaar te maken c.q. nuttige informatie over de onderliggende logica te verschaffen. Te denken valt aan gevallen waarin de overheid toezicht houdt en in dat kader met behulp van algoritmes risico’s taxeert dat personen zich niet aan de wet houden. Het gebruik van dergelijke risicotaxatie-instrumenten kan bijdragen aan een efficiëntere en effectievere inzet van capaciteit.[1] Het onderscheid met het Chinese ‘social credit system’ is niet zo heel groot!

Gelukkig wordt later in het rapport aangegeven dat het AI beleid dient te voldoen aan aanvaarde ethische kaders en dat AI kan worden ingezet om dicriminatie en ‘bias’te vermijden zodathet vertrouwen van de burger in AI hierdoor kan worden versterkt . Alle maatschappelijke actoren zijn hier of al mee bezig of worden gestimuleerd de ethische toepassing, transparantie in de zin van uitlegbaarheid van betrokkenen en normering hiervan te realiseren. En vreest niet, er is al een NEN-normcommissie  AI(bestaande uit belanghebbenden!) die good practices en kaders voor betrouwbare en ethisch verantwoorde AI-toepassingen ontwikkelt., zodat  dat we door en met AI met zijn allen nog lang en gelukkig verder kunnen leven…


[1] Kamerstuk 26643, nr. 570.