De kunst­ma­ti­ge over­heid

Nog niet veel men­sen heb­ben het waar­schijn­lijk door, maar een aan­zien­lijk deel van de aan­ra­king die we met de over­heid heb­ben, is op de een of an­de­re ma­nier ge­ï­ni­ti­eerd door een com­pu­ter met soft­wa­re die er­gens in de ver­te zelfs in­tel­li­gent kan zijn. Het domste voor­beeld is de flits-boe­te die we au­to­ma­tisch krij­gen als we langs een ca­me­ra door rood of te hard rij­den. De be­las­ting­dienst is hier een slim­me­re en be­lang­rij­ke­re spe­ler: veel aan­sla­gen voor de in­kom­sten­be­las­ting wor­den au­to­ma­tisch op­ge­legd.

De be­richt­ge­ving door de NOS meldt zelfs dat: “De over­heid bij­voor­beeld al­go­rit­mes ge­bruikt om frau­de en cri­mi­na­li­teit op te spo­ren, maar ook om in te schat­ten wat voor zorg ie­mand no­dig heeft en wat de kans is dat een leer­ling van school gaat voor­dat zijn of haar op­lei­ding is af­ge­rond. On­der meer lan­de­lij­ke or­ga­ni­sa­ties als de po­li­tie, de Be­las­ting­dienst en het Cen­trum In­di­ca­tie­stel­ling Zorg leu­nen op voor­spel­len­de al­go­rit­mes, maar ook ge­meen­ten, zo­als Rot­ter­dam, Til­burg en Gro­nin­gen.

Het is dus niet gek dat de re­ge­rings­par­tij­en D66 en CDA wil­len dat er con­tro­le komt op het ge­bruik van al­go­rit­mes door de over­heid. Het is na­me­lijk zo dat ook kunst­ma­ti­ge “in­tel­li­gen­tie” in staat is om op ba­sis van voor­oor­de­len de ver­keer­de of ge­kleur­de be­slis­sin­gen te ne­men, die voor in­di­vi­du­e­le bur­gers ver­strek­ken­de ge­vol­gen kun­nen heb­ben. De be­sluit­vor­men­de of -on­der­steu­nen­de sys­te­men wor­den ge­voed met re­al-ti­me da­ta uit bij­voor­beeld po­li­tie-aan­gif­ten of rap­por­ta­ges, dus die wor­den ge­kleurd met aan­na­mes of voor­oor­de­len van de men­sen die de sys­te­men vul­len. Of­wel, een al­go­rit­me is in die zin niet zo waar­de­vrij als je zou ver­wach­ten of wil­len. Bo­ven­dien is een al­go­rit­me ver­sto­ken van de vaar­dig­heid om om­rin­gen­de, zach­te in­for­ma­tie die een be­sluit zou kun­nen ver­an­de­ren, mee te we­gen, zo­dat het “in­hu­ma­ne” be­slui­ten kan ne­men.

We ken­nen het prin­ci­pe van de ver­keer­de be­sluit­vor­ming uit de sci­en­ce fic­ti­on film “Mi­no­ri­ty Re­port” (2001), waar­in po­li­tie­agent Tom Crui­se val­se­lijk wordt be­schul­digd van een moord die hij nog moet ple­gen. De en­ti­tei­ten die dit zien aan­ko­men en aan de bel trek­ken zijn een soort al­we­ten­de, niet hu­ma­ne we­zens, op wier cor­rec­te wer­king geen en­ke­le con­tro­le plaats­vindt en die bij Crui­se de schijn­baar ar­bi­trai­re in­di­ca­tie af­ge­ven van een po­ten­ti­eel ge­vaar dat hij gaat vor­men. De al­ge­me­ne te­neur van de film is daar­bij pre­cies het be­zwaar dat D66 en CDA in de al­go­rit­mi­sche over­heid zien: we leg­gen be­lang­rij­ke, ver­gaan­de macht – zon­der check – over men­sen in han­den van ma­chi­nes. De vraag is of dat wen­se­lijk is.

Sta­tis­tisch zou het kun­nen dat van al­le be­slui­ten die een AI op ba­sis van com­plexe in­for­ma­tie moet ne­men er meer van ho­ge kwa­li­teit zijn dan wat men­sen kun­nen le­ve­ren. Het is dan de vraag hoe zin­vol een men­se­lij­ke con­tro­le ach­ter­af is. In het ge­val van een dis­puut ligt dat an­ders, om­dat dan een spe­ci­fie­ke ca­se door men­sen be­ke­ken wordt en er op ba­sis van in­for­ma­tie die de AI niet ter be­schik­king heeft of niet kan mee­we­gen er toch iets an­ders uit­komt dan wat de ma­chi­ne heeft be­dacht. Daar­bij is het af­han­ke­lijk van de per­cep­tie van het volk over de AI of er vaak een be­roep op men­se­lij­ke ar­bi­tra­ge wordt ge­daan. Als die per­cep­tie er een van wan­trou­wen is, dan denk ik dat die al­go­rit­mes wel eens meer werk kun­nen op­le­ve­ren dan was be­oogd; een om­ge­keerd ef­fect dus.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *