De kunstmatige overheid

Nog niet veel men­sen heb­ben het waar­schijn­lijk door, maar een aan­zien­lijk deel van de aan­ra­king die we met de over­heid heb­ben, is op de een of ande­re manier geïnitieerd door een com­pu­ter met soft­wa­re die ergens in de ver­te zelfs intel­li­gent kan zijn. Het domste voor­beeld is de flits-boe­te die we auto­ma­tisch krij­gen als we langs een came­ra door rood of te hard rij­den. De belas­ting­dienst is hier een slim­me­re en belang­rij­ke­re spe­ler: veel aan­sla­gen voor de inkom­sten­be­las­ting wor­den auto­ma­tisch opgelegd.

De bericht­ge­ving door de NOS meldt zelfs dat: “De over­heid bij­voor­beeld algo­rit­mes gebruikt om frau­de en cri­mi­na­li­teit op te spo­ren, maar ook om in te schat­ten wat voor zorg iemand nodig heeft en wat de kans is dat een leer­ling van school gaat voor­dat zijn of haar oplei­ding is afge­rond. Onder meer lan­de­lij­ke orga­ni­sa­ties als de poli­tie, de Belas­ting­dienst en het Cen­trum Indi­ca­tie­stel­ling Zorg leu­nen op voor­spel­len­de algo­rit­mes, maar ook gemeen­ten, zoals Rot­ter­dam, Til­burg en Gro­nin­gen.

Het is dus niet gek dat de rege­rings­par­tij­en D66 en CDA wil­len dat er con­tro­le komt op het gebruik van algo­rit­mes door de over­heid. Het is name­lijk zo dat ook kunst­ma­ti­ge “intel­li­gen­tie” in staat is om op basis van voor­oor­de­len de ver­keer­de of gekleur­de beslis­sin­gen te nemen, die voor indi­vi­du­e­le bur­gers ver­strek­ken­de gevol­gen kun­nen heb­ben. De besluit­vor­men­de of ‑onder­steu­nen­de sys­te­men wor­den gevoed met real-time data uit bij­voor­beeld poli­tie-aan­gif­ten of rap­por­ta­ges, dus die wor­den gekleurd met aan­na­mes of voor­oor­de­len van de men­sen die de sys­te­men vul­len. Ofwel, een algo­rit­me is in die zin niet zo waar­de­vrij als je zou ver­wach­ten of wil­len. Boven­dien is een algo­rit­me ver­sto­ken van de vaar­dig­heid om omrin­gen­de, zach­te infor­ma­tie die een besluit zou kun­nen ver­an­de­ren, mee te wegen, zodat het “inhu­ma­ne” beslui­ten kan nemen.

We ken­nen het prin­ci­pe van de ver­keer­de besluit­vor­ming uit de sci­en­ce fic­ti­on film “Mino­ri­ty Report” (2001), waar­in poli­tie­agent Tom Crui­se val­se­lijk wordt beschul­digd van een moord die hij nog moet ple­gen. De enti­tei­ten die dit zien aan­ko­men en aan de bel trek­ken zijn een soort alwe­ten­de, niet huma­ne wezens, op wier cor­rec­te wer­king geen enke­le con­tro­le plaats­vindt en die bij Crui­se de schijn­baar arbi­trai­re indi­ca­tie afge­ven van een poten­ti­eel gevaar dat hij gaat vor­men. De alge­me­ne teneur van de film is daar­bij pre­cies het bezwaar dat D66 en CDA in de algo­rit­mi­sche over­heid zien: we leg­gen belang­rij­ke, ver­gaan­de macht – zon­der check – over men­sen in han­den van machi­nes. De vraag is of dat wen­se­lijk is.

Sta­tis­tisch zou het kun­nen dat van alle beslui­ten die een AI op basis van com­plexe infor­ma­tie moet nemen er meer van hoge kwa­li­teit zijn dan wat men­sen kun­nen leve­ren. Het is dan de vraag hoe zin­vol een men­se­lij­ke con­tro­le ach­ter­af is. In het geval van een dis­puut ligt dat anders, omdat dan een spe­ci­fie­ke case door men­sen beke­ken wordt en er op basis van infor­ma­tie die de AI niet ter beschik­king heeft of niet kan mee­we­gen er toch iets anders uit­komt dan wat de machi­ne heeft bedacht. Daar­bij is het afhan­ke­lijk van de per­cep­tie van het volk over de AI of er vaak een beroep op men­se­lij­ke arbi­tra­ge wordt gedaan. Als die per­cep­tie er een van wan­trou­wen is, dan denk ik dat die algo­rit­mes wel eens meer werk kun­nen ople­ve­ren dan was beoogd; een omge­keerd effect dus.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.