Na­ï­vi­teit rond ver­wach­ting be­heers­baar­heid van Ster­ke Kunst­ma­ti­ge In­tel­li­gen­tie

Gis­te­ren heb ik een bij­een­komst bij­ge­woond van het Plat­form voor de In­for­ma­tie­Sa­men­le­ving, ECP, ge­hou­den in het Hu­ma­ni­ty Hou­se in Den Haag.

Spre­kers wa­ren de Hu­man Rights am­bas­sa­deur van Ne­der­land, een aan­tal spe­ci­a­lis­ten in het veld (o.a. van Goog­le Ne­der­land), een men­sen­rech­ten­ad­vo­ca­te en een twee­tal stu­den­ten uit En­sche­de. Het ECP or­ga­ni­seer­de het ge­heel. De­ze or­ga­ni­sa­tie stelt zich­zelf de vol­gen­de mis­sie:

ECP | Plat­form voor de In­for­ma­tie­Sa­men­le­ving is een on­af­han­ke­lijk en neu­traal plat­form waar over­heid, be­drijfs­le­ven en maat­schap­pe­lij­ke or­ga­ni­sa­ties sa­men­wer­ken en ken­nis uit­wis­se­len over de im­pact op en ver­ant­woor­de toe­pas­sing van nieu­we tech­no­lo­gie­ën in de Ne­der­land­se sa­men­le­ving. Di­ver­se ac­ti­vi­tei­ten ver­bin­den par­tij­en en hel­pen de maat­schap­pe­lij­ke en eco­no­mi­sche be­te­ke­nis van ICT vorm te ge­ven voor over­heid po­li­tiek en be­drijfs­le­ven. Zo re­a­li­seert het plat­form door­bra­ken en cre­ëert het de juis­te rand­voor­waar­den voor een ster­ke Ne­der­land­se in­for­ma­tie­sa­men­le­ving.”

Het to­pic van in­te­rest was gis­te­ren “Kunst­ma­ti­ge In­tel­li­gen­tie” (Ar­ti­fi­ci­al In­tel­li­gen­ce – AI) en hoe er nu en in de toe­komst mee om te gaan. De na­druk lag hier­bij op – breed ge­steld – de ethi­sche ont­werp­prin­ci­pes bij het bou­wen van AI en de in­zet als­me­de de be­heers­baar­heid er­van. De­ze items zijn vast­ge­legd in een ECP pu­bli­ca­tie, ge­naamd “Ar­ti­fi­ci­al In­tel­li­gen­ce Im­pact As­sess­ment”, een lei­draad voor het bou­wen van (ethisch) ver­ant­woor­de AI. Sche­ma­tisch wor­den de prin­ci­pes hier­on­der weer­ge­ge­ven:

Klik voor een ver­gro­ting…

Het sche­ma (en de spre­kers) vol­gend werd mij één ding dui­de­lijk, en dat is het heer­sen­de idee dat AI zo­wel on­der­ge­schikt is aan de mens als dat het tot in het ein­de der da­gen door Ho­mo Sapiens be­heers­baar zou zijn. In mijn op­tiek is dat een ui­terst na­ïe­ve hou­ding. Ik heb daar een aan­tal ge­dach­ten over.

Ten eer­ste komt er – snel­ler dan het pu­bliek nu wil ge­lo­ven – een mo­ment dat AI zich­zelf zal gaan re­pro­du­ce­ren. Nieu­we AI wordt dan door een voor­gaan­de ge­ne­ra­tie AIge­scha­pen”, net zo­als wij men­sen nieu­we in­tel­li­gen­tie cre­ë­ren door ons­zelf voort te plan­ten. Je kunt je af­vra­gen of er dan nog spra­ke is van “kunst­ma­ti­ge” in­tel­li­gen­tie. Het is niet ge­zegd dat een der­ge­lij­ke cre­a­tie zich zal hou­den aan de ont­werp­prin­ci­pes die de mens zich­zelf in het sche­ma hier­bo­ven op­legt. Het ligt voor de hand dat AI op een ge­ge­ven mo­ment haar ei­gen weg zal kie­zen; au­to­noom en los van de mens.

Ten twee­de is het mo­ment dat AI zelf­be­wust wordt na­ge­noeg on­af­wend­baar. Dat is een lo­gisch ge­volg van de toe­ne­men­de com­plexi­teit van de hard­wa­re waar­op het draait. (Denk: Quan­tum-com­pu­ting…) Ook bij men­sen ont­staat (ho­ger) be­wust­zijn om­dat we een su­per-in­ge­wik­keld brein heb­ben. (Den­nett) Bij AI’s zal – mits ver ge­noeg door­ont­wik­keld – het­zelf­de ge­beu­ren. Voor zo­ver ik weet be­staat er al AI die de Tu­ring-test door­staat, dus valt er al geen on­der­scheid meer te ma­ken tus­sen het be­wust­zijn van bio-elek­tri­sche ma­chi­nes (men­sen) en die zeer ge­a­van­ceer­de, (nu nog) vol­le­dig elek­tro­ni­che exem­pla­ren; dat wat wij in de volks­mond “ma­chi­nes” noe­men.

Ten der­de zul­len AI’s zelfle­rend zijn, op een Neu­raal Net­werk als sub­straat, waar­bij niet meer con­tro­leer­baar, trans­pa­rant of uit­leg­baar is wat er in dat brein ge­beurt en der­hal­ve ook niet hoe het tot be­slui­ten komt. Voor on­ze ei­gen in­tel­li­gen­tie geldt het­zelf­de. Ook AI zal daar­om zo­iets als in­tu­ï­tie gaan ver­to­nen. Of­wel, het zal gaan le­ren zo­als wij dat doen en waar­schijn­lijk veel snel­ler en veel be­ter. Ook kan het de­zelf­de at­tri­bu­ten gaan ver­to­nen als wij. Ik denk dan on­der an­de­re aan het ma­ken van fou­ten, een rot­hu­meur heb­ben of wel­licht zelfs ma­le­vo­len­te ge­dach­ten koes­te­ren en daar­naar han­de­len.

Er is veel ge­zegd en ge­schre­ven over AI en Ho­mo Sapiens 2.0. Ho­mo De­us (Ha­ra­ri), de Sin­gu­la­ri­teit (Kur­zweil) en de Su­per­in­tel­li­gen­tie (Bostrom) wor­den ge­acht de hui­di­ge mens in men­ta­le slag­kracht ver voor­bij te stre­ven. Het idee dat wij sim­pe­le Ho­mo Sapiens 1.0 het te­gen de­ze su­pe­ri­eu­re en­ti­tei­ten kun­nen op­ne­men is op z’n minst na­ïef; laat staan dat we ze kun­nen on­der­wer­pen aan on­ze wil. Gover­nan­ce zou wel eens pre­cies de an­de­re kant op kun­nen gaan. Men­sen wor­den dan door AI’s be­stuurd en niet an­ders­om. Op zich is dat geen on­ver­deeld on­pret­tig idee, want het staat geens­zins vast dat AI’s de­zelf­de zwak­he­den als men­sen zul­len gaan ver­to­nen. Mis­schien wor­den ze in mo­reel op­zicht zelfs wel be­ter dan wij.

De vraag is nu hoe daar­mee om te gaan. Ik denk er op dit mo­ment vrij sim­pel over, maar dat kan ver­an­de­ren. De ster­ke AI komt er aan, dus moe­ten we er­mee dea­len op de­zelf­de ma­nier als we met bi­o­lo­gi­sche in­tel­li­gen­tie doen. Dat be­te­kent in prak­ti­sche zin dat het “men­sen”-rech­ten moet krij­gen en ook de daar­aan ver­bon­den ver­plich­tin­gen. Dat houdt in dat AI’s niet on­der­ge­schikt mo­gen zijn aan men­sen – want dat is sla­ver­nij – maar wel aan wet­ten, net zo­als wij.

Mijn stel­lin­gen hier­bo­ven heb ik, na­dat de spre­kers klaar wa­ren, maar eens in de groep ge­gooid. Af­ge­me­ten aan de wat ver­war­de re­ac­tie van het pa­nel kwam naar bo­ven dat er op dit mo­ment nog niet in-depth is na­ge­dacht over het toe­ken­nen van rech­ten – en het on­der­wer­pen aan wet­ten – van AI’s. Dat is een on­slim­me omis­sie, want ex­tra­po­le­rend van de Sta­te of the Art van van­daag, zou het mo­ment van de waar­heid wel eens heel erg snel dich­ter­bij kun­nen ko­men.


19-4-2019: leu­ke lead op FB rol van G.v.H.: AIin­na­te” ken­nis bij­bren­gen;

Klik plaat­je om “Da­ta as Prior/Innate Know­led­ge” te vol­gen

Vra­gen: “Waar­toe leidt in­put van frac­taal in syn­the­ti­sche da­ta? Wat is als mo­ge­lijk at­tack-surfa­ce/­vec­tor? Noi­se?

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *