Google’s Sundar Pi­chai is te­gen ge­wa­pen­de AI

Het hui­di­ge op­per­hoofd van Goog­le, Sundar Pi­chai, zal (zijn be­drijf en men­sen) niet (la­ten) mee­wer­ken aan het ont­wik­ke­len van S-AI (Strong Ar­ti­fi­ci­al In­tel­li­gen­ce, NL: S-KI – Ster­ke Kunst­ma­ti­ge In­tel­li­gen­tie) voor wa­pen­tuig. Dit meldt hij in zijn blog-post van gis­te­ren. Het is een zeer wel­ko­me mel­ding, voor­al voor mij, om­dat ik pas­ge­le­den niets­ver­moe­dend een af­le­ve­ring van “Black Mir­ror” (Net­Flix 2011) heb be­ke­ken, ge­ti­teld “Me­talhead” (2017), waar­in maar weer blijkt wat au­to­noom wa­pen­tuig op on­ze pla­neet kan ver­oor­za­ken: Het ein­de van al­le zich voort­be­we­gen­de le­ven op aar­de.

Ik heb hier al heel vaak iets ge­zegd over kunst­ma­ti­ge in­tel­li­gen­tie, dus dat ga ik (nu) niet nog een keer her­ha­len. Twee no­vi wil ik ech­ter wel aan­ge­te­kend heb­ben.

De eer­ste is dus die af­le­ve­ring van Black Mir­ror, een bij­zon­der de­pri­me­rend stuk­je film waar­van ik ze­ker een dag of drie niet goed heb kun­nen sla­pen. En als ik dat wel deed, dan werd ik te­ge­lij­ker­tijd in de meest bi­zar­re nacht­mer­rie ach­ter­volgd door zo’n Me­talhead met een mis­sie. En die mis­sie was ik. Ik kan ie­der­een ver­ze­ke­ren dat het ui­terst on­fijn dro­men was.

Het twee­de no­vum is de blog-post van Pi­chai, waar­in hij De Drie Hoofd­wet­ten van de Ro­bo­ti­ca – neer­ge­legd door Is­aac Asi­mov himself – in ei­gen woor­den en be­leid nog eens haar­fijn uit­legt. Ik geef toe, na Black Mir­ror is de stel­lig­heid van de­ze be­wust­zijns­fa­bri­kant heel niet on­wel­kom. Voor een fac­si­mi­le exem­plaar, klik op de fo­to hier­naast. Voor de ge­wo­ne ster­ve­ling staan hier­on­der de items die er­toe doen. (Ik ci­teer vrij en ver­taal niet pro­fes­si­o­neel. Hen die wend­baar ge­noeg zijn in het le­zen van En­gels raad ik daar­om aan de ori­gi­ne­le blog-post te le­zen.)

Sundar Pi­chai (Goog­le CEO): “De doe­len­stel­ling van KI ont­wik­ke­ling:

Wees so­ci­aal van voor­deel; voor­kom de cre­a­tie of ver­ster­king van on­eer­lij­ke voor­oor­de­len; wees ge­bouwd en ge­test voor vei­lig­heid; wees ver­ant­woor­de­lijk naar men­sen toe; in­cor­po­reer pri­va­cy-ont­werp­prin­ci­pes; houd ho­ge stan­daards van we­ten­schap­pe­lij­ke ex­cel­len­tie; wees be­schik­baar voor ge­bruik dat met de­ze prin­ci­pes in over­een­stem­ming is.

KI die we niet gaan ont­wik­ke­len:

Tech­no­lo­gie die (in po­ten­tie) kwaad kan doen; wa­pens of an­de­re tech­no­lo­gie waar­van het hoofd­doel of de be­lang­rijk­ste im­ple­men­ta­tie het di­rec­te toe­bren­gen van ver­won­din­gen aan men­sen of het fa­ci­li­te­ren daar­van is; tech­no­lo­gie­ën die in­for­ma­tie ver­za­me­len of ge­brui­ken in strijd met in­ter­na­ti­o­naal ge­ac­cep­teer­de nor­men; tech­no­lo­gie­ën waar­van de doe­len in te­gen­spraak zijn met breed ge­ac­cep­teer­de prin­ci­pes van in­ter­na­ti­o­naal recht en men­sen­rech­ten.”

De­ze prin­ci­pes snij­den hout en ben blij met de for­mu­le­ring er­van door ie­mand op een der­ge­lijk ho­ge po­si­tie. Als we op de po­li­tie­ke be­leids­ma­kers zou­den moe­ten wach­ten, dan zit­ten we met de ge­bak­ken Me­talhead-pe­ren voor­dat we er lucht van krij­gen. In dat licht is het jam­mer dat po­li­tiek re­gel­ma­tig door men­sen wordt ge­maakt die niet veel lij­ken te we­ten van de wer­ke­lij­ke mo­ge­lijk­he­den van KI (of wel­ke an­de­re nieu­we Tech dan ook). Hun ba­sis kan een elec­to­raat zijn dat niet veel be­ter is ge­ïn­for­meerd. Daar­door re­ge­ren po­li­ti­ci re­gel­ma­tig van­uit hun on­der­buik, waar­door ze be­lang­rij­ke za­ken mis­sen en on­be­lang­rij­ke za­ken over­drij­ven. Dat in­fa­me mo­ra­to­ri­um van Bush op ge­ne­ti­sche ex­pe­ri­men­ten was zo’n ty­pisch ge­val­le­tje waar­van op­vol­ger Oba­ma niet wist hoe snel hij het weer moest op­hef­fen. Het is een erg jam­mer en ver­ve­lend bij-ef­fect van de de­mo­cra­tie, maar zo zit de we­reld nu een­maal in el­kaar.