Google’s Sundar Pichai is tegen gewapende AI

Het hui­di­ge opper­hoofd van Goog­le, Sundar Pichai, zal (zijn bedrijf en men­sen) niet (laten) mee­wer­ken aan het ont­wik­ke­len van S‑AI (Strong Arti­fi­ci­al Intel­li­gen­ce, NL: S‑KI – Ster­ke Kunst­ma­ti­ge Intel­li­gen­tie) voor wapen­tuig. Dit meldt hij in zijn blog-post van gis­te­ren. Het is een zeer wel­ko­me mel­ding, voor­al voor mij, omdat ik pas­ge­le­den niets­ver­moe­dend een afle­ve­ring van “Black Mir­ror” (Net­Flix 2011) heb beke­ken, geti­teld “Metalhead” (2017), waar­in maar weer blijkt wat auto­noom wapen­tuig op onze pla­neet kan veroorzaken: Het ein­de van alle zich voort­be­we­gen­de leven op aar­de.

Ik heb hier al heel vaak iets gezegd over kunst­ma­ti­ge intel­li­gen­tie, dus dat ga ik (nu) niet nog een keer her­ha­len. Twee novi wil ik ech­ter wel aan­ge­te­kend hebben.

De eer­ste is dus die afle­ve­ring van Black Mir­ror, een bij­zon­der depri­me­rend stuk­je film waar­van ik zeker een dag of drie niet goed heb kun­nen sla­pen. En als ik dat wel deed, dan werd ik tege­lij­ker­tijd in de meest bizar­re nacht­mer­rie ach­ter­volgd door zo’n Metalhead met een mis­sie. En die mis­sie was ik. Ik kan ieder­een ver­ze­ke­ren dat het uiterst onfijn dro­men was.

Het twee­de novum is de blog-post van Pichai, waar­in hij De Drie Hoofd­wet­ten van de Robo­ti­ca – neer­ge­legd door Isaac Asi­mov himself – in eigen woor­den en beleid nog eens haar­fijn uit­legt. Ik geef toe, na Black Mir­ror is de stel­lig­heid van deze bewust­zijns­fa­bri­kant heel niet onwel­kom. Voor een fac­si­mi­le exem­plaar, klik op de foto hier­naast. Voor de gewo­ne ster­ve­ling staan hier­on­der de items die ertoe doen. (Ik citeer vrij en ver­taal niet pro­fes­si­o­neel. Hen die wend­baar genoeg zijn in het lezen van Engels raad ik daar­om aan de ori­gi­ne­le blog-post te lezen.)

Sundar Pichai (Goog­le CEO): “De doe­len­stel­ling van KI ontwikkeling:

Wees soci­aal van voor­deel; voor­kom de cre­a­tie of ver­ster­king van oneer­lij­ke voor­oor­de­len; wees gebouwd en getest voor vei­lig­heid; wees ver­ant­woor­de­lijk naar men­sen toe; incor­po­reer pri­va­cy-ont­werp­prin­ci­pes; houd hoge stan­daards van weten­schap­pe­lij­ke excel­len­tie; wees beschik­baar voor gebruik dat met deze prin­ci­pes in over­een­stem­ming is.

KI die we niet gaan ontwikkelen:

Tech­no­lo­gie die (in poten­tie) kwaad kan doen; wapens of ande­re tech­no­lo­gie waar­van het hoofd­doel of de belang­rijk­ste imple­men­ta­tie het direc­te toe­bren­gen van ver­won­din­gen aan men­sen of het faci­li­te­ren daar­van is; technologieën die infor­ma­tie ver­za­me­len of gebrui­ken in strijd met inter­na­ti­o­naal geac­cep­teer­de nor­men; technologieën waar­van de doe­len in tegen­spraak zijn met breed geac­cep­teer­de prin­ci­pes van inter­na­ti­o­naal recht en mensenrechten.”

Deze prin­ci­pes snij­den hout en ben blij met de for­mu­le­ring ervan door iemand op een der­ge­lijk hoge posi­tie. Als we op de poli­tie­ke beleids­ma­kers zou­den moe­ten wach­ten, dan zit­ten we met de gebak­ken Metalhead-peren voor­dat we er lucht van krij­gen. In dat licht is het jam­mer dat poli­tiek regel­ma­tig door men­sen wordt gemaakt die niet veel lij­ken te weten van de wer­ke­lij­ke moge­lijk­he­den van KI (of wel­ke ande­re nieu­we Tech dan ook). Hun basis kan een elec­to­raat zijn dat niet veel beter is geïnformeerd. Daar­door rege­ren poli­ti­ci regel­ma­tig van­uit hun onder­buik, waar­door ze belang­rij­ke zaken mis­sen en onbe­lang­rij­ke zaken over­drij­ven. Dat infa­me mora­to­ri­um van Bush op gene­ti­sche expe­ri­men­ten was zo’n typisch geval­le­tje waar­van opvol­ger Oba­ma niet wist hoe snel hij het weer moest ophef­fen. Het is een erg jam­mer en ver­ve­lend bij-effect van de demo­cra­tie, maar zo zit de wereld nu een­maal in elkaar.