Elon Musk: Leg artificial intelligence aan banden
Tech entrepreneur Elon Musk kreeg vorige week op zijn kop van verschillende AI-deskundigen omdat hij artificial intelligence wederom als gevaarlijke technologie bestempelde. Musk waarschuwt al enkele jaren voor het risico van kunstmatige superintelligentie. Ditmaal deed hij dat voor een publiek van Amerikaanse gouverneurs die hij opriep om AI te reguleren. En dat is helemaal geen slecht idee.
Tech entrepreneur Elon Musk kreeg vorige week op zijn kop van verschillende AI-deskundigen omdat hij artificial intelligence wederom als gevaarlijke technologie bestempelde. Musk waarschuwt al enkele jaren voor het risico van kunstmatige superintelligentie. Ditmaal deed hij dat voor een publiek van Amerikaanse gouverneurs die hij opriep om AI te reguleren. En dat is helemaal geen slecht idee.
Op een bijeenkomst van de Amerikaanse Nationale Vereniging voor Gouverneurs noemde Musk AI een ‘fundamenteel risico voor het voortbestaan van de menselijke beschaving’. Verschillende experts de AI-gemeenschap reageerden verbolgen op Musks onheilstijdingen. Met zijn science fiction-achtige waarschuwingen zou hij de aandacht afleiden van reële gevaren van AI die nu al spelen. Bijvoorbeeld de risico’s die gepaard gaan met het inzetten van zwakke kunstmatige intelligentie om te bepalen wie een hypotheek kan krijgen en wie een baan. Of het feit dat AI technologie in handen is van een klein aantal techgiganten die daardoor hun enorme bestaande macht nog verder kunnen vergroten.
Te laat
Musk bepleitte tegenover de gouverneurs dat de overheid moet toezien op de ontwikkeling van AI. Bedrijven zijn nu als een gek kunstmatige intelligentie aan het ontwikkelen, zei hij. Ze moeten wel want wie niet meedoet, zal door de concurrentie worden verplettert. Maar die drijfveer leidt niet per se tot de best mogelijke uitkomst voor het algemene goed. ‘Ik denk echt dat we overheidsregulering nodig hebben om zeker te stellen dat het algemeen welzijn wordt gediend’, zei Musk.
Een slecht idee, stelde één van Musks criticasters, want regulering staat innovatie in de weg. Maar dat vertragende effect van overheidstoezicht is volgens Musk geen bug maar een feature. Als het niet zeker is dat een bepaalde AI-toepassing veilig is, moet de ontwikkeling ervan gepauzeerd worden. Musk: ‘AI is een van die zeldzame gevallen waar we proactief moeten reguleren in plaats van achteraf. Want tegen de tijd dat we achteraf gaan reguleren is het te laat’.
Superintelligentie
Musk ontleent zijn visie op AI aan het boek Superintelligence van de Zweedse filosoof Nick Bostrom. In het in 2014 verschenen boek, brengt Bostrom gestructureerd de mogelijke gevaren in kaart van een superintelligentie: een entiteit die op een groot aantal domeinen vele malen slimmer is dan mensen. Een van die gevaren is wat hij het ‘controle probleem’ noemt. Als mensen een kunstmatige superintelligentie creëren, is het moeilijk die onder controle te houden. Immers, het zal zijn superieure intellect inzetten om aan ons te ontsnappen. En dan kunnen we alleen nog maar hopen dat het zich niet tegen ons keert.
Een tweede punt is dat je niet per se in de hand hebt wanneer een superintelligentie ontstaat. Een mogelijk scenario is dat van een zelflerend AI systeem dat autonoom werkt aan het verbeteren van zichzelf. Er kan een positieve feedback loop ontstaan van een steeds beter functionerend systeem dat zichzelf steeds sneller kan optimaliseren. Hierdoor kan het tijdsinterval waarin de AI zich ontwikkeld van intelligent naar superintelligent heel kort kan zijn. Te kort voor mensen om nog in te grijpen.
Existentieel risico
Bostrom geeft geen voorspelling over wanneer superintelligentie zal ontstaan. Hij geeft zelfs aan dat het evengoed mogelijk is dat het nooit zal ontstaan. Maar als het ontstaat, kunnen we het niet beheersen. Superintelligentie vormt daarom een existentieel risico. Dat wil zeggen een risico waarvan de negatieve uitkomst het einde van de mensheid kan betekenen. Daarom moeten we er vooraf goed over nadenken, waarschuwt Bostrom.
De AI-deskundigen die Musk bekritiseren hebben zeker gelijk dat er veel meer aandacht moet komen voor de problemen met AI die vandaag de dag al spelen. Maar het lange termijn denken dat Bostrom representeert staat dat niet in de weg. Integendeel, de korte en de lange termijn visies kunnen elkaar juist versterken om te formuleren wat we als mensheid van AI willen. Het voorstel van Musk dat de overheid toezicht houdt op de ontwikkeling van AI is daarmee in overeenstemming. De overheid die bij de techbedrijven en universiteiten meekijkt naar de ontwikkeling van AI om het algemeen belang in het oog te houden.
Beeld: Robota. Door Xavi. CC BY 2.0 Licentie.
Op een bijeenkomst van de Amerikaanse Nationale Vereniging voor Gouverneurs noemde Musk AI een ‘fundamenteel risico voor het voortbestaan van de menselijke beschaving’. Verschillende experts de AI-gemeenschap reageerden verbolgen op Musks onheilstijdingen. Met zijn science fiction-achtige waarschuwingen zou hij de aandacht afleiden van reële gevaren van AI die nu al spelen. Bijvoorbeeld de risico’s die gepaard gaan met het inzetten van zwakke kunstmatige intelligentie om te bepalen wie een hypotheek kan krijgen en wie een baan. Of het feit dat AI technologie in handen is van een klein aantal techgiganten die daardoor hun enorme bestaande macht nog verder kunnen vergroten.
Te laat
Musk bepleitte tegenover de gouverneurs dat de overheid moet toezien op de ontwikkeling van AI. Bedrijven zijn nu als een gek kunstmatige intelligentie aan het ontwikkelen, zei hij. Ze moeten wel want wie niet meedoet, zal door de concurrentie worden verplettert. Maar die drijfveer leidt niet per se tot de best mogelijke uitkomst voor het algemene goed. ‘Ik denk echt dat we overheidsregulering nodig hebben om zeker te stellen dat het algemeen welzijn wordt gediend’, zei Musk.
Een slecht idee, stelde één van Musks criticasters, want regulering staat innovatie in de weg. Maar dat vertragende effect van overheidstoezicht is volgens Musk geen bug maar een feature. Als het niet zeker is dat een bepaalde AI-toepassing veilig is, moet de ontwikkeling ervan gepauzeerd worden. Musk: ‘AI is een van die zeldzame gevallen waar we proactief moeten reguleren in plaats van achteraf. Want tegen de tijd dat we achteraf gaan reguleren is het te laat’.
Superintelligentie
Musk ontleent zijn visie op AI aan het boek Superintelligence van de Zweedse filosoof Nick Bostrom. In het in 2014 verschenen boek, brengt Bostrom gestructureerd de mogelijke gevaren in kaart van een superintelligentie: een entiteit die op een groot aantal domeinen vele malen slimmer is dan mensen. Een van die gevaren is wat hij het ‘controle probleem’ noemt. Als mensen een kunstmatige superintelligentie creëren, is het moeilijk die onder controle te houden. Immers, het zal zijn superieure intellect inzetten om aan ons te ontsnappen. En dan kunnen we alleen nog maar hopen dat het zich niet tegen ons keert.
Een tweede punt is dat je niet per se in de hand hebt wanneer een superintelligentie ontstaat. Een mogelijk scenario is dat van een zelflerend AI systeem dat autonoom werkt aan het verbeteren van zichzelf. Er kan een positieve feedback loop ontstaan van een steeds beter functionerend systeem dat zichzelf steeds sneller kan optimaliseren. Hierdoor kan het tijdsinterval waarin de AI zich ontwikkeld van intelligent naar superintelligent heel kort kan zijn. Te kort voor mensen om nog in te grijpen.
Existentieel risico
Bostrom geeft geen voorspelling over wanneer superintelligentie zal ontstaan. Hij geeft zelfs aan dat het evengoed mogelijk is dat het nooit zal ontstaan. Maar als het ontstaat, kunnen we het niet beheersen. Superintelligentie vormt daarom een existentieel risico. Dat wil zeggen een risico waarvan de negatieve uitkomst het einde van de mensheid kan betekenen. Daarom moeten we er vooraf goed over nadenken, waarschuwt Bostrom.
De AI-deskundigen die Musk bekritiseren hebben zeker gelijk dat er veel meer aandacht moet komen voor de problemen met AI die vandaag de dag al spelen. Maar het lange termijn denken dat Bostrom representeert staat dat niet in de weg. Integendeel, de korte en de lange termijn visies kunnen elkaar juist versterken om te formuleren wat we als mensheid van AI willen. Het voorstel van Musk dat de overheid toezicht houdt op de ontwikkeling van AI is daarmee in overeenstemming. De overheid die bij de techbedrijven en universiteiten meekijkt naar de ontwikkeling van AI om het algemeen belang in het oog te houden.
Beeld: Robota. Door Xavi. CC BY 2.0 Licentie.