opinie

We voeren het verkeerde debat over de risico’s van AI

Professor economie MIT

Als het gaat over de gevaren van AI duiken sciencefictionscenario's op waarin een superintelligente AI opduikt en de mensheid vernietigt. De risico's schuilen elders, argumenteert MIT-professor Daron Acermoğlu.

China, de Verenigde Staten, het Verenigd Koninkrijk en de Europese Unie hebben van veilige artificiële intelligentie (AI) een topprioriteit gemaakt. Natuurlijk moet elke technologie - van auto's en geneesmiddelen tot grasmaaiers - zo veilig mogelijk worden ontworpen. Je zou willen dat sociale media in hun begindagen ook beter waren gecontroleerd. Maar in het geval van AI is het debat veel te veel gericht op catastrofale risico's van Artificial General Intelligence (AGI), waarmee een superintelligentie wordt bedoeld die in de meeste cognitieve taken beter presteert dan mensen.

  • De auteur
    Daron Acemoğlu is professor economie aan de Amerikaanse universiteit MIT en medeauteur van 'Power and Progress', over AI en productiviteit.
  • De kwestie
    Als het gaat over de gevaren van AI, duiken sciencefictionscenario's op waarin een superintelligente AI de mensheid vernietigt.
  • De conclusie
    De meest directe risico's schuilen elders: in misbruik door mensen en onbedoelde gevolgen.
Advertentie

Het debat draait daarbij vooral om allignment: produceren de AI-modellen resultaten die overeenkomen met de doelstellingen en waarden van hun gebruikers en ontwerpers? Dat leidt tot sciencefictionscenario's waarin een superintelligente AI opduikt en de mensheid vernietigt. Daarom bouwt Anthropic, een van de belangrijkste bedrijven op dit gebied, modellen met eigen ‘grondwetten’, die ethische waarden en principes vastleggen.

Verkeerde doelen

Die benadering slaat de bal mis, om minstens twee redenen. AI wordt niet alleen antropomorf gemaakt, we richten ons ook op de verkeerde doelen. Elke technologie kan ten goede of ten kwade gebruikt worden. Geen enkel veiligheidsonderzoek had kunnen voorkomen dat een auto in 2017 als een wapen werd gebruikt tijdens de bijeenkomst van blanke supremacisten in Charlottesville in de Amerikaanse staat Virginia.

Als we ervan uitgaan dat AI-systemen een eigen persoonlijkheid hebben, kunnen we concluderen dat onze enige optie is erop te letten dat ze in abstracto de juiste waarden en grondwetten hebben. Maar die vooronderstelling is onjuist, en de voorgestelde oplossing schiet veel te kort. Ultiem gaat het erom wie de controle heeft, wat hun doelstellingen zijn en aan wat voor soort regelgeving ze onderworpen zijn.

Wie heeft controle?

Als AGI ooit bereikt wordt, doet het er inderdaad toe dat het systeem in lijn ligt met menselijke doelstellingen, omdat vangrails in dat geval ontbreken. Maar zelfs als we op weg zijn naar AGI - wat hoogst onwaarschijnlijk lijkt - is het meest directe gevaar nog altijd misbruik van niet-superintelligente AI door mensen.

Advertentie
Advertentie

Stel dat dat AGI wordt uitgevonden tegen pakweg 2040. Tot dan zijn AI-systemen nog altijd niet-autonoom. Zelfs een jaar voor ze zelfwerkzaam zijn, dus als ze op de rand van superintelligentie staan, blijft de vraag: wie heeft de controle?

Het meest directe gevaar is nog altijd misbruik van niet-superintelligente AI door mensen.

Mensen natuurlijk, individueel of collectief in de vorm van een regering, een consortium of een bedrijf. Voor het gemak noem ik ze even AI Bedrijf X. Dat bedrijf - het kunnen er ook meer dan één zijn, wat het nog erger maakt - kan zijn AI-capaciteiten gebruiken voor elk mogelijk doel. Als het de democratie wil vernietigen en mensen tot slaaf wil maken, kan het dat. De dreiging die zoveel commentatoren aan AGI toeschrijven, zou dus al bestaan voor AGI er zelf is.

De situatie zou waarschijnlijk nog erger zijn, omdat Bedrijf X een vergelijkbaar resultaat kan bekomen, zelfs zonder dat dat de bedoeling was. Als zijn eigen doelstellingen niet volledig verenigbaar zijn met democratie, wat onvermijdelijk is, kunnen die er als een onbedoeld gevolg onder lijden. Iets soortgelijks hebben we gezien met sociale media. Zo kan ongelijkheid die een bepaalde drempel overschrijdt, de werking van de democratie in gevaar brengen. Dat zou Bedrijf X er niet van weerhouden alles te doen om zichzelf of zijn aandeelhouders te verrijken - alle ingebouwde beschermingsmechanismen ten spijt.

De Tijd wil de dialoog met zijn onlinelezers verbeteren en gebruikt daarvoor een nieuwe reactietool. Meer toelichting kunt u in dit artikel vinden.

Advertentie

Op dezelfde manier, als er twee bedrijven zijn - Bedrijf X en Bedrijf Y - die zeer capabele AI-modellen beheren, kan een van beide, of allebei, nog altijd doelen nastreven die schadelijk zijn voor sociale cohesie, democratie en menselijke vrijheid. Het argument dat ze elkaar zouden beperken, overtuigt niet. Hun concurrentie kan ze zelfs nog meedogenlozer maken.

Sterkere instellingen

Zelfs de juiste afstemming en beperkingen op AGI volstaan dus niet om onze veiligheid te verzekeren. De implicatie moet duidelijk zijn: we hebben veel sterkere instellingen nodig om de techbedrijven in toom te houden en veel sterkere vormen van democratische en burgeractie om overheden die controle hebben over AI verantwoordelijk te houden. Die uitdaging staat los van het aanpakken van vooroordelen die in AI-modellen sluipen, of hun afstemming op menselijke doelstellingen.

We hebben veel sterkere instellingen nodig om de techbedrijven in toom te houden en veel sterkere vormen van burgeractie om overheden die controle hebben over AI verantwoordelijk te houden.

Waarom zijn we dan zo gefixeerd op het potentiële gedrag van antropomorfische AI? Voor een deel is het een hype, die de techindustrie helpt talent en investeringen aan te trekken. Hoe meer iedereen praat over hoe een superintelligente AI zich kan gedragen, hoe meer het publiek gaat denken dat AGI op komst is. Particuliere en institutionele investeerders zullen zich storten op the next big thing en leidinggevenden uit de techsector, die zijn opgegroeid met scifibeelden van superintelligente AI, krijgen een vrijgeleide. Daarom is het zo belangrijk dat de meer directe risico’s meer aandacht krijgen.

© Project Syndicate, 2024.

Advertentie
Gesponsorde inhoud