opinie

Europese wetgeving volstaat niet om grootste risico's van AI te voorkomen

Hoelang het nog duurt voor AI de intellectuele capaciteiten van een mens heeft, valt moeilijk te voorspellen. Maar als het zover is, kunnen de gevolgen even catastrofaal zijn als die van een kernoorlog. Om dat te voorkomen is goede wetgeving nodig, op een niveau dat de EU overstijgt.

Het Europees Parlement heeft vorige week de EU AI Act finaal goedgekeurd, ’s werelds eerste alomvattende artificiële-intelligentiewetgeving. Het doel is vat te krijgen op de razendsnelle ontwikkelingen in het domein en te garanderen dat de AI-systemen van morgen ‘veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk’ zijn.

  • De auteurs
    Pieter Libin is docent aan het AI Lab van de VUB en lid van Jonge Academie. Tim Brys is doctor in de AI en is werkzaam aan het AI Lab van de VUB.
  • De kwestie
    De gevolgen van AI met de intellectuele capaciteiten van een mens kunnen even catastrofaal zijn als die van een kernoorlog.
  • De conclusie
    Vertrouwen dat bedrijven als goede burgers handelen, lijkt naïef. We hebben goede wetgeving nodig, op een niveau dat de EU overstijgt.
Advertentie
Advertentie

Op het nippertje werd aan de tekst een stuk toegevoegd over General Purpose AI. Dat zijn systemen die verschillende soorten taken kunnen uitvoeren. Zoals ChatGPT, dat teksten kan samenvatten, spelletjes kan programmeren en filmscripts kan schrijven. Als een General Purpose AI zo krachtig wordt dat die in principe elke menselijke intellectuele taak aankan, spreken we van Artificial General Intelligence (AGI). AGI is al decennia het voorwerp van speculatie in sciencefiction: van doemscenario’s waarbij de mensheid wordt uitgeroeid, tot utopieën van samenlevingen waarin al het werk geautomatiseerd is en de mens in een aards paradijs leeft.

Wat als er over enkele jaren AI’s met de intellectuele capaciteiten van een mens zijn en alleen bepaalde landen of groeperingen die bezitten? De parallel met landen die over kernwapens beschikken, is niet ver te zoeken.

Meerdere AI-toppers zeggen dat AGI niet meer veraf is. Geoffrey Hinton, voormalig topman van Google Brain, schat dat het minder dan 20 jaar zal duren. Sam Altman, de CEO van OpenAI, stelt dat het al rond 2030 kan. Shane Legg, de medeoprichter van Google DeepMind, denkt dat we de eerste AGI al in 2028 kunnen hebben.

We onthouden ons van voorspellingen, maar de vraag dringt zich op: als we over enkele jaren AI’s krijgen met de intellectuele capaciteiten van een mens, wat dan met de doemscenario’s uit de sciencefiction? Of iets alledaagser: wat als alleen bepaalde landen of groeperingen AGI bezitten en dat diepgaande geopolitieke ongelijkheden creëert? De parallel met landen die over kernwapens beschikken, is niet ver te zoeken.

AI-catastrofe

De Engelstalige Wikipedia heeft een hele pagina gewijd aan de risico’s aan AGI. Van massale sociale manipulatie tot de ontwikkeling van nieuwe biowapens. Er zijn voldoende manieren waarop AGI kan leiden tot een mondiale catastrofe of zelfs het uitsterven van de mensheid. Vorig jaar ondertekenden honderden experts, onder wie de bovenstaande AI-coryfeeën, het volgende publieke statement: ‘Naast andere risico's op maatschappelijke schaal, zoals pandemieën en kernoorlogen, moet het beperken van het risico op uitsterven van de mens door AI een wereldwijde prioriteit zijn.’ Experts achten de kans niet onbestaande dat de effecten van AGI even catastrofaal zijn als die van een kernoorlog.

Broncode

Paradoxaal genoeg hebben enkele grote bedrijven achter diezelfde personen er net hun missie van gemaakt AGI te ontwikkelen. Zowel OpenAI als Google DeepMind streeft expliciet AGI na. Ze zeggen dat op een veilige manier te doen, ‘om te garanderen dat het de hele mensheid ten goede komt’.

Advertentie

We laten bedrijven toch ook niet zonder toezicht experimenteren met nucleaire technologie?

Maar het gaat om commerciële bedrijven die de rest van de wereld meestal niet laten meekijken naar wat achter de schermen gebeurt. Ze profileren zich wel als onderzoeksgroepen en mengen zich in de academische wereld, maar ze houden zich vaak niet aan de wetenschappelijke standaarden die anderen toestaan hun werk te reproduceren en op veiligheid te controleren. Met andere woorden: OpenAI en DeepMind geven de broncode en datasets die systemen zoals ChatGPT onderbouwen niet vrij, noch duidelijke beschrijvingen ervan.

De EU AI Act helpt hier ten dele. Bedrijven die General Purpose AI op de markt willen brengen, moeten bewijzen dat die AI’s geen systemisch risico vormen. Alleen moet dat niet als die AI’s nog in ontwikkeling zijn, of alleen wetenschappelijke doeleinden dienen. Dan eist de EU geen toezicht. Dat we innovatie en onderzoek niet in de weg staan, is begrijpelijk. Maar we laten bedrijven toch ook niet zonder toezicht experimenteren met nucleaire technologie?

De broncode en datasets die bij de ontwikkeling van AGI gebruikt worden, mogen niet verborgen blijven in de krochten van grote commerciële bedrijven. Yann LeCun, onderzoeker van Meta, argumenteert dat het risico te groot is dat die zo in slechte handen vallen. Hij vindt dat de data publiek vrijgegeven moeten worden, ‘zodat de vooruitgang zo snel mogelijk gaat en de slechteriken altijd achterblijven’. Dat is wat Meta doet met zijn krachtigste AI-modellen. Dat lijkt ons te extreem, als het om AGI gaat: nucleaire recepten geef je toch ook niet zomaar vrij?

De EU AI Act voorziet in de oprichting van een wetenschappelijk panel dat instaat voor het opvolgen van de General Purpose AI-wetgeving. Het is cruciaal dat dat panel ook toeziet op de ontwikkeling van AGI die niet op de markt komt en academici actief in dat proces betrekt. We moeten nadenken over methodes om de gevoelige broncode op een veilige en traceerbare manier te delen tussen academici, overheden en AI-bedrijven. Omdat de EU AI Act geen invloed heeft op wat in labs in de VS of China gebeurt, dringt een oplossing in de schoot van de Verenigde Naties zich op.

Of AGI er snel komt, is helemaal niet zeker. Maar we moeten wel voorbereid zijn. Vertrouwen dat bedrijven als goede burgers handelen, is naïef. Om de potentiële impact van AGI op de maatschappij ten voordele van het algemeen belang te kanaliseren, hebben we goede wetgeving nodig, op een niveau dat de EU overstijgt.

Advertentie

In het nieuws

Alle artikels meer
Georges-Louis Bouchez wil een efficiëntere staat, maar geen staatshervorming.
Bouchez: 'Communautaire oefening niet compatibel met sanering'
MR-voorzitter Georges-Louis Bouchez staat niet te springen voor een discussie over meer autonomie voor de deelstaten. Dat maakte hij zondag duidelijk in De Zevende Dag op Eén.
Gesponsorde inhoud