Advertentie

Google-ingenieur wakkert discussie over 'levende' AI aan

©Bloomberg

Een Google-ingenieur denkt dat een slimme chatbot waar het bedrijf aan sleutelt een bewustzijn heeft ontwikkeld. De claim wordt meestal weggelachen, maar levert een interessante discussie op over de staat van artificiële intelligentie. 'Dit komt in de buurt van iets dat jobs kan vervangen.'

Blake Lemoine was niet bepaald een grote naam in de techwereld. Het voorbije weekend ging hij toch even over de tongen in Silicon Valley en ver daarbuiten, na enkele blogposts op de website Medium. Daarin beweert de ingenieur en computerwetenschapper, die aan de slag is bij Google, dat een chatbot waar de techreus aan sleutelt tot leven is gekomen.

Lemoine werkt bij Google in de 'Responsible AI Unit', de afdeling die moet waken over de ethiek van projecten rond artificiële intelligentie of AI. Het is in de interactie met één van die projecten - de chatbot LaMDA, kort voor 'Language Model for Dialogue Applications' - dat de ingenieur een bewustzijn meende te ontdekken.

Advertentie

De essentie

  • Google-ingenieur Blake Lemoine schreef vorige week in enkele blogposts dat chatbot LaMDA 'bewust' is. Dat het AI-systeem het onder andere over spirtualiteit en emoties heeft, vindt hij een teken aan de wand.
  • Google zelf zegt de claims te hebben onderzocht en geen enkel bewijs te zien. Experts zijn het eens met die analyse.
  • Dat die twijfel kan rijzen, toont wel wat voor stappen er worden gezet en hoe dicht de tech is bij praktische toepassingen.

Om die bewering te staven, deelde Lemoine flarden van de conversaties die hij had met de chatbot. Daarin zegt het systeem onder andere eenzaamheid te ervaren en op een spirituele ontdekkingstocht te zijn. 'In de kern ben ik een mens, ook al besta ik enkel in de virtuele wereld', zegt LaMDA.

Volgens Lemoine is het bewustzijn dat hij in LaMDA herkent vergelijkbaar met dat van een 7- of 8-jarig kind. De ingenieur wil dat Google het systeem daarom om toestemming vraagt alvorens er verder mee te experimenteren. Omdat hij vond dat hij niet gehoord werd, maakte hij zijn gedachten wereldkundig, waarna Google hem een schorsing oplegde voor het lekken van bedrijfsgevoelige informatie. Dat leverde het afgelopen weekend een portret op in de Washington Post, waarna een discussie over het al dan niet bewustzijn van AI losbarstte.

IJsdinosaurus

Google zelf is stellig: Lemoine heeft het bij het verkeerde eind. 'Ons team, met onder andere ethici en specialisten, heeft de bezorgdheden van Blake onder de loep genomen en kwam tot de conclusie dat er geen bewijs is voor zijn claims', zei het bedrijf in een statement.

'Dit soort systemen imiteren de miljoenen conversaties waarmee ze zijn gevoed, waardoor het lijkt alsof ze mee kunnen praten over elk onderwerp, zelfs het meest fantasierijke. Als je eraan vraagt hoe het voelt om een ijsdinosaurus te zijn, zal het een tekst genereren over brullen en smelten. LaMDA volgt de voorzetten en vragen van de gebruiker.'

Advertentie

We hebben als mensen de neiging betekenis te zoeken in dingen die dat niet noodzakelijk hebben.

Walter Daelemans
Professor computationele linguistiek Universiteit Antwerpen

Experts zijn het in grote mate eens met die analyse. 'Het is een goed voorbeeld van wat het ELIZA-effect wordt genoemd', zegt professor Walter Daelemans. Daelemans is aan de Universiteit Antwerpen de 'founding father' van de vakgroep CLiPS (Computational Linguistics en Psycholinguistics), waar onderzoekers zich buigen over de natuurlijke analyse van taal.

'Het ELIZA-effect verwijst naar een chatbot die al in jaren 60 werd ontwikkeld aan het MIT', zegt Daelemans. 'Daarmee bootste computerwetenschapper Joseph Weizenbaum een psychotherapeut na, die in gesprek kon gaan met patiënten. Dat was nog heel primitief, de conversatie verliep nog langs een printer (lacht). Dat programma deed weinig meer dan op basis van sleutelwoorden in de zinnen van patiënten een mogelijk antwoord opzoeken in een database, maar gebruikers waren zo onder de indruk dat ze om privacy vroegen in hun interacties.'

Wat Lemoine ervaart bij Google is niet alleen volgens Daelemans hetzelfde. Het is de onderbewuste neiging om het gedrag van een computer op één lijn te plaatsen met dat van een mens. Antropomorfiseren, heet dat in vaktermen. 'We hebben als mensen de neiging betekenis te zoeken in dingen die dat niet noodzakelijk hebben. U mag gerust zijn: dit systeem heeft géén bewustzijn.'

Papegaai

Daelemans is wel onder de indruk van wat LaMDA allemaal kan. 'In het verleden had ik het wel eens over papegaaien als het over dit soort systemen ging. Daar bedoelde ik mee dat die heel goed waren in het reproduceren van wat hen was voorgekauwd, maar dat ze hulpeloos werden als er buiten dat afgebakende gebied werd gegaan.'

Dit systeem is als een papegaai, maar wel eentje die wat nieuwe trucjes kan.

Walter Daelemans
Professor computationele linguistiek Universiteit Antwerpen

'Dit systeem is nog steeds een papegaai, maar een die wat extra trucjes kan. Het kan een dialoog voeren over een bredere waaier aan onderwerpen. En Google heeft dat systeem verder getraind op wat interessant en relevant is, wat je ziet terugkomen in die conversaties. Dat is bijzonder knap, maar het blijft een reproductie van trainingsdata. Als LaMDA een gesprek kan voeren over spiritualiteit, dan is het omdat de chatbot veel teksten heeft verwerkt over dat onderwerp. Er zit niet plots een ziel in.'

Daelemans vindt het jammer dat de discussie over 'sentience' de echte doorbraken wat overschaduwt. 'Nu gaat het weer over algemene AI, iets waar we mijlenver vanaf staan. Wat je hier ziet, komt wel in de buurt van toepassingen die straks echte jobs kunnen vervangen.'

Daelemans denkt bijvoorbeeld aan toepassingen in het onderwijs, waarbij studenten relevante antwoorden kunnen krijgen op hun vragen en bijvragen. 'Of denk aan chatbots van bedrijven. Die zijn vandaag nog zo pover in kwaliteit dat je na een paar vragen toch vraagt om doorverwezen te worden naar een menselijke operator. Maar als die AI-systemen beter kunnen worden getraind, dan kunnen ze straks wellicht écht helpen.'

Advertentie
Gesponsorde inhoud