opinie

Geloof niet altijd wat u ziet

Professor vakgroep Wiskunde en Data Science van VUB en gespecialiseerd in wiskunde voor digitale toepassingen

Nieuwe technologie genereert moeiteloos beelden van geschreven tekst. Het kan aanleiding geven tot misbruik.

Op de sociale media hebben eersteschooldagfoto’s intussen de vakantiekiekjes verdrongen. Bij sommigen waren die laatste echt heel idyllisch, soms een beetje te. De Amerikaan Matt Bell postte een reeks foto’s van zijn duikvakantie, maar stak er vier artificieel gegenereerde tussen en maakte zo zijn eigen turingtest.

  • De auteur
    Ann Dooms is professor vakgroep wiskunde en data science aan de Vrije Universiteit Brussel. Ze is gespecialiseerd in wiskunde voor digitale toepassingen.
  • De kwestie
    Nieuwe technologie slaagt erin fictieve beelden te creëren met tekst.
  • De conclusie
    De evoluties biedt grote kansen voor de grafische sector, maar kan ook leiden tot misbruik.

Advertentie

Meer dan 80 procent van de volgers rook geen onraad en zette vrolijk duimpjes, hartjes en wowgezichtjes. Voor Bell was het experiment geslaagd, omdat het aantoonde dat we ons nog altijd niet erg kritisch opstellen tegenover beeldmateriaal. Zien staat nog altijd gelijk aan geloven. Toch is het op dit moment al een fluitje van een cent om een loopje met de waarheid te nemen.

Iedereen heeft al wel gehoord over deepfakes, artificieel gegenereerde filmpjes, meestal van celebrity's (check @deeptomcruise op TikTok). Nieuwsdiensten zijn intussen op hun hoede om niet in de val van dat soort fake news te trappen.

Het creëren van deepfakes vraagt veel beeldmateriaal en computerrekenkracht, waardoor het lijkt of de man in de straat de realiteit niet zomaar oneer kan aandoen, tenzij dan met een Snapchat- of TikTok-filter. Maar intussen is een nieuwe technologie in opmars waarmee je makkelijk zelf beeldmateriaal kan genereren.

Het impressionante DALL-E 2 van OpenAI, een onderzoekslab uit San Francisco dat mee is opgericht door Elon Musk, kan tekst in foto’s omzetten. De naam is een samentrekking van de schilder Dalí en de tekenfilmrobot Wall-E, als verwijzing naar de mogelijke surrealistische output van de artificieel intelligente kunstenaar. Dat lijkt DALL-E echt te zijn: het is geen veredelde zoekmachine die bestaande foto’s toont die dicht bij de gevraagde beschrijving aanleunen, het maakt ze helemaal zelf. Hoe gekker de vraag, hoe beter het resultaat. Een schilderij in Dalí-stijl van Einstein die een selfie neemt, een teddybeer op een skateboard op Times Square, sneakers versierd met een Frida Kahlo-achtige motieven. U vraagt, DALL-E draait.

OpenAI maakt daarvoor gebruik van zijn eigen, in juni 2020 gelanceerde tekstgenererende software GPT-3, waarbij de letters staan voor Generative Pre-trained Transformer. Dat machinelearning-algoritme doet aan Natural Language Processing en leert een computer taal te verwerken. Het werd ingenieus getraind met een enorme corpus aan voorbeeldteksten en alweer rekenkracht. Het kreeg daartoe een stuk zin voorgeschoteld waarbij het het volgende woord moest voorspellen, waarna werd gecheckt hoe goed die voorspelling was.

Advertentie

Designers en kunstenaars hoeven niet meteen te vrezen voor hun job. Interessante output vraagt nog altijd creatieve input.

Initieel sloegen de voorspellingen nergens op, maar gradueel werd het netwerk beter op een zelflerende manier. Het resultaat is een taalmodel dat teksten kan genereren, waardoor het lijkt of de computer taal begrijpt. Zo maakt GPT-3 schitterende nieuwsberichten, essays en poëzie. Er ontstonden ook al gauw interessante uitbreidingen, zoals het automatisch genereren van websites. Als gebruiker beschrijf je gewoon met woorden hoe je pagina’s er moeten uitzien en het onderliggende systeem genereert de bijbehorende code.

Ook DALL-E is gebouwd op GPT-3. Maar het is aangevuld met een netwerk dat objecten op foto’s kan herkennen, waardoor het letterlijk een naam heeft kunnen plakken op wat het ziet. Het resultaat is dit keer een algoritme dat beelden kan genereren die voldoen aan een gevraagde tekstuele beschrijving. Misschien zag u al eens de intussen bekende virtuele zeteltjes in de vorm van een avocado. Van de fysische haalbaarheid trekt het zich natuurlijk niets aan, maar DALL-E wordt waarschijnlijk een fantastische inspiratiebron voor designers en kunstenaars. Zij hoeven niet meteen te vrezen voor hun job. Interessante output vraagt nog altijd creatieve input.

Met die technologie ging Bell dus aan de slag om bewustwording te creëren voor mogelijk misbruik. En die kans is reëel. Behalve compleet nieuwe beelden maken kan je sinds deze week ook bestaande foto’s bewerken en aanvullen met een tekstuele beschrijving. Photoshop 2.0. U bent gewaarschuwd. Geloof niet altijd wat u ziet.

Advertentie
Gesponsorde inhoud