Regelgevers worstelen met deepfakes en auteursrecht
Chatbots als ChatGPT en Gemini maken teksten die lijken door mensen te zijn geschreven. Het AI-model Sora van OpenAI maakt professioneel uitziende video's. En nu komen er ook tools om menselijke stemmen na te bootsen. Regelgevers en juristen proberen de samenleving te behoeden voor massaal misbruik.
Als advocaat bij Crowell & Moring en professor intellectuele rechten en mediarecht aan de UCLouvain Saint-Louis Bruxelles had Sari Depreeuw de AI-technologie al op de radar van voor de publieke lancering van ChatGPT, eind november 2022. Ze maakte er samen met anderen een studie over voor de Europese Commissie. Maar met de populaire chatbot kwamen ook de concrete vragen van klanten. 'In de mediasector ziet men eindeloos potentieel, maar er is ook de vraag waarop moet worden gelet vanuit juridisch perspectief.'
- Media staan te popelen om AI te gebruiken, maar willen in veel gevallen hun inhoud niet zomaar prijsgeven aan de AI-bedrijven.
- In de VS geldt de regel van 'fair use' die rechtbanken moeten inschatten. Europa kent een vaste lijst van uitzonderingen. Die laat toe internetdata te gebruiken voor het trainen van AI-modellen. Eigenaars van digitale inhoud kunnen wel expliciet weigeren hun data te laten gebruiken.
- Digitale platformen krijgen een grote rol toebedeeld in de strijd tegen onwettelijke deepfakes.
Mediaproducenten, uitgevers en omroepen willen AI wel gebruiken, maar niet dat hun eigen inhoud, waarin veel werk steekt, zomaar wordt gebruikt voor het trainen van modellen. The New York Times sleepte OpenAI, de maker van ChatGPT, en diens bondgenoot Microsoft voor de rechter. De uitgever beschuldigt die bedrijven van het schenden van auteursrechten.
Uitzonderingen
In de VS bestaat zoiets als fair use, het 'redelijk' of 'billijk' gebruik van media-inhoud. Dat gaat dan over een beperkt gebruik van media voor een aantal doeleinden zonder dat toestemming nodig is van de rechthebbende.
'In de VS is die bepaling heel algemeen, maar werkt men toch meer op basis van precedenten. Er wordt dus gekeken naar hoe de rechter iets interpreteert', legt Depreeuw uit. 'In Europa daarentegen bestaat een vaste lijst van uitzonderingen. Als iets niet toegestaan is onder een van die uitzonderingen, mag de inhoud niet worden gebruikt zonder toestemming.'
'Met de laatste hervorming van het auteursrecht heeft de Europese wetgever ervoor gekozen tekst- en datamining als zo'n uitzondering te beschouwen. Dus in principe mag inhoud hier zonder toestemming worden gebruikt voor het trainen van modellen.' Toch blijkt daar discussie over te zijn. De richtlijn dateert van 2019, van voor ChatGPT dus. Critici vinden dat de tekst niet is aangepast aan de nieuwe technologie.
Breitbart
Zeer gekleurde Amerikaanse publicaties zoals Breitbart vinden het helemaal geen probleem dat AI-bedrijven hun materiaal gebruiken.
Een auteur kan wel zelf te kennen geven dat zijn werk niet mag worden gebruikt door de AI-bedrijven, toch niet zonder licentiedeal. Depreeuw benadrukt het creatieve potentieel van AI. 'Maar tegelijk is er ook een economisch en maatschappelijk probleem', zegt ze.
'Het is begrijpelijk dat The New York Times zijn kwaliteitsvolle en dure journalistiek wil beschermen. Maar zeer gekleurde Amerikaanse publicaties zoals Breitbart (een nieuwssite met radicaal-rechtse inhoud, red.) vinden het helemaal geen probleem dat AI-bedrijven hun materiaal gebruiken. Dat betekent dat algoritmes worden getraind op basis van heel uitgesproken politieke opinies.' Het gevolg kan bijvoorbeeld zijn dat gebruikers die die modellen gebruiken om informatie over de verkiezingen op te zoeken heel gekleurde informatie krijgen.
Deepfake
De opkomst van steeds performantere tools om fakebeelden en -video te maken van mensen leidt tot grote ongerustheid. Ook die technologie kan worden misbruikt voor politieke doeleinden tijdens verkiezingen. Of ze kan ook worden gebruikt tegen gewone mensen, bijvoorbeeld als wraakporno. 'Er zijn wel al rechtsregels die dan kunnen worden ingeroepen', legt Depreeuw uit. 'Het recht op afbeelding blijft gewoon gelden. Dus als van mij een deepfake gemaakt wordt, dan kan ik mij daar juridisch tegen verweren.'
Transparantie over waar en hoe AI wordt gebruikt bij het uitspitten van journalistieke onderzoeksdossiers is nodig, want in AI kunnen vertekeningen zitten.
De nieuwe Europese wetgeving, de Digital Services Act of DSA, voorziet dat digitale platformen een rol te spelen hebben. 'Bedrijven zoals Google en Meta proberen inderdaad een antwoord te formuleren en gebruiken watermerken. Dat laat hen toe problematische beelden en video's sneller offline te halen. Volgens de AI Act (de nieuwe Europese AI-wetgeving, die nu volop in voorbereiding is, red.) moet wie AI gebruikt, zelf aangeven dat zijn creatie is gemaakt met AI.'
Platformen spelen scheidsrechter
'Gebruikers van een sociaal medium kunnen melden dat er sprake is van illegale inhoud en waarom zij denken dat het onwettelijk is. Het platform moet dan beslissen, want niet alle deepfakes zijn onwettig. Bijvoorbeeld een duidelijke parodie op een publieke figuur is wel toelaatbaar.'
Overigens kunnen gebruikers van sociale media die vinden dat hun deepfake onterecht is weggehaald, bij het platform beroep aantekenen. Gebruikers die het platform misbruiken met onwettelijke beelden of die voortdurend ten onrechte inhoud melden als onwettelijk, kunnen een sanctie oplopen.
De platformen krijgen dus een belangrijke rol toebedeeld. Nu al is zeker dat er misbruik door de mazen van het net zal glippen, want de platformen gaan geen resultaatsverbintenis aan. Ze doen wel een inspanning alle illegale of onrechtmatige inhoud te identificeren en weg te halen, maar ook de technologie wordt telkens beter en de verspreiding kan erg snel gaan, zoals bij virale video's.
Kleine platformen
De verplichtingen van de DSA slaan alleen op de grote platformen zoals Facebook of TikTok. Er komen echter ook steeds meer nicheplatformen opzetten die niet onder die wet vallen. Toch moeten ook zij aan bepaalde normen voldoen, zegt Depreeuw. Ze moeten gebruikers de mogelijkheid bieden melding te maken van onrechtmatige inhoud. Het platform is dan verplicht actie te ondernemen: ofwel verwijdert het de inhoud, ofwel aanvaardt het de volle aansprakelijkheid ervoor.
'Daarnaast voorziet de AI Act een transparantieplicht. Het platform zal moeten aangeven dat een afbeelding of een stemopname een deepfake is', zegt Depreeuw. De AI Act is al gestemd door het Europees Parlement, maar nog niet finaal gestemd door de Raad, en de verplichtingen treden pas na twee jaar in werking, een eeuwigheid in AI-land.
Datawetenschappers
Depreeuw maakt zich geen illusies over staten zoals Rusland. Ook in die context gaan digitale platformen een grote rol spelen in het bestrijden van desinformatie gericht op het ontwrichten van onze samenleving. 'Zo wordt veel macht gegeven aan private en commerciële entiteiten. Dat is misschien toch ook niet ideaal.'
Depreeuw roept op AI niet enkel als een bedreiging te zien. 'In de onderzoeksjournalistiek bijvoorbeeld kan het heel nuttig zijn. Transparantie over waar en hoe AI wordt gebruikt bij het uitspitten van dossiers is nodig, want in AI zitten vertekeningen. Samenwerking met datawetenschappers is geen overbodige luxe.'
Meest gelezen
- 1 Strenge Amerikaanse centrale bank kleurt Wall Street felrood
- 2 Wat verandert er voor uw pensioen in 2025?
- 3 Tinne Van der Straeten trekt waterstofsubsidies in na conflict met Vlaanderen
- 4 Maak kennis met de nieuwste hype op Wall Street: kwantumaandelen
- 5 Rechtszaak afkopen kost gemiddeld 817.000 euro