Wiskundeprofessor Ann Dooms | De zorgwekkende zelfverzekerdheid van ChatGPT

Professor vakgroep Wiskunde en Data Science van VUB en gespecialiseerd in wiskunde voor digitale toepassingen

We moeten onze leerlingen dringend leren hoe de technologie ‘redeneert’, zodat ze ook leren op te passen voor de zelfverzekerde stem van het algoritme.

Een kennis vertelde me verontrust dat zijn dochter in de oplossingensleutel van haar wiskunde-oefeningen heel wat fouten had gevonden. Ze had de leerkracht erop aangesproken, maar die hield voet bij stuk.

Na een beetje doorvragen bleek dat de dochter ChatGPT had gebruikt bij het studeren. Ik wees erop dat het taalmodel het helemaal niet bij het rechte eind hoeft te hebben. En ik besefte dat we onze leerkrachten moeten beschermen tegen het in vraag stellen van hun competenties op basis van AI-gegenereerde output.

Advertentie

Een taalmodel lijkt op het eerste gezicht een gepersonaliseerde hulp die stap voor stap uitleg geeft, maar kan wel degelijk het leerproces schaden.

Er gaat heel wat aandacht naar hoe studenten ChatGPT en co. mogen gebruiken bij taken die worden geëvalueerd. Maar zulke modellen worden ook gebruikt bij het studeren. Zo’n taalmodel lijkt op het eerste gezicht een gepersonaliseerde hulp die stap voor stap uitleg geeft, maar kan wel degelijk het leerproces en de relatie met de leerkracht schaden.

Leerlingen maken vooral gebruik van de gratis toegankelijke versies, die zwakker zijn in hun antwoorden dan de high-end betalende. Gecombineerd met de alomtegenwoordige bewieroking van de intellectuele capaciteiten van de systemen geeft dat studenten een vals gevoel van veiligheid. De zelfverzekerde uitleg van zo’n taalmodel beïnvloedt het logisch denken van leerlingen en holt het misschien stilaan uit. Daar maak me grote zorgen over.

Foutieve redenering

Laten we nog eens een experimentje doen. Als je de populaire basisversies vraagt naar een verklaring voor de formule voor de oppervlakte van een driehoek op het niveau van een 12-jarige, vertellen ze je stuk voor stuk hetzelfde.

Advertentie

‘De oppervlakte van een rechthoek is eenvoudig te berekenen met de formule basis×hoogte. Als je nu een rechthoek diagonaal doormidden snijdt, krijg je twee driehoeken die precies even groot zijn. Elke driehoek heeft dezelfde basis en hoogte als de rechthoek. Omdat de twee driehoeken samen de hele rechthoek vormen, is de oppervlakte van één driehoek de helft van de oppervlakte van de rechthoek. Dus door een rechthoek in twee gelijke driehoeken te verdelen, kunnen we de formule voor de oppervlakte van een driehoek afleiden als de helft van basis×hoogte.’

Advertentie

De uitleg wordt afgesloten met ‘heb je nog vragen hierover?’ en een smiley.

Wat vindt u zelf van deze uitleg? De output is duidelijk gedreven door Chain of Thought, de stap-voor-stapredenering die de verklaring voor de formule - de helft van de oppervlakte van een rechthoek - zoekt in de analogie van het meetkundig halveren. Maar die redenering is overduidelijk fout. Als je wil aantonen dat de formule voor elke mogelijke driehoek geldt, kan je niet vertrekken van een rechthoek.

Het taalmodel kan vanuit dit vertrekpunt alleen besluiten dat de oppervlakte van de (rechthoekige) driehoek die ontstaat door de rechthoek op te delen, de helft is van de oppervlakte van de rechthoek. Voor het correct afleiden van de formule moet je vertrekken van een willekeurige driehoek. Die kan je dan bijvoorbeeld kopiëren en samenvoegen met de originele tot een parallellogram. Daarvan kan vervolgens de oppervlakte worden berekend door er een rechthoek van te maken.

Erosie van kritisch denken

Dit eenvoudige voorbeeld toont aan hoe taalmodellen leerlingen op het verkeerde been kunnen zetten, waardoor het correct aanleren van logische afleidingen in gevaar komt. Als verschillende systemen dan nog eens eenzelfde foutieve uitleg geven, wordt de perceptie gevoed dat ze het bij het rechte eind hebben - en de leerkracht niet.

De geschiedenis leert dat elke technologische revolutie kosten en baten heeft. Het gedrukte woord democratiseerde kennis, maar maakte ook massaal misleiding mogelijk. Nu democratiseert het gegenereerde woord het redeneren, maar logisch uitziende fouten leiden tot erosie van het kritisch denken.

We moeten onze leerlingen dus dringend leren hoe de technologie ‘redeneert’, zodat ze ook leren op te passen voor de zelfverzekerde stem van het algoritme. En zodat ze vooral leren op te kijken naar de kennis en de kunde van hun leerkrachten. Als we te lang dralen, is het gevaar van artificiële intelligentie niet dat de technologie ‘slimmer’ wordt dan de mens, maar dat de mens het denken verleert.

Advertentie

In het nieuws

Alle artikels meer
Ageas-CEO Hans De Cuyper heeft zijn prooi binnen.
Ageas legt 1,5 miljard op tafel voor Britse verzekeraar Esure
Ageas heeft zijn grote Britse deal eindelijk binnen. De verzekeraar betaalt 1,3 miljard pond (1,5 miljard euro) aan Bain Capital voor sectorgenoot Esure. De deal moet de Belgische groep naar de top drie katapulteren in het Verenigd Koninkrijk.
Gesponsorde inhoud