Wiskundeprofessor Ann Dooms | De zorgwekkende zelfverzekerdheid van ChatGPT
We moeten onze leerlingen dringend leren hoe de technologie ‘redeneert’, zodat ze ook leren op te passen voor de zelfverzekerde stem van het algoritme.
Een kennis vertelde me verontrust dat zijn dochter in de oplossingensleutel van haar wiskunde-oefeningen heel wat fouten had gevonden. Ze had de leerkracht erop aangesproken, maar die hield voet bij stuk.
Na een beetje doorvragen bleek dat de dochter ChatGPT had gebruikt bij het studeren. Ik wees erop dat het taalmodel het helemaal niet bij het rechte eind hoeft te hebben. En ik besefte dat we onze leerkrachten moeten beschermen tegen het in vraag stellen van hun competenties op basis van AI-gegenereerde output.
Een taalmodel lijkt op het eerste gezicht een gepersonaliseerde hulp die stap voor stap uitleg geeft, maar kan wel degelijk het leerproces schaden.
Er gaat heel wat aandacht naar hoe studenten ChatGPT en co. mogen gebruiken bij taken die worden geëvalueerd. Maar zulke modellen worden ook gebruikt bij het studeren. Zo’n taalmodel lijkt op het eerste gezicht een gepersonaliseerde hulp die stap voor stap uitleg geeft, maar kan wel degelijk het leerproces en de relatie met de leerkracht schaden.
Leerlingen maken vooral gebruik van de gratis toegankelijke versies, die zwakker zijn in hun antwoorden dan de high-end betalende. Gecombineerd met de alomtegenwoordige bewieroking van de intellectuele capaciteiten van de systemen geeft dat studenten een vals gevoel van veiligheid. De zelfverzekerde uitleg van zo’n taalmodel beïnvloedt het logisch denken van leerlingen en holt het misschien stilaan uit. Daar maak me grote zorgen over.
Foutieve redenering
Laten we nog eens een experimentje doen. Als je de populaire basisversies vraagt naar een verklaring voor de formule voor de oppervlakte van een driehoek op het niveau van een 12-jarige, vertellen ze je stuk voor stuk hetzelfde.
‘De oppervlakte van een rechthoek is eenvoudig te berekenen met de formule basis×hoogte. Als je nu een rechthoek diagonaal doormidden snijdt, krijg je twee driehoeken die precies even groot zijn. Elke driehoek heeft dezelfde basis en hoogte als de rechthoek. Omdat de twee driehoeken samen de hele rechthoek vormen, is de oppervlakte van één driehoek de helft van de oppervlakte van de rechthoek. Dus door een rechthoek in twee gelijke driehoeken te verdelen, kunnen we de formule voor de oppervlakte van een driehoek afleiden als de helft van basis×hoogte.’
De uitleg wordt afgesloten met ‘heb je nog vragen hierover?’ en een smiley.
Wat vindt u zelf van deze uitleg? De output is duidelijk gedreven door Chain of Thought, de stap-voor-stapredenering die de verklaring voor de formule - de helft van de oppervlakte van een rechthoek - zoekt in de analogie van het meetkundig halveren. Maar die redenering is overduidelijk fout. Als je wil aantonen dat de formule voor elke mogelijke driehoek geldt, kan je niet vertrekken van een rechthoek.
Het taalmodel kan vanuit dit vertrekpunt alleen besluiten dat de oppervlakte van de (rechthoekige) driehoek die ontstaat door de rechthoek op te delen, de helft is van de oppervlakte van de rechthoek. Voor het correct afleiden van de formule moet je vertrekken van een willekeurige driehoek. Die kan je dan bijvoorbeeld kopiëren en samenvoegen met de originele tot een parallellogram. Daarvan kan vervolgens de oppervlakte worden berekend door er een rechthoek van te maken.
Erosie van kritisch denken
Dit eenvoudige voorbeeld toont aan hoe taalmodellen leerlingen op het verkeerde been kunnen zetten, waardoor het correct aanleren van logische afleidingen in gevaar komt. Als verschillende systemen dan nog eens eenzelfde foutieve uitleg geven, wordt de perceptie gevoed dat ze het bij het rechte eind hebben - en de leerkracht niet.
De geschiedenis leert dat elke technologische revolutie kosten en baten heeft. Het gedrukte woord democratiseerde kennis, maar maakte ook massaal misleiding mogelijk. Nu democratiseert het gegenereerde woord het redeneren, maar logisch uitziende fouten leiden tot erosie van het kritisch denken.
We moeten onze leerlingen dus dringend leren hoe de technologie ‘redeneert’, zodat ze ook leren op te passen voor de zelfverzekerde stem van het algoritme. En zodat ze vooral leren op te kijken naar de kennis en de kunde van hun leerkrachten. Als we te lang dralen, is het gevaar van artificiële intelligentie niet dat de technologie ‘slimmer’ wordt dan de mens, maar dat de mens het denken verleert.
Meest gelezen
- 1 Stella Li, topvrouw Chinese autobouwer BYD: 'Wij hebben 122.000 ingenieurs, ons inhalen wordt moeilijk'
- 2 Regering extra soepel voor fake-hybride bedrijfswagens
- 3 100.000 langdurig werklozen dreigen op 1 januari uitkering te verliezen
- 4 Wat betekent het paasakkoord voor uw pensioen?
- 5 De week die komt: handelsoorlog, ECB, Netflix, ASML, Barco, Meta en Mithra