Laat ik beginnen met te benadrukken dat ik altijd een grote fan geweest ben (en nog ben) van het concept van de Kennisrotonde. Het gegeven dat er een plek is waar je als leraar of docent je vraag kunt stellen en dan na een tijdje een onderbouwd antwoord krijgt op basis van wat er vanuit onderzoek al bekend is, vind ik super. Het is een mooie balans tussen de wens dat docenten meer evidence based te werk gaan, zónder dat je van hen verwacht dat ze helemaal in staat zijn om door de beschikbare literatuur te spitten, een (compacte) review uit te voeren etc.
En het was ook zeker niet de aanleiding voor dit bericht. Die lag bij het bericht AI in de wetenschap: een zegen of een ethisch mijnenveld? bij Pedro De Bruyckere in combinatie met Beyond phone bans: Empowering students to critically navigate and reimagine technology bij de RaspberryPi Foundation. Want wat doe je als docent als je zo’n bericht bij de Raspberry Pi Foundation leest en je dan afvraagt of het verbod in Nederland niet toch een slecht idee is?
Dat zou een vraag zijn die je aan de Kennisrotonde zou kunnen stellen, wat als je daar AI voor inzet?
In 2025 is de eerste vraag dan natuurlijk: welke AI?
Voor de hand ligt het stellen van een vraag aan ChatGPT, want die heeft de grootste naamsbekendheid. Maar ook dat is dan niet meer beperkt tot één optie. Je hebt immers de ‘gratis’ (onbetaalde) versie en verschillende opties binnen de betaalde versie. Maar daarnaast is er Gemini van Google, AI Studio van Google (ook met Gemini modellen), Deepseek, Claude en ga zo maar door. Ik had nou ook niet echt tijd om een uitgebreide studie te gaan maken om te zien of de beschikbare tools op dit moment (28 mei 2025) een goed antwoord zouden kunnen geven.
De prompt:
Geef argumenten voor en tegen het verbieden van smartphones in school. Onderbouw deze argumenten met peer reviewed literatuur. Neem APA7 verwijzingen op naar die literatuur, dubbelcheck of de verwijzingen daadwerkelijk kloppen. Geef tenslotte een samenvattende conclusie voor het Nederlands onderwijs, maak waar relevant onderscheid tussen de verschillende onderwijssoorten en/of leeftijdscategorieën.
Laat ik beginnen met het uitspreken van de hoop dat de Kennisrotonde zich door kan ontwikkelen tot een bron die meerwaarde blijft hebben ten opzichte van AI. Want met de komst van de optie “voer diepgaand onderzoek uit” naar de gratis versie is het zelfs voor de docent die niet verder kijkt dan ChatGPT mogelijk om de vraag te stellen en een antwoord te krijgen dat niet aantoonbaar onjuist is.

Bij de eerdere versies van ChatGPT was een van de zwakke punten namelijk dat er soms wel literatuurverwijzingen gegeven werden als onderbouwing van antwoorden, maar in de regel bleken dat gewoon onzinverwijzingen te zijn. Titels die interessant klonken maar online niet te vinden waren. Nu de meeste modellen ook toegang hebben tot het internet, is de kwaliteit van die verwijzingen een stuk toegenomen. Om het bericht niet onnodig lang te maken heb ik een aantal zaken in een pdf bij elkaar gezet zodat ik me hier op de samenvatting kan richten.
In één ding waren alle tools het eens. Ze kwamen op basis van de literatuur tot een genuanceerd oordeel waarbij voor het primair onderwijs een verbod geadviseerd werd, voor het voortgezet onderwijs er onderscheid gemaakt werd tussen onderbouw en bovenbouw, bij mbo en hoger onderwijs kreeg ook de noodzaak om studenten mediawijs te maken meer de overhand. De manier waarop dat beschreven en uitgewerkt werd en de omvang van de onderbouwing met literatuur verschilde.
- Deepseek
Gaf een puntsgewijze opbouw van argumenten voor en tegen een verbod, niet in detail uitgesplitst naar schoolsoort, dat gebeurde alleen bij de conclusie. Gebruikte link-verwijzingen naar websites in het verhaal, die links kwamen niet in de literatuurlijst voor. De kortste literatuurlijst van allemaal, 5 bronnen waarvan ik er 1 niet kon vinden.
- Gemini 2.5 Pro Preview 05-06 via https://aistudio.google.com/ (gratis account)
Beknopt antwoord, niet uitgesplitst naar onderwijssoort of leeftijd hoewel daar wel om gevraagd was. Geeft 14 bronnen waarvan ik er 1 niet kon vinden en in een aantal gevallen de bron wel bestaat maar de DOI niet klopt.
- Gemini 2.5 Pro (preview) via https://gemini.google.com/ (gratis account)
Het is interessant om te zien dat Google blijkbaar verschillende keuzes maakt als het gaat om de output van Gemini 2.5 Pro, afhankelijk van de omgeving. Het antwoord via de Gemini website is (zie ook de pdf) veel en veel uitgebreider dan via AI Studio, inclusief uitsplitsing naar onderwijssoort. Van de 11 gegeven bronnen kon ik er 1 niet vinden en had 1 een onjuiste link.
- Gratis ChatGPT versie met ‘zoeken’ en ‘voer diepgaand onderzoek uit’ opties
Ook ChatGPT geeft verschillende soorten antwoorden. De gratis versie heeft als beperking dat je maar 5 zoekopdrachten met ‘diepgaand onderzoek’ per dag (?) mag uitvoeren, maar het antwoord is uitgebreid, per sector en met 14 bronnen waarvan ik er 1 niet kon vinden en bij 1 andere de DOI niet klopt.
- ChatGPT 03 versie (betaald account)
Een belangrijk verschil tussen het 03 model van ChatGPT dat je alleen kunt kiezen bij een betaald account en het gratis account is dat het resultaat sneller gegeven wordt (na 4 minuten ipv 9 minuten). Dat hoeft geen probleem te zijn bij dit soort opdrachten. Het aantal bronnen is wat kleiner (10 in plaats van 14) maar die zijn allemaal te vinden en het resultaat wordt compacter, in een tabel, met uitsplitsing naar onderwijssector gegeven.
Conclusie?
Google zet onder de antwoorden van Gemini standaard “Gemini kan fouten maken, ook over mensen, dus dubbelcheck de reacties”. En dat is nog steeds een terechte waarschuwing. Daar staat tegenover dat de diepgang van de antwoorden best indrukwekkend is. De literatuurverwijzingen bevatten niet meer fouten dan een gemiddeld peer reviewed artikel, want ook daar blijken verwijzingen soms onzin te zijn, niet te bestaan of niet te passen. De optie “stel je vraag aan de Kennisrotonde” kost minder werk maar duurt langer vanwege de wachttijd op een antwoord (het is mensenwerk). Als je de vraag aan 2-3 van de AI-opties die beschikbaar zijn stelt en dan de resultaten en argumenten gaat vergelijken en samenvoegt, dan leidt dat waarschijnlijk tot een beter leerresultaat voor jezelf. Want dat antwoord van de Kennisrotonde, dat ga je niet meer controleren. Daar vertrouw je blindelings op omdat het door experts beantwoord is. Bij AI zul je namelijk eigenlijk ook nog moeten checken of de conclusies die de verschillende modellen op basis van de bronnen getrokken hebben navolgbaar zijn.
En nee, het is dan zeker geen systematische review, dat zijn de antwoorden van de Kennisrotonde ook niet. En beide zijn ze al een stuk meer onderbouwd dan “ik denk dat het zo is”.
In het artikel van Pedro wordt een citaat van een respondent aangehaald: “AI zal een norm worden, net als het gebruik van een rekenmachine.”
Ik zou dat voor docenten een wat stellige uitspraak vinden, maar de kleine check laat zien dat het zeker niet tot hele zware ongelukken hoeft te leiden.