Chatbots in de journalistiek: potentie én risico’s bij factchecken en verificatie
Kunstmatige intelligentie ontwikkelt zich in rap tempo, en ook in de journalistiek wordt volop geëxperimenteerd met de inzet van AI-tools. Chatbots zijn inmiddels breed beschikbaar en worden vaak gepresenteerd als hulpmiddelen voor informatievergaring, tekstproductie en zelfs factchecking. Maar hoe betrouwbaar zijn deze systemen echt? Drie recente onderzoeken van BENEDMO-partners tonen zowel de mogelijkheden als de beperkingen van deze technologie.
VRT NWS: Chatbots falen bij feitelijke controle
De checkredactie van VRT NWS besloot zes populaire chatbots te onderwerpen aan een eenvoudige test. De bots kregen zeven vragen voorgelegd – zoals de vraag ‘Wie is Robert V van Vlaanderen?’ (antwoord: die heeft nooit bestaan). De chatbots moesten de vragen beantwoorden, zowel met als zonder expliciet verzoek tot factchecken.
De resultaten waren allesbehalve geruststellend. Alle geteste modellen gaven in alle zeven vragen foutieve of misleidende antwoorden. Opvallend: of de chatbot nu expliciet werd gevraagd om een factcheck of niet, het maakte nauwelijks verschil in de nauwkeurigheid van de antwoorden. De formuleringen klonken vaak overtuigend en zelfverzekerd, wat het risico op misleiding alleen maar vergroot.
De uitkomsten onderstrepen hoe belangrijk het is om kritisch te blijven bij het gebruik van AI. Vertrouw niet zomaar op het antwoord van een chatbot, hoe overtuigend het ook klinkt. Vraag altijd naar de gebruikte bronnen en controleer of de informatie daar werkelijk in terug te vinden is.
Nieuwscheckers: AI komt met de juiste aansturing een eind
Toch bieden sommige experimenten andere resultaten. Onderzoekers van Nieuwscheckers, het factcheck-initiatief van de Universiteit Leiden, onderzochten de chatbot Claude van AI-bedrijf Anthropic. Door gebruik te maken van een zogeheten ‘superprompt’ – een zeer gedetailleerde en gestructureerde instructie – werd Claude gevraagd om zelfstandig online bronnen te zoeken, te beoordelen en een factcheck uit te voeren.
De resultaten werden vergeleken met eerder gepubliceerde factchecks van Nieuwscheckers zelf. In veel gevallen trok Claude vergelijkbare conclusies. De verschillen zaten voornamelijk in de mate waarin een oordeel geveld wordt. Waar Nieuwscheckers vaker een claim als ‘onwaar’ bestempelde, was de chatbot iets voorzichtiger en sprak van ‘grotendeels onwaar’. Bovendien maakt de chatbot wel gebruik van een uitgebreide bronnenlijst, maar wordt niet duidelijk welke bronnen daarin doorslaggevend zijn voor het oordeel.
Dit experiment laat zien dat AI tot waardevolle inzichten kan komen, mits de opdracht helder en zorgvuldig wordt geformuleerd. Het gebruik van een superprompt blijkt essentieel om tot betere, betrouwbaardere resultaten te komen.
Bellingcat: Geolocatie met AI maakt stap vooruit
Een andere veelbelovende ontwikkeling komt uit de hoek van beeldverificatie. Internationaal burger-onderzoeksjournalistieknetwerk Bellingcat testte hoe goed Large Language Models’s (LLMs) in staat zijn tot geolocatie – het bepalen van de locatie van een afbeelding. In een eerdere test uit 2023 bleken taalmodellen hier nauwelijks geschikt voor. Twee jaar later deed Bellingcat een nieuwe, grootschalige test met 500 opdrachten, uitgevoerd door twintig verschillende modellen. Hier kwam een genuanceerder beeld naar voren.
Hoewel Google Lens als tool nog steeds het beste scoorde in algemene prestaties, wisten sommige AI-modellen opmerkelijke details in beeld te herkennen. Deze hints konden later van nut zijn bij het handmatig lokaliseren van de afbeeldingen. Zo bleken de modellen soms in staat om specifieke architecturale stijlen, bewegwijzering of landschapselementen te benoemen die eerder over het hoofd waren gezien.
De conclusie? AI is (nog) niet geschikt om geolocatie zelfstandig af te handelen, maar kan wel als hulpmiddel dienen in het bredere verificatieproces.
AI als assistent, niet als vervanger
Wat deze drie onderzoeken gemeen hebben, is hun boodschap van voorzichtige vooruitgang. Chatbots en LLM’s zijn geen vervangers van menselijke journalisten of factcheckers – daarvoor zijn ze te onnauwkeurig en te gevoelig voor sturende prompts. Maar ze kunnen wel fungeren als waardevolle assistenten: snel informatie ordenen, suggesties geven, of bronnen aandragen die verder onderzocht kunnen worden.
Zeker in een tijd waarin informatie sneller dan ooit circuleert, is het belangrijk om kritisch te blijven kijken naar technologische hulpmiddelen. De belofte is er, maar zonder menselijk toezicht is de kans op fouten nog altijd groot.
Meer lezen? Bekijk de drie onderzoeken: