Rara, waar ben ik? Chatbots doen geolocatie-examen
Opgepast met vakantiekiekjes en andere foto’s op sociale media als je niet wilt dat anderen precies kunnen zien waar je bent. Chatbots kunnen steeds beter traceren waar een foto gemaakt is, blijkt uit onze chatbottest, al waren de resultaten wisselend. Verder in deze nieuwsbrief: zombienieuws - weerkaarten alweer niet gemanipuleerd en baksoda nog steeds geen wondermiddel tegen kanker. En: onderzoek naar hoe mensen AI-foto’s herkennen.
Beeldverificatie en geolocatie: chatbots maken sprong voorwaarts
Met een mega-uitgebreide prompt doet chatbot Claude het verrassend goed als factchecker, bleek uit een recente test in het Nieuwscheckerslab. Maar zouden chatbots ook foto’s kunnen verifiëren en lokaliseren? Nieuwschecker Arno zette Claude en ChatGPT aan het werk met zijn eigen foto’s uit Nederland en Zuid-Europa en met AI-beelden. ChatGPT (om precies te zijn: model o4-mini-high) was de afgetekende winnaar.
Landschappen raden
Claude (Sonnet 4), die het zo goed deed in de teksttest, faalt met foto’s. De bot ziet de vijver van buitenplaats Hofwijck in Voorburg aan voor een overstroming en gokt bij de foto hierboven van het Griekse eiland Zakynthos op verkeerde mediterrane eilanden: Capri? Corsica?
ChstGPT slaagt er wel in om Hofwijck te lokaliseren en landt dichter bij Zakynthos dan Claude, al is het niet op het juiste eiland.
Koe op gympen
Claude heeft een duwtje in de goede richting nodig om een AI-foto van Frans Timmemans in een vliegtuig te beoordelen als nep en heeft ook meer moeite dan ChatGPT met de AI-slopfoto van een koe op gymschoenen.
Een beperking van de chatbots is dat ze geen gebruik maken van reverse image search. Zoeken met Google Lens of Yandex werkt in de meeste gevallen sneller, maar de resultaten van de bots zijn veelbelovend. Lees de hele test bij Nieuwscheckers.
Factchecks van andere media
Weerkaarten weer niet gemanipuleerd
Het was van de week erg heet in Nederland, met temperaturen die boven de 35 graden uitstegen. Maar op social media wordt beweerd dat weerkaarten extra rood kleuren dan vroeger bij dezelfde temperaturen om angst te zaaien over het klimaat. Onzin, aldus de VRT: de collages die online rondgaan, vergelijken weerkaarten van verschillende tv-zenders of temperatuurkaarten met andere soorten weerkaarten. Het is een gaaf voorbeeld van zombienieuws: keer op keer doodgecheckt, maar het blijft maar terugkomen.
Ook Nederland kan droog komen te staan
Nederland ligt in het deltagebied van drie grote Europese rivieren: de Rijn, de Maas en de Schelde. Daarom kunnen we volgens sommige socialemediagebruikers hier geen last krijgen van watertekorten. Dat klopt niet, zoals DPA onderzocht: door klimaatverandering duren droge periodes steeds langer en valt regen in korte, hevige buien. Daardoor wordt water minder goed vastgehouden. Ook zeewater dat binnendringt in de watervoorraad en bodemdaling spelen een rol in watertekorten.
Baksoda is geen kankergenezende wonderkuur
Volgens een Facebookpost van een ‘gezondheidsblog’ zou natriumbicarbonaat (baksoda) een wondermiddel zijn dat onder andere kankercellen doodt, schimmelwerend werkt en helpt tegen osteoporose. AFP deed een rondgang onder medische experts en zij bevestigen dat er geen bewijs is voor zulke claims. Wel heeft baksoda andere medische toepassingen: het kan helpen om de zuurgraad van bloed en urine te reguleren bij nieraandoeningen en de spontane uitzaaiing van kankergezwellen afremmen. (Nog een geval van zombienieuws: Nieuwscheckers schreef in 2017 al over baking soda als vermeend wondermiddel tegen kanker.)
Onderzoek: AI-afbeeldingen herkennen
Hoe herken je of een afbeelding die je online tegenkomt, wel of niet met AI is gegenereerd? Dat is vaak lastig te bepalen doordat er heel veel informatie op je afkomt terwijl je op het web surft. Daarom gebruiken mensen vaak vuistregels om een oordeel te vellen.
Britse onderzoekers onderzochten de invloed van drie van dat soort criteria: hoe realistisch een afbeelding is, hoe sterk een afbeelding een appel doet op emoties en wat een AI-detector ervan zegt. Bijna 300 proefpersonen konden telkens 10 seconden lang naar een afbeelding kijken. Daarna moesten ze aangeven of ze dachten dat het ging om een echte foto of iets dat met AI gemaakt was en hoeveel vertrouwen ze hadden in hun oordeel. Vervolgens kregen ze te zien wat een AI-detectietool ervan vond en mochten ze hun eerdere oordeel heroverwegen.
Hieruit bleek dat hoe realistischer een afbeelding was, hoe onnauwkeuriger en onzekerder de oordelen. In tegenstelling tot eerder onderzoek bleek de factor emotie geen rol te spelen. Verder waren de deelnemers ook meer geneigd om te vertrouwen op de AI-detector als ze minder vertrouwen hadden in hun oordeel, als ze jonger waren en als ze in het algemeen positiever tegenover AI stonden.
En verder
Elle, Marie Claire en andere Vlaamse magazines van uitgeverij Ventures Media publiceerden honderden AI-gegenereerde artikelen van niet-bestaande journalisten. Het was een test, zei de uitgever tegen VRT NWS, dat het bedrog onthulde.
Denemarken wil een wet invoeren die deepfakes strafbaar maakt door het auteursrecht aan te passen: mensen moeten het auteursrecht krijgen op hun eigen stem en uiterlijk. [Trouw]
Misschien kan zo’n wet ook iets betekenen voor slachtoffers van AI-tools die op basis van echte foto’s nepnaaktbeelden kunnen genereren. [NU.nl]
The Moscow Times, nieuwsmedium in ballingschap, is gestopt met factchecken, zegt hoofdredacteur Derk Sauer. ‘Omdat er geen beginnen meer aan is. Werkelijk elk nieuwsbericht uit Rusland bevat misinformatie, als je dat allemaal probeert te weerleggen heb je geen tijd meer om het echte nieuws te brengen.’ [Pointer]
Hoe bereik je jongeren in tijden van desinformatie? Albert en Jasmijn van Wijsneuzen maken video’s over wetenschap en maatschappij voor YouTube, Instagram en TikTok. [De nacht is ZWART]
Nederlanders en Vlamingen vinden elkaar in de strid tegen desinformatie. Interview met Luc Van Bakel (VRT) en Peter Burger (Nieuwscheckers). [De Lage Landen]
‘Activistische angstzaaierij’: Adriaan ‘Sjamadriaan’ ter Braack kraakt een onderzoek met ratten naar de gezondheidsrisico’s van bestrijdingsmiddel glyfosaat. [Trouw]
Oplichting op wereldschaal: samen met onderzoeksjournalisten uit andere landen onthult NRC de praktijken van bedrogmultinational Aether. Onvrijwillige abonnementen, datingscams, het bedrijf, geleid vanuit Dubai maar met connecties in Amsterdam en op de Filipijnen, is van alle markten thuis.
AI-videogenerator VEO3, ideaal voor het maken van nepnieuwsvideo’s, is nu ook uit in Nederland en met de mogelijkheid om personen in video's Nederlands te laten spreken. Voorlopig alleen beschikbaar voor Google AI Pro-abonnees. [Bright]