Misleidende beelden Turks-Syrische aardbeving
In de nacht van zondag op maandag werd de Turks-Syrische grens door een enorme aardbeving getroffen. Er volgden duizenden hartverscheurende beelden van instortende gebouwen en zowel succesvolle als vergeefse reddingsacties. Tussen de vele echte beelden sijpelden helaas ook misleidende beelden door. In deze nieuwsbrief geven we een aantal voorbeelden. Verder delen we een hoopgevend onderzoek naar de bestrijding van nepnieuws en vatten we de nieuwste factchecks samen.
Turks-Syrische aardbeving: nepbeelden lastig van werkelijkheid te onderscheiden
Een Griekse reddingswerker drukt een gewond Turks kind tegen zijn borst. Om hen heen zijn de straten gevuld met puin. Het klinkt als een beeld uit het gebied dat afgelopen zondagnacht door een zware aardbeving werd getroffen. Maar wanneer we inzoomen op de details van de afbeelding blijkt de man zes vingers te hebben en ziet het logo op zijn arm er onnatuurlijk uit. Dit wantrouwen blijkt terecht, deelt ook factchecker Marieke Kuypers op Twitter. De foto is gegenereerd door AI en oorspronkelijk gedeeld door een luitenant-generaal van de Griekse brandweer als eerbetoon aan de reddingswerkers. Hoewel het bedoeld was als kunstwerk, wordt de afbeelding door velen verward met de werkelijkheid.
De berichtgeving rondom de Turks-Syrische aardbeving wordt, naast wijdverspreide steunbetuigingen, getekend door misleidende beelden. Zo doken er deze week veel uit context getrokken video’s op. Volkskrant-wetenschapsjournalist Maarten Keulemans deelde op Twitter beelden van een instortend gebouw met de beschrijving ‘Ongelooflijke beelden uit Turkije’. Knack zocht uit dat het hier in werkelijkheid ging om een gebouw dat instortte in de Amerikaanse staat Florida in 2021.
Luchtfoto’s van de stad Kahramanmaraş zouden de straten van voor en na de beving met elkaar vergelijken. Hoewel er inderdaad vele gebouwen zijn ingestort zoals de vergelijking suggereert, zijn volgens dpa op de twee gedeelde afbeeldingen niet dezelfde wijken te zien. Hierdoor is de vergelijking misleidend.
Naast AI-gegenereerde foto’s en uit context getrokken beelden worden er ook stockfoto’s gelinkt aan de recente ramp. Factcheck Nederland bekeek een afbeelding van een labrador die zijn poot tegen een hand aanhoudt die onder puin uitsteekt. Een simpele reverse image search wees uit dat het om een stockfoto van minstens vijf jaar oud ging. Hetzelfde plaatje werd in 2020 al onterecht aan een andere aardbeving toegewezen.
Rectificatie: NRC niet ongenuanceerd over effecten kou op gezondheid
Afgelopen week deelde Nieuwscheckers een factcheck van een NRC artikel waarin we concludeerden dat de tekst niet genuanceerd genoeg was. Als gevolg van een reactie van de auteur van het artikel hebben we besloten onze conclusie terug te trekken. In het NRC-artikel wordt genuanceerd besproken in hoeverre mogelijke effecten van koude zijn aangetoond met wetenschappelijk onderzoek.
We hebben daarom besloten om onze factcheck te verwijderen.
Factchecks van andere media
Koolstofstokken voor waterzuivering zijn nutteloos
In een advertentie voor ‘actieve houtskool’ wordt beweerd dat het middel bepaalde geur- en smaakstoffen uit leidingwater verwijdert. Dit is niet per se onwaar, laten experts aan Knack weten, maar vooral nutteloos. De stoffen die de advertentie zegt aan te pakken, zitten helemaal niet in leidingwater. Watermaatschappijen zijn wettelijk verplicht deze stoffen uit het water te filteren. De enige stof waarvoor het product wel zou kunnen werken is chloor, maar dit verdwijnt na enige momenten vanzelf. De advertentie verkoopt dus iets wat mensen eigenlijk niet nodig hebben.
Gratis e-bikes te mooi om waar te zijn
Een nieuwe e-bike kost al snel meer dan 1500 euro. Het lijkt dan ook behoorlijk gul dat een Facebookpagina meer dan 480 e-bikes gratis weggeeft met enkel een licht krasje. Een factcheck van dpa laat zien dat dit inderdaad te mooi is om waar te zijn. Het gaat hier om een voorbeeld van phishing waarbij oplichters persoonsgegevens proberen te achterhalen.
Onderzoek: Nepnieuws bestrijden met beoordelingssysteem
Socioloog Jonas Stein (Rijksuniversiteit Groningen) onderzocht de invloed van een beoordelingssysteem op herkenning van nepnieuws op sociale media. Het gebruik van een openbaar beoordelingssysteem zou mensen beter kunnen wijzen op potentieel nepnieuws. Het is hierbij wel van belang dat de beoordelaars uit een diverse groep komen. Wanneer een bericht alleen wordt beoordeeld door mensen met dezelfde politieke overtuiging zullen de ratings minder accuraat zijn.
Door gebruikers zelf berichten te laten beoordelen, kan zo’n soort beoordelingssysteem een grote last van de schouders van factcheckers afnemen. Op platformen waar nog veel segregatie voorkomt moet dit probleem wel eerst worden aangepakt voordat een beoordelingssysteem goed kan werken. Meer over dit onderzoek lees je hier.
En verder…
Een vrouw uit Overijssel moet mogelijk 10 dagen de cel in omdat ze complottheorieën heeft verspreid over de dood van een 14-jarig meisje, dat volgens de vrouw vermoord is. Ze moet deze berichten binnen twee dagen verwijderen. [NU]
Museum Beeld en Geluid in Hilversum heropent na een verbouwing van twee jaar de deuren. Onderdeel van de nieuwe collectie is een nepnieuwsmachine waarmee bezoekers worden getest op hun factcheckvaardigheden. [NH Nieuws]
Van alle uithoeken van de wereld trokken begin dit jaar schatgravers naar Ommeren. Volgens het Nationaal Archief zou daar een nazischat liggen, maar de reizigers vonden enkel oud ijzer. The Post Online doet het misverstand uit de doeken.
Het wordt steeds populairder om shampoo links te laten liggen. Tegenstanders van shampoo (onder het vaandel van de #No-Poo beweging) wijzen op stoffen die schadelijk zouden zijn voor het haar. Scheikundige Heleen Kibbelaar vertelt aan Linda waarom dit onzin is.
Bewoners van de gemeente Schouwen-Duiveland schrokken op door een nepbrief. Er zouden zogenaamd huizen worden ontruimd voor uraniumwinning. Het lijkt erop dat de briefschrijvers aandacht wilden vragen voor uraniumwinning in gebieden als Niger en Kazachstan. [Omroep Zeeland]
De Britse nieuwszender GB News ligt onder vuur voor de omarming van complottheorieën. Recente uitzendingen zouden onder andere antisemitische ideeën bevatten. [The Guardian]
Google’s nieuwe AI-tekstgenerator Bard, geïnspireerd door Microsofts ChatGPT, heeft in zijn eerste week al een kostbare fout gemaakt. Door een fout feitje over de James Webb-telescoop daalde het aandeel van Google met 8 procent. [NOS]
Kijktip: Waarom Jodenhaat maar niet weggaat
Antisemitisme is even oud als het Joodse geloof. In een nieuwe diepgaande explainer neemt NOS op 3 ons mee naar de oorsprong van Jodenhaat en legt uit hoe Joden keer op keer het mikpunt zijn voor complotdenkers. De video is stevig onderbouwd en ongelofelijk belangrijk - deze wil je niet missen!
Factcheckers gezocht!
Nieuwscheckers is op zoek naar factcheckers. Ben je goed in het verifiëren van foto’s en video’s? Of ben je een kei in cijfers controleren? Of kan je vlekkeloos de zwakke punten van een onderzoek detecteren? Wellicht kan je dan als factchecker ons team versterken. Heb je belangstelling? Mail even naar a.r.j.pleijter@hum.leidenuniv.nl.
Agenda
Maart
15 - Het factcheckdebat bij Beeld en Geluid in Hilversum. Met workshops van o.a. factcheckers van VRT, Pointer, onderzoekers van de Universiteit van Amsterdam, Maastricht Universiteit en Beeld en Geluid. Toegang vijf euro.
April
20 - Benedmo-webinar: Making factchecks work. Door onderzoekers Michael Hameleers en Marina Tulin. Schrijf je hier in.