Opinie: Fact-checking verdwijnt op Meta, maar de échte beïnvloeding komt later

Zuckerberg schrapt factchecking op Facebook en Instagram. Ophef alom. Minder moderatie, meer desinformatie, minder grip op schadelijke content—zo klinkt het althans. Maar hoe erg is dat echt? Toen Musk bij X de moderatie afbrak, ja, toen veranderde X in een open riool. Maar gebruikers weken ook uit naar alternatieven als Mastodon en Bluesky (waar het eigenlijk best gezellig is). De macht van X brokkelt daarmee af, en hetzelfde zal ongetwijfeld met Meta gebeuren. Sociale media fragmenteren, hun invloed versnipperd over steeds meer platforms. Geen ramp.

Een échte zorg ligt elders. Niet bij sociale media, maar bij de systemen die de toekomst van informatievoorziening bepalen, en die eveneens in handen zijn van deze big tech: generatieve AI-modellen. Terwijl sociale media versnipperen, consolideert AI zich juist. AI ontwikkelen is namelijk duur—te duur voor “open” initiatieven zoals BLOOM van Hugging Face, of ‘s Neerlands eigen GPT-NL: sympathieke projecten die onbedoeld toch vooral laten zien dat het onmogelijk is om zowel duurzame, eerlijke als bruikbare AI te ontwikkelen.

En dat is een probleem. Recent onderzoek toont aan dat AI modellen de ideologische voorkeuren van hun makers absorberen en reproduceren. Dat gebeurt subtiel: in de manier waarop vragen worden beantwoord, welke perspectieven worden versterkt, en hoe informatie wordt geframed. 

Waar je sociale media platforms nog betrekkelijk eenvoudig de rug kan toekeren, gaat dat bij AI moeilijk. Je kunt zelf stoppen het te gebruiken, maar AI-systemen zitten steeds dieper ingebed in onze gehele informatieketen: in zoekmachines, mediaproductie, e-mailprogramma’s, programmeertools; kortom: aan de kant van zowel (ons) gebruikers als producenten. 

Hoewel big tech nu juist met ethische “guardrails” diversiteit probeert te benadrukken (en dat gaat niet altijd even goed), lijkt de draai van Zuckerberg naar “minder censuur” een voorbode van een ruk naar rechts door big tech. Wanneer deze nieuwe koers zich doorzet in AI-systemen, sijpelen de waarden vanzelf door in alles wat ze genereren, interpreteren, en (re)produceren. Zo kan generatieve AI subtiel de framing van nieuws, maatschappelijke debatten en politieke voorkeuren beïnvloeden.

Het probleem is dus niet dat fact-checking op Facebook verdwijnt—dat kun je ontlopen. De kater komt later, wanneer AI stilzwijgend Silicon Valleys nieuwe waardering voor “vrije meningsuiting” heeft omarmd, en de grenzen verschuift van wat we collectief als waar en relevant beschouwen.

Leave a Reply