Spring naar inhoud

Tim Verheyden vraagt zich af wat we allemaal niét te zien krijgen op Facebook

Over de documentaire 'Inside Facebook'

© Firecrest Film ltd
geschreven op 12 september 2018

Het is een wazig beeld, maar wat er gebeurt is duidelijk en vreselijk: een man slaat en stampt een kind van 9. Het filmpje wordt gepost op Facebook. In een mum van tijd kan het viraal gaan. En dat hangt af van één persoon: een content moderator van Facebook.

Elke mens met een beetje gezond verstand zou beslissen dat dit filmpje niet thuishoort op Facebook. Zeker niet in de utopische visie van Mark Zuckerberg die als missie met Facebook heeft: ‘de wereld verbinden, zodat we mekaar allemaal beter leren kennen en verstaan’.

Nadat een filmpje of foto gerapporteerd is - elke Facebookgebruiker kan dat - heeft de content moderator van Facebook drie keuzes: dit filmpje moet verwijderd worden van Facebook. Of niet. Of krijgt een label: gevoelige inhoud. De video waarin een kind van 9 slachtoffer is van geweld van een volwassen man, krijgt uiteindelijk het laatste label. Gevoelige inhoud. Het verdwijnt niét van Facebook. Het wordt uiteindelijk duizenden keren gedeeld.

Channel 4 dook onder in de wereld van de Facebook content moderators, de mensen die beslissen wat u en ik niet op onze tijdslijn te zien krijgen. Of net wel, al dan niet met een waarschuwing. Eén van die mensen die waken over de inhoud laat zich ontsnappen dat het gaat om een ‘betere gebruikservaring’. Zo een filmpje kan waarschuwend werken, geweld net voorkomen. Maar de uitspraak die vooral overeind blijft is: ‘aan het einde van de dag gaat het om geld verdienen’. Extreme filmpjes trekken likes en clicks en shares aan. Daar gaat het om. Ze triggeren tientallen gebruikers.

Na de hele heisa rond de rol van Facebook in het verspreiden van nepnieuws, besliste Facebook uiteindelijk als één van de vele maatregelen om meer ‘content moderators’ aan te werven, nog meer mensen die toekijken op de inhoud. Maar zoals uit de documentaire zal blijken, kan de opleiding van de moderatoren nog veel beter. Facebook heeft zich daar al voor verontschuldigd en aangegeven dat de kwaliteit van de opleiding ook zal verbeteren.

Het Europese Parlement beslist dezer dagen over onder meer auteursrechten op internet. In de marge komt de Europese commissie met een wet die bedrijven als Facebook, Twitter en Google verplichten extremistische inhoud binnen het uur te verwijderen. Censuur!’, roepen sommigen. Wie beslist wat extreem is en wat niet? Hoe duidelijk sommige gevallen ook zijn, wat voor de ene extreem is, is voor de ander aanvaardbaar. Gedachten en meningen zijn vrij. Wie is de ultieme opperrechter? En mag die er überhaupt zijn? Bij een kind dat mishandeld wordt, lijkt de keuze evident. Maar wanneer worden bijvoorbeeld politieke uitspraken extreem?

Terug naar de moderatoren. Geen robots, of algrotimes. Maar mensen. Mensen zoals u en ik, die ergens achter een computerscherm beslissen wat we zien op Facebook en wat niet. Honderden, duizenden mensen wereldwijd die een individuele verantwoordelijkheid dragen die bij momenten mentaal zo zwaar doorweegt dat mensen er aan dreigen onderdoor te gaan. Dat blijkt uit genoeg anonieme getuigenissen en een andere, aan te raden, documentaire ‘The Cleaners’ (2018). (Deze docu zendt Canvas zondag 16 september om 22u50 uit.) Van kinderporno tot onthoofdingen. Het passeert allemaal de revue.

Daarnaast vraag ik het me wel eens af. Wat krijgen we allemaal niét te zien op Facebook? Welke harde, gewelddadige, mensonwaardige berichten en filmpjes, worden dan wel geweerd van het platform? Facebook connecteert miljarden mensen, maar ik heb niet het gevoel dat ik iedereen beter wil leren kennen.

Tim Verheyden, journalist en specialist sociale media VRT NWS

VRTNU VRTNU VRTNU