Game-enthousiast, tech blogger en presentator. Was ooit rockster. Local celebrity in Limburg maar ziet graag veel van de wereld. Er zijn niet genoeg kattenGIFjes in de wereld.
Sinds Mark Zuckerberg zich stellig heeft voorgenomen om nog dit jaar Facebook te gaan fixen is het bedrijf hard bezig om manieren te verzinnen om die wens ook realiteit te maken. Onderdeel daarvan zijn de veranderingen aan de nieuwsfeed die de nadruk gaat leggen op gebruikers in plaats van merken en nieuwsorganisaties.
Een nieuw onderdeel daarvan zou ook moeten worden dat gebruikers mogen gaan aangeven welke nieuwsorganisaties ze vertrouwen. Dat zou beter werken dan dat Facebook of ‘experts’ het moeten doen, zo zegt het social media kanaal. De bijbehorende uitleg van Zuck klink op het eerste gezicht goed: er is te veel sensatiezucht, misinformatie en polarisatie en daarom moet het nieuws dat op Facebook verschijnt goed zijn.
Objectiviteit
Om dan echter te zeggen dat de gebruikers zelf het objectiefste zouden zijn in het bepalen van welke nieuwsbronnen het meest betrouwbaar zijn is een gekke sprong. Want als Facebook-gebruikers één ding bewezen hebben in de afgelopen twee jaar is dat ze niet goed zijn in het herkennen van nepnieuws en het niet zo belangrijk vinden of iets waar is, als het maar in de lijn van hun persoonlijke geloof ligt.
Om dan nu, nadat iedereen op grote schaal aan het twijfelen is gebracht wie ze überhaupt nog kunnen vertrouwen, de keuze in de schoot van de gebruikers te werpen lijkt geen goed idee. Sterker nog: als je ziet hoe gepolariseerd iedereen lijkt te zijn geworden (zeker in de VS, waar deze strategie het eerste getest is) zou je zeggen dat iedereen gewoon elke organisatie die het ‘juiste’ nieuws brengt als betrouwbaar en informatief aanmerkt. Elke organisatie die neutraal en met enige mate van objectiviteit probeert het nieuws te verslaan heeft dan niet genoeg ‘aanhangers’ om goed uit het algoritme te komen, vermoedelijk.
Ook is niet duidelijk of mensen als onderdeel van deze test ook vragen krijgen over nieuwsbronnen die ze normaal niet bekijken. Het systeem vraagt aan gebruikers van bepaalde nieuwsbronnen of ze bekend zijn bij de gebruikers, of ze het nieuws informatief vinden en of het relevant is voor de lokale gemeenschap van de gebruiker.
Niet waar
Weet je welke vraag er niet bij staat? Of gebruikers denken dat de informatie die de bron doorgaans brengt waar is of blijkt te zijn. Noem me ouderwets, maar het huidige klimaat waarin de waarheid ook maar gewoon een mening is helpt niet mee. Door met vragenlijstjes te werken weet je zeker dat de gemiddelde niet-geïnteresseerde Facebookgebruiker niet weet hoe snel ‘ie dat venster moet wegklikken, zodat alleen het handjevol toch al geëngageerde mensen die Facebook nog niet ontvlucht zijn en de tienduizenden trollen mogen gaan bepalen wat betrouwbaar is. Dat gaat vast goed.
Maar goed, laten we eerst maar eens kijken hoe Facebook die ‘Facebook’s next top news’ gaat afhandelen: misschien is het algoritme wel slim genoeg, werkt het uiteindelijk en wordt het nieuws dat je op Facebook ziet betrouwbaarder. Over een paar weken zal het resultaat van deze test zichtbaar gaan zijn en dan weten we snel genoeg of het heeft gewerkt. Hoe het ook uitpakt: Facebook heeft het in elk geval straks niet gedaan. Dat zijn we dan – zoals dat tegenwoordig de norm is – zelf schuld.
[Afbeeldingen © Photographee.eu – Adobe Stock]
Verder lezen over Facebook
Social Media26.09.2024
Zuckerberg: ‘Social media geen directe invloed op geestelijke gezondheid’
Social Media30.07.2024
Meta opent AI Studio zodat iedereen eigen AI-chatbot kan maken
Online25.07.2024
Meta gaat de strijd aan met Yahoo Boys en sluit duizenden accounts
Social Media22.07.2024
Kun je Facebook wel gratis noemen? De EU vindt van niet
Social Media01.07.2024
Facebook geeft gebruikers onvoldoende kans om van gepersonaliseerde ads af te komen
Krijgt Meta een miljardenboete?Social Media28.05.2024
Zo zorg je dat Instagram en Facebook je foto’s niet gebruiken om AI te trainen
Nieuws15.05.2024
Vijfpunts snelcursus nepnieuws herkennen!
Social Media22.02.2024