Facebook experimenteert met political autocorrect

PALO ALTO – Facebook is een tool aan het ontwikkelen die platte, misogyne of xenofobe standpunten automatisch verandert in een sociaal wenselijk alternatief. 

Facebook wil orde scheppen in de chaos aan uiteenlopende meningen.

De directe aanleiding voor dit proactieve content-beleid vormen de ranzige reacties op de dood van een Belgisch-Turkse jongen bij een aanslag in Istanbul. Die was voor heel wat racisten een aanleiding om ongegeneerd xenofobe commentaren op Facebook te gooien.

Het socialmediabedrijf zit al langer verveeld met het gegeven dat iedereen, ongeacht opleidingsniveau of empathisch vermogen, zomaar om het even wat kan vertellen op hun platform en belooft beterschap. “Facebook wil zich nadrukkelijk profileren als een positieve omgeving, waarin je onbevreesd je laatste aankopen kunt delen met je vrienden, waarin je hardop speculeert over een volgende vakantiebestemming, waarin je kortom, alle verhalen deelt die wij aan onze adverteerders kunnen verkopen”, zei ceo Mark Zuckerberg minder dan een half jaar geleden nog, naar aanleiding van andere racistische incidenten. “Storende, afwijkende meningen, kritiek en gore praat jagen mensen weg en zorgen ervoor dat ze minder tijd op Facebook doorbrengen. Racisme kost ons geld.”

Daarom hebben de software-ontwikkelaars bij Facebook een algoritme ontwikkeld dat al te krasse taal aanpast in een zin waaraan niemand aanstoot kan nemen. Dat gaat heel simpel, volgens Bill Rodham, senior software developer bij Facebook: “Je kent een bepaalde waarde toe aan alle lexicale eenheden in een zin, naargelang de aversie die ze opwekken. Het algoritme kiest dan uit een lijst met synoniemen een sociaal wenselijker alternatief. Zo wordt de controversiële uitspraak [Dood aan alle negers] in een handomdraai [Dood aan alle Afrikanen], wat veel minder aanstootgevend is.”

‘Bruin apen’

Wij namen de proef op de som en de resultaten zijn verbluffend. Een zin als [’t is altijd hetzelfde met die bruin apen] verandert, terwijl je hem aan het typen bent, in [er zijn ook goeie bij]. Facebook past [die wil ik ook wel eens droog in de kakker naaien] voor je erg in hebt aan tot [je nieuwe vriendin heeft een erg leuk snoetje, buddy!]. [t is altijd de schuld van de sossen] wordt zonder probleem [Topgrafiek van N-VA!].

Dankzij de ingebouwde AI (artificiële intelligentie, nvdr.) leert het algoritme ook constant bij wat politiek correct is en wat niet. “Normen en waarden over wat politiek correct is veranderen heel snel”, aldus socialmedia-expert Katleen Gabriels. “Wat vijf jaar geleden nog als humanisme, common sense en elementaire beleefdheid gold, wordt nu reeds door heel veel mensen als politiek correct bestempeld. Het algoritme van Facebook houdt daar rekening mee, zodat Political Autocorrect niet nodeloos aan een beschavingsnorm vasthoudt die op termijn hopeloos gedateerd is.”

De tool, die zich momenteel nog in de betafase bevindt, wordt binnenkort uitgerold over het hele netwerk. Op termijn wil Facebook ook een autocorrect-algoritme ontwikkelen om het groeiende probleem van fake news [gewoon op zijn beloop te laten].

Laat een reactie achter