Moderador de xarxes, ofici de risc

2 min

Fins a 144 treballadors de Meta a Kenya han denunciat la companyia de Mark Zuckerberg per l’estrès posttraumàtic sever que pateixen, a conseqüència de la seva feina, que consisteix en revisar els vídeos més salvatges que els usuaris intenten publicar a Facebook. Els algoritmes detecten continguts potencialment perillosos, però després hi ha humans que comproven si, efectivament, cal censurar aquelles imatges. Entre les coses a les quals s’enfronten hi ha bestialisme, desmembraments, tortures, assassinats, abusos infantils... Les conseqüències d'haver-se d’enfrontar a un diluvi d'imatges com aquestes al ritme que marca el turbocapitalisme són fàcilment imaginables. N’hi ha que han vomitat allà mateix.

Una persona mirant Facebook en una imatge de recurs.

Sabem que on Facebook fa més esforços de moderació, i de llarg, és en la versió en anglès del seu (diguem-ne) servei. Si resulta que els moderadors kenyans revisen continguts perquè els usuaris americans no es trobin depèn què, tenim una nova forma d’abús globalitzador en què s’explota treballadors que cobren una misèria per feines d’alt risc mental. I, d’altra banda, constatar que existeixen aquests filtres humans desmunta el discurs dels capitostos de les grans xarxes socials, quan intenten fer creure que la moderació és impossible (o poc desitjable). Quan els convé –perquè seria inadmissible topar-se amb pornografia infantil, per exemple–, bé que saben com frenar-ho, ni que sigui amb les còrnies i la pau d’esperit dels altres. No és una qüestió de poder, sinó de voler-ho. I, entenent que una supervisió més profunda comportaria riscos contra la llibertat d’expressió, que realment són reals i greus, si es troba la fórmula equilibrada el resultat serien unes àgores digitals molt menys enverinades de llenguatge d’odi i violència contra les minories.

stats