L'activitat més perillosa a internet

Una dona consulta el seu telèfon mòbil al Mobile World Congress de Barcelona.
18/05/2023
6 min

Enguany Facebook i Twitter han permès que es difongués a les seves plataformes el vídeo d’una xerrada en què Michael J. Knowles, un analista polític de dretes, demanava l’erradicació del “transgenerisme”. La Coalició d’Acció Política Conservadora (CPAC, per les seves sigles en anglès), organitzadora de la xerrada, afirmava en publicacions a les xarxes socials de promoció del vídeo que tractava sobre “la temptativa de l’esquerra d’esborrar les dones biològiques de la societat moderna”.

Inscriu-te a la newsletter Pensem Les opinions que et fan pensar, t’agradin o no
Inscriu-t’hi

Les plataformes tecnològiques no van censurar cap d’aquests comportaments perquè ni Knowles ni la CPAC no van infringir les seves normes en matèria de discurs de l’odi, que prohibeixen els atacs directes contra les persones pel fet de ser qui són. Tot i així, permetent que s'utilitzessin les seves plataformes per difondre aquesta mena de discurs, els dos gegants de les xarxes socials incorrien en un comportament que potser ens hauria d’amoïnar encara més: atiar la por a un col·lectiu marginat.

Després de descobrir que la primera cosa que fan els usuaris en una nova xarxa social és proferir-se insults, quasi totes les plataformes tecnològiques han elaborat normes exhaustives i minucioses que prohibeixen el discurs de l’odi. La Unió Europea fins i tot supervisa la celeritat amb què les tecnològiques suprimeixen les expressions d’odi.

Ara bé, els líders que pretenen fer esclatar la violència instrumentalitzen la por encara més que l’odi. Per descomptat que l’odi també sol formar part de l’equació, però la por és gairebé sempre l’ingredient clau en situacions en què la població sent que ha de passar a l’atac per defensar-se.

Entendre la diferència entre el discurs de la por i el de l’odi és determinant en un moment en què col·lectivament busquem maneres de governar les plataformes d’internet d’abast mundial. La majoria de tecnològiques no suprimeixen afirmacions falses i que sembren la por com ara “Antifa ve a envair la vostra ciutat” o “Els vostres enemics polítics són pedòfils que venen a abusar dels vostres fills”. Tanmateix, tolerant la difusió de mentides com aquestes, les plataformes permeten que el tipus més perillós de discurs impregni el conjunt de la societat.

Susan Benesch, directora executiva del Dangerous Speech Project, assenyala que els dirigents genocides sovint recorren a la por a una amenaça imminent per incitar els col·lectius a exercir la violència de manera preventiva. Els autors dels actes violents no tenen per què odiar les persones a qui ataquen. N’hi ha prou que tinguin por de les conseqüències de no atacar-les.

A tall d’exemple, abans del genocidi de Ruanda del 1994, alguns polítics hutus van dir a aquesta comunitat que els tutsis estaven a punt d’exterminar-los. Durant l’Holocaust, els propagandistes nazis van fer córrer que els jueus planejaven l’anihilació del poble alemany. Abans del genocidi de Bòsnia, es va advertir als serbis que es protegissin de l’amenaça del fonamentalisme islàmic, que preparava un genocidi contra ells.

“Vaig quedar parada per la semblança retòrica de tots aquests casos”, em va comentar Benesch en una entrevista per al mitjà The Markup. “És com si hi hagués una escola espantosa a la qual van tots”. Al seu parer, l’element clau dels discursos perillosos és que convencen “la gent de percebre altres membres d’un grup com una amenaça terrible, per la qual cosa la violència sembla acceptable, necessària o fins i tot virtuosa”.

El discurs de la por és molt menys estudiat que el de l’odi. El 2021 un equip d’investigadors de l’Institut Tecnològic de l’Índia i l’Institut Tecnològic de Massachusetts va publicar el primer macroestudi quantitatiu del discurs de la por.

Després d’analitzar dos milions de missatges de WhatsApp de grups de xat de l’Índia, van constatar que als sistemes automàtics els resultava extraordinàriament difícil detectar el discurs de la por perquè no sempre conté les paraules despectives que solen caracteritzar el discurs de l’odi. “Vam observar que moltes [publicacions] es basen en informació incorrecta des del punt de vista fàctic amb la qual es pretén confondre el lector”, escriuen els autors de l’estudi, Punyajoy Saha, Binny Mathew, Kiran Garimella i Animesh Mukherjee (Garimella ha passat de l’Institut Tecnològic de Massachusetts a la Universitat Rutgers després de la publicació de l’article científic). Sovint cal recórrer al judici humà per diferenciar els temors falsos dels reals. Però, en molts casos, les plataformes tecnològiques no dediquen prou temps ni adquireixen prou coneixements locals per investigar totes les pors que s’hi expressen.

Enguany tres dels autors i un nou col·laborador, Narla Komal Kalyan, han dut a terme un nou estudi en què comparen el discurs de la por i el de l’odi a la xarxa social de dreta Gab. La “naturalesa no tòxica i argumentativa” del discurs de la por suscita més mobilització que el discurs de l’odi, han constatat.

Elon Musk, propietari de Twitter, en una imatge d'arxiu.

¿Com ens podem vacunar contra el discurs de la por a les xarxes socials, que és susceptible d’incitar a la violència? El primer que cal fer és identificar-lo i reconèixer-lo com la tàctica cínica que és. Les plataformes tecnològiques haurien d’invertir en més personal dedicat a verificar, contextualitzar i posar el contrapunt a les publicacions falses que sembren el temor.

Un altre plantejament passa per reduir la dependència de les xarxes socials dels algoritmes de maximització de la interacció, dissenyats per mantenir els usuaris connectats a la plataforma el màxim de temps possible. Aquests algoritmes acaben amplificant el contingut ofensiu i divisori. La Unió Europea ja està actuant en aquest sentit: exigeix a les grans plataformes d’internet que ofereixin als usuaris almenys un algoritme alternatiu.

Ravi Iyer, que va treballar al mateix equip que Frances Haugen, que va denunciar abusos de Facebook, és actualment director executiu de l’Institut de Psicologia de la Tecnologia. L’Institut, que forma part del Centre Neely de l’Escola de Negocis Marshall de la Universitat del Sud de Califòrnia, estudia els usos potencials de la tecnologia en benefici de la salut mental. En un esborrany d’article publicat el mes passat, Iyer, Jonathan Stray i Helena Puig Larrauri plantegen que les plataformes poden reduir els conflictes destructius rebaixant la importància que assignen a certs indicadors que promouen la interacció dels usuaris.

Això podria implicar que, per a temes que generen debats acalorats, les plataformes no impulsessin automàticament les publicacions que obtinguin bons resultats en indicadors de la interacció habituals, com ara el nombre de comentaris, de comparticions i el temps dedicat a cada publicació. Al capdavall, aquests indicadors no impliquen necessàriament que la publicació hagi agradat a l’usuari. Podria ser que els usuaris interactuïn amb el contingut perquè el trobin inacceptable o considerin que crida l’atenció i prou.

Com a alternativa, els investigadors proposen que els algoritmes de les xarxes socials donin protagonisme a publicacions sobre les quals els usuaris hagin indicat explícitament que els semblen valuoses.

Facebook ha adoptat discretament aquest plantejament en relació amb el contingut polític. Al mes d’abril, l’empresa va afirmar que “continuava apartant-se de la priorització basada en les interaccions” i que, per als usuaris, havia optat per donar més pes a “assabentar-se de què és informatiu, mereixedor del seu temps o transcendent”.

El canvi de Facebook podria ser un dels motius pels quals el discurs de Knowles va obtenir moltes menys visualitzacions en aquesta xarxa social que a Twitter, que no ha introduït aquesta modificació als algoritmes.

Al cap i a la fi, però, el que ens salvarà no seran pas els algoritmes. Si bé poden restar protagonisme al discurs de la por, no el poden pas fer desaparèixer. Nosaltres, els usuaris de les plataformes, podem contribuir a afrontar el discurs de la por a través de discursos alternatius que el contrarestin, en què els líders i els espectadors responguin de manera negativa a les incitacions basades en la por. La funció d’aquests discursos de resposta no és necessàriament canviar el parer dels partidaris convençuts, sinó proporcionar un relat alternatiu als qui observen des dels marges.

L’humor pot ser una bona defensa: el 2012, a Kènia, un programa televisiu molt seguit, Vioja Mahakamani, va posar a prova una estratègia de vacunació. Els seus personatges es reien dels esforços dels líders comunitaris per associar els diversos col·lectius amb estereotips. Doncs bé, els teleespectadors del programa enquestats en grups focals es van mostrar més escèptics amb els polítics que exalten la por a fi d’incitar a la violència.

Combatre la por no serà fàcil. Però tal vegada és la tasca més important que podem acomplir per evitar que la ira a internet provoqui violència en la vida real. 

Copyright The New York Times

Julia Angwin és periodista d'investigació
stats