Zelenski esnifant cocaïna: les ‘deep fakes’ que més preocupen Europa
Espanya i Itàlia són les societats més exposades a les falsificacions a les xarxes socials per la manca d'inversió i regulació
BarcelonaEn un vídeo compartit milions de vegades hi apareix un Volodímir Zelenski esnifant cocaïna durant un esdeveniment públic. Malgrat que l'aparença i la veu podrien ser les del president ucraïnès, a simple vista es pot veure que es tracta d’unes imatges alterades. Aquestes falsificacions profundes, o deep fakes, són generades per intel·ligència artificial, i han estat molt presents des de l'inici de la guerra amb Rússia. Exemples similars es poden trobar fàcilment als canals de Telegram o TikTok, amb un fals Zelenski amb droga damunt de la taula. En un altre vídeo, la seva cara apareix amb pols blanca sota el nas.
"Com que som criatures visuals, allò que veiem configura el que pensem, percebem i creiem. D'aquesta manera, els deep fakes són una manera ideal, i la més recent, perquè actors externs creïn divisions en les democràcies europees", explica Victor Madeira, periodista i expert en contraespionatge i desinformació russa. I és que la majoria d'exemples d'aquest tipus semblen promoure els interessos del Kremlin, malgrat que també n'hi ha que responen a visions esbiaixades de Rússia.
Altres vídeos, sovint compartits per perfils vinculats a l'extrema dreta i al moviment antivacunes, mostren el president Biden en biquini, el president Putin ballant o, fins i tot, una versió embriagada o drogada de Zelenski. Tot i que la tecnologia actual encara no és prou sofisticada per enganyar completament el públic, ja que la veu sovint no és natural i no se sincronitza adequadament amb el moviment de la boca, aquests vídeos s'estan utilitzant per parodiar figures públiques i crear confusió.
Segons Madeira, "l'objectiu és trencar la confiança dels ciutadans occidentals entre ells, en les seves institucions i tradicions i en els seus líders electes". Els avenços en intel·ligència artificial generativa han despertat inquietuds sobre la capacitat de la tecnologia per crear i difondre desinformació a una escala sense precedents. "Ja existeixen eines per produir deep fakes amb indicacions escrites", adverteix Jutta Jahnel, investigadora i experta en intel·ligència artificial de l’Institut Tecnològic de Karlsruhe, a Alemanya. "Cada vegada serà menys costós i més fàcil crear-ne de més i més realistes".
L'erosió democràtica i la intel·ligència artificial
Hi ha moltes falsificacions barates, o cheap fakes, perquè la producció de falsificacions profundes d'alta qualitat a gran escala encara no és possible, assegura Cristian Vaccari, catedràtic de comunicació política i expert en desinformació. "Quan vaig veure els vídeos vaig pensar que eren graciosos perquè no eren bons", comenta. No obstant això, en un futur immediat serà possible inundar els espais cibernètics amb deep fakes, adverteix el catedràtic. Tal com suggereix l'Agència de la Unió Europea per a la Ciberseguretat (ENISA), quan la intel·ligència artificial millori i les manipulacions profundes siguin cada cop més realistes, els agents de la desinformació deixaran d'utilitzar la paròdia i els cheap fakes per començar a qüestionar la veritat.
Segons Vaccari, "els deep fakes per si mateixos són especialment perillosos", sobretot si s'estenen prou. La gent pot acabar dubtant sobre si la imatge que han rebut al mòbil és autèntica o no. "Com més s'estengui el discurs de la comunicació falsa, més gent començarà a caure en el cinisme", apunta.
Els avenços tecnològics en intel·ligència artificial es produeixen alhora que la Unió Europea descriu, a través de l'informe anual d'ENISA, un enfocament múltiple de Rússia i la Xina per intentar controlar les narratives, especialment en la guerra amb Ucraïna. En aquesta mateixa anàlisi, l'organisme europeu adverteix d'operacions de desinformació coordinades, principalment a través de grups de Telegram.
"En una guerra hi ha molta polarització, i la motivació per contaminar la informació creix exponencialment", explica Erika Magonara, experta d'ENISA. Per poder acabar amb la desinformació no n'hi ha prou amb centrar-se en la intel·ligència artificial, i afegeix que "és important conèixer la motivació de l'atacant i el seu objectiu". En molts casos, en les operacions de pirateria i filtració de dades, el blanc no és l'organització sinó la societat civil, ja que "construeixen una narrativa en què el govern no és prou poderós", adverteix Magonara.
Per a Vaccari, "en una guerra és encara més crucial tenir institucions sòlides i, al mateix temps, és el moment en què és més fàcil soscavar-les". En aquest marc, la preocupació més gran és la contínua erosió de la confiança, sigui en els mitjans de comunicació o en les mateixes institucions. "Per a mi aquest és el principal risc: ¿acabarem en un entorn cínic, de confiança zero, on tot és fals?", qüestiona l'expert.
Espanya i Itàlia lideren el rànquing
Dels 27 països de la UE, Itàlia i Espanya són on més s'utilitza Telegram. El 27% i 23% de la població, respectivament, fan servir aquesta xarxa per informar-se, segons l'enquesta de l'Eurobaròmetre de l'any passat sobre mitjans de comunicació. Tal com explica Madeira, la desinformació russa s'adapta a cada país o regió, i l'interès en els estats mediterranis té a veure amb la història, la cultura i la mentalitat. A més, "aquests països tenen fama de ser poc estrictes, també en qüestions de seguretat", explica.
Una de les principals causes per les quals la desinformació, com per exemple els deep fakes, arriba a la ciutadania és per falta d'inversió i incentius de les xarxes socials en la regulació i mediació de contingut fals. Concretament, les societats europees més exposades a la desinformació són Itàlia i Espanya, segons l'estudi publicat per l'ONG Avaaz.
Tal com explica Luca Nicotra, director de campanyes d'aquesta organització, "si estàs a Itàlia o a Espanya tens el doble de risc de trobar-te amb contingut nociu que en un país de parla anglesa". "Les xarxes socials només detecten la meitat de les publicacions falses perquè tenen pocs incentius per invertir en altres idiomes".
Les xarxes socials són molt poc transparents en la seva política contra la desinformació. Per això, la UE ha impulsat diverses lleis sobre la regulació de continguts. Un codi de bones pràctiques estableix un marc de cooperació europea entre les plataformes tecnològiques i les institucions. A més, aquest mes ha entrat en vigor la llei de serveis digitals, que estableix la normativa dels continguts il·legals en línia i la responsabilitat en la seva difusió.
La llei més recent és la que posa el focus en la intel·ligència artificial, que va ser aprovada en primera instància abans de l'estiu. Una de les mesures que recull és la d'etiquetar la desinformació per contrarestar-ne l'eficàcia. "Introdueix obligacions i requisits graduals segons el nivell de risc, per tal de limitar els impactes negatius sobre la salut, la seguretat i els drets fonamentals", explica l'europarlamentari Brando Benifei. "Si acceptes els deep fakes a la teva plataforma, ets responsable d'aquest contingut. També ho ets dels riscos estructurals perquè estàs fent d'amplificador d'aquesta desinformació", argumenta Dragos Tudorache, també europarlamentari i co-relator de la llei.
Aquesta investigació ha comptat amb el suport d'una subvenció del fons IJ4EU