Els avenços tecnològics en el camp de la vigilància de persones, i la manca de control amb què s'implementen, ja fa temps que preocupen als experts. Però ha sigut arran de la pandèmia que s'ha detectat un augment en l'ús d'aquestes tecnologies, tant per part dels estats com dels privats. Així ho recull un informe, publicat per l’Observatori de Drets Humans i Empreses al Mediterrani, l’European Network of Corporate Observatories, el Multinationals Observatory i la cooperativa Shoal, i que és part d'un conjunt d'estudis que analitzen la situació d'altres països, com ara França o la Gran Bretanya.
En el cas espanyol se citen casos com l'ús de drons per part de la policia per fer tasques de vigilància, l'augment exponencial de la instal·lació de càmeres de seguretat (sobretot al centre de Madrid) i la compra per part d'empreses privades, com ara supermercats, de programes de reconeixement facial capaços de reconèixer el rostre de lladres fitxats fins i tot amb mascareta. També se cita el cas d'espionatge que va patir al seu mòbil l'expresident del Parlament Roger Torrent amb el programa Pegasus, dissenyat per una firma israeliana.
Aquest cas concret és un delicte flagrant, però en d'altres és tan evident per què no hi ha una normativa clara. No se sap, per exemple, que se'n fa de les gravacions dels drons de la policia. És imprescindible trobar un equilibri entre la seguretat, que és un valor important, i el dret a la intimitat i a no ser enregistrat sense permís. Cada cop més les grans ciutats corren el risc de convertir-se en una mena de platós on tota la nostra vida quedarà, des del moment en què sortim de casa, enregistrada. I no estem parlant de les dades que oferim de forma més o menys voluntària a les grans companyies de xarxes socials (Facebook, Google, etc), sinó de la nostra pròpia imatge.
On sí que hi ha més dubtes és en l'ús de tecnologies, a través d'algoritmes, que juguen a anticipar el comportament de persones. Se sap que hi ha empreses que venen programes que, posem per cas, avisen la policia quan detecten una persona que té un aspecte determinat o fa moviments que es poden interpretar com a hostils. Imaginem el cas d'un local on s'han produït dos robatoris amb la coincidència que els dos lladres anaven vestits de vermell. Doncs hi ha el perill, perquè els algoritmes de la intel·ligència artificial funcionen així, que l'alarma es dispari cada cop que entri una persona vestida d'aquest color. I ara imaginem que a això s'hi afegeix el perfil ètnic. El risc de vincular perfils ètnics amb delinqüència convertiria en sospitosos milions d'innocents de la nit al dia.
Com a societat necessitem obrir un debat sobre els límits que cal posar a aquests dispositius que ja fan possible, per exemple a la Xina, la distopia del Gran Germà imaginada per George Orwell: un estat totpoderós que ho sap tot de nosaltres perquè aplica la tècnica del reconeixement facial a gran escala. La Unió Europea s'ha de convertir en un fortí dels drets individuals i posar límits a aquestes pràctiques.