No se'ns pot sotmetre a la IA

El Parlament Europeu / EFE
16/06/2023
3 min

Per implantar solucions tecnològiques de forma massiva (i sovint abusiva), se sol utilitzar l’argument de la lliure elecció: cadascú és lliure d'escollir si les utilitza o no. L'argument a vegades inclús s'utilitza en l’accés als serveis i a l'administració. És evident que en la majoria dels casos l’acceptació dels termes i condicions d’ús no constitueix un consentiment voluntari sinó una obligació o una exclusió; és un tipus de coacció.

Inscriu-te a la newsletter Pensem Les opinions que et fan pensar, t’agradin o no
Inscriu-t’hi

Aquesta setmana s'ha debatut i votat al Parlament Europeu un document que tindrà impacte sobre la vida de tothom: l'AiAct, la legislació sobre intel·ligència artificial (IA).

La IA pot portar molts beneficis a les nostres vides, però és necessari que es reguli amb els drets humans com a centre. Aquí volem aportar elements sobre un aspecte en particular: com aprofitar la legislació sobre IA per revertir la tendència en la llibertat d'elecció contractual que moltes vegades se'ns nega.

Fonamentada en l’autonomia de la voluntat, en teoria la llibertat contractual forma part de la llibertat d’elecció, ja que no només implica decidir si es contracta o no, sinó també sobre la “configuració interna” del contracte: les parts amb qui es contracta, el tipus de contracte, les condicions concretes, etc.

En els casos dels "contractes d’adhesió", com ara els termes i condicions d'aplicatius, la possibilitat de configurar es veu eliminada. Una part imposa les seves condicions. Una de les característiques d'aquest tipus de contracte és “l'estat de necessitat” dels usuaris, per la qual cosa es parla de "deshumanització contractual". Això no passa només en àmbit digital, sinó també en altres àmbits, com en els casos dels crèdits bancaris, per exemple.

Els dark patterns. Des d'una perspectiva neurocientífica àmpliament estudiada per investigadors de referència com ara Antonio Damasio, la presa de decisions en el nostre cervell està assistida d’un dispositiu que restringeix el nombre de possibles decisions a unes poques i més manejables: l’avaluació es constreny entre el dolor i la satisfacció a curt i a llarg terminis, ja que la presa de decisions està travessada per condicionants de context.

Els anomenats dark patterns són dissenys d'interfície d'usuari i de protocols digitals que aprofiten aquests biaixos cognitius inconscients per conduir deliberadament la persona usuària cap a una acció –com el consentiment–, privant-la de la seva llibertat d’elecció. Es tracta de configuracions predeterminades, processos confusos, el ressaltat de certes parts i l'ocultació d’altres, recompenses i càstigs o accions forçades. El dissenyador d'experiències d'usuari Harry Brignull va encunyar el neologisme el 2010 amb el registre de Darkpatterns.org, una recopilació per avergonyir les empreses que els fan servir. "Els dark patterns suplanten el valor per a l’usuari a favor del valor per a l’accionista".

Així doncs, el model contractual en l'àmbit digital no ajuda a superar el desequilibri de poder ja existent. A conseqüència de la influència de les grans plataformes, els termes i condicions s’estan convertint en una legislació privatitzada, aplicada fins i tot en l'administració.

Hi ha una diferència evident entre un proveïdor de serveis qualsevol, que té dret a decidir si pot o no pot donar un servei en unes certes condicions o en unes altres, i serveis estructurals indispensables i fins i tot institucions. És fal·laç parlar de contracte davant d'una situació de monopoli que imposa les condicions com a actes unilaterals i reglamentaris. Els drets de les persones passen perquè es garanteixi que el consentiment als contractes es doni de forma lliure i conscient, i perquè quan aquest consentiment és fruit de la coacció o l'engany es pugui declarar com a viciat. Els instruments legals existeixen. No és, doncs, un problema de legislació, sinó de manca de voluntat institucional perquè es produeixin canvis d'implementació.

La bona notícia és que la societat civil que hem estat lluitant aquests anys per revertir la situació en l'àmbit digital, amb l'Artificial Intelligence Act hem aconseguit diversos avenços per corregir aquesta tendència. Bàsicament, la lluita consisteix en dir que no, no se'ns pot sotmetre a la IA perquè sí. Hem de continuar vigilant el desenvolupament legislatiu perquè la IA sigui l'eina democratitzadora que pot ser i no una eina de poder perillosa en mans d'uns pocs. Aquests dies i les negociacions successives seran decisius. Restem atents.

Article elaborat en col·laboració amb Miriam Carles i Gavius EU Urban Innovative Actions.

Simona Levi és coordinadora de Xnet (Institut per a la Digitalització Democràtica), dramaturga i activista
stats