Per què és tan difícil regular la IA

Una sessió del Parlament Europeu a Estrasburg.
16/03/2024
3 min

La Unió Europea s'ha apressat a regular la intel·ligència artificial (IA) amb la primera normativa al món. El Parlament Europeu va aprovar el reglament el passat 13 de març. Es defineix la IA com un programari que pot "per a un conjunt determinat d'objectius definits per l'ésser humà, generar resultats com ara contingut, prediccions, recomanacions o decisions que influeixen en els entorns amb què interactuen”.

Inscriu-te a la newsletter Pensem Les opinions que et fan pensar, t’agradin o no
Inscriu-t’hi

L’eclosió recent de la IA i les seves aplicacions promet grans millores d’eficiència i d’augment de la productivitat. Així ha estat en el passat amb avenços tecnològics de gran abast com internet o el telèfon intel·ligent. El seu impacte, que no serà immediat, implicarà reestructuracions del sistema productiu que destruiran llocs de treball a la vegada que en generaran de nous. Tanmateix, la IA afectarà la privacitat, els drets del consumidor i la propietat intel·lectual, i amplia les possibilitats d’incrementar la desinformació i les manipulacions. En efecte, es pot fer servir maliciosament per cometre fraus o fabricar “fets alternatius” (altrament dit, mentides). També pot introduir biaixos o eliminar-los segons com hagi estat entrenada. Té implicacions en la política de competència perquè requereix grans inversions, capacitat de computació i acumulació de dades i talent per desenvolupar-la. Això genera grans economies d’escala i tendència a la concentració. No és casualitat que les grans plataformes tecnològiques competeixin fortament per ser-ne les capdavanteres. La concentració de proveïdors d’algorismes, com els de computació en el núvol, pot generar un risc sistèmic perquè la fallida d’un d’ells pot afectar moltes empreses. Aquest problema pot ser particularment greu en el sector bancari.

Hi ha raons, doncs, per regular-la, però això és molt més difícil de fer que de dir. En primer lloc, és problemàtic regular una cosa que no s’entén bé. La IA, i els grans models de llenguatge (LLM) en particular, són opacs. És a dir, fan prediccions i recomanacions, detectant estructures en les dades amb les quals s'han entrenat, però no poden explicar el perquè de la predicció o recomanació. Un problema relacionat és com atribuir responsabilitats quan un sistema d’IA té un mal comportament. En segon lloc, poden patir “al·lucinacions”, inventant-se respostes que sonen bé però que són falses. En tercer lloc, la velocitat del seu desenvolupament fa que tota regulació tingui moltes possibilitats de quedar-se obsoleta l’endemà de ser aprovada. Finalment, la mateixa regulació influirà en el desenvolupament de la IA i podria limitar la innovació. Això seria particularment greu a Europa, on en matèria digital tenim més tendència a regular que a fer. Anem molt per darrere dels EUA i la Xina.

El nou marc regulador de la UE adopta un enfocament basat en el grau de risc de les aplicacions. Des de les aplicacions de risc mínim, com ara els filtres de correu brossa, que no estaran subjectes a obligacions, fins a les d'alt risc com els sistemes d'IA, que poden impactar en la seguretat de les persones o en drets fonamentals. Aquests sistemes hauran de disposar de mecanismes de control de riscos, supervisió humana, alts nivells de robustesa i ciberseguretat, i presentar avaluacions periòdiques d'impacte en la protecció de dades i en els drets fonamentals. En l’extrem hi ha aplicacions prohibides com les que permetin la “puntuació social” o la identificació biomètrica en llocs públics (amb algunes excepcions amb autorització judicial). També s'haurà de garantir que els usuaris sàpiguen si interactuen amb un xatbot. Els proveïdors de models generals d'IA (com ara ChatGPT-3.5 o 4) tindran obligacions addicionals segons la seva capacitat computacional. Es crea l'Oficina de la IA per supervisar el compliment de la normativa (per exemple, amb relació als drets d’autor, qüestió polèmica com mostra la demanda del New York Times a OpenAI). El gran repte d'aquesta normativa estarà en la implementació.

La regulació europea intenta navegar pels possibles conflictes entre privacitat i seguretat, per exemple amb normes que impedeixin explícitament l’accés dels proveïdors a certa informació dels usuaris, o intentant de no ofegar la innovació amb una regulació massa intrusiva. Aquesta opció eximeix de la majoria d'obligacions els sistemes en procés d'investigació i desenvolupament i permet la innovació experimental controlant els riscos i proporcionant seguretat jurídica a les empreses sobre què poden i no poden fer. La mateixa Comissió Europea reconeix que el potencial innovador de la IA és difícil de preveure. És fonamental tenir una normativa que s'adapti a l'evolució de la tecnologia. Com deia el pare de la cibernètica, Nobert Wiener, l'any 1960, per evitar les conseqüències dolentes de l'aprenentatge automàtic, la nostra comprensió de la màquina ha d'evolucionar amb les seves capacitats.

Xavier Vives és economista, professor de l’IESE
stats