¿La IA ens salvarà o crearà virus per matar-nos?

Cèl·lules i intel·ligència artificial.
5 min

Vet aquí una ganga esgarrifosa: gràcies a la intel·ligència artificial, ara és possible desenvolupar un virus capaç de matar milions de persones per menys de 100.000 dòlars.

Inscriu-te a la newsletter Pensem Les opinions que et fan pensar, t’agradin o no
Inscriu-t’hi

Aquesta és la conclusió de Jason Matheny, president de Rand Corp., un think tank que estudia temes de seguretat i altres qüestions.

Com ell mateix diu: “Crear un patogen capaç de matar centenars de milions de persones no costaria més diners que fer-ne un capaç de matar només centenars de milers”.

En canvi, assenyala, produir una nova vacuna o un antiviral per combatre’l podria costar milers de milions de dòlars.

Li vaig explicar a Matheny que jo era el cap de la delegació del New York Times a Tòquio quan una secta religiosa anomenada Aum Shinrikyo perpetrava atemptats terroristes amb armes químiques i biològiques, com ara el del 1995, que va matar 13 persones al metro de la ciutat. “Ara serien capaços de fer molt més mal”, em va contestar.

Soc membre des de fa molt temps de l’Aspen Strategy Group, una organització formada per republicans i demòcrates que analitza problemes de seguretat mundial, i la nostra reunió anual, que ha tingut lloc aquest mes, s’ha centrat en la intel·ligència artificial. I per això hi van assistir Matheny i altres experts, que ens van ficar la por al cos.

A principis de la dècada del 2000 a alguns ens preocupava que la verola es tornés a introduir com a arma biològica si robaven el virus dels laboratoris d’Atlanta i de la regió russa de Novosibirsk, on el conserven des que la malaltia es va erradicar. Però ara, amb la biologia sintètica, ja no caldria robar-lo.

Fa uns anys, un equip d’investigació va crear un parent del virus de la verola, la verola equina, per 100.000 dòlars en només sis mesos, i amb la IA podria ser més fàcil i més barat perfeccionar-lo.

Un dels motius pels quals les armes biològiques no s’han utilitzat gaire és que poden tenir un efecte bumerang. Si Moscou deixés anar un virus a Ucraïna, potser s’estendria a Rússia. Però un general xinès retirat ha plantejat la possibilitat d’una guerra biològica dirigida a races o ètnies concretes (probablement d’una manera imperfecta), cosa que faria les armes biològiques encara molt més útils. D’altra banda, potser seria possible desenvolupar un virus que matés o incapacités una persona en concret, com ara un president o un ambaixador molestos, un cop obtingut el seu l’ADN en un sopar o recepció.

Les conclusions de la investigació sobre possibles atacs ètnics selectius per part de la Xina són informació confidencial, però potser són el motiu que ha portat el departament de Defensa dels Estats Units a dir que, a llarg terme, l’amenaça més important de guerra biològica prové de Pequín.

Però la IA també té un costat més esperançador, esclar. Obre la perspectiva de millorar l’educació, reduir els accidents automobilístics, curar càncers i desenvolupar nous fàrmacs miraculosos.

Un dels beneficis més coneguts és el plegament proteic, que facilita avenços revolucionaris en l’atenció mèdica. Els científics passaven anys o dècades esbrinant la forma de les diferents proteïnes, fins que es va introduir una iniciativa de Google anomenada AlphaFold, capaç de predir aquestes formes en qüestió de minuts. Segons Kent Walker, president d’afers globals de Google: “És el Google Maps de la biologia”.

Des de llavors els científics han utilitzat versions actualitzades d’AlphaFold per elaborar productes farmacèutics, com ara una vacuna contra la malària, un dels pitjors botxins de la humanitat al llarg de la història.

Per tant, no queda clar si la IA ens salvarà o ens matarà abans.

Fa anys que els científics estudien com la IA podria dominar l’art de la guerra, amb drons o robots autònoms programats per trobar i eliminar objectius en un instant. Pot arribar a passar que en una guerra hi hagi robots lluitant contra robots.

Els assassins robòtics no tindran cor en un sentit literal, però no necessàriament hauran de ser brutals. No violaran i potser també serien menys propensos que els soldats humans a la ràbia que porta a les massacres i tortures.

Un dels grans dubtes suscitats per la IA és l’abast i la seqüència temporal de la pèrdua de llocs de treball –de conductors de camions, advocats i potser fins i tot codificadors–, que atiarien el malestar social. Fa una generació, els polítics nord-americans no eren conscients que el comerç amb la Xina costaria llocs de treball a les fàbriques i portaria al creixement espectacular de les morts per desesperació i a l’auge del populisme de dreta. Potser gestionarem millor la disrupció econòmica causada per la IA.

Un dels motius dels meus recels davant de la IA és que, tot i que m’adono que és força prometedora, aquests últims 20 anys ens han recordat la capacitat opressora de la tecnologia. Els smartphones ens van enlluernar –i disculpeu si m’esteu llegint al mòbil–, però hi ha proves que els relacionen amb el deteriorament de la salut mental dels joves. Un assaig aleatori publicat aquest mes ha tret a la llum que uns nens que van deixar de fer servir el mòbil van veure créixer el seu benestar.

Els dictadors s’han beneficiat de les noves tecnologies. Liu Xiaobo, el dissident xinès que va rebre un premi Nobel de la pau, pensava que “internet és un regal de Déu al poble xinès”. Però no va anar així: Liu va morir sota custòdia xinesa i la Xina ha utilitzat la IA per intensificar la vigilància i collar els ciutadans.

La IA també pot ajudar a manipular la gent d’una manera que recorda Orwell. Segons un estudi publicat aquest any, quan el ChatGPT-4 accedeix a informació bàsica sobre les persones amb qui interacciona, té aproximadament un 80% més de probabilitats de convèncer algú que no un humà en possessió de les mateixes dades. El Congrés tenia raó de preocupar-se per la manipulació de l’opinió pública a través de l’algoritme de TikTok.

Tot això subratlla per què és fonamental que els Estats Units mantinguin el lideratge en intel·ligència artificial. Per molt reticents que siguem a prémer l’accelerador, en aquesta competició no podem quedar subcampions darrere de la Xina.

El president Joe Biden n’és conscient, i els límits que va posar a l’accés de la Xina als xips informàtics més avançats ens ajudaran a mantenir el lideratge. L’administració Biden ha reclutat personal de primera categoria procedent del sector privat per estudiar detingudament aquests temes i l’any passat va emetre un important decret sobre la seguretat en matèria d’IA; de tota manera, en el futur també haurem de desenvolupar nous sistemes per millorar la governança.

He escrit sobre imatges i vídeos de nus falsos generats per intel·ligència artificial i sobre la irresponsabilitat tant de les empreses que es dediquen a aquestes falsificacions com dels principals motors de cerca que dirigeixen el trànsit a aquestes webs. A més, les tecnològiques recorren periòdicament a l’exempció de responsabilitats amb l’objectiu de no haver de retre comptes per promoure l’explotació sexual infantil. Res d’això inspira confiança en la capacitat d’aquestes companyies per autocontrolar-se d’una manera responsable.

“No ens hem trobat mai amb una circumstància en què la tecnologia més perillosa i amb més repercussions pertanyi totalment al sector privat”, diu Susan Rice, que va ser l’assessora de seguretat nacional del president Barack Obama. “No pot ser que les tecnològiques de Silicon Valley decideixin sense restriccions el destí de la nostra seguretat nacional i potser el destí del món”.

Crec que és veritat. Gestionar la IA sense asfixiar-la serà un dels nostres grans reptes quan adoptem la tecnologia potser més revolucionària des que Prometeu ens va entregar el foc.

Copyright The New York Times

Nicholas Kristof és periodista, guanyador del premi Pulitzer
stats