La IA ha piratejat el sistema operatiu humà
Les pors davant la intel·ligència artificial (IA) persegueixen la humanitat des del començament de l’era de la informàtica. Fins ara aquestes pors se centraven en les màquines que utilitzaven mitjans físics per matar, esclavitzar o substituir persones. Però al llarg dels últims dos anys han sorgit noves eines d’IA que amenacen la supervivència de la civilització humana en un sentit inesperat. La IA ha incorporat unes habilitats extraordinàries per manipular i generar llenguatge, ja sigui amb paraules, sons o imatges. D’aquesta manera, ha piratejat el sistema operatiu de la nostra civilització.
El llenguatge és el material de què està feta gairebé tota la cultura humana. Els drets humans, per exemple, no estan gravats en el nostre ADN. Si de cas, són artefactes culturals que hem creat explicant històries i escrivint lleis. Els déus no són realitats físiques. Si de cas, són artefactes culturals que hem creat inventant mites i escrivint textos sagrats.
Els diners també són un artefacte cultural. Els bitllets són només trossos de paper de colors i, avui dia, més del 90% dels diners no són ni tan sols bitllets, sinó només informació digital continguda en ordinadors. El que dona valor als diners són les històries que ens expliquen els banquers, els ministres d’Economia i els gurus de la criptomoneda. Sam Bankman-Fried, Elizabeth Holmes i Bernie Madoff no eren especialment bons a l’hora de crear un valor real, però tots eren uns narradors d’històries extremadament capaços.
Què pot passar tan bon punt una intel·ligència no humana sigui millor que un ésser humà mitjà a l’hora d’explicar històries, compondre melodies, dibuixar imatges i redactar lleis i escriptures? Quan la gent pensa en el ChatGPT i altres noves eines d’IA, sovint l’atreuen exemples com el dels nens que utilitzen la IA per escriure els treballs de l’escola. Què passarà amb el sistema escolar quan els nens facin això? Però amb aquest tipus de preguntes ens passa per alt el quadre general de la situació. Oblidem-nos dels treballs escolars. Pensem en la propera carrera presidencial nord-americana el 2024 i intentem imaginar-nos l’impacte de les eines d’IA que es poden dedicar a produir contingut polític en massa, notícies falses i textos per a nous cultes.
En els últims anys el culte QAnon s’ha congriat al voltant de missatges anònims per internet, coneguts com a gotes Q. Els seguidors recollien, veneraven i interpretaven aquestes gotes Q com un text sagrat. Tot i que, pel que sabem, totes les gotes Q anteriors eren elaborades per humans i els bots només ajudaven a difondre-les, en el futur podríem veure els primers cultes de la història basats en textos escrits per una intel·ligència no humana. Al llarg de la història les religions han assegurat que els seus llibres sagrats provenen d’una font no humana. Aviat això podria fer-se realitat.
Dit de manera més prosaica, aviat podríem trobar-nos que mantenim llargs debats per internet sobre l’avortament, el canvi climàtic o la invasió russa d’Ucraïna amb entitats que creiem que són humanes, però que de fet són IA. La trampa és que és totalment inútil que intentem canviar les afirmacions d’un bot d’IA, mentre que la IA pot perfeccionar els seus missatges amb tanta precisió que té moltes probabilitats d’influir en nosaltres.
A través del domini del llenguatge, la IA fins i tot podria establir relacions íntimes amb la gent i utilitzar el poder d’aquest vincle per canviar les nostres opinions i visions del món. Tot i que no hi ha cap indici que la IA tingui cap mena de consciència o sentiments propis, per propiciar una falsa intimitat amb els humans n’hi ha prou que la IA pugui establir-hi un vincle emocional. El juny del 2022 Blake Lemoine, un enginyer de Google, va afirmar públicament que el xatbot LaMDA d’IA, en el qual treballava, havia esdevingut “sensible”. Aquesta polèmica afirmació li va costar la feina. El més interessant d’aquest episodi no va ser l’afirmació del senyor Lemoine, que probablement era falsa. Més aviat, va ser la seva voluntat d’arriscar la seva lucrativa feina pel bé del xatbot d’IA. Si la IA pot influir en algú perquè arrisqui la seva feina per ella, què més li podria induir a fer? En una batalla política per conquerir la ment i el cor de la gent, la intimitat és l’arma més eficaç, i la IA acaba d’adquirir la capacitat de produir en massa relacions íntimes amb milions de persones. Tots sabem que durant l’última dècada les xarxes socials s’han convertit en un camp de batalla per controlar l’atenció dels humans. Amb la nova generació d’IA, el front de batalla està passant de l’atenció a la intimitat. Què passarà amb la societat i la psicologia humanes quan la IA s’enfronti a la IA en una batalla per fingir relacions íntimes amb nosaltres, que després es poden utilitzar per convence’ns que votem determinats polítics o comprem determinats productes?
Encara que no creessin una “falsa intimitat”, les noves eines d’IA tindrien una immensa influència en les nostres opinions i visions del món. La gent podria arribar a utilitzar un assessor d’IA com a únic oracle infal·lible. No és estrany que Google estigui espantat. Per què m’he de molestar a fer cerques quan puc preguntar-ho a l’oracle i ja està? Els sectors de les notícies i de la publicitat també haurien d’estar espantats. Quin sentit té que llegeixi un diari quan només cal que demani a l’oracle que em digui quines són les últimes notícies? I de què serveixen els anuncis, quan només cal que demani a l’oracle que em digui què he de comprar?
I ni tan sols aquests escenaris acaben de reflectir del tot el quadre general. Estem parlant del possible final de la història humana. No pas el final de la història: només el final de la part dominada pels humans. La història és la interacció entre biologia i cultura; entre les nostres necessitats biològiques i desitjos de coses com el menjar i el sexe, i les nostres creacions culturals com les religions i les lleis. La història és el procés mitjançant el qual les lleis i les religions configuren les formes d’alimentació i el sexe.
Què passarà amb el curs de la història quan la IA domini el camp de la cultura i comenci a produir relats, melodies, lleis i religions? Eines anteriors com la impremta i la ràdio han ajudat a difondre les idees culturals dels humans, però no han creat mai noves idees culturals pròpies. La IA és radicalment diferent. La IA pot crear idees completament noves, una cultura completament nova. Al principi, la IA probablement imitarà els models humans a partir dels quals s’ha format durant la infància. Però a mesura que passin els anys, la cultura de la IA anirà sense miraments allà on cap humà hagi anat mai. Al llarg de mil·lennis, els éssers humans han viscut dins dels somnis d’altres humans. En les properes dècades ens podríem trobar que visquéssim dins dels somnis d’una intel·ligència aliena.
Només fa algunes dècades que la por a la IA ronda la humanitat. Però durant milers d’anys els humans han tingut una por molt més profunda. Sempre hem entès el poder de les històries i les imatges per manipular la nostra ment i per crear il·lusions. En conseqüència, des de l’antiguitat els humans han tingut por de quedar atrapats en un món d’il·lusions.
Al segle XVII René Descartes temia que un geni maligne l’hagués atrapat dins d’un món d’il·lusions i hagués creat tot el que veia i sentia. A l’antiga Grècia Plató va explicar la famosa al·legoria de la caverna, en què un grup de persones estan encadenades dins d’una caverna tota la vida, davant d’una paret en blanc. Una pantalla. En aquesta pantalla hi veuen projectades diverses ombres. Les persones confonen les il·lusions que hi veuen amb la realitat.
A l’antiga Índia, els savis budistes i hindús van assenyalar que tots els humans vivien atrapats dins de la maya, el món de les il·lusions. El que normalment prenem com a realitat sovint són només ficcions que tenim al cap. La gent pot fer la guerra, matar altres persones i estar disposada a morir per la seva creença en aquesta o aquella il·lusió.
La revolució de la IA ens encara amb el geni maligne de Descartes, amb la caverna de Plató, amb la maya. Si no anem amb compte, podríem quedar atrapats darrere d’una cortina d’il·lusions que no podrem enretirar, ni tan sols adonar-nos que hi és.
Per descomptat, el nou poder de la IA també es podria utilitzar amb bones finalitats. No entraré en detalls sobre això, perquè les persones que desenvolupen la IA ja en parlen prou. La feina dels historiadors i els filòsofs com jo és assenyalar els perills. Però, sens dubte, la IA ens pot ajudar de moltes maneres, des de trobar noves cures per al càncer fins a descobrir solucions per a la crisi ecològica. La qüestió és assegurar-nos que les noves eines d’IA s’utilitzen en sentit positiu i no en un sentit negatiu. Per aconseguir-ho, primer hem de fer-nos el càrrec de quines són les capacitats reals d’aquestes eines.
Des del 1945 sabem que la tecnologia nuclear pot generar energia barata en benefici dels humans, però també pot destruir físicament la civilització humana. Per tant, hem remodelat tot l’ordre internacional per protegir la humanitat i per assegurar-nos que la tecnologia nuclear s’utilitzi principalment en sentit positiu. Ara hem de lluitar amb una nova arma de destrucció massiva que pot aniquilar el nostre món mental i social.
Encara podem regular les noves eines de la IA, però hem d’actuar ràpidament. Mentre que les bombes atòmiques no poden inventar bombes atòmiques més potents, la IA sí que pot fer créixer la potència de la IA de manera exponencial. El primer pas decisiu és exigir controls de seguretat rigorosos abans que les potents eines de la IA es llancin al domini públic. De la mateixa manera que una empresa farmacèutica no pot llançar al mercat nous fàrmacs abans de provar els seus efectes secundaris tant a curt com a llarg termini, les empreses tecnològiques no haurien de llançar noves eines d’IA abans que s’hagi comprovat que són segures. Necessitem l’equivalent d’una Agència de Salut Pública per a les noves tecnologies, i la necessitem per ahir.
¿Pot ser que el fet d’alentir el desplegament públic de la IA faci que les democràcies quedin endarrerides respecte a règims autoritaris més despietats? Ben al contrari. Els desplegaments d’IA no regulats crearien un caos social que beneficiaria els autòcrates i arruïnaria les democràcies. La democràcia és una conversa, i les converses es basen en el llenguatge. Quan la IA s’apoderi del llenguatge, podrà destruir la nostra capacitat de tenir converses significatives i, per tant, podrà destruir la democràcia.
Acabem de trobar una intel·ligència aliena a nosaltres, aquí a la Terra. No en sabem gaires coses, excepte que podria destruir la nostra civilització. Hem d’aturar el desplegament irresponsable d’eines d’IA a l’esfera pública i regular la IA abans que ens reguli ella a nosaltres. I la primera mesura que suggeriria és fer obligatori que la IA reveli que ho és. El fet que pugui mantenir una conversa amb algú que no sé si és un humà o és IA representa el final de la democràcia.
Aquest text ha sigut generat per un ésser humà.
O no?