Intel·ligència artificial

"Un robot amb una consciència com la humana podria curar el càncer"

El desenvolupament de la màquines autoconscients planteja una sèrie d’interrogants difícils, però podria esdevenir la pròxima gran fita de la humanitat

Un grup de robots humanoides
Intel·ligència artificial
Oliver Whang, The New York Times
13/01/2023
7 min

Hod Lipson, enginyer mecànic i director del Laboratori de Màquines Creatives de la Universitat de Colúmbia, ha dedicat la major part de la seva trajectòria al que molts dels que treballen al sector han batejat juganerament en anglès com la c-word (la paraula que comença amb ce), un recurs habitual de l’anglès per no esmentar mots tabú. “Aquest tema era tabú –comenta–. Gairebé teníem prohibit parlar-ne: «No parlis de la paraula que comença amb ce o no et donaran plaça de titular». Per això, al principi havia de dissimular fent veure que era una altra cosa”.

Això era l’any 2000, quan el doctor. Lipson era professor sense plaça a la Universitat Cornell. Treballava en el desenvolupament de màquines capaces de detectar problemes en el seu propi maquinari (una peça malmesa o cables defectuosos) i canviar el seu comportament per compensar la disfunció sense la intervenció d’un programador que les orientés. Com el gos que perd una cama en un accident, aquestes màquines havien de poder reaprendre a caminar d’una altra manera.

Robots adaptables i conscients

Aquesta mena d’adaptabilitat intrínseca, sostenia el Dr. Lipson, aniria cobrant més importància a mesura que les màquines assumissin més tasques. Es feien servir robots per a intervencions quirúrgiques, la fabricació d’aliments i el transport. Les aplicacions de les màquines semblaven pràcticament infinites i, a mesura que s’anaven integrant a les nostres vides, qualsevol error en el seu funcionament podia tenir conseqüències desastroses. “Literalment, posarem la nostra vida en mans d’un robot –adverteix el Lipson–. Aquestes màquines han de ser resilients”.

Una manera d’aconseguir-ho passava per inspirar-se en la natura. Els animals –i els éssers humans en particular– són bons a l’hora d’adaptar-se als canvis. Aquesta capacitat podria ser producte de milions d’anys d’evolució, atès que la resiliència com a resposta a una ferida o als canvis del medi, per norma general, incrementa les probabilitats de l’animal de sobreviure i reproduir-se. Lipson es plantejava si podria traslladar aquesta mena de selecció natural al llenguatge informàtic creant una mena d’intel·ligència generalitzable capaç d’aprendre sobre el seu propi cos i funcionar amb independència de com fos el cos i de la seva funció.

Aquest tipus d’intel·ligència, si fos possible crear-la, seria ràpida i flexible. Seria tan capaç com els humans en les situacions complicades, fins i tot millor. A mesura que l’aprenentatge automàtic guanyava potència, aquest objectiu semblava més assolible. Lipson va aconseguir una plaça de titular a la universitat i la seva fama d’enginyer creatiu i ambiciós va créixer. I, els últims anys, ha començat a expressar sense embuts la motivació fonamental que l’empenyia a fer tota aquella feina. Ha començat a pronunciar alt i clar la paraula que comença amb ce: vol crear robots conscients.

“No treballem en una pregunta de recerca com qualsevol altra. Aquesta és la pregunta per antonomàsia –comenta–. És més gran que curar el càncer. Si aconseguim crear una màquina que tingui una consciència equiparable a la humana, eclipsarà qualsevol altra cosa que s’hagi fet. La mateixa màquina podrà curar el càncer”.

L’esmunyedissa consciència

La primera dificultat a l’hora d’estudiar la consciència dels robots és que no hi ha consens sobre el que realment designa aquest terme. És semblant al que passa amb molts conceptes vagues, com ara llibertat, sentit, amor i existència. Sovint, però, s’entén que aquest àmbit està reservat als filòsofs, i no pas als enginyers. Hi ha qui ha mirat d’elaborar una taxonomia de la consciència, reduint-la a funcions del cervell o a algunes substàncies més metafísiques, però aquests esforços difícilment resulten concloents i plantegen més interrogants. Fins i tot una de les descripcions del que es coneix com a consciència fenomènica, que gaudeix d’una acceptació més general (un organisme té consciència “si hi ha alguna cosa que sigui com ser aquell organisme”, en paraules del filòsof Thomas Nagel), pot resultar poc clara.

En qualsevol cas, mirar de dotar els robots d’un concepte tan esmunyedís com la consciència a partir d’aportacions i funcions tractables és una tasca difícil, si no impossible. La majoria d’enginyers i experts en robòtica tendeixen a saltar-se la filosofia i fixar les seves pròpies definicions funcionals. Thomas Sheridan, professor emèrit d’enginyeria mecànica de l’Institut Tecnològic de Massachusetts, ha afirmat que creu que es pot reduir la consciència a un cert procés i que, com més coses sapiguem del cervell, menys difús semblarà el concepte. “El que, en un primer moment, era misteriós i en certa manera religiós, acaba sent ciència clara i objectiva”.

Lipson i els membres del Laboratori de Màquines Creatives s’inscriuen en aquesta tradició. “Necessito una cosa totalment fabricable, eixuta, sense misteri, només cargols i femelles”, diu. L’enginyer ha establert un criteri pràctic per definir la consciència: la capacitat d’imaginar-se a un mateix en el futur.

Segons Lipson, la diferència fonamental entre diversos tipus de consciència (la consciència humana, la dels pops i la de les rates, per exemple) rau en com de lluny en el futur és capaç d’imaginar-se a si mateix un ens. La consciència existeix en un continu. En un extrem hi ha un organisme que té una certa noció d’on es troba en el món, una certa autoconsciència primitiva. Més enllà, hi ha la capacitat d’imaginar on es trobarà el propi cos en el futur i, en un punt més avançat, hi ha la capacitat d’imaginar-se el que es podria arribar a imaginar. “Així doncs, eventualment, aquestes màquines arribaran a poder entendre què són i què pensen –vaticina el Dr. Lipson–. Això dona peu a emocions i a altres coses”. De moment, afegeix, n’estan fent "la versió d’escarabat de cuina”.

L’avantatge de posicionar-se en relació amb una teoria funcional de la consciència és que això possibilita el progrés tecnològic.

Un "jo nebulós"

Fa poc, els doctors Chen i Lipson van publicar un article a la revista Science Robotics en què van presentar públicament la seva última màquina autoconscient, un braç senzill amb dues articulacions fixat a una taula. Gràcies a càmeres instal·lades al seu voltant, el robot s’observava a si mateix mentre es movia, “com un nadó en un bressol que observa la seva imatge al mirall”, compara el Dr. Lipson. En un primer moment, no tenia cap noció d’on es trobava en l’espai, però al cap d’unes quantes hores, amb l’ajut d’un potent algoritme d’aprenentatge profund i un model de probabilitat, va ser capaç de destriar-se a si mateix del món. “Té una certa noció de jo, una nebulosa”, explica Lipson.

Ara bé, es pot considerar que sigui veritablement conscient?

El risc de comprometre’s amb alguna teoria de la consciència és que, al fer-ho, s’obre la possibilitat de rebre crítiques. L’autoconsciència sembla important, sense cap mena de dubte, però ¿que potser no hi ha altres característiques clau de la consciència? ¿Podem afirmar que un ens és conscient si a nosaltres ens fa l’efecte que no ho és?

Antonio Chella, expert en robòtica de la Universitat de Palerm, creu que no hi pot haver consciència sense llenguatge i s’ha dedicat a desenvolupar robots capaços de generar monòlegs interns que es plantegen raonaments a si mateixos i reflexionen sobre les coses que veuen al seu voltant. Recentment, un dels seus robots va poder reconèixer-se a si mateix en un mirall, superant el que probablement és la prova més famosa d’autoconsciència animal.

L’estiu passat, un enginyer de Google va assegurar que el nou robot de conversa perfeccionat de l’empresa, anomenat LaMDA, tenia consciència i mereixia que li dispensessin el mateix tracte que a un infant. Aquesta afirmació va generar escepticisme, principalment perquè, com assenyala el Dr. Lipson, el robot de conversa processava “un codi que està escrit per acomplir una tasca”. No hi ha una estructura subjacent de consciència, han dit altres investigadors, només una il·lusió de consciència. Lipson afegeix: “El robot no era autoconscient. És una mica com fer trampes”.

Però, amb tant de desacord, qui pot dir què compta com fer trampes?

La llibertat del robot

Eric Schwitzgebel, professor de filosofia de la Universitat de Califòrnia (campus de Riverside) que ha escrit sobre la consciència artificial, afirma que el problema d’aquesta incertesa general és que, atès el ritme al qual avancen les coses, és probable que la humanitat acabi desenvolupant un robot que moltes persones considerin conscient abans d’arribar a un acord sobre quins criteris determinen la consciència. Quan això sigui una realitat, se li hauran de concedir drets al robot? I llibertat? Se l’haurà de programar per sentir-se feliç quan ens serveixi? Se li permetrà expressar el seu parer? Votar?

Aquesta mena de qüestionaments han alimentat un subgènere de la ciència-ficció, amb llibres com els d’Isaac Asimov i Kazuo Ishiguro, i sèries televisives com ara Westworld i Black mirror.

Les qüestions relatives a la denominada considerabilitat moral són claus per al debat sobre els drets dels animals. Si un animal sent dolor, ¿és immoral causar-li la mort per la seva carn? Si els animals no experimenten les coses de la mateixa manera que els éssers humans, ¿podem concloure que és lícit utilitzar-los per al nostre benefici? Sembla que el fet que un animal posseeixi certes capacitats de la consciència sovint implica que tingui o no certs drets, però no hi ha consens sobre quines són les capacitats que compten.

Robots que importen (o no)

Davant d’aquesta incertesa, Schwitzgebel s’ha mostrat partidari del que anomena una “política de disseny d’exclusió del mig”. La idea és que només hauríem de crear màquines que suscitin un acord total sobre el fet que no importen moralment o que sí que ho fan. Qualsevol cosa que es trobi en la zona gris de la consciència i la rellevància moral és susceptible de provocar danys greus des d’una o altra perspectiva.

Robert Long, filòsof de l’Institut Futur per a la Humanitat de la Universitat d’Oxford, està a favor d'aquesta cautela. Explica que el desenvolupament de la intel·ligència artificial en grans laboratoris de recerca i empreses li va causar la sensació de “precipitació cap a un futur ple de tota mena de problemes desconeguts i enutjosos per als quals no estem preparats”. Un de famós és la possibilitat de crear màquines superintel·ligents capaces d’anihilar la població humana. El desenvolupament de robots percebuts de manera general com a conscients complicaria encara més la possibilitat d'afrontar aquests riscos. “Preferiria viure en un món on les coses avancessin a un ritme molt més lent i es pensés molt més sobre el que s’incorpora a aquestes màquines”, manifesta Long.

Ara bé, l’inconvenient de la cautela és que frena el desenvolupament tecnològic. Schwitzgebel i Long admeten que aquest enfocament més prudent podria impedir el desenvolupament d’una intel·ligència artificial més resilient i útil. Als científics que treballen al laboratori, aquests plantejaments teòrics els poden resultar massa abstractes i frustrants.

“Crec que no ens acostem a aquest risc”, comenta Chella quan se li pregunta sobre els perills de crear robots amb capacitats de consciència semblants a les dels humans. El Dr. Lipson assenyala: “M’amoïna, però em fa l’efecte que els beneficis superen els riscos. Si anem pel camí d’utilitzar cada cop més la tecnologia, haurà de ser més resilient”. I afegeix: “I després hi ha l’hibris de voler crear vida. És el repte suprem, com viatjar a la Lluna”. Però molt més impressionant, puntualitza tot seguit.

Copyright: The New York Times / Traducció d'Ignasi Vancells
stats