Com determinar si la intel·ligència artificial té consciència
Un grup de científics planteja en un informe una llista de qualitats mesurables que podrien indicar si una màquina és conscient, però de moment cap de les existents ho és
Algun cop heu conversat amb una persona que “s’interessa per la consciència”? Com va ser la conversa? Va fer un gest vague en l’aire amb totes dues mans? Va fer referència a Tao Te Txing o a Jean-Paul Sartre? Va dir que, al capdavall, els científics no poden tenir cap certesa i que la realitat només és real en la mesura que la percebem com a tal?
La vaguetat de la consciència i la seva imprecisió n’han convertit l’estudi en un anatema en l’àmbit de les ciències naturals. Almenys fins fa poc, es tractava d’un projecte que es deixava eminentment en mans dels filòsofs, que sovint només resultaven marginalment millors que el comú dels mortals a l’hora de fer llum sobre el seu objecte d’estudi.
Hod Lipson, especialista en robòtica de la Universitat de Colúmbia, explica que, en anglès, molts experts d’aquest camp es refereixen sorneguerament a la consciència com “la paraula que comença amb c”, un recurs de l’anglès per evitar mencionar mots tabús o grollers. Grace Lindsay, neurocientífica de la Universitat de Nova York, assenyala: “Hi havia la idea que no podies estudiar la consciència fins que tinguessis una plaça de professor titular”.
Ciència nova de trinca
Tanmateix, fa unes setmanes, un grup de filòsofs, neurocientífics i informàtics entre els quals hi ha la Dra. Lindsay va proposar un barem amb el qual determinar si un sistema d’intel·ligència artificial com el ChatGPT es pot considerar conscient. L’informe, que explora el que la Dra. Lindsay denomina la ciència “nova de trinca” de la consciència, aplega elements de mitja dotzena de teories empíriques incipients i presenta una llista de qualitats mesurables que podrien indicar la presència d’una certa presència –valgui la redundància– en una màquina.
La teoria del processament recurrent, a tall d’exemple, se centra en les diferències entre la percepció conscient (posem per cas, examinar activament una poma que tens al davant) i la percepció inconscient (com ara el fet de copsar una poma que, volant, se’t dirigeix contra la cara).
Els neurocientífics sostenen que percebem les coses de manera inconscient quan els nervis dels nostres ulls transmeten senyals elèctrics al còrtex visual primari i, a continuació, a les parts més profundes del cervell, com si fossin un testimoni que un grup de nervis lliura a un altre. Segons sembla, aquestes percepcions esdevenen conscients quan el testimoni es transmet en sentit invers, des de les parts més profundes del cervell cap al còrtex visual primari, generant un bucle d’activitat.
Una altra teoria fa referència a les seccions del cervell especialitzades que emprem per acomplir tasques concretes. La part que troba l’equilibri quan et sostens damunt d’un pal pogo, amb tot el pes concentrat a la part superior del cos, és diferent de la part que contempla un paisatge vast i obert. Si bé som capaços d’aplegar tota aquesta informació (pots saltar en un pal pogo mentre gaudeixes d’unes bones vistes), només ens en sortim fins a un cert punt (ens resulta difícil).
Així doncs, els neurocientífics han plantejat l’existència d’un “espai de treball global” que permet controlar i coordinar a què parem atenció, què recordem i, fins i tot, què percebem. La nostra consciència podria sorgir d’aquest espai de treball integrat i canviant.
D’altra banda, però, també podria fer-ho de la capacitat de ser conscients de la nostra pròpia consciència, de crear models virtuals del món, de predir les experiències futures i d’ubicar el propi cos en l’espai. L’informe sosté que qualsevol d’aquestes característiques podria, potencialment, ser una part essencial del que implica tenir consciència. Doncs bé, si aconseguim detectar aquests trets en una màquina, tal vegada podríem considerar que té consciència.
La caixa negra
Una de les dificultats d’aquest enfocament és que els sistemes d’intel·ligència artificial més avançats són les xarxes neuronals profundes que “aprenen” a fer coses totes soles d’una manera que no sempre resulta interpretable pels humans. Podem desentranyar certa informació sobre la seva estructura interna, però només de manera limitada, almenys de moment. Vet aquí el problema de la caixa negra de la intel·ligència artificial. Així doncs, encara que disposéssim d’un barem exacte i exhaustiu per definir la consciència, es faria difícil aplicar-lo a les màquines que fem servir en la nostra vida quotidiana.
A més, els autors de l’informe publicat recentment assenyalen d’entrada que el seu llistat dels elements constitutius de la consciència no és definitiu. S’han basat en el “funcionalisme computacional”, segons el qual la consciència es redueix a fragments d’informació que van i venen, transmesos al si d’un sistema, com les boles de les màquines del joc del milió. En principi, segons aquest plantejament, una màquina del joc del milió podria tenir consciència si la fessin molt més complexa –potser en tal cas deixaria de ser una màquina del joc del milió, però això ja són figues d’un altre paner.
Ara bé, altres han plantejat teories que prenen les nostres característiques biològiques o físiques i el nostre context social o cultural com a elements fonamentals de la consciència. Es fa difícil imaginar com es podrien codificar aquests elements per integrar-los en una màquina.
A més, fins i tot per als investigadors que a grans trets combreguen amb el funcionalisme computacional, cap de les teories existents sembla suficient per explicar la consciència. “Perquè qualsevol de les conclusions de l’informe tingui valor, cal que les teories siguin correctes –adverteix la Dra. Lindsay–. I no ho són”. "Potser és el millor que ho podem fer de moment", afegeix.
El caliu de l'experiència conscient
Al cap i a la fi, ¿que potser podem considerar que alguna d’aquestes característiques o totes elles combinades comprenen el que William James va anomenar el “caliu” de l’experiència conscient? O, en paraules de Thomas Nagel, “com és” ser tu? Hi ha una bretxa que separa els mitjans científics que ens permeten mesurar l’experiència subjectiva i la pròpia experiència subjectiva. És el que David Chalmers ha batejat com el “problema difícil” de la consciència. Encara que un sistema d’intel·ligència artificial estigui dotat de processament recurrent, un espai de treball global i percepció de la seva pròpia ubicació física, què passa si encara li manca allò que fa que experimenti les sensacions lligades a una experiència?
Quan plantejo aquesta buidor a Robert Long, filòsof del Centre de Seguretat en matèria d’intel·ligència artificial que ha dirigit l’elaboració de l’informe, contesta: “Aquesta sensació és una cosa que passa cada cop que mires d’explicar científicament o de reduir a processos físics un concepte d’alta volada”.
El cert és que hi ha molt en joc, perquè els avenços en intel·ligència artificial i aprenentatge automàtic es produeixen a un ritme que supera la nostra capacitat d’explicar el que succeeix. El 2022, l’enginyer de Google Blake Lemoine va assegurar que el bot de conversa LaMDA de l’empresa tenia consciència (malgrat que la majoria d’experts hi discrepen). Amb la integració creixent de la intel·ligència artificial generativa en la nostra vida, el tema podria esdevenir més polèmic.
El Dr. Long afirma que hem de començar a pronunciar-nos sobre què pot tenir consciència i lamenta la manera “vaga i sensacionalista” com s’ha abordat aquesta qüestió, en molts casos confonent l’experiència subjectiva amb la intel·ligència general o la racionalitat. “És un problema que afrontem en aquests moments i els pròxims anys”, comenta. Com diu Megan Peters, neurocientífica de la Universitat de Califòrnia (campus d’Irvine) i coautora de l’informe: “El fet que hi hagi algú allà dins o no, és molt determinant de cara al tracte que li dispensem”.
Només sabem que som conscients
Aquesta mena de recerca ja es duu a terme amb animals. Abans d’emetre la més bàsica afirmació sobre el fet que altres espècies tinguin experiències semblants a les nostres o almenys que ens resultin comprensibles, cal estudiar amb deteniment els casos. El procés pot ser semblant a una activitat domèstica divertida: disparar fletxes empíriques a dianes de forma canviant des de plataformes mòbils amb arcs que, de tant en tant, resulten ser espaguetis. De vegades, però, l’encertem. Com escriu Peter Godfrey-Smith al seu llibre Metazoa, probablement els cefalòpodes tenen una experiència subjectiva sòlida però categòricament diferent de la dels humans. Els pops tenen uns 40 milions de neurones a cada braç. Com experimenten el món?
Per resoldre aquest problema, el de les altres ments, recorrem a una sèrie d’observacions, inferències i experiments –tant organitzats com no organitzats–. Parlem, toquem, juguem, elucubrem, punxem, controlem, passem per raigs X i disseccionem, però, en darrer terme, continuem sense saber què ens fa conscients. Només sabem que en som.