Jordi Vallverdú: “Els robots faran grans meravelles i grans bestieses”
Igual que hi ha la bioètica, hi ha la roboètica, una nova branca del coneixement que s’ocupa dels canvis (sense eufemismes, dels perills) del desenvolupament de la intel·ligència artificial. ¿Els robots ens deixaran sense feina o, de fet, això només serà el primer pas per esdevenir els nous reis de la creació? ¿O això són fantasies apreses al 2001 de Kubrick? En roboètica treballa el professor de la UAB Jordi Vallverdú Segura, especialista en filosofia de la ciència i de la computació, intel·ligència artificial i robòtica. Una persona de verb torrencial, entenedor, punyent i divertit, com es veu al capítol Interessos de la web de la UAB: “L’amor per Johann Sebastian Bach, John Coltrane, Djivan Gasparian i la poesia japonesa en forma de haiku acompanyen aquest investigador en les seves recerques. I gaudeix amb el fet de compartir la vida (que no el lavabo) amb la seva companya i els seus tres fills”. Vallverdú va seure al costat del també filòsof Daniel Gamper en l’obertura dels Diàlegs de Pedralbes 2021, que organitzen l’Ajuntament de Barcelona i l’ARA. Aquesta entrevista recull alguns dels moments més interessants de la conversa.
Quina quantitat d’emocions humanes transferirem als robots?
— Aquesta és la qüestió. Hi ha un joc, el joc de l’ultimàtum, que consisteix en la idea que tu tens 100 euros i els has de repartir entre dues persones d’acord amb una regla molt senzilla: només ens repartirem els diners si ens posem d’acord en què ens correspon a cada un, i el que fa la proposta no pot dir “me’n quedo 100 i a tu no et dono res”. I el que vam veure és que en les poblacions occidentals, si la proposta no s’aproxima a la forquilla 40%-60%, l’altre mai accepta.
Perquè no li sembla just.
— Exacte. Però aquesta resposta és cultural. En certs llocs de l’Àsia, l’Àfrica o Sud-amèrica, hi havia gent capaç d’acceptar un repartiment de 99 a 1, perquè si tu entres al joc amb zero euros i en surts amb un, ja hi has guanyat. A nosaltres, en canvi, ens pot l’orgull: “Si només me n’enduc 1 i ell se n’endú 99, m’està prenent el pèl, de manera que aquí no hi ha diners per a ningú i ens fotem tots”. Això és important perquè quan fem que les màquines aprenguin dels humans, de quin humà aprendran? D’un americà o d’un asiàtic? No aprendran d’Einstein, sinó d’una persona normal i corrent, que t’aixeques i no dius el mateix abans del cafè que després del cafè, o si t’ha deixat la parella o t’han apujat el sou.
Si la màquina fa com la persona i canvia d’opinió molt sovint, no tindrà un criteri.
— O arribarà a la conclusió que s’ha de canviar d’opinió molt sovint. Això va passar amb un sistema d’intel·ligència artificial de Microsoft que aprenia a través de Twitter. Què va passar? Que en 24 hores la van haver de tancar perquè de seguida va començar a fer comentaris racistes.
I aquí entreu els filòsofs.
— Quan vaig començar a fer coses de filosofia de computació, anava a un congrés i érem quatre gats, el típic contingent de gent rara, dins els rars de la filosofia, que ens deixaven dir alguna bestiesa més. En poc temps ha canviat molt, perquè ara ja tenim robots que poden anar pel carrer. De fet, els cotxes ja podrien fer moltes més coses ells solets. Per què no les fan? Perquè encara no tenim clars molts reptes de tipus ètic i legal. Hi haurà cotxes automàtics que mataran gent sense voler. I, com diu el professor Daniel Gamper, el problema és que programarem el cotxe perquè prengui una decisió quan, en realitat, el conductor que vol evitar un accident ¿en aquella fracció de segon pren una decisió del tot racional o fa el que pot?
I què creu que li farem fer, a la màquina?
— Al MIT van preguntar a milions de persones: “Si tu fossis un cotxe, com reaccionaries?” I van veure que hi ha patrons culturals: les respostes eren diferents per països. Als italians els semblava lògic salvar abans les mares o les àvies que no pas els nens petits. El problema que tenim els de la roboètica és que hem d’introduir en un programa d’ordinador codis ètics humans que no sempre són coherents. Mireu els jutges, com interpreten les lleis. Si persones molt informades dissenteixen entre elles, què podem esperar dels robots? El dret no funciona amb lògica matemàtica, i la màquina no té tants matisos. Ara, no sé si ho veurem els d’aquesta sala, però segur que hi haurà robots que seran persones no humanes.
¿“Persones no humanes” no és una contradicció en el terme mateix?
— A nivell legal, no. El 2015 una jutgessa argentina va determinar que un orangutan femella tenia estatus de persona no humana, no era un humà però tenia drets com una persona. I el 2017 un robot que es diu Sophia Hansom Robotics, hominoide inspirat en l’estructura fisiològica d’una dona, va obtenir la ciutadania de l’Aràbia Saudita. I, si quan em moro ho puc deixar tot als gossos, doncs també al meu robot. Al Japó hi ha cementiris per a robots; cementiris, no dipòsits.
Llavors, si la màquina et diu “no vull escombrar més, que estic cansat”, què fas? Perquè se suposa que l’has comprat perquè no es cansa.
— Aquí hi ha el tema, què passarà si els robots arriben a ser prou complexos per tenir personalitat. Ara es comença a parlar de robòtica sexual, de manera que ja deixa de ser una parafília una mica rara. Per això, l’antropòloga Katherine Richardson diu que s’està generant una nova esclavitud sexual, estem passant uns rols de dominació d’un lloc a un altre. En canvi, Sergi Santos, un enginyer català que ha fet un robot sexual, diu que se’n pot programar un perquè no sempre accedeixi a fer sexe. Però ¿tu et gastaràs 15.000 euros en un robot que et digui que avui no, que té mal de cap?
Quanta gent s’haurà de posar d’acord per programar aquests robots? Filòsofs, advocats, científics?
— La societat sencera. El país que té més robòtica és el Japó, per dues raons: perquè és una potència industrial (tot i que els xinesos els atraparan en breu) i perquè té una societat molt restrictiva amb la immigració i de natalitat baixa. Què succeeix? Que tenen més ancians que ningú, que s’estan tot el dia sols. Solució? Robots. Gran part de la robòtica social té a veure amb la cura, que és allò que ens fa humans. Perquè els ancians ens cansen, però el robot repeteix tant com calgui.
Això en el cas d’un robot bo. Serem tan soques que programarem les màquines perquè ens puguin atacar?
— Sí, esclar, tindrem robots militars molt intel·ligents capaços de matar gent. Però és que les màquines ja saben enganyar-te. Uns investigadors japonesos van fer una màquina que jugava a pedra, paper o tisora i sempre guanya, perquè té un sistema motriu molt ràpid que permet saber què faràs tu i anticipar-se. Fa veure que juga amb tu en condicions normals, però en realitat té una capacitat enorme de predir el teu moviment corporal a través de les càmeres que porta incorporades. Facebook o Instagram et fan creure que tu hi vas a mirar les notícies i, de fet, mires les que ells volen i quan els dona la gana.
Tornant a la persona no humana malvada...
— Ja hi ha hagut un vaixell militar nord-americà totalment autònom, que no està armat perquè no volen, que ha travessat el canal de Panamà tot sol. I hi ha avions de combat que podran fer més coses de les que feien els humans, perquè el tipus de forces gravitatòries que pot suportar el nostre cos és limitat. Acabaran descobrint formes més creatives de matar gent. Per desgràcia, els humans ja ho hem fet: a Mauthausen es va fer un concurs entre empreses per saber com havien de ser les dutxes, els forns... Vas allà i veus el forn crematori, amb el logo de l’empresa, i dius: “Això són màquines industrialitzades per matar gent, i ho hem fet les persones”. Transferirem coneixements als robots Abu Ghraib i Beethoven, i si els robots aprenen de nosaltres i no ens autocontrolem, podran fer grans meravelles i grans bestieses.
Llavors, millor tenir robots que siguin imperfectes, com nosaltres?
— Aquí l’has encertat: per què els humans som especials? Perquè som imperfectes. Igual que un nen i el moment de començar a caminar, que es basa en anar-se equivocant, ara això s’està fent amb els sistemes d’intel·ligència artificial que s’apliquen després als robots. Que aprenguin a base d’equivocar-se.
¿Els robots sabran que formen part d’un col·lectiu? ¿Seran conscients que nosaltres els hem programat?
— El problema de la consciència és molt complicat perquè no sabem què és. Sabem que és un element funcional per prendre decisions, però la major part de coses que fem cada dia no les fem conscientment. Nosaltres tenim consciència en funció del cos que tenim i de com ho projectem a nivell social, de les eines simbòliques que tenim. Quan els espanyols van arribar a Amèrica, van fer un concili religiós al cap d’un temps per decidir si aquells individus eren persones o no, i és quan Bartolomé de las Casas va dir “home, jo crec que sí”.
Els robots tindran sentiments?
— Avui en dia les màquines no senten res. Poden fer veure que les toques i fan “ai!”, però és teatre. Ara, arribaran a sentir? Si augmentem la complexitat de sistemes en nombre de sensors, sí. Seran emocions com les nostres? No, si no tenen un cos exactament com el nostre.
¿Hi ha algú que estigui fent la reflexió del valor d’una educació humanista als enginyers?
— Estrictament no, perquè tots treballem segmentats per empreses, projectes... Ara, a mesura que els enginyers intenten fer coses més complexes, s’adonen que necessiten la filosofia, perquè si diuen “aquesta màquina de percebre”, han de preguntar-se “què és percebre?” També et dic que les persones que s’han interessat més per la robòtica social són dones. No dic que les dones estiguin més ben dissenyades, això és una altra cançó de l’heteropatriarcat. És mentida que les dones siguin més sociables, el que passa és que les han obligat a fer certes coses.
Aleshores, què fa diferent una persona d’una altra?
— A part de la biologia bàsica, és l’estructura neuronal la que fa que tu t’interessis per una cosa i l’altre per una altra. Això és el que fa que hi hagi gent per a tot. Jo no aspiro a robots que siguin grans matemàtics, perquè ja en tenim. Per què no robots que escriguin les poesies que mai cap ésser humà ha pogut escriure, o les obres musicals que ningú ha pogut pensar perquè no li ha passat pel cap combinar això amb allò?
[Pregunta al públic] Després de les explicacions del professor Vallverdú, qui se’n va més content i qui se’n va més amoïnat de cara al futur? [Guanyen els amoïnats]
— Hi ha moltes incerteses, i falta de confiança en l’espècie humana. El problema dels robots som nosaltres, els humans. Si aneu al Japó i a Corea del Sud és al contrari. Tenen una visió optimista, hi ha enginyers que han escrit sobre la natura divina dels robots perquè el budisme i el sintoisme permeten aquesta combinació, i hi ha robots que són considerats monjos. Jo m’he dedicat als robots perquè volia entendre les persones, i fent màquines t’adones del que no sabem de les persones, que és tot.