Karina Gibert: "Calen referents quotidians de tecnòlogues, una nena no se sent gaire atreta per Marie Curie"
Enginyera i doctora en informàtica
Karina Gibert és de Figueres i és experta en extreure coneixement de les dades. ¿Com va afectar el confinament les persones en situació de vulnerabilitat social? ¿Quan ha de decidir obrir o tancar una vàlvula un operari d’un centre de depuració d’aigües residuals? A partir de les dades, Gibert construeix sistemes d’intel·ligència artificial per respondre a preguntes com aquestes. És catedràtica de la Universitat Politècnica de Catalunya (UPC) i dirigeix el centre Intelligent Data Science and Artificial Intelligence (IDEAI) de la mateixa universitat. A més, és vicedegana del Col·legi d’Enginyeria Informàtica, del qual presideix la comissió de dones.
Si aquests dies heu vist uns mapes a les estacions i als trens de Ferrocarrils de la Generalitat en què els noms de les estacions se substitueixen per noms d’enginyeres informàtiques catalanes (amb un codi QR que condueix a una petita fitxa de cadascuna), heu de saber que és obra seva. El projecte Ei! Puja al tren del futur pretén, en paraules de Gibert, "cridar l’atenció sobre la professió, explicar què fan aquestes dones i que les nenes s’inspirin, perquè molta gent pensa que ser enginyera informàtica és ser asocial i estar tot el dia tancada en un búnquer programant". "En aquesta campanya —continua— tenim la directora dels sistemes informàtics del Port de Barcelona, expertes en smart cities, en ciberseguretat, en salut, etc.; hi ha totes les versions de la professió".
Quan va començar la seva carrera professional, ¿vostè era una raresa?
— Quan vaig decidir estudiar informàtica, a Figueres ningú sabia què anava a fer. I em vaig trobar que la major part dels meus companys eren nois, però no estàvem tan malament com ara. En aquell moment érem un 30% de noies, que és poc, però fa quatre o cinc anys eren només un 7%.
O sigui que la situació ha empitjorat?
— El percentatge va baixar de manera molt preocupant, fins al punt que la facultat d’informàtica va crear un deganat de gènere per veure què es podia fer perquè les nenes es tornessin a apuntar. I ara fem moltes coses. La UPC té el programa Aquí STEAM, que porta dones de la universitat a les escoles perquè les nenes s’hi emmirallin i s’inspirin. Des de la facultat i el col·legi fem moltes accions de sensibilització i de pedagogia de la professió, i també per visibilitzar les dones enginyeres informàtiques amb l’objectiu que hi hagi referents quotidians; una nena petita no es vol assemblar a Marie Curie. Treballem molt en això i estem contentes, perquè a la facultat d’informàtica fa uns anys hi havia un 7% de nenes, després vam pujar al 9%, més endavant al 14% i ara estem al 20%.
Creu que hi ha discriminació de gènere en aquest camp?
— Sí, esclar, perquè sempre que ets una minoria dins d’un sistema hi surts perdent. Jo m’he passat molts anys sent l’única dona. I no hi ha hagut mai ningú al meu equip que hagi compartit la meva visió de les coses. La part femenina que em dona una determinada visió només la tenia jo. I llavors jugues un paper de dissident. Tu tens una visió complementària i moltes vegades et trobes que no es recull. Ets l’única que la representes i es veu més com una dissidència que com un complement. I això té moltes conseqüències: impacta en la teva promoció professional, en el valor del que fas i en el reconeixement que reps.
N’hi ha prou amb no ser minoria perquè desaparegui la discriminació?
— L’ideal és aconseguir equips diversos on, a més d’haver-hi un nombre relativament paritari de dones, també hi hagi altres visions, perquè moltes vegades els biaixos també són de raça, de classe social o d’edat. Però a part d’això, crec que és molt important que homes i dones estiguin formats en gènere. Perquè la gent, sobretot els homes, fa coses sense adonar-se que tenen un impacte en l’àmbit del gènere. I, sovint, les dones que reben aquesta acció no són capaces de detectar que es tracta d’un tema de gènere. Pateixen el problema, però no saben fer-hi res perquè no el col·loquen bé.
Posi’n algun exemple.
— Quan envies una delegació a negociar alguna cosa, has de recordar que a l’equip negociador hi hagi les dues visions. Quan estàs en una reunió, has de vigilar que el temps que ocupen els discursos dels homes i les dones estigui equilibrat. Però això t’ho han d’haver explicat. T’han d’haver explicat que si ningú fa res, espontàniament les dones no demanen tant la paraula, que quan la demanen, ningú es fixa gaire en el que diuen i que, quan al cap de deu minuts un senyor diu el mateix, tothom l’aplaudeix. Tot això són tics que la persona que condueix les reunions ha de saber reconèixer i corregir.
Moltes vegades es parla de la tecnologia com una solució a aquestes discriminacions perquè es veu com una eina neutra, però en realitat molts sistemes d’intel·ligència artificial s’alimenten amb dades que ja incorporen el biaix de gènere.
— Efectivament, però si tu tens un equip on les dones estan representades, això ja no passa, perquè s’adonen que a les dades no hi ha tots els segments de població. Quan s’entrenen malament les intel·ligències artificials passa que el sistema funciona molt bé per als perfils que ha entrenat i molt malament per als que no. I d’això n'hi ha molts exemples. El cas de Google Photos va ser molt mediàtic: es va entrenar amb les fotos de l’equip de Google, tots homes blancs i joves i, per tant, classificava molt bé les fotos d’homes blancs i joves, però a les primeres versions etiquetava les dones negres i grans com a goril·les.
Posi algun altre exemple.
— Quan ens vam confinar i fèiem videoconferències, els primers dies ens ensenyaven a posar fons perquè els altres no veiessin la cuina de casa. T’has fixat com sortien les dones amb cabells llargs? Si et poses un fons d’una oficina i ets un home, tot queda molt bonic. Però si ets una dona o portes els cabells llargs, sembles una mena d’alienígena que a estones no té nas i a estones no té cara. L’algoritme no sap retallar gens bé la silueta d’una dona i en canvi retalla perfectament la d’un home.
Això està arreglat?
— No gaire. Després de mesos de pandèmia, els algoritmes ens continuen retallant fatal. És molt important tenir en compte el nivell de representativitat que tenen les dades del sistema sobre el qual vols actuar. La composició de les dades d’entrenament hauria d’estar lligada al que es vol fer amb aquella eina, a l’àmbit d’actuació de l’algoritme.