Els qui escrivim articles juguem cada dia a la petita loteria de ser escollits pel dit diví dels agregadors de notícies. Si resultem ungits, podem estar segurs que la peça multiplicarà el nombre de lectors habituals. Però aquesta loteria té també la seva carabassa Ruperta. Resulta que al Guardian s’enfilen per les parets perquè Microsoft va escollir una de les seves peces per al seu servei Start. Es tractava de la nota sobre la mort de l’entrenadora de waterpolo Lilie James, el cadàver de la qual va ser trobat en una escola de Sydney la setmana passada amb ferides de gravetat al cap. El problema és que, just a sota de la notícia, Microsoft havia publicat una enquesta generada per intel·ligència artificial en la qual demanaven al respectable quina creien que era la causa de la mort: assassinat, accident o suïcidi. Una multitud de lectors, comprensiblement molestos amb un sondeig tan frívol, macabre i desafortunat, van deixar comentaris altíssimament indignats a la notícia del Guardian, pensant que era el rotatiu qui havia tingut tan mala pensada. El diari explica que s’ha posat en contacte amb Microsoft per exigir que, si s’han d’afegir peces adjuntes, la tecnològica avisi els lectors que es tracta d’una funcionalitat del seu servei, deslligada del mitjà, i que avisi també que es tracta d’una peça creada amb intel·ligència artificial i, per tant, susceptible de tenir la mateixa sensibilitat que una sola de sabata.
Cada cop es confirma més que el perill de la IA no són els deep fakes, per vistosos que siguin, sinó la capacitat d’interferència i, sobretot, el fet que busquin esborrar la frontera entre el contingut supervisat per humans –al marge de qui l’hagi escrit– i aquell que la màquina no només elabora, sinó que publica sense revisió ni control. O sigui, la clàssica imatge del mico i l’escopeta.