Entrevistem a Algorights, un conjunt de persones de diferents àmbits i amb coneixements variats a qui uneix el fet de creure que la societat civil ha de tenir un paper clau en el desenvolupament de la intel·ligència artificial (IA). Això, ho fan a través del pensament crític, la col·laboració, i la creació d’espais cuidadors; espais amb i per a les persones.
Com i quan neix Algorights?
Algorights és un espai multidisciplinari, divers i plural. Debatem al voltant de diferents temes per aprendre i discutir diferents visions com a eina d’apoderament de totes les integrants i de la mateixa comunitat.
Sorgeix primer com a grup d’aprenentatge (tot comença amb una vintena de persones fent juntes el curs “Elements of AI” l’estiu de 2020). Aquest grup original va anar creixent i incorporant més de 50 persones de diferents disciplines i sectors. Ens havíem anat trobant en diferents fòrums sobre Intel·ligència Artificial i Drets Humans.
En què (o per què) lluiteu?
L’objectiu de la comunitat és promoure la democratització de l’accés, la creació i l’aplicació del coneixement de la IA, des de la perspectiva dels drets humans.
Ens proposem vetllar pel compliment dels drets humans en el desenvolupament i aplicació de tecnologies d’Intel·ligència Artificial. Creiem fermament que la societat civil hi ha de ser, no només en el debat sobre la creació d’aquestes tecnologies, sinó també en els processos de decisió a nivell de disseny, implementació i avaluació.
Què és exactament l’IA?
Aquesta és una de les preguntes “tramposes”. La intel·ligència artificial és una línia de pensament i treball que aglutina diferents disciplines com la filosofia, la neurociència, les matemàtiques i la informàtica. Es tracta d’intentar reproduir la intel·ligència humana amb una màquina. Aquest mateix plantejament té diferents problemes, com el fet que no tenim una definició concreta d’intel·ligència. El consens és, doncs, la capacitat de “raonar”. Però tampoc sabem del cert com funciona el cervell!
Així doncs, realment, ara per ara no tenim intel·ligència artificial. Tenim màquines amb capacitat de processament molt gran que són capaces “d’aprendre” molt ràpid a identificar patrons i, d’acord amb aquest processament i identificació, fer prediccions per un problema determinat.
Això vol dir que tampoc tenim una intel·ligència general artificial capaç de fer qualsevol cosa sinó que el que existeix són sistemes amb IA que són experts en un tema concret. Per exemple, el sistema de recomanació de contingut de les plataformes de vídeo agafa moltes dades sobre una persona (no només allò que ha vist, sinó també quan ho ha vist, amb quina durada, què ha vist gent del seu entorn o gent amb qui està connectada; fins i tot què ha comprat últimament!). Basant-se en això fan una predicció de què pot agradar-li i li recomanen uns continguts concrets. Però aquests sistemes, per exemple, no són capaços d’identificar objectes a una fotografia, no han estat dissenyats per a fer-ho.
Què tenen a veure els algoritmes i l’IA amb els drets humans?
Amb l’exemple anterior hem explicat d’una manera molt simple com funciona un dels algoritmes (els sistemes d’IA ho són) que ens recomanen continguts. No sempre som conscients que pràcticament tots els serveis digitals que utilitzem tenen un grau o altre d’aplicació d’aquestes tecnologies. Decideixen les ofertes de treball que veiem, quina ruta prenem per arribar a un lloc, els continguts que se’ns ofereixen… Aquestes aplicacions ens poden semblar innòcues o podem fins i tot pensar que milloren la interacció i experiència amb els serveis que usem, però hi ha casos en què les decisions que prenen poden vulnerar els nostres drets i deixar-nos en un estat de desprotecció i inferioritat. Tenim exemples sonats, com el cas de la interferència de Facebook a diferents eleccions o els algoritmes de reconeixement facial que no reconeixen persones racialitzades. En altres ocasions, el que fan els algoritmes és reproduir i maximitzar problemes socials estructurals, com en els casos de predicció de delictes o d’assignació d’ajudes.
Els algoritmes discriminen? Teniu exemples a l’Estat espanyol o Catalunya?
Tenim una varietat de casos que mostren que els processos automatitzats corren el perill de replicar i amplificar les opressions i les dinàmiques de poder de les nostres societats. A Espanya tenim l’exemple del programa Bosco, que fa servir el Govern espanyol per atorgar el bo social elèctric. L’organització CIVIO va denunciar que s’estaven negant ajuts a persones que tenien el dret de rebre-les i va portar el cas davant del Consell de Transparència. Se li va negar l’accés al codi font de l’algoritme, ja que es van al·legar raons de protecció intel·lectual. Aquesta opacitat es repeteix en altres algoritmes que operen a la nostra societat com Veripol, l’algoritme de la policia per identificar denúncies falses o Viogén, que valora el risc d’agressions reincidents a víctimes de violència de gènere. És molt rellevant, per assegurar que no es vulneren drets, que s’analitzin aquests sistemes en auditories i se’n publiquin els resultats en pro de la transparència i la rendició de comptes.
Expliqueu a la vostra web que treballeu per aplicar l’enfocament basat en els Drets Humans en les tecnologies de l’IA. Això, a la pràctica, què vol dir?
Posem el focus en 4 aspectes: transparència, rendició de comptes, justícia social i participació ciutadana. Per exemple, veiem que actualment la majoria d’opcions per fer la IA més justa es plantegen des de perspectives tecno-solucionistes. És a dir, intenten solucionar problemes socials mitjançant la tècnica, deixant de banda els problemes estructurals de la societat que els causen. Advoquem per ampliar i millorar la participació ciutadana en el disseny, conceptualització, desenvolupament i avaluació de processos automatitzats i/o basat en IA. Volem una IA més democràtica.
Quin és el principal repte que teniu ara mateix?
En una societat marcada per les agulles del rellotge, encetar i consolidar una comunitat de persones que dediquen una part del seu temps a construir un espai col·lectiu és ja una victòria en si mateixa. Reivindiquem la necessitat de no córrer, de poder ser inclusives, de buscar la diversitat i les diferències des del respecte. Volem construir propostes per millorar la nostra societat des d’una perspectiva on les cures estiguin al centre de la comunitat. Totes les persones, amb molt o poc, contribueixen a fer realitat aquest espai on tenim sabers diferents i des d’on construir coneixement de manera col·laborativa.