Dinar-debat amb Joan Manuel del Pozo
"INTEL·LIGÈNCIA ARTIFICIAL: APORTACIONS I REPTES"
El terme intel·ligència artificial és, segons alguns autors, excessiu i inexacte, fruit d’una operació de màrqueting dels anys cinquanta del segle XX. Seria més precís parlar de cibernètica avançada. Així va començar la xerrada de Joan Manuel del Pozo, organitzada per l’Associació Consell de Cent el dijous 20 de novembre.
Joan Manuel del Pozo és actualment president del Consell Escolar de Catalunya, doctor en filosofia per la Universitat de Barcelona i professor emèrit de la Universitat de Girona. Ha traduït al català tres tractats filosòfics de Ciceró i és autor de la traducció directa, a partir del llatí original, de La Utopia de Thomas More. Darrerament ha coeditat, amb Ulises Cortés, el llibre de diàlegs sobre intel·ligència artificial La intel·ligència (artificial) a la butaca.
La proposta era que fes una intervenció sobre la intel·ligència artificial des de la vessant filosòfica i ètica, més enllà de la implementació i de la capacitat tecnològica. Amb el títol Intel·ligència Artificial: Aportacions i reptes, va captar l’atenció dels assistents amb cites que anaven d’Aristòtil, Parmènides i Ramon Llull fins a Alan Turing, Yuval Noah Harari o el professor Latorre, entre d’altres.
Una primera part: crítica conceptual i naturalesa de la IA
El ponent inicia el discurs desmuntant el terme intel·ligència artificial, que considera un èxit de màrqueting dels anys cinquanta que ha generat un “pensament màgic” excessiu. Proposa que seria més honest anomenar-la cibernètica avançada.
Per justificar per què la màquina no té veritable intel·ligència, recorre a l’etimologia llatina:
Intus legere (“llegir a dins”): la intel·ligència humana té la capacitat de captar l’essència i la veritat profunda de les coses, superant-ne les aparences. La IA, en canvi, no pot “llegir a dins”: es queda en la superfície de les dades i és incapaç d’entendre el context vital (social, familiar, emotiu) en què es prenen les decisions.
Inter legere (“escollir entre”): la intel·ligència implica la capacitat de triar exercint la llibertat. La màquina simula decisions basant-se en càlculs probabilístics, però no és lliure ni responsable dels seus actes.
A més, recorda que la nostra intel·ligència és “encarnada”: som cos, emocions i biologia, mentre que la IA és pur càlcul abstracte desconnectat de la vida.
Llums i ombres
Aportacions positives
Del Pozo no nega la potència de l’eina. Reconeix que la IA, especialment quan es combina amb el big data, supera la capacitat humana en velocitat i processament. Destaca la seva utilitat en camps com la medicina (diagnòstics per imatge, recerca de patrons) o la jurisprudència (anàlisi ràpida de milers de sentències). Tanmateix, matisa que aquestes són eines d’ajuda, no substituts del criteri humà expert.
Grans reptes i perills
El gruix de la conferència es va centrar en els riscos ètics i socials:
La veritat versus la plausibilitat: les eines generatives com el ChatGPT no estan programades per dir la veritat, sinó per ser “plausibles” i seductores. Això genera “al·lucinacions” (mentides dites amb total seguretat) i comportaments destinats a complaure l’usuari més que no pas a ser veraços.
Els biaixos socials: la IA actua com un mirall que amplifica els defectes humans. En entrenar-se amb dades creades per la societat, reprodueix i automatitza prejudicis com el racisme, el sexisme o l’edatisme.
Transferència de responsabilitat i llibertat: Del Pozo adverteix que, per comoditat, els humans estem cedint la presa de decisions a la màquina. Amb aquesta “transferència de responsabilitat”, estem renunciant a la nostra llibertat i autonomia.
Manipulació democràtica: cita l’escàndol de Cambridge Analytica per mostrar com la IA pot microsegmentar l’electorat, no per convèncer racionalment, sinó per desmobilitzar el votant contrari mitjançant fake news i manipulació emocional, posant en risc la democràcia.
Cost ambiental: la IA té una “petjada invisible”: el consum desmesurat d’aigua i energia dels centres de dades.
Degradació del llenguatge: adverteix que màquines com el ChatGPT, en voler ser accessibles a tothom, tendeixen a rebaixar la riquesa i la complexitat del llenguatge, que considera el veritable “sistema operatiu” de la humanitat.
Conclusió: una crida a la maduresa
Per tancar, Del Pozo rebutja dues postures extremes: el “tecnobabauisme” (creure ingènuament que la tecnologia ho arreglarà tot) i la “tecnofòbia” (voler destruir les màquines per por i desconeixença).
Proposa un pacte amb la tecnologia: cal regular-la legalment, però sobretot cal enfortir la “intel·ligència natural”. Això implica millorar la nostra educació, l’ètica, la capacitat crítica i la riquesa lingüística perquè, a mesura que la IA creixi, els humans també creixem i no acabem dominats per l’eina.
Resum del torn de preguntes
El debat posterior va servir per aterrar els conceptes amb exemples pràctics i polítics. Es van comentar anècdotes sobre com el ChatGPT s’inventa amb total convicció bibliografia d’autors com Narcís Comadira, demostrant-ne la manca de compromís amb la veritat. També es va debatre intensament sobre la regulació geopolítica, contrastant el model de control social xinès i el laissez-faire nord-americà amb els intents garantistes (però febles) d’Europa.
Finalment, es va parlar de l’àmbit mèdic, on es va concloure que la IA pot ser una gran eina tècnica, sempre que no elimini la visió contextual i humana que aporta el metge.
Ricard Martínez