Torna a les notícies
És la IA realment intel·ligent?: una pregunta incòmoda i necessària
Secció: Ciències i tecnologia
20/02/2026

Darrere l’espectacularitat de la intel·ligència artificial s’amaga una pregunta incòmoda: l’imita molt bé, però entén realment el món? Segons Ramon López de Mántaras, és un error conceptual confondre la seva capacitat estadística amb veritable comprensió.

El títol ja incomoda. I aquesta incomoditat és deliberada. Si estiguéssim plenament convençuts que la intel·ligència artificial és realment intel·ligent, no caldria formular la pregunta. Precisament, Ramon López de Mántaras va situar el punt de partida de la seva intervenció al 35è cicle Física oberta, organitzat per la Societat Catalana de Física, en el fet de qüestionar l’eufòria acrítica que envolta la IA actual. Un dels pioners de la recerca en intel·ligència artificial a l’Estat i professor emèrit del CSIC, López de Mántaras va articular la conferència al voltant d’una tesi clara: la IA contemporània és extraordinàriament útil, però això no implica que sigui intel·ligent en el sentit humà del terme.

Abans d’entrar en exemples tecnològics, el ponent, membre de la Secció de Ciència i Tecnologia de l’IEC, va proposar aturar-se en les paraules. Què vol dir exactament intel·ligència artificial? Parlem de sistemes informàtics capaços de simular habilitats que associem amb la intel·ligència: percebre, aprendre, raonar o prendre decisions.

El problema —va advertir— és que sovint utilitzem aquests verbs de manera antropomòrfica, com si darrere del comportament de la màquina hi hagués processos mentals equivalents als humans. Ja Marvin Minsky advertia que conceptes com intel·ligència són suitcase words (literalment ‘paraules-maleta’), en què cap gairebé tot. El risc és projectar-hi allò que entenem per ment humana.

També va revisar el famós test proposat per Alan Turing a l’article Computing Machinery and Intelligence. El conegut «test de Turing» no era, segons va recordar, una prova tècnica per a certificar màquines, sinó un experiment mental filosòfic. Reduir la intel·ligència al fet que una màquina imiti bé un humà —va argumentar— no resol la qüestió de fons: hi ha comprensió real?

La IA que tenim avui és el que els experts anomenen IA específica: sistemes altament especialitzats que resolen tasques concretes amb una eficàcia espectacular. Un exemple paradigmàtic és AlphaFold, desenvolupat sota la direcció de Demis Hassabis, capaç de predir l’estructura tridimensional de proteïnes amb una precisió revolucionària. Però aquest èxit no implica que el sistema «entengui» la biologia. Funciona perquè ha detectat patrons estadístics en enormes quantitats de dades. Quan surt del marc per al qual ha estat entrenat, les seves limitacions es fan evidents. És el que en estadística s’anomena el problema de la «llarga cua»: situacions noves, rares o imprevistes que no encaixen amb els patrons apresos.

La suposada intel·ligència artificial general (IAG), en canvi, seria un sistema capaç d’afrontar problemes nous sense haver estat entrenat específicament per a aquests, gràcies a la generalització i al raonament analògic. Però, com va remarcar López de Mántaras, ni tan sols hi ha consens sobre què és exactament aquesta IAG. El concepte és ambigu i, de moment, més especulatiu que real.

Recollint una expressió del filòsof Daniel Dennett, el ponent va descriure els sistemes actuals com a exemples «d’habilitats sense comprensió». Models com ChatGPT poden redactar textos coherents, resumir llibres o respondre preguntes complexes. Però això no vol dir que entenguin el món. Aquests sistemes no tenen experiència directa de la realitat. No saben què és el pes d’un objecte, la resistència d’un material o la frustració d’un error. Funcionen establint correlacions entre paraules a partir de milions de textos. És el que s’anomena semàntica distributiva: el significat emergeix de patrons estadístics, no d’una connexió directa amb el món físic. I aquí apareix un punt central de la conferència: la importància de tenir cos. El sentit comú —aquell coneixement implícit que ens permet anticipar conseqüències físiques o entendre relacions causa-efecte— sorgeix de la interacció amb l’entorn. Sense experiència corporal, va argumentar, no hi ha comprensió profunda, només simulació lingüística.

La xerrada també va posar el focus en la part menys visible de la IA. Darrere dels grans models hi ha milers de persones que etiqueten dades, revisen continguts i corregeixen errors, sovint en condicions precàries. La intel·ligència artificial no és un sistema que s’autoperfecciona en el buit: depèn d’una intervenció humana constant. A això cal afegir-hi el cost energètic. Els grans centres de dades consumeixen quantitats massives d’electricitat. Tot i les millores en eficiència dels xips, l’escala creixent d’aquests models fa augmentar el consum global. La pregunta sobre la sostenibilitat a llarg termini és, segons el ponent, ineludible.

En el torn de preguntes, el debat va abordar també la qüestió lingüística. En la majoria de grans models comercials, el llenguatge intern de treball és l’anglès. El català hi és present, perquè forma part del conjunt global de dades d’entrenament, però no acostuma a ser la llengua nuclear del sistema. D’aquí certes interferències o expressions que poden sonar traduïdes. Tot i això, la qualitat ha millorat notablement en pocs anys. I hi ha iniciatives per a desenvolupar models entrenats amb dades i criteris propis. No és només una qüestió lingüística: és també una qüestió de sobirania tecnològica i cultural. Davant l’entusiasme mediàtic, López de Mántaras va proposar un canvi de perspectiva: potser hauríem de parlar menys de machine intelligence (‘intel·ligència de la màquina’) i més de machine usefulness (‘utilitat de la màquina’). La pregunta rellevant no és si la màquina és intel·ligent com nosaltres, sinó en quines condicions és útil i amb quins límits. Això implica abordar riscos reals: pèrdua de privacitat, biaixos algorítmics, desinformació, impacte en l’educació i concentració de poder en mans de grans corporacions. Per això, va defensar la regulació, l’educació crítica i una aproximació més interdisciplinària i científica a la IA.

La conferència no va resoldre la pregunta inicial. Però sí que va deixar una idea clara: confondre competència estadística amb comprensió és un error conceptual profund. Una màquina pot imitar molt bé sense comprendre. Pot ser útil sense ser intel·ligent. Pot ser espectacular sense ser neutral. Potser el primer pas cap a una IA responsable és, simplement, no deixar-nos enlluernar per les aparences.