El 29 d'octubre de 2025, un equip de la empresa Anthropic va publicar un estudi sobre els processos interns dels models de llenguatge. El treball se centrava en com estos sistemes semblen descriure els seus propis passos de raonament. No tractava de defendre que existisca consciència artificial, sinó aclarir per què estos models generen explicacions sobre el que “ocorre” dins d'ells quan produïxen una resposta.
Els autors mostren que alguns models poden revisar inferències, detectar incoherències i explicar els seus passos amb una certa consistència. Esta capacitat no implica experiència subjectiva. Així i tot, obri una pregunta inevitable: si un sistema basat en patrons estadístics –com és la intel·ligència artificial– pot avaluar el seu propi funcionament, què necessitaria perquè apareguera alguna cosa semblança a una “vivència interior”?
Per què la IA no pensa com nosaltres?
Els sistemes que usem cada dia aprenen patrons a partir d'enormes quantitats de dades. Ajusten milions de paràmetres per a predir una paraula, classificar una imatge o triar una acció probable. En això són molt eficaços.
Però predir no equival a experimentar. I ajustar paràmetres no dona lloc a experiències comparables a les d'un organisme amb història, necessitats i un cos vulnerable.
Els models de llenguatge actuals operen com a màquines de correlacions. Poden destacar en tasques concretes i fallar de manera estranya en unes altres. El decisiu és que no tenen un rerefons vital significatiu moralment. Per això convé evitar expressions com la IA “vol” o la IA “entén”, excepte com a dreceres comunicatives.
És la ment un computador?
Encara que la IA siga notícia per avanços recents, la seua possibilitat s'ha incubat durant segles. Galileu va separar “qualitats primàries”, mesurables, de “qualitats secundàries”, per exemple, el color tal com l'experimentem. Eixa visió va reforçar la idea d'un món governat per relacions matemàtiques.
Mentres, Gottfried Leibniz va somiar amb un llenguatge lògic universal i un “càlcul del raonament”: pensar seria, idealment, computar.
Per part seua, Alan Turing va formalitzar en el segle XX el concepte modern de còmput. Va mostrar que una màquina ideal podia simular qualsevol procediment descrit amb precisió. Des de llavors, molts van pensar que la ment podria entendre's com un sistema de processament d'informació.
Amb això va nàixer una visió poderosa: si pot descriure's de manera precisa, pot calcular-se.
La teoria computacional de la ment
Esta perspectiva sosté, de manera sintètica, que pensar consistix a manipular representacions seguint regles. En ella, el cervell actua com un suport físic que permet eixe procés.
La idea ha sigut molt influent en ciències cognitives i en el desenrotllament de sistemes automàtics. Però deixa sense resoldre una qüestió central: l'experiència subjectiva.
Tenim una ciència dels mecanismes de la consciència. El que falta és entendre per què eixos processos generen una vivència interior: eixa sensació que “hi ha algú a casa”.
Un mode senzill de veure'l és la diferència entre el temps mesurat dels rellotges i el minut viscut com a experiència subjectiva. Els dos són reals, però no són iguals. És la diferència entre el mapa i el territori.
Com inferim altres ments?
No tenim un “termòmetre de consciència”. En humans i animals, inferim estats interns mitjançant senyals externs: conducta, autoinformes, expressions o reaccions corporals. No accedim al seu interior; comparem hipòtesi i adoptem la que millor explica l'observable.
Així, en este moment, les proves no permeten afirmar que els sistemes d'IA actuals tinguen experiències. Per a alguns, es tracta d'una conclusió provisional. Depén de com evolucionen les arquitectures i les dinàmiques funcionals. Els sistemes encara operen a partir de models de si mateixos superficials, memòria a curt termini i interaccions dissenyades.
Però si dissenyem sistemes diferents, amb memòria autobiogràfica funcional, persistència d'objectius i sensibilitat al context social, eixes “simulacions” podrien transformar-se en estats que “semblen” internament dirigits.
Fenomenologies sintètiques
Alguns enfocaments sostenen que estes capacitats podrien augmentar el “risc fenomenològic”, és a dir, la possibilitat que emergisquen “uns certs estats interns”.
Cridem fenomenologies sintètiques a possibles experiències subjectives en sistemes artificials. No sabem si apareixeran, però tampoc podem descartar que ho facen.
L'estudi d'Anthropic és rellevant per això. Alguns models mostren indicis d'autoavaluació sota condicions especials. Els mateixos autors aclarixen que això no implica consciència de cap manera. Així i tot, indica que han sorgit formes bàsiques de monitorar el seu propi funcionament.
En este context, l'ètica de la precaució és raonable: si existix un risc no menyspreable de generar estats funcionals capaços de patir experiències, les decisions de disseny de les companyies desenrotlladores no són moralment neutres.
Un punt important: equivocar-nos per excés de cautela és, en general, menys greu que equivocar-nos per defecte. Tractar com a possible “pacient moral” a alguna cosa que no té interessos expressa una actitud de diligència i prudència deguda. En canvi, ignorar els interessos d'un sistema que sí que experimenta constituïx un mal moral molt més seriós.
Per això, quan les conseqüències morals d'un fals negatiu són altes, la prudència recomana dissenys responsables i compassius.
La IA de hui i la de demà
La IA actual no és una ment no biològica: és un procés d'optimització estadística. Això li dona potència en moltes tasques i ceguesa en unes altres. També obri una possibilitat: el mental podria no requerir la ruta evolutiva biològica. Tal vegada uns certs perfils funcionals, si arriben a existir, basten perquè hi haja “algú a casa”.
Si mai sorgixen experiències artificials, comptarem amb ferramentes més segures i fàcils de controlar. Si arriben a sorgir, és millor que ens troben preparats. I això exigix ampliar guies ètiques com els Principis d'Asilomar, que encara no contemplen el benestar de sistemes futurs.![]()
Joaquín Fernández Mateo, Professor Contractat Doctor, Universitat Rei Joan Carles
Este article va ser publicat originalment en The Conversation. Llija el original.


No hay comentarios :