

Entrevista a Ramón López de Mántaras: Pensar la IA con
una perspectiva realista
por Arantxa Serantes
Introducción
Conocer el punto de vista del profesor Ramón López de Mántaras reviste de una gran importancia, tanto por su trayectoria académica como por su papel en el desarrollo y la reflexión crítica sobre la inteligencia artificial (IA). Como uno de los pioneros de esta disciplina en España y fundador del Instituto de Investigación en Inteligencia Artificial del CSIC, su visión combina una sólida base científica con una sensibilidad ética y humanista.
Su perspectiva resulta especialmente valiosa en un
contexto donde la IA avanza con rapidez y genera debates en torno a su impacto
en el empleo, la privacidad, la toma de decisiones y la equidad social. López
de Mántaras no solo aporta conocimiento técnico, sino también una voz que
invita a la prudencia, al pensamiento crítico y a la necesidad de establecer
marcos regulatorios adecuados. Además, su enfoque interdisciplinar permite
tender puentes entre la tecnología, la filosofía, la sociología y la política,
enriqueciendo así el debate público.
Por tanto, atender a sus planteamientos permite no solo
comprender mejor el desarrollo de la IA desde dentro del campo científico, sino
también anticipar sus implicaciones sociales y contribuir a un uso más
responsable y justo de estas tecnologías.
Entrevista
AS: Arantxa
Serantes
RL: Ramón López
AS: Has estado investigando y trabajando en el ámbito
de la inteligencia artificial desde mucho antes de que se pusiera de moda. Si
tuvieras que elegir un momento en tu trayectoria que te haya marcado
especialmente, ¿Cuál sería? ¿Hubo alguno en particular que te hiciera cambiar
tu manera de ver la IA?
RL: Las grandes
exageraciones recientes acerca de la supuesta capacidad de razonamiento y de
inteligencia de los LLM ha acentuado mucho mi visión crítica sobre el
antropocentrismo imperante en IA que está, de forma interesada, promovido por
las grandes tecnológicas y en particular los anuncios de que la IA general está
a la vuelta de la esquina. El motivo de tales afirmaciones es, por una parte,
vender a los inversores la idea de que una IA general generará enormes
beneficios económicos y así convencerles de que tienen que seguir invirtiendo
(arriesgando) sumas astronómicas de dinero. Por otra parte, también lo hacen
con el fin de que, si en un futuro convencen a la sociedad, y en particular a
los jueces, que la IA general ya es una realidad entonces, dado que sería igual
o superior a la humana y tendría estados mentales, consciencia, etc., a las
grandes tecnológicas responsables de su desarrollo no se les podrían exigir
responsabilidades de su previsible mal funcionamiento con posibles
consecuencias nefastas.
AS: Hoy se habla de la IA en todos los medios, la
mayoría, con cierto sensacionalismo. Desde tu punto de vista, ¿Cuál crees que
es la visión más ajustada a la realidad?
RL: La realidad es que la IA es una herramienta, muy
sofisticada, pero herramienta al fin y al cabo ya que nunca tendrá intenciones
ni deseos ni objetivos propios. Nunca hará nada por motu proprio. El ejemplo
más elocuente son los que dicen que la IA llegará a ser una ultra-inteligencia
que puede suponer un riesgo existencial porque podría “decidir” controlar e
incluso acabar con la humanidad. Es una afirmación tan estúpida que cuesta
creer que personas supuestamente inteligentes lo digan. La IA no comprende el
lenguaje ni razona en el sentido humano de comprender y razonar. Cuando decimos
que una IA comprende o razona o decide, estamos hablando metafóricamente. No
llego a comprender como es posible que haya gente que lo diga literalmente, es
decir no metafóricamente.
AS: Has insistido en varias ocasiones en que se exageran
mucho las capacidades de la IA. ¿Por qué crees que se genera esa distancia
entre lo que puede hacer de verdad y lo que se dice que hace? ¿Cómo se están
tratando los datos y la información que llega a los servidores, por parte de
los usuarios?
RL: Por nuestra
tendencia a antropomorfizar, atribuyendo capacidades y cualidades humanas a
máquinas completamente estúpidas. Como he dicho antes, es un discurso
alimentado por los intereses particulares de las grandes tecnológicas. El
problema es que los medios de comunicación contribuyen a alimentar el hype de
la IA y el antropomorfismo con titulares exagerados y el gran público se lo
cree. Falta mucho sentido crítico y mucha alfabetización sobre la realidad de
la IA.
AS: ¿Dirías que seguimos proyectando en estos sistemas
una idea demasiado humana de la inteligencia? ¿Qué consecuencias puede tener
eso a nivel social o político?
RL: Obviamente es
así, antropomorfizamos como acabo de decir. Las consecuencias también las he ya
mencionado antes en relación con sacudirse las responsabilidades de encima por
parte de las grandes empresas que desarrollan la IA generativa. No es solamente
que proyectemos una idea «demasiado» humana de la IA, es que ¡no tiene nada que
ver con la inteligencia humana!
AS: No es un tema menor, pero ¿Por qué seguimos hablando
de «inteligencia artificial» cuando quizá sería más acertado hablar de «sistemas
inteligentes»? ¿Nos condiciona el lenguaje?
RL: Llamarla «Sistemas
inteligentes» tiene exactamente el mismo problema que llamarla «inteligencia
artificial» debido a la presencia de la palabra «inteligente» al lado de la
palabra «sistema». Sin duda el lenguaje condiciona mucho. En mala hora se la
llamó «Inteligencia Artificial». Para mí sería mejor algo como «Advanced
Information Processing» (Tratamiento Avanzado de la Información). Pero ya es
muy tarde y, lamentablemente, no lo podemos cambiar.
AS: ¿Sientes
que la investigación más rigurosa en IA está perdiendo terreno frente a los
intereses comerciales?
RL: Sin ninguna
duda…lamentablemente. Los LLM en sí mismos desde el punto de vista científico
tienen escaso interés. Otra cosa muy distinta es la investigación en modelos
híbridos neuro-simbólicos y en IA corpórea que sí que tienen un claro interés
científico y no excluyen que entre los componentes de estos sistemas usemos
algunas de las técnicas usadas en los LLM. Pero no veo interés en seguir
escalando los LLM añadiendo más y más parámetros, es decir hacerlos más y más
grandes con la esperanza que de pronto «emerjan» inteligencia y razonamientos
reales por el hecho de haber aumentado la complejidad del modelo.
AS: ¿Dónde
crees que la IA puede aportar mejoras reales en los próximos años? Y, al
contrario, ¿Qué usos te generan más inquietud?
RL: Sin duda en la ayuda a la toma de decisiones en general y
en la medicina en particular. El uso de la IA para predecir me genera
inquietud. En su libro «AI Snake Oil», Arvind Narayan y Sayash Kapoor
demuestran que en general la IA predictiva no funciona y crea enormes
problemas. Obviamente, otro uso muy indeseable son las armas letales autónomas
que tendrían que estar estrictamente prohibidas. Delegar la capacidad de cuando
disparar y contra que disparar es el colmo de la indignidad.
AS: Muchos modelos actuales «alucinan», generando
contenidos totalmente falsos. ¿Lo ves como un error a corregir o también como
un posible motor creativo?
RL: Es una limitación inherente al funcionamiento de los LLM
que, además, no tiene solución. Se pueden poner parches para mitigar el
problema, pero no solucionarlo de verdad. En cuanto a la afirmación que las mal
llamadas alucinaciones (por cierto, otra antropomorfización) son fuente de
creatividad es otro ejemplo de afirmación errónea rayando en la estupidez.
AS: ¿Crees que
realmente existe una especie de «Ilustración Oscura» como la que propone Nick
Land, donde el entusiasmo por el progreso tecnológico puede estar ocultando la
promesa de una utopía (o distopía según se mire) para justificar decisiones
automatizadas? ¿Dónde crees que deberíamos poner los límites éticos?
RL: Lamentablemente
este movimiento completamente distópico existe y ya estamos viendo cómo se está
ya implantando en algunos países. Es un movimiento neo-reaccionario,
hiper-neoliberal, antidemocrático, anti-igualitario, pro-eugenista y racista,
es muy apreciado y promovido por algunos gurús tecnológicos que afirman que
libertad y democracia son incompatibles. Hay que combatirlo mediante protestas
populares, leyes y regulación.
AS: ¿Te sigue
ilusionando pensar en la IA del futuro o crees que su crecimiento exponencial
se verá limitado por los recursos materiales (energéticos, técnicos,
cognitivos, etc.,) y que por tanto no cabe esperar mucho más?
RL: No,
la verdad es que estoy muy desilusionado viendo lo que está ocurriendo con la
IA actualmente. Pero no he perdido todavía totalmente la esperanza. Espero que
explote la burbuja de la IA cuando los inversores se den cuenta que están
tirando dinero a mansalva y vean peligrar el RoI (Returns of Investment) y
también debido a la insostenibilidad de la demanda energética del hardware
detrás de la IA. Ocurrirá poco a poco ya que los inversores negarán la
evidencia pues nunca admitirán que se equivocaron. Las grandes tecnológicas
tampoco admitirán su fracaso de no poder alcanzar el objetivo original de la IA
general. Más temprano que tarde nos anunciarán a bombo y platillo que la IA
general ya está aquí porque continuarán redefiniendo que es la IA general rebajando
cada vez más su definición para adaptarla a la realidad de sus modelos de IA,
pero la IA general en el sentido original del término, que se remonta al año
1956, nunca se alcanzará.
Arantxa Serantes
Entrevista a Ramón López de Mántaras: Pensar la IA con
una perspectiva realista
Webgrafía recomendada:
-
LÓPEZ DE MÁNTARAS, R.
(s.f.). La gran mentira de la inteligencia artificial [Video].
YouTube. Recuperado el 16 de abril de 2025, de https://youtu.be/ieYadopst4s
Cómo
citar este artículo: SERANTES, ARANTXA. (2024). Entrevista a Ramón López de Mántaras: Pensar la IA con perspectiva realista. Numinis Revista de Filosofía, Época I, Año
3, (EN8). ISSN ed.
electrónica: 2952-4125. https://www.numinisrevista.com/2025/04/Entrevista-a-Ramon-Lopez-de-Mantaras.html




Esta revista está bajo una licencia de Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional
No hay comentarios:
Publicar un comentario