Latest courses

Entrevista a Ramón López de Mántaras: Pensar la IA con una perspectiva realista por Arantxa Serantes

Encabezados
Print Friendly and PDF



Entrevista a Ramón López de Mántaras: Pensar la IA con una perspectiva realista
por Arantxa Serantes

 

Introducción

Conocer el punto de vista del profesor Ramón López de Mántaras reviste de una gran importancia, tanto por su trayectoria académica como por su papel en el desarrollo y la reflexión crítica sobre la inteligencia artificial (IA). Como uno de los pioneros de esta disciplina en España y fundador del Instituto de Investigación en Inteligencia Artificial del CSIC, su visión combina una sólida base científica con una sensibilidad ética y humanista.

Su perspectiva resulta especialmente valiosa en un contexto donde la IA avanza con rapidez y genera debates en torno a su impacto en el empleo, la privacidad, la toma de decisiones y la equidad social. López de Mántaras no solo aporta conocimiento técnico, sino también una voz que invita a la prudencia, al pensamiento crítico y a la necesidad de establecer marcos regulatorios adecuados. Además, su enfoque interdisciplinar permite tender puentes entre la tecnología, la filosofía, la sociología y la política, enriqueciendo así el debate público.

Por tanto, atender a sus planteamientos permite no solo comprender mejor el desarrollo de la IA desde dentro del campo científico, sino también anticipar sus implicaciones sociales y contribuir a un uso más responsable y justo de estas tecnologías.


Entrevista

AS: Arantxa Serantes

RL: Ramón López

 

AS: Has estado investigando y trabajando en el ámbito de la inteligencia artificial desde mucho antes de que se pusiera de moda. Si tuvieras que elegir un momento en tu trayectoria que te haya marcado especialmente, ¿Cuál sería? ¿Hubo alguno en particular que te hiciera cambiar tu manera de ver la IA?

RL: Las grandes exageraciones recientes acerca de la supuesta capacidad de razonamiento y de inteligencia de los LLM ha acentuado mucho mi visión crítica sobre el antropocentrismo imperante en IA que está, de forma interesada, promovido por las grandes tecnológicas y en particular los anuncios de que la IA general está a la vuelta de la esquina. El motivo de tales afirmaciones es, por una parte, vender a los inversores la idea de que una IA general generará enormes beneficios económicos y así convencerles de que tienen que seguir invirtiendo (arriesgando) sumas astronómicas de dinero. Por otra parte, también lo hacen con el fin de que, si en un futuro convencen a la sociedad, y en particular a los jueces, que la IA general ya es una realidad entonces, dado que sería igual o superior a la humana y tendría estados mentales, consciencia, etc., a las grandes tecnológicas responsables de su desarrollo no se les podrían exigir responsabilidades de su previsible mal funcionamiento con posibles consecuencias nefastas.

AS: Hoy se habla de la IA en todos los medios, la mayoría, con cierto sensacionalismo. Desde tu punto de vista, ¿Cuál crees que es la visión más ajustada a la realidad?

RL: La realidad es que la IA es una herramienta, muy sofisticada, pero herramienta al fin y al cabo ya que nunca tendrá intenciones ni deseos ni objetivos propios. Nunca hará nada por motu proprio. El ejemplo más elocuente son los que dicen que la IA llegará a ser una ultra-inteligencia que puede suponer un riesgo existencial porque podría “decidir” controlar e incluso acabar con la humanidad. Es una afirmación tan estúpida que cuesta creer que personas supuestamente inteligentes lo digan. La IA no comprende el lenguaje ni razona en el sentido humano de comprender y razonar. Cuando decimos que una IA comprende o razona o decide, estamos hablando metafóricamente. No llego a comprender como es posible que haya gente que lo diga literalmente, es decir no metafóricamente.

AS: Has insistido en varias ocasiones en que se exageran mucho las capacidades de la IA. ¿Por qué crees que se genera esa distancia entre lo que puede hacer de verdad y lo que se dice que hace? ¿Cómo se están tratando los datos y la información que llega a los servidores, por parte de los usuarios?

RL: Por nuestra tendencia a antropomorfizar, atribuyendo capacidades y cualidades humanas a máquinas completamente estúpidas. Como he dicho antes, es un discurso alimentado por los intereses particulares de las grandes tecnológicas. El problema es que los medios de comunicación contribuyen a alimentar el hype de la IA y el antropomorfismo con titulares exagerados y el gran público se lo cree. Falta mucho sentido crítico y mucha alfabetización sobre la realidad de la IA.

AS: ¿Dirías que seguimos proyectando en estos sistemas una idea demasiado humana de la inteligencia? ¿Qué consecuencias puede tener eso a nivel social o político?

RL: Obviamente es así, antropomorfizamos como acabo de decir. Las consecuencias también las he ya mencionado antes en relación con sacudirse las responsabilidades de encima por parte de las grandes empresas que desarrollan la IA generativa. No es solamente que proyectemos una idea «demasiado» humana de la IA, es que ¡no tiene nada que ver con la inteligencia humana!

AS: No es un tema menor, pero ¿Por qué seguimos hablando de «inteligencia artificial» cuando quizá sería más acertado hablar de «sistemas inteligentes»? ¿Nos condiciona el lenguaje?

RL: Llamarla «Sistemas inteligentes» tiene exactamente el mismo problema que llamarla «inteligencia artificial» debido a la presencia de la palabra «inteligente» al lado de la palabra «sistema». Sin duda el lenguaje condiciona mucho. En mala hora se la llamó «Inteligencia Artificial». Para mí sería mejor algo como «Advanced Information Processing» (Tratamiento Avanzado de la Información). Pero ya es muy tarde y, lamentablemente, no lo podemos cambiar.

AS: ¿Sientes que la investigación más rigurosa en IA está perdiendo terreno frente a los intereses comerciales?

RL: Sin ninguna duda…lamentablemente. Los LLM en sí mismos desde el punto de vista científico tienen escaso interés. Otra cosa muy distinta es la investigación en modelos híbridos neuro-simbólicos y en IA corpórea que sí que tienen un claro interés científico y no excluyen que entre los componentes de estos sistemas usemos algunas de las técnicas usadas en los LLM. Pero no veo interés en seguir escalando los LLM añadiendo más y más parámetros, es decir hacerlos más y más grandes con la esperanza que de pronto «emerjan» inteligencia y razonamientos reales por el hecho de haber aumentado la complejidad del modelo.

AS: ¿Dónde crees que la IA puede aportar mejoras reales en los próximos años? Y, al contrario, ¿Qué usos te generan más inquietud?

RL: Sin duda en la ayuda a la toma de decisiones en general y en la medicina en particular. El uso de la IA para predecir me genera inquietud. En su libro «AI Snake Oil», Arvind Narayan y Sayash Kapoor demuestran que en general la IA predictiva no funciona y crea enormes problemas. Obviamente, otro uso muy indeseable son las armas letales autónomas que tendrían que estar estrictamente prohibidas. Delegar la capacidad de cuando disparar y contra que disparar es el colmo de la indignidad.

AS: Muchos modelos actuales «alucinan», generando contenidos totalmente falsos. ¿Lo ves como un error a corregir o también como un posible motor creativo?

RL: Es una limitación inherente al funcionamiento de los LLM que, además, no tiene solución. Se pueden poner parches para mitigar el problema, pero no solucionarlo de verdad. En cuanto a la afirmación que las mal llamadas alucinaciones (por cierto, otra antropomorfización) son fuente de creatividad es otro ejemplo de afirmación errónea rayando en la estupidez.

AS: ¿Crees que realmente existe una especie de «Ilustración Oscura» como la que propone Nick Land, donde el entusiasmo por el progreso tecnológico puede estar ocultando la promesa de una utopía (o distopía según se mire) para justificar decisiones automatizadas? ¿Dónde crees que deberíamos poner los límites éticos?

RL: Lamentablemente este movimiento completamente distópico existe y ya estamos viendo cómo se está ya implantando en algunos países. Es un movimiento neo-reaccionario, hiper-neoliberal, antidemocrático, anti-igualitario, pro-eugenista y racista, es muy apreciado y promovido por algunos gurús tecnológicos que afirman que libertad y democracia son incompatibles. Hay que combatirlo mediante protestas populares, leyes y regulación.

AS: ¿Te sigue ilusionando pensar en la IA del futuro o crees que su crecimiento exponencial se verá limitado por los recursos materiales (energéticos, técnicos, cognitivos, etc.,) y que por tanto no cabe esperar mucho más?

RL: No, la verdad es que estoy muy desilusionado viendo lo que está ocurriendo con la IA actualmente. Pero no he perdido todavía totalmente la esperanza. Espero que explote la burbuja de la IA cuando los inversores se den cuenta que están tirando dinero a mansalva y vean peligrar el RoI (Returns of Investment) y también debido a la insostenibilidad de la demanda energética del hardware detrás de la IA. Ocurrirá poco a poco ya que los inversores negarán la evidencia pues nunca admitirán que se equivocaron. Las grandes tecnológicas tampoco admitirán su fracaso de no poder alcanzar el objetivo original de la IA general. Más temprano que tarde nos anunciarán a bombo y platillo que la IA general ya está aquí porque continuarán redefiniendo que es la IA general rebajando cada vez más su definición para adaptarla a la realidad de sus modelos de IA, pero la IA general en el sentido original del término, que se remonta al año 1956, nunca se alcanzará.


Arantxa Serantes

Entrevista a Ramón López de Mántaras: Pensar la IA con una perspectiva realista

Webgrafía recomendada:

-      LÓPEZ DE MÁNTARAS, R. (s.f.). La gran mentira de la inteligencia artificial [Video]. YouTube. Recuperado el 16 de abril de 2025, de https://youtu.be/ieYadopst4s

 

Cómo citar este artículo: SERANTES, ARANTXA. (2024). Entrevista a Ramón López de Mántaras: Pensar la IA con perspectiva realista. Numinis Revista de Filosofía, Época I, Año 3, (EN8). ISSN ed. electrónica: 2952-4125. https://www.numinisrevista.com/2025/04/Entrevista-a-Ramon-Lopez-de-Mantaras.html

Numinis Logo
UAM Logo
Lulaya Academy Logo

Licencia de Creative Commons
Esta revista está bajo una licencia de Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional

No hay comentarios:

Publicar un comentario