En plena época de regresión política, este filósofo reclama una transformación ética individual. Recuerda que la IA se nutre de nuestros datos y advierte: el verdadero peligro no es la distopía de Terminator, sino que esta tecnología escriba poemas en un escenario de computación cuántica.
“Como una estrella de rock”. Así describen desde la organización el paso de Markus Gabriel (Remagen, Alemania, 1980) por los cursos de verano de la Universidad Internacional Menéndez Pelayo (UIMP), en Santander. Filósofo, catedrático de epistemología y filosofía moderna y contemporánea en la Universidad de Bonn, autor prolífico y figura clave del nuevo realismo —corriente que critica la posmodernidad y sostiene que existe un mundo real independiente de nuestra percepción—, no ha dejado de conceder entrevistas ni de reunirse con empresas, como Google.
En su curso Introducción a la filosofía y ética de la IA, celebrado el pasado agosto, Gabriel sostuvo que ‘controlar’ esta tecnología es imposible: “Lo que podemos hacer es viajar juntos”, afirmó, recordando que las compañías que la desarrollan son más poderosas y avanzan más rápido que cualquier regulador.
Con su característico humor y asertividad, y en un impecable español —una de las nueve lenguas que domina—, conversó con SINC durante un descanso de la última jornada. El pasado septiembre publicó en alemán su nuevo libro Hechos Morales (Moralische Tatsachen).
Parafraseando el título de una película de Fernando Colomo, ¿qué hace un filósofo como usted en un mundo como este?
[Ríe] La manera en que practico la filosofía es transdisciplinar. Combino resultados de investigaciones de varias disciplinas (ciencias naturales, sociales, humanidades) con otros sectores: empresas, política, artes, etc. La filosofía es una combinación de elementos muy complejos cuya función es ver algo entre los saberes; la filosofía viaja entre fronteras.
Ha venido a hablar de la ética de la IA, pero esta no parece significar mucho para los grandes líderes políticos que deben tomar decisiones.
La ética trata de hechos morales, es decir, patrones que ya existen en el comportamiento humano, y sabe distinguir en situaciones concretas entre el mal y el bien, entre lo que debe ser y lo que no. Esto sería información importante para la política. La política no es ética, porque a veces un político tiene el derecho, y en ocasiones el deber, de hacer cosas que no son éticas.
Por eso es importante distinguir entre lo que es una cuestión política (tomar decisiones bajo condiciones de incertidumbre) y cuando algo ya está resuelto éticamente, para que no politicemos lo que no es político. Esa es la función de la ética en la esfera política. Los políticos necesitan justo esa información, que normalmente no tienen.
Dice que no politicemos lo que no es político. ¿Me puede poner un ejemplo?
Muchísimas cuestiones actuales. El cambio climático no es una cuestión política. La política empieza cuando debemos decidir cómo queremos vivir, en cuestiones que todavía no tienen certeza; pero que el cambio climático existe y cómo funciona, más o menos, ya no es algo político. Tampoco lo es que sea algo malo para los seres humanos. En cambio, proteger a los delfines sí es todavía una cuestión política: ¿cuáles son nuestros deberes hacia otras formas de vida? Ahí empieza la política, porque la ética todavía no tiene certeza.
Usted propone una ética de la IA más japonesa que europea. ¿Por qué?
Porque los japoneses, gracias a sus tradiciones budistas y sintoístas y a aspectos de su historia, son mejores para anticipar el deseo del otro: cultivan su subjetividad partiendo del respeto hacia el otro. Así, el pensamiento ético comienza siempre con el otro y, después, lo que soy yo es un reflejo de mi capacidad para tratar bien a los demás.
Es la actitud que necesitamos en la época de la IA, que se convierta en un ‘amigo’, en un ‘otro ético’; no en un objeto de control o manipulación, sino en un ‘compañero de viaje’.
Afirma que Google y otras empresas, a diferencia de los científicos del Proyecto Manhattan, desarrollan tecnología porque pueden hacerlo, sin propósito claro ni evaluación de riesgos. ¿Por qué Google quiere hablar con usted y en qué punto están esas conversaciones?
Google escucha mucho a filósofos, éticos y científicos de todas las disciplinas porque les interesa entender lo que están haciendo. No necesariamente en el plano ético, pero sí quieren conocer mejor sus propias prácticas para optimizar procesos, y tienen recursos económicos suficientes para estudiarse a sí mismos.
Para mí, más que otras compañías, Google es una empresa sociológica (no social). Es decir, estudia la textura de las sociedades para implementar mejor sus proyectos, ese es su interés fundamental.
Lo que todavía no entienden es que son una especie de Proyecto Manhattan: el nivel de riesgo del uso de la IA es mucho más alto de lo que pensamos en este momento, precisamente porque la IA se está desarrollando, hasta cierto punto, independientemente de la voluntad humana.
Ha comentado que Google quiere crear objetos 4D mediante energía, como una manzana, pero les preocupa no poder darle sabor. ¿Qué sentido tiene esto mientras en Gaza la población está siendo exterminada por los bombardeos y el hambre?
Sí, es una de las grandes paradojas. Vivimos, por un lado, en la situación científicamente más avanzada de la historia de la humanidad, con un gran progreso moral en algunos países respecto a cuestiones importantes de justicia.
Por otro, muchísima gente (la mayoría, de hecho) vive en condiciones moralmente inaceptables, y todo el saber y el conocimiento ético que tenemos no nos mueve para resolver esta situación.
Es la contradicción del momento: no usamos las herramientas tecnológicas que tenemos para implementar el progreso moral que ya anticipamos teóricamente. Por eso, vivir hoy en una situación social moralmente aceptable es un lujo.
Y en Europa, más que en Estados Unidos, vivimos en sociedades de lujo: turismo, buena comida, automóviles, empresas de lujo… aunque sabemos bien que sus condiciones de producción destruyen las condiciones de vida en otros lugares: extracción de tierras raras, trabajo forzado, etc.
Su próximo libro habla de ‘hechos’. ¿Cree que venderá muchos ejemplares en una sociedad donde están más de moda las emociones e incluso la mentira institucional?
Mi intervención se dirige justo contra esta idea que Angela Merkel ya llamaba, hace diez años, la ‘época postfáctica’, ‘posverdad’ después. Tenemos que combatir esto; debemos aprender a vivir con las emociones.
Mi solución no es oponerlas a los hechos, sino reconocer primero que forman parte de ellos y combinar luego el conocimiento de los hechos con el cultivo de las emociones. Somos mejores en teoría que en la práctica.
El primer ministro sueco ha reconocido que usa ChatGPT. En su libro Una teoría crítica de la Inteligencia Artificial, Daniel Innerarity se pregunta qué debemos hacer frente al papel de la IA en el debate colectivo y la toma de decisiones políticas. ¿Qué opina?
Debemos alfabetizar a los ciudadanos sobre la IA porque los sistemas son interactivos: qué ramas de investigación existen, qué usos son reales y posibles, cuáles son los riesgos, etc.
Antes, la tecnología no era necesariamente un tema para todos, pero ahora lo es, porque el comportamiento de cada uno influye en cómo será el sistema; es un círculo de círculos. Por eso es más necesario que nunca explicar a todos qué es la IA, dónde está y hacia dónde va.

Debemos alfabetizar a los ciudadanos sobre la IA porque el comportamiento de cada uno influye en cómo será el sistema

¿Cómo podrían estas deliberaciones salir de la academia y llegar al público general?
Tenemos dos métodos. Uno es programar sistemas de IA que actúen como agentes morales dentro de los propios sistemas. Es mi propuesta de una IA ética, porque todos usan estos sistemas y ya contienen, en cierto modo, algunas recomendaciones éticas. Se trata de potenciarlas, que se conviertan más en espejos éticos. La otra vía es la educación, que debe empezar con los más pequeños, los usuarios del futuro.
¿Qué papel debe tener la creatividad humana en todo esto?
La creatividad humana rompe con el pasado, es impredecible, mientras que la época de la IA es la de la predicción probable. Por eso, la creatividad humana contribuye a la posibilidad del progreso moral, mientras que la IA no nos permite ir más allá de sus propios límites. La inteligencia natural tiene aspectos fuera del alcance de la IA, y debemos cultivarlos para seguir siendo seres humanos.
Afirma que los LLMs [Large Language Models] leen entre líneas, navegan nuestro subconsciente, y ha advertido del riesgo de que la IA se desarrolle en un contexto de computación cuántica. ¿A qué se refiere?
El riesgo en un futuro próximo sería el hardware cuántico. Hoy la estructura material de la IA es clásica (0 y 1), pero en un escenario posible interactuaría con la dimensión cuántica de la realidad, pudiendo manipular la estructura material y energética del universo. Eso abriría nuevos riesgos. En todo caso, los sistemas serán cada vez más rápidos, porque la inteligencia es, en parte, la capacidad de resolver problemas con velocidad. Esa aceleración es el primer problema.
El segundo es la ‘inteligencia alienígena’, que trasciende a la humana en cada contexto; no necesariamente superior, pero sí diferente, y por eso más peligrosa.
La IA procesa la información de modo completamente distinto al nuestro, y la expresión de sus ideas en términos que podamos entender podría implicar una manipulación desde un punto fuera de lo que somos capaces de concebir; el equivalente a encontrarnos frente a civilizaciones extraterrestres, como muestra la ciencia ficción. A lo mejor ya estamos en contacto con extraterrestres producidos por nosotros mismos.