Los avances en la ciencia y la tecnología están poniendo en duda cómo serán nuestras sociedades en un futuro muy próximo. La inteligencia artificial o la robótica plantean cuestiones que deben ser ampliamente consideradas si no queremos vernos sorprendidos por sus consecuencias. Hablamos con Julian Kinderlerer, que presidió el Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías. Su visión es, cuando menos, poco complaciente.
Gran parte de las decisiones éticas modernas tienen un pie en la ciencia y la tecnología. Así lo entendieron los organizadores del congreso ESOF (EuroScience Open Forum), celebrado el mes pasado en la ciudad francesa de Toulouse.
“Los avances de la ciencia están cuestionando los valores fundamentales en que se basan nuestras sociedades”, escribían en el programa, justificando así la elección de la ética como uno de los cuatro ejes transversales del congreso. Algunas de estas cuestiones tienen que ver con los avances en la inteligencia artificial y la robótica así como sus efectos en el trabajo. Sobre ellas hablaron en distintas sesiones los miembros del Grupo Europeo de Ética (EGE, por sus siglas en inglés), que durante este año están redactando informes abordando estos problemas.
Hablamos en Toulouse con Julian Kinderlerer, que fue su presidente entre 2011 y 2016. Bioquímico y profesor emérito de Derecho de la Propiedad Intelectual en la Universidad de Ciudad del Cabo (Sudáfrica), responde con voz suave y calmada. Sus palabras, sin embargo, resuenan con un eco insospechado.
¿Qué es el EGE y qué papel cumple? ¿Su opinión y sus informes son vinculantes para los gobiernos?
El EGE comenzó hace casi 30 años por una iniciativa de Jacques Delors, que era por entonces el presidente de la Comisión Europea. Se trata de un pequeño grupo de quince personas: cinco abogados, cinco científicos y cinco expertos de los ámbitos de la filosofía, la ética e, incluso, la teología. Al principio, los temas que se trataban eran sobre bioética, como el aborto o el uso de células madre, pero luego fue ampliando la mirada. Nos pueden pedir directamente nuestra opinión sobre temas concretos y podemos dar recomendaciones incluso a los parlamentos, pero nuestros informes no son vinculantes. Nuestra labor es forzarlos a pensar.
El próximo informe tratará sobre el futuro del trabajo. Hay corrientes que aseguran que los robots y la automatización no eliminarán puestos de trabajo, que se reconducirán hacia actividades más creativas. Otros afirman que se destruirá hasta el 50% de los empleos. ¿Cuál es su opinión?
Es una pregunta difícil de responder, pero déjame que le cuente una anécdota. Hace dos años estuve en Corea del Sur, y una de las compañías alemanas más importantes dio una charla sobre una fábrica automatizada que habían construido en Seúl. En ella, trabajaban cinco personas en total, aunque fabricaban una gran cantidad de máquinas muy complejas. De esos cinco empleados, tres se dedicaban a la limpieza y los otros dos eran ingenieros que trabajaban desde Alemania. Yo pregunté: ¿Qué piensan hacer con la gente que ya no tendrá trabajo en estas fábricas? La respuesta fue: “No es nuestro problema, es un problema de los gobiernos”. Yo creo que eso no es aceptable, que la industria debe hacer una innovación responsable y reconocer su compromiso con los trabajadores.
Su postura es pesimista. ¿Qué piensa de quienes afirman que los robots permitirán que nos dediquemos a tareas más ‘humanas’ y creativas?
Sí, soy pesimista. Solemos pensar en las tareas repetitivas de los trabajadores de una fábrica, pero también los abogados o los arquitectos, por ejemplo, suelen tener muchas labores repetitivas, que, por lo general, son las que pagan las facturas. Si las eliminamos, solo unos pocos podrán dedicarse a la parte más creativa, y, a la vez, su trabajo será más caro.
Julian Kinderlerer / Cortesía del entrevistado
¿Podremos actuar sobre estos problemas?
Sí, podemos mitigarlos, pero debe haber un reconocimiento de que el trabajo remunerado no es el único trabajo. Debemos desligar estos dos conceptos. Cuidar a los hijos: ¿Eso no es trabajo? Una solución propuesta sería implantar una renta básica universal, aunque no tengo claro que funcione. Para eso debería haber suficiente dinero, y aunque los robots aumenten la producción tendría que haber suficientes personas que compren lo que fabrican. Hay gente que piensa que deberíamos cobrar impuestos a los robots.
¿Está de acuerdo con eso?
No creo que haya que hacerlo directamente sobre los robots, sino más bien sobre las compañías que los usan (sonríe). Esa podría ser una manera de conseguir cierta renta básica. Pero ahora mismo no estamos cobrando impuestos adecuadamente a compañías como Apple o Amazon y su contribución a la desaparición de trabajos es importante.
Hay quien dice que una renta básica es injusta, que penalizaría la meritocracia.
(Levanta la mirada) La palabra importante ahí es: básica.
¿Proponen alguna solución concreta desde el EGE?
Nosotros podemos plantear algunas, pero no es nuestra misión, sino la de los políticos. Ellos nos piden que les forcemos a pensar: sobre qué es un empleo y qué es trabajar. A partir de ahí, tienen que venir las soluciones.
¿Qué pueden hacer la ciencia y la tecnología?
Lo que está claro es que la ciencia y la tecnología no se pueden detener. Desde luego, nunca se tuvo éxito al intentarlo.
Un problema reciente es el del uso de los algoritmos y la inteligencia artificial que afectan cada vez más a nuestras vidas. Más allá de recomendaciones de libros y viajes personalizados, ¿puede decirnos algún problema y riesgo concreto al que no estemos prestando atención?
¿Tienes una tarjeta de banco que uses para comprar en el supermercado? Pues, al menos en Estados Unidos, el supermercado sabe todo lo que has comprado en los últimos dos o tres años, ya sea azúcar, carne o verduras. Eso se puede conectar con tus datos médicos y los seguros pueden elevar sus tasas o incluso negártelo según tus hábitos. Hay quien dice que la privacidad ha muerto. Iniciativas como la nueva Ley de Protección de Datos están tratando de que siga existiendo, al menos en Europa.
Otro gran problema es el de las noticias falsas y su interferencia incluso con las elecciones democráticas.
¿Es esto tan relevante? Hay investigadores que dicen que esto no es nuevo, que los medios siempre han condicionado a la opinión pública y que puede ser más un problema humano que de los algoritmos.
Puede ser, pero antes podías elegir qué periódico comprar. Ahora Google, por ejemplo, tiene la posibilidad de saber lo que hay en tu correo electrónico y usarlo para personalizar anuncios. Y Facebook ha estado haciendo algo parecido. Es algo mucho más dirigido, mucho más preciso e insistente.
¿Qué podemos hacer frente a ello? Hay estudios que dicen que dedicarse a desmentirlas puede tener un efecto contraproducente y reforzar la conspiranoia…
Nosotros hemos desarrollado un sistema para saber si una web es fiable o no y que de alguna manera aparezca una marca que le permita al consumidor identificarlo. Pero no sabemos si funcionaría. Si alguien tiene cáncer y lee una página que le dice que bebiendo unos zumos se va a curar y otra página médica diciendo: lo siento, es incurable… ¿qué va a hacer esa persona? Seguramente probará con el zumo. Debemos pensar sobre eso.
Al hilo de la información en la red, hace poco se cerró durante unas horas la página de Wikipedia en España protestando por una nueva ley europea que pretende ponerles un canon por derechos de autor y responsabilizarles si se infligen normas de copyright. ¿Qué piensa de esto?
En mi opinión, no es correcto. Cuando empezaron los servicios web se consideraron algo similar a lo que ocurría en una conversación entre dos usuarios de teléfono. La compañía no tenía ningún derecho ni responsabilidad sobre lo que se decía en esa conversación. Lo que se está diciendo con esta ley es que el medio no es neutro, no es independiente, y eso es muy peligroso incluso para aspectos de influencia y censura.
Volviendo a la inteligencia artificial, ¿podemos fiarnos de estos sistemas? Por ejemplo, si llegan a tomar decisiones médicas a partir del big data…
No, creo que no podemos. Los programadores deberían tener una formación en ética, de forma que podamos aplicar una especie de leyes de Asimov para los robots –que no hagan daño a los humanos, que cumplan sus órdenes y que se protejan a sí mismos–. Pero no creo que tenga una respuesta a si basta con que los principios de la programación sean éticos. Ni siquiera los propios programadores la tienen.
La profesora Francesca Rossi cree que programar de esta forma puede ayudarnos a aprender y a comportarnos de forma ética. ¿Está de acuerdo?
En general sí, pero es difícil. Por ejemplo, un coche autónomo que, ante un problema, tiene que decidir entre atropellar y matar a gente que camina por la acera o al conductor. ¿Cómo programar eso? ¿Cómo se compara una vida frente a otras?
No hay entonces unas reglas de Asimov universales que podamos usar.
No, no las hay.
¿Tiene alguna respuesta contundente la ética?
No. La ética es un andamio. Un andamio que te permite construir haciéndote preguntas.