Rafael de Asís Roig (Granada, 1963) es miembro del Instituto de Derechos Humanos Bartolomé de las Casas de la Universidad Carlos III de Madrid (UC3M). Autor de una decena de libros y coautor de otros tantos, ha impartido cerca de dos centenares de conferencias, en la actualidad su interés investigador se centra en el estudio de la igualdad y no discriminación, los derechos de las personas con discapacidad y la interpretación y argumentación jurídica. El próximo viernes 27 de septiembre de 2013 participa en la tertulia que se celebra en el marco de la Noche de los Investigadores de Madrid bajo el título: “Los robots y las leyes del futuro”, un encuentro entre científicos, tecnólogos y legisladores para analizar los retos del Derecho ante avances tecnológicos.
A la justicia se le achaca lentitud. ¿Cree que las nuevas tecnologías agilizan los procesos legales y jurídicos?
Sin duda que sí. Está claro que la llegada de la informática a los tribunales ha provocado cierta aceleración en los procesos y un cambio en la metodología de los operadores jurídicos.
Las nuevas tecnologías facilitan mucho la vida diaria, pero ¿hasta qué punto son fuente de problemas en la aplicación de justicia?
Tradicionalmente, los avances tecnológicos provocan cambios sociales que, al menos al principio, son fuente de problemas éticos y jurídicos. El progreso tecnológico no implica necesariamente un progreso ético, pero tampoco un retroceso ni un daño.
¿Son necesarios cambios legales por el impacto de nuevas tecnologías, como las redes sociales, a nuestras vidas?
Depende de la manera en la que ese impacto afecte a la sociedad. Por ejemplo, está claro que los jóvenes tienen un concepto de intimidad diferente al de los mayores y esto puede hacer que aspectos que ahora consideramos cuestionables jurídicamente no tengan por qué serlo en el futuro. Pero también se pueden dar casos en los que la cuestión vaya a la inversa.
¿Los cambios en el derecho van al ritmo de las nuevas tecnologías?
No. Existe un principio que identifica al derecho y que hace que los cambios jurídicos sean lentos. Se trata del principio de seguridad jurídica. En todo caso, debemos ser conscientes de que la sociedad tampoco cambia al ritmo que lo hacen las nuevas tecnologías por lo que, de alguna manera, este cambio más lento de derecho posee una función protectora.
¿Cuáles son los principales retos legales ante la llegada de nuevos avances científicos y tecnológicos?
Creo que hay dos temas recurrentes sobre lo que más se trabaja en este campo y que tienen que ver con la privacidad y con el consentimiento. No obstante, las tecnologías convergentes nos presentan un panorama de retos que se proyectan en el corazón de la ética y del derecho y que afectan a los derechos humanos (cuestiones como la definición de lo humano, de la dignidad o de las relaciones sociales).
¿Qué se entiende por tecnologías convergentes?
Me refiero a la combinación de tecnologías transformativas como la nanociencia y la nanotecnología, la biotecnología, la biomedicina y la ingeniería genética, la tecnología de la información, las ciencias cognitivas… La convergencia de estas tecnologías presenta sin duda grandes retos, algunos de ellos comunes a todas.
En el caso concreto de la robótica, ¿puede un robot llegar a tener los mismos derechos y obligaciones que una persona?
En principio la contestación más fácil es la del no. Y ello es así porque, en primer lugar, los derechos y las obligaciones son fruto de una decisión humana. Pero claro, si pensamos que los derechos y las obligaciones se tienen por poseer una serie de facultades, competencias, capacidades o sentimientos, la contestación debería ser “depende de cómo sea el robot”. Aun así, siempre nos quedaría lo primero.
Y ahora, si un robot comercializado por una compañía causa daños a una persona por su mal funcionamiento, ¿de quién es la responsabilidad?
Es difícil contestar de manera general porque todo dependerá del caso concreto. Está claro que, en línea de principio, desde un punto de vista ético, podemos pensar en tres posibles agentes morales: el creador, la empresa y el usuario. Y tenemos que utilizar la distinción entre responsabilidad directa e indirecta.
Y en el futuro, si la Inteligencia Artificial dota a los robots de cierta autonomía, ¿de quién sería la responsabilidad?
Pues dependiendo entonces del grado de autonomía que se alcanzara, la diferencia con la pregunta anterior es que aparecería un nuevo agente moral: el robot.
¿Serían viables unas leyes de la robótica como las que establece Asimov en sus novelas?
Constituyen un punto de partida pero, en la actualidad, son insuficientes e incluso cuestionadas por algunos (e incumplidas). Creo que es necesario un debate ético sobre la robótica (ya iniciado con la roboética) que se plantee su sentido y aplicación y que permita proponer algunas normas que rijan su funcionamiento, al igual que lo que está ocurriendo en el campo de la biomedicina.
Parece un campo por explorar, ¿no?
Yo animaría a la realización de estudios éticos y jurídicos sobre las llamadas tecnologías convergentes, ya que me parece que es un campo poco explorado y que nos plantea algunos de los principales retos de este siglo XXI.