En 1942, en un cuento corto titulado Círculo
vicioso, Asimov dejó escritas tres reglas que han sido consideradas como
las primeras reglas de la robótica:
1.- Un robot no puede hacer daño a un
ser humano ni directamente ni a través de su intervención.
2.- Un robot debe obedecer las órdenes
que le den los seres humanos, a menos que las mismas entren en conflicto con el
primer mandamiento.
3.-
Un robot debe salvaguardar su propia existencia, a menos que su autodefensa se
contradiga con el primer y el segundo mandamiento.
Más
adelante, el propio Asimov añadió una nueva Ley: Ningún robot puede dañar a la
humanidad o, por inacción, permitir que la humanidad sufra daño. Los avances
producidos en este campo, unidos a los conseguidos en otras disciplinas
componen lo que ha sido denominado tecnologías emergentes.
Así, en 2011, en el
Reino Unido, el Engineering and Physical Sciences Research Council y el Arts
and Humanities Research Council, plantearon los cinco principios siguientes:
1.- Los robots son herramientas de
múltiples usos. Los robots no deben ser diseñados exclusiva o principalmente
para matar o dañar a los seres humanos, salvo que exista un interés nacional.
2.- Los seres humanos y no los robots
son los sujetos responsables. Los robots son herramientas diseñadas para
cumplir con el Derecho y los derechos fundamentales, entre los que está la
privacidad.
3.- Los robots son productos. Deben ser
diseñados utilizando procesos que aseguren su protección y seguridad.
4.- Los robots son artefactos
fabricados. No deben ser diseñados de manera engañosa para explotar a usuarios
vulnerables, sino que su naturaleza como máquina debe ser transparente.
5.- Siempre debe ser posible saber quién
es legalmente responsable por el comportamiento de un robot.
Si
comparamos las leyes de Asimov con estos principios, podremos observar
diferencias sensibles.
En
todo caso, la necesidad de una regulación jurídica de la robótica sería una
posibilidad, si bien no existe una posición unánime de cómo debe ser ésta. Así,
es urgente realizar una reflexión seria y rigurosa que nos proporcione pautas
desde las cuales se pueda resolver los problemas que acompañan al desarrollo de
esta tecnología. Existen temas que pueden ser tratados de forma convencional
pero otros nos plantean nuevos escenarios que requieren un amplio debate ético.
Ciertamente
contamos con algunas pautas normativas surgidas en el campo en donde más se ha
avanzado: la bioética. Sin embargo, no todas estas normas pueden proyectarse en
la robótica y, lo que es más importante, es necesario saber si el marco de referencia
de las normas sobre bioética, que es el representado por la teoría de los
derechos humanos, es el que debemos utilizar en este campo.
Existen, resumiendo, dos tipos de
responsabilidad. Hay, de un lado, la responsabilidad del sujeto que empieza un
proceso, tanto que lo haga por su propia iniciativa, como que sea introducido
en un contexto de determinaciones causales; hay, del otro lado, la
responsabilidad de quien libremente asume algo que depende de él, ya sea que lo
reconozca como vinculante para su hacer, o se considere a sí mismo como responsable
de una relación con este mismo principio de su hacer. En el primer caso, se habla,
de “responder de”, en el segundo de “responder a”.
1) Hace falta antes de todo evitar de
pensar que las máquinas sean simples instrumentos, medios que pueden ser
utilizados bien o mal. En este caso la ética sería primera e independiente
respecto al uso de las máquinas. Las cosas no son tan sencillas. La utilización
de las máquinas, de hecho, transforma el hombre. Existe una verdadera mutación
antropológica en este uso, aunque si la máquina no es incorporada en el hombre
mismo. Es suficiente pensar a lo que conlleva el uso del teléfono celular.
2)
Esto sin embargo no significa que somos exentos de nuestra responsabilidad. a)
No somos desresponsabilizados respecto al contexto tecnológico o en el cual estamos
inmersos (el mundo de la técnica, del progreso científico-tecnológico, de las telecomunicaciones:
que se mueve según leyes ya autónomas, sobre las cuales el hombre no tiene
capacidad de incidir). De hecho, podemos incidir al menos localmente, en
nuestro campo de acción, sobre los efectos de esta tecnología global; por
ejemplo utilizando o no determinados instrumentos. b) Además no somos desresponsabilizados
ni siquiera respecto a las consecuencias de las actividades de máquinas que
utilizamos, pero que no hemos producido o programados nosotros.
c)
Por su parte, en el caso de máquinas dotadas de autorregulación, en el caso de
máquinas que pueden cumplir lo que, en analogía con los comportamientos humanos,
podemos llamar “elecciones” – pensamos por ejemplo a los learning robots, aunque
en estos casos hay una responsabilidad indirecta. Aclaramos, sin embargo, que cosa
ha cambiado desde un punto de vista ético con la construcción de learning
robots. Hemos pasados, en la relación hombre-robot, del modelo “master–slave”,
al modelo “companion–companion”. Esto ha reducido ciertamente la capacidad de
control del hombre y, en consecuencia, su responsabilidad directa. Pero no ha
eliminado su responsabilidad en una forma indirecta. Existen, también en este
caso, dos tipos de responsabilidades: 1.- La responsabilidad indirecta del
constructor y del programador (que tienen una responsabilidad directa respecto
a las condiciones de funcionamiento de la máquina capaz de autorregularse y, en
parte, del ambiente en el cual el robot aprende, pero indirecta respecto a sus
“elecciones”. Se trata de hecho de responsabilidades de estos sujetos humanos,
en la medida en la cual las “elecciones” del robot capaz de aprender se
desarrollar siempre en el ámbito determinado del software y del hardware que
han sido inicialmente predispuestos por el proyectista y el programador). 2. Existe
después otra acepción, la responsabilidad, siempre indirecta, del utilizador
(que acepta, nuevamente, las reglas de la utilización o de un learning robot y
juega con estas reglas de juego).
3)
Existen diferentes sentidos del término “responsabilidad”, pero el hombre, como
sujeto moral, no puede librarse totalmente de esta responsabilidad. Justamente
porque es un sujeto moral: o sea, resulta responsable.
4) La capacidad de autodeterminación de este
producto lo puede salvar de hecho de la responsabilidad directa respecto a las consecuencias,
pero no de las indirectas. Hay que ver si de todos modos esta concepción no sea
demasiado antropocéntrica, si no aplica a lo divino categorías humanas,
demasiado humanas. Preguntándonos: ¿Dios está sujeto a la moral propia en el
sentido que viene pensado por el hombre?, o tenemos que pensar en una
específica moral robótica, que puede eventualmente ser elaborada autónomamente,
por pruebas y error. Pero también de esta moral tendrían responsabilidad
indirecta los constructores y los programadores de los robots.
5) Una última cuestión, más filosófica
si cabe habría que realizar: ¿Por qué hay que hablar todavía de
responsabilidad?, ¿por qué tenemos el sentimiento de deber asumir la responsabilidad
en respecto a algo?, ¿tiene algún sentido hacerlo? Para responder a esta
cuestión no es suficiente hacer referencia a la responsabilidad, directa o
indirecta respecto a las consecuencias (lo que hemos hecho hasta ahora; lo que
hemos llamado el “ser responsable de”). Hay que hacer intervenir, además, la
referencia a determinados principios y necesitamos motivar su aceptación. Hay
que pasar de “responder de algo” a la
conciencia de “hay que responder a”
los principios que cada uno considera puntos de orientación y condición de las
elecciones de su propia vida. Cada uno de nosotros, así como también el
investigador que construye y programa un robot.
No hay comentarios.:
Publicar un comentario