sábado, 16 de noviembre de 2013

ARGUMENTANDO MI ENSAYO

En 1942, en un cuento corto titulado Círculo vicioso, Asimov dejó escritas tres reglas que han sido consideradas como las primeras reglas de la robótica:
1.- Un robot no puede hacer daño a un ser humano ni directamente ni a través de su intervención.
2.- Un robot debe obedecer las órdenes que le den los seres humanos, a menos que las mismas entren en conflicto con el primer mandamiento.

3.- Un robot debe salvaguardar su propia existencia, a menos que su autodefensa se contradiga con el primer y el segundo mandamiento.
Más adelante, el propio Asimov añadió una nueva Ley: Ningún robot puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño. Los avances producidos en este campo, unidos a los conseguidos en otras disciplinas componen lo que ha sido denominado tecnologías emergentes. 

Así, en 2011, en el Reino Unido, el Engineering and Physical Sciences Research Council y el Arts and Humanities Research Council, plantearon los cinco principios siguientes:
1.- Los robots son herramientas de múltiples usos. Los robots no deben ser diseñados exclusiva o principalmente para matar o dañar a los seres humanos, salvo que exista un interés nacional.
2.- Los seres humanos y no los robots son los sujetos responsables. Los robots son herramientas diseñadas para cumplir con el Derecho y los derechos fundamentales, entre los que está la privacidad.
3.- Los robots son productos. Deben ser diseñados utilizando procesos que aseguren su protección y seguridad.
4.- Los robots son artefactos fabricados. No deben ser diseñados de manera engañosa para explotar a usuarios vulnerables, sino que su naturaleza como máquina debe ser transparente.
5.- Siempre debe ser posible saber quién es legalmente responsable por el comportamiento de un robot.
Si comparamos las leyes de Asimov con estos principios, podremos observar diferencias sensibles.

En todo caso, la necesidad de una regulación jurídica de la robótica sería una posibilidad, si bien no existe una posición unánime de cómo debe ser ésta. Así, es urgente realizar una reflexión seria y rigurosa que nos proporcione pautas desde las cuales se pueda resolver los problemas que acompañan al desarrollo de esta tecnología. Existen temas que pueden ser tratados de forma convencional pero otros nos plantean nuevos escenarios que requieren un amplio debate ético.

Ciertamente contamos con algunas pautas normativas surgidas en el campo en donde más se ha avanzado: la bioética. Sin embargo, no todas estas normas pueden proyectarse en la robótica y, lo que es más importante, es necesario saber si el marco de referencia de las normas sobre bioética, que es el representado por la teoría de los derechos humanos, es el que debemos utilizar en este campo.
Existen, resumiendo, dos tipos de responsabilidad. Hay, de un lado, la responsabilidad del sujeto que empieza un proceso, tanto que lo haga por su propia iniciativa, como que sea introducido en un contexto de determinaciones causales; hay, del otro lado, la responsabilidad de quien libremente asume algo que depende de él, ya sea que lo reconozca como vinculante para su hacer, o se considere a sí mismo como responsable de una relación con este mismo principio de su hacer. En el primer caso, se habla, de “responder de”, en el segundo de “responder a”.

1) Hace falta antes de todo evitar de pensar que las máquinas sean simples instrumentos, medios que pueden ser utilizados bien o mal. En este caso la ética sería primera e independiente respecto al uso de las máquinas. Las cosas no son tan sencillas. La utilización de las máquinas, de hecho, transforma el hombre. Existe una verdadera mutación antropológica en este uso, aunque si la máquina no es incorporada en el hombre mismo. Es suficiente pensar a lo que conlleva el uso del teléfono celular.

 2) Esto sin embargo no significa que somos exentos de nuestra responsabilidad. a) No somos desresponsabilizados respecto al contexto tecnológico o en el cual estamos inmersos (el mundo de la técnica, del progreso científico-tecnológico, de las telecomunicaciones: que se mueve según leyes ya autónomas, sobre las cuales el hombre no tiene capacidad de incidir). De hecho, podemos incidir al menos localmente, en nuestro campo de acción, sobre los efectos de esta tecnología global; por ejemplo utilizando o no determinados instrumentos. b) Además no somos desresponsabilizados ni siquiera respecto a las consecuencias de las actividades de máquinas que utilizamos, pero que no hemos producido o programados nosotros. c) Por su parte, en el caso de máquinas dotadas de autorregulación, en el caso de máquinas que pueden cumplir lo que, en analogía con los comportamientos humanos, podemos llamar “elecciones” – pensamos por ejemplo a los learning robots, aunque en estos casos hay una responsabilidad indirecta. Aclaramos, sin embargo, que cosa ha cambiado desde un punto de vista ético con la construcción de learning robots. Hemos pasados, en la relación hombre-robot, del modelo “master–slave”, al modelo “companion–companion”. Esto ha reducido ciertamente la capacidad de control del hombre y, en consecuencia, su responsabilidad directa. Pero no ha eliminado su responsabilidad en una forma indirecta. Existen, también en este caso, dos tipos de responsabilidades: 1.- La responsabilidad indirecta del constructor y del programador (que tienen una responsabilidad directa respecto a las condiciones de funcionamiento de la máquina capaz de autorregularse y, en parte, del ambiente en el cual el robot aprende, pero indirecta respecto a sus “elecciones”. Se trata de hecho de responsabilidades de estos sujetos humanos, en la medida en la cual las “elecciones” del robot capaz de aprender se desarrollar siempre en el ámbito determinado del software y del hardware que han sido inicialmente predispuestos por el proyectista y el programador). 2. Existe después otra acepción, la responsabilidad, siempre indirecta, del utilizador (que acepta, nuevamente, las reglas de la utilización o de un learning robot y juega con estas reglas de juego).

 3) Existen diferentes sentidos del término “responsabilidad”, pero el hombre, como sujeto moral, no puede librarse totalmente de esta responsabilidad. Justamente porque es un sujeto moral: o sea, resulta responsable.

4) La capacidad de autodeterminación de este producto lo puede salvar de hecho de la responsabilidad directa respecto a las consecuencias, pero no de las indirectas. Hay que ver si de todos modos esta concepción no sea demasiado antropocéntrica, si no aplica a lo divino categorías humanas, demasiado humanas. Preguntándonos: ¿Dios está sujeto a la moral propia en el sentido que viene pensado por el hombre?, o tenemos que pensar en una específica moral robótica, que puede eventualmente ser elaborada autónomamente, por pruebas y error. Pero también de esta moral tendrían responsabilidad indirecta los constructores y los programadores de los robots.


5) Una última cuestión, más filosófica si cabe habría que realizar: ¿Por qué hay que hablar todavía de responsabilidad?, ¿por qué tenemos el sentimiento de deber asumir la responsabilidad en respecto a algo?, ¿tiene algún sentido hacerlo? Para responder a esta cuestión no es suficiente hacer referencia a la responsabilidad, directa o indirecta respecto a las consecuencias (lo que hemos hecho hasta ahora; lo que hemos llamado el “ser responsable de”). Hay que hacer intervenir, además, la referencia a determinados principios y necesitamos motivar su aceptación. Hay que pasar de “responder de algo” a la conciencia de “hay que responder a” los principios que cada uno considera puntos de orientación y condición de las elecciones de su propia vida. Cada uno de nosotros, así como también el investigador que construye y programa un robot.

No hay comentarios.:

Publicar un comentario