sábado, 16 de noviembre de 2013

ENSAYO FINAL COMPLETO: UNA VISIÓN MÁS CERCANA QUE FUTURA

Durante años, la ciencia ficción miró hacia un futuro en el que los robots fueran inteligentes, al igual que los cyborgs, mezcla de humano y máquina: Terminator, Matrix, Blade Runner, Yo Robot; son algunos ejemplos de ello. No obstante, hasta la última década, cualquier estudio sobre lo que esto podría suponer en el mundo real del futuro carecía de utilidad, ya que todo se consideraba ciencia ficción y no realidad científica. Hoy, sin embargo, la ciencia no solo se ha puesto al día, sino que ha incorporado, con ayuda de algunas ideas lanzadas por la ciencia ficción, utilidades a las que aparentemente no lograban llegar los argumentos originales (y que en algunos casos siguen sin llegar).

Ahora bien, se han señalado un conjunto de criterios o teorías con los que se pretende dar respuesta a los problemas éticos que plantean la creación y el uso de los robots; tales criterios aún no llegan a un enfoque global que sintetice aquellos protocolos que se deberían de tomar en cuenta en la fabricación de este tipo de tecnología, por lo tanto es de suma importancia detallar con exactitud las funciones, el material, el diseño, la finalidad y el propósito para los cuales han sido creados, y que dentro de estos protocolos se tenga la intención de desarrollar esta tecnología en beneficio de la sociedad.

En 1942, en un cuento corto titulado Círculo vicioso, (Asimov Isaac, 1989) dejó escritas tres reglas que han sido consideradas como las primeras reglas de la robótica (Wikipedia, Noviembre 2013):
1.- “Un robot no puede hacer daño a un ser humano ni directamente ni a través de su intervención.”
2.- “Un robot debe obedecer las órdenes que le den los seres humanos, a menos que las mismas entren en conflicto con el primer mandamiento.”
3.- “Un robot debe salvaguardar su propia existencia, a menos que su autodefensa se contradiga con el primer y el segundo mandamiento.”

Más adelante, el propio Asimov añadió una nueva ley con el nombre Ley Cero (Wikipedia, Noviembre 2013). “Ningún robot puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño.” Los avances producidos en este campo, unidos a los conseguidos en otras disciplinas componen lo que ha sido denominado tecnologías emergentes.

Así, en 2011, en el Reino Unido, el Engineering and Physical Sciences Research Council (ESPRC) y el Arts and Humanities Research Council (AHRC) plantearon los cinco principios siguientes. (Wikipedia, Noviembre 2013), Véase Tabla N°1:

(Tabla N°1. EPSRC / AHRC Principios de la Robótica)
REGLAS
PRINCIPIOS
Regla N°1
1.- “Los robots son herramientas de múltiples usos. Los robots no deben ser diseñados exclusiva o principalmente para matar o dañar a los seres humanos, salvo que exista un interés nacional.”
Regla N°2
2.- “Los seres humanos y no los robots son los sujetos responsables. Los robots son herramientas diseñadas para cumplir con el Derecho y los Derechos Fundamentales, entre los que está la privacidad.”
Regla N°3
3.- “Los robots son productos. Deben ser diseñados utilizando procesos que aseguren su protección y seguridad.”
Regla N°4
4.- “Los robots son artefactos fabricados. No deben ser diseñados de manera engañosa para explotar a usuarios vulnerables, sino que su naturaleza como máquina debe ser transparente.”
Regla N°5
5.- “Siempre debe ser posible saber quién es legalmente responsable por el comportamiento de un robot.”

Si comparamos las leyes de Asimov con estos principios, podremos observar diferencias sensibles, como las contradicciones en la toma de decisiones de los robots al poder tomar ellos mismos la acción de autodefenderse y poder llegar a dañar a alguien, incluso si llegáramos al extremo, podrían arremeter con su propio creador.

En todo caso, la necesidad de una regulación jurídica de la robótica sería una posibilidad, si bien no existe una posición unánime de cómo debe ser ésta. Con esto podemos darnos cuenta de que es urgente realizar una reflexión seria y rigurosa que nos proporcione pautas desde las cuales se pueda resolver los problemas que acompañan al desarrollo de esta tecnología. Y es que aunque contamos con algunas pautas normativas surgidas en el campo como la bioética, aún no se ha llegado a un criterio conciso.

Si bien es cierto que la ONU está en contra de los procesos que se pueden llevar a cabo contra los seres humanos también es muy cierto que el relator especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias Christof Heyns, hizo un llamado a la comunidad internacional ya que en su informe relata que, Estados Unidos, Gran Bretaña, Israel, Corea del Sur y Japón cuentan con armas robóticas aéreas, terrestres y marinas. Mientras que, China y Rusia están en proceso de obtenerlas.

Sabemos que se han desarrollado varios tipos de armas total o parcialmente autónomas. Algunos ejemplos de la producción y desarrollo de este tipo de tecnología están en manos de empresas privadas como “Northrop Grumman, la sexta casa armamentista más grande del mundo”, así como también de la empresa “Boston Dynamics” la cual ha estado trabajando en la creación de este tipo de tecnología (Periódico AM, Septiembre 2013). Ahora bien, si los robots letales autónomos, fueran añadidos al arsenal de los estados, agregarían una nueva dimensión a este distanciamiento, en que las decisiones de ataque serían tomadas por los mismos robots. Además de estar físicamente alejados de la acción, los seres humanos también estarían más distanciados de las decisiones de matar y su ejecución; por ejemplo tenemos que mediante el mandato de la Marina estadounidense, la empresa Northrop Grumman trabaja en el X-47B, un prototipo de avión que permite apuntar y disparar de forma inalámbrica, con capacidad de navegar de forma autónoma.

Por lo tanto, si planteando este problema nos encontramos con muchísimas dificultades, nos podríamos encontrar con problemas aún mayores, y es que, el Profesor de la Universidad de Reading, Kevin Warwick, a través de la entrevista con la especialista en neurociencia Pilar Quijada, “Warwick encabeza un proyecto patrocinado por el Consejo de Investigación de Ingeniería y Ciencias Físicas, que investiga el uso de máquinas de enseñanza y técnicas de inteligencia artificial para estimular adecuadamente y traducir patrones de actividad eléctrica en redes neurales vivas, con el objetivo de utilizar las redes de trabajo para controlar robots móviles” (Quijada P. 2012, 16 de Noviembre).Así, un cerebro biológico guiaría el proceso de comportamiento de cada robot. Se espera que el método sea ampliado al control de cabezas de robot, mediante la Inteligencia Artificial.

También cabe mencionar la campaña “STOP A LOS ROBOTS ASESINOS” (Campaign to Stop Killer Robots, Mayo 2013), que apuesta por la prohibición de este tipo de armas. Y es que esta campaña es llevada por científicos que están en contra de que los robots tengan un poco de inteligencia para fines bélicos, porque imagínense que los robots pudieran tomar decisiones por sí mismos y no obedecieran las órdenes que nosotros los seres humanos les indicáramos. Pues simplemente "Good Bye" raza humana, "Adiós" mundo cruel. Sí Warwick estuviera influenciado por malas mañas estaríamos viendo un futuro en el que a través de nuestros pensamientos manipularíamos el comportamiento de los robots; pero para Warwick no es el caso ya que su enfoque ha sido siempre desarrollar tecnología para satisfacer necesidades humanas como: prótesis robóticas, ayuda terapéutica, mejorar condiciones cerebrales, etc.

El asunto es complejo y tiene grandes implicaciones éticas y legales. ¿Podrá realmente un robot distinguir entre objetivos militares y civiles? Una máquina no podrá ser juzgada así que, en el caso de que se produzcan numerosas bajas civiles, ¿Quién se considerará responsable? El esquema tradicional es que hay un combatiente y un arma. Pero lo que estamos viendo ahora, es que el arma se convierte en soldado. Es el arma quien toma la decisión por sí misma.

Así que, no se trata de ser optimistas, ni pesimistas en relación a los progresos de las tecnologías y de sus aplicaciones. Se trata, solo,  por una parte de ser responsables. O sea, de ser conscientes que el hombre es un sujeto ético, en todos los significados que esta expresión puede asumir, así como de establecer mediante la Organización de las Naciones Unidas (ONU) un protocolo mundial que legisle y establezca claramente cuales son aquellas posturas que se deben de asumir para contrarrestar cualquier problema que se tenga con la construcción y uso de esta tecnología hablando de los robots y de la Inteligencia Artificial.

Porque como diría Christof Heyns en su informe “Al mismo tiempo, los seres humanos pueden, en algunos casos, a diferencia de los robots, ser capaces de actuar por compasión y pueden, en función de su comprensión de un contexto más amplio, saber que un enfoque más indulgente se pide en una situación específica”. (Heyns, C. 21 May 2013). Teniendo en cuenta estos argumentos, la primera pregunta que deberíamos hacernos es si bajo alguna circunstancia deberíamos permitir que los robots decidiesen sobre algunas cuestiones que tienden a ser razonadas bajo circunstancias de toma de decisiones, desempleo, uso militar o inclusive un uso indebido de este tipo de tecnología.


Así  que, deberíamos de formalizar de una vez por todas en las restricciones del uso y la construcción de esta tecnología, así como tener la capacidad moral y ética de realizar robots en beneficio de la sociedad, que contribuyan en todo momento con los seres humanos. Esta tecnología nos abrirá camino a un futuro prometedor donde resplandezca paz y una buena interacción entre robots y humanos. Sólo pido a las grandes potencias que no tengan en mente destruir este hermoso planeta que nos ha dotado de mucha vida y felicidad a todos nosotros y sobre todo a las futuras generaciones.

No hay comentarios.:

Publicar un comentario