fbpx
9 de octubre 2015    /   CIENCIA
por
 

¿Consentirías el maltrato a un robot?

9 de octubre 2015    /   CIENCIA     por          
Compártelo twitter facebook whatsapp
thumb image

[T]olerarías que en un vídeo corporativo de tu propia empresa apareciesen imágenes de maltrato? Es obvio, no.  Nadie en su sano juicio lo toleraría. Nadie permitiría que en el vídeo apareciesen imágenes en las que se maltratase a alguno de los empleados, a otras personas ajenas a la empresa o incluso a animales o plantas.
Pero ¿y el producto? ¿Permitiríamos que se maltratase el producto en un vídeo corporativo? Podría ser divertido. Podría incluso convertirse en viral y conseguir una gran repercusión que redundase en beneficios para mí y para mi empresa. Ahora bien, dependería de cuál fuera el producto que fabricásemos. Imagina a Tim Cook (CEO de Apple Inc.) en un vídeo de YouTube destrozando el futuro IPhone6s en plan HowToBasics. Si lo hiciera con un poco de gracia, Apple Inc. lo petaba.
Ahora bien, imagina que el producto que fabrica mi empresa es remotamente humano o remotamente animal. Y digo bien, remotamente. No es ni un humano ni un animal, ni siquiera es una planta. No vive, no siente, pero su apariencia tiene algo que nos recuerda a algo vivo. Hay algo en nuestro cerebro, algo ancestral, un mecanismo de protección de la especie, yo qué sé. Imaginemos una empresa que fabrica robots:¿maltrataríamos a esos robots en un vídeo corporativo?
Lo cierto es que no hace falta imaginar demasiado. Esto ya ha sucedido. Boston Dynamics, la empresa de robótica adquirida por Google, publica en su canal de YouTube vídeos corporativos como muestra de lo que sus prototipos son capaces de hacer. Hasta aquí fenomenal. Sus prototipos, financiados por el fondo gubernamental de Defensa (DARPA), parecen sacados del futuro. Pequeños robots que saltan grandes obstáculos, humanoides que caminan sobre escombros, androides cuadrúpedos que corren más rápido que Usain Bolt. En el fondo, pequeñas y grandes réplicas de diseños de la naturaleza. Pequeños insectos autónomos de metal, grandes seres animados por baterías de litio o motores de dos tiempos que guardan un parecido muy remoto con, por ejemplo, las mulas o los perros.

robot-interior

[E]n un par de esos vídeos corporativos, y supongo que para demostrar la eficiencia y estabilidad de sus prototipos, un tipo le pega una patada a un cuadrúpedo automotriz mientras camina. En otro de ellos, otro prototipo trata de ponerse en pie sobre una placa de hielo mientras resbala una y otra vez. La secuencia se repite a continuación a cámara lenta. Y a cámara lenta resulta mucho más angustiosa y dramática.
Vi estos vídeos hace unos meses y no pude evitar empatizar con los pobres robots de Boston Dynamics. Por supuesto sabía que eran simples máquinas, simples objetos, animados pero inertes. Si bien no pude evitar pensar en los replicantes de Philip K. Dick y las razones de su rebelión o en las leyes de la robótica de Isaac Asimov, particularmente en la tercera.
Soy consciente de que son máquinas. Soy consciente de que las leyes de Asimov son ficción. Pero también es cierto que los robots como los de Boston Dynamics eran ficción absoluta hasta hace muy poco tiempo. ¿Quién puede negar que dentro de unos años, no muchos, convivamos con robots en nuestro día a día? Lo más probable es que esos robots no estuvieran dotados ni de sentimientos ni de conciencia, pero sí de la capacidad de interactuar entre ellos y con otros, con nosotros los humanos particularmente. Y cuando eso suceda, ¿seremos capaces de maltratar a un robot? ¿A alguien de nuestra apariencia y la misma capacidad para relacionarse que nosotros?
[L]a respuesta puede hallarse en un razonamiento sencillo que parte de asumir que el mundo que Asimov imaginó como futuro ya está aquí, o al menos muy cerca. Si bien las leyes que estableció para regular la relación de los humanos con las máquinas nunca se han respetado desde el origen.
Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley
Porque los prototipos de Boston Dynamics tienen como fin el uso militar. Son armas de guerra, son carne (o metal) de cañón.
Mientras tanto, en lo que tarde en llegar el uso ordinario y táctico de los robots de la empresa estadounidense, me queda la tranquilidad de saber que yo fui el único al que le dolieron aquellas patadas a los robots cuadrúpedos. Por ejemplo, un artículo en The Verge ponía de manifiesto esto mismo que acabo de contar y pedía a la empresa que dejase de golpear a sus creaciones. Habrá que confiar en que el género humano, el que no construye humanoides para saltarse las leyes de Asimov, defienda en un futuro a los robots.
robot-interior2

[E]n 2011 el Consejo de Investigación de Ingeniería y Ciencias Físicas del reino Unido elaboró unas leyes de la robótica aplicables en el mundo real, junto con siete mensajes de alto nivel que las acompañarían:

  • Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  • Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  • Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
  • Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  • Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Los mensajes destinados a ser transmitidos fueron:

  • Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
  • La mala práctica nos perjudica a todos.
  • Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
  • Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
  • Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
  • Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
  • Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

Parece que aún hay esperanza para ellos y para nosotros. Solo falta cumplirlas.

[T]olerarías que en un vídeo corporativo de tu propia empresa apareciesen imágenes de maltrato? Es obvio, no.  Nadie en su sano juicio lo toleraría. Nadie permitiría que en el vídeo apareciesen imágenes en las que se maltratase a alguno de los empleados, a otras personas ajenas a la empresa o incluso a animales o plantas.
Pero ¿y el producto? ¿Permitiríamos que se maltratase el producto en un vídeo corporativo? Podría ser divertido. Podría incluso convertirse en viral y conseguir una gran repercusión que redundase en beneficios para mí y para mi empresa. Ahora bien, dependería de cuál fuera el producto que fabricásemos. Imagina a Tim Cook (CEO de Apple Inc.) en un vídeo de YouTube destrozando el futuro IPhone6s en plan HowToBasics. Si lo hiciera con un poco de gracia, Apple Inc. lo petaba.
Ahora bien, imagina que el producto que fabrica mi empresa es remotamente humano o remotamente animal. Y digo bien, remotamente. No es ni un humano ni un animal, ni siquiera es una planta. No vive, no siente, pero su apariencia tiene algo que nos recuerda a algo vivo. Hay algo en nuestro cerebro, algo ancestral, un mecanismo de protección de la especie, yo qué sé. Imaginemos una empresa que fabrica robots:¿maltrataríamos a esos robots en un vídeo corporativo?
Lo cierto es que no hace falta imaginar demasiado. Esto ya ha sucedido. Boston Dynamics, la empresa de robótica adquirida por Google, publica en su canal de YouTube vídeos corporativos como muestra de lo que sus prototipos son capaces de hacer. Hasta aquí fenomenal. Sus prototipos, financiados por el fondo gubernamental de Defensa (DARPA), parecen sacados del futuro. Pequeños robots que saltan grandes obstáculos, humanoides que caminan sobre escombros, androides cuadrúpedos que corren más rápido que Usain Bolt. En el fondo, pequeñas y grandes réplicas de diseños de la naturaleza. Pequeños insectos autónomos de metal, grandes seres animados por baterías de litio o motores de dos tiempos que guardan un parecido muy remoto con, por ejemplo, las mulas o los perros.

robot-interior

[E]n un par de esos vídeos corporativos, y supongo que para demostrar la eficiencia y estabilidad de sus prototipos, un tipo le pega una patada a un cuadrúpedo automotriz mientras camina. En otro de ellos, otro prototipo trata de ponerse en pie sobre una placa de hielo mientras resbala una y otra vez. La secuencia se repite a continuación a cámara lenta. Y a cámara lenta resulta mucho más angustiosa y dramática.
Vi estos vídeos hace unos meses y no pude evitar empatizar con los pobres robots de Boston Dynamics. Por supuesto sabía que eran simples máquinas, simples objetos, animados pero inertes. Si bien no pude evitar pensar en los replicantes de Philip K. Dick y las razones de su rebelión o en las leyes de la robótica de Isaac Asimov, particularmente en la tercera.
Soy consciente de que son máquinas. Soy consciente de que las leyes de Asimov son ficción. Pero también es cierto que los robots como los de Boston Dynamics eran ficción absoluta hasta hace muy poco tiempo. ¿Quién puede negar que dentro de unos años, no muchos, convivamos con robots en nuestro día a día? Lo más probable es que esos robots no estuvieran dotados ni de sentimientos ni de conciencia, pero sí de la capacidad de interactuar entre ellos y con otros, con nosotros los humanos particularmente. Y cuando eso suceda, ¿seremos capaces de maltratar a un robot? ¿A alguien de nuestra apariencia y la misma capacidad para relacionarse que nosotros?
[L]a respuesta puede hallarse en un razonamiento sencillo que parte de asumir que el mundo que Asimov imaginó como futuro ya está aquí, o al menos muy cerca. Si bien las leyes que estableció para regular la relación de los humanos con las máquinas nunca se han respetado desde el origen.
Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley
Porque los prototipos de Boston Dynamics tienen como fin el uso militar. Son armas de guerra, son carne (o metal) de cañón.
Mientras tanto, en lo que tarde en llegar el uso ordinario y táctico de los robots de la empresa estadounidense, me queda la tranquilidad de saber que yo fui el único al que le dolieron aquellas patadas a los robots cuadrúpedos. Por ejemplo, un artículo en The Verge ponía de manifiesto esto mismo que acabo de contar y pedía a la empresa que dejase de golpear a sus creaciones. Habrá que confiar en que el género humano, el que no construye humanoides para saltarse las leyes de Asimov, defienda en un futuro a los robots.
robot-interior2

[E]n 2011 el Consejo de Investigación de Ingeniería y Ciencias Físicas del reino Unido elaboró unas leyes de la robótica aplicables en el mundo real, junto con siete mensajes de alto nivel que las acompañarían:

  • Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  • Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  • Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
  • Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  • Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Los mensajes destinados a ser transmitidos fueron:

  • Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
  • La mala práctica nos perjudica a todos.
  • Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
  • Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
  • Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
  • Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
  • Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

Parece que aún hay esperanza para ellos y para nosotros. Solo falta cumplirlas.

Compártelo twitter facebook whatsapp
Canibalismo en España: ¿Nos comíamos los unos a los otros hace 10.000 años?
El ordenador que predice el futuro
Cinco razones por las que inventar la agricultura fue una mala idea
Un virus gigante ‘revive’ tras pasar 30.000 años congelado
 
Especiales
 
facebook twitter whatsapp

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *