9 de octubre 2015    /   CIENCIA
por
 

¿ConsentirĂ­as el maltrato a un robot?

9 de octubre 2015    /   CIENCIA     por          
CompĂ¡rtelo twitter facebook whatsapp

¡Yorokobu gratis en formato digital!

Lee gratis la revista Placer haciendo clic aquí.

[T]olerarĂ­as que en un vĂ­deo corporativo de tu propia empresa apareciesen imĂ¡genes de maltrato? Es obvio, no.  Nadie en su sano juicio lo tolerarĂ­a. Nadie permitirĂ­a que en el vĂ­deo apareciesen imĂ¡genes en las que se maltratase a alguno de los empleados, a otras personas ajenas a la empresa o incluso a animales o plantas.
Pero ¿y el producto? ¿PermitirĂ­amos que se maltratase el producto en un vĂ­deo corporativo? PodrĂ­a ser divertido. PodrĂ­a incluso convertirse en viral y conseguir una gran repercusiĂ³n que redundase en beneficios para mĂ­ y para mi empresa. Ahora bien, dependerĂ­a de cuĂ¡l fuera el producto que fabricĂ¡semos. Imagina a Tim Cook (CEO de Apple Inc.) en un vĂ­deo de YouTube destrozando el futuro IPhone6s en plan HowToBasics. Si lo hiciera con un poco de gracia, Apple Inc. lo petaba.
Ahora bien, imagina que el producto que fabrica mi empresa es remotamente humano o remotamente animal. Y digo bien, remotamente. No es ni un humano ni un animal, ni siquiera es una planta. No vive, no siente, pero su apariencia tiene algo que nos recuerda a algo vivo. Hay algo en nuestro cerebro, algo ancestral, un mecanismo de protecciĂ³n de la especie, yo quĂ© sĂ©. Imaginemos una empresa que fabrica robots:¿maltratarĂ­amos a esos robots en un vĂ­deo corporativo?
Lo cierto es que no hace falta imaginar demasiado. Esto ya ha sucedido. Boston Dynamics, la empresa de robĂ³tica adquirida por Google, publica en su canal de YouTube vĂ­deos corporativos como muestra de lo que sus prototipos son capaces de hacer. Hasta aquĂ­ fenomenal. Sus prototipos, financiados por el fondo gubernamental de Defensa (DARPA), parecen sacados del futuro. Pequeños robots que saltan grandes obstĂ¡culos, humanoides que caminan sobre escombros, androides cuadrĂºpedos que corren mĂ¡s rĂ¡pido que Usain Bolt. En el fondo, pequeñas y grandes rĂ©plicas de diseños de la naturaleza. Pequeños insectos autĂ³nomos de metal, grandes seres animados por baterĂ­as de litio o motores de dos tiempos que guardan un parecido muy remoto con, por ejemplo, las mulas o los perros.

robot-interior

[E]n un par de esos vĂ­deos corporativos, y supongo que para demostrar la eficiencia y estabilidad de sus prototipos, un tipo le pega una patada a un cuadrĂºpedo automotriz mientras camina. En otro de ellos, otro prototipo trata de ponerse en pie sobre una placa de hielo mientras resbala una y otra vez. La secuencia se repite a continuaciĂ³n a cĂ¡mara lenta. Y a cĂ¡mara lenta resulta mucho mĂ¡s angustiosa y dramĂ¡tica.
Vi estos vĂ­deos hace unos meses y no pude evitar empatizar con los pobres robots de Boston Dynamics. Por supuesto sabĂ­a que eran simples mĂ¡quinas, simples objetos, animados pero inertes. Si bien no pude evitar pensar en los replicantes de Philip K. Dick y las razones de su rebeliĂ³n o en las leyes de la robĂ³tica de Isaac Asimov, particularmente en la tercera.
Soy consciente de que son mĂ¡quinas. Soy consciente de que las leyes de Asimov son ficciĂ³n. Pero tambiĂ©n es cierto que los robots como los de Boston Dynamics eran ficciĂ³n absoluta hasta hace muy poco tiempo. ¿QuiĂ©n puede negar que dentro de unos años, no muchos, convivamos con robots en nuestro dĂ­a a dĂ­a? Lo mĂ¡s probable es que esos robots no estuvieran dotados ni de sentimientos ni de conciencia, pero sĂ­ de la capacidad de interactuar entre ellos y con otros, con nosotros los humanos particularmente. Y cuando eso suceda, ¿seremos capaces de maltratar a un robot? ¿A alguien de nuestra apariencia y la misma capacidad para relacionarse que nosotros?
[L]a respuesta puede hallarse en un razonamiento sencillo que parte de asumir que el mundo que Asimov imaginĂ³ como futuro ya estĂ¡ aquĂ­, o al menos muy cerca. Si bien las leyes que estableciĂ³ para regular la relaciĂ³n de los humanos con las mĂ¡quinas nunca se han respetado desde el origen.
Un robot no harĂ¡ daño a un ser humano o, por inacciĂ³n, permitir que un ser humano sufra daño.
Un robot debe obedecer las Ă³rdenes dadas por los seres humanos, excepto si estas Ă³rdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protecciĂ³n no entre en conflicto con la 1ª o la 2ª Ley
Porque los prototipos de Boston Dynamics tienen como fin el uso militar. Son armas de guerra, son carne (o metal) de caĂ±Ă³n.
Mientras tanto, en lo que tarde en llegar el uso ordinario y tĂ¡ctico de los robots de la empresa estadounidense, me queda la tranquilidad de saber que yo fui el Ăºnico al que le dolieron aquellas patadas a los robots cuadrĂºpedos. Por ejemplo, un artĂ­culo en The Verge ponĂ­a de manifiesto esto mismo que acabo de contar y pedĂ­a a la empresa que dejase de golpear a sus creaciones. HabrĂ¡ que confiar en que el gĂ©nero humano, el que no construye humanoides para saltarse las leyes de Asimov, defienda en un futuro a los robots.
robot-interior2

[E]n 2011 el Consejo de InvestigaciĂ³n de IngenierĂ­a y Ciencias FĂ­sicas del reino Unido elaborĂ³ unas leyes de la robĂ³tica aplicables en el mundo real, junto con siete mensajes de alto nivel que las acompañarĂ­an:

  • Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  • Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  • Los robots deben ser diseñados de forma que aseguren su protecciĂ³n y seguridad.
  • Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  • Siempre debe ser posible averiguar quiĂ©n es el responsable legal de un robot.

Los mensajes destinados a ser transmitidos fueron:

  • Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigaciĂ³n del robot responsable.
  • La mala prĂ¡ctica nos perjudica a todos.
  • Abordar las inquietudes obvias del pĂºblico nos ayudarĂ¡ a todos avanzar.
  • Es importante demostrar que nosotros, como especialistas en robĂ³tica, estamos comprometidos con los mejores estĂ¡ndares posibles de la prĂ¡ctica.
  • Para entender el contexto y las consecuencias de nuestra investigaciĂ³n, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofĂ­a y las artes.
  • Debemos tener en cuenta la Ă©tica de la transparencia: hay lĂ­mites que deben ser accesibles.
  • Cuando vemos las cuentas errĂ³neas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

Parece que aĂºn hay esperanza para ellos y para nosotros. Solo falta cumplirlas.

¡Yorokobu gratis en formato digital!

Lee gratis la revista Placer haciendo clic aquí.

[T]olerarĂ­as que en un vĂ­deo corporativo de tu propia empresa apareciesen imĂ¡genes de maltrato? Es obvio, no.  Nadie en su sano juicio lo tolerarĂ­a. Nadie permitirĂ­a que en el vĂ­deo apareciesen imĂ¡genes en las que se maltratase a alguno de los empleados, a otras personas ajenas a la empresa o incluso a animales o plantas.
Pero ¿y el producto? ¿PermitirĂ­amos que se maltratase el producto en un vĂ­deo corporativo? PodrĂ­a ser divertido. PodrĂ­a incluso convertirse en viral y conseguir una gran repercusiĂ³n que redundase en beneficios para mĂ­ y para mi empresa. Ahora bien, dependerĂ­a de cuĂ¡l fuera el producto que fabricĂ¡semos. Imagina a Tim Cook (CEO de Apple Inc.) en un vĂ­deo de YouTube destrozando el futuro IPhone6s en plan HowToBasics. Si lo hiciera con un poco de gracia, Apple Inc. lo petaba.
Ahora bien, imagina que el producto que fabrica mi empresa es remotamente humano o remotamente animal. Y digo bien, remotamente. No es ni un humano ni un animal, ni siquiera es una planta. No vive, no siente, pero su apariencia tiene algo que nos recuerda a algo vivo. Hay algo en nuestro cerebro, algo ancestral, un mecanismo de protecciĂ³n de la especie, yo quĂ© sĂ©. Imaginemos una empresa que fabrica robots:¿maltratarĂ­amos a esos robots en un vĂ­deo corporativo?
Lo cierto es que no hace falta imaginar demasiado. Esto ya ha sucedido. Boston Dynamics, la empresa de robĂ³tica adquirida por Google, publica en su canal de YouTube vĂ­deos corporativos como muestra de lo que sus prototipos son capaces de hacer. Hasta aquĂ­ fenomenal. Sus prototipos, financiados por el fondo gubernamental de Defensa (DARPA), parecen sacados del futuro. Pequeños robots que saltan grandes obstĂ¡culos, humanoides que caminan sobre escombros, androides cuadrĂºpedos que corren mĂ¡s rĂ¡pido que Usain Bolt. En el fondo, pequeñas y grandes rĂ©plicas de diseños de la naturaleza. Pequeños insectos autĂ³nomos de metal, grandes seres animados por baterĂ­as de litio o motores de dos tiempos que guardan un parecido muy remoto con, por ejemplo, las mulas o los perros.

robot-interior

[E]n un par de esos vĂ­deos corporativos, y supongo que para demostrar la eficiencia y estabilidad de sus prototipos, un tipo le pega una patada a un cuadrĂºpedo automotriz mientras camina. En otro de ellos, otro prototipo trata de ponerse en pie sobre una placa de hielo mientras resbala una y otra vez. La secuencia se repite a continuaciĂ³n a cĂ¡mara lenta. Y a cĂ¡mara lenta resulta mucho mĂ¡s angustiosa y dramĂ¡tica.
Vi estos vĂ­deos hace unos meses y no pude evitar empatizar con los pobres robots de Boston Dynamics. Por supuesto sabĂ­a que eran simples mĂ¡quinas, simples objetos, animados pero inertes. Si bien no pude evitar pensar en los replicantes de Philip K. Dick y las razones de su rebeliĂ³n o en las leyes de la robĂ³tica de Isaac Asimov, particularmente en la tercera.
Soy consciente de que son mĂ¡quinas. Soy consciente de que las leyes de Asimov son ficciĂ³n. Pero tambiĂ©n es cierto que los robots como los de Boston Dynamics eran ficciĂ³n absoluta hasta hace muy poco tiempo. ¿QuiĂ©n puede negar que dentro de unos años, no muchos, convivamos con robots en nuestro dĂ­a a dĂ­a? Lo mĂ¡s probable es que esos robots no estuvieran dotados ni de sentimientos ni de conciencia, pero sĂ­ de la capacidad de interactuar entre ellos y con otros, con nosotros los humanos particularmente. Y cuando eso suceda, ¿seremos capaces de maltratar a un robot? ¿A alguien de nuestra apariencia y la misma capacidad para relacionarse que nosotros?
[L]a respuesta puede hallarse en un razonamiento sencillo que parte de asumir que el mundo que Asimov imaginĂ³ como futuro ya estĂ¡ aquĂ­, o al menos muy cerca. Si bien las leyes que estableciĂ³ para regular la relaciĂ³n de los humanos con las mĂ¡quinas nunca se han respetado desde el origen.
Un robot no harĂ¡ daño a un ser humano o, por inacciĂ³n, permitir que un ser humano sufra daño.
Un robot debe obedecer las Ă³rdenes dadas por los seres humanos, excepto si estas Ă³rdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protecciĂ³n no entre en conflicto con la 1ª o la 2ª Ley
Porque los prototipos de Boston Dynamics tienen como fin el uso militar. Son armas de guerra, son carne (o metal) de caĂ±Ă³n.
Mientras tanto, en lo que tarde en llegar el uso ordinario y tĂ¡ctico de los robots de la empresa estadounidense, me queda la tranquilidad de saber que yo fui el Ăºnico al que le dolieron aquellas patadas a los robots cuadrĂºpedos. Por ejemplo, un artĂ­culo en The Verge ponĂ­a de manifiesto esto mismo que acabo de contar y pedĂ­a a la empresa que dejase de golpear a sus creaciones. HabrĂ¡ que confiar en que el gĂ©nero humano, el que no construye humanoides para saltarse las leyes de Asimov, defienda en un futuro a los robots.
robot-interior2

[E]n 2011 el Consejo de InvestigaciĂ³n de IngenierĂ­a y Ciencias FĂ­sicas del reino Unido elaborĂ³ unas leyes de la robĂ³tica aplicables en el mundo real, junto con siete mensajes de alto nivel que las acompañarĂ­an:

  • Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  • Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  • Los robots deben ser diseñados de forma que aseguren su protecciĂ³n y seguridad.
  • Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  • Siempre debe ser posible averiguar quiĂ©n es el responsable legal de un robot.

Los mensajes destinados a ser transmitidos fueron:

  • Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigaciĂ³n del robot responsable.
  • La mala prĂ¡ctica nos perjudica a todos.
  • Abordar las inquietudes obvias del pĂºblico nos ayudarĂ¡ a todos avanzar.
  • Es importante demostrar que nosotros, como especialistas en robĂ³tica, estamos comprometidos con los mejores estĂ¡ndares posibles de la prĂ¡ctica.
  • Para entender el contexto y las consecuencias de nuestra investigaciĂ³n, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofĂ­a y las artes.
  • Debemos tener en cuenta la Ă©tica de la transparencia: hay lĂ­mites que deben ser accesibles.
  • Cuando vemos las cuentas errĂ³neas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

Parece que aĂºn hay esperanza para ellos y para nosotros. Solo falta cumplirlas.

CompĂ¡rtelo twitter facebook whatsapp
La vida de 25 cientĂ­ficas extraordinarias contada para adolescentes
La matrona que salvĂ³ miles de vidas con un Ăºtero de trapo
El almacĂ©n del biĂ³logo Hardy guarda 6.000 relatos de experiencias espirituales
La historia de un electrĂ³n y un positrĂ³n personificados en adolescentes japonesas
 
Especiales
 
facebook twitter whatsapp

Comentarios cerrados.