[T]olerarĂas que en un vĂdeo corporativo de tu propia empresa apareciesen imĂ¡genes de maltrato? Es obvio, no.  Nadie en su sano juicio lo tolerarĂa. Nadie permitirĂa que en el vĂdeo apareciesen imĂ¡genes en las que se maltratase a alguno de los empleados, a otras personas ajenas a la empresa o incluso a animales o plantas.
Pero ¿y el producto? ¿PermitirĂamos que se maltratase el producto en un vĂdeo corporativo? PodrĂa ser divertido. PodrĂa incluso convertirse en viral y conseguir una gran repercusiĂ³n que redundase en beneficios para mĂ y para mi empresa. Ahora bien, dependerĂa de cuĂ¡l fuera el producto que fabricĂ¡semos. Imagina a Tim Cook (CEO de Apple Inc.) en un vĂdeo de YouTube destrozando el futuro IPhone6s en plan HowToBasics. Si lo hiciera con un poco de gracia, Apple Inc. lo petaba.
Ahora bien, imagina que el producto que fabrica mi empresa es remotamente humano o remotamente animal. Y digo bien, remotamente. No es ni un humano ni un animal, ni siquiera es una planta. No vive, no siente, pero su apariencia tiene algo que nos recuerda a algo vivo. Hay algo en nuestro cerebro, algo ancestral, un mecanismo de protecciĂ³n de la especie, yo quĂ© sĂ©. Imaginemos una empresa que fabrica robots:¿maltratarĂamos a esos robots en un vĂdeo corporativo?
Lo cierto es que no hace falta imaginar demasiado. Esto ya ha sucedido. Boston Dynamics, la empresa de robĂ³tica adquirida por Google, publica en su canal de YouTube vĂdeos corporativos como muestra de lo que sus prototipos son capaces de hacer. Hasta aquĂ fenomenal. Sus prototipos, financiados por el fondo gubernamental de Defensa (DARPA), parecen sacados del futuro. Pequeños robots que saltan grandes obstĂ¡culos, humanoides que caminan sobre escombros, androides cuadrĂºpedos que corren mĂ¡s rĂ¡pido que Usain Bolt. En el fondo, pequeñas y grandes rĂ©plicas de diseños de la naturaleza. Pequeños insectos autĂ³nomos de metal, grandes seres animados por baterĂas de litio o motores de dos tiempos que guardan un parecido muy remoto con, por ejemplo, las mulas o los perros.

[E]n un par de esos vĂdeos corporativos, y supongo que para demostrar la eficiencia y estabilidad de sus prototipos, un tipo le pega una patada a un cuadrĂºpedo automotriz mientras camina. En otro de ellos, otro prototipo trata de ponerse en pie sobre una placa de hielo mientras resbala una y otra vez. La secuencia se repite a continuaciĂ³n a cĂ¡mara lenta. Y a cĂ¡mara lenta resulta mucho mĂ¡s angustiosa y dramĂ¡tica.
Vi estos vĂdeos hace unos meses y no pude evitar empatizar con los pobres robots de Boston Dynamics. Por supuesto sabĂa que eran simples mĂ¡quinas, simples objetos, animados pero inertes. Si bien no pude evitar pensar en los replicantes de Philip K. Dick y las razones de su rebeliĂ³n o en las leyes de la robĂ³tica de Isaac Asimov, particularmente en la tercera.
Soy consciente de que son mĂ¡quinas. Soy consciente de que las leyes de Asimov son ficciĂ³n. Pero tambiĂ©n es cierto que los robots como los de Boston Dynamics eran ficciĂ³n absoluta hasta hace muy poco tiempo. ¿QuiĂ©n puede negar que dentro de unos años, no muchos, convivamos con robots en nuestro dĂa a dĂa? Lo mĂ¡s probable es que esos robots no estuvieran dotados ni de sentimientos ni de conciencia, pero sĂ de la capacidad de interactuar entre ellos y con otros, con nosotros los humanos particularmente. Y cuando eso suceda, ¿seremos capaces de maltratar a un robot? ¿A alguien de nuestra apariencia y la misma capacidad para relacionarse que nosotros?
[L]a respuesta puede hallarse en un razonamiento sencillo que parte de asumir que el mundo que Asimov imaginĂ³ como futuro ya estĂ¡ aquĂ, o al menos muy cerca. Si bien las leyes que estableciĂ³ para regular la relaciĂ³n de los humanos con las mĂ¡quinas nunca se han respetado desde el origen.
Un robot no harĂ¡ daño a un ser humano o, por inacciĂ³n, permitir que un ser humano sufra daño.
Un robot debe obedecer las Ă³rdenes dadas por los seres humanos, excepto si estas Ă³rdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protecciĂ³n no entre en conflicto con la 1ª o la 2ª Ley
Porque los prototipos de Boston Dynamics tienen como fin el uso militar. Son armas de guerra, son carne (o metal) de caĂ±Ă³n.
Mientras tanto, en lo que tarde en llegar el uso ordinario y tĂ¡ctico de los robots de la empresa estadounidense, me queda la tranquilidad de saber que yo fui el Ăºnico al que le dolieron aquellas patadas a los robots cuadrĂºpedos. Por ejemplo, un artĂculo en The Verge ponĂa de manifiesto esto mismo que acabo de contar y pedĂa a la empresa que dejase de golpear a sus creaciones. HabrĂ¡ que confiar en que el gĂ©nero humano, el que no construye humanoides para saltarse las leyes de Asimov, defienda en un futuro a los robots.

[E]n 2011 el Consejo de InvestigaciĂ³n de IngenierĂa y Ciencias FĂsicas del reino Unido elaborĂ³ unas leyes de la robĂ³tica aplicables en el mundo real, junto con siete mensajes de alto nivel que las acompañarĂan:
- Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
- Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
- Los robots deben ser diseñados de forma que aseguren su protecciĂ³n y seguridad.
- Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
- Siempre debe ser posible averiguar quién es el responsable legal de un robot.
Los mensajes destinados a ser transmitidos fueron:
- Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigaciĂ³n del robot responsable.
- La mala prĂ¡ctica nos perjudica a todos.
- Abordar las inquietudes obvias del pĂºblico nos ayudarĂ¡ a todos avanzar.
- Es importante demostrar que nosotros, como especialistas en robĂ³tica, estamos comprometidos con los mejores estĂ¡ndares posibles de la prĂ¡ctica.
- Para entender el contexto y las consecuencias de nuestra investigaciĂ³n, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofĂa y las artes.
- Debemos tener en cuenta la Ă©tica de la transparencia: hay lĂmites que deben ser accesibles.
- Cuando vemos las cuentas errĂ³neas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.
Parece que aĂºn hay esperanza para ellos y para nosotros. Solo falta cumplirlas.
Comentarios cerrados.