fbpx
8 de julio 2014    /   CIENCIA
por
 

Los cinco sentidos de un robot

8 de julio 2014    /   CIENCIA     por          
Compártelo twitter facebook whatsapp
thumb image

«Para llegar a niveles humanos de inteligencia los robots necesitarán sentidos como los humanos», esto lo decía Hurbert Dreyfus, filósofo y estudioso de las implicaciones de la inteligencia artificial. Vamos, que hasta que los androides no tengan vista, oído, tacto, olfato y gusto (el sexto sentido solo es necesario para recrear a videntes y profetas), la inteligencia artificial no tiene nada que hacer contra un humano.

Esto no es puro patriotismo humano ni tiene que ver con batallas de robots vs personas por la supremacía del planeta o persecuciones a lo Blade Runner. Sencillamente esta especie de frontera conceptual establecida por Dreyfus tiene mucho sentido, nunca mejor dicho. Nuestros sentidos son la fuente de información que tenemos sobre el medio, la forma en que percibimos el entorno. Así que sin ellos no hay inteligencia humana posible.
Ni un solo suspiro de alivio: la destrucción o la esclavitud de la especie humana por una horda de robots podría no estar tan lejos. Está bien, basta de bromas estúpidas sobre apocalipsis tecnológicos. Pero en serio, la tecnología de hoy en día ya ha sido capaz de recrear algunos de los sentidos humanos a los que se refiere Dreyfus.
Principalmente se trata de la vista y el oído. Y no son parte de una costosa investigación en algún prestigioso laboratorio, al contrario, están en el bolsillo de cada uno de nosotros. Un smartphone tiene cámara y micrófono, cuyos niveles de precisión son altos, muy altos en comparación con lo que existía unos años atrás. Estos sensores son capaces de captar la información del entorno hasta mejor que nuestros propios sentidos. Las cámaras, por ejemplo, cuentan con zoom para ver más allá de nuestros ojos y una resolución que les permite obtener detalles minúsculos.

Foto: Stuart Williams bajo licencia CC
Foto: Stuart Williams bajo licencia CC

Lo que puede hacerse con esta información ya es otra cosa y depende del software, así como de la potencia de computación y otros factores; el cerebro, si seguimos con la metáfora inspirada en la cita de Dreyfus. Los sistemas actuales no pueden procesar una imagen de la misma forma que hacemos nosotros, por mucho que la cámara capte hasta el último pelo de las personas que aparecen. La información se obtiene, pero no se puede aprovechar toda.
Sin embargo, ya existe software de reconocimiento facial que permite identificar los rostros contenidos en una base de datos (Facebook te reconoce incluso cuando peor sales en las fotos). Si  persistimos en la metáfora, una persona está familiarizada con las caras de la gente que conoce, las que están en su base de datos. El reconocimiento de gestos está presente en dispositivos como el Kinect para la Xbox, aún rudimentario, sí, pero en el futuro podría permitir a un robot interpretar el lenguaje corporal humano, como algunos aspavientos. El flamante smartphone de Amazon, Fire Phone, cuenta con reconocimiento de objetos (principalmente productos, para que el usuario compruebe si están más baratos en la tienda online de la compañía), mientras que existen aplicaciones móviles que reconocen monumentos y lugares famosos, como Google Goggles o Wikitude.
Imaginemos todo esto junto y tendremos un robot capaz de identificar un buen montón de cosas. Un adelanto de lo que serían capaces estos androides es el simpático Asimo, fabricado por Honda, que lleva perfeccionando su robot humanoide desde hace más de una década. A día de hoy puede reconocer caras, entiende gestos como el de señalar con un dedo e identifica movimientos y posturas naturales en las personas. También sortea los obstáculos en su camino, gracias a sus cámaras y sensores de proximidad.

El robot Atlas –Asimo y él están considerados los más avanzados por ahora– ya no es tan simpático. Mientras que la máquina fabricada por Honda saluda con la manita y hasta parece que sonríe, Atlas recuerda más bien a Skynet, el villano cibernético de Terminator. De hecho, se trata de un proyecto encuadrado en el ámbito militar estadounidense, nacido en la agencia gubernamental DARPA (Defense Advanced Project Agency). Sus ojos se componen de cámaras estereoscópicas, capaces de captar imágenes en 3D, asistidas por tecnología LIDAR, que permite conocer la distancia a la que se encuentran los objetos emitiendo un rayo láser.

Con esta visión artificial Atlas puede esquivar los obstáculos en su camino y cuenta con la capacidad para detectar infinidad de objetos. Ante este despliegue sensorial un micrófono parece poca cosa, pero este componente solo es la base para el sentido del oído. Asimo cuenta con cinco micrófonos (aparte de los dos que cubren lo que serían las orejas, sus creadores le han colocado otros tres en la frente, para que luego diga que no oye bien), pero es el software lo que marca la diferencia.
Asimo entiende comandos por voz, detecta cuándo se dice su nombre e incluso reconoce cierto tipo de sonidos, como el que hace un objeto al caer o al estrellarse contra algo. La tecnología está progresando mucho últimamente en este campo. Compañías como Nuance (responsable del sistema de Siri, en iPhone) están invirtiendo en desarrollar la comprensión del lenguaje natural humano, lo que significa entre otras cosas el fin del clásico diálogo de besugos con los contestadores automáticos de atención al cliente: «buenos días, diga uno si quiere información sobre su tarifa», «uno»…  Silencio tenso, «no le he entendido, diga uno si quiere…». Adiós para siempre.
La comprensión del lenguaje natural humano permitirá a las máquinas entender lo que quieren decir las personas, independientemente de la forma en que lo expresen. Ya tenemos dos sentidos en camino. El tercero sería el tacto, del que estamos un poco más lejos. Aun así, varias investigaciones [1, 2] ya han logrado dotar de sensibilidad a un brazo biónico, que a través de electrodos transmite sensaciones al cerebro. Está orientado a las personas que han sufrido una amputación, pero el sistema sienta las bases para que la información que capta este brazo biónico también se pueda codificar y enviar a la inteligencia artificial de un robot.
Forzando las cosas hay quien incluso ha dado un paso para propiciar que la tecnología adquiera sentido del olfato. En el sitio de crowdfunding Indiegogo se ha puesto en marcha una campaña para financiar un dispositivo que permitirá transmitir olores a distancia. El posible glamour se desvanece al ver el invento en cuestión, una caja voluminosa con dos tubos de escape hacia arriba por donde asciende el aroma. Pero la aparatosidad no quita lo valiente y el dispositivo puede abrir el camino para incorporar un nuevo sentido a los robots.
El gusto también tiene versión artificial, aunque pueda parecer extraño hace tiempo que se han diseñado sensores electrónicos capaces de distinguir entre diferentes sabores, incluso mejor que un humano. Solo faltaría darles forma de lengua robótica (esto pinta desagradable… o no, quién sabe) y ya tendríamos cinco sentidos de cinco.
Eso sí, el cerebro es otro cantar. Aún estamos muy lejos de simular el sistema nervioso de animales sencillos, lo que demuestra cuánto trabajo queda por hacer para construir un androide semejante a los seres humanos y con tan malas pulgas que se le ocurra volverse en contra de su creador.

«Para llegar a niveles humanos de inteligencia los robots necesitarán sentidos como los humanos», esto lo decía Hurbert Dreyfus, filósofo y estudioso de las implicaciones de la inteligencia artificial. Vamos, que hasta que los androides no tengan vista, oído, tacto, olfato y gusto (el sexto sentido solo es necesario para recrear a videntes y profetas), la inteligencia artificial no tiene nada que hacer contra un humano.

Esto no es puro patriotismo humano ni tiene que ver con batallas de robots vs personas por la supremacía del planeta o persecuciones a lo Blade Runner. Sencillamente esta especie de frontera conceptual establecida por Dreyfus tiene mucho sentido, nunca mejor dicho. Nuestros sentidos son la fuente de información que tenemos sobre el medio, la forma en que percibimos el entorno. Así que sin ellos no hay inteligencia humana posible.
Ni un solo suspiro de alivio: la destrucción o la esclavitud de la especie humana por una horda de robots podría no estar tan lejos. Está bien, basta de bromas estúpidas sobre apocalipsis tecnológicos. Pero en serio, la tecnología de hoy en día ya ha sido capaz de recrear algunos de los sentidos humanos a los que se refiere Dreyfus.
Principalmente se trata de la vista y el oído. Y no son parte de una costosa investigación en algún prestigioso laboratorio, al contrario, están en el bolsillo de cada uno de nosotros. Un smartphone tiene cámara y micrófono, cuyos niveles de precisión son altos, muy altos en comparación con lo que existía unos años atrás. Estos sensores son capaces de captar la información del entorno hasta mejor que nuestros propios sentidos. Las cámaras, por ejemplo, cuentan con zoom para ver más allá de nuestros ojos y una resolución que les permite obtener detalles minúsculos.

Foto: Stuart Williams bajo licencia CC
Foto: Stuart Williams bajo licencia CC

Lo que puede hacerse con esta información ya es otra cosa y depende del software, así como de la potencia de computación y otros factores; el cerebro, si seguimos con la metáfora inspirada en la cita de Dreyfus. Los sistemas actuales no pueden procesar una imagen de la misma forma que hacemos nosotros, por mucho que la cámara capte hasta el último pelo de las personas que aparecen. La información se obtiene, pero no se puede aprovechar toda.
Sin embargo, ya existe software de reconocimiento facial que permite identificar los rostros contenidos en una base de datos (Facebook te reconoce incluso cuando peor sales en las fotos). Si  persistimos en la metáfora, una persona está familiarizada con las caras de la gente que conoce, las que están en su base de datos. El reconocimiento de gestos está presente en dispositivos como el Kinect para la Xbox, aún rudimentario, sí, pero en el futuro podría permitir a un robot interpretar el lenguaje corporal humano, como algunos aspavientos. El flamante smartphone de Amazon, Fire Phone, cuenta con reconocimiento de objetos (principalmente productos, para que el usuario compruebe si están más baratos en la tienda online de la compañía), mientras que existen aplicaciones móviles que reconocen monumentos y lugares famosos, como Google Goggles o Wikitude.
Imaginemos todo esto junto y tendremos un robot capaz de identificar un buen montón de cosas. Un adelanto de lo que serían capaces estos androides es el simpático Asimo, fabricado por Honda, que lleva perfeccionando su robot humanoide desde hace más de una década. A día de hoy puede reconocer caras, entiende gestos como el de señalar con un dedo e identifica movimientos y posturas naturales en las personas. También sortea los obstáculos en su camino, gracias a sus cámaras y sensores de proximidad.

El robot Atlas –Asimo y él están considerados los más avanzados por ahora– ya no es tan simpático. Mientras que la máquina fabricada por Honda saluda con la manita y hasta parece que sonríe, Atlas recuerda más bien a Skynet, el villano cibernético de Terminator. De hecho, se trata de un proyecto encuadrado en el ámbito militar estadounidense, nacido en la agencia gubernamental DARPA (Defense Advanced Project Agency). Sus ojos se componen de cámaras estereoscópicas, capaces de captar imágenes en 3D, asistidas por tecnología LIDAR, que permite conocer la distancia a la que se encuentran los objetos emitiendo un rayo láser.

Con esta visión artificial Atlas puede esquivar los obstáculos en su camino y cuenta con la capacidad para detectar infinidad de objetos. Ante este despliegue sensorial un micrófono parece poca cosa, pero este componente solo es la base para el sentido del oído. Asimo cuenta con cinco micrófonos (aparte de los dos que cubren lo que serían las orejas, sus creadores le han colocado otros tres en la frente, para que luego diga que no oye bien), pero es el software lo que marca la diferencia.
Asimo entiende comandos por voz, detecta cuándo se dice su nombre e incluso reconoce cierto tipo de sonidos, como el que hace un objeto al caer o al estrellarse contra algo. La tecnología está progresando mucho últimamente en este campo. Compañías como Nuance (responsable del sistema de Siri, en iPhone) están invirtiendo en desarrollar la comprensión del lenguaje natural humano, lo que significa entre otras cosas el fin del clásico diálogo de besugos con los contestadores automáticos de atención al cliente: «buenos días, diga uno si quiere información sobre su tarifa», «uno»…  Silencio tenso, «no le he entendido, diga uno si quiere…». Adiós para siempre.
La comprensión del lenguaje natural humano permitirá a las máquinas entender lo que quieren decir las personas, independientemente de la forma en que lo expresen. Ya tenemos dos sentidos en camino. El tercero sería el tacto, del que estamos un poco más lejos. Aun así, varias investigaciones [1, 2] ya han logrado dotar de sensibilidad a un brazo biónico, que a través de electrodos transmite sensaciones al cerebro. Está orientado a las personas que han sufrido una amputación, pero el sistema sienta las bases para que la información que capta este brazo biónico también se pueda codificar y enviar a la inteligencia artificial de un robot.
Forzando las cosas hay quien incluso ha dado un paso para propiciar que la tecnología adquiera sentido del olfato. En el sitio de crowdfunding Indiegogo se ha puesto en marcha una campaña para financiar un dispositivo que permitirá transmitir olores a distancia. El posible glamour se desvanece al ver el invento en cuestión, una caja voluminosa con dos tubos de escape hacia arriba por donde asciende el aroma. Pero la aparatosidad no quita lo valiente y el dispositivo puede abrir el camino para incorporar un nuevo sentido a los robots.
El gusto también tiene versión artificial, aunque pueda parecer extraño hace tiempo que se han diseñado sensores electrónicos capaces de distinguir entre diferentes sabores, incluso mejor que un humano. Solo faltaría darles forma de lengua robótica (esto pinta desagradable… o no, quién sabe) y ya tendríamos cinco sentidos de cinco.
Eso sí, el cerebro es otro cantar. Aún estamos muy lejos de simular el sistema nervioso de animales sencillos, lo que demuestra cuánto trabajo queda por hacer para construir un androide semejante a los seres humanos y con tan malas pulgas que se le ocurra volverse en contra de su creador.

Compártelo twitter facebook whatsapp
El falso pollo que engaña a los carnívoros
Los animales del aeropuerto
Europa y EEUU sumarán fuerzas para construir el “mayor proyecto de neurociencia de la historia”
Un proyecto para diagnosticar el cáncer de mama con un análisis de sangre
 
Especiales
 
facebook twitter whatsapp

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *