Los cinco sentidos de un robot
¡Yorokobu gratis en formato digital!
«Para llegar a niveles humanos de inteligencia los robots necesitarán sentidos como los humanos», esto lo decĂa Hurbert Dreyfus, filĂłsofo y estudioso de las implicaciones de la inteligencia artificial. Vamos, que hasta que los androides no tengan vista, oĂdo, tacto, olfato y gusto (el sexto sentido solo es necesario para recrear a videntes y profetas), la inteligencia artificial no tiene nada que hacer contra un humano.
Esto no es puro patriotismo humano ni tiene que ver con batallas de robots vs personas por la supremacĂa del planeta o persecuciones a lo Blade Runner. Sencillamente esta especie de frontera conceptual establecida por Dreyfus tiene mucho sentido, nunca mejor dicho. Nuestros sentidos son la fuente de informaciĂłn que tenemos sobre el medio, la forma en que percibimos el entorno. AsĂ que sin ellos no hay inteligencia humana posible.
Ni un solo suspiro de alivio: la destrucciĂłn o la esclavitud de la especie humana por una horda de robots podrĂa no estar tan lejos. Está bien, basta de bromas estĂşpidas sobre apocalipsis tecnolĂłgicos. Pero en serio, la tecnologĂa de hoy en dĂa ya ha sido capaz de recrear algunos de los sentidos humanos a los que se refiere Dreyfus.
Principalmente se trata de la vista y el oĂdo. Y no son parte de una costosa investigaciĂłn en algĂşn prestigioso laboratorio, al contrario, están en el bolsillo de cada uno de nosotros. Un smartphone tiene cámara y micrĂłfono, cuyos niveles de precisiĂłn son altos, muy altos en comparaciĂłn con lo que existĂa unos años atrás. Estos sensores son capaces de captar la informaciĂłn del entorno hasta mejor que nuestros propios sentidos. Las cámaras, por ejemplo, cuentan con zoom para ver más allá de nuestros ojos y una resoluciĂłn que les permite obtener detalles minĂşsculos.
Lo que puede hacerse con esta información ya es otra cosa y depende del software, asà como de la potencia de computación y otros factores; el cerebro, si seguimos con la metáfora inspirada en la cita de Dreyfus. Los sistemas actuales no pueden procesar una imagen de la misma forma que hacemos nosotros, por mucho que la cámara capte hasta el último pelo de las personas que aparecen. La información se obtiene, pero no se puede aprovechar toda.
Sin embargo, ya existe software de reconocimiento facial que permite identificar los rostros contenidos en una base de datos (Facebook te reconoce incluso cuando peor sales en las fotos). Si  persistimos en la metáfora, una persona está familiarizada con las caras de la gente que conoce, las que están en su base de datos. El reconocimiento de gestos está presente en dispositivos como el Kinect para la Xbox, aĂşn rudimentario, sĂ, pero en el futuro podrĂa permitir a un robot interpretar el lenguaje corporal humano, como algunos aspavientos. El flamante smartphone de Amazon, Fire Phone, cuenta con reconocimiento de objetos (principalmente productos, para que el usuario compruebe si están más baratos en la tienda online de la compañĂa), mientras que existen aplicaciones mĂłviles que reconocen monumentos y lugares famosos, como Google Goggles o Wikitude.
Imaginemos todo esto junto y tendremos un robot capaz de identificar un buen montĂłn de cosas. Un adelanto de lo que serĂan capaces estos androides es el simpático Asimo, fabricado por Honda, que lleva perfeccionando su robot humanoide desde hace más de una dĂ©cada. A dĂa de hoy puede reconocer caras, entiende gestos como el de señalar con un dedo e identifica movimientos y posturas naturales en las personas. TambiĂ©n sortea los obstáculos en su camino, gracias a sus cámaras y sensores de proximidad.
El robot Atlas –Asimo y Ă©l están considerados los más avanzados por ahora– ya no es tan simpático. Mientras que la máquina fabricada por Honda saluda con la manita y hasta parece que sonrĂe, Atlas recuerda más bien a Skynet, el villano cibernĂ©tico de Terminator. De hecho, se trata de un proyecto encuadrado en el ámbito militar estadounidense, nacido en la agencia gubernamental DARPA (Defense Advanced Project Agency). Sus ojos se componen de cámaras estereoscĂłpicas, capaces de captar imágenes en 3D, asistidas por tecnologĂa LIDAR, que permite conocer la distancia a la que se encuentran los objetos emitiendo un rayo láser.
Con esta visiĂłn artificial Atlas puede esquivar los obstáculos en su camino y cuenta con la capacidad para detectar infinidad de objetos. Ante este despliegue sensorial un micrĂłfono parece poca cosa, pero este componente solo es la base para el sentido del oĂdo. Asimo cuenta con cinco micrĂłfonos (aparte de los dos que cubren lo que serĂan las orejas, sus creadores le han colocado otros tres en la frente, para que luego diga que no oye bien), pero es el software lo que marca la diferencia.
Asimo entiende comandos por voz, detecta cuándo se dice su nombre e incluso reconoce cierto tipo de sonidos, como el que hace un objeto al caer o al estrellarse contra algo. La tecnologĂa está progresando mucho Ăşltimamente en este campo. CompañĂas como Nuance (responsable del sistema de Siri, en iPhone) están invirtiendo en desarrollar la comprensiĂłn del lenguaje natural humano, lo que significa entre otras cosas el fin del clásico diálogo de besugos con los contestadores automáticos de atenciĂłn al cliente: «buenos dĂas, diga uno si quiere informaciĂłn sobre su tarifa», «uno»… Silencio tenso, «no le he entendido, diga uno si quiere…». AdiĂłs para siempre.
La comprensiĂłn del lenguaje natural humano permitirá a las máquinas entender lo que quieren decir las personas, independientemente de la forma en que lo expresen. Ya tenemos dos sentidos en camino. El tercero serĂa el tacto, del que estamos un poco más lejos. Aun asĂ, varias investigaciones [1, 2] ya han logrado dotar de sensibilidad a un brazo biĂłnico, que a travĂ©s de electrodos transmite sensaciones al cerebro. Está orientado a las personas que han sufrido una amputaciĂłn, pero el sistema sienta las bases para que la informaciĂłn que capta este brazo biĂłnico tambiĂ©n se pueda codificar y enviar a la inteligencia artificial de un robot.
Forzando las cosas hay quien incluso ha dado un paso para propiciar que la tecnologĂa adquiera sentido del olfato. En el sitio de crowdfunding Indiegogo se ha puesto en marcha una campaña para financiar un dispositivo que permitirá transmitir olores a distancia. El posible glamour se desvanece al ver el invento en cuestiĂłn, una caja voluminosa con dos tubos de escape hacia arriba por donde asciende el aroma. Pero la aparatosidad no quita lo valiente y el dispositivo puede abrir el camino para incorporar un nuevo sentido a los robots.
El gusto tambiĂ©n tiene versiĂłn artificial, aunque pueda parecer extraño hace tiempo que se han diseñado sensores electrĂłnicos capaces de distinguir entre diferentes sabores, incluso mejor que un humano. Solo faltarĂa darles forma de lengua robĂłtica (esto pinta desagradable… o no, quiĂ©n sabe) y ya tendrĂamos cinco sentidos de cinco.
Eso sĂ, el cerebro es otro cantar. AĂşn estamos muy lejos de simular el sistema nervioso de animales sencillos, lo que demuestra cuánto trabajo queda por hacer para construir un androide semejante a los seres humanos y con tan malas pulgas que se le ocurra volverse en contra de su creador.
¡Yorokobu gratis en formato digital!
«Para llegar a niveles humanos de inteligencia los robots necesitarán sentidos como los humanos», esto lo decĂa Hurbert Dreyfus, filĂłsofo y estudioso de las implicaciones de la inteligencia artificial. Vamos, que hasta que los androides no tengan vista, oĂdo, tacto, olfato y gusto (el sexto sentido solo es necesario para recrear a videntes y profetas), la inteligencia artificial no tiene nada que hacer contra un humano.
Esto no es puro patriotismo humano ni tiene que ver con batallas de robots vs personas por la supremacĂa del planeta o persecuciones a lo Blade Runner. Sencillamente esta especie de frontera conceptual establecida por Dreyfus tiene mucho sentido, nunca mejor dicho. Nuestros sentidos son la fuente de informaciĂłn que tenemos sobre el medio, la forma en que percibimos el entorno. AsĂ que sin ellos no hay inteligencia humana posible.
Ni un solo suspiro de alivio: la destrucciĂłn o la esclavitud de la especie humana por una horda de robots podrĂa no estar tan lejos. Está bien, basta de bromas estĂşpidas sobre apocalipsis tecnolĂłgicos. Pero en serio, la tecnologĂa de hoy en dĂa ya ha sido capaz de recrear algunos de los sentidos humanos a los que se refiere Dreyfus.
Principalmente se trata de la vista y el oĂdo. Y no son parte de una costosa investigaciĂłn en algĂşn prestigioso laboratorio, al contrario, están en el bolsillo de cada uno de nosotros. Un smartphone tiene cámara y micrĂłfono, cuyos niveles de precisiĂłn son altos, muy altos en comparaciĂłn con lo que existĂa unos años atrás. Estos sensores son capaces de captar la informaciĂłn del entorno hasta mejor que nuestros propios sentidos. Las cámaras, por ejemplo, cuentan con zoom para ver más allá de nuestros ojos y una resoluciĂłn que les permite obtener detalles minĂşsculos.
Lo que puede hacerse con esta información ya es otra cosa y depende del software, asà como de la potencia de computación y otros factores; el cerebro, si seguimos con la metáfora inspirada en la cita de Dreyfus. Los sistemas actuales no pueden procesar una imagen de la misma forma que hacemos nosotros, por mucho que la cámara capte hasta el último pelo de las personas que aparecen. La información se obtiene, pero no se puede aprovechar toda.
Sin embargo, ya existe software de reconocimiento facial que permite identificar los rostros contenidos en una base de datos (Facebook te reconoce incluso cuando peor sales en las fotos). Si  persistimos en la metáfora, una persona está familiarizada con las caras de la gente que conoce, las que están en su base de datos. El reconocimiento de gestos está presente en dispositivos como el Kinect para la Xbox, aĂşn rudimentario, sĂ, pero en el futuro podrĂa permitir a un robot interpretar el lenguaje corporal humano, como algunos aspavientos. El flamante smartphone de Amazon, Fire Phone, cuenta con reconocimiento de objetos (principalmente productos, para que el usuario compruebe si están más baratos en la tienda online de la compañĂa), mientras que existen aplicaciones mĂłviles que reconocen monumentos y lugares famosos, como Google Goggles o Wikitude.
Imaginemos todo esto junto y tendremos un robot capaz de identificar un buen montĂłn de cosas. Un adelanto de lo que serĂan capaces estos androides es el simpático Asimo, fabricado por Honda, que lleva perfeccionando su robot humanoide desde hace más de una dĂ©cada. A dĂa de hoy puede reconocer caras, entiende gestos como el de señalar con un dedo e identifica movimientos y posturas naturales en las personas. TambiĂ©n sortea los obstáculos en su camino, gracias a sus cámaras y sensores de proximidad.
El robot Atlas –Asimo y Ă©l están considerados los más avanzados por ahora– ya no es tan simpático. Mientras que la máquina fabricada por Honda saluda con la manita y hasta parece que sonrĂe, Atlas recuerda más bien a Skynet, el villano cibernĂ©tico de Terminator. De hecho, se trata de un proyecto encuadrado en el ámbito militar estadounidense, nacido en la agencia gubernamental DARPA (Defense Advanced Project Agency). Sus ojos se componen de cámaras estereoscĂłpicas, capaces de captar imágenes en 3D, asistidas por tecnologĂa LIDAR, que permite conocer la distancia a la que se encuentran los objetos emitiendo un rayo láser.
Con esta visiĂłn artificial Atlas puede esquivar los obstáculos en su camino y cuenta con la capacidad para detectar infinidad de objetos. Ante este despliegue sensorial un micrĂłfono parece poca cosa, pero este componente solo es la base para el sentido del oĂdo. Asimo cuenta con cinco micrĂłfonos (aparte de los dos que cubren lo que serĂan las orejas, sus creadores le han colocado otros tres en la frente, para que luego diga que no oye bien), pero es el software lo que marca la diferencia.
Asimo entiende comandos por voz, detecta cuándo se dice su nombre e incluso reconoce cierto tipo de sonidos, como el que hace un objeto al caer o al estrellarse contra algo. La tecnologĂa está progresando mucho Ăşltimamente en este campo. CompañĂas como Nuance (responsable del sistema de Siri, en iPhone) están invirtiendo en desarrollar la comprensiĂłn del lenguaje natural humano, lo que significa entre otras cosas el fin del clásico diálogo de besugos con los contestadores automáticos de atenciĂłn al cliente: «buenos dĂas, diga uno si quiere informaciĂłn sobre su tarifa», «uno»… Silencio tenso, «no le he entendido, diga uno si quiere…». AdiĂłs para siempre.
La comprensiĂłn del lenguaje natural humano permitirá a las máquinas entender lo que quieren decir las personas, independientemente de la forma en que lo expresen. Ya tenemos dos sentidos en camino. El tercero serĂa el tacto, del que estamos un poco más lejos. Aun asĂ, varias investigaciones [1, 2] ya han logrado dotar de sensibilidad a un brazo biĂłnico, que a travĂ©s de electrodos transmite sensaciones al cerebro. Está orientado a las personas que han sufrido una amputaciĂłn, pero el sistema sienta las bases para que la informaciĂłn que capta este brazo biĂłnico tambiĂ©n se pueda codificar y enviar a la inteligencia artificial de un robot.
Forzando las cosas hay quien incluso ha dado un paso para propiciar que la tecnologĂa adquiera sentido del olfato. En el sitio de crowdfunding Indiegogo se ha puesto en marcha una campaña para financiar un dispositivo que permitirá transmitir olores a distancia. El posible glamour se desvanece al ver el invento en cuestiĂłn, una caja voluminosa con dos tubos de escape hacia arriba por donde asciende el aroma. Pero la aparatosidad no quita lo valiente y el dispositivo puede abrir el camino para incorporar un nuevo sentido a los robots.
El gusto tambiĂ©n tiene versiĂłn artificial, aunque pueda parecer extraño hace tiempo que se han diseñado sensores electrĂłnicos capaces de distinguir entre diferentes sabores, incluso mejor que un humano. Solo faltarĂa darles forma de lengua robĂłtica (esto pinta desagradable… o no, quiĂ©n sabe) y ya tendrĂamos cinco sentidos de cinco.
Eso sĂ, el cerebro es otro cantar. AĂşn estamos muy lejos de simular el sistema nervioso de animales sencillos, lo que demuestra cuánto trabajo queda por hacer para construir un androide semejante a los seres humanos y con tan malas pulgas que se le ocurra volverse en contra de su creador.