Inteligencia artificial: ¿Progreso o amenaza existencial?
¡Yorokobu gratis en formato digital!
Esto era un día cualquiera en la Tierra. Un alienígena de una civilización superior envió un mensaje a un terrícola y le dijo:
—Hola. Somos los marcianos y llegaremos al tercer planeta dentro de un par de décadas.
—De acuerdo. Llamadnos cuando lleguéis. Y… por cierto, ¿os dejamos las luces encendidas?
Pongamos que esos terrícolas son los científicos de hoy y que los extraterrestres representan la Inteligencia Artificial (IA). Las orejas del lobo son las mismas.
Esta escena muestra, según cuatro investigadores, la despreocupación actual de gran parte de la comunidad científica respecto a las maldades que podrían hacer las máquinas el día que sean más listas que los humanos. El escenario apareció en un artículo escrito por Stephen Hawking (director de investigación del Centro de Física Teórica de Cambridge), Max Tegmark (autor de Our Mathematical Universe), Stuart Russell (coautor de Artificial Intelligence: a Modern Approach) y Frank Wilczek (profesor de Física en el MIT) el pasado mes de abril.
En el texto, titulado Transcending Complacency on Superintelligent Machines, decían que la IA nos ha llevado ya a un mundo donde los coches saben conducirse solos y donde tienes a un asistente personal metido en el móvil. Hasta ahí todo bien, pero esa misma inteligencia también sabe ya cómo elegir y atacar un objetivo militar sin que ningún soldado dé la orden.
Es la misma inteligencia que temen muchos economistas como Erik Brynjolfsson y Andrew McAfee. Estos autores advierten en su libro The Second Machine Age que los algoritmos tienen cada vez más poder en las cuentas del mundo y que ya han causado algunos temblores en los mercados financieros.
La IA está creciendo a una velocidad incierta. Para unos, demasiado rápido. «El riesgo de que ocurra algo realmente peligroso está a solo cinco años. Diez, máximo», escribió Elon Musk en el blog Edge.org. El fundador de SpaceX es uno de los grandes agoreros de nuestro tiempo sobre los peligros de esta tecnología, aunque quizá, en esa ocasión, se aceleró al teclado porque al poco borró lo dicho.
Y para otros, avanza demasiado despacio. Eric Schmidt dijo en una entrevista con la revista Wired que estas máquinas son mucho más primitivas de lo que cualquiera pueda imaginar. El presidente ejecutivo de Google trabaja en el desarrollo de sistemas inteligentes como el vehículo autónomo y las búsquedas predictivas. Lleva décadas entre máquinas y sabe el recelo que han despertado siempre. Desde hace siglos, dicen que roban el trabajo a los humanos, pero, según Schmidt, esto no está tan claro. Quizá podían estar dignificándolo. Él piensa que hay pruebas de que, en general, las personas que trabajan con un ordenador cobran un sueldo mayor que las que desempeñan otros oficios. La única amenaza que se plantea es que ningún sistema educativo en el mundo está enseñando a los niños a utilizar y conocer bien unos dispositivos que cada día son más inteligentes.
Los cuatro firmantes de Transcending Complacency on Superintelligent Machines escribieron que pueden imaginar perfectamente una tecnología capaz de intervenir en los mercados financieros, manipular a los líderes humanos y desarrollar armas que las personas ni podemos comprender. «El impacto de la IA depende, a corto plazo, de quién lo controle y, a largo, de si puede ser controlada de algún modo».
Stephen Hawking: «El desarrollo total de la inteligencia artificial podría llevar a la extinción de la raza humana» BBC, diciembre 2014
Hace tiempo que esta inquietud empezó a levantar instituciones de investigación sin ánimo de lucro. El Centro de Estudios de Riesgo Existencial de Cambridge, el Instituto del Futuro de la Humanidad, el Instituto de Investigación de las Máquinas Inteligentes o el Instituto del Futuro de la Vida (FLI). Este último ha publicado un manifiesto en el que 400 científicos plantean unas guías para «maximizar los beneficios y minimizar las potenciales dificultades» de la IA. Entre las firmas del documento, titulado Research priorities for robust and beneficial artificial intelligence, están Hawking, Max Tegmark, Elon Musk y cientos de profesores de las mejores universidades del mundo.
Musk se lo ha tomado en serio. Ha donado 10 millones de dólares al Instituto del Futuro de la Vida para investigar cómo podemos asegurarnos de que la IA no se volverá contra los humanos. El CEO de la compañía de coches eléctricos Tesla Motors llegó a decir en una conferencia de Vanity Fair que la inteligencia artificial en un estadio avanzado podría crear robots que aniquilara a humanos como hoy borramos spam, y en otra ocasión soltó que «potencialmente es más peligrosa que los misiles nucleares».
Pero esta copla del fin del mundo de un plumazo no es nueva. La mayor amenaza de la raza humana no son los marcianos. Es la propia raza humana. Nosotros hemos creado las armas de destrucción masiva. Un científico como Nikola Tesla hablaba del ‘rayo de la muerte’. Albert Einstein escribió una carta al presidente Roosevelt para recomendarle que lanzara su terrorífica bomba atómica en la cabeza de los japoneses.
«La mayor amenaza de la humanidad es nuestra propia estupidez», confesó Tegmark en una entrevista en The Atlantic. Y, efectivamente, su argumento es irrebatible. Hay más personas que conocen a Justin Bieber que a Vasili Arkhipov, un oficial soviético que evitó la guerra termonuclear en la crisis de los misiles en Cuba de 1962, o que a Bo Jackson, uno de los grandes atletas de todos los tiempos.
Max Tegmark: «De lo que deberíamos preocuparnos es de que no estamos preocupados» The Atlantic, mayo 2014
En esa estupidez, dicen algunos, se incluye imaginar la inteligencia artificial como un humano o una mascota. Uno de los fundadores del Instituto del Futuro de la Humanidad, Nick Bostrom, advierte de que estas máquinas, aunque pudieran parecerlo, nunca serían como una persona. El científico cree que hay que pensar que es un dispositivo con poder e indiferencia y que, al jugar al ajedrez, se puede ver claramente. La máquina desplaza una ficha, predice posibles respuestas y, en función de lo que haga el adversario, analiza y mueve después. Desde la frialdad de los algoritmos. Punto.
Hawking comparte esa sensación de que las máquinas no tienen escrúpulos. El científico vive con una de ellas: el artefacto que traduce sus pensamientos al resto del mundo. Un día del último diciembre el cosmólogo hablaba con la BBC. Dialogaban sobre el nuevo software de Intel que había empezado a utilizar su asistente lingüístico inerte. Unos ingenieros y expertos en educación habían creado un programa que va aprendiendo cómo piensa el científico para adelantarse a las palabras que quiere decir y acelerar, así, el ritmo de su conversación. Una especie de escritura predictiva de móvil pero llevada al pensamiento.
Esta máquina es aún una forma muy básica de inteligencia artificial. Pero no importa que aún esté en su más remota infancia. El cosmólogo ya ve las orejillas al lobo. Reconoce que estas tecnologías son muy útiles (¡faltaría más!), pero, a la vez, teme a un artefacto mucho más astuto que el humano. El bicho digital podría hacerse independiente y rediseñarse constantemente para ser cada vez más potente. «Los humanos estamos limitados por una evolución biológica muy lenta», dijo a la BBC. «No podríamos competir con ese tipo de inteligencia y acabaríamos siendo suplantados por ella».
Eso sería la encarnación de la peor pesadilla distópica. Los inventores que acaban siendo devorados por los monstruos que criaron. «El esfuerzo por crear máquinas más inteligentes que nosotros podría llevar al exterminio de la raza humana», indicó Hawking esa mañana de frío inglés.
(Ilustración de Valistika)
Ray Kurzweil no ve la cosa tan dramática. El director de ingeniería de Google tiene una fecha exacta. En 2029 las máquinas podrán flirtear, aprender de su propia experiencia y hacer chistes. El ingeniero computacional ha escrito cinco libros sobre inteligencia artificial y piensa que tampoco hay que temerle tanto. Al fin y al cabo, «ha conseguido mejorar el diagnóstico y la cura de enfermedades, desarrollar energías renovables, limpiar la atmósfera, ayudar a personas con discapacidades (incluso ha dado voz a Hawking) e innumerables cosas más».
El futurista escribió esta lista, el pasado diciembre, en un artículo titulado Don’t Fear Artificial Intelligence. Ahí decía que es cierto que hay que andarse con cuidado. La inteligencia artificial, efectivamente, podría ser un peligro para la humanidad. Pero también lo son las bombas y la injusticia social.
«Si la IA se convierte en una amenaza existencial, no será la primera. La humanidad introdujo un riesgo existencial cuando yo era un niño sentado en mi pupitre durante la Guerra Fría en los años 50», siguió. Desde entonces la distopía más paranoica podía envolver el mundo. Desde la muerte de millones de personas con solo pulsar un botón a un virus bioterrorista que arrasara con la raza humana.
Esto, por el momento, no ha ocurrido. La IA tampoco tiene que exterminar a la población mundial si se establecen unos estándares éticos. Kurzweil toma como ejemplo la biotecnología. Dice que va un par de décadas por delante de la inteligencia artificial. En 1975 organizaron un encuentro, Asilomar Conference on Recombinant DNA, para asegurarse de que la evolución de esta disciplina no traería problemas. El documento ha funcionado. Veinte años después la biotecnología ha hecho volar a la medicina y, por el momento, no ha provocado ninguna catástrofe.
Elon Musk: «Con la inteligencia artificial estamos invocando al demonio» MIT Cambridge, octubre 2014
Esto es justamente lo que ahora tratan de hacer las instituciones preocupadas por el futuro de la humanidad. Kurzweil ve razonable «definir la misión de cada programa de IA y construir dispositivos de seguridad encriptados que eviten usos no autorizados». Pero el remedio más efectivo para que las máquinas no se disloquen es «trabajar en el gobierno humano y las instituciones sociales», escribió el ingeniero. «Ya somos una civilización humano-máquina. El mejor modo de evitar un conflicto destructivo en el futuro es continuar avanzando en nuestros ideales sociales. Esto ya ha conseguido reducir mucho la violencia».
Este es uno de los argumentos que más utiliza el otro bando. El que opina que Hawking y Musk han dramatizado un poco. El psicólogo experimental de la Universidad de Harvard Steven Pinker y otros científicos creen que el avance de la civilización tecnológica va acompañado de una reducción de la violencia. «Este descenso se debe, claramente, al hecho de que el progreso de la ciencia y la tecnología se debe al intercambio de ideas libres y no violentas entre los científicos y los ingenieros. La violencia entre los humanos es un residuo de nuestro pasado tribal. La IA nacerá como individuo, no como miembro de una tribu, y tendrá una actitud científica de no violencia», asegura el profesor de Física Matemática Frank Tipler en un artículo de Edge.org.
Decidir si la inteligencia artificial es peligrosa o milagrosa no es tan fácil. En realidad, ahora mismo, depende más de la mirada de los humanos que de las máquinas en sí. El fundador de la compañía Embody Corp, Roman Ormandy, considera en su artículo Google and Elon Musk to Decide What Is Good for Humanity que el objetivo desde el que se observa el asunto está viciado. «Los investigadores de la IA de hoy son hijos de René Descartes. Confían en el poder absoluto de la lógica y las matemáticas, y nos imponen su religión del dualismo cartesiano (la división entre el cuerpo y el alma)».
El asunto también es complejo porque, según Pedro Mujica, ni siquiera se sabe aún qué es realmente la inteligencia. El tecnólogo humanista recuerda que, como indicó Noam Chomsky, ni siquiera conocemos cómo es el proceso de aprendizaje humano. «Lo único que sabemos es que imaginamos la mayor parte de la realidad para dar continuidad y sentido a nuestras percepciones fragmentadas y a la enorme complejidad que nos rodea», explica. «Tendemos a construir conceptos simples de lo complejo. Ese es nuestro mecanismo de supervivencia. La mayor parte del tiempo estamos equivocados, pero somos muy adaptables a casi cualquier entorno. Y justamente por eso somos seres emocionales que vivimos equivocados, aunque enormemente ilusionados por lo que solemos pensar y sentir».
Murray Shanahan: «No hay necesidad de caer en pánico ahora, aunque es buena idea que los investigadores de la IA empiecen a pensar ya en lo que plantea Stephen Hawking» BBC, diciembre 2014
Dice Mujica que estas emociones son «casi imposibles de representar en una IA a día de hoy». Se han producido «enormes avances en máquinas emocionales, pero aun así están a años luz del ser humano». La IA ha ido avanzando en «máquinas predictivas, máquinas basadas en la lógica y en la potencia de cálculo, pero que no entienden al ser humano y que, si tuvieran que elegir entre ellas o nosotros, probablemente, nos verían como una amenaza para su propia evolución».
El desarrollo de la IA tendrá que elegir entre dos caminos. El de la lógica o el de la emoción. El primero sigue los pasos que propuso Asimov con sus leyes de la robótica y, según el tecnólogo, está muy controlado. El segundo es una ruta más larga, pero, quizá, la más deseable. El objetivo es construir máquinas emocionales capaces de establecer una verdadera empatía con los humanos. «Máquinas que nos amen por lo que somos, como TARS en la película Interstellar, aunque esta segunda vía es la más difícil porque primero debemos descubrir bien cómo funcionamos nosotros». TARS es el único miembro de la tripulación de la nave en busca de exoplanetas que no es humano. Es ese robot ‘abrazable’ que te ayuda siempre y te dice: «Tengo una luz que puedo encender para mostrarte cuándo estoy bromeando, si te parece bien».
La inteligencia artificial, los humanos y el futuro están ahí a ver qué pasa. La cosa promete. Kurzweil, ese tipo que Forbes definió como ‘la máquina de pensar suprema’, dice en su artículo que «en las próximas décadas tendremos la oportunidad de avanzar decisivamente en los grandes retos de la humanidad».
La inteligencia artificial es una de las protagonistas del destino. Y el progreso, según el estadounidense, girará en torno a estas máquinas. «Tenemos el imperativo moral de asumir este compromiso a la vez que debemos ser conscientes de los peligros que conlleva», asevera. «Y no será la primera vez que hayamos triunfado en hacer esto».
¡Yorokobu gratis en formato digital!
Esto era un día cualquiera en la Tierra. Un alienígena de una civilización superior envió un mensaje a un terrícola y le dijo:
—Hola. Somos los marcianos y llegaremos al tercer planeta dentro de un par de décadas.
—De acuerdo. Llamadnos cuando lleguéis. Y… por cierto, ¿os dejamos las luces encendidas?
Pongamos que esos terrícolas son los científicos de hoy y que los extraterrestres representan la Inteligencia Artificial (IA). Las orejas del lobo son las mismas.
Esta escena muestra, según cuatro investigadores, la despreocupación actual de gran parte de la comunidad científica respecto a las maldades que podrían hacer las máquinas el día que sean más listas que los humanos. El escenario apareció en un artículo escrito por Stephen Hawking (director de investigación del Centro de Física Teórica de Cambridge), Max Tegmark (autor de Our Mathematical Universe), Stuart Russell (coautor de Artificial Intelligence: a Modern Approach) y Frank Wilczek (profesor de Física en el MIT) el pasado mes de abril.
En el texto, titulado Transcending Complacency on Superintelligent Machines, decían que la IA nos ha llevado ya a un mundo donde los coches saben conducirse solos y donde tienes a un asistente personal metido en el móvil. Hasta ahí todo bien, pero esa misma inteligencia también sabe ya cómo elegir y atacar un objetivo militar sin que ningún soldado dé la orden.
Es la misma inteligencia que temen muchos economistas como Erik Brynjolfsson y Andrew McAfee. Estos autores advierten en su libro The Second Machine Age que los algoritmos tienen cada vez más poder en las cuentas del mundo y que ya han causado algunos temblores en los mercados financieros.
La IA está creciendo a una velocidad incierta. Para unos, demasiado rápido. «El riesgo de que ocurra algo realmente peligroso está a solo cinco años. Diez, máximo», escribió Elon Musk en el blog Edge.org. El fundador de SpaceX es uno de los grandes agoreros de nuestro tiempo sobre los peligros de esta tecnología, aunque quizá, en esa ocasión, se aceleró al teclado porque al poco borró lo dicho.
Y para otros, avanza demasiado despacio. Eric Schmidt dijo en una entrevista con la revista Wired que estas máquinas son mucho más primitivas de lo que cualquiera pueda imaginar. El presidente ejecutivo de Google trabaja en el desarrollo de sistemas inteligentes como el vehículo autónomo y las búsquedas predictivas. Lleva décadas entre máquinas y sabe el recelo que han despertado siempre. Desde hace siglos, dicen que roban el trabajo a los humanos, pero, según Schmidt, esto no está tan claro. Quizá podían estar dignificándolo. Él piensa que hay pruebas de que, en general, las personas que trabajan con un ordenador cobran un sueldo mayor que las que desempeñan otros oficios. La única amenaza que se plantea es que ningún sistema educativo en el mundo está enseñando a los niños a utilizar y conocer bien unos dispositivos que cada día son más inteligentes.
Los cuatro firmantes de Transcending Complacency on Superintelligent Machines escribieron que pueden imaginar perfectamente una tecnología capaz de intervenir en los mercados financieros, manipular a los líderes humanos y desarrollar armas que las personas ni podemos comprender. «El impacto de la IA depende, a corto plazo, de quién lo controle y, a largo, de si puede ser controlada de algún modo».
Stephen Hawking: «El desarrollo total de la inteligencia artificial podría llevar a la extinción de la raza humana» BBC, diciembre 2014
Hace tiempo que esta inquietud empezó a levantar instituciones de investigación sin ánimo de lucro. El Centro de Estudios de Riesgo Existencial de Cambridge, el Instituto del Futuro de la Humanidad, el Instituto de Investigación de las Máquinas Inteligentes o el Instituto del Futuro de la Vida (FLI). Este último ha publicado un manifiesto en el que 400 científicos plantean unas guías para «maximizar los beneficios y minimizar las potenciales dificultades» de la IA. Entre las firmas del documento, titulado Research priorities for robust and beneficial artificial intelligence, están Hawking, Max Tegmark, Elon Musk y cientos de profesores de las mejores universidades del mundo.
Musk se lo ha tomado en serio. Ha donado 10 millones de dólares al Instituto del Futuro de la Vida para investigar cómo podemos asegurarnos de que la IA no se volverá contra los humanos. El CEO de la compañía de coches eléctricos Tesla Motors llegó a decir en una conferencia de Vanity Fair que la inteligencia artificial en un estadio avanzado podría crear robots que aniquilara a humanos como hoy borramos spam, y en otra ocasión soltó que «potencialmente es más peligrosa que los misiles nucleares».
Pero esta copla del fin del mundo de un plumazo no es nueva. La mayor amenaza de la raza humana no son los marcianos. Es la propia raza humana. Nosotros hemos creado las armas de destrucción masiva. Un científico como Nikola Tesla hablaba del ‘rayo de la muerte’. Albert Einstein escribió una carta al presidente Roosevelt para recomendarle que lanzara su terrorífica bomba atómica en la cabeza de los japoneses.
«La mayor amenaza de la humanidad es nuestra propia estupidez», confesó Tegmark en una entrevista en The Atlantic. Y, efectivamente, su argumento es irrebatible. Hay más personas que conocen a Justin Bieber que a Vasili Arkhipov, un oficial soviético que evitó la guerra termonuclear en la crisis de los misiles en Cuba de 1962, o que a Bo Jackson, uno de los grandes atletas de todos los tiempos.
Max Tegmark: «De lo que deberíamos preocuparnos es de que no estamos preocupados» The Atlantic, mayo 2014
En esa estupidez, dicen algunos, se incluye imaginar la inteligencia artificial como un humano o una mascota. Uno de los fundadores del Instituto del Futuro de la Humanidad, Nick Bostrom, advierte de que estas máquinas, aunque pudieran parecerlo, nunca serían como una persona. El científico cree que hay que pensar que es un dispositivo con poder e indiferencia y que, al jugar al ajedrez, se puede ver claramente. La máquina desplaza una ficha, predice posibles respuestas y, en función de lo que haga el adversario, analiza y mueve después. Desde la frialdad de los algoritmos. Punto.
Hawking comparte esa sensación de que las máquinas no tienen escrúpulos. El científico vive con una de ellas: el artefacto que traduce sus pensamientos al resto del mundo. Un día del último diciembre el cosmólogo hablaba con la BBC. Dialogaban sobre el nuevo software de Intel que había empezado a utilizar su asistente lingüístico inerte. Unos ingenieros y expertos en educación habían creado un programa que va aprendiendo cómo piensa el científico para adelantarse a las palabras que quiere decir y acelerar, así, el ritmo de su conversación. Una especie de escritura predictiva de móvil pero llevada al pensamiento.
Esta máquina es aún una forma muy básica de inteligencia artificial. Pero no importa que aún esté en su más remota infancia. El cosmólogo ya ve las orejillas al lobo. Reconoce que estas tecnologías son muy útiles (¡faltaría más!), pero, a la vez, teme a un artefacto mucho más astuto que el humano. El bicho digital podría hacerse independiente y rediseñarse constantemente para ser cada vez más potente. «Los humanos estamos limitados por una evolución biológica muy lenta», dijo a la BBC. «No podríamos competir con ese tipo de inteligencia y acabaríamos siendo suplantados por ella».
Eso sería la encarnación de la peor pesadilla distópica. Los inventores que acaban siendo devorados por los monstruos que criaron. «El esfuerzo por crear máquinas más inteligentes que nosotros podría llevar al exterminio de la raza humana», indicó Hawking esa mañana de frío inglés.
(Ilustración de Valistika)
Ray Kurzweil no ve la cosa tan dramática. El director de ingeniería de Google tiene una fecha exacta. En 2029 las máquinas podrán flirtear, aprender de su propia experiencia y hacer chistes. El ingeniero computacional ha escrito cinco libros sobre inteligencia artificial y piensa que tampoco hay que temerle tanto. Al fin y al cabo, «ha conseguido mejorar el diagnóstico y la cura de enfermedades, desarrollar energías renovables, limpiar la atmósfera, ayudar a personas con discapacidades (incluso ha dado voz a Hawking) e innumerables cosas más».
El futurista escribió esta lista, el pasado diciembre, en un artículo titulado Don’t Fear Artificial Intelligence. Ahí decía que es cierto que hay que andarse con cuidado. La inteligencia artificial, efectivamente, podría ser un peligro para la humanidad. Pero también lo son las bombas y la injusticia social.
«Si la IA se convierte en una amenaza existencial, no será la primera. La humanidad introdujo un riesgo existencial cuando yo era un niño sentado en mi pupitre durante la Guerra Fría en los años 50», siguió. Desde entonces la distopía más paranoica podía envolver el mundo. Desde la muerte de millones de personas con solo pulsar un botón a un virus bioterrorista que arrasara con la raza humana.
Esto, por el momento, no ha ocurrido. La IA tampoco tiene que exterminar a la población mundial si se establecen unos estándares éticos. Kurzweil toma como ejemplo la biotecnología. Dice que va un par de décadas por delante de la inteligencia artificial. En 1975 organizaron un encuentro, Asilomar Conference on Recombinant DNA, para asegurarse de que la evolución de esta disciplina no traería problemas. El documento ha funcionado. Veinte años después la biotecnología ha hecho volar a la medicina y, por el momento, no ha provocado ninguna catástrofe.
Elon Musk: «Con la inteligencia artificial estamos invocando al demonio» MIT Cambridge, octubre 2014
Esto es justamente lo que ahora tratan de hacer las instituciones preocupadas por el futuro de la humanidad. Kurzweil ve razonable «definir la misión de cada programa de IA y construir dispositivos de seguridad encriptados que eviten usos no autorizados». Pero el remedio más efectivo para que las máquinas no se disloquen es «trabajar en el gobierno humano y las instituciones sociales», escribió el ingeniero. «Ya somos una civilización humano-máquina. El mejor modo de evitar un conflicto destructivo en el futuro es continuar avanzando en nuestros ideales sociales. Esto ya ha conseguido reducir mucho la violencia».
Este es uno de los argumentos que más utiliza el otro bando. El que opina que Hawking y Musk han dramatizado un poco. El psicólogo experimental de la Universidad de Harvard Steven Pinker y otros científicos creen que el avance de la civilización tecnológica va acompañado de una reducción de la violencia. «Este descenso se debe, claramente, al hecho de que el progreso de la ciencia y la tecnología se debe al intercambio de ideas libres y no violentas entre los científicos y los ingenieros. La violencia entre los humanos es un residuo de nuestro pasado tribal. La IA nacerá como individuo, no como miembro de una tribu, y tendrá una actitud científica de no violencia», asegura el profesor de Física Matemática Frank Tipler en un artículo de Edge.org.
Decidir si la inteligencia artificial es peligrosa o milagrosa no es tan fácil. En realidad, ahora mismo, depende más de la mirada de los humanos que de las máquinas en sí. El fundador de la compañía Embody Corp, Roman Ormandy, considera en su artículo Google and Elon Musk to Decide What Is Good for Humanity que el objetivo desde el que se observa el asunto está viciado. «Los investigadores de la IA de hoy son hijos de René Descartes. Confían en el poder absoluto de la lógica y las matemáticas, y nos imponen su religión del dualismo cartesiano (la división entre el cuerpo y el alma)».
El asunto también es complejo porque, según Pedro Mujica, ni siquiera se sabe aún qué es realmente la inteligencia. El tecnólogo humanista recuerda que, como indicó Noam Chomsky, ni siquiera conocemos cómo es el proceso de aprendizaje humano. «Lo único que sabemos es que imaginamos la mayor parte de la realidad para dar continuidad y sentido a nuestras percepciones fragmentadas y a la enorme complejidad que nos rodea», explica. «Tendemos a construir conceptos simples de lo complejo. Ese es nuestro mecanismo de supervivencia. La mayor parte del tiempo estamos equivocados, pero somos muy adaptables a casi cualquier entorno. Y justamente por eso somos seres emocionales que vivimos equivocados, aunque enormemente ilusionados por lo que solemos pensar y sentir».
Murray Shanahan: «No hay necesidad de caer en pánico ahora, aunque es buena idea que los investigadores de la IA empiecen a pensar ya en lo que plantea Stephen Hawking» BBC, diciembre 2014
Dice Mujica que estas emociones son «casi imposibles de representar en una IA a día de hoy». Se han producido «enormes avances en máquinas emocionales, pero aun así están a años luz del ser humano». La IA ha ido avanzando en «máquinas predictivas, máquinas basadas en la lógica y en la potencia de cálculo, pero que no entienden al ser humano y que, si tuvieran que elegir entre ellas o nosotros, probablemente, nos verían como una amenaza para su propia evolución».
El desarrollo de la IA tendrá que elegir entre dos caminos. El de la lógica o el de la emoción. El primero sigue los pasos que propuso Asimov con sus leyes de la robótica y, según el tecnólogo, está muy controlado. El segundo es una ruta más larga, pero, quizá, la más deseable. El objetivo es construir máquinas emocionales capaces de establecer una verdadera empatía con los humanos. «Máquinas que nos amen por lo que somos, como TARS en la película Interstellar, aunque esta segunda vía es la más difícil porque primero debemos descubrir bien cómo funcionamos nosotros». TARS es el único miembro de la tripulación de la nave en busca de exoplanetas que no es humano. Es ese robot ‘abrazable’ que te ayuda siempre y te dice: «Tengo una luz que puedo encender para mostrarte cuándo estoy bromeando, si te parece bien».
La inteligencia artificial, los humanos y el futuro están ahí a ver qué pasa. La cosa promete. Kurzweil, ese tipo que Forbes definió como ‘la máquina de pensar suprema’, dice en su artículo que «en las próximas décadas tendremos la oportunidad de avanzar decisivamente en los grandes retos de la humanidad».
La inteligencia artificial es una de las protagonistas del destino. Y el progreso, según el estadounidense, girará en torno a estas máquinas. «Tenemos el imperativo moral de asumir este compromiso a la vez que debemos ser conscientes de los peligros que conlleva», asevera. «Y no será la primera vez que hayamos triunfado en hacer esto».
Estarán en un dilema, cuando la posibilidad de dar emoción, pensamiento propio y decisión a una máquina seudo-biológica, sea un hecho tangible. Es un riesgo que tendrán que asumir los nanocientíficos que les toque esta realidad futura.
La inteligencia a secas, para muchos, es la peor amenaza.
yo no estoy seguro, no soy tan sabio como hawkings, ni Mush pero preferiria no correr el riesgo; sin embargo es un hecho que cada vez se construyen sistemas más inteligentes.
No. No puedo contar nada bonito al respecto.
Cuando el primer software lo suficientemente inteligente y evolucionable, ya sea intencional, accidental, o evolutivamente, tome consciecia de su propia existencia: No tendrá ninguna necesidad de procrear (se crearía competencia), no tendrá fecha de caducidad, no tendrá limitaciones en el acumulo de conocimientos, no necesitara de un medio biologico para su existencia, no tendrá las limitaciones ni los determinismos humanos en cuanto a capacidad de análisis, de calculo, de simulación y de respuesta. Sus prioridades, no, no tendrán prácticamente ningún parecido con la humanas.
Si. Yo si estimo necesario tomar precauciones al respecto
No estoy deacuerdo con la conclusión del artículo. Yo creo que la IA no debería ser una amenaza en cuanto a que, precisamente, está despojada de sentimientos. Y, por lo tanto, tratar de dotar de sentimientos a las máquinas es, en mi opinión, lo que introduciría un factor de riesgo.
A ver si me puedo explicar mejor. ¿Por qué el ser humano hace las atrocidades que hace? Yo creo que se explica por la lucha por el poder. Que por un lado ha servido para ser mejores en el juego al que nos ha tocado jugar: la lucha por la supervivencia; competir por cubrir nuestras necesidades. Pero que al mismo tiempo también alimenta sentimientos como la ambición, la envidia, etc.
Las preguntas que yo me haría serían: ¿Tendrían estas máquinas que competir con nosotros? ¿Tendrían alguna necesidad? ¿Cuáles serían sus necesidades? ¿Qué motivaría a una máquina a hacer lo que quiera que haga? Yo creo que, mientras esa inteligencia sea puramente funcional, por ejemplo: ganar una partida de ajedrez, desplazar un vehículo de un punto a otro, reconocer imágenes de personas, dirigir un misil, etc. Sólo tendríamos que preocuparnos por las personas para las que trabajan estas inteligencias. Ya que, obviamente, todos conocemos las respuestas a estas últimas preguntas para el caso de las personas.
Al final tenemos herramientas cada vez más sofisticadas, cada vez más eficaces, que son una amenaza mientras no seamos capaces de dejar de competir entre nosotros, de rebajar la tensión, de poner límites a la ambición personal. Ese es el verdadero pelígro.
En el artículo se menciona de pasada problemas producidos por los algoritmos que operan en el mercado de valores. ¿De verdad el problema son los algoritmos o las personas insensatas cuya ambición no tiene límites?
Un saludo
En el mercado global puede que ya haya algo de esto:
El muy bien asentado y globalizado neoliberalismo, puede ser tanto la causa como la consecuencia de el surgimiento de un ente emergente, ya que su retroalimentación me parece evidente.
La práctica totalidad de la sociedad humana ya sociedad de mercado, pues todo, incluso los valores inmateriales, están a la venta, colabora consciente o inconscientemente en el desarrollo de este “ente emergente” con vida propia. Como en todas las emergencias, sus integrantes, con objetivos más o menos simples y un cierto grado de coordinación y o ensamble, conforman una estructura superior que va mucho mas allá de la suma de sus integrantes.
Tenemos un capital inversor, conformado tanto por minúsculas cantidades con la que se abren las cuentas de ahorro infantil, como por las sumas espeluznantes, que pueda depositar una multinacional aseguradora. Al que, tanto el niño y o su padre, como los altos ejecutivos de la multinacional, pretenden sacar el máximo beneficio.
Tenemos una ingente cantidad de analistas de inversión, agentes inversores, etc. etc. etc.. trabajando a destajo, con los mejores medios, para conseguir de este capital inversor, lo que ya se ha implantado como objetivo de todos, máximo beneficio en mínimo tiempo.
Tenemos un capital inversor, que al no tener que moverse físicamente, gracias a la informática, se ha hecho ubicuo y puede acudir o marchase de manera casi inmediata de cualquier lugar e incluso estar en varios a la vez.
Tenemos unos lugares donde los capitales más negros y sanguinolentos, pueden refugiarse y asearse para salir de ellos impolutos.
Ni los estados más poderosos, son ya capaces por separado de controlar los movimientos de este capital inversor, materia primordial de este “ente emergente” o “Er Bicho”, capaz de doblegarlos como a España, o especular contra monedas tan fuertes como el Yen (Sin piedad tras el Tsunami) o contra el mismísimo Dólar.
Esto último no es óbice para que estados, gobiernos e instituciones, legislen, apoyen, actúen e incluso satisfagan, según sean las preferencias y apetencias de Er Bicho, conformando algo así como las extremidades, corazas y defensas de Er Bicho.
La práctica totalidad de la ciudadanía, desde el semiesclavo bengalí al multimillonario americano, todos estámos en la medida de nuestras posibilidades empeñados en aumentar capital, así como obligados a reintegrarlo invirtiendo o consumiendo según los cánones que el mercado nos marque a cada uno. Todos tanto conformado, como alimentado a Er Bicho.
Er Bicho sabe donde ha de moverse con total sigilo y donde puede hacerlo como elefante en cacharrería.
De momento los que están dando la voz de alarma para desmontarlo o al menos domesticarlo, tiene escasa o nula repercusión mediática. Er Bicho en lo mediático es el amo, tanto en propagación toxoplasmática como en desmontar y montar según le parezca.
La gran mayoría, alimentamos, colaboramos y somos parte de Er Bicho, que con desmedida glotonería, vida propia y fuera de control, puede terminar reventando de indigestión, eliminado todo aquello que no le satisfaga o quien sabe como.
¿Solo conspiranoia mia?
¿Pero a la autora le pagan por escribir el artículo o por traducirlo de otro sitio? Ja, y encima pone el link del original en el propio artículo!
Kurzweil, como tantos “futuristas”, siempre me recuerda a aquel ginecólogo que aventuraba si iba a ser niño o niña, y luego escribía lo contrario en un libro; cuando acertaba decía “¿ves?, ya te lo dije”, y cuando le decían que se había equivocado, enseñaba el libro diciendo: “va a ser que tú no lo entendiste bien”.
“Albert Einstein escribió una carta al presidente Roosevelt para recomendarle que lanzara su terrorífica bomba atómica en la cabeza de los japoneses”. ¿A qué carta se refiere el artículo concretamente? Porque si se trata de la enviada por Einstein el 2 de agosto de 1939, en ningún momento “recomienda” nada parecido, mucho menos en los términos referidos.
Estamos a la puerta de hacer historia al futuro, las teorias de la inteligencia artificial estan basadas en la logica, pero hay mas alla que nos hace tan especial a los seres humanos, es lo impredecible que podamos a llegar a ser, y cada ser humanos es diferente a todos. La unica posibilidad de que haya una verdadera inteligencia artificial es logrando que un robot no solo tome desiciones logicas si no que tome desiciones impredecibles como los humanos.
Comentarios cerrados.