2 de diciembre 2012    /   CIENCIA
por
 

La Universidad de Cambridge estudiará el riesgo de que los robots acaben con la especie humana

2 de diciembre 2012    /   CIENCIA     por          
Compártelo twitter facebook whatsapp
thumb image

Primero lo insinuó la literatura. Hoy lo quiere constatar la ciencia. Las distopías nacieron en las novelas y ahora serán diseccionadas bajo el microscopio. La idea es de tres investigadores de la Universidad de Cambridge. El cofundador de Skype Jaan Tallinn, el filósofo Huw Price y el cosmólogo Martin Rees consideran una amenaza el día que la inteligencia artificial supere a la humana. Ese momento llegará. Pronto. Algún robot podrá volverse malo, como en las novelas de ciencia ficción, y acabar con sus papás programadores y, de paso, la humanidad entera.

El argumento es un clásico de la literatura y las películas futuristas pero ahora sale de la imaginación para convertirse en objeto de estudio científico. Tallinn, Price y Rees han creado un instituto, dependiente de la Universidad de Cambridge, llamado Centro para el Estudio del Riesgo Existencial (Centre for the Study of Existencial Risk, CSER), que estará en funcionamiento a partir del año que viene.

Los fundadores justifican su proyecto, en la web del nuevo centro, con el argumento de que “muchos científicos están preocupados porque el desarrollo de la tecnología humana pronto podría plantear nuevas amenazas de extinción para la totalidad de nuestra especie”. “Estos peligros”, continúan, “han sido sugeridos por el progreso de la inteligencia artificial, los descubrimientos de biotecnología y la vida artificial, la nanotecnología y las posibles consecuencias del cambio climático”.

El profesor Price dijo a AFP, según un artículo de la BBC, que “parece una predicción bastante razonable que en algún momento de este siglo o el próximo, la inteligencia escape de los límites de la biología”. Y eso origina un gran temor en estos científicos. Los humanos podrían quedar a merced de máquinas, que, según el filósofo, “no son maliciosas, pero que pueden no incluir a los humanos entre sus intereses”.

Los profesores Tallinn y Price desarrollan sus hipótesis en este artículo, titulado Artificial intelligence. Can we keep it in the box?

El futuro ya está a examen por la amenaza de unos futuros robots desalmados que querrían acabar con los humanos. Pero, probablemente, haya un tema más urgente como objeto de estudio que bien podría caer en el laboratorio de un nuevo Centro para el Estudio del Riesgo Existencial Humano.  

 

“…Y aún sueño que pisa la hierba caminando espectral entre el rocío atravesado por mi canto alegre”, (¿Sueñan los androides con ovejas eléctricas?, la novela de Phillip K. Dick en la que se basó la película Blade Runner)

Primero lo insinuó la literatura. Hoy lo quiere constatar la ciencia. Las distopías nacieron en las novelas y ahora serán diseccionadas bajo el microscopio. La idea es de tres investigadores de la Universidad de Cambridge. El cofundador de Skype Jaan Tallinn, el filósofo Huw Price y el cosmólogo Martin Rees consideran una amenaza el día que la inteligencia artificial supere a la humana. Ese momento llegará. Pronto. Algún robot podrá volverse malo, como en las novelas de ciencia ficción, y acabar con sus papás programadores y, de paso, la humanidad entera.

El argumento es un clásico de la literatura y las películas futuristas pero ahora sale de la imaginación para convertirse en objeto de estudio científico. Tallinn, Price y Rees han creado un instituto, dependiente de la Universidad de Cambridge, llamado Centro para el Estudio del Riesgo Existencial (Centre for the Study of Existencial Risk, CSER), que estará en funcionamiento a partir del año que viene.

Los fundadores justifican su proyecto, en la web del nuevo centro, con el argumento de que “muchos científicos están preocupados porque el desarrollo de la tecnología humana pronto podría plantear nuevas amenazas de extinción para la totalidad de nuestra especie”. “Estos peligros”, continúan, “han sido sugeridos por el progreso de la inteligencia artificial, los descubrimientos de biotecnología y la vida artificial, la nanotecnología y las posibles consecuencias del cambio climático”.

El profesor Price dijo a AFP, según un artículo de la BBC, que “parece una predicción bastante razonable que en algún momento de este siglo o el próximo, la inteligencia escape de los límites de la biología”. Y eso origina un gran temor en estos científicos. Los humanos podrían quedar a merced de máquinas, que, según el filósofo, “no son maliciosas, pero que pueden no incluir a los humanos entre sus intereses”.

Los profesores Tallinn y Price desarrollan sus hipótesis en este artículo, titulado Artificial intelligence. Can we keep it in the box?

El futuro ya está a examen por la amenaza de unos futuros robots desalmados que querrían acabar con los humanos. Pero, probablemente, haya un tema más urgente como objeto de estudio que bien podría caer en el laboratorio de un nuevo Centro para el Estudio del Riesgo Existencial Humano.  

 

“…Y aún sueño que pisa la hierba caminando espectral entre el rocío atravesado por mi canto alegre”, (¿Sueñan los androides con ovejas eléctricas?, la novela de Phillip K. Dick en la que se basó la película Blade Runner)

Compártelo twitter facebook whatsapp
Stuart Clark: "Estamos hechos de polvo de estrellas"
El cyborg que convierte colores en sonidos
El metro cúbico más frío del universo
El inglés que dio nombre a las nubes (y encandiló a Goethe)
 
Especiales
 
facebook twitter whatsapp

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

El rollo legal de las cookies

La Ley 34/2002 nos obliga a avisarte de que usamos cookies propias y de terceros (ni de cuartos ni de quintos) con objetivos estadísticos y de sesión y para mostrarte la 'publi' que nos da de comer. Tenemos una política de cookies majísima y bla bla bla. Si continúas navegando, asumimos que aceptas y que todo guay. Si no te parece bien, huye y vuelve por donde has venido, que nadie te obliga a entrar aquí. Pincha este enlace para conocer los detalles. Tranquilo, este mensaje solo sale una vez. Esperamos.

ACEPTAR
Aviso de cookies