fbpx
19 de enero 2016    /   CIENCIA
por
 

¿Cómo podemos saber si lo que leemos es verdad?

19 de enero 2016    /   CIENCIA     por          
Compártelo twitter facebook whatsapp
thumb image

Todo el mundo puede escribir, todo el mundo puede leer. Es decir, que el más ignorante del mundo puede publicar cualquier cosa que se le pase por la cabeza, y la cabeza más ignorante del mundo puede creérsela.

No es un lamento neoludita, sino que reverbera en la historia del conocimiento desde el advenimiento de la imprenta: cuando Johann Fust, antiguo socio de Gutenberg, viajó a París a vender copias de la Biblia, los libreros no tardaron en denunciarlo a la policía: «tal reserva de libros en posesión de un solo hombre solo podía haber sido conseguida con ayuda del propio diablo», leemos en La aparición del libro, de Lucien Febvre y Henri-Jean Martin.

Sin embargo, en tiempos de infoxicación, esta tendencia es cada vez más preocupante, porque apenas tenemos tiempo de verificar todos los inputs que recibimos diariamente, y todo el mundo tiene el poder de poseer una imprenta en su propia casa: pulsando un botón puede llegar a todas las mentes del planeta. Este mismo texto que estás leyendo ahora mismo podría ser una completa mentira, una filfa tergiversadora jalonada de bibliografía inventada o de escaso valor académico.

Está claro que necesitamos ayuda. Una ayuda extramuros de nuestro cerebro.

El Gran Hermano corrector

Para algunos investigadores, la única solución ante el alud de información verdadera, falsa y parcialmente verdadera/falsa que se nos echa encima cada día (sobre todo a través de redes sociales y foros tipo ForoCoches) es un sistema automático de verificación de la verdad, lo que podría ser una suerte de pesadilla distópica a lo Gran Hermano para muchos lectores.

Hasta ahora disponíamos de herramientas asistidas por seres humanos, como es el caso de Polifact.com o FactCheck.org, todas ellas herramientas que determinan la precisión de las declaraciones de los políticos en Estados Unidos. Estas herramientas aún necesitan asistencia humana, pero es un primer paso para el filtraje automático de spam intelectual.

Los algoritmos deberán rescatarnos de los continuos tsunamis de información contrapuesta. Y ahí es donde entra en juego Truth Goggles. Desarrollado por un estudiante de posgrado del MIT, este software puede integrarse en nuestro navegador y tutelar nuestras lecturas. Su lema es «Una capa de credibilidad para Internet».

Así, por ejemplo, si accedemos a las noticias del The New York Times, tras hacer clic en el icono de Truth Goggles, si el artículo que leemos contiene alguno de los miles de afirmaciones que componen la bases de datos de PolitiFact, los datos quedarán resaltados en amarillo. Tras pasar el ratón por encima de la afirmación, se nos informará si esta es verdadera o falsa y en qué grado, incluyendo además cierta información contextual.

Obviamente, la herramienta no aspira a revelar la Verdad con mayúsculas, sino una verdad conectada a hechos. Es decir, olvidaos de la arquitectura filosófica que busca la verdad sustentada en los pilares de la ontología y demás matices epistemológicos. Este tipo de herramientas aspira a verdades más mundanas.

De acuerdo con el título de un artículo en la revista New Scientist, Google quiere clasificar los sitios web basándose ​​en hechos, no en enlaces. Por ejemplo, a la hora de buscar datos médicos basados en la evidencia científica y no en la mera opinión o los movimientos pseudocientíficos, el usuario se enfrenta a una jungla. La mera búsqueda de un remedio para cualquier afección arroja resultados procedentes de toda clase de fuentes, e incluso los primeros resultados acostumbran a ser lo más erróneos (quizá porque lo más popular suele ser lo erróneo en asuntos médicos complejos que precisan de una enorme especialización).

De hecho, 1 de cada 20 búsquedas en Google tiene relación con la salud. Por ello, Google está trabajando duramente en conseguir clasificar esas búsquedas por la confianza que arrojan. Los resultados aún son modestos y controvertidos, y quizá necesitamos una suerte de inteligencia artificial más afinada para llevar a cabo tal tarea (o un ejército de editores tipo Wikipedia trabajando duramente al igual que ya se hace en los artículos académicos revisados por pares que publican las revistas profesionales).

2overload

Críticas

Tales herramientas distan de ser perfectas. Por ejemplo, muchas de las evaluaciones de PolitiFact no son perfectamente ecuánimes porque los expertos contratados, por mucha bibliografía que aporten para respaldar sus evaluaciones, no pueden evitar incurrir en sesgos ideológicos. Tal y como critica Evgeny Morozov en su libro La locura del solucionismo tecnológico:

No parece que haya grandes problemas a ambos extremos del espectro; es probable que las afirmaciones catalogadas como absolutamente «verdadero» o absolutamente «falso» no sean muy polémicas, siempre y cuando no se refieran al cambio climático o la evolución. ¿Pero qué sucede con todas las afirmaciones ubicadas entre los extremos del espectro? ¿Podemos de veras confiar en la decisión de PolitiFact de catalogar como «mayormente falso» cuando tal vez debería ser «mayormente verdadero»?

A todo ello se suma el hecho de que psicológicamente, en general, no estamos programados tanto para perseguir la verdad como para hallar verdades que sustenten o refuercen nuestras convicciones previas. Hay un montón de evidencia de que la gente consume información con motivaciones ideológicas. Estamos ante el sesgo de confirmación.

Y sí, quizás, finalmente, tal vez sintamos la necesidad de que determinadas herramientas tutelen el grado de veracidad de los datos que consumidos. Pero quizás, además de apelar al conocimiento totalmente objetivo sobre toda clase de cosas, también sería saludable cierto grado de incertidumbre, equívoco y subjetividad para que, de ese mejunje, surjan ideas revolucionarias o rompedoras. Porque, después de todo, ¿quién vigila a los vigilantes?

Todo el mundo puede escribir, todo el mundo puede leer. Es decir, que el más ignorante del mundo puede publicar cualquier cosa que se le pase por la cabeza, y la cabeza más ignorante del mundo puede creérsela.

No es un lamento neoludita, sino que reverbera en la historia del conocimiento desde el advenimiento de la imprenta: cuando Johann Fust, antiguo socio de Gutenberg, viajó a París a vender copias de la Biblia, los libreros no tardaron en denunciarlo a la policía: «tal reserva de libros en posesión de un solo hombre solo podía haber sido conseguida con ayuda del propio diablo», leemos en La aparición del libro, de Lucien Febvre y Henri-Jean Martin.

Sin embargo, en tiempos de infoxicación, esta tendencia es cada vez más preocupante, porque apenas tenemos tiempo de verificar todos los inputs que recibimos diariamente, y todo el mundo tiene el poder de poseer una imprenta en su propia casa: pulsando un botón puede llegar a todas las mentes del planeta. Este mismo texto que estás leyendo ahora mismo podría ser una completa mentira, una filfa tergiversadora jalonada de bibliografía inventada o de escaso valor académico.

Está claro que necesitamos ayuda. Una ayuda extramuros de nuestro cerebro.

El Gran Hermano corrector

Para algunos investigadores, la única solución ante el alud de información verdadera, falsa y parcialmente verdadera/falsa que se nos echa encima cada día (sobre todo a través de redes sociales y foros tipo ForoCoches) es un sistema automático de verificación de la verdad, lo que podría ser una suerte de pesadilla distópica a lo Gran Hermano para muchos lectores.

Hasta ahora disponíamos de herramientas asistidas por seres humanos, como es el caso de Polifact.com o FactCheck.org, todas ellas herramientas que determinan la precisión de las declaraciones de los políticos en Estados Unidos. Estas herramientas aún necesitan asistencia humana, pero es un primer paso para el filtraje automático de spam intelectual.

Los algoritmos deberán rescatarnos de los continuos tsunamis de información contrapuesta. Y ahí es donde entra en juego Truth Goggles. Desarrollado por un estudiante de posgrado del MIT, este software puede integrarse en nuestro navegador y tutelar nuestras lecturas. Su lema es «Una capa de credibilidad para Internet».

Así, por ejemplo, si accedemos a las noticias del The New York Times, tras hacer clic en el icono de Truth Goggles, si el artículo que leemos contiene alguno de los miles de afirmaciones que componen la bases de datos de PolitiFact, los datos quedarán resaltados en amarillo. Tras pasar el ratón por encima de la afirmación, se nos informará si esta es verdadera o falsa y en qué grado, incluyendo además cierta información contextual.

Obviamente, la herramienta no aspira a revelar la Verdad con mayúsculas, sino una verdad conectada a hechos. Es decir, olvidaos de la arquitectura filosófica que busca la verdad sustentada en los pilares de la ontología y demás matices epistemológicos. Este tipo de herramientas aspira a verdades más mundanas.

De acuerdo con el título de un artículo en la revista New Scientist, Google quiere clasificar los sitios web basándose ​​en hechos, no en enlaces. Por ejemplo, a la hora de buscar datos médicos basados en la evidencia científica y no en la mera opinión o los movimientos pseudocientíficos, el usuario se enfrenta a una jungla. La mera búsqueda de un remedio para cualquier afección arroja resultados procedentes de toda clase de fuentes, e incluso los primeros resultados acostumbran a ser lo más erróneos (quizá porque lo más popular suele ser lo erróneo en asuntos médicos complejos que precisan de una enorme especialización).

De hecho, 1 de cada 20 búsquedas en Google tiene relación con la salud. Por ello, Google está trabajando duramente en conseguir clasificar esas búsquedas por la confianza que arrojan. Los resultados aún son modestos y controvertidos, y quizá necesitamos una suerte de inteligencia artificial más afinada para llevar a cabo tal tarea (o un ejército de editores tipo Wikipedia trabajando duramente al igual que ya se hace en los artículos académicos revisados por pares que publican las revistas profesionales).

2overload

Críticas

Tales herramientas distan de ser perfectas. Por ejemplo, muchas de las evaluaciones de PolitiFact no son perfectamente ecuánimes porque los expertos contratados, por mucha bibliografía que aporten para respaldar sus evaluaciones, no pueden evitar incurrir en sesgos ideológicos. Tal y como critica Evgeny Morozov en su libro La locura del solucionismo tecnológico:

No parece que haya grandes problemas a ambos extremos del espectro; es probable que las afirmaciones catalogadas como absolutamente «verdadero» o absolutamente «falso» no sean muy polémicas, siempre y cuando no se refieran al cambio climático o la evolución. ¿Pero qué sucede con todas las afirmaciones ubicadas entre los extremos del espectro? ¿Podemos de veras confiar en la decisión de PolitiFact de catalogar como «mayormente falso» cuando tal vez debería ser «mayormente verdadero»?

A todo ello se suma el hecho de que psicológicamente, en general, no estamos programados tanto para perseguir la verdad como para hallar verdades que sustenten o refuercen nuestras convicciones previas. Hay un montón de evidencia de que la gente consume información con motivaciones ideológicas. Estamos ante el sesgo de confirmación.

Y sí, quizás, finalmente, tal vez sintamos la necesidad de que determinadas herramientas tutelen el grado de veracidad de los datos que consumidos. Pero quizás, además de apelar al conocimiento totalmente objetivo sobre toda clase de cosas, también sería saludable cierto grado de incertidumbre, equívoco y subjetividad para que, de ese mejunje, surjan ideas revolucionarias o rompedoras. Porque, después de todo, ¿quién vigila a los vigilantes?

Compártelo twitter facebook whatsapp
Los cerebros fugados se adaptan al laboratorio alemán
¿Por qué enganchan las series dramáticas de TV repletas de 'cliffhangers'?
¿Por qué me eligen los mosquitos?
El olfato: el más emocional e ignorado de los sentidos
 
Especiales
 
facebook twitter whatsapp
Opiniones 4
  • Un título muy bien pensado para atraer. Quizás por eso mismo el contenido me ha decepcionado un poco. La «reflexión» final es más vieja que las montañas. Un cordial saludo.

  • Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *