Ā«El mundo estĆ” inundado de mierdaĀ». Es el grito de guerra de los promotores de Calling Bullshit, un taller para luchar contra la broza y los engaƱos que todos nos tragamos. Nos los hemos comido siempre, pero con internet la ingesta se ha multiplicado. Es basura disimulada: se viste de rigor. Nos la cuelan mĆ”s de lo que creemos. Es el caso de muchos de los papers, estudios o encuestas, que sirven para poner de gala y darle aspecto cientĆfico a verdaderas patraƱas.
El objetivo de los profesores Carl T. Bergstrom y Jevin West es convertir a sus alumnos en buenos clasificadores de residuos. Pintan un mundo apocalĆptico: Ā«Los polĆticos no se acogen a los hechos. La ciencia es conducida por los comunicados de prensa. La educación superior premia la bullshit sobre el pensamiento analĆtico. La cultura de las start-upsĀ eleva la bullshit a la categorĆa de gran arteĀ», y esto es solo el arranque de su declaración de principios.
Sus clases estĆ”n colgadas en Youtube y abordan el fenómeno en todas sus aristas. Ā«Antes nos las colaban con los anuncios, ahora se cuela por todas partes usando la ironĆa como caballo de TroyaĀ». Esparcimos diariamente la basura a travĆ©s de las redes sociales. Estos profesores alertan y tambiĆ©n llaman a la acción, creen que identificar la bullshit y perseguirla es una de las tareas que mĆ”s necesita hoy la sociedad.
Es imposible abordar todos los prismas de Calling Bullshit. Por eso, conviene centrarse en uno de los aspectos mĆ”s comunes y donde mĆ”s tropezamos los periodistas: estudios cientĆficos, encuestas, investigaciones.
Las engaƱifas no son siempre evitables, han llegado a colarse en revistas de prestigio internacional y a propagarse por medios de comunicación de todo el mundo. El panorama de partida es desasosegante: Ā«No hay manera para usted, como lector, de saber mĆ”s allĆ” de toda sombra de duda que un trabajo cientĆfico particular sea correctoĀ», avisan en un extenso artĆculo dedicado a facilitar herramientas y criterios para esquivar el estiĆ©rcol informativo.
Hay que aclarar que no se refieren a errores o fallos en los que pueden tropezar investigadores con buena fe y que apliquen los mƩtodos con rigor, sino a otro punto mƔs grave: el timo premeditado, el trilerismo ilustrado.
Una de las formas mĆ”s evidentes de cercar la bullshit es investigar sobre la revista en que se publica el artĆculo. Tradicionalmente, se ha valorado la calidad de las mismas en función de la cantidad de citas y referencias que reciben desde otras publicaciones. Hay aplicaciones como Journal Impact Factor que ayudan a medir el prestigio de una publicación. La herramienta Journal Citation Reports es todavĆa mĆ”s competente, pero no permite acceso libre. Si una revista no figura en esta Ćŗltima, comencemos a sospechar.
El sentido común es también un arma útil en esta labor. Una vez conocemos las revistas de competencia comprobada podemos deducir que si, en una publicación de perfil bajo, aparece un descubrimiento de amplio calado, por ejemplo, que la fabada asturiana cura el 100% de los cÔnceres, probablemente se trate de una ocurrencia que ademÔs, si uno escarba, encontrarÔ que ha sido financiada por el lobby de la fabada asturiana (cosa que esperamos que no exista).
Hay que hacerse otra pregunta: «¿Los autores tienen interés en los resultados que estÔn publicando?». Desde Calling Bullshit proponen, antes de tomar en serio un estudio, revisar las fuentes de financiación: ver si los autores estÔn afiliados a empresas del sector influido o examinar la sección de financiación del estudio. «Algunas industrias son capaces de ejercer una presión indebida sobre los investigadores para que publiquen resultados que les benefician».
Una parte bĆ”sica es tambiĆ©n comprobar si el artĆculo ha sido revisado por pares, es decir, por expertos ajenos al estudio, o buscar si ha habido retractaciones.
Como en otros Ć”mbitos laborales, la competitividad de los cientĆficos crece sin pausa. Para mantener subvenciones o ascender profesionalmente, los acadĆ©micos deben publicar mucho. Cantidad y calidad van reƱidas. Ā«En la Ćŗltima dĆ©cada, ha surgido un gran nĆŗmero de revistas que satisfacen las necesidades de los acadĆ©micos de publicar su trabajo. Los editores suelen cobrar a sus autoresĀ», detallan en el artĆculo. Son, ademĆ”s, trabajos que se dispensan gratuitamente en internet: un verdadero cebo para los periodistas (en un mundo en que, ademĆ”s, los periodistas deben trabajar rĆ”pido, publicar mucho para subsistir y, por tanto, no encuentran tiempo de entrar en disquisiciones: comer tres veces al dĆa y aplicarse con un rigor absoluto puede no ser compatible).
Este tipo de revistas, aunque afirman hacerlo, no procesan los artĆculos debidamente y no los someten a decisión de otros expertos del gremio. Sirven para que los autores con buena fe resulten engaƱados y los autores manipuladores difundan información de baja calidad o interesada. Sin embargo, los impulsores deĀ Calling Bullshit reconocen que no es fĆ”cil, a veces, detectar en quĆ© punto exacto de credibilidad se encuentra una revista. Marcan tres parĆ”metros que ayudan: que estĆ© publicada por un editor de renombre, patrocinada por una reconocida sociedad acadĆ©mica y que figure en el Journals Citation Reports.
ĀæY quĆ© pasa con Google AcadĆ©mico? A muchos nos han hablado de Ć©l como el Santo Grial de los motores de bĆŗsqueda de fuentes cientĆficas y es Ćŗtil, pero parece que es mejor huir de Ć©l. Google lo indexa casi todo mientras que otros buscadores seleccionan. Ā«Se sabe que Google AcadĆ©mico indexa un material bastante tonto. En nuestra opinión, ser indexados por Web of Science o Scopus es seƱal razonable de legitimidad, mientras que ser indexado por Google AcadĆ©mico dice poco sobre la legitimidad de un documentoĀ», advierten.
Si, con todas estas precauciones, aĆŗn podrĆamos caer en la trampa y difundir y aportar credibilidad a la bullshit, alarma lo que debe estar ocurriendo con nuestra forma de andar desprotegidos por la red. La pregunta es obligada a la par que dolorosa: ĀæCuĆ”ntas de nuestras convicciones se asentarĆ”n sobre pura mierda?
Comentarios cerrados.