fbpx
11 de abril 2016    /   BUSINESS
por
 

Las redes sociales no son un peligro para la democracia: el problema eres tú

11 de abril 2016    /   BUSINESS     por          
Compártelo twitter facebook whatsapp
thumb image

El diario The Washington Post publicaba hace unas semanas un artículo advirtiendo del potencial peligro para la democracia que podía representar Facebook.

La tesis de la autora descansaba sobre un estudio del Pew Research que concluía que la gran mayoría de los jóvenes (‘millenials’) habían pasado de forma mayoritaria a informarse de asuntos políticos a través de la red social, al contrario que generaciones anteriores (‘baby boomers’), que lo hacían a través de la televisión.

Eso en sí no sería malo, siguiendo con la visión de la autora, sino fuera porque Facebook no informa de todo: según un experimento que hicieron en su mismo diario, el feed de Facebook ocultaba hasta el 72% de las nuevas publicaciones de las fuentes seguidas por un usuario determinado.

Coincidía en el tiempo con la publicación del artículo el anuncio de que quizá Twitter estaría preparando un algoritmo similar al de Facebook que, en lugar de enseñar todas las publicaciones de forma cronológica y en tiempo real, cribaría y enseñaría sólo lo que considerara ‘interesante’ para nosotros.

Al final la cosa ha quedado sólo en una pestaña que activa una visualización de los contenidos más interesantes (acorde al algoritmo de turno) que se publicaron mientras no estábamos conectados, una especie de ‘cosas que te perdiste mientras estabas fuera‘.

También hace unas pocas semanas Instagram -propiedad de Facebook- anunció que iba a introducir un algoritmo para ‘seleccionar’ las publicaciones que nos enseña, en lugar de mostrar todo tal y como hace hasta la fecha. La reacción airada de la gente hizo que detuvieran -de momento- su implantación, pero acabará llegando.

La explicación de por qué las redes sociales ‘filtran’ el contenido es sencilla: tendemos a relacionarnos con tanta gente y somos tan activos en redes que la gran mayoría del contenido es ruido. Y nada interesa menos a una de estas potentes empresas que perder la atención de sus usuarios.

La preocupación, claro, viene por saber cómo se criba el contenido, cómo se decide qué es interesante y qué no. Y cuando hablamos de las fotos de nuestra expareja puede que no sea algo determinante, pero -volviendo al primer artículo del Washington Post- cuando un porcentaje mayoritario de la gente se informa de política a través de las redes sí puede ser problemático.

¿Algoritmos o sesgo humano?

Cabría hacerse entonces la siguiente pregunta: ¿es más preocupante la ‘selección’ que hace un algoritmo que la que hace la propia persona?

Porque sí, las personas también cribamos, y de forma mucho más acusada que estas compañías que nos proporcionan el contenido. Valga como ejemplo otra de las teorías que se achacan a las redes sociales para tratar de demostrar que nos ofrecen una visión sesgada de la realidad: la llamada ‘ilusión de la mayoría

La teoría, de origen matemático, viene a decir que en entornos como los de las redes sociales, se sobredimensionan las cosas que defienden o hacen aquellos usuarios con muchos seguidores. Lo que en teoría de comunicación se conoce como ‘líderes de opiniones’ y en redes se ha llamado ‘incluencers’. Esta teoría explicaría, por ejemplo, las distorsiones de percepción en procesos electorales del estilo ‘¿cómo es posible que no hayan ganado estos, si todo el mundo en mi ‘timeline’ iba a votarles?’

Ante esa pregunta, además, caben varios matices. Por ejemplo, otra teoría de la comunicación, la de la espiral del silencio de Elisabeth Noelle-Neumann, que indagaba en cómo la gente con opiniones minoritarias tendía a no expresar su forma de pensar por miedo a las represiones sociales, o incluso a simular su apoyo a esas opiniones mayoritarias. Eso, obviamente, también distorsiona -y de forma muy complicada de medir- la realidad en comparación con lo que se dice públicamente en foros como redes sociales.

Intolerancia a la discrepancia

Pero antes incluso que eso hay otro ‘pero’ importante:  no son las redes sociales las que nos meten en una burbuja en la que todo nuestro entorno parece opinar como nosotros, ni tampoco son una fuente más distorsionada de la realidad por culpa de los algoritmos. En realidad, todo en nuestro entorno lo hemos construido con el propósito de eliminar la exposición a las discrepancias.

Lo planteó hace décadas Paul Watzlawick, autor de un libro llamado ‘How real is real?’ en el que planteaba precisamente que los medios de comunicación no transmitían una imagen fidedigna de lo que sucedía, sino una imagen mediada (de hecho, es un juego de palabras peculiar eso de los ‘medios’ de comunicación y la ‘mediación’ informativa). Según exponía, los sucesos se cribaban, seleccionaban y componían teniendo en cuenta criterios ideológicos, económicos, de proximidad y un sinfín de condicionantes más.

Y eso sin tener en cuenta nuestras propias limitaciones perceptivas: tendemos a construirnos imágenes de la realidad que no se corresponden con lo que nos rodea. Pensamos, por ejemplo, que hay más inmigrantes de los que hay, que el dinero se reparte mejor o que juzgamos los eventos mejor de lo que lo hacemos.

En realidad, la construcción tecnológica actual no es más que un reflejo de esa intolerancia a la discrepancia: nos rodeamos de gente que tiende a pensar como nosotros, buscamos pareja en nuestras comunidades cercanas y educamos a nuestros descendientes a nuestra imagen y semejanza. Nuestra sociedad está llena de esos ‘nodos de socialización’ que perpetúan esa homogeneización: colegio, trabajo, ciudad, cultura, posición económica, ideología…

Si lo piensas, compramos las marcas que conocemos -y no las otras-, nos preocupamos por las noticias que salen en los medios -las demás no existen- y creemos que nuestra media naranja es alguien que, en realidad, es un calco sociológico de nuestro entorno y gustos.

La tecnología repite ese esquema. Creemos que internet es todo lo que nos enseña Google -cuando la mayor parte de la Red permanece oculta al común de los usuarios-. Creemos que el buscador responde a nuestras preguntas, cuando en realidad ‘premia’ nuestras búsquedas recurrentes porque ante un resultado que la gente ‘premia’ pinchando el algoritmo entiende que el proceso ha sido satisfactorio y lo promociona.

Leemos los medios que coinciden con nuestra ideología, vemos los programas que no vulneran nuestros principios vitales, consumimos los productos que nos recomiendan y escuchamos la música que nos ponen en todas las emisoras y locales. La repetición es la forma en la que nos relacionamos con la realidad, y es esa repetición la que nos aleja de la realidad: las redes sociales y los algoritmos sólo lo hacen de la misma forma que nosotros les enseñamos a hacer.

El diario The Washington Post publicaba hace unas semanas un artículo advirtiendo del potencial peligro para la democracia que podía representar Facebook.

La tesis de la autora descansaba sobre un estudio del Pew Research que concluía que la gran mayoría de los jóvenes (‘millenials’) habían pasado de forma mayoritaria a informarse de asuntos políticos a través de la red social, al contrario que generaciones anteriores (‘baby boomers’), que lo hacían a través de la televisión.

Eso en sí no sería malo, siguiendo con la visión de la autora, sino fuera porque Facebook no informa de todo: según un experimento que hicieron en su mismo diario, el feed de Facebook ocultaba hasta el 72% de las nuevas publicaciones de las fuentes seguidas por un usuario determinado.

Coincidía en el tiempo con la publicación del artículo el anuncio de que quizá Twitter estaría preparando un algoritmo similar al de Facebook que, en lugar de enseñar todas las publicaciones de forma cronológica y en tiempo real, cribaría y enseñaría sólo lo que considerara ‘interesante’ para nosotros.

Al final la cosa ha quedado sólo en una pestaña que activa una visualización de los contenidos más interesantes (acorde al algoritmo de turno) que se publicaron mientras no estábamos conectados, una especie de ‘cosas que te perdiste mientras estabas fuera‘.

También hace unas pocas semanas Instagram -propiedad de Facebook- anunció que iba a introducir un algoritmo para ‘seleccionar’ las publicaciones que nos enseña, en lugar de mostrar todo tal y como hace hasta la fecha. La reacción airada de la gente hizo que detuvieran -de momento- su implantación, pero acabará llegando.

La explicación de por qué las redes sociales ‘filtran’ el contenido es sencilla: tendemos a relacionarnos con tanta gente y somos tan activos en redes que la gran mayoría del contenido es ruido. Y nada interesa menos a una de estas potentes empresas que perder la atención de sus usuarios.

La preocupación, claro, viene por saber cómo se criba el contenido, cómo se decide qué es interesante y qué no. Y cuando hablamos de las fotos de nuestra expareja puede que no sea algo determinante, pero -volviendo al primer artículo del Washington Post- cuando un porcentaje mayoritario de la gente se informa de política a través de las redes sí puede ser problemático.

¿Algoritmos o sesgo humano?

Cabría hacerse entonces la siguiente pregunta: ¿es más preocupante la ‘selección’ que hace un algoritmo que la que hace la propia persona?

Porque sí, las personas también cribamos, y de forma mucho más acusada que estas compañías que nos proporcionan el contenido. Valga como ejemplo otra de las teorías que se achacan a las redes sociales para tratar de demostrar que nos ofrecen una visión sesgada de la realidad: la llamada ‘ilusión de la mayoría

La teoría, de origen matemático, viene a decir que en entornos como los de las redes sociales, se sobredimensionan las cosas que defienden o hacen aquellos usuarios con muchos seguidores. Lo que en teoría de comunicación se conoce como ‘líderes de opiniones’ y en redes se ha llamado ‘incluencers’. Esta teoría explicaría, por ejemplo, las distorsiones de percepción en procesos electorales del estilo ‘¿cómo es posible que no hayan ganado estos, si todo el mundo en mi ‘timeline’ iba a votarles?’

Ante esa pregunta, además, caben varios matices. Por ejemplo, otra teoría de la comunicación, la de la espiral del silencio de Elisabeth Noelle-Neumann, que indagaba en cómo la gente con opiniones minoritarias tendía a no expresar su forma de pensar por miedo a las represiones sociales, o incluso a simular su apoyo a esas opiniones mayoritarias. Eso, obviamente, también distorsiona -y de forma muy complicada de medir- la realidad en comparación con lo que se dice públicamente en foros como redes sociales.

Intolerancia a la discrepancia

Pero antes incluso que eso hay otro ‘pero’ importante:  no son las redes sociales las que nos meten en una burbuja en la que todo nuestro entorno parece opinar como nosotros, ni tampoco son una fuente más distorsionada de la realidad por culpa de los algoritmos. En realidad, todo en nuestro entorno lo hemos construido con el propósito de eliminar la exposición a las discrepancias.

Lo planteó hace décadas Paul Watzlawick, autor de un libro llamado ‘How real is real?’ en el que planteaba precisamente que los medios de comunicación no transmitían una imagen fidedigna de lo que sucedía, sino una imagen mediada (de hecho, es un juego de palabras peculiar eso de los ‘medios’ de comunicación y la ‘mediación’ informativa). Según exponía, los sucesos se cribaban, seleccionaban y componían teniendo en cuenta criterios ideológicos, económicos, de proximidad y un sinfín de condicionantes más.

Y eso sin tener en cuenta nuestras propias limitaciones perceptivas: tendemos a construirnos imágenes de la realidad que no se corresponden con lo que nos rodea. Pensamos, por ejemplo, que hay más inmigrantes de los que hay, que el dinero se reparte mejor o que juzgamos los eventos mejor de lo que lo hacemos.

En realidad, la construcción tecnológica actual no es más que un reflejo de esa intolerancia a la discrepancia: nos rodeamos de gente que tiende a pensar como nosotros, buscamos pareja en nuestras comunidades cercanas y educamos a nuestros descendientes a nuestra imagen y semejanza. Nuestra sociedad está llena de esos ‘nodos de socialización’ que perpetúan esa homogeneización: colegio, trabajo, ciudad, cultura, posición económica, ideología…

Si lo piensas, compramos las marcas que conocemos -y no las otras-, nos preocupamos por las noticias que salen en los medios -las demás no existen- y creemos que nuestra media naranja es alguien que, en realidad, es un calco sociológico de nuestro entorno y gustos.

La tecnología repite ese esquema. Creemos que internet es todo lo que nos enseña Google -cuando la mayor parte de la Red permanece oculta al común de los usuarios-. Creemos que el buscador responde a nuestras preguntas, cuando en realidad ‘premia’ nuestras búsquedas recurrentes porque ante un resultado que la gente ‘premia’ pinchando el algoritmo entiende que el proceso ha sido satisfactorio y lo promociona.

Leemos los medios que coinciden con nuestra ideología, vemos los programas que no vulneran nuestros principios vitales, consumimos los productos que nos recomiendan y escuchamos la música que nos ponen en todas las emisoras y locales. La repetición es la forma en la que nos relacionamos con la realidad, y es esa repetición la que nos aleja de la realidad: las redes sociales y los algoritmos sólo lo hacen de la misma forma que nosotros les enseñamos a hacer.

Compártelo twitter facebook whatsapp
Hoodbikes: Una marca barcelonesa que reivindica la bici como estilo de vida
¡Mírame cómo follo!
La granja que hay debajo del asfalto de Spitalfields
Utah Data Center: EEUU ultima el mayor centro de espionaje de la historia
 
Especiales
 
facebook twitter whatsapp

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *