11 de abril 2016    /   BUSINESS
por
 

Las redes sociales no son un peligro para la democracia: el problema eres tĂș

11 de abril 2016    /   BUSINESS     por          
CompĂĄrtelo twitter facebook whatsapp
thumb image

El diario The Washington Post publicaba hace unas semanas un artĂ­culo advirtiendo del potencial peligro para la democracia que podĂ­a representar Facebook.

La tesis de la autora descansaba sobre un estudio del Pew Research que concluĂ­a que la gran mayorĂ­a de los jĂłvenes (‘millenials’) habĂ­an pasado de forma mayoritaria a informarse de asuntos polĂ­ticos a travĂ©s de la red social, al contrario que generaciones anteriores (‘baby boomers’), que lo hacĂ­an a travĂ©s de la televisiĂłn.

Eso en sĂ­ no serĂ­a malo, siguiendo con la visiĂłn de la autora, sino fuera porque Facebook no informa de todo: segĂșn un experimento que hicieron en su mismo diario, el feed de Facebook ocultaba hasta el 72% de las nuevas publicaciones de las fuentes seguidas por un usuario determinado.

CoincidĂ­a en el tiempo con la publicaciĂłn del artĂ­culo el anuncio de que quizĂĄ Twitter estarĂ­a preparando un algoritmo similar al de Facebook que, en lugar de enseñar todas las publicaciones de forma cronolĂłgica y en tiempo real, cribarĂ­a y enseñarĂ­a sĂłlo lo que considerara ‘interesante’ para nosotros.

Al final la cosa ha quedado sĂłlo en una pestaña que activa una visualizaciĂłn de los contenidos mĂĄs interesantes (acorde al algoritmo de turno) que se publicaron mientras no estĂĄbamos conectados, una especie de ‘cosas que te perdiste mientras estabas fuera‘.

TambiĂ©n hace unas pocas semanas Instagram -propiedad de Facebook- anunciĂł que iba a introducir un algoritmo para ‘seleccionar’ las publicaciones que nos enseña, en lugar de mostrar todo tal y como hace hasta la fecha. La reacciĂłn airada de la gente hizo que detuvieran -de momento- su implantaciĂłn, pero acabarĂĄ llegando.

La explicaciĂłn de por quĂ© las redes sociales ‘filtran’ el contenido es sencilla: tendemos a relacionarnos con tanta gente y somos tan activos en redes que la gran mayorĂ­a del contenido es ruido. Y nada interesa menos a una de estas potentes empresas que perder la atenciĂłn de sus usuarios.

La preocupación, claro, viene por saber cómo se criba el contenido, cómo se decide qué es interesante y qué no. Y cuando hablamos de las fotos de nuestra expareja puede que no sea algo determinante, pero -volviendo al primer artículo del Washington Post- cuando un porcentaje mayoritario de la gente se informa de política a través de las redes sí puede ser problemåtico.

ÂżAlgoritmos o sesgo humano?

CabrĂ­a hacerse entonces la siguiente pregunta: Âżes mĂĄs preocupante la ‘selecciĂłn’ que hace un algoritmo que la que hace la propia persona?

Porque sĂ­, las personas tambiĂ©n cribamos, y de forma mucho mĂĄs acusada que estas compañías que nos proporcionan el contenido. Valga como ejemplo otra de las teorĂ­as que se achacan a las redes sociales para tratar de demostrar que nos ofrecen una visiĂłn sesgada de la realidad: la llamada ‘ilusiĂłn de la mayorĂ­a

La teorĂ­a, de origen matemĂĄtico, viene a decir que en entornos como los de las redes sociales, se sobredimensionan las cosas que defienden o hacen aquellos usuarios con muchos seguidores. Lo que en teorĂ­a de comunicaciĂłn se conoce como ‘lĂ­deres de opiniones’ y en redes se ha llamado ‘incluencers’. Esta teorĂ­a explicarĂ­a, por ejemplo, las distorsiones de percepciĂłn en procesos electorales del estilo ‘ÂżcĂłmo es posible que no hayan ganado estos, si todo el mundo en mi ‘timeline’ iba a votarles?’

Ante esa pregunta, ademĂĄs, caben varios matices. Por ejemplo, otra teorĂ­a de la comunicaciĂłn, la de la espiral del silencio de Elisabeth Noelle-Neumann, que indagaba en cĂłmo la gente con opiniones minoritarias tendĂ­a a no expresar su forma de pensar por miedo a las represiones sociales, o incluso a simular su apoyo a esas opiniones mayoritarias. Eso, obviamente, tambiĂ©n distorsiona -y de forma muy complicada de medir- la realidad en comparaciĂłn con lo que se dice pĂșblicamente en foros como redes sociales.

Intolerancia a la discrepancia

Pero antes incluso que eso hay otro ‘pero’ importante:  no son las redes sociales las que nos meten en una burbuja en la que todo nuestro entorno parece opinar como nosotros, ni tampoco son una fuente mĂĄs distorsionada de la realidad por culpa de los algoritmos. En realidad, todo en nuestro entorno lo hemos construido con el propĂłsito de eliminar la exposiciĂłn a las discrepancias.

Lo planteĂł hace dĂ©cadas Paul Watzlawick, autor de un libro llamado ‘How real is real?’ en el que planteaba precisamente que los medios de comunicaciĂłn no transmitĂ­an una imagen fidedigna de lo que sucedĂ­a, sino una imagen mediada (de hecho, es un juego de palabras peculiar eso de los ‘medios’ de comunicaciĂłn y la ‘mediaciĂłn’ informativa). SegĂșn exponĂ­a, los sucesos se cribaban, seleccionaban y componĂ­an teniendo en cuenta criterios ideolĂłgicos, econĂłmicos, de proximidad y un sinfĂ­n de condicionantes mĂĄs.

Y eso sin tener en cuenta nuestras propias limitaciones perceptivas: tendemos a construirnos imågenes de la realidad que no se corresponden con lo que nos rodea. Pensamos, por ejemplo, que hay mås inmigrantes de los que hay, que el dinero se reparte mejor o que juzgamos los eventos mejor de lo que lo hacemos.

En realidad, la construcciĂłn tecnolĂłgica actual no es mĂĄs que un reflejo de esa intolerancia a la discrepancia: nos rodeamos de gente que tiende a pensar como nosotros, buscamos pareja en nuestras comunidades cercanas y educamos a nuestros descendientes a nuestra imagen y semejanza. Nuestra sociedad estĂĄ llena de esos ‘nodos de socializaciĂłn’ que perpetĂșan esa homogeneizaciĂłn: colegio, trabajo, ciudad, cultura, posiciĂłn econĂłmica, ideologĂ­a…

Si lo piensas, compramos las marcas que conocemos -y no las otras-, nos preocupamos por las noticias que salen en los medios -las demås no existen- y creemos que nuestra media naranja es alguien que, en realidad, es un calco sociológico de nuestro entorno y gustos.

La tecnologĂ­a repite ese esquema. Creemos que internet es todo lo que nos enseña Google -cuando la mayor parte de la Red permanece oculta al comĂșn de los usuarios-. Creemos que el buscador responde a nuestras preguntas, cuando en realidad ‘premia’ nuestras bĂșsquedas recurrentes porque ante un resultado que la gente ‘premia’ pinchando el algoritmo entiende que el proceso ha sido satisfactorio y lo promociona.

Leemos los medios que coinciden con nuestra ideologĂ­a, vemos los programas que no vulneran nuestros principios vitales, consumimos los productos que nos recomiendan y escuchamos la mĂșsica que nos ponen en todas las emisoras y locales. La repeticiĂłn es la forma en la que nos relacionamos con la realidad, y es esa repeticiĂłn la que nos aleja de la realidad: las redes sociales y los algoritmos sĂłlo lo hacen de la misma forma que nosotros les enseñamos a hacer.

El diario The Washington Post publicaba hace unas semanas un artĂ­culo advirtiendo del potencial peligro para la democracia que podĂ­a representar Facebook.

La tesis de la autora descansaba sobre un estudio del Pew Research que concluĂ­a que la gran mayorĂ­a de los jĂłvenes (‘millenials’) habĂ­an pasado de forma mayoritaria a informarse de asuntos polĂ­ticos a travĂ©s de la red social, al contrario que generaciones anteriores (‘baby boomers’), que lo hacĂ­an a travĂ©s de la televisiĂłn.

Eso en sĂ­ no serĂ­a malo, siguiendo con la visiĂłn de la autora, sino fuera porque Facebook no informa de todo: segĂșn un experimento que hicieron en su mismo diario, el feed de Facebook ocultaba hasta el 72% de las nuevas publicaciones de las fuentes seguidas por un usuario determinado.

CoincidĂ­a en el tiempo con la publicaciĂłn del artĂ­culo el anuncio de que quizĂĄ Twitter estarĂ­a preparando un algoritmo similar al de Facebook que, en lugar de enseñar todas las publicaciones de forma cronolĂłgica y en tiempo real, cribarĂ­a y enseñarĂ­a sĂłlo lo que considerara ‘interesante’ para nosotros.

Al final la cosa ha quedado sĂłlo en una pestaña que activa una visualizaciĂłn de los contenidos mĂĄs interesantes (acorde al algoritmo de turno) que se publicaron mientras no estĂĄbamos conectados, una especie de ‘cosas que te perdiste mientras estabas fuera‘.

TambiĂ©n hace unas pocas semanas Instagram -propiedad de Facebook- anunciĂł que iba a introducir un algoritmo para ‘seleccionar’ las publicaciones que nos enseña, en lugar de mostrar todo tal y como hace hasta la fecha. La reacciĂłn airada de la gente hizo que detuvieran -de momento- su implantaciĂłn, pero acabarĂĄ llegando.

La explicaciĂłn de por quĂ© las redes sociales ‘filtran’ el contenido es sencilla: tendemos a relacionarnos con tanta gente y somos tan activos en redes que la gran mayorĂ­a del contenido es ruido. Y nada interesa menos a una de estas potentes empresas que perder la atenciĂłn de sus usuarios.

La preocupación, claro, viene por saber cómo se criba el contenido, cómo se decide qué es interesante y qué no. Y cuando hablamos de las fotos de nuestra expareja puede que no sea algo determinante, pero -volviendo al primer artículo del Washington Post- cuando un porcentaje mayoritario de la gente se informa de política a través de las redes sí puede ser problemåtico.

ÂżAlgoritmos o sesgo humano?

CabrĂ­a hacerse entonces la siguiente pregunta: Âżes mĂĄs preocupante la ‘selecciĂłn’ que hace un algoritmo que la que hace la propia persona?

Porque sĂ­, las personas tambiĂ©n cribamos, y de forma mucho mĂĄs acusada que estas compañías que nos proporcionan el contenido. Valga como ejemplo otra de las teorĂ­as que se achacan a las redes sociales para tratar de demostrar que nos ofrecen una visiĂłn sesgada de la realidad: la llamada ‘ilusiĂłn de la mayorĂ­a

La teorĂ­a, de origen matemĂĄtico, viene a decir que en entornos como los de las redes sociales, se sobredimensionan las cosas que defienden o hacen aquellos usuarios con muchos seguidores. Lo que en teorĂ­a de comunicaciĂłn se conoce como ‘lĂ­deres de opiniones’ y en redes se ha llamado ‘incluencers’. Esta teorĂ­a explicarĂ­a, por ejemplo, las distorsiones de percepciĂłn en procesos electorales del estilo ‘ÂżcĂłmo es posible que no hayan ganado estos, si todo el mundo en mi ‘timeline’ iba a votarles?’

Ante esa pregunta, ademĂĄs, caben varios matices. Por ejemplo, otra teorĂ­a de la comunicaciĂłn, la de la espiral del silencio de Elisabeth Noelle-Neumann, que indagaba en cĂłmo la gente con opiniones minoritarias tendĂ­a a no expresar su forma de pensar por miedo a las represiones sociales, o incluso a simular su apoyo a esas opiniones mayoritarias. Eso, obviamente, tambiĂ©n distorsiona -y de forma muy complicada de medir- la realidad en comparaciĂłn con lo que se dice pĂșblicamente en foros como redes sociales.

Intolerancia a la discrepancia

Pero antes incluso que eso hay otro ‘pero’ importante:  no son las redes sociales las que nos meten en una burbuja en la que todo nuestro entorno parece opinar como nosotros, ni tampoco son una fuente mĂĄs distorsionada de la realidad por culpa de los algoritmos. En realidad, todo en nuestro entorno lo hemos construido con el propĂłsito de eliminar la exposiciĂłn a las discrepancias.

Lo planteĂł hace dĂ©cadas Paul Watzlawick, autor de un libro llamado ‘How real is real?’ en el que planteaba precisamente que los medios de comunicaciĂłn no transmitĂ­an una imagen fidedigna de lo que sucedĂ­a, sino una imagen mediada (de hecho, es un juego de palabras peculiar eso de los ‘medios’ de comunicaciĂłn y la ‘mediaciĂłn’ informativa). SegĂșn exponĂ­a, los sucesos se cribaban, seleccionaban y componĂ­an teniendo en cuenta criterios ideolĂłgicos, econĂłmicos, de proximidad y un sinfĂ­n de condicionantes mĂĄs.

Y eso sin tener en cuenta nuestras propias limitaciones perceptivas: tendemos a construirnos imågenes de la realidad que no se corresponden con lo que nos rodea. Pensamos, por ejemplo, que hay mås inmigrantes de los que hay, que el dinero se reparte mejor o que juzgamos los eventos mejor de lo que lo hacemos.

En realidad, la construcciĂłn tecnolĂłgica actual no es mĂĄs que un reflejo de esa intolerancia a la discrepancia: nos rodeamos de gente que tiende a pensar como nosotros, buscamos pareja en nuestras comunidades cercanas y educamos a nuestros descendientes a nuestra imagen y semejanza. Nuestra sociedad estĂĄ llena de esos ‘nodos de socializaciĂłn’ que perpetĂșan esa homogeneizaciĂłn: colegio, trabajo, ciudad, cultura, posiciĂłn econĂłmica, ideologĂ­a…

Si lo piensas, compramos las marcas que conocemos -y no las otras-, nos preocupamos por las noticias que salen en los medios -las demås no existen- y creemos que nuestra media naranja es alguien que, en realidad, es un calco sociológico de nuestro entorno y gustos.

La tecnologĂ­a repite ese esquema. Creemos que internet es todo lo que nos enseña Google -cuando la mayor parte de la Red permanece oculta al comĂșn de los usuarios-. Creemos que el buscador responde a nuestras preguntas, cuando en realidad ‘premia’ nuestras bĂșsquedas recurrentes porque ante un resultado que la gente ‘premia’ pinchando el algoritmo entiende que el proceso ha sido satisfactorio y lo promociona.

Leemos los medios que coinciden con nuestra ideologĂ­a, vemos los programas que no vulneran nuestros principios vitales, consumimos los productos que nos recomiendan y escuchamos la mĂșsica que nos ponen en todas las emisoras y locales. La repeticiĂłn es la forma en la que nos relacionamos con la realidad, y es esa repeticiĂłn la que nos aleja de la realidad: las redes sociales y los algoritmos sĂłlo lo hacen de la misma forma que nosotros les enseñamos a hacer.

CompĂĄrtelo twitter facebook whatsapp
Las revolucionarias y pedagógicas vidas de María Goyri y su hija, Jimena Menéndez Pidal
LibrerĂ­as clandestinas de Buenos Aires: comprar libros a puerta cerrada
CĂłmo reformular la cultura empresarial
Roger Martin: “Es más sano satisfacer las expectativas de los consumidores que las de los accionistas”
 
Especiales
 
facebook twitter whatsapp

Comentarios cerrados.