Las redes sociales no son un peligro para la democracia: el problema eres tĂș
ÂĄYorokobu gratis en formato digital!
El diario The Washington Post publicaba hace unas semanas un artĂculo advirtiendo del potencial peligro para la democracia que podĂa representar Facebook.
La tesis de la autora descansaba sobre un estudio del Pew Research que concluĂa que la gran mayorĂa de los jĂłvenes (‘millenials’) habĂan pasado de forma mayoritaria a informarse de asuntos polĂticos a travĂ©s de la red social, al contrario que generaciones anteriores (‘baby boomers’), que lo hacĂan a travĂ©s de la televisiĂłn.
Eso en sĂ no serĂa malo, siguiendo con la visiĂłn de la autora, sino fuera porque Facebook no informa de todo: segĂșn un experimento que hicieron en su mismo diario, el feed de Facebook ocultaba hasta el 72% de las nuevas publicaciones de las fuentes seguidas por un usuario determinado.
CoincidĂa en el tiempo con la publicaciĂłn del artĂculo el anuncio de que quizĂĄ Twitter estarĂa preparando un algoritmo similar al de Facebook que, en lugar de enseñar todas las publicaciones de forma cronolĂłgica y en tiempo real, cribarĂa y enseñarĂa sĂłlo lo que considerara ‘interesante’ para nosotros.
Al final la cosa ha quedado sĂłlo en una pestaña que activa una visualizaciĂłn de los contenidos mĂĄs interesantes (acorde al algoritmo de turno) que se publicaron mientras no estĂĄbamos conectados, una especie de ‘cosas que te perdiste mientras estabas fuera‘.
TambiĂ©n hace unas pocas semanas Instagram -propiedad de Facebook- anunciĂł que iba a introducir un algoritmo para ‘seleccionar’ las publicaciones que nos enseña, en lugar de mostrar todo tal y como hace hasta la fecha. La reacciĂłn airada de la gente hizo que detuvieran -de momento- su implantaciĂłn, pero acabarĂĄ llegando.
La explicaciĂłn de por quĂ© las redes sociales ‘filtran’ el contenido es sencilla: tendemos a relacionarnos con tanta gente y somos tan activos en redes que la gran mayorĂa del contenido es ruido. Y nada interesa menos a una de estas potentes empresas que perder la atenciĂłn de sus usuarios.
La preocupaciĂłn, claro, viene por saber cĂłmo se criba el contenido, cĂłmo se decide quĂ© es interesante y quĂ© no. Y cuando hablamos de las fotos de nuestra expareja puede que no sea algo determinante, pero -volviendo al primer artĂculo del Washington Post- cuando un porcentaje mayoritario de la gente se informa de polĂtica a travĂ©s de las redes sĂ puede ser problemĂĄtico.
ÂżAlgoritmos o sesgo humano?
CabrĂa hacerse entonces la siguiente pregunta: Âżes mĂĄs preocupante la ‘selecciĂłn’ que hace un algoritmo que la que hace la propia persona?
Porque sĂ, las personas tambiĂ©n cribamos, y de forma mucho mĂĄs acusada que estas compañĂas que nos proporcionan el contenido. Valga como ejemplo otra de las teorĂas que se achacan a las redes sociales para tratar de demostrar que nos ofrecen una visiĂłn sesgada de la realidad: la llamada ‘ilusiĂłn de la mayorĂa‘
La teorĂa, de origen matemĂĄtico, viene a decir que en entornos como los de las redes sociales, se sobredimensionan las cosas que defienden o hacen aquellos usuarios con muchos seguidores. Lo que en teorĂa de comunicaciĂłn se conoce como ‘lĂderes de opiniones’ y en redes se ha llamado ‘incluencers’. Esta teorĂa explicarĂa, por ejemplo, las distorsiones de percepciĂłn en procesos electorales del estilo ‘ÂżcĂłmo es posible que no hayan ganado estos, si todo el mundo en mi ‘timeline’ iba a votarles?’
Ante esa pregunta, ademĂĄs, caben varios matices. Por ejemplo, otra teorĂa de la comunicaciĂłn, la de la espiral del silencio de Elisabeth Noelle-Neumann, que indagaba en cĂłmo la gente con opiniones minoritarias tendĂa a no expresar su forma de pensar por miedo a las represiones sociales, o incluso a simular su apoyo a esas opiniones mayoritarias. Eso, obviamente, tambiĂ©n distorsiona -y de forma muy complicada de medir- la realidad en comparaciĂłn con lo que se dice pĂșblicamente en foros como redes sociales.
Intolerancia a la discrepancia
Pero antes incluso que eso hay otro ‘pero’ importante: Â no son las redes sociales las que nos meten en una burbuja en la que todo nuestro entorno parece opinar como nosotros, ni tampoco son una fuente mĂĄs distorsionada de la realidad por culpa de los algoritmos. En realidad, todo en nuestro entorno lo hemos construido con el propĂłsito de eliminar la exposiciĂłn a las discrepancias.
Lo planteĂł hace dĂ©cadas Paul Watzlawick, autor de un libro llamado ‘How real is real?’ en el que planteaba precisamente que los medios de comunicaciĂłn no transmitĂan una imagen fidedigna de lo que sucedĂa, sino una imagen mediada (de hecho, es un juego de palabras peculiar eso de los ‘medios’ de comunicaciĂłn y la ‘mediaciĂłn’ informativa). SegĂșn exponĂa, los sucesos se cribaban, seleccionaban y componĂan teniendo en cuenta criterios ideolĂłgicos, econĂłmicos, de proximidad y un sinfĂn de condicionantes mĂĄs.
Y eso sin tener en cuenta nuestras propias limitaciones perceptivas: tendemos a construirnos imågenes de la realidad que no se corresponden con lo que nos rodea. Pensamos, por ejemplo, que hay mås inmigrantes de los que hay, que el dinero se reparte mejor o que juzgamos los eventos mejor de lo que lo hacemos.
En realidad, la construcciĂłn tecnolĂłgica actual no es mĂĄs que un reflejo de esa intolerancia a la discrepancia: nos rodeamos de gente que tiende a pensar como nosotros, buscamos pareja en nuestras comunidades cercanas y educamos a nuestros descendientes a nuestra imagen y semejanza. Nuestra sociedad estĂĄ llena de esos ‘nodos de socializaciĂłn’ que perpetĂșan esa homogeneizaciĂłn: colegio, trabajo, ciudad, cultura, posiciĂłn econĂłmica, ideologĂa…
Si lo piensas, compramos las marcas que conocemos -y no las otras-, nos preocupamos por las noticias que salen en los medios -las demås no existen- y creemos que nuestra media naranja es alguien que, en realidad, es un calco sociológico de nuestro entorno y gustos.
La tecnologĂa repite ese esquema. Creemos que internet es todo lo que nos enseña Google -cuando la mayor parte de la Red permanece oculta al comĂșn de los usuarios-. Creemos que el buscador responde a nuestras preguntas, cuando en realidad ‘premia’ nuestras bĂșsquedas recurrentes porque ante un resultado que la gente ‘premia’ pinchando el algoritmo entiende que el proceso ha sido satisfactorio y lo promociona.
Leemos los medios que coinciden con nuestra ideologĂa, vemos los programas que no vulneran nuestros principios vitales, consumimos los productos que nos recomiendan y escuchamos la mĂșsica que nos ponen en todas las emisoras y locales. La repeticiĂłn es la forma en la que nos relacionamos con la realidad, y es esa repeticiĂłn la que nos aleja de la realidad: las redes sociales y los algoritmos sĂłlo lo hacen de la misma forma que nosotros les enseñamos a hacer.
ÂĄYorokobu gratis en formato digital!
El diario The Washington Post publicaba hace unas semanas un artĂculo advirtiendo del potencial peligro para la democracia que podĂa representar Facebook.
La tesis de la autora descansaba sobre un estudio del Pew Research que concluĂa que la gran mayorĂa de los jĂłvenes (‘millenials’) habĂan pasado de forma mayoritaria a informarse de asuntos polĂticos a travĂ©s de la red social, al contrario que generaciones anteriores (‘baby boomers’), que lo hacĂan a travĂ©s de la televisiĂłn.
Eso en sĂ no serĂa malo, siguiendo con la visiĂłn de la autora, sino fuera porque Facebook no informa de todo: segĂșn un experimento que hicieron en su mismo diario, el feed de Facebook ocultaba hasta el 72% de las nuevas publicaciones de las fuentes seguidas por un usuario determinado.
CoincidĂa en el tiempo con la publicaciĂłn del artĂculo el anuncio de que quizĂĄ Twitter estarĂa preparando un algoritmo similar al de Facebook que, en lugar de enseñar todas las publicaciones de forma cronolĂłgica y en tiempo real, cribarĂa y enseñarĂa sĂłlo lo que considerara ‘interesante’ para nosotros.
Al final la cosa ha quedado sĂłlo en una pestaña que activa una visualizaciĂłn de los contenidos mĂĄs interesantes (acorde al algoritmo de turno) que se publicaron mientras no estĂĄbamos conectados, una especie de ‘cosas que te perdiste mientras estabas fuera‘.
TambiĂ©n hace unas pocas semanas Instagram -propiedad de Facebook- anunciĂł que iba a introducir un algoritmo para ‘seleccionar’ las publicaciones que nos enseña, en lugar de mostrar todo tal y como hace hasta la fecha. La reacciĂłn airada de la gente hizo que detuvieran -de momento- su implantaciĂłn, pero acabarĂĄ llegando.
La explicaciĂłn de por quĂ© las redes sociales ‘filtran’ el contenido es sencilla: tendemos a relacionarnos con tanta gente y somos tan activos en redes que la gran mayorĂa del contenido es ruido. Y nada interesa menos a una de estas potentes empresas que perder la atenciĂłn de sus usuarios.
La preocupaciĂłn, claro, viene por saber cĂłmo se criba el contenido, cĂłmo se decide quĂ© es interesante y quĂ© no. Y cuando hablamos de las fotos de nuestra expareja puede que no sea algo determinante, pero -volviendo al primer artĂculo del Washington Post- cuando un porcentaje mayoritario de la gente se informa de polĂtica a travĂ©s de las redes sĂ puede ser problemĂĄtico.
ÂżAlgoritmos o sesgo humano?
CabrĂa hacerse entonces la siguiente pregunta: Âżes mĂĄs preocupante la ‘selecciĂłn’ que hace un algoritmo que la que hace la propia persona?
Porque sĂ, las personas tambiĂ©n cribamos, y de forma mucho mĂĄs acusada que estas compañĂas que nos proporcionan el contenido. Valga como ejemplo otra de las teorĂas que se achacan a las redes sociales para tratar de demostrar que nos ofrecen una visiĂłn sesgada de la realidad: la llamada ‘ilusiĂłn de la mayorĂa‘
La teorĂa, de origen matemĂĄtico, viene a decir que en entornos como los de las redes sociales, se sobredimensionan las cosas que defienden o hacen aquellos usuarios con muchos seguidores. Lo que en teorĂa de comunicaciĂłn se conoce como ‘lĂderes de opiniones’ y en redes se ha llamado ‘incluencers’. Esta teorĂa explicarĂa, por ejemplo, las distorsiones de percepciĂłn en procesos electorales del estilo ‘ÂżcĂłmo es posible que no hayan ganado estos, si todo el mundo en mi ‘timeline’ iba a votarles?’
Ante esa pregunta, ademĂĄs, caben varios matices. Por ejemplo, otra teorĂa de la comunicaciĂłn, la de la espiral del silencio de Elisabeth Noelle-Neumann, que indagaba en cĂłmo la gente con opiniones minoritarias tendĂa a no expresar su forma de pensar por miedo a las represiones sociales, o incluso a simular su apoyo a esas opiniones mayoritarias. Eso, obviamente, tambiĂ©n distorsiona -y de forma muy complicada de medir- la realidad en comparaciĂłn con lo que se dice pĂșblicamente en foros como redes sociales.
Intolerancia a la discrepancia
Pero antes incluso que eso hay otro ‘pero’ importante: Â no son las redes sociales las que nos meten en una burbuja en la que todo nuestro entorno parece opinar como nosotros, ni tampoco son una fuente mĂĄs distorsionada de la realidad por culpa de los algoritmos. En realidad, todo en nuestro entorno lo hemos construido con el propĂłsito de eliminar la exposiciĂłn a las discrepancias.
Lo planteĂł hace dĂ©cadas Paul Watzlawick, autor de un libro llamado ‘How real is real?’ en el que planteaba precisamente que los medios de comunicaciĂłn no transmitĂan una imagen fidedigna de lo que sucedĂa, sino una imagen mediada (de hecho, es un juego de palabras peculiar eso de los ‘medios’ de comunicaciĂłn y la ‘mediaciĂłn’ informativa). SegĂșn exponĂa, los sucesos se cribaban, seleccionaban y componĂan teniendo en cuenta criterios ideolĂłgicos, econĂłmicos, de proximidad y un sinfĂn de condicionantes mĂĄs.
Y eso sin tener en cuenta nuestras propias limitaciones perceptivas: tendemos a construirnos imågenes de la realidad que no se corresponden con lo que nos rodea. Pensamos, por ejemplo, que hay mås inmigrantes de los que hay, que el dinero se reparte mejor o que juzgamos los eventos mejor de lo que lo hacemos.
En realidad, la construcciĂłn tecnolĂłgica actual no es mĂĄs que un reflejo de esa intolerancia a la discrepancia: nos rodeamos de gente que tiende a pensar como nosotros, buscamos pareja en nuestras comunidades cercanas y educamos a nuestros descendientes a nuestra imagen y semejanza. Nuestra sociedad estĂĄ llena de esos ‘nodos de socializaciĂłn’ que perpetĂșan esa homogeneizaciĂłn: colegio, trabajo, ciudad, cultura, posiciĂłn econĂłmica, ideologĂa…
Si lo piensas, compramos las marcas que conocemos -y no las otras-, nos preocupamos por las noticias que salen en los medios -las demås no existen- y creemos que nuestra media naranja es alguien que, en realidad, es un calco sociológico de nuestro entorno y gustos.
La tecnologĂa repite ese esquema. Creemos que internet es todo lo que nos enseña Google -cuando la mayor parte de la Red permanece oculta al comĂșn de los usuarios-. Creemos que el buscador responde a nuestras preguntas, cuando en realidad ‘premia’ nuestras bĂșsquedas recurrentes porque ante un resultado que la gente ‘premia’ pinchando el algoritmo entiende que el proceso ha sido satisfactorio y lo promociona.
Leemos los medios que coinciden con nuestra ideologĂa, vemos los programas que no vulneran nuestros principios vitales, consumimos los productos que nos recomiendan y escuchamos la mĂșsica que nos ponen en todas las emisoras y locales. La repeticiĂłn es la forma en la que nos relacionamos con la realidad, y es esa repeticiĂłn la que nos aleja de la realidad: las redes sociales y los algoritmos sĂłlo lo hacen de la misma forma que nosotros les enseñamos a hacer.
Comentarios cerrados.