18 de mayo 2021    /   CREATIVIDAD
por
 

Feminismo de datos: por qué la inteligencia artificial es machista y cómo podemos cambiarla

18 de mayo 2021    /   CREATIVIDAD     por          
Compártelo twitter facebook whatsapp
thumb image

«El feminismo interseccional no trata solo de mujeres. Ni siquiera de género. Tiene que ver con el poder: con quién lo tiene y quién no. Y en un mundo en el que los datos son poder, el feminismo de datos puede ayudarnos a comprender cómo desafiar y cambiar el sistema». Catherine D’Ignazio y Lauren Klein arrancan con este alegato su ensayo Data Feminism, un libro que habla sobre los sesgos de la inteligencia artificial y la manera de revertirlos.

«No me malinterpretes, esta tecnología tiene un enorme potencial para hacer el bien», explica D’Ignazio. La directora del laboratorio Data + Feminism del MIT sabe que la inteligencia artificial puede cambiar el mundo. Y espera que lo haga para bien.

Los algoritmos no tienen prejuicios, son fórmulas matemáticas. Pero las bases de datos en las que se entrenan sí. La inteligencia artificial aprende lo que le enseñen, puede ser una estudiante brillante, pero tiene un libro con unos cuantos sesgos: internet. La inteligencia artificial de Microsoft se volvió filonazi en un día. No porque estuviera programada para ello, sino porque lo aprendió en Twitter. La app de Google que te dice a qué cuadro te pareces solo funcionaba bien con las personas blancas, no con las negras o asiáticas. No por cómo fue construída, sino porque fue entrenada con los cuadros de los museos más prestigiosos del mundo occidental, donde apenas hay retratos de gente de color.

Pasa con las técnicas de reconocimiento facial, con la tecnología que usa la policía de EEUU para patrullar por los barrios más conflictivos, con los algoritmos que se usan para conceder ayudas sociales… La inteligencia artificial es machista y racista porque las bases de datos en las que aprende lo son. Porque nosotros lo somos. Y Catherine D’Ignazio y Lauren Klein quieren poner el foco sobre este problema.

Lo que hace especial a este tratado es que no enumera los problemas generales de la inteligencia artificial, sino que se centra en los sesgos de género para analizar qué puede aportar el movimiento feminista al big data

«No somos las primeras», reconoce D’Ignazio. Y tiene razón. Está la organización Algorithm Justice League, de su colega del MIT, Joy Buolamwini, que lucha contra el reconocimiento facial. Está Cathy O’Neil, autora del libro Armas de destrucción matemática, que narra cómo los algoritmos pueden llevar a decisiones que perjudican a los pobres y amplifican la desigualdad. Está Jen Jack Gieseking, que analiza los sesgos del big data desde una perspectiva queer. El colectivo Data for Black Lives, que intenta desagregar las muertes de covid por raza para demostrar que el racismo y la desigualdad han influido en cómo ha golpeado la pandemia…

Todos ellos son citados en Data Feminism. Lo que hace especial a este tratado es que no enumera los problemas generales de la inteligencia artificial, sino que se centra en los sesgos de género para analizar qué puede aportar el movimiento feminista al big data. «Queríamos tratarlo desde una perspectiva interseccional del feminismo», reconoce D’Ignazio. «En la intersección del feminismo con la raza, con el género y la sexualidad o con el colonialismo. Pero a la vez, pensamos que estos son campos enteros de conocimiento. No queríamos reducirlo a un capítulo, pues estos problemas se merecen su propio libro». Ellas querían hacer un libro sobre feminismo y datos. Así que empezaron por el principio.

Christine Darden en el centro de investigación de Langley de la NASA en 1975

Virginia, EE UU, 1967. Christine Mann Darden empieza a trabajar en el Centro de Investigación Langley de la NASA. Es mujer, es negra y es muy, muy buena. La informática digital empieza a dar sus primeros pasos, pero para la mayoría de tareas de análisis de datos se usan computadoras humanas como Darden. Eran todas mujeres matemáticas, pero eran tratadas como secretarias. Y no ascendían como sus compañeros.

Darden se quejó varias veces a sus superiores, como recoge el libro Hidden Figures: The American Dream and the Untold Story of the Black Women Who Helped Win the Space Race. Ella era consciente de que su situación obedecía al machismo, pero era difícil de demostrar. Fue su compañera, Gloria Champine, quien cambió la situación. Hizo una serie de estadísticas internas sobre género y rango. Los datos mostraron que hombres y mujeres con credenciales académicas y laborales idénticas, tenían puestos muy diferentes. La disparidad se hizo evidente cuando se presentó en forma de datos. Y Darden recibió el ascenso que se merecía desde hacía años.

«Si eres una mujer sabes, de una forma íntima y personal, qué clase de opresiones y discriminaciones hay. Los sientes día a día. Pero los datos pueden ayudarte a confirmar que esa discriminación no es una vivencia personal, sino algo generalizado»

«Empezamos el libro contando esta historia por dos motivos», justifica D’Ignazio. «Por un lado, al pensar en ciencia computacional, pensamos que es algo muy masculino. Pero en el pasado hubo mujeres, especialmente mujeres negras, detrás de algunas de las innovaciones computacionales más increíbles en la historia».

La historia de Darden, además, explica muy bien cómo funciona el feminismo de datos. Cómo a través de la experiencia personal se pueden detectar problemas que, mediante los datos, podemos extrapolar a gran escala. «Si eres una mujer sabes, de una forma íntima y personal, qué clase de opresiones y discriminaciones hay. Los sientes día a día», señala la experta. «Pero los datos pueden ayudarte a confirmar que esa discriminación no es una vivencia personal. Que es un problema estructural. Tu problema es el problema de mucha más gente, y esos son los potenciales que tiene el feminismo de datos».

«N1 m1ch1sm1 n1 f1m1n1sm1». Los algoritmos son unos cuñados

El feminismo de datos puede ayudar, pero por el momento, lo que más impera es el machismo de los datos. Este se filtra de internet a las inteligencias artificiales y de estas a nuestro día a día. Google Translate traducía judge como juez, y nurse como enfermera, asignando un género basado en estereotipos a una palabra que en inglés es neutra. Este sesgo ha sido corregido en los idiomas mayoritarios, pero sigue dándose en otros más pequeños.

En 2014, Amazon puso en marcha un sistema basado en inteligencia artificial para contratar a su personal. Pero el algoritmo penalizaba a las mujeres que aspiraban a puestos tradicionalmente desarrollados por hombres, como, por ejemplo, los desarrolladores de software. La plataforma acabó abandonando el proyecto. LinkedIn también ha sido acusada de usar algoritmos machistas en procesos de selección. Basta echar un vistazo a la hemeroteca para encontrar ejemplos de machismo en todos los campos.

Apple saltó a los titulares cuando se descubrió que su tarjeta había otorgado un límite de crédito 20 veces mayor a un hombre que a su mujer. Los dos presentaron la declaración de impuestos conjunta y ella obtuvo una mejor solvencia crediticia que él. Una investigación descubrió que el machismo no provenía de Apple, o de Goldman Sach, emisor de la tarjeta, sino del algoritmo, que se basaba en datos históricos.

El big data no elimina los sesgos, solo los camufla con tecnología. Los algoritmos, en el fondo, pueden ser unos cuñados

El big data no elimina los sesgos, solo los camufla con tecnología. Los algoritmos, en el fondo, pueden ser unos cuñados. Pero su aspecto futurista nos impide verlos así. La idea de que presentan verdades irrefutables viene ya desde el principio con las propias bases de datos, explica D’Ignazio: «Lo normal es que, cuando ves una hoja de cálculo o un gráfico, asumas que se trata de hechos y no siempre es así. Esos datos son recolectados, tratados y categorizados de una forma específica y pueden incluir sesgos». El problema está en los datos, pero también en la forma en la que los vemos.

Data Feminism no se centra solo en enumerar estos problemas, sino en buscarles solución. Se pregunta cómo puede el big data ayudar al feminismo y qué puede aportarle este de vuelta. «Gran parte de la educación actual en la ciencia de datos es eminentemente masculina», subrayan las autoras en el texto. «Reproduce la idea de que trabajar con datos es algo abstracto, individual y dirigido por hombres poderosos. Pero ¿qué pasaría si imaginamos la enseñanza de datos como un lugar para comenzar a crear el mundo conectado, colectivo y solidario que queremos ver?», se preguntan. Su libro pretende dar un impulso en esa dirección, animar a más mujeres a trabajar con datos, a mejorarlos, filtrarlos y cultivarlos de tal forma que los sesgos que tenemos como sociedad no se transmitan de humanos a robots.

«El feminismo interseccional no trata solo de mujeres. Ni siquiera de género. Tiene que ver con el poder: con quién lo tiene y quién no. Y en un mundo en el que los datos son poder, el feminismo de datos puede ayudarnos a comprender cómo desafiar y cambiar el sistema». Catherine D’Ignazio y Lauren Klein arrancan con este alegato su ensayo Data Feminism, un libro que habla sobre los sesgos de la inteligencia artificial y la manera de revertirlos.

«No me malinterpretes, esta tecnología tiene un enorme potencial para hacer el bien», explica D’Ignazio. La directora del laboratorio Data + Feminism del MIT sabe que la inteligencia artificial puede cambiar el mundo. Y espera que lo haga para bien.

Los algoritmos no tienen prejuicios, son fórmulas matemáticas. Pero las bases de datos en las que se entrenan sí. La inteligencia artificial aprende lo que le enseñen, puede ser una estudiante brillante, pero tiene un libro con unos cuantos sesgos: internet. La inteligencia artificial de Microsoft se volvió filonazi en un día. No porque estuviera programada para ello, sino porque lo aprendió en Twitter. La app de Google que te dice a qué cuadro te pareces solo funcionaba bien con las personas blancas, no con las negras o asiáticas. No por cómo fue construída, sino porque fue entrenada con los cuadros de los museos más prestigiosos del mundo occidental, donde apenas hay retratos de gente de color.

Pasa con las técnicas de reconocimiento facial, con la tecnología que usa la policía de EEUU para patrullar por los barrios más conflictivos, con los algoritmos que se usan para conceder ayudas sociales… La inteligencia artificial es machista y racista porque las bases de datos en las que aprende lo son. Porque nosotros lo somos. Y Catherine D’Ignazio y Lauren Klein quieren poner el foco sobre este problema.

Lo que hace especial a este tratado es que no enumera los problemas generales de la inteligencia artificial, sino que se centra en los sesgos de género para analizar qué puede aportar el movimiento feminista al big data

«No somos las primeras», reconoce D’Ignazio. Y tiene razón. Está la organización Algorithm Justice League, de su colega del MIT, Joy Buolamwini, que lucha contra el reconocimiento facial. Está Cathy O’Neil, autora del libro Armas de destrucción matemática, que narra cómo los algoritmos pueden llevar a decisiones que perjudican a los pobres y amplifican la desigualdad. Está Jen Jack Gieseking, que analiza los sesgos del big data desde una perspectiva queer. El colectivo Data for Black Lives, que intenta desagregar las muertes de covid por raza para demostrar que el racismo y la desigualdad han influido en cómo ha golpeado la pandemia…

«No somos las primeras», reconoce D’Ignazio. Y tiene razón. Está la organización Algorithm Justice League, de su colega del MIT, Joy Buolamwini, que lucha contra el reconocimiento facial. Está Cathy O’Neil, autora del libro Armas de destrucción matemática, que narra cómo los algoritmos pueden llevar a decisiones que perjudican a los pobres y amplifican la desigualdad. Está Jen Jack Gieseking, que analiza los sesgos del big data desde una perspectiva queer. El colectivo Data for Black Lives, que intenta desagregar las muertes de covid por raza para demostrar que el racismo y la desigualdad han influido en cómo ha golpeado la pandemia…

Todos ellos son citados en Data Feminism. Lo que hace especial a este tratado es que no enumera los problemas generales de la inteligencia artificial, sino que se centra en los sesgos de género para analizar qué puede aportar el movimiento feminista al big data. «Queríamos tratarlo desde una perspectiva interseccional del feminismo», reconoce D’Ignazio. «En la intersección del feminismo con la raza, con el género y la sexualidad o con el colonialismo. Pero a la vez, pensamos que estos son campos enteros de conocimiento. No queríamos reducirlo a un capítulo, pues estos problemas se merecen su propio libro». Ellas querían hacer un libro sobre feminismo y datos. Así que empezaron por el principio.

Christine Darden en el centro de investigación de Langley de la NASA en 1975

Virginia, EE UU, 1967. Christine Mann Darden empieza a trabajar en el Centro de Investigación Langley de la NASA. Es mujer, es negra y es muy, muy buena. La informática digital empieza a dar sus primeros pasos, pero para la mayoría de tareas de análisis de datos se usan computadoras humanas como Darden. Eran todas mujeres matemáticas, pero eran tratadas como secretarias. Y no ascendían como sus compañeros.

Darden se quejó varias veces a sus superiores, como recoge el libro Hidden Figures: The American Dream and the Untold Story of the Black Women Who Helped Win the Space Race. Ella era consciente de que su situación obedecía al machismo, pero era difícil de demostrar. Fue su compañera, Gloria Champine, quien cambió la situación. Hizo una serie de estadísticas internas sobre género y rango. Los datos mostraron que hombres y mujeres con credenciales académicas y laborales idénticas, tenían puestos muy diferentes. La disparidad se hizo evidente cuando se presentó en forma de datos. Y Darden recibió el ascenso que se merecía desde hacía años.

«Si eres una mujer sabes, de una forma íntima y personal, qué clase de opresiones y discriminaciones hay. Los sientes día a día. Pero los datos pueden ayudarte a confirmar que esa discriminación no es una vivencia personal, sino algo generalizado»

«Empezamos el libro contando esta historia por dos motivos», justifica D’Ignazio. «Por un lado, al pensar en ciencia computacional, pensamos que es algo muy masculino. Pero en el pasado hubo mujeres, especialmente mujeres negras, detrás de algunas de las innovaciones computacionales más increíbles en la historia».

La historia de Darden, además, explica muy bien cómo funciona el feminismo de datos. Cómo a través de la experiencia personal se pueden detectar problemas que, mediante los datos, podemos extrapolar a gran escala. «Si eres una mujer sabes, de una forma íntima y personal, qué clase de opresiones y discriminaciones hay. Los sientes día a día», señala la experta. «Pero los datos pueden ayudarte a confirmar que esa discriminación no es una vivencia personal. Que es un problema estructural. Tu problema es el problema de mucha más gente, y esos son los potenciales que tiene el feminismo de datos».

«N1 m1ch1sm1 n1 f1m1n1sm1». Los algoritmos son unos cuñados

El feminismo de datos puede ayudar, pero por el momento, lo que más impera es el machismo de los datos. Este se filtra de internet a las inteligencias artificiales y de estas a nuestro día a día. Google Translate traducía judge como juez, y nurse como enfermera, asignando un género basado en estereotipos a una palabra que en inglés es neutra. Este sesgo ha sido corregido en los idiomas mayoritarios, pero sigue dándose en otros más pequeños.

En 2014, Amazon puso en marcha un sistema basado en inteligencia artificial para contratar a su personal. Pero el algoritmo penalizaba a las mujeres que aspiraban a puestos tradicionalmente desarrollados por hombres, como, por ejemplo, los desarrolladores de software. La plataforma acabó abandonando el proyecto. LinkedIn también ha sido acusada de usar algoritmos machistas en procesos de selección. Basta echar un vistazo a la hemeroteca para encontrar ejemplos de machismo en todos los campos.

Apple saltó a los titulares cuando se descubrió que su tarjeta había otorgado un límite de crédito 20 veces mayor a un hombre que a su mujer. Los dos presentaron la declaración de impuestos conjunta y ella obtuvo una mejor solvencia crediticia que él. Una investigación descubrió que el machismo no provenía de Apple, o de Goldman Sach, emisor de la tarjeta, sino del algoritmo, que se basaba en datos históricos.

El big data no elimina los sesgos, solo los camufla con tecnología. Los algoritmos, en el fondo, pueden ser unos cuñados

El big data no elimina los sesgos, solo los camufla con tecnología. Los algoritmos, en el fondo, pueden ser unos cuñados. Pero su aspecto futurista nos impide verlos así. La idea de que presentan verdades irrefutables viene ya desde el principio con las propias bases de datos, explica D’Ignazio: «Lo normal es que, cuando ves una hoja de cálculo o un gráfico, asumas que se trata de hechos y no siempre es así. Esos datos son recolectados, tratados y categorizados de una forma específica y pueden incluir sesgos». El problema está en los datos, pero también en la forma en la que los vemos.

Data Feminism no se centra solo en enumerar estos problemas, sino en buscarles solución. Se pregunta cómo puede el big data ayudar al feminismo y qué puede aportarle este de vuelta. «Gran parte de la educación actual en la ciencia de datos es eminentemente masculina», subrayan las autoras en el texto. «Reproduce la idea de que trabajar con datos es algo abstracto, individual y dirigido por hombres poderosos. Pero ¿qué pasaría si imaginamos la enseñanza de datos como un lugar para comenzar a crear el mundo conectado, colectivo y solidario que queremos ver?», se preguntan. Su libro pretende dar un impulso en esa dirección, animar a más mujeres a trabajar con datos, a mejorarlos, filtrarlos y cultivarlos de tal forma que los sesgos que tenemos como sociedad no se transmitan de humanos a robots.

Compártelo twitter facebook whatsapp
Los sobres dibujados de Mark Powell
Cómo sacar un restaurante de una farmacia
El Poder Amarillo toma las paredes de Madrid
Los 6 posts más vistos de la semana
 
Especiales
 
facebook twitter whatsapp
Opiniones 3
  • Comentarios cerrados.

    Publicidad