Marta Beltán: "El acoso a través de los 'deep face' es una nueva forma de ejercer violencia sobre las mujeres"
Hablamos con la doctora en Informática y Modelización Matemática Marta Beltrán, quien acaba de publicar 'Mr. Internet'
Un libro en el que demuestra a través de ejemplos la discriminación y la violencia que sufren las mujeres cuando usan la tecnología
No es casualidad que los deep fakes, las apps de geolocalización o los algoritmos acaben afectando más a esa parte de la población que a los hombres
Que la tecnología es neutra es una frase que escuchamos muy a menudo. Sin embargo, no podemos olvidar que está diseñada y construida por personas, por lo que es imposible que sea objetiva. De ello da cuenta la doctora en Informática y Modelización Matemática Marta Beltrán, quien ha publicado el libro 'Mr. Internet'. Un ensayo en el que demuestra cómo las mujeres sufren discriminación y violencia cuando usan la tecnología. Todo explicado a través de ejemplos, como por qué los 'deep fakes' se utilizan sobre todo contra las mujeres (como le ocurrió a María Pombo), por qué suelen sentirse menos competentes online o por qué en Wikipedia hay muchas más biografías de hombres. Una realidad en la que ella se ha centrado, pero que va más allá. "En mi libro hablo de mujeres, pero nos podemos encontrar con otros colectivos que salen igual de damnificados ya sea por edad, por raza, por diversidad funcional, etc", cuenta a Divinity.
MÁS
Aunque lo oigamos muy a menudo, ¿es la tecnología neutra?
No, no lo es. Aunque haya más motivos, principalmente por dos: porque la diseñamos y construimos personas y porque tiene un papel muy importante en la sociedad. Tiene un gran poder transformador, lo que implica poder. Por ello, por más que la veamos como algo objetivo o relacionada con la ciencia, nunca ha sido neutra.
En el libro dices que al final a quien acaba perjudicando esto es entre otras personas, a las mujeres
Yo me he centrado en las mujeres, pero lo que se desprende del libro y de otros análisis similares es que el suponer que el usuario siempre es el mismo tipo de persona, es decir, hombre, sano, blanco y heterosexual, hace que quien no se ajuste a ese arquetipo se vea perjudicado. Pero otras muchas personas y colectivos pueden salir damnificadas por su edad, por su raza, por su diversidad funcional, etc.
También dices que esto ocurre muchas veces sin intención, que no son buscadas
La tecnología la construyen, despliegan, diseñan y mantienen personas. Y a todas ellas no hay que presuponerlas mala intención. Simplemente trasladan su manera de ver el mundo y de pensar a ella. Diseñan la tecnología pensando en una manera concreta de ver las cosas.
El problema es que ese diseño muchas veces acaba replicando las mismas realidades que existen fuera de él
Lo mismo que nos encontramos en el mundo analógico, nos lo vamos a encontrar en el digital. Ya sean brechas, sesgos o violencias. Pero además, en el mundo virtual se pueden dar nuevas formas que no existían, que se crean por la tecnología, o incluso que amplifican los problemas del mundo físico. El libro está lleno de ejemplos de todo esto.
Uno de los que muestras es cómo la Wikipedia hay muchas más entradas de hombres.
El tema de Wikipedia es un tema de contenido. En esta web hay muchos menos perfiles de mujeres en relación con lo profesional, y sobre todo en ciertos campos. E incluso, cuando hay perfiles de mujeres en campos muy masculinizados, se suele usar un lenguaje diferente o se suele incidir en aspectos diferentes de su vida y sus méritos. También se da la situación de que las mujeres crean menos contenido, aunque lo consumen más.
También dices que muchas veces sufren discriminación algorítmica, algo que les afecta en procesos de selección de trabajos.
Este tema es muy complejo porque hay muchas fuentes posibles para esa discriminación. Cuando entrenas un algoritmo, lo haces con un conjunto de datos. Si obtienes esos datos del mundo real, puede ser que esté muy desequilibrado. Pongo un ejemplo: si en una plantilla hay una mayoría de hombres directivos, el modelo va a aprender ese desequilibrio. Pero no son solo los datos, ya que los parámetros con los se optimiza el rendimiento del algoritmo también introducen sesgos. Y muchas cosas más. La tecnología es compleja, por lo que hay que validarla y revisarla cada cierto tiempo. Y si no tenemos cuidado, podemos incluir discriminación.
Igual que ocurre con esto, sucede con la representación en juegos o en la realidad virtual. ¿Por qué las mujeres están infrarrepresentadas en estos ámbitos?
Esto es algo lleva sucediendo desde siempre en el cine o en la literatura y que ahora vemos que también ocurre en los juegos o en la realidad virtual. Aquí, los papeles que les dan a las mujeres son los menos importantes, los menos interesantes, los más sexualizados… etc. Ha habido cierta justificación por parte del sector porque parecía que las mujeres consumían menos videojuegos, por lo que podrían estar enfocados más a los hombres. Pero se han hecho multitud de estudios y se ha visto que la mitad de las jugadoras son mujeres. Es una prueba de que se las ha dejado fuera sistemáticamente. Y eso sin entrar a valorar otros aspectos como la situación de las mujeres en el sector, por qué juegan con pseudónimos o por qué no activan la voz en juegos online, entre otros aspectos.
Antes decíamos que hay muchos problemas de la vida real que se vierten en las tecnologías o que incluso se han agravado en ella. Como el acoso a través de los 'deep face'
Se trata de una manera nueva de amenazar, de cosificar, de ejercer violencia sobre las mujeres. Una amenaza que las puede llegar a expulsar de foros en las que les penaliza no estar. Hay más ejemplos de tecnología que debería de utilizarse para otras cosas, pero que acaba en violencia contra las mujeres. Como el control de la violencia reproductiva a través de apps, la geolocalización… Son grandes impactos contra sus derechos, libertades, su vida profesional y personal. Son ejemplos claros de que la tecnología no es neutral hoy en día.
¿Por qué es necesario entonces cambiar esta situación y cómo podemos hacerlo?
La primera parte de la pregunta se responde de manera muy sencilla: por justicia. Porque no puedes dejar a la mitad de la población fuera de la toma de decisiones, de cómo se construye y qué problemas resuelve. Pero también por diversidad, por igualdad, por ética y un largo etcétera. Esto nos llevaría a tener una tecnología mejor. Ahora mismo está muy limitada, porque está pensada para un usuario muy concreto.
El por qué lo tengo más claro, pero el cómo lo veo más difícil. Hay cierta limitación o ceguera en las soluciones. Estamos intentando encajar en una estructura tan viciada que unos pequeños cambios quizá no funcionen. Creo que hay que sumar a más gente a bordo, desde lo público, el activismo, desde lo profesional, para que las soluciones sean lo suficientemente completas, amplias y transversales. Habría que ser más ambicioso. Es un poco el objetivo del libro, hacer reflexionar sobre que el problema existe. Un problema que hasta en ocasiones se niega.