Sesgos de Género del Lenguage e Inteligencia Artificial

Share

He estado instruyéndome estos días acerca de algunos de los retos que el uso de la inteligencia artificial plantea en el campo de la batalla contra la desigualdad de género.

Hace solo unos días que apareció publicado en The Prospect el artículo de Rodrigo Ochigame, el que, hasta dimitir de su puesto, fuera estudiante de posgrado en el Media Lab del MIT, causando furor tanto en la industria tecnológica de la inteligencia artificial como en los círculos académicos dedicados al estudio de su ética. En dicho artículo, el estudiante avanzaba de forma bien argumentada que el floreciente discurso de la inteligencia artificial ética había sido puesto en circulación de forma reciente entre los círculos académicos mediante un ingente respaldo económico por las empresas del Silicon Valley. Se trataba de difundir la idea de que la auto regulación y los códigos de conducta voluntariamente asumidos, y no la vía de las restricciones legales jurídicamente impuestas, constituían el camino a seguir ante los múltiples retos que plantea el uso de las nuevas tecnologías.

Como hace años que me autoimpongo durante el período vacacional navideño la obligación de apartarme de lo urgente de nuestra actualidad política (¿demasiada actividad neuronal dedicada al Procés en el 2019?) para educarme en alguna de las grandes problemáticas globales que encara la sociedad contemporánea, he estado instruyéndome estos días acerca de algunos de los retos que el uso de la inteligencia artificial plantea en el campo de la batalla contra la desigualdad de género.

En realidad son varios y cada uno merecería una reflexión profunda. En esta ocasión me inspiran los trabajos de autoras como Kate Crawford, Fei-Fei li, Joy Boulamwini y Susan Leavy dedicadas al estudio de los sesgos de género de los algoritmos. Esta última, del University College Dublin, se centra en especial en la identificación de algunos de los retos que de forma específica se plantean para que el proceso de aprendizaje de las máquinas no se convierta en un mecanismo amplificador de los sesgos de género que contienen el lenguaje y los textos escritos. La cuestión preocupa de forma especial si tenemos en cuenta además que únicamente el 22% de los profesionales dedicados al desarrollo de la inteligencia artificial son mujeres, frente a un 78% de varones.

En concreto, Leavy denuncia la insuficiente incorporación de la teoría lingüística feminista en el proceso de aprendizaje de máquinas que se alimenta de datos extraídos de textos, incorporación que sería necesaria para evitar los sesgos de género en el proceso de aprendizaje de las máquinas. Dicha teoría lingüística se ha centrado en el estudio de las formas en las que la ideología de género, articulada a través del uso del lenguaje y la escritura, sirve para influenciar en la percepción de hombres y mujeres así como en las expectativas de comportamiento asociadas a cada colectivo.

Como el lenguaje sexista sí es una de las temáticas que, alimentadas, entre otras, por las reflexiones de nuestra Real Academia de la Lengua, ha sido objeto de prolijo debate en nuestra sociedad en tiempos recientes, se me antoja que conviene añadir este ángulo a la reflexión, que puede resultar interesante. Aunque solo sea para rebatir los argumentos de quienes confían en que el emisor y el receptor del mensaje lingüístico tengan la suficiente formación como para no hacer inferencias inapropiadas de los usos sexuados (algunos dirían sexistas) consuetudinarios del lenguaje, pues aquí estamos hablando de máquinas y de ellas no cabe presumir, de entrada, este escudo de protección en la mente del individuo bien intencionado y comprometido con la igualdad, más allá del lenguaje.

Entre los sesgos de género del lenguaje que afectarían al proceso de aprendizaje de las máquinas que se nutren de datos lingüísticos y textos, Leavy se refiere a cinco en concreto, que serían la forma de nombrar; el orden de preferencia; las descripciones sesgadas; el uso y la tipología de metáforas y el grado de presencia/ausencia de las mujeres en los textos escritos. Así, pensemos por ejemplo en los sesgos de género que esconde el uso de los términos que se usan, de forma diferenciada, para referirnos a hombres y mujeres. La expresión “madre soltera”, o la del “hombre de familia” no tienen un equivalente común en el otro género. El universal masculino es tan masculino como pretendidamente universal, sin que exista un universal femenino.

Cuando una profesión está altamente masculinizada o feminizada es mucho más común referirse a ella de forma genérica usando el género que estadísticamente la representa (las enfermeras, los bomberos…). La frecuencia con la que se describe a mujeres adultas como “chicas”, “chiquillas” o “niñas” no tiene un equivalente en los apelativos de varones adultos.  Incluso cuando nombramos a ambos sexos, lo frecuente es dar orden de prelación al varón (“hijo e hija”, “marido y mujer”). Las descripciones de varones hacen referencia más a su conducta que a su apariencia o sexualidad, como es el caso de las mujeres. El uso de metáforas para describir a las mujeres es mucho más frecuente y derogatorio que el que se dirige a los varones. Y la frecuencia con la que las mujeres aparecen en los textos es sencillamente muy inferior a la de los hombres, sobre todo en algunos ámbitos, como el de los negocios.

A la vista de todo esto, es clave que los algoritmos que se diseñan para el proceso de aprendizaje de las máquinas que se nutre de textos se haga de forma que sea posible identificar y filtrar estos sesgos del lenguaje que, por cierto, son computacionalmente identificables. La solución seguramente pasa por un conjunto de estrategias. Sería conveniente que los sistemas de inteligencia artificial se desarrollaran de forma transparente y que el código de cualquier algoritmo y el proceso de aplicación de los mismos fuera abierto o semi-abierto. Es esencial que se aumente la diversidad y la presencia de mujeres entre quienes desarrollan los algoritmos y quienes investigan en el sector de la inteligencia artificial.

Tenemos que pensar en formas para que ingenieras e ingenieros y expertas y expertos en igualdad de género puedan aprender conjuntamente y en la identificación de estándares comunes para las organizaciones y empresas del sector. Pero al final del día será inevitable abordar la pregunta que el sector interesado está intentando por todos los medios evitar, y que remueve cada vez más la conciencia de quienes se dedican a la defensa de los derechos humanos y fundamentales como estándares éticos mínimos de obligado cumplimiento, esto es: el momento y la forma en que se deba llamar a la ley a intervenir para garantizar el principio de la igualdad entre hombres y mujeres frente a las amenazas, de diversa índole, que plantea el uso de la inteligencia artificial.

Este artículo fue publicado el 26 de diciembre de 2019 en eldiario.es Andalucía. Se publica en esta WEB con autorización de la autora.

About Ruth Rubio Marín

Ruth Rubio Marín, Catedrática de Derecho Constitucional Comparado del Instituto Universitario Europeo de Florencia, Profesora de Derecho Constitucional de la Universidad de Sevilla, es miembro de Economistas Frente a la Crisis

Deja un comentario





Share
Scroll To Top