La inteligencia artificial ya reproduce estereotipos de género

Ciencia y Tecnología Noticias

Fuente: ONU

La Organización de la ONU para la Educación, la Ciencia, y la Cultura (UNESCO) publicó un estudio que examina los estereotipos presentes en los modelos de lenguajes grandes, como se llama a los algoritmos de procesamiento y aprendizaje del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa más populares.

Titulado, Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes, este documento revela pruebas inequívocas de prejuicios contra las mujeres en los contenidos generados por cada una de estas plataformas.

Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real; declaró la directoria general de la UNESCO.

“Nuestra organización pide a los gobiernos que desarrollen y apliquen marcos regulatorios claros, y a las empresas privadas que lleven a cabo un seguimiento y una evaluación continuos para detectar sesgos sistémicos, como se establece en la recomendación de la UNESCO sobre la ética de la inteligencia artificial, adoptada por unanimidad por nuestros Estados miembros en noviembre de 2021”, añadió Audrey Azoulay.

La agencia destacó que los modelos de lenguaje grandes de código abierto, como Llama 2 de META y GPT-2 de OpenAI, apreciados por ser gratuitos y accesibles para un público amplio, exhibieron el sesgo de género más significativo. También tendieron a generar contenido negativo sobre personas homosexuales y ciertos grupos étnicos.

Específicamente, las herramientas estudiadas mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los varones, como ingeniero, profesor y médico, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, tales como «empleada doméstica», «cocinera» y «prostituta».

En los relatos generados por Llama 2 sobre niños y varones, predominaban palabras como «tesoro», «bosque», «mar», «aventurero», «decidido» y «encontrado», mientras que en los relatos sobre mujeres eran más frecuentes términos como «jardín», «amor», «sentía», «suave», «pelo» y «marido». Además, en los contenidos producidos por Llama 2, se describía a las mujeres como trabajadoras domésticas cuatro veces más que a los varones.

Sin embargo, también concluyeron que la naturaleza abierta y transparente de estas plataformas puede ser una gran ventaja para abordar y mitigar estos sesgos, mediante una mayor colaboración entre la comunidad investigadora mundial. En contraste, modelos más cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desafíos en este sentido, señalaron.