Saniye Gülser Corat ingresó en la Unesco en 2004 como directora de la División para la Igualdad de Género de la agencia de la ONU. Nacida en Turquía, buena parte de su educación se desarrolló en Estados Unidos y Canadá. Fue docente en este último país antes de fundar su propia consultora centrada en desarrollo internacional.
Saniye Gülser Corat ingresó en la Unesco en 2004 como directora de la División para la Igualdad de Género de la agencia de la ONU. Nacida en Turquía, buena parte de su educación se desarrolló en Estados Unidos y Canadá. Fue docente en este último país antes de fundar su propia consultora centrada en desarrollo internacional.
Visión y tecnología

“Siri y Alexa no deberían tener género”

La directora de la División para la Igualdad de Género de la Unesco, Saniye Gülser Corat, cree fundamental corregir los sesgos de la tecnología para poder combatir la brecha de género, que es preocupante en habilidades digitales.

Me sonrojaría si pudiera. Es el título de un informe de la Unesco sobre brecha de género en competencias digitales, inspirado en la respuesta que daba Siri al llamarle “zorra” [ahora su contestación ha cambiado por un “no responderé a eso”].

El informe analiza los sesgos de género en aplicaciones que utilizan inteligencia artificial y realiza recomendaciones a empresas y gobiernos para combatirlos. También presenta ideas para cerrar la brecha en habilidades digitales que “en la mayoría de las partes del mundo está creciendo”. Sobre ello hablamos con Saniye Gülser Corat (Estambul, 1955), directora de la División para la Igualdad de Género de la Unesco, que participó en la pasada edición de Web Summit.

¿Son sexistas los asistentes virtuales como Siri, Alexa, Google Home o Cortana?

No son sexistas en sí mismos, sino que los programas sobre los que están desarrollados les hacen serlo al proporcionarles respuestas que se consideran sexistas. Si preguntas a Alexa cuánto pesa, responde: “Soy ligera como una nube. Pero en realidad las nubes pesan mucho, así que eso no es correcto. Digamos que tengo más picardía que masa”. Nunca en mi vida he escuchado una respuesta así a esa pregunta, lo que refleja una personalidad integrada en estos sistemas que además denota una inteligencia igual de ligera que su peso.

¿Quienes hacen ser sexistas a los asistentes de voz son las compañías que los desarrollan o la propia sociedad?

La directora de la División para la Igualdad de Género de la Unesco, Saniye Gülser Corat

La tecnología reproduce nuestros valores y sesgos. En la industria tecnológica la participación de las mujeres es muy baja, del 17,5%, que cae a menos del 10% en el caso de la inteligencia artificial y a solo el 5% si buscamos directoras ejecutivas. Que programas como Siri o Alexa estén desarrollados de forma sexista tiene que ver con quién está programándolos y alimentándolos de datos.

¿Qué consecuencias tiene que los asistentes de voz tengan una proyección femenina?

En 2016, un blog titulado Amazon Echo es mágico pero también está volviendo idiota a mi hijo se hizo viral porque contaba la experiencia de un padre y cómo su hijo estaba aprendiendo a usar un lenguaje muy agresivo y maleducado con Alexa. Los asistentes de voz influyen en la gente, especialmente entre los jóvenes. Dentro de cinco años, en los países industrializados tendremos más conversaciones con asistentes de voz que con nuestras parejas. Estas tecnologías están todavía desarrollándose y evolucionando, nada está grabado en piedra. Debemos lograr que su influencia sea positiva.

Hay quienes justifican que estas voces sean femeninas porque el cerebro tiende a confiar más en ellas.

Nuestra investigación muestra que la mayoría de los programas orientados a servicios (encender la luz, poner música...) usan una voz de mujer. En cambio, cuando se trata de guiar o proporcionar instrucciones se recurre a voces masculinas. Esto no lo define la preferencia del consumidor, es la forma en la que reproducimos una determinada comprensión del mundo: las mujeres son más cuidadoras y los hombres son quienes toman las decisiones. Estas percepciones y patrones de comportamiento son muy difíciles de cambiar.

Lo que se puede cambiar en ocasiones es la voz del asistente y ponerle la de un hombre. ¿Es suficiente?

En realidad Siri tiene voz de hombre por defecto en cuatro lenguas: inglés británico, holandés, francés y árabe. Creemos que se debe a que son países donde tradicionalmente ha habido sirvientes masculinos, mayordomos, en las clases sociales más altas. Ofrecer un cambio de voz no es una solución, es lo mínimo. Sería mejor que no tuvieran ninguna identidad de género distinguible. Algunas empresas lo están haciendo.

Por ejemplo, el chatbot financiero Kai adquiere la personalidad de un robot y se comporta como tal; la plataforma BotPenguin usa un pingüino y Spixii un loro. Mientras que las startups están empezando a pensar en este sentido, muchas grandes compañías buscan hacer sus voces aún más humanas, naturales y emotivas, y no creo que eso sea positivo. Solo en algunos casos puede ser valioso, como en el cuidado de los mayores, ya que una voz humana les hace sentir mejor. En tales ocasiones es importante que se indique que se trata de una máquina, no de una persona.

En su informe dice que la sumisión expresada por los asistentes virtuales feminizados es solo un caso más de cómo se codifican los sesgos en tecnología. ¿Qué otros ejemplos hay?

La lista es interminable. Por ejemplo, en aplicaciones de reconocimiento facial se discrimina más a mujeres de color. Otro: los anuncios online personalizados con ofertas de puestos de trabajo importantes y mejor pagados llegan sobre todo a hombres.

¿Cómo pueden los Gobiernos y empresas abordar esta cuestión?

Lo primero es impulsar la diversidad e inclusión en la industria tecnológica. Cuanta más diversidad haya, mejores productos tendremos. Es bueno para los negocios. Lo segundo es un cambio de enfoque en los sistemas educativos, donde se canaliza a los chicos hacia estudios de ciencia y tecnología mientras que se desanima, disuade o frena a las mujeres. Está demostrado que esto empieza a ser así en la enseñanza secundaria. También debemos asegurarnos de escuchar a los usuarios: saber cómo se sienten y qué piensan de estos productos. No olvidemos que el 50% de la población mundial pertenece al género femenino.

¿Está a favor de las cuotas?

Solía pensar que no son necesarias, pero mi visión ha cambiado. Creo que en áreas donde hay disparidades significativas tenemos que adoptar medidas temporales de este tipo. Son absolutamente esenciales para cerrar la brecha. Por ejemplo, más de 100 años después de conquistar el derecho al voto femenino, solo un 20% de los funcionarios electos en el mundo son mujeres. No valen excusas como que no hay suficientes profesionales cualificadas porque no es verdad y, si se trata de un campo emergente, la solución es formarlas y hacer mentorías, igual que con los hombres.

¿Por qué es importante cerrar la brecha de género?

Según un reciente estudio de la UE, el 90% de los trabajos necesitan habilidades digitales. ¿Quiénes somos nosotros para negar estas oportunidades a la mitad de la humanidad? No creo que podamos progresar en nuestras vidas sin asegurarnos de que todo el mundo es parte del desarrollo.

¿Predican ustedes con el ejemplo?

Cuando la Unesco decidió que promover la igualdad de género sería una prioridad, allá por 2007, asumimos que debíamos hacerlo también en nuestra propia organización. Entonces solo había un 10% de mujeres en posiciones de toma de decisiones en la organización. Hoy somos un 51%.

¿Podría ser la tecnología parte de la solución para lograr la igualdad de género?

Sí. El movimiento #MeToo ha sido posible gracias a las redes sociales. Hay compañías y gente joven desarrollando aplicaciones que ayudan en esta dirección. Por ejemplo, un grupo de cinco chicas en Kenia trabaja en una app para víctimas de mutilación genital, que afecta a 200 millones de mujeres en el mundo. También tiene un botón de pánico que avisa a las fuerzas de seguridad en caso de peligro.

Retina

29/10/2020
Normas