Asistentes de voz femeninos refuerzan los prejuicios sexistas
Unesco propone a las industrias de tecnología utilizar asistentes de voz neutros
Un informe de la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) informó el día de hoy que los asistentes digitales que responden con voz de mujeres, tales como Siri de Apple, Alexa de Amazon y Cortana de Microsoft, refuerzan los estereotipos sexistas.
El informe documenta que estos servicios integrados a dispositivos electrónicos fortalecen los prejuicios de género a través de la aceptación del abuso verbal, convirtiendo a las mujeres en el rostro de las fallas y errores de las limitaciones de hardware y software que son diseñados por hombres, informó Proceso.
https://cdn.mientrastantoenmexico.mx/huawei-corto-en-pedazos-logo-de-apple-dice-diplomatico-chino/
“I’d blush if I could: closing gender divides in digital skills though education” (“Me ruborizaría si pudiera: cerrando la brecha de género en herramientas digitales mediante la educación”) se titula el estudio que señala que estos asistentes femeninos están programados para responder de forma servil a insultos. El informe enfatizó que un ejemplo es el asistente para dispositivos de Apple, Siri, la cual estaba programada para responder cuando la llamaran “slut” (“puta”): “Me ruborizará si pudiera.”
Saniye Gulser Corat, directora de la Unesco, comentó que se debe prestar más atención a si las tecnologías de inteligencia artificial tienen género y quien lo define.
La Organización propuso a las compañías tecnológicas no poner voz femenina en los asistentes y contemplar opciones de género neutras que eviten el uso de insultos basados en el género.
https://cdn.mientrastantoenmexico.mx/critican-a-apple-y-a-google-por-alojar-una-aplicacion-que-permite-el-control-de-las-mujeres/
Sé parte de la conversación