El sesgo de género se infiltra en los algoritmos
El machismo en la tecnología es uno de los puntos ciegos creados, según IBM, por la falta de diversidad en los equipos de desarrollo y tiene una propuesta para cambiarlo.
En un experimento realizado en 2015 se mostró cómo un anuncio de un puesto de trabajo muy bien retribuido era mucho más visible para hombres que para mujeres en Internet, algo que pone en cuestión la segmentación de los anuncios en la Red.
Que la mayoría de las mujeres no pudieran ver ese anuncio por el simple hecho de ser mujeres ya estaba condicionando un posible ascenso social.
Las universidades de Princeton (Estados Unidos) y de Bath (Reino Unido), por su parte, han demostrado que, cuando los sistemas aprenden un idioma a partir de textos ya existentes se ven contagiados de los mismos prejuicios incluidos en el lenguaje.
Los autores parten del denominado Test de Asociación Implícita (TAI), un método utilizado para medir los prejuicios en los seres humanos. En los resultados, encontraron que, los nombres femeninos se asociaban a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales.
Los sesgos se pueden introducir en un sistema de IA de diferentes maneras: mediante el uso de datos limitados o incorrectos en los algoritmos de aprendizaje automático que entrenan al sistema o, a los parámetros algorítmicos que deciden qué datos son los más importantes.
Aunque el proceso está altamente automatizado, el sesgo penetra, intencionalmente o no, al elegir conjuntos de datos de entrenamiento y reglas algorítmicas que determinan cómo se entrena la IA. Los datos defectuosos y los modelos sesgados pueden llevar fácilmente a la inteligencia artificial a conclusiones erróneas que afectan desde los puntajes de crédito de las personas, las opciones de empleo, los ingresos a la escuela y hasta su nivel de riesgo en casos de tribunales penales.
Sin embargo, IBM cree que el mayor problema no son los datos o los algoritmos: son los puntos ciegos creados por la falta de diversidad, de experiencia, educación y pensamiento, en los equipos que desarrollan la inteligencia artificial.
Por eso propone que más mujeres se involucren en el área y para eso ofrece cursos gratuitos de machine learning / aprendizaje automático a los que puedes acceder aquí.
La ética en la IA es un tema que preocupa. Lo esencial para esto es crear sistemas justos y garantizar que estén alineados con los valores de los humanos. Y para esto, la diversidad e inclusión en los equipos de desarrollo son muy necesarios.