Las 6 mejores charlas TED sobre sesgo de género e inteligencia artificial

Vota este post

La gente está llena de sesgos y prejuicios. Todas nuestras decisiones y acciones están sujetas a nuestra visión imperfecta del mundo en el que vivimos. Pero, ¿la inteligencia artificial también puede ser parcial? Si es posible. Si bien la IA puede tomar decisiones de manera más eficiente y menos parcial, no es una pizarra limpia.

Un estudio realizado por investigadores del MIT y Microsoft en 2018 sobre discriminación de género y raza por parte de Machine Learning Algorithms encontró que el software de reconocimiento facial prominente tiene tasas de error más altas al presentar imágenes de mujeres. Las tasas de error son aún más altas cuando el sujeto es una mujer de piel más oscura. De manera similar a estos ejemplos, existen numerosos casos de uso, como el reconocimiento de voz y habla, donde las mujeres tuvieron un peor desempeño en las aplicaciones de IA.

La inteligencia artificial es tan buena como los datos. Depende de qué tan bien lo hayan programado los creadores para pensar, decidir, aprender y actuar. Puede heredar o incluso amplificar los prejuicios de sus creadores, que a menudo no tienen conocimiento de sus prejuicios, o la IA puede usar datos sesgados. Los efectos de dicha tecnología pueden cambiar vidas. Las brechas existentes en el reclutamiento y la promoción de mujeres y personas de color pueden aumentar en los lugares de trabajo, si el sesgo no se escribe deliberadamente en el código de AI o si se discrimina a AI.

¿Vamos a ver algunos de los ejemplos recientes de sesgo de género por parte de AI?

Un empleador estaba publicitando en Facebook en 2018 una oferta de trabajo en una industria dominada por hombres, y el algoritmo publicitario del gigante de las redes sociales promovió los trabajos solo para hombres para maximizar los retornos sobre el número y la calidad de los solicitantes. [Facebook accused of bias against women in job ads]

Amazon pasó años creando una herramienta de contratación de IA de los mejores candidatos alimentándola. Revisar los currículos de los candidatos y recomendar a los candidatos más prometedores era la función de la IA. Dado que la industria es maligna, la mayoría de los planes de estudio utilizados para enseñar la IA fueron elaborados por hombres, lo que finalmente llevó a la IA a discriminar las recomendaciones de las mujeres. Significa currículums que incluyeron palabras como «mujeres» o «educación universitaria para mujeres». A pesar de varios intentos fallidos de corregir el algoritmo, la empresa finalmente tuvo que desechar la IA porque este sesgo no podía «desaprenderse». [Amazon Reportedly Killed an AI Recruitment System Because It Couldn’t Stop the Tool from Discriminating Against Women]

Nuestra explicación del sesgo de la IA a menudo se pasa por alto debido a los datos de entrenamiento sesgados. Sin embargo, el sesgo puede continuar mucho antes de que se recopile la información y durante muchas otras fases del aprendizaje profundo, especialmente si los ingenieros desarrollan un modelo de aprendizaje profundo para determinar lo que están buscando.

Para entender más sobre este tema, te recomendamos ver estos videos.

La tecnóloga Kriti Sharma explora cómo la falta de diversidad tecnológica se infiltra en nuestra IA y ofrece tres formas en las que podemos comenzar a crear algoritmos más éticos.

Joy Buolamwini trabajó con un software de análisis facial y notó un problema. El software no detectó su rostro porque las personas que codificaron el algoritmo no le enseñaron a identificar una amplia gama de tonos de piel y estructuras faciales. Ahora tiene la misión de combatir el sesgo del aprendizaje automático.

El realizador de documentales Robin Hauser afirma que necesitamos una conversación sobre cómo gobernar la IA y preguntar quién es responsable de supervisar los estándares éticos de estas supercomputadoras. “Ahora tenemos que resolver esto”, dice ella. “Porque una vez que los datos sesgados ingresan a las máquinas de aprendizaje profundo, eliminarlos es muy difícil”.

La científica social Safiya Umoja Noble investiga el sesgo revelado en los resultados del motor de búsqueda y argumenta por qué debemos ser escépticos con los algoritmos en los que confiamos todos los días.

El tecnosociólogo Zeynep Tufekci explica cómo las máquinas inteligentes pueden fallar de maneras que no se ajustan a los patrones de error humano, y cómo no esperamos o no estamos preparados para ello.

Por último, pero no menos importante. Escuchemos sobre los sesgos raciales y de género y la inclusión en la IA de Gunay Kazimzade. Esta charla fue dada por una comunidad local en un evento TEDx utilizando el formato de conferencia TED pero organizado de forma independiente.

Deja un comentario