¿Sabías qué…?

Algunos sistemas de reconocimiento facial funcionan peor con mujeres

La tecnología suele percibirse como algo neutral y objetivo. Sin embargo, diferentes estudios han demostrado que algunos sistemas de inteligencia artificial pueden reproducir los mismos sesgos que existen en la sociedad.

Una investigación realizada por el MIT Media Lab analizó varios sistemas de reconocimiento facial utilizados por grandes empresas tecnológicas. Los resultados mostraron que estos algoritmos identificaban con mucha mayor precisión a hombres que a mujeres, especialmente cuando se trataba de mujeres con tonos de piel más oscuros.

¿La razón? Los sistemas de inteligencia artificial aprenden a partir de grandes bases de datos de imágenes. Si esos datos no son diversos y contienen más ejemplos de ciertos perfiles —por ejemplo, hombres o personas blancas— el algoritmo termina funcionando mejor con esos grupos y peor con otros.

En cierto modo, el mundo digital termina reproduciendo lo que ocurre en el mundo offline: si las desigualdades o la falta de diversidad ya existen en la sociedad, también pueden aparecer en las tecnologías que se desarrollan a partir de esos datos.

Por eso, cada vez se insiste más en la importancia de desarrollar tecnologías inclusivas y revisar cómo se crean y entrenan los sistemas de inteligencia artificial.

Porque avanzar hacia una sociedad más igualitaria también implica cuestionar cómo se diseñan las herramientas tecnológicas que usamos cada día

Layer 1