Google comenzó a etiquetar personas negras como gorilas… Flickr las clasificó como chimpancés… “Si está en la cocina, eres una mujer”…

Javier Salas, periodista en ElPaís, destaca que "las máquinas inteligentes consolidan los sesgos sexistas, racistas y clasistas que prometían resolver..."

Javier Salas, periodista en ElPaís, destaca que “las máquinas inteligentes consolidan los sesgos sexistas, racistas y clasistas que prometían resolver…”

Hombre calvo, unos sesenta años; mueve con sus espátulas de madera unos trozos de carne dentro de una sartén. Lleva gafas de pasta, vaqueros y se encuentra frente a los fogones de su pequeña cocina, decorada en bonitos tonos claros. Al ver esta imagen, la inteligencia artificial lo tiene claro y gracias a su sofisticado aprendizaje, etiqueta lo que ve: cocina, espátula, fogones, mujer.

Si está en una cocina, entre fogones, debe ser una mujer.

Google comenzó a etiquetar a personas negras como gorilas y Flickr las clasificó como chimpancés

Un equipo de la Universidad de Virginia acaba de publicar un estudio en el que señala una vez más lo que muchos especialistas vienen denunciando: la inteligencia artificial no solo no evita el error humano derivado de sus prejuicios, sino que puede empeorar la discriminación y está reforzando muchos estereotipos.

En su trabajo, estos científicos pusieron el objetivo en las imágenes de dos gigantescos bancos de imágenes, de los que se usan habitualmente para entrenar a las máquinas. Y, sobre todo, en lo que aprendían de ellas.

Inicialmente, los hombres protagonizaban un 33% de las fotos que contenían personas cocinando. Tras entrenar a la máquina con estos datos, el modelo mostró su flaqueza: dedujo que el 84% de la muestra eran mujeres. “Se sabe que las tecnologías basadas en big data a veces empeoran inadvertidamente la discriminación debido a sesgos implícitos en los datos”, advierten los autores. “Mostramos que partiendo de un corpus sesgado de género”, añaden, los modelos predictivos “amplifican el sesgo”.

Las máquinas se hacen más sexistas, racistas o clasistas porque identifican la tendencia subyacente y apuestan por ella para atinar. Ya es bien conocido el caso de Tay, el robot inteligente que Microsoft diseñó para que se integrara en la conversación de Twitter aprendiendo de los demás usuarios: tuvo que retirarlo en menos de 24 horas porque empezó a hacer apología nazi, a acosar a otros tuiteros y a defender el muro de Trump. A estas alturas, los ejemplos de algoritmos que exacerban prejuicios o discriminaciones son innumerables y ponen en entredicho la gran promesa de estos sistemas: retirar de la ecuación el error humano. Los algoritmos nos condenan a repetir el pasado del que queríamos escapar al replicar los prejuicios que nos definían.

“Las tecnologías basadas en big data a veces empeoran la discriminación debido a sesgos implícitos en los datos”, advierten los autores

Sigue leyendo este interesante artículo AQUÍ

Scroll al inicio