Así solucionó Google el problema de la etiqueta ‘racista’
El problema fue reportado por un usuario en 2015, quien encontró que en sus fotografías, el software etiquetaba de manera automática a sus amigos como "gorilas"
Indigo StaffGoogle ha eliminado la categoría de gorilas, chimpancés y monos, en su base de datos de etiquetado en su aplicación Photos, luego de dos años un usuario reportara que con esas etiquetas reconocía a personas negras que se encontraban en algunas de las imágenes que compartió en su plataforma.
Ahora, al ingresar en el buscador de la aplicación las palabras como gorila o mono, simplemente no generan resultados, luego del sesgo racista de su máquina de reconocimiento.
Esta situación muestra que los algoritmos informáticos heredan una serie de prejuicios, quizá su origen esté en que son seres humanos los que crean y nutren las bases de datos de aplicaciones que buscan facilitar nuestra interacción mediante internet y en las redes sociales.
Esta falla fue identificada por la empresa tecnológica, dueña de uno de los buscadores más eficiente, en junio de 2015, cuando un usuario descubrió que sus amigos eran etiquetados automáticamente como ‘gorilas’; es decir, que la inteligencia artificial implementada en la aplicación no era capaz de distinguir la tez oscura de las personas.
La resolución incómoda de Google, de acuerdo con la revista Wired, ilustra las dificultades que esta empresa y otras más, enfrentan en el avance de la tecnología de reconocimiento de imágenes, mismas que se pretenden utilizar en automóviles inteligentes que ya no requieran de un conductor humano.
LEER MÁS: LAS PELÍCULAS DE DISNEY ACUSADAS DE RACISMO… ANTES DE REIVINDICARSE CON ‘COCO’
Wired realizó una búsqueda en Google Photos en la que halló diversos animales, entre ellos pandas y perros; pero el programa arrojó cero resultados al tratarse de “gorila”, “chimpancé” y “mono”. Para realizar comprobar que sí podían existir imágenes de estas especies en la base, se dieron a la tarea de subir 20 fotos de organizaciones dedicadas al cuidado de estos primates; luego de rastrearlas, tampoco las pudieron encontrar.
Entre otros hallazgos, también se introdujeron las palabras “hombre negro”, “mujer negra” y “persona negra”, en las cuales se desplegaron imágenes en blanco y negro de personas, correctamente ordenados por género, pero no filtrados por la raza.
Sin embargo, esta falta de perfección en los softwares que leen los rasgos de los rostros, plantean un problema que puede ser aún más grave al emplearse en la tecnología automotriz. Un ejemplo sería en la determinación de evaluar los riesgos.
Es decir, que en una situación extrema, los coches automatizados estarán tomando decisiones difíciles como a quién atropellar. Y, en caso de duda, ¿qué ocurriría si la máquina no puede diferenciar a un animal de una persona, y si determina atropellar a una persona de tez oscura por confundirla con un gorila?
TE PUEDE INTERESAR: LATINA SUFRE RACISMO EN WALMART DE EU; PIDEN QUE REGRESE A MÉXICO
Ante la imposibilidad de dar una solución sustancial al problema, hace plantear cuestionamientos en torno a su se conoce a ciencia cierta el cómo funcionan diversos dispositivos con este nivel de reconocimiento; debido a que continuamente se conocen sus resultados, pero no su funcionamiento a fondo.
“Todavía no sabemos de una manera muy concreta lo que estos modelos de aprendizaje automático están aprendiendo”, agrega Baishakhi Ray, experto en fiabilidad de software, colaborador de Román en Virginia.