Así solucionó Google el problema de la etiqueta ‘racista’

El problema fue reportado por un usuario en 2015, quien encontró que en sus fotografías, el software etiquetaba de manera automática a sus amigos como "gorilas"

Google ha eliminado la categoría de gorilas, chimpancés y monos, en su base de datos de etiquetado en su aplicación Photos, luego de dos años un usuario reportara que con esas etiquetas reconocía a personas negras que se encontraban en algunas de las imágenes que compartió en su plataforma.

Ahora, al ingresar en el buscador de la aplicación las palabras como gorila o mono, simplemente no generan resultados, luego del sesgo racista de su máquina de reconocimiento.

Esta situación muestra que los algoritmos informáticos heredan una serie de prejuicios, quizá su origen esté en que son seres humanos los que crean y nutren las bases de datos de aplicaciones que buscan facilitar nuestra interacción mediante internet y en las redes sociales.

Esta falla fue identificada por la empresa tecnológica, dueña de uno de los buscadores más eficiente, en junio de 2015, cuando un usuario descubrió que sus amigos eran etiquetados automáticamente como ‘gorilas’; es decir, que la inteligencia artificial implementada en la aplicación no era capaz de distinguir la tez oscura de las personas.

Derivado del reporte que realizó el usuario, Google tuvo que disculparse y se comprometió a buscar solución para el error: eliminar las etiquetas; en vez de detectar la falla real en sus herramientas de identificación.

La resolución incómoda de Google, de acuerdo con la revista Wired, ilustra las dificultades que esta empresa y otras más, enfrentan en el avance de la tecnología de reconocimiento de imágenes, mismas que se pretenden utilizar en automóviles inteligentes que ya no requieran de un conductor humano.

LEER MÁS: LAS PELÍCULAS DE DISNEY ACUSADAS DE RACISMO… ANTES DE REIVINDICARSE CON ‘COCO’

Wired realizó una búsqueda en Google Photos en la que halló diversos animales, entre ellos pandas y perros; pero el programa arrojó cero resultados al tratarse de “gorila”, “chimpancé” y “mono”. Para realizar comprobar que sí podían existir imágenes de estas especies en la base, se dieron a la tarea de subir 20 fotos de organizaciones dedicadas al cuidado de estos primates; luego de rastrearlas, tampoco las pudieron encontrar.

Resultados de la búsqueda de la palabra “gorilla” (escrita en inglés). Foto: Wired

Entre otros hallazgos, también se introdujeron las palabras “hombre negro”, “mujer negra” y “persona negra”, en las cuales se desplegaron imágenes en blanco y negro de personas, correctamente ordenados por género, pero no filtrados por la raza.

Un portavoz de Google confirmó a Wired que las palabras censuradas, así como sus similares en el etiquetado, fueron eliminadas después del incidente ocurrido en 2015. Asimismo, aseguró que “la tecnología en el etiquetado de las imágenes todavía se encuentra en una etapa temprana, y que no está cerca de ser perfecta”.

Sin embargo, esta falta de perfección en los softwares que leen los rasgos de los rostros, plantean un problema que puede ser aún más grave al emplearse en la tecnología automotriz. Un ejemplo sería en la determinación de evaluar los riesgos.

Es decir, que en una situación extrema, los coches automatizados estarán tomando decisiones difíciles como a quién atropellar. Y, en caso de duda, ¿qué ocurriría si la máquina no puede diferenciar a un animal de una persona, y si determina atropellar a una persona de tez oscura por confundirla con un gorila?

TE PUEDE INTERESAR: LATINA SUFRE RACISMO EN WALMART DE EU; PIDEN QUE REGRESE A MÉXICO

Ante la imposibilidad de dar una solución sustancial al problema, hace plantear cuestionamientos en torno a su se conoce a ciencia cierta el cómo funcionan diversos dispositivos con este nivel de reconocimiento; debido a que continuamente se conocen sus resultados, pero no su funcionamiento a fondo.

Para Vicente Ordóñez Román, profesor de la Universidad de Virginia, la incógnita de qué sucedería no será contestada hasta que el empleo de esa tecnología no se encuentre en funcionamiento. “Es muy difícil interpretar todo lo que verá su sistema una vez que esté vivo”, dijo a Wired.

“Todavía no sabemos de una manera muy concreta lo que estos modelos de aprendizaje automático están aprendiendo”, agrega Baishakhi Ray, experto en fiabilidad de software, colaborador de Román en Virginia.