Facebook etiquetó por error a hombres negros como «primates»
Facebook anunció el viernes que deshabilitó una función de recomendación de tópicos luego de que asociara erróneamente hombres negros con «primates» en un video publicado de la red social.
Ocurrió en un video de un medio británico donde, al terminar, Facebook preguntaba si el usuario quería «seguir viendo videos sobre primates».
Un vocero de la compañía lo llamó «un error claramente inaceptable» y dijo que el software de recomendaciones involucrado fue desconectado.
«Nos disculpamos con cualquiera que haya visto estas recomendaciones ofensivas«, se retractó la compañía. «Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba pasando y así poder investigar la causa y evitar que esto pase de nuevo».
El programa de reconocimiento facial ha sido duramente criticado por defensores de derechos civiles, quienes señalan problemas de precisión particularmente con personas que no son blancas.
Usuarios de Facebook en días recientes vieron el video de un tabloide británico protagonizado por hombres negros y recibieron un aviso generado automáticamente preguntando si querían «seguir viendo videos sobre primates», de acuerdo con el diario The New York Times.
Darci Groves, antiguo jefe de diseño de contenido de Facebook, compartió una captura de pantalla de la recomendación.
«Este aviso de ‘seguir viendo’ es inaceptable», escribió Groves en Twitter. «Esto es atroz».
El reconocimiento facial, la polémica
El reconocimiento facial es una tecnología muy desarrollada por Amazon. Foto AFP
Dani Lever, vocero de Facebook, dio más precisiones en un comunicado. Y la inteligencia artificial que reconoce caras fue protagonista en la polémica: “Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer”.
El problema no es nuevo. Google, Amazon y otras compañías de tecnología han estado bajo escrutinio durante años por sesgos dentro de sus sistemas de inteligencia artificial, particularmente en torno a cuestiones raciales.
Los estudios han demostrado que la tecnología de reconocimiento facial está sesgada en contra de las personas de color y tiene más problemas para identificarlas, lo que lleva a incidentes en los que las personas negras han sido discriminadas o arrestadas debido a errores informáticos .
Por ejemplo, en 2015 Google Photos etiquetó erróneamente imágenes de personas negras como «gorilas». Google dijo que estaba «realmente arrepentido» y que trabajaría para solucionar el problema de inmediato.
Más de dos años después, Wired descubrió que la solución de Google era censurar la palabra «gorila» de las búsquedas, mientras que también bloqueaba «chimpancé», «chimpancé» y «mono».
Las inteligencias artificiales usadas para reconocer rostros generan polémical. Foto EFE
Facebook tiene uno de los repositorios de imágenes subidas por usuarios más grandes del mundo en el que entrenar sus algoritmos de reconocimiento facial y de objetos. La empresa, que adapta el contenido a los usuarios en función de sus hábitos de navegación y visualización anteriores, a veces les pregunta a las personas si les gustaría seguir viendo publicaciones en categorías relacionadas. No estaba claro si mensajes como el de «primates» estaban generalizados.
Los problemas racistas también causaron previamente problemas internos en Facebook. En 2016, Mark Zuckerberg, el director ejecutivo, pidió a los empleados que dejaran de tachar la frase «Black Lives Matter» y reemplazarla por «All Lives Matter» en un espacio común en la sede de la empresa en Menlo Park, California.
Cientos de empleados también realizaron una huelga virtual el año pasado para protestar por el manejo de la compañía de una publicación del presidente Donald J. Trump sobre el asesinato de George Floyd en Minneapolis.