Facebook se ve obligado a deshabilitar las recomendaciones de video después de que su algoritmo identifica a las personas negras como primates

La red social pidió disculpas y paralizó su sistema hasta investigar el motivo del error

La red social pidió disculpas y paralizó su sistema hasta investigar el motivo del error

0 79
Facebook se ha disculpado por un error en el mecanismo de inteligencia artificial (IA) que recomienda videos en su red social, luego de que identificara a los negros como primates, y ha desactivado este sistema hasta investigar el motivo del error.

El error de Facebook apareció para algunos usuarios de la red social luego de ver un video del Daily Mail que mostraba a personas de color. La recomendación de video AI les recomendó “seguir viendo videos de primates”, como informó The New York Times.

“Claramente fue un error inaceptable”, reconoció un portavoz de Facebook en declaraciones a  donde se ha disculpado con los usuarios que han visto estas “recomendaciones ofensivas”.

Asimismo, Facebook ha deshabilitado por completo su función de recomendación de videos a través de IA -que analiza automáticamente el contenido de los videos para sugerir otros relacionados- hasta que investiga la causa del error y evita que vuelva a suceder.

“Aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances por hacer”, admitió la empresa estadounidense.

 

[fvplayer id=”25″]

Deja un comentario