Paulo Soleto

Facebook se disculpa públicamente luego de que su algoritmo identificara a un video de hombres negros con la etiqueta de "primates", el error en su inteligencia artificial generaba un mensaje que preguntaba a los usuarios si les gustaría "seguir viendo vídeos sobre primates" en un vídeo de hombres negros, la compañía de Mark Zuckerberg deshabilitó la función de recomendación de tópicos luego del error en su algoritmo.

Te puede interesar: China censura reality shows y prohíbe mostrar a hombres “afeminados”

Según informaba 'The New York Times' el error se produjo en un video subido a la red social por un medio británico llamado 'Daily Mail' donde, al terminar, Facebook preguntaba si querías "seguir viendo videos sobre primates".

Un vocero de la compañía lo llamó "un error claramente inaceptable" y dijo que el software de recomendaciones involucrado ya fue desconectado tras este incidente: "Nos disculpamos con cualquiera que haya visto estas recomendaciones ofensivas (…) Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba pasando y así poder investigar la causa y evitar que esto pase de nuevo" dijo el vocero de Facebook.

El error se volvió viral rápidamente causando indignación y molestia entre los usuarios, tal es el caso de Nicole Perlroth, una reportera de ciberseguridad del New York Times que tuiteó: “Todos los días vemos los límites, los prejuicios y la pura idiotez de depender únicamente de la inteligencia artificial. Y, sin embargo, seguimos permitiéndonos ser conejillos de indias".


Comentarios