Por un error de sistema, Facebook mostró por meses contenido con desnudez y violencia que ya había clasificado como "dudoso"

Facebook Like
Sin comentarios Facebook Twitter Flipboard E-mail

Durante seis meses, una falla en el sistema de clasificación masiva de Facebook generó un aumento en las vistas de "contenido dañino", de acuerdo con un informe interno de la compañía al que The Verge tuvo acceso.

El error, derivó en una gran cantidad de "información errónea" fuera mostrado en los feeds de los usuarios desde el pasado mes de octubre. En lugar de que el algoritmo suprimiera las publicaciones clasificadas como "dudosas" por la red de verificadores de la compañía, hizo que se terminaran distribuyendo, aumentando las vistas hasta en un 30% a nivel mundial.

De acuerdo con el documento los ingenieros fueron incapaces de encontrar la causa al problema, mientras observaban cómo el aumento cedía luego de unas semanas, pero se intensificaba en repetidas ocasiones hasta que pudieron solucionarlo, apenas el 11 de marzo de 2022.

Otras medidas anunciadas por la compañía tampoco se aplicaron

Junto a las publicaciones que ya habían sido clasificadas por los verificadores, en la investigación interna se descubrió que durante este periodo, los sistemas de Facebook tampoco suprimieron adecuadamente los contenidos relacionados con la desnudez, la violencia ni los medios estatales rusos, que se habían comprometido a dejar de recomendar, luego de la invasión a Ucrania.

Facebook

Según Joe Osborn, portavoz de Meta, la compañía "detectó inconsistencias en  la reducción hasta en cinco ocasiones", mismas que tenían aumentos temporales en las vistas del contenido.

Aunque no generó un impacto en la exposición de contenidos hasta el año pasado, el documento interno de la compañía señalaba que el problema ya se había registrado en 2019, pero sin el alcance de este último, pero de acuerdo con Osborne, "el problema ya fue rastreado hasta un error de software y se aplicaron las correcciones necesarias".

La importancia de conocer cómo funcionan los sistemas

Sahar Massachi, exmiembro del equipo de Integridad Cívica de Facebook, señaló que si bien no hay indicios de intenciones maliciosas tras el error de clasificación, ni afectó al resto de herramientas de moderación, demuestra la necesidad de transparentar en las plataformas de internet los algoritmos y criterios que utilizan para clasificar el contenido.

Imagen: Andrei Lacatusu

Hasta ahora la compañía ha dado a conocer el tipo de contenido que limitan de su plataforma y los criterios que usan en la sección de noticias para las publicaciones que reciben una "distribución reducida", pero no se ha revelado exactamente la forma en que afecta esa degradación en la difusión.

El interés original, según el propio Mark Zuckerberg, radica en eliminar el contenido dañino de su plataforma, evitando la propagación de contenido "al límite" de violar las reglas, usando además de sistemas de IA cada que se encuentran con contenido sospechoso, revisión humana para verificar las publicaciones.

Comentarios cerrados
Inicio