Contenidos identificados como engañosos o problemáticos fueron destacados por error a usuarios de Facebook en los últimos meses debido a un problema informático que tardó un semestre en ser reparado, informó el sitio especializado The Verge.
Meta, casa matriz de Facebook, intentó bajar el tono a la información. El artículo publicado el jueves “exagera mucho la magnitud del problema, que al final no tuvo un impacto significativo o de largo plazo en los contenidos problemáticos”, explicó Joe Osborne, portavoz de Meta.
Según The Verge, ingenieros del grupo redactaron un informe interno dando cuenta de un “error masivo de clasificación” de los contenidos.
Notaron que en octubre los algoritmos del hilo de noticias difundían más ciertos contenidos identificados como dudosos por medios externos, miembros del Third party fact-checking (verificación de la información por parte de terceros), un programa desarrollado por Facebook.
“Incapaces de encontrar la causa del problema, los ingenieros vieron que el asunto se repitió algunas semanas más tarde y reapareció varias veces hasta que el problema de clasificación fue reparado el 11 de marzo”, detalla el artículo.
Pero de acuerdo con Osborne, el incidente no incidió sino en un “número muy pequeño de visualizaciones”.
“La gran mayoría de contenidos del hilo de noticias no pueden ser degradados”, explicó Osborne.
Agregó que los otros mecanismos concebidos para evitar exponer a los usuarios a contenidos “dañinos” estaban operando, incluidas “otras degradaciones, advertencias de fact-checking y eliminación” de contenidos.
La AFP participa en más de 80 países y 24 idiomas del Third party fact-checking.
A través de este programa, que se inició en diciembre de 2016, Facebook remunera a más de 80 medios en el mundo, generalistas y especializados, por la utilización de sus “verificaciones” en su plataforma, en WhatsApp e Instagram.
Si una información es diagnosticada como falsa o engañosa por alguno de estos medios, los usuarios son menos susceptibles de verla en su hilo de noticias. Y si la ven o intentan compartirla, la plataforma les sugiere la lectura del artículo de verificación.
Lo mismo sucede a quienes ya la hubieran compartido. No hay ningún retiro de las publicaciones. Los medios participantes son libres en la elección y el tratamiento de sus temas.