Junta supervisora de Meta exhorta a cambios en moderación

La junta supervisora de Meta, un organismo quasi independiente de la empresa matriz de Facebook, dice que un sistema interno que ha eximido a usuarios de alto perfil como el expresidente estadounidense Donald Trump de algunas o todas sus normas de moderación de contenido requiere una reforma exhaustiva

Kelvin Chan
Martes, 06 de diciembre de 2022 12:29 EST
META-SUPERVISIÓN
META-SUPERVISIÓN (AP)

La junta supervisora de Meta, un organismo cuasi independiente de la empresa matriz de Facebook, dijo el martes que un sistema interno que ha eximido a usuarios de alto perfil como el expresidente estadounidense Donald Trump de algunas o todas sus normas de moderación de contenido requiere una reforma exhaustiva.

El informe, que la junta elaboró a lo largo de más de un año, dice que el sistema contiene “fallas en aspectos cruciales que la empresa debe remediar”.

Meta pidió a la junta que investigue el sistema después que el diario Wall Street Journal informó el año pasado que muchos usuarios de elite cometían abusos al publicar material que en el caso de la gente común merecerían castigo por acoso, incitación a la violencia y otros delitos.

Según trascendidos, las reglas de Facebook aparentemente no se aplicaban a ciertos usuarios VIP, mientras que a otros les revisaban su contenido por posibles infracciones a las normas, según el artículo del Journal, el cual dijo que el sistema tenía al menos 5,8 millones de usuarios exentos en 2020.

La existencia del sistema —llamado “XCheck” o cross-check (verificación cruzada)— de Facebook salió a la luz en documentos filtrados por Frances Haugen, una exgerente de producción convertida en denunciante que se proyectó a las primeras planas mundiales con sus denuncias de que la red social daba prioridad a las ganancias sobre la seguridad online. Tras estas revelaciones, los organismos reguladores se lanzaron a reprimir el discurso de odio y la desinformación.

Nick Clegg, presidente de Meta para asuntos globales, tuiteó que la empresa pidió una revista del sistema “para que podamos continuar con nuestro trabajo para mejorar el programa”.

Para responder plenamente a las recomendaciones de la junta, “hemos acordado responder en 90 días”, acotó.

La empresa dijo que el objetivo de “XCheck”, que se aplica a Facebook e Instagram, era prevenir el “abuso de vigilancia”, o sea el retiro de textos por creer equivocadamente que violaba las normas de la plataforma.

El informe de la junta supervisora dice que, como resultado del sistema de verificación cruzada, había desigualdad en el trato a los usuarios y demoras en eliminar contenido que violaba las normas porque estaba sometido a cinco verificaciones. Las decisiones tardaban en promedio más de cinco días.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in