Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Facebook afirma que es “increíblemente proactivo” a la hora de eliminar contenido dañino a pesar de la oleada de escándalos masivos

Muchas declaraciones de Antigone Davis, el director global de seguridad de la empresa, contrastan con los informes basados en los documentos internos de Facebook

Adam Smith
Jueves, 28 de octubre de 2021 13:27 EDT
¿Por qué deberían importarte los ‘Facebook Papers’?
Read in English

Facebook ha afirmado que es "increíblemente proactivo" en la eliminación de contenido cuando proporciona pruebas al Parlamento hoy, en medio de la avalancha de historias negativas que se descubren debido a los denunciantes.

Antigone Davis, jefe global de seguridad de la compañía, afirmó que Facebook no solo era "receptivo" con respecto a eliminar publicaciones, sino que buscaba activamente contenido problemático.

Davis dio la respuesta cuando se le preguntó sobre la amenaza de Apple de eliminar Facebook e Instagram de los iPhones después de descubrir que la trata de personas estaba organizada en sus aplicaciones. Facebook también está luchando por identificar y eliminar los cárteles de tráfico con sede en México, incluidas imágenes violentas y materiales de reclutamiento.

“La mayoría de las cosas que se nos informan se gestionan en 48 horas”, afirmó Davis. "Nuestra IA (inteligencia artificial) no es perfecta, es algo que siempre buscamos mejorar".

El comité, que está solicitando pruebas para desarrollar una legislación de seguridad en línea, que obligaría a las empresas de redes sociales a regular el contenido "legal pero dañino".

Davis también dijo que Facebook "no tiene ningún incentivo comercial, para proporcionar realmente a las personas una experiencia negativa" y dijo que "tres millones de empresas en el Reino Unido utilizan nuestra plataforma para hacer crecer sus negocios. Si no están seguros, si no se sienten seguros, no van a utilizar nuestra plataforma”.

Esta declaración contrasta con el audio filtrado de Mark Zuckerberg, quien dijo que esperaba que los anunciantes estuvieran en la plataforma "lo suficientemente pronto" y que no "cambiaría nuestras políticas” ni abordaría nada debido a una amenaza para un pequeño porcentaje de nuestros ingresos o cualquier porcentaje de nuestros ingresos ”después de un boicot por parte de los anunciantes debido a la cantidad de contenido racista en Facebook”.

Con respecto al algoritmo de Facebook y el intento de insurrección del 6 de enero, Davis afirmó que la compañía tomó "medidas serias para abordar esos problemas mucho antes del 6 de enero".

Leer Más: Marjorie Taylor Greene defiende ‘motín’ del 6 de enero

Sin embargo, esas medidas han sido criticadas repetidamente por no abordar plenamente el contenido extremista que estaba disponible en la plataforma.

Los informes han sugerido, por ejemplo, que Facebook fue alertado sobre un grupo de “Stop the Steal” el 3 de noviembre, el día de las elecciones estadounidenses , cuando fue "marcado para escalada porque contenía altos niveles de odio y violencia e incitación (VNI) en los comentarios”. Dos días después, el grupo había crecido a más de 300 mil miembros.

Zuckerberg, director ejecutivo de Facebook, dijo más tarde al Congreso que la empresa, "hizo que nuestros servicios fueran inhóspitos para aquellos que podrían hacer daño".

Cuando se le preguntó si Facebook cambió el algoritmo después del evento del 6 de enero, Davis no dio una respuesta clara.

Davis también se le preguntó por qué, cuando Facebook puede identificar contenido dañino, sus algoritmos continúan promocionándolo. Respondió que la empresa “trata de contenidos remotos que, por ejemplo, son divisivos o polarizadores”.

En mayo de 2020, se informó que los ejecutivos de Facebook tomaron la decisión de poner fin a la investigación que haría que el sitio de redes sociales, se polarizara menos por los temores de que se dirigiera injustamente a los usuarios de derecha. Las propuestas para hacer que el sitio sea menos polarizante se describieron como "anti-crecimiento" y requirieron "una postura moral".

"Nuestros algoritmos explotan la atracción del cerebro humano por la división", advirtió una presentación de 2018.

Davis también dijo a los parlamentarios, que Facebook estaba "comprometido a brindar más transparencia y que había tomado medidas para hacerlo".

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in