Apple casi retira a Facebook e Instagram de los iPhones tras descubrir venta de mujeres en sus aplicaciones

Los enlaces a sitios de venta de trabajadoras domésticas estaban predominantemente en Facebook

Adam Smith
martes 26 octubre 2021 16:57

Informes: Facebook cambiará de nombre a medida que el enfoque cambia a “Metaverso”

Read in English

Apple amenazó con retirar Facebook e Instagram de sus tiendas de aplicaciones, después de que se descubriera que las aplicaciones del gigante de las redes sociales se usaban para vender trabajadoras domésticas en Filipinas.

Los documentos internos, presuntamente vistos por Associated Press, muestran que Facebook estaba "haciendo cumplir sus normas sobre actividades abusivas confirmadas".

La investigación de Facebook sobre su plataforma encontró que "las trabajadoras del hogar frecuentemente se quejaban a sus agencias de contratación de ser encerradas en sus casas, pasar hambre, obligadas a extender sus contratos indefinidamente, no remuneradas y vendidas repetidamente a otros empleadores sin su consentimiento". Pero "en respuesta , las agencias comúnmente les decían que fueran más accesibles".

También encontró que las agencias de contratación descartaban "delitos más graves, como agresión física o sexual, en lugar de ayudar a las trabajadoras domésticas".

Apple no respondió a una solicitud de comentarios de The Independent antes del momento de la publicación, pero un análisis interno de Facebook declaró que la eliminación de sus aplicaciones "de las plataformas de Apple tendría... consecuencias potencialmente graves para la empresa, incluida la privación del acceso de millones de usuarios".

Facebook descubrió que tres cuartas partes de todas las publicaciones problemáticas ocurrieron en Instagram, mientras que los enlaces a sitios de venta de trabajadoras domésticas estaban predominantemente en Facebook. Más del 60% del material era de Arabia Saudita y una cuarta parte de Egipto, según un análisis realizado por Facebook en 2019.

Eventualmente deshabilitó más de mil cuentas pero, lo que es preocupante, los usuarios solo informaron el 2% del contenido problemático. Facebook ha sido criticado en el pasado por no ser lo suficientemente proactivo con sus políticas de moderación y cumplimiento, y en su lugar confiar en su base de usuarios para resaltar los problemas. Facebook reconoció en su informe que "el contenido de trabajadoras domésticas permaneció en la plataforma".

Aparentemente, estaba al tanto del problema desde 2018 con lo que la empresa consideraba "servidumbre doméstica", definida como "una forma de trata de personas con el propósito de trabajar dentro de hogares privados mediante el uso de la fuerza, el fraude, la coacción o el engaño", hasta tal punto que Facebook tenía sus propias siglas (”HEx” o “explotación humana”).

Leer más: Facebook tendrá nuevo nombre, según informe

Según los informes, los documentos de Facebook sugirieron un programa piloto que comenzaría este año para apuntar a las filipinas con mensajes emergentes y anuncios que advirtieran sobre los peligros de trabajar a nivel internacional. No está claro si el programa comenzó alguna vez.

Facebook no brindó comentarios a The Independent antes de la publicación, pero dijo a Associated Press: “Prohibimos la explotación humana en términos inequívocos. Hemos estado combatiendo la trata de personas en nuestra plataforma durante muchos años y nuestro objetivo sigue siendo evitar que cualquiera que busque explotar a otros tenga un hogar en nuestra plataforma".

Esta noticia se produce en medio de una serie de escándalos sobre los que se informa, como resultado de que la denunciante Frances Haugen proporcionó una colección de documentos, conocida coloquialmente como “Archivos de Facebook”, al Wall Street Journal.

Recientemente, Haugen prestó testimonio ante una comisión parlamentaria en la que acusó a Facebook de anteponer las ganancias a sus usuarios y de carecer del apoyo de un moderador en numerosos países, con el riesgo de que se produzcan disturbios similares a los que hubo en Estados Unidos el 6 de enero.

En comparación con países como Brasil, India y Estados Unidos, que estaban en un nivel cero de alta prioridad y fueron monitoreados continuamente, Myanmar, Pakistán y Etiopía carecían de clasificadores de información errónea a pesar de estar designados como de mayor riesgo.

Register for free to continue reading

Registration is a free and easy way to support our truly independent journalism

By registering, you will also enjoy limited access to Premium articles, exclusive newsletters, commenting, and virtual events with our leading journalists

Please enter a valid email
Please enter a valid email
Must be at least 6 characters, include an upper and lower case character and a number
Must be at least 6 characters, include an upper and lower case character and a number
Must be at least 6 characters, include an upper and lower case character and a number
Please enter your first name
Special characters aren’t allowed
Please enter a name between 1 and 40 characters
Please enter your last name
Special characters aren’t allowed
Please enter a name between 1 and 40 characters
You must be over 18 years old to register
You must be over 18 years old to register
Opt-out-policy
You can opt-out at any time by signing in to your account to manage your preferences. Each email has a link to unsubscribe.

Already have an account? sign in

By clicking ‘Register’ you confirm that your data has been entered correctly and you have read and agree to our Terms of use, Cookie policy and Privacy notice.

This site is protected by reCAPTCHA and the Google Privacy policy and Terms of service apply.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged in