El hallazgo sigue a un estudio interno de información errónea sobre vacunas compartida por los usuarios de Facebook, que fue visto por elWashington Post.

Facebook encuentra 111 cuentas responsables de la mayoría del contenido antivacunas

Un informe interno muestra que los investigadores se preocupan por el daño “sustancial” causado por la llamada “zona gris” por la desinformación de las vacunas

Gino Spocchia
miércoles 17 marzo 2021 22:11
Read in English

Facebook ha encontrado 111 cuentas responsables de la mayoría del contenido antivacunas que se encuentra en redes sociales.

El hallazgo sigue a un estudio interno de información errónea sobre vacunas compartida por los usuarios de Facebook, que fue visto por el Washington Post.

Si bien las declaraciones falsas sobre las vacunas ya están prohibidas, miles de piezas de contenido se describieron como en un "área gris" para los algoritmos y moderadores.

Las 111 cuentas responsables del contenido antivacunas no se mencionaron en el informe, según el Post, y se encontraron colocando a los usuarios estadounidenses de la empresa en 638 "segmentos de población" o grupos.

Facebook no identificó qué usuarios estaban en los grupos, o el razonamiento de sus categorizaciones, aunque se dijo que tenían alrededor de 3 millones de tamaño.

De esos segmentos, se encontró que tan solo 10 grupos contenían el 50 por ciento de todo el contenido anti-vacunas en la plataforma; de lo contrario, se clasificaron como publicaciones con "vacilación de vacunas" o "VH".

Leer más: Inician investigación tras la muerte de una mujer española por una hemorragia cerebral tras recibir la vacuna AstraZeneca

Y en el segmento con más contenido anti-vacunas, solo 111 usuarios fueron responsables de la mitad de todo el contenido de vacunas que se encuentra en Facebook.

No estaba claro si Facebook tomó medidas contra las 111 cuentas identificadas por compartir "vacilación por las vacunas", a pesar de que la empresa encontró una conexión con la conspiración de QAnon.

Según el Post , los investigadores de Facebook escribieron que "Es posible que QAnon esté conectado causalmente con la vacilación de las vacunas", y también se muestra desconfianza hacia la autoridad en la comunidad en línea de QAnon.

Según los informes, los investigadores también estaban preocupados de que el contenido "VH", aunque el algoritmo de Facebook no encontró que infringiera las reglas, podría ser perjudicial para ciertos grupos de personas.

“Si bien la investigación es muy temprana, nos preocupa que el daño causado por el contenido que no viola pueda ser sustancial”, dijo el estudio de Facebook.

Recientemente criticado por permitir que se compartieran afirmaciones falsas sobre el coronavirus en su sitio, el año pasado se descubrió que Facebook había jugado un papel en la difusión de un documental lleno de información errónea llamado “Plandemic”.

Facebook dice que ha eliminado tanto la desinformación de vacunas como el contenido relacionado con la conspiración de QAnon luego de la aprobación de varias vacunas en el Reino Unido y Estados Unidos, y el asalto al Capitolio de los Estados Unidos, en los últimos meses.

En un comunicado, un portavoz de Facebook dijo a The Independent que "desde el inicio de la pandemia, nos hemos asociado con más de 60 expertos en salud global y hemos estudiado contenido relacionado con COVID-19, incluidas vacunas y desinformación, para fundamentar nuestras políticas".

"Estudiamos de forma rutinaria aspectos como la votación, los prejuicios, el discurso de incitación al odio, la desnudez y coronavius, para comprender las tendencias emergentes y poder construir, perfeccionar y medir nuestros productos".

El portavoz agregó que la investigación también podría "ayudar a informar nuestros esfuerzos" para eliminar las afirmaciones falsas compartidas en el sitio.