La nueva compañía de Google.

Ex empleado de YouTube demanda a la plataforma por ‘no proteger a sus trabajadores’

El demandante alega que la alta rotación de empleados ha dejado a la plataforma 'escasa de personal'.

James Crump@thejamescrump
martes 22 septiembre 2020 22:33
Read in English

Un ex moderador de contenido de YouTube demandó a la plataforma de videos y la acusó de no proteger a los empleados cuyo trabajo es eliminar los videos violentos publicados en el sitio.

En la demanda que se presentó el lunes, el demandante, a quien se hace referencia como "Jane Doe" en todo el documento, afirmó que debían ver videos de asesinatos, violaciones de menores, abortos y suicidios, durante el tiempo que trabajaban para YouTube.

El demandante trabajó para el sitio como moderador de contenido para la firma contratista Collabera de 2018 a 2019 y dijo que experimentaron pesadillas y desarrollaron un miedo a los lugares abarrotados, debido al contenido que se vieron obligados a ver, según CNBC .

La demanda afirma que los entrenadores de bienestar de YouTube no estaban disponibles para los empleados que trabajaban por la noche y no tenían licencia para dar consejos médicos a los del turno de día.

Los moderadores también se vieron obligados a pagar su propio tratamiento médico cuando buscaron ayuda profesional para procesar lo que veían durante sus horas de trabajo, según la demanda.

El demandante afirmó que la mayoría de los moderadores de contenido solo permanecen en el puesto durante un año o menos, debido a la naturaleza del trabajo, y dijo que esto deja a la empresa "escasa de personal".

Esto ha llevado a una cultura de horas extras y ha provocado que muchos moderadores excedan el límite diario de cuatro horas de YouTube para ver contenido para revisión, que está diseñado para proteger a los empleados, según CNBC.

También se espera que los moderadores tengan una "tasa de error" de entre dos y cinco por ciento, en las 100 a 300 piezas de contenido que revisan diariamente, afirma la demanda.

YouTube, que es propiedad de Google, supuestamente también decide si los moderadores ven el contenido que está borroso y por cuánto tiempo tienen que mirarlo como parte de su proceso de revisión, lo que significa que los empleados a menudo no saben qué tendrán que mirar.

El bufete de abogados Joseph Saveri, que representa al demandante, presentó una demanda similar contra Facebook a principios de año, lo que resultó en que el sitio de redes sociales pagara 52 millones de dólares (40,8 millones de dólares) a los moderadores en mayo.

Recientemente, YouTube volvió a utilizar moderadores humanos, después de que programara inteligencia artificial para que revisara el contenido de su sitio a principios de año, ya que 10,000 empleados no pudieron trabajar en la oficina debido a los cierres forzados por la pandemia de coronavirus .

El sistema de inteligencia artificial estaba programado para ser cauteloso, lo que llevó a que el contenido que estaba cerca de romper las reglas de YouTube fuera eliminado del sitio.

Esto llevó a que se eliminara del sitio el doble de la cantidad normal de videos entre abril y junio, a pesar de que una cantidad significativa de ellos no violaba las reglas de YouTube, según el Search Engine Journal.

Se eliminaron más de 11 millones de videos de YouTube entre abril y junio, mientras que al menos 160,000 se restablecieron después de que los creadores apelaron y algunos moderadores de contenido humano volvieron a revisar el contenido.