La memoria histórica selectiva de las redes sociales es una cuestión de derechos humanos
Los algoritmos se utilizan para eliminar contenido peligroso, pero necesitamos esta evidencia para hacer que las personas rindan cuentas por sus delitos
Hace 75 años, los fiscales de los juicios de Nuremberg, que siguieron a la Segunda Guerra Mundial, hicieron historia de una manera inesperada. Pidieron al tribunal ingresar en el expediente una nueva forma de prueba para documentar las violaciones de derechos humanos: una película.
Durante más de una hora se reprodujeron imágenes horribles de los campos de concentración nazis, que se tomaron mientras los aliados los liberaban. Cuando la luz rebotó en la pantalla y aterrizó sobre los acusados, los encontró desconcertados. Estos hombres, que una vez fueron los miembros más temidos del régimen nazi, se vieron reducidos a balbuceos, temblores y lágrimas. La película dejó a todos en la corte atónitos.
La decisión de los fiscales de alejarse del testimonio de testigos y priorizar la documentación en bruto para probar las atrocidades no fue obvia. Pero estaba lleno de sabiduría y tenía la intención de resistir la prueba del tiempo.
Hoy, cuando vemos el video de ocho minutos y 46 segundos de los últimos momentos horribles de George Floyd en la tierra, o una turba enojada que asalta el Capitolio de los Estados Unidos, exigimos de manera reflexiva la rendición de cuentas. Para llegar allí, todos caminamos por un camino despejado por los fiscales en Nuremberg.
Para conectar estos momentos clave de la historia, le envié un correo electrónico a Ben Ferencz, el último fiscal superviviente de Nuremberg, para conocer sus pensamientos sobre cómo se comparan los videos digitales con su uso de la película en esa sala de audiencias sagrada. "Son igualmente estimulantes", dijo, "y deberían utilizarse con razón para buscar justicia para las víctimas, independientemente de quiénes sean los autores de los crímenes en su contra". Para él, el legado de Nuremberg fue muy claro: "Nadie está por encima de la ley y los ojos del mundo están mirando".
El sentido de determinación de Ferencz, a la temprana edad de 100 años, es conmovedor. Sin embargo, descubrí que la certeza de su correo electrónico se disipó lentamente cuando abrí una nueva pestaña y regresé al pantano de Internet.
Incluso cuando Internet y los teléfonos inteligentes han expandido nuestro poder colectivo para capturar, almacenar y compartir información, la responsabilidad en nuestra era digital a menudo está fuera de nuestro alcance porque nuestra fe en la confiabilidad de los medios digitales está rota.
La confianza en los medios en línea sigue cayendo en picada. Imágenes irrefutables de ataques con armas químicas en Idlib, Siria, detenciones masivas en las calles de Minsk, Bielorrusia, brutalidad policial de los manifestantes Black Lives Matter en todo Estados Unidos, están abrumadas por hashtags y publicaciones que ponen en duda su veracidad. Los contrarios de hoy alegan que estas imágenes son engaños, producto de noticias falsas o grandes conspiraciones.
Los directores ejecutivos de las principales plataformas, Facebook, Twitter y Google, han sido convocados ante el Congreso dos veces en los últimos tres meses para explicar qué han hecho para tomar medidas y combatir la desinformación y desinformación con moderación de contenido. Al intentar moderar el contenido peligroso, gran parte del cual es antisemita, racista o lleno de discursos de odio, las plataformas de hoy están haciendo un trabajo crítico y, a primera vista, parecen ser las abanderadas de las lecciones más duraderas de Nuremberg.
Sin embargo, esa es una historia demasiado ordenada.
En realidad, la moderación del contenido es complicada y está llena de desafíos intratables. Estas complejidades plantean la pregunta: ¿deberíamos querer que el contenido sea moderado por una sola autoridad centralizada? Especialmente cuando uno considera sus métodos. Para lidiar con la escala del problema, las plataformas que a menudo son demasiado directas para la tarea en cuestión están implementando herramientas de moderación automatizadas. Cometen errores. Y con la pandemia de coronavirus despejando las oficinas, las principales plataformas han advertido a los usuarios que las eliminaciones automatizadas sólo aumentarían, y también los errores.
Destacadas organizaciones de derechos humanos han hecho sonar la alarma de que los derribos algorítmicos dieron como resultado la destrucción total de pruebas clave de abusos contra los derechos humanos y crímenes internacionales. Human Rights Watch señaló que en 2020 casi el 11 por ciento del contenido de las redes sociales que citó como evidencia clave en su trabajo fue eliminado por algoritmos. Grupos desde Syrian Archive hasta Amnistía Internacional y Witness han informado de niveles sin precedentes de eliminación de contenido. Los activistas de Black Lives Matter informan que sus cuentas continúan siendo eliminadas o silenciadas sin previo aviso ni explicación.
Una cosa es limitar la difusión de contenido violento y peligroso a millones de personas. Sin embargo, es algo muy diferente prohibir a los miembros de la sociedad civil que preserven y analicen los datos de manera responsable para proteger los derechos humanos y promover la rendición de cuentas.
La protección y la preservación no tienen por qué ser objetivos en competencia. Pero por miedo a la competencia, las grandes plataformas tecnológicas las han vuelto incompatibles. Las plataformas preferirían que la sociedad civil espere en su lobby para pedir permiso para acceder a contenido de dominio público, en lugar de arriesgarse a que políticas más abiertas permitan a los competidores aprovechar los datos de los usuarios de las plataformas y competir con ellos.
El problema para los activistas de derechos humanos comienza en el momento en que los usuarios hacen clic en el botón banal "Acepto" para aceptar los términos y condiciones de la plataforma. Enterradas dentro de algunos de sus contratos interminables hay cláusulas que obligan a los usuarios a renunciar a las doctrinas de uso justo (y sentido común) a nivel federal de los Estados Unidos y hacen que sea ilegal descargar contenido y preservarlo en archivos privados para su custodia.
La Corte Suprema escuchó argumentos en noviembre pasado que desafían la validez de este tipo de políticas y probablemente escuche otro caso clave más adelante este año para tomar una determinación final si las herramientas de archivo y scraping violan la Ley de Abuso y Fraude Informático.
Hasta entonces, según la lectura más estricta de la ley, las ONG y las organizaciones de derechos humanos que intentan seguir el ejemplo de Nuremberg y preservar la evidencia de violaciones de derechos humanos son, en el mejor de los casos, vigilantes y, en el peor, delincuentes.
La verdadera responsabilidad va más allá de la moderación del contenido.
Requiere un nivel de matices y experiencia para proteger la seguridad y la dignidad de los usuarios que no podemos permitirnos confiar sólo a las plataformas. Los expertos en derechos humanos han ofrecido muchas propuestas sofisticadas para lograrlo, pero, en todos los casos, estas soluciones aún requieren plataformas de redes sociales que permitan a los expertos hacer su trabajo.
Sin embargo, durante la última década, un número creciente de tecnólogos ha abandonado los enfoques incrementales para resolver el problema de la hegemonía de las grandes tecnologías, al apoyar plataformas alternativas que cambian el equilibrio de poder para descentralizar Internet. Juntos, estos nuevos protocolos y plataformas a menudo se denominan Web3.
En el Starling Lab que dirijo en la USC Shoah Foundation y el Departamento de Ingeniería Eléctrica de Stanford, hemos evaluado e implementado una gama de tecnologías descentralizadas para ayudar a restaurar la confianza en nuestros medios digitales y promover la causa de los derechos humanos.
Hemos encontrado muchas soluciones viables y hemos llegado a importantes innovaciones a través de avances en criptografía distribuida. La última generación de tecnología Web3 promete que a medida que descentraliza la información, también la hace más segura y confiable.
Por ejemplo, soluciones como el protocolo Filecoin recientemente lanzado, que fue desarrollado con contribuciones de nuestros profesores y exalumnos, permite a los usuarios aprovechar los sistemas informáticos distribuidos que permiten a millones de usuarios ayudar a sellar archivos y preservar su integridad. Cuantas más personas se unan a la red y contribuyan con su potencia informática, más fuerte se vuelve el sello.
Considere un mundo en el que los defensores de los derechos humanos cargan pruebas en una red de almacenamiento distribuida segura, protegen sus archivos haciendo copias de ellos en millones de teléfonos móviles y permiten que investigadores calificados ayuden a verificar la validez de sus contenidos con diferentes puntos de vista y experiencia. Juntos, estos esfuerzos crean una red de confianza a la que los usuarios finales pueden hacer referencia para llegar a sus propias conclusiones. Así será el activismo, el trabajo de archivo histórico, la moderación de contenido y la responsabilidad en el siglo XXI.
Al descentralizar el poder, garantiza que incluso los movimientos de derechos civiles incipientes tengan la oportunidad de rastrear y proteger la información que necesitan para defender a la sociedad para comprender los delitos que menos se comprenden.
Nuremberg enseña que el camino hacia la responsabilidad comienza con la preservación de los registros primarios de la historia con un sentido del deber de cuidado. Internet nos brinda un poder de documentación incomparable y los medios para transmitir información de forma segura a los activistas y expertos que pueden actuar en consecuencia. La pregunta es si nos hacemos responsables de asegurarnos de que puedan hacerlo.
Al hacerlo, no absolvemos ni excusamos a la gran tecnología por sus fallas, sino que buscamos la responsabilidad para renovar nuestra confianza en Internet. Web3 nos ofrece herramientas y métodos para hacer precisamente eso. Lo que está en juego nunca ha sido tan grande.
Y como nos recuerda Ferencz: "los ojos del mundo están mirando".
Jonathan Dotan es miembro de la Universidad de Stanford. Es el director y cofundador del Starling Lab for Data Integrity, con sede en la USC Shoah Foundation y el Departamento de Ingeniería Eléctrica de Stanford.