Actores estatales están detrás de gran parte de la desinformación visual sobre la guerra en Irán

A medida que se extendían los ataques tras el bombardeo de las fuerzas estadounidenses e israelíes a Irán, circuló ampliamente un video en el que una multitud miraba hacia arriba al fuego, el humo y los escombros que salían de la parte superior de un rascacielos que, según se decía, estaba en Bahrein.
Usuarios de redes sociales afirmaron que un ataque de Teherán había alcanzado el edificio. Pero aunque los misiles iraníes golpearon inmuebles en Bahrein durante la guerra de Irán, este video no era real. Fue generado con inteligencia artificial y compartido por cuentas asociadas al gobierno iraní como parte de un esfuerzo para amplificar sus éxitos.
Hay múltiples indicios de que el video no es auténtico, como la presencia de dos autos en el lado izquierdo del clip que parecen estar pegados y un hombre en la esquina inferior derecha cuyo codo parece atravesar una mochila.
Desde el inicio del conflicto el fin de semana pasadao, en internet se han difundido un aluvión de videos falsos o manipulados, impulsado en parte por campañas de propaganda e influencia vinculadas al Estado, especialmente en lo relativo a quién está ganando la guerra y al número de víctimas.
“El contenido que proviene de actores estatales tiende a estar un poco mejor dirigido”, comentó Melanie Smith, directora sénior de políticas e investigación sobre operaciones de información en el Institute for Strategic Dialogue. “Tienen una estructura narrativa muy clara y los videos se usan simplemente para respaldar algún tipo de afirmación que quieren hacer sobre el conflicto y sobre la situación geopolítica en general”.
Cuentas proiraníes en redes sociales han adoptado una narrativa que exagera la destrucción y las víctimas causadas por las fuerzas armadas de Teherán, una postura respaldada por la información difundida por la prensa estatal iraní. Esto ha derivado en una gran cantidad de videos generados por IA de supuestos ataques aéreos, como el del rascacielos de Bahrein en llamas.
Una operación de influencia alineada con Rusia —llamada Operación Overload, Matryoshka o Storm-1679— ha estado publicando videos diseñados para hacerse pasar por agencias de inteligencia y medios de comunicación, socavando la sensación de seguridad de la población en un esfuerzo por modificar su comportamiento, una táctica que la red ya empleó en ciclos electorales previos. Por ejemplo, compartió un aviso atribuido falsamente a la inteligencia israelí en el que se pedía a israelíes en Alemania y en Estados Unidos que tuvieran cuidado en espacios públicos o que no salieran de sus casas.
La censura iraní confunde aún más las cosas
Los videos tergiversados y fabricados han sido una característica clave de otros conflictos recientes, como las guerras entre Rusia y Ucrania e Israel y Hamás, pero los expertos señalan que una diferencia importante ahora es la falta de información de la población iraní debido a los cortes de internet y a la censura generalizada, una pérdida de perspectiva que podría haber jugado tanto a favor como en contra del gobierno de Teherán.
“En Ucrania, ese mensaje fue tan contundente que realmente cambió toda la dinámica del conflicto porque el mundo se alineó con la perspectiva de los ucranianos que enfrentaban los ataques y mostraban resiliencia ante ellos, pero de Irán nos está faltando ese relato", dijo Todd Helmus, científico conductual sénior en RAND que estudia la guerra irregular, el terrorismo y las operaciones de información.
Para lograr clics, usuarios oportunistas de redes sociales no afiliados a actores estatales también han contribuido en gran medida a la desinformación que se ha propagado durante los primeros días de la guerra de Irán, al presentar imágenes antiguas de otros conflictos como si fueran recientes, compartir clips de videojuegos como si fueran imágenes reales y publicar su propio contenido generado por IA.
La IA, en particular, ha ayudado a alimentar la desinformación de maneras que no eran posibles en conflictos anteriores, incluso hace apenas unos años. Esto, junto a la desinformación vinculada al Estado y a la censura, crea un vacío aún mayor en el que la verdad puede perderse.
“El volumen de contenido de IA está empezando a contaminar el entorno informativo en este tipo de escenarios de crisis a un grado realmente aterrador”, advirtió Smith, añadiendo que cada vez es más difícil “acceder a información verificada y creíble en momentos como este”.
Nikita Bier, jefe de producto de X, escribió en una publicación el martes que la plataforma suspenderá a usuarios de su programa remunerado si publican contenido generado por IA de un conflicto armado sin la debida divulgación. Las suspensiones serán de 90 días por una primera infracción, y permanentes a partir de entonces.
Emerson Brooking, director de estrategia e investigador sénior residente en el Digital Forensic Research Lab del Atlantic Council, advierte que las plataformas de redes sociales son ahora frentes de guerra, y que los usuarios deben ser conscientes de su potencial para ser utilizados por actores estatales, aunque se encuentran a miles de kilómetros (millas) de la acción.
“Si estás en estos espacios, entiende que esto es simplemente una extensión del campo de batalla físico”, apuntó. “Que hay actores en todos los bandos del conflicto que están intentando activamente difundir propaganda y desinformación para convencerte de que ciertas cosas son verdaderas cuando no lo son. Que tus ojos y tu atención son un activo”.
___
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.






Bookmark popover
Removed from bookmarks