Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Estafadores se hacen pasar por CEOs y funcionarios de Trump utilizando deepfakes de IA

David Klepper
Lunes, 28 de julio de 2025 10:23 EDT
EEUU-FALSIFICACIONES DIGITALES-IA
EEUU-FALSIFICACIONES DIGITALES-IA (AP)

El teléfono suena. Es el secretario de Estado llamando. ¿O no?

Para los conocedores de Washington, ver y oír ya no es creer, gracias a una serie de incidentes recientes que involucran deepfakes que suplantan a altos funcionarios de la administración del presidente Donald Trump.

Las falsificaciones digitales también están llegando a las empresas de Estados Unidos, ya que bandas criminales y hackers asociados con adversarios como Corea del Norte utilizan videos y audios sintéticos para hacerse pasar por directores de empresas y candidatos a empleos de bajo nivel para acceder a sistemas críticos o secretos empresariales.

Gracias a los avances en inteligencia artificial, crear deepfakes realistas es más fácil que nunca, causando problemas de seguridad para gobiernos, empresas e individuos privados y haciendo que la confianza sea la moneda más valiosa de la era digital.

Responder al desafío requerirá leyes, mejor alfabetización digital y soluciones técnicas que combatan la IA con más IA.

“Como humanos, somos notablemente susceptibles al engaño”, dijo Vijay Balasubramaniyan, CEO y fundador de la empresa tecnológica Pindrop Security. Pero cree que las soluciones al desafío de los deepfakes pueden estar al alcance: “Vamos a contraatacar”.

Los deepfakes de IA se convierten en una amenaza para la seguridad nacional

Este verano, alguien utilizó IA para crear un deepfake del secretario de Estado Marco Rubio en un intento de comunicarse con ministros extranjeros, un senador estadounidense y un gobernador a través de mensajes de texto, correo de voz y la aplicación de mensajería Signal.

En mayo, alguien se hizo pasar por la jefa de despacho de Trump, Susie Wiles.

Otro falso Rubio apareció en un deepfake a principios de este año, diciendo que quería cortar el acceso de Ucrania al servicio de internet Starlink de Elon Musk. El gobierno de Ucrania posteriormente refutó la afirmación falsa.

Las implicaciones para la seguridad nacional son enormes: las personas que piensan que están conversando con Rubio o Wiles, por ejemplo, podrían discutir información sensible sobre negociaciones diplomáticas o estrategia militar.

“Estás tratando de extraer secretos sensibles o información competitiva o estás buscando acceso, a un servidor de correo electrónico u otra red sensible”, dijo Kinny Chan, director general de la firma de ciberseguridad QiD, sobre las posibles motivaciones.

Los medios sintéticos también pueden tener como objetivo alterar el comportamiento. El año pasado, los votantes demócratas en Nueva Hampshire recibieron una llamada automática instándolos a no votar en las próximas primarias del estado. La voz en la llamada sonaba sospechosamente como la del entonces presidente Joe Biden, pero en realidad fue creada usando IA.

Su capacidad para engañar hace que los deepfakes de IA sean un arma potente para actores extranjeros. Tanto Rusia como China han utilizado desinformación y propaganda dirigida a los estadounidenses como una forma de socavar la confianza en las alianzas e instituciones democráticas.

Steven Kramer, el consultor político que admitió haber enviado las llamadas automáticas falsas de Biden, dijo que quería enviar un mensaje sobre los peligros que los deepfakes representan para el sistema político estadounidense. Kramer fue absuelto el mes pasado de los cargos de supresión de votantes y suplantación de un candidato.

“Hice lo que hice por 500 dólares”, dijo Kramer. ”¿Puedes imaginar lo que sucedería si el gobierno chino decidiera hacer esto?”.

Estafadores apuntan a la industria financiera con deepfakes

La mayor disponibilidad y sofisticación de los programas significa que los deepfakes se utilizan cada vez más para espionaje corporativo y fraudes comunes.

“La industria financiera está justo en el punto de mira”, dijo Jennifer Ewbank, exsubdirectora de la CIA que trabajó en ciberseguridad y amenazas digitales. “Incluso personas que se conocen entre sí han sido convencidas de transferir grandes sumas de dinero”.

En el contexto del espionaje corporativo, pueden usarse para hacerse pasar por directores ejecutivos pidiendo a los empleados que entreguen contraseñas o números de ruta.

Los deepfakes también permiten a los estafadores solicitar empleos, e incluso realizarlos, bajo una identidad asumida o falsa. Para algunos, esta es una forma de acceder a redes sensibles, robar secretos o instalar ransomware. Otros solo quieren el trabajo y pueden estar trabajando en varios empleos similares en diferentes empresas al mismo tiempo.

Las autoridades en Estados Unidos han dicho que miles de norcoreanos con habilidades en tecnología de la información han sido enviados a vivir al extranjero, utilizando identidades robadas para obtener empleos en empresas tecnológicas en Estados Unidos y otros lugares. Los trabajadores obtienen acceso a las redes de la empresa, así como un cheque de pago. En algunos casos, los trabajadores instalan ransomware que luego puede usarse para extorsionar aún más dinero.

Los esquemas han generado miles de millones de dólares para el gobierno de Corea del Norte.

Dentro de tres años, se espera que hasta uno de cada cuatro solicitudes de empleo sea falsa, según una investigación de Adaptive Security, una empresa de ciberseguridad.

“Hemos entrado en una era en la que cualquiera con una computadora portátil y acceso a un modelo de código abierto puede hacerse pasar convincentemente por una persona real”, dijo Brian Long, CEO de Adaptive. “Ya no se trata de hackear sistemas, se trata de hackear la confianza”.

Expertos despliegan IA para luchar contra la IA

Investigadores, expertos en políticas públicas y empresas tecnológicas están investigando las mejores formas de abordar los desafíos económicos, políticos y sociales que plantean los deepfakes.

Nuevas regulaciones podrían requerir que las empresas tecnológicas hagan más para identificar, etiquetar y potencialmente eliminar deepfakes en sus plataformas. Los legisladores también podrían imponer mayores sanciones a quienes usen tecnología digital para engañar a otros, si pueden ser atrapados.

Mayores inversiones en alfabetización digital también podrían aumentar la inmunidad de las personas al engaño en línea enseñándoles formas de detectar medios falsos y evitar caer en manos de estafadores.

La mejor herramienta para detectar IA puede ser otro programa de IA, uno entrenado para detectar los pequeños defectos en los deepfakes que pasarían desapercibidos para una persona.

Sistemas como el de Pindrop analizan millones de puntos de datos en el discurso de cualquier persona para identificar rápidamente irregularidades. El sistema puede usarse durante entrevistas de trabajo u otras videoconferencias para detectar si la persona está usando software de clonación de voz, por ejemplo.

Programas similares pueden algún día ser comunes, funcionando en segundo plano mientras las personas conversan con colegas y seres queridos en línea. Algún día, los deepfakes podrían seguir el camino del spam de correo electrónico, un desafío tecnológico que una vez amenazó con trastornar la utilidad del correo electrónico, dijo Balasubramaniyan, director general de Pindrop.

“Puedes adoptar una visión derrotista y decir que vamos a ser subordinados a la desinformación”, dijo. “Pero eso no va a suceder”.

_____

Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in