Por qué 2026 podría ser el año más peligroso en internet
Ciberataques sin precedentes, malware casi indetectable y deepfakes capaces de imitar a seres queridos. Anthony Cuthbertson analiza cómo la IA impulsa las estafas y los ataques digitales en 2026


A principios de 2026, investigadores de ciberseguridad de Google detectaron una nueva y preocupante táctica dentro del mundo del cibercrimen. Según el informe, los hackers empezaron a combinar varias herramientas de inteligencia artificial para crear trampas digitales casi imposibles de detectar.
Los ataques utilizaron la herramienta Gemini AI de Google para desarrollar programas maliciosos, recopilar información y apoyar las tareas de reconocimiento. Después, los delincuentes recurrieron a deepfakes generados con inteligencia artificial para engañar a las víctimas mediante falsas llamadas de Zoom. En uno de los casos, un grupo vinculado a Corea del Norte usó un deepfake de un conocido director ejecutivo para convencer a la víctima y lograr que comprometiera la seguridad de su computadora.
Este método forma parte de una nueva ola de delitos en línea impulsados por la inteligencia artificial. Como resultado, los ciberataques, las estafas digitales y las pérdidas financieras alcanzan niveles récord.
Además, la tecnología está transformando habilidades que antes dependían exclusivamente de las personas. Tareas como persuadir, imitar voces o escribir código ahora pueden automatizarse con herramientas de IA que operan bajo demanda y se adaptan a cualquier objetivo.
Por eso, algunos expertos hablan ya de una “quinta ola” de ciberdelincuencia, un fenómeno que provoca pérdidas millonarias para empresas y particulares, y que también aumenta los riesgos de seguridad en internet.
Ingeniería social impulsada por IA
Los ataques de ingeniería social, como el phishing, una técnica con la que los delincuentes engañan a las personas para robar datos confidenciales o dinero, existen desde hace décadas. Sin embargo, la aparición de herramientas de inteligencia artificial generativa cambió el panorama. Ahora los atacantes pueden crear estafas mucho más personalizadas y convincentes, capaces de imitar a amigos, familiares o compañeros de trabajo de la víctima con una precisión inédita.
Estas estafas pueden presentarse de varias formas. En algunos casos llegan como correos electrónicos extremadamente realistas; en otros, como llamadas con voces sintéticas. También pueden incluir personajes creados con deepfakes que aparecen en videollamadas para reforzar el engaño.
“La ingeniería social impulsada por IA es alarmantemente efectiva”, afirmó Brian Sibley, director de tecnología de la consultora informática Espria, en declaraciones a The Independent.
“Los atacantes ahora pueden hacerse pasar por colegas, proveedores o ejecutivos con una precisión casi perfecta. Por eso, la única defensa eficaz consiste en vigilar el comportamiento de forma constante y detectar las señales sutiles que indican que algo no está bien”, explicó.
Un informe publicado en enero por la empresa de ciberseguridad Group-IB también reveló otro dato preocupante. Según la investigación, los ciberdelincuentes pueden comprar kits de phishing en la web oscura por un precio similar al de una suscripción a Netflix. Estos llamados “kits de identidad sintética” incluyen actores de video generados con inteligencia artificial, voces clonadas e incluso conjuntos de datos biométricos.
“Desde la primera línea de la ciberdelincuencia, la IA está dando a los delincuentes un alcance sin precedentes”, señaló Dmitry Volkov, director ejecutivo de Group-IB. “Esta tecnología les permite ampliar sus estafas con facilidad y crear niveles de hiperpersonalización e ingeniería social que antes no existían”.
Estafas de “despiece de cerdos”
Una de las formas en que la inteligencia artificial está acelerando los ataques de ingeniería social son las llamadas estafas de manipulación emocional. En estos casos, los delincuentes pasan semanas o incluso meses construyendo una relación con la víctima.
Este proceso se conoce como “engordar al cerdo”. Durante ese tiempo, el estafador gana la confianza de la persona y reduce su nivel de sospecha. Luego aparece una supuesta oportunidad de inversión. En ese momento, el delincuente “sacrifica” al cerdo: desaparece con el dinero.
La llegada de la IA generativa transformó este tipo de fraude. Lo que antes era un engaño relativamente poco común ahora se convirtió en una de las estrategias más usadas por los estafadores. Por lo general, el primer contacto ocurre a través de aplicaciones de mensajería, redes sociales o sitios de citas. Después, los delincuentes utilizan herramientas como ChatGPT para sostener conversaciones y fortalecer la relación con la víctima.
Además, otras tecnologías basadas en inteligencia artificial —como el intercambio de rostros o los deepfakes— también facilitan el engaño. Con estas herramientas, los estafadores pueden hacer creer a la víctima que habla con una persona real o con un supuesto interés amoroso.
Los investigadores también detectaron que organizaciones criminales del sudeste asiático utilizan estas técnicas a gran escala. Gracias a la inteligencia artificial, pueden dirigirse a víctimas en distintos países sin que el idioma o las habilidades técnicas representen un obstáculo.
Malware autónomo
Los ciberdelincuentes también encontraron una nueva forma de aprovechar la inteligencia artificial para propagar malware, es decir, software malicioso diseñado para robar datos o dañar sistemas informáticos.
Este nuevo tipo de malware utiliza modelos de lenguaje avanzados (LLM), como Gemini de Google, para modificar su propio código mientras se propaga. Como resultado, el programa cambia constantemente y se vuelve mucho más difícil de detectar para los antivirus tradicionales.
En un informe de inteligencia sobre amenazas publicado en noviembre, investigadores de Google describieron este fenómeno como “una nueva fase operativa del abuso de la IA”. Según explicaron, estas herramientas pueden alterar su comportamiento de forma dinámica mientras se ejecutan.
El informe también menciona nuevas amenazas de malware autónomo, como Promptflux. Este programa incorpora una función similar a un “robot pensante”, que permite a la inteligencia artificial reescribir el código fuente del malware de forma periódica para evitar los sistemas de detección.
“Es probable que Promptflux todavía esté en una fase de investigación y desarrollo”, señalaron los investigadores. “Sin embargo, este tipo de técnica de ofuscación es un indicio temprano de cómo los actores maliciosos podrían reforzar sus campañas con inteligencia artificial en el futuro”.
La quinta ola de ciberdelincuencia
Los ciberdelincuentes incorporaron con rapidez herramientas de inteligencia artificial a sus operaciones. Como consecuencia, quienes intentan defenderse de estos ataques enfrentan una desventaja cada vez mayor.
Un estudio de la empresa de ciberseguridad Vectra AI revela la magnitud del problema. Según el informe, las estafas impulsadas por inteligencia artificial aumentaron un 1200 % en 2025 y todo indica que la tendencia continuará en 2026. Además, las proyecciones señalan que, para 2027, las pérdidas por fraudes basados en IA podrían alcanzar los 40.000 millones de dólares. En 2024, esa cifra se situó en 16.600 millones.
Craig Jones, exdirector de la división de ciberdelincuencia de Interpol, advirtió que la inteligencia artificial multiplicó la velocidad, la escala y la sofisticación con las que operan los delincuentes. Al mismo tiempo, esta tecnología dificulta cada vez más la detección de los ataques y la identificación de sus responsables.
“La IA ha industrializado el cibercrimen”, afirmó Jones. “Este cambio marca una nueva etapa: la velocidad, el volumen de ataques y la suplantación de identidad cada vez más sofisticada han transformado la forma en que se cometen estos delitos y también lo difícil que resulta detenerlos”.
Traducción de Leticia Zampedri
.jpeg?quality=75&width=230&crop=3%3A2%2Csmart&auto=webp)





Bookmark popover
Removed from bookmarks