/ news / LA_ERA_DE_LA_ARMAMENTIZACIÓN:_CUANDO_LA_IA_SE_CONVIERTE_EN_UN_ARMA_CIBERNÉTICA

La era de la armamentización: cuando la IA se convierte en un arma cibernética

Published on October 15, 2025

El panorama de la ciberseguridad ha entrado en una nueva fase peligrosa. La inteligencia artificial, que alguna vez se presentó como nuestro protector digital, se ha convertido en un arma de doble filo — fortaleciendo nuestras defensas mientras dota a los ciberdelincuentes de capacidades sin precedentes.

Los números no mienten

Las estadísticas ofrecen un panorama sobrio de nuestra realidad actual. Los ciberataques impulsados por IA aumentaron un 47% a nivel mundial en 2025, mientras que el 68% de los analistas de amenazas cibernéticas informa que los intentos de phishing generados por IA ahora son más difíciles de detectar. Quizás lo más alarmante: el 87% de las organizaciones globales enfrentó ciberataques impulsados por IA en el último año, y el costo promedio de una violación de datos impulsada por IA alcanzó $5.72 millones.

Estas no son amenazas lejanas — están ocurriendo ahora. Se proyecta que en 2025, los ciberataques impulsados por IA a nivel global superarán los 28 millones de incidentes, con el 14% de las principales violaciones corporativas siendo completamente autónomas, sin requerir intervención humana una vez iniciada la agresión por la IA.

De la ciencia ficción a la realidad

Lo que hace que esta era sea particularmente peligrosa es cómo la IA ha democratizado la guerra cibernética sofisticada. Los ataques tradicionales requerían conocimientos especializados e importantes inversiones de tiempo. Hoy, el 82,6% de los correos electrónicos de phishing utiliza tecnología de IA en alguna forma, y estos mensajes elaborados por IA logran una tasa de apertura del 78% — un índice de éxito que aterrorizaria a los profesionales de la seguridad.

La armamentización se extiende mucho más allá del simple phishing. El 41% de las familias de ransomware ahora incluye componentes de IA para la entrega adaptativa de cargas útiles, mientras que los ataques con medios sintéticos, incluidos los deepfakes, crecieron un 62% interanual en 2025.

Algunos de estos números provienen de:

  1. https://sqmagazine.co.uk/ai-cyber-attacks-statistics/
  2. https://www.aiacceleratorinstitute.com/how-ai-is-redefining-cyber-attack-and-defense-strategies/
  3. https://www.crowdstrike.com/en-us/blog/crowdstrike-2025-threat-hunting-report-ai-weapon-target/

En el mundo real

La conexión norcoreana

Quizás ningún caso ilustra mejor la armamentización de la IA que FAMOUS CHOLLIMA, un grupo de hackers norcoreanos que ha infiltrado a más de 320 empresas en los últimos 12 meses — un incremento interanual del 220%. Estos operativos utilizan IA generativa para crear currículos atractivos, despliegan tecnología deepfake en tiempo real (mantente atento, hablaremos también de esto en un futuro artículo) para enmascarar sus verdaderas identidades en entrevistas por video, y emplean herramientas de código basadas en IA para realizar sus funciones mientras financian programas de armamento nuclear.

La sofisticación es increíble. No se trata de simples estafas — son operaciones multinivel utilizando "granjas de portátiles" en EE. UU. para evadir controles de geolocalización, permitiendo a los operativos norcoreanos trabajar de forma remota para empresas estadounidenses mientras permanecen físicamente en el extranjero.

El robo deepfake de $25 millones

En lo que los expertos en seguridad llaman un momento decisivo, un empleado de Arup con sede en Hong Kong fue engañado para transferir $25.6 millones a estafadores durante una videoconferencia. Cada participante de la reunión era una representación deepfake generada por IA del director financiero y colegas de la empresa. El empleado inicialmente sospechó de phishing, pero fue convencido por la llamada de video realista con rostros y voces familiares.

Esto no era una trama de Hollywood. Se trató de una operación de 15 transacciones a través de cinco cuentas bancarias, ejecutada mediante deepfakes creados a partir de vídeos disponibles públicamente de ejecutivos de la empresa. La estafa solo se descubrió cuando el empleado contactó posteriormente a la sede para confirmar.

El malware está evolucionando

BlackMamba representa la nueva frontera del malware armado con IA. Este prototipo demuestra cómo la IA puede re-sintetizar su capacidad de keylogging cada vez que se ejecuta, haciendo que el componente malicioso sea verdaderamente polimórfico. Cada ejecución crea una variante única, venciendo los sistemas tradicionales de detección basados en firmas.

El enfoque de BlackMamba: se conecta a la API de OpenAI en tiempo real para generar código malicioso, luego lo ejecuta en memoria utilizando la función exec() de Python. Para los sistemas de seguridad, esto aparece como una comunicación benigna con un servicio de alta reputación.

El factor acelerador

WormGPT y FraudGPT han surgido como los "dark ChatGPTs", herramientas de IA diseñadas específicamente para el cibercrimen sin límites éticos. Estas plataformas, vendidas como servicios de suscripción por $60-$700 mensuales, permiten incluso a ciberdelincuentes inexpertos crear campañas de phishing sofisticadas y generar código malicioso[11][12]

¿El resultado? Un aumento del 1,265% en los intentos de phishing impulsados por IA y un incremento del 703% en los ataques de phishing de credenciales en la segunda mitad de 2024.[13][3]

Más allá de los límites tradicionales

Lo que distingue esta era es cómo la IA ha eliminado las fricciones tradicionales en el cibercrimen. El antiguo consejo de seguridad — "detecta el error tipográfico, detecta la estafa" — es oficialmente obsoleto. La IA ahora crea correos de phishing impecables e hiperpersonalizados que eluden tanto los filtros técnicos como la intuición humana.[2]

Más preocupante es la aparición de agentes autónomos de IA que atacan otros modelos de IA. Estos sistemas pueden envenenar datos sintéticos utilizados para entrenar modelos de IA y manipular modelos de código abierto antes de su lanzamiento público, creando vulnerabilidades que se activan solo tras un despliegue masivo.[14]

La necesidad de una respuesta

La industria de la ciberseguridad reconoce la magnitud de este fenómeno, de hecho, se proyecta que el mercado de ciberseguridad impulsado por IA alcanzará los $82.56 mil millones para 2029, con un crecimiento compuesto anual del 28%. Sin embargo, el 68% de los analistas de amenazas cibernéticas indica que la inteligencia tradicional sobre amenazas es insuficiente ante los ataques acelerados por IA.

Esto no se trata simplemente de actualizar herramientas, sino de repensar de forma fundamental la ciberseguridad, la arquitectura y los modelos ya que las defensas impulsadas por IA ya no son opcionales; son esenciales para sobrevivir en un entorno en el que el 35% de las operaciones de botnets ahora incorpora algoritmos de aprendizaje automático para evadir la detección en tiempo real.

La maldición del futuro

La armamentización de la IA representa más que un desafío tecnológico. Es un cambio importante que demanda acción inmediata. Las organizaciones ya no pueden depender de revisiones periódicas de seguridad o de defensas perimetrales tradicionales. La nueva realidad requiere adaptación continua, sistemas de detección impulsados por IA y colaboración entre humanos e IA.

A medida que navegamos esta era de armamentización, una cosa queda clara: las organizaciones que se adapten rápidamente sobrevivirán. Y la pregunta no es si la IA seguirá siendo utilizada como arma, sino si estaremos preparados cuando eso suceda.


🔎 ¿Quieres profundizar en casos reales, estadísticas y estrategias para defenderte de los ciberataques potenciados por IA? https://neverhack.com/en/offers/soc-mssp

https://neverhack.com/en/offers/offensive-security


Raffaele Sarno

Responsable de Preventa, Departamento de Operaciones de Seguridad NEVERHACK, Italia


You can also read