L’era della weaponization: quando l’IA diventa un’arma informatica
Published on October 15, 2025
Il panorama della sicurezza informatica è entrato in una nuova fase pericolosa. L'intelligenza artificiale (IA), un tempo considerata il nostro difensore digitale, è diventata un'arma a doppio taglio: da un lato rafforza le nostre difese, dall'altro fornisce ai criminali informatici capacità senza precedenti.
I numeri non mentono
Le statistiche offrono un quadro preoccupante della nostra realtà attuale. Gli attacchi informatici tramite IA sono aumentati del 47% a livello globale nel 2025, mentre il 68% degli analisti di minacce informatiche riferisce che i tentativi di phishing generati dall’IA sono ora più difficili da individuare. Forse il dato più allarmante è che l'87% delle organizzazioni globali ha subito attacchi informatici tramite IA nell'ultimo anno, con un costo medio di 5,72 milioni di dollari per ogni violazione dei dati tramite IA.
Non si tratta di minacce lontane nel tempo, ma di realtà già in atto. Si prevede che nel 2025 gli attacchi informatici globali indotti dall’IA supereranno i 28 milioni di incidenti, con il 14% delle violazioni aziendali principali completamente autonome, che non richiedono alcun intervento umano dopo che l'intelligenza artificiale ha lanciato l'attacco.
Dalla fantascienza alla realtà
Ciò che rende questa fase particolarmente pericolosa è il modo in cui l’IA ha democratizzato la sofisticata guerra informatica. Gli attacchi tradizionali richiedevano conoscenze specialistiche e un notevole investimento di tempo. Oggi, l’82,6% delle e-mail di phishing utilizza in qualche modo la tecnologia AI e questi messaggi creati dall'intelligenza artificiale raggiungono un tasso di apertura del 78%, un tasso di successo che spaventa i professionisti della sicurezza.
L'uso come arma va ben oltre il semplice phishing. Il 41% delle casistiche di ransomware ora include componenti di intelligenza artificiale per la distribuzione adattiva del payload, mentre gli attacchi con media sintetici, inclusi i deepfake, sono aumentati del 62% su base annua nel 2025.
Alcuni di questi numeri provengono da:
- https://sqmagazine.co.uk/ai-cyber-attacks-statistics/
- https://www.aiacceleratorinstitute.com/how-ai-is-redefining-cyber-attack-and-defense-strategies/
- https://www.crowdstrike.com/en-us/blog/crowdstrike-2025-threat-hunting-report-ai-weapon-target/
Nel mondo reale
La connessione nordcoreana
Forse nessun caso illustra meglio l'uso dell'intelligenza artificiale come arma rispetto a FAMOUS CHOLLIMA, un gruppo di hacker nordcoreano che negli ultimi 12 mesi ha infiltrato oltre 320 aziende, con un aumento del 220% rispetto all'anno precedente. Questi agenti utilizzano l'IA generativa per creare curriculum accattivanti, impiegano la tecnologia deepfake in tempo reale (restate connessi, ne parleremo anche in un prossimo articolo) per mascherare la loro vera identità nei colloqui video e sfruttano strumenti di codifica AI per svolgere il loro lavoro mentre finanziano programmi di armi nucleari.
La sofisticatezza è incredibile. Non si tratta di semplici truffe, ma di operazioni su più livelli che utilizzano “laptop farm” negli Stati Uniti per eludere i controlli di geolocalizzazione, consentendo agli agenti nordcoreani di lavorare a distanza per aziende americane pur rimanendo fisicamente all'estero.
La rapina deepfake da $25 milioni
In quello che gli esperti di sicurezza definiscono un momento di svolta, un dipendente di Arup con sede a Hong Kong è stato indotto con l'inganno a trasferire 25,6 milioni di dollari a dei truffatori durante una videoconferenza. Tutti i partecipanti al meeting erano rappresentazioni deepfake generate da IA del CFO e dei colleghi dell'azienda. Il dipendente inizialmente ha sospettato un'azione di phishing, ma è stato convinto dalla realistica videochiamata con volti e voci familiari.
Non si trattava di una trama hollywoodiana. Era un’operazione di 15 transazioni su cinque conti bancari, eseguita tramite deepfake creati da video disponibili pubblicamente dei dirigenti dell’azienda. La frode è stata scoperta solo quando il dipendente ha successivamente contattato la sede centrale per una conferma.
Il malware si sta evolvendo
BlackMamba rappresenta la nuova frontiera dei malware dotati di IA. Questa prova di concetto dimostra come l'intelligenza artificiale sia in grado di re-sintetizzare la propria capacità di keylogging ogni volta che viene eseguita, rendendo il componente dannoso realmente polimorfico. Ogni esecuzione crea una variante unica, vanificando i tradizionali sistemi di rilevamento basati sulle firme.
L'approccio di BlackMamba: durante l'esecuzione, si collega all'API di OpenAI per generare codice dannoso, quindi lo esegue in memoria utilizzando la funzione exec() di Python. Ai sistemi di sicurezza appare come una comunicazione innocua con un servizio altamente affidabile.
Il fattore di accelerazione
WormGPT e FraudGPT sono emersi come strumenti di intelligenza artificiale “dark ChatGPT” progettati specificamente per il crimine informatico senza alcuna barriera etica. Queste piattaforme, vendute come servizi in abbonamento a un costo mensile compreso tra 60 e 700 dollari, consentono anche ai criminali informatici inesperti di creare sofisticate campagne di phishing e generare codice dannoso.
Il risultato? Un aumento del 1.265% dei tentativi di phishing indotti dall'intelligenza artificiale e un aumento del 703% degli attacchi di phishing delle credenziali solo nella seconda metà del 2024.
Oltre i confini tradizionali
Ciò che contraddistingue questa fase è il modo in cui l’IA ha eliminato le tradizionali difficoltà nel campo della criminalità informatica. Il vecchio criterio di sicurezza “individua il refuso, individua la truffa” è ufficialmente superato. L’IA ora crea e-mail di phishing impeccabili e iper-personalizzate che bypassano sia i filtri tecnici che l'intuizione umana.
Ancora più preoccupante è l'emergere di agenti di IA autonomi che attaccano altri modelli di IA. Questi sistemi possono contaminare i dati sintetici utilizzati per addestrare i modelli di IA e manomettere i modelli open source prima del loro rilascio pubblico, creando vulnerabilità che si attivano solo dopo una diffusione capillare.
L'imperativo della risposta
Il settore della cybersecurity riconosce l'importanza di questo aspetto: infatti, si prevede che il mercato della cybersecurity basata sull'IA raggiungerà gli 82,56 miliardi di dollari entro il 2029, con un tasso di crescita annuo composto (CAG) del 28%. Tuttavia, il 68% degli analisti di minacce informatiche riferisce che le tradizionali informazioni sulle minacce sono insufficienti contro gli attacchi accelerati dall’IA.
Non si tratta semplicemente di aggiornare gli strumenti, ma di rivedere radicalmente la sicurezza informatica, l'architettura e i modelli, nonché le difese basate sull’IA, che non sono più opzionali, ma essenziali per sopravvivere in un ambiente in cui il 35% delle operazioni botnet ora incorpora algoritmi di apprendimento automatico per eludere il rilevamento in tempo reale.
La maledizione del futuro
L'uso dell'IA come arma rappresenta più di una sfida tecnologica. È un cambiamento importante che richiede un intervento immediato. Le organizzazioni non possono più fare affidamento su revisioni periodiche della sicurezza o sulle tradizionali difese perimetrali. La nuova realtà richiede un adattamento continuo, sistemi di rilevamento basati sull'IA e la collaborazione tra esseri umani e IA.
Mentre attraversiamo questa fase di uso dell’IA come arma, una cosa appare chiara: le organizzazioni che sapranno adattarsi rapidamente sopravviveranno. E la domanda non è se l’IA continuerà a essere strumentalizzata come arma, ma se saremo pronti quando ciò accadrà.
🔎 Vuoi approfondire casi reali, statistiche e strategie per difenderti dai cyberattacchi indotti dall'IA? https://neverhack.com/en/offers/soc-mssp
https://neverhack.com/en/offers/offensive-security
Raffaele Sarno
Head Pre-sale Manager, NEVERHACK Security Operation Department, Italy

