Skip to main content

IA: UNA NUOVA ARMA NELLA GUERRA CIBERNETICA

L’Intelligenza artificiale sta cambiando tutto, e il settore della cybersecurity è al centro del ciclone rivoluzionario a cui stiamo assistendo.
IA e Cyberwarfare appaiono legati da un filo impossibile da spezzare: bisogna tenersi pronti all’onda d’urto che questo legame profondo potrebbe creare.
La guerra cyber non è mai stata così aspra, come si prospetta di divenire a partire da quest’anno.
Non stanno cambiando solo gli strumenti a disposizione degli attaccanti, cambia il loro modo di pensare e agire.
Il lato della difesa non può rimanere indifferente.
Per questo, ora che l’IA è una nuova arma nella guerra cibernetica, dovrà essere usata su entrambi i fronti.

Previsioni: come l’IA verrà sfruttata dal cybercrime

Gli attaccanti informatici non stanno perdendo tempo, e l’IA generativa sta entrando giorno dopo giorno nel loro armamentario.
Il 2024 sarà l’anno in cui entrerà ufficialmente a far parte del loro modus operandi: la guerra cyber non è mai stata così aspra.

Gli attacchi informatici diverranno dunque sempre più automatizzati. Con l’IA sarà sempre più semplice identificare e sfruttare le vulnerabilità nei sistemi oggetto dell’attacco.
Questo permetterà anche di creare maggiore precisione del cyber crimine. Sarà infatti più semplice identificare e colpire le persone che nelle organizzazioni hanno maggiore accesso ai dati sensibili target.

I Malware diventeranno sempre più precisi, difficili da rilevare e rimuovere.

Il Phishing non sarà più lo stesso

I Large Language Model, sistemi in grado di elaborare il linguaggio naturale e di generare di conseguenza testi che sembrerebbero scritti da esseri umani, rendono il Phishing molto meno riconoscibile. Non ci saranno più errori di testo, o campanelli d’allarme evidenti che permetteranno la facile identificazione di questa tipologia di attacco.

L’IA Generativa permette anche la creazione di audio e video iper-realistici, che fanno cadere in inganno ancora più facilmente le potenziali vittime.

Non ci si può più nemmeno fidare di una voce al telefono, né tantomeno di videochiamate, le trappole di social engineering con l’IA si stanno moltiplicando a vista d’occhio.

 

L’Intelligenza Artificiale contro sé stessa

Persino i modelli di Intelligenza Artificiale possono essere presi di mira. Parliamo di modelli facilmente influenzabili, come quelli di machine learning cloud-based. Le informazioni presenti nei dataset su cui si basano tali modelli, potrebbero essere infettati attraverso diverse metodologie come esfiltrazione di dati sensibili e boicottaggio dei filtri anti-frodi.

 

L’IA come arma per la difesa

Se l’Intelligenza Artificiale è divenuta un’arma nella guerra cibernetica, è necessario che anche la difesa ne sfrutti tutti i benefici.

Le modalità con cui l’IA va ad implementare le pratiche di cybersecurity si prospettano essere le seguenti:

  • Aumento della velocità di rilevamento degli attacchi: l’IA permetterà di analizzare quantità di dati davvero importanti, tutte in tempo reale, rendendo possibile così l’analisi più rapida dei segnali di pericolo non individuabili a livello umano;
  • Implementazione dell’efficacia nell’autenticazione degli utenti:  l’IA generativa permetterà di sviluppare autenticazioni più sofisticate, riducendo i rischi di accessi non autorizzati, per esempio con soluzioni di riconoscimento vocale o del volto.
  • Aumento della velocità nella risposta agli attacchi: grazie all’IA si potranno innescare automaticamente delle procedure di risposta agli attacchi, per esempio bloccando immediatamente gli accessi non autorizzati, o isolando i sistemi compromessi.

 

Sono solo previsioni? In realtà è già successo.

La prova che ciò che si è appena analizzato non siano solo congetture, è da ritrovarsi in un evento recente che ha coinvolto il dipendente di una multinazionale.

Questo infatti, vittima di cybercriminali armati di IA Generativa, ha trasferito 25.6 milioni di dollari sui conti correnti degli attaccanti.

L’attacco è partito con l’invio di un’email presumibilmente inviata dal direttore finanziario della sede del Regno Unito, che chiedeva un invio top secret di denaro. E-mail di fronte alla quale il dipendente ha subito captato segnali di phishing, dubitando fortemente della veridicità di quanto scritto.

Dubbio che però è completamente svanito quando, dopo aver ricevuto un’ulteriore e-mail con l’invito ad una riunione di lavoro, si è trovato in una call proprio con i vertici della sua azienda.

Non poteva sapere però, che quelli con cui ha avuto la riunione online, non erano altro che deep-fake: l’intelligenza artificiale ha sintetizzato i volti e le voci dei suoi responsabili da video su Youtube.

Il dipendente ha così effettuato la transazione richiesta: l’obiettivo dei criminali informatici è stato così raggiunto.

 

Possiamo dunque ancora parlare di previsioni, o ci troviamo già al centro di una guerra cibernetica di nuova generazione?

 


    Iscriviti alla newsletter

    Rimani sempre aggiornato sulle ultime news.

    Ai sensi del Regolamento UE n. 2016/679 in materia di Protezione dei Dati Personali. Leggi l'informativa sulla Privacy policy.

    Sei sotto attacco?