Cybersecurity: che 2025 ci aspetta
29 gen 2025 | 2 min di lettura
La battaglia tra attaccanti e difensori è in continua evoluzione. Come si prospetta il 2025 dal punto di vista della cybersecurity? Gli specialisti di F5 hanno delineato le principali tendenze in corso.
Gli attacchi con l’intelligenza artificiale
Il 2024 ha segnato una svolta nell’evoluzione degli attacchi basati sull’intelligenza artificiale: gli attaccanti hanno superato la fase sperimentale per passare a un’azione sistematica e “industrializzata”. Guardando al 2025, è probabile che questa tendenza si intensifichi.
Il progresso dell’AI ha senza dubbio degli elementi positivi, anche per le imprese, ma solleva anche delle criticità. “La pressione per implementare l’AI più rapidamente – spiega F5 - ci rende sempre più dipendenti da essa per gestire la complessità che stiamo costruendo”. Attenzione quindi a presidiarla, senza sottovalutare il tema cybersecurity. Con il solito adagio: il rischio zero non esiste. La protezione, quindi, passa da sistemi di monitoraggio ma anche di tutela post-attacco, come le assicurazioni.
Le filiere tornano nazionali
Il “nazionalismo della supply chain” non si limita al rimpatrio delle produzioni. Rappresenta un cambiamento profondo che richiede di ripensare completamente l’architettura digitale. Con l’intensificarsi delle tensioni geopolitiche e l’introduzione di nuovi dazi, le organizzazioni si trovano strette tra esigenze di efficienza e restrizioni nella catena di approvvigionamento. Questo potrebbe portare alla creazione di nuove classi di rischi, nel tentativo di fare di più con meno risorse.
Le organizzazioni potrebbero quindi cercare di ridurre il numero di fornitori (che siano però affidabili) e i relativi processi di controllo, facendo quindi leva su leva sull’adozione dell’intelligenza artificiale.
Il rischio di una “tempesta perfetta”
F5 registra “la centralizzazione dei rischi attorno a piattaforme AI dominanti” e “la riduzione della supervisione umana proprio nel momento in cui sarebbe più necessaria”. Il risultato è “una combinazione di fragilità istituzionale e vulnerabilità tecnica”.
Tagli di budget e pressioni per migliorare l’efficienza spingeranno le agenzie verso soluzioni AI “ombra”, centralizzando involontariamente i punti deboli attorno a un numero limitato di fornitori. Così, l’impatto di un attacco potrebbe propagarsi a catena su più organizzazioni. Si aggiunge poi un ulteriore rischio: l’eccessiva fiducia nell’intelligenza artificiale. Un po’ come i primi utilizzatori di GPS che finivano in laghi e campi perché “il computer diceva di girare a destra”, questa combinazione di fiducia cieca e supervisione ridotta potrebbe influire su decisioni politiche, analisi strategiche e risposte alle emergenze.