Il Disclaimer tour del Corriere della Sera ha fatto tappa all’Università Federico II di Napoli, mercoledì 8 ottobre, per riflettere sul ruolo dell’intelligenza artificiale nella difesa dalle minacce digitali. Per EY è intervenuto Fabio Cappelli, Offensive & Defensive Cybersecurity Leader, spiegando che l’AI è una innovazione che può migliorare la qualità della vita lavorativa, perché in grado di assistere nelle attività quotidiane, semplificando le operazioni ripetitive e liberando tempo per compiti a maggiore valore aggiunto. L’AI genera due tendenze opposte: da un lato l’aumento delle minacce, dall’altro un potenziale supporto al loro contenimento. Tuttavia, gli autori di attacchi informatici sono spesso avvantaggiati, in quanto possono sperimentare in tempo reale, con costi minimi. Per questo, è fondamentale un uso consapevole e controllato dell’AI, che valorizzi l’intelligenza umana e mantenga alta la soglia di attenzione.
Nella fase iniziale di adozione delle tecnologie basate su intelligenza artificiale, è probabile che si assista a un aumento dei rischi, dovuto alla rapidità dell’innovazione e alla limitata preparazione del contesto. Tuttavia, nel medio-lungo periodo, è ragionevole aspettarsi un progressivo riequilibrio, favorito dalla maturazione dell’ecosistema tecnologico, dall’evoluzione del quadro normativo e da una crescente consapevolezza da parte degli utenti. La sicurezza digitale, in questo scenario, diventerà sempre più una responsabilità condivisa tra sviluppatori, istituzioni e cittadini. Nel suo intervento, Cappelli ha segnalato l’incremento degli attacchi informatici, con un raddoppio dei casi di DDoS – quando un servizio online è sovraccaricato da traffico dannoso – e una crescente diffusione di ransomware, per cui si è spinti a pagare un riscatto per decriptare dati sensibili trafugati e diffusi nel dark web.
Le aziende si trovano così a fronteggiare minacce sempre più sofisticate, come il phishing evoluto e i deepfake, capaci di simulare videoconferenze realistiche prodotte in meno di un’ora, o tramite messaggi vocali con voce clonata a partire da pochi secondi di audio rubati. Inoltre, gli agenti AI rappresentano un nuovo punto d’accesso per la raccolta di informazioni sensibili, come email, documenti e dati riservati. Per questo, rafforzare la sicurezza non significa più proteggere soltanto smartphone e computer, ma anche rendere gli strumenti di AI più resilienti e meno vulnerabili a manipolazioni esterne. La protezione dei dati personali è anche la priorità etica più sentita tra quelle legate all’AI, come fotografato dall’AI Barometer 2025 di EY. In un contesto in cui le minacce digitali si evolvono con rapidità e precisione, la consapevolezza personale diventa il primo strumento di difesa. Anche i professionisti più esperti, sotto pressione, possono commettere errori: per questo EY investe in esercitazioni e formazione continua. “Oggi – ha concluso Cappelli – non è più l’errore grammaticale a tradire un attacco, ma la perfezione del messaggio”.