Seguici su

Cybersicurezza

Dal malware auto-generato ai sistemi multi-agente, il 2025 dell’IA

L’IA sta trasformando la sicurezza informatica a velocità record. Nel 2025, crescerà la domanda energetica, emergeranno sistemi multi-agente, e nuove leggi spingeranno verso un’IA responsabile. È la svolta decisiva per la cyber difesa

Avatar

Pubblicato

il

Intelligenza artificiale
Intelligenza artificiale (© Depositphotos)

L’Intelligenza Artificiale (IA) sta vivendo una crescita vertiginosa, pronta a trasformare in modo radicale il campo della sicurezza informatica. Dan Karpati, Vicepresidente di AI Technologies presso Check Point Software, afferma che il 2025 segnerà un punto di svolta cruciale, con innovazioni dirompenti e nuove sfide che spaziano dal consumo di risorse energetiche alle normative etiche. In questo articolo, esploriamo i principali trend e le previsioni sull’IA che modelleranno il futuro della cybersecurity entro i prossimi due anni.

L’esplosione dell’IA, una crescita senza precedenti

L’adozione delle tecnologie di Intelligenza Artificiale sta accelerando a ritmi mai visti. ChatGPT ha raggiunto 100 milioni di utenti in appena 60 giorni e oggi registra oltre 3 miliardi di visite mensili. Non è un caso isolato: Claude, Gemini e Midjourney testimoniano la stessa crescita esplosiva.
Secondo Dimension Market Research, entro il 2033 il mercato globale dei modelli linguistici di grandi dimensioni raggiungerà un valore di 140,8 miliardi di dollari. Questo boom, tuttavia, comporta un aumento enorme di spazio, acqua ed energia per supportare la potenza di calcolo necessaria all’IA, un tema che diventerà ancora più pressante nel 2025.

Impatto sul consumo energetico e innovazione

La proliferazione dell’IA si ripercuote pesantemente sulle risorse energetiche. Secondo McKinsey, il numero dei data center — la spina dorsale delle operazioni di IA — è raddoppiato dai 3.500 del 2015 ai 7.000 del 2024. Deloitte prevede inoltre che il consumo di energia per queste strutture salirà da 508 TWh nel 2024 a 1580 TWh entro il 2034, un valore simile all’intero consumo energetico annuale dell’India.
Alcuni esperti, come Deloitte, evidenziano come l’attuale sistema non sia più sostenibile. Goldman Sachs Research stima un aumento del 160% della domanda di energia dei data center entro il 2030, con l’IA che contribuirà per circa il 19% del consumo totale entro il 2028. Per fronteggiare questa emergenza, si fa strada l’adozione di fonti rinnovabili, l’utilizzo di energia nucleare e l’impiego di soluzioni di raffreddamento più avanzate.
Sul fronte dell’efficienza computazionale, stanno emergendo architetture compute-in-memory (CIM), in cui l’elaborazione avviene direttamente nella memoria (RAM). Queste soluzioni riducono la quantità di energia necessaria per trasferire dati tra processori e memoria, migliorando l’efficienza e alleggerendo lo stress sulle infrastrutture energetiche.

L’IA responsabile trasformerà lo sviluppo del software

Non siamo più fermi ai semplici strumenti di completamento del codice: piattaforme come CursorAI e Replit.com consentono di generare programmi completi da un singolo prompt. Questa evoluzione aumenta la produttività dei developer ma spalanca anche le porte a nuove minacce informatiche. I criminali, infatti, potranno realizzare malware avanzati senza competenze specialistiche, innalzando a dismisura i rischi.
In questo contesto s’inserisce il concetto di IA responsabile, ovvero la costruzione di modelli di IA con barriere di protezione che ne prevengano l’uso malevolo o la trasformazione in armi digitali. Gli hacker white hat e i red team sono fondamentali per testare in anticipo le possibili vulnerabilità e collaborano con i fornitori di software e di sicurezza per sviluppare partnership che garantiscano la protezione proattiva dei sistemi.

L’ascesa dei sistemi di IA multi-agente

Entro il 2025, assisteremo alla diffusione dei sistemi di IA multi-agente sia nel campo degli attacchi informatici sia nella difesa. Questi agenti di IA sono vere e proprie entità autonome che prendono decisioni ed eseguono compiti a partire da input minimi, interagendo con database, API e altri sistemi.
Sul fronte criminale, tali sistemi coordinati renderanno gli attacchi più difficili da individuare; d’altro canto, sul versante della cyber difesa, gli agenti di IA multi-agente permetteranno di identificare e mitigare più velocemente le minacce, collaborando in tempo reale tra reti, dispositivi e infrastrutture di sicurezza.

Sfide etiche e normative

Con la crescita dell’Intelligenza Artificiale, aumentano anche le responsabilità legali ed etiche. Nel 2025 entreranno in vigore nuove leggi fondamentali: la legge sull’IA dell’UE (attiva dal 2 febbraio 2025) e un nuovo quadro normativo negli Stati Uniti basato sul National Defense Authorization Act (NDAA). Entrambi i provvedimenti spingeranno le aziende ad adottare piattaforme di governance dell’IA, per garantire la trasparenza, l’etica e la fiducia nei sistemi basati su modelli linguistici di grandi dimensioni.
Ciò porterà alla nascita di framework settoriali per certificare l’affidabilità e la sicurezza dei prodotti basati sull’IA. L’obiettivo è rendere più comprensibili e gestibili gli output generati dall’IA, prevenendo risultati dannosi o distorti e tutelando gli utenti finali.

Il 2025 si profila come un anno cruciale per l’evoluzione della Intelligenza Artificiale e la sicurezza informatica. Mentre l’IA apre opportunità straordinarie, genera al contempo rischi che richiedono soluzioni innovative, regolamentazioni efficaci e una collaborazione stretta tra aziende, governi e forze dell’ordine. Secondo Dan Karpati, la vera sfida sarà riuscire a mantenere l’equilibrio tra la crescita tecnologica e la necessità di proteggere il nostro mondo digitale e fisico.
Per chi desidera approfondire, l’invito è a seguire l’evento CPX, dove verranno presentate ulteriori novità sul futuro dell’IA e della sicurezza informatica.

Continua a leggere le notizie di Diario Innovazione e segui la nostra pagina Facebook

Clicca per commentare

Tu cosa ne pensi?

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *