Cybersicurezza
Proteggersi con l’IA nell’era dei crimini informatici basati su IA
Il primo AI Security Report di Check Point rivela come i cybercriminali utilizzino l’intelligenza artificiale per phishing, deepfake, malware avanzato e manipolazioni digitali, evidenziando strategie difensive basate sulla stessa tecnologia

L’intelligenza artificiale (IA) non è più solo un’innovazione destinata a migliorare le nostre vite: sempre più frequentemente è utilizzata dai criminali informatici per attacchi sofisticati e mirati. Lo conferma il recente AI Security Report di Check Point Research, che evidenzia come le minacce informatiche stiano evolvendo rapidamente grazie all’uso improprio dell’IA.
Come l’IA sta amplificando il cybercrimine
Secondo Lotem Finkelstein, Director di Check Point Research, la rapida adozione dell’intelligenza artificiale da parte dei cybercriminali sta trasformando il panorama delle minacce, rendendo obsoleti molti dei sistemi di difesa tradizionali. Ecco le quattro aree principali di rischio individuate dal report:
1. Impersonificazione avanzata e ingegneria sociale
L’uso di deepfake audio e video, così come email di phishing create da algoritmi IA, sta rendendo difficile distinguere la verità dal falso. Un recente esempio è l’impersonificazione vocale del ministro della Difesa italiano, che dimostra quanto l’IA possa ingannare anche sofisticati sistemi di verifica.
2. Manipolazione e disinformazione tramite IA
I criminali alterano i dati di addestramento dei modelli IA per diffondere informazioni false su larga scala. Un caso esemplare ha coinvolto la rete russa Pravda, che ha dimostrato come chatbot popolari possano diffondere disinformazione nel 33% delle interazioni.
3. Malware e data mining evoluti grazie all’IA
L’intelligenza artificiale sta venendo sfruttata per creare malware più sofisticati e ottimizzare attacchi informatici come le campagne DDoS. Servizi clandestini come Gabbers Shop già usano l’IA per ottimizzare il valore e la precisione dei dati rubati.
4. Commercializzazione e dirottamento di modelli IA
L’emergere di strumenti come FraudGPT e WormGPT sul dark web mostra come i modelli IA stessi vengano sfruttati direttamente per attività fraudolente.
Difendersi con l’Intelligenza Artificiale
Il rapporto non si limita a evidenziare i rischi, ma fornisce anche soluzioni pratiche per contrastarli, proponendo strategie basate proprio sull’intelligenza artificiale:
- Rilevamento avanzato: utilizzare IA per individuare contenuti e minacce generate artificialmente;
- Verifica multi-livello delle identità: adottare sistemi di autenticazione capaci di riconoscere tentativi di impersonificazione tramite IA;
- Intelligence integrata: equipaggiare i team di sicurezza con strumenti aggiornati che includano capacità predittive e di riconoscimento delle minacce basate su IA.
Come sottolinea Finkelstein, integrare l’IA nelle strategie difensive non è più un’opzione, ma una necessità urgente per proteggere efficacemente gli ambienti digitali.
Continua a leggere le notizie di Diario Innovazione e segui la nostra pagina Facebook