Cybersicurezza
Attacchi phishing potenziati dall’AI, come difendersi dalle truffe AI-driven
I cybercriminali usano l’AI per creare attacchi phishing sofisticati. I modelli linguistici generano contenuti credibili per truffare utenti di criptovalute. Consigli per proteggersi e distinguere i testi AI dalle truffe
Negli ultimi anni, i cybercriminali hanno sfruttato l’intelligenza artificiale (AI) per sviluppare attacchi phishing sempre più sofisticati. Secondo gli esperti del Kaspersky AI Research Center, questi truffatori stanno utilizzando i Large Language Models (LLM), potenti modelli linguistici, per creare contenuti altamente credibili per truffe online. Vediamo come l’AI sta cambiando le dinamiche del phishing e come possiamo difenderci.
Il ruolo dei Large Language Models nelle truffe
Grazie ai LLM, i criminali informatici possono ora generare pagine web di phishing in modo automatico, creando contenuti che appaiono autentici. In passato, la realizzazione di questi siti richiedeva notevoli risorse umane, ma oggi l’AI permette di creare decine o addirittura centinaia di pagine truffaldine in pochi minuti. Questi modelli producono testi sofisticati, utilizzati per ingannare gli utenti di exchange e wallet di criptovalute, come KuCoin, Gemini, ed Exodus.
Come riconoscere i contenuti generati dall’AI
L’AI, pur essendo efficace, presenta segnali distintivi che possono aiutare gli utenti a identificare le truffe. Frasi generiche come “In qualità di modello linguistico dell’AI…” o “Anche se non posso fare esattamente quello che vuoi, posso provare a fare qualcosa di simile” sono indicatori di un contenuto generato automaticamente. Questi elementi, unici per i LLM, permettono ai ricercatori di distinguere le pagine web autentiche da quelle fraudolente.
Indicatori avanzati di phishing e frode online
Oltre alle frasi generiche, esistono altri segnali di un sito di phishing generato dall’AI. Ad esempio, i contenuti spesso includono dichiarazioni temporali sulla conoscenza del modello AI, come “secondo il mio ultimo aggiornamento di gennaio 2023”. Questo tipo di dettagli è tipico dei modelli linguistici AI e rappresenta un’altra indicazione di possibili attività fraudolente.
Gli attacchi AI-powered sfruttano anche caratteri Unicode non standard (come diacritici o simboli matematici) per confondere i sistemi di rilevamento delle truffe. Questi simboli rendono difficile per gli strumenti di sicurezza distinguere il testo normale da quello contenente elementi truffaldini.
La risposta della cybersecurity agli attacchi AI-driven
Di fronte all’aumento degli attacchi basati su AI, il team di Kaspersky sottolinea l’importanza di soluzioni di cybersecurity avanzate. Software di sicurezza con analisi dei metadati e capacità di rilevamento del linguaggio naturale sono fondamentali per individuare i contenuti generati dall’AI e difendersi dalle minacce. Vladislav Tushkanov, del Kaspersky Research Center, evidenzia come in futuro sarà sempre più difficile distinguere i testi generati dall’AI da quelli scritti manualmente, rendendo indispensabili le soluzioni di sicurezza.
Consigli per proteggersi dai phishing potenziati dall’AI
Per proteggersi dalle truffe online, è essenziale adottare alcune precauzioni:
- Verificare i collegamenti ipertestuali: gli URL spesso contengono errori di ortografia o reindirizzano a pagine sospette.
- Digitare manualmente gli indirizzi web: evitare di cliccare su link sospetti, soprattutto in email inaspettate.
- Utilizzare una soluzione di sicurezza avanzata: molti software di sicurezza offrono protezioni specifiche contro siti web e download pericolosi.
In un’era in cui la tecnologia AI può essere usata sia per il bene che per il male, la consapevolezza e la prudenza rimangono le migliori difese contro le truffe online.
Continua a leggere le notizie di Diario Innovazione e segui la nostra pagina Facebook