come l’intelligenza artificiale minaccia la sicurezza digitale delle aziende


Gli strumenti di intelligenza artificiale generativa sono sempre più potenti, convenienti e accessibili e i cybercriminali li utilizzano ormai in ogni tipologia di attacco, dalle frodi aziendali alle estorsioni e furti di identità. Lo rivela “Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset”, l’ultima ricerca presentata da Trend Micro.

Lo studio illustra la portata e la maturità che hanno raggiunto i deepfake in ambito cybercriminale. Questa minaccia, dopo l’iniziale momento di hype, è diventata una tattica comune per gli attaccanti, che sono riusciti a mettere in dubbio la fiducia nel mondo digitale, esponendo le aziende a nuovi rischi e accelerando i modelli di business criminali.

Trasforma il tuo sogno in realtà

partecipa alle aste immobiliari.

 

Salvatore Marcis Trend Micro
Salvatore Marcis Trend Micro

“L’utilizzo dell’intelligenza artificiale nella creazione di asset media non è più un rischio futuro, ma una minaccia reale alle imprese. Abbiamo rilevato molti casi di manager impersonati da malintenzionati, processi di selezione del personale compromessi e difese in ambito finanziario aggirate con sorprendente facilità. Questa ricerca vuole anche essere un avvertimento: le aziende devono essere preparate per la nuova era dei deepfake, il rischio è rimanere inesorabilmente indietro. Viviamo in un mondo dove non tutto ciò che vediamo può essere vero e la fiducia digitale deve essere ricostruita dalle fondamenta, afferma Salvatore Marcis, Country Manager di Trend Micro Italia.

Il termine “deepfake” è una combinazione di “deep learning” e “falso” ed è stato coniato nel 2017 da un utente Reddit. Un deepfake è un’immagine, un video o una registrazione vocale falsi in cui l’aspetto di una persona viene sostituito da quello di un’altra. Sono fatti per ingannare o intrattenere le persone. Con il machine learning avanzato, i deepfake possono sembrare molto realistici. In precedenza, i deepfake erano noti principalmente per il loro uso divertente sui social media. Tuttavia, il loro potenziale di abuso è diventato rapidamente evidente e i deepfake sono ora una preoccupazione significativa per la privacy, la sicurezza e le informazioni.

Lo studio rivela che i cybercriminali non hanno bisogno di competenze tecniche per lanciare un attacco, ma utilizzano piattaforme che generano video, audio e immagini pronti all’uso. Questi strumenti sono pensati appositamente per creare deepfake realistici in grado di ingannare aziende e organizzazioni: sono economici, facili da utilizzare e incredibilmente capaci di oltrepassare i sistemi per la verifica delle identità e i controlli di sicurezza.

La ricerca sottolinea come l’ecosistema cybercriminale sia in continua crescita e gli attaccanti, grazie a queste piattaforme, siano in grado di eseguire truffe convincenti:

  • La truffa del CEO è sempre più difficile da individuare, poiché i malintenzionati utilizzano finti audio o video per impersonare i responsabili aziendali durante meeting in tempo reale
  • I processi di selezione del personale vengono compromessi da falsi candidati che utilizzano l’AI per superare i colloqui, con l’obiettivo di ottenere accesso ai sistemi aziendali
  • Le organizzazioni nel settore dei servizi finanziari registrano una crescita di deepfake che provano a oltrepassare la verifica KYC (Know Your Customer), al fine di riciclare denaro attraverso credenziali falsificate e in modalità anonima

Nell’underground cybercriminale si possono trovare tutorial, toolkit e servizi che aiutano a semplificare queste operazioni, ad esempio manuali che illustrano come aggirare le procedure di onboarding passo dopo passo, o strumenti plug-and-play per lo scambio e la modifica di volti. La barriera all’ingresso dovuta alle competenze tecniche è ormai molto bassa.

Vuoi bloccare la procedura esecutiva?

richiedi il saldo e stralcio

 

Le truffe alimentate dai deepfake sono sempre più frequenti e complesse, le aziende hanno il dovere di organizzarsi proattivamente per ridurre al minimo l’esposizione al rischio e proteggere persone e processi. Una corretta strategia aziendale include percorsi formativi sui rischi di social engineering, la revisione dei processi di autenticazione e soluzioni per il rilevamento di media sintetici.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta