Skip to main content

Deepfake, la più grande minaccia futura alla sicurezza aziendale

Deepfake
(Image credit: Shutterstock / meamorworks)

Moltissime aziende ritengono che contenuti online e media manipolati tramite deepfake rappresentino un serio rischio per la sicurezza della propria attività.

Come già dimostrato, i deepfake sono una seria minaccia per le persone ritratte nei video manipolati, ma potrebbero esserci ripercussioni ancora più gravi, se l'individuo ritratto occupasse una posizione di rilievo, come nel caso del leader di un paese o di un alto dirigente di una grande compagnia.

All'inizio del 2021, la divisione informatica dell'FBI ha reso noto che i deepfake sono una minaccia emergente molto grave poichè possono essere utilizzati in maniera fraudolenta per portare attacchi di ingegneria sociale, in particolar modo verso le aziende.

Il sondaggio della startup Attestiv, che si occupa di servizi per l'autenticazione dei dati, rivela che pur essendo consapevole dei pericoli, quasi la metà (46%) degli intervistati riconosce che le proprie organizzazioni non possiedono un piano per affrontare e gestire la crescente minaccia relativa ai deepfake.

Più dell'80% degli intervistati pensa che la manipolazione dei media rappresenti un potenziale rischio per la propria società, anche se meno del 30% afferma di aver adottato misure capaci di mitigare le ricadute di un attacco deepfake.

Ripristinare la fiducia

I giganti della tecnologia hanno deciso di affrontare la sfida, poichè sono consapevoli della sempre crescente difficoltà nel riconoscere i deepfake, anche se i malintenzionati stanno perfezionando i loro algoritmi per creare deepfake ancora più convincenti di quelli di prima generazione.

VentureBeat ha riferito che diverse grandi aziende tecnologiche intendono combattere la diffusione della minaccia deepfake con tutti i mezzi in loro possesso.

Facebook, insieme a Microsoft, Amazon e molte altre società hanno guidato la Deepfake Detection Challenge per creare set di dati open source, favorendo i ricercatori nel realizzare gli strumenti necessari per individuare i video falsi. D'altro canto, Google aveva già rilasciato un proprio set di dati in precedenza, mentre all'inizio del 2021, Adobe, Arm, Intel e Microsoft avevano annunciato una nuova alleanza con lo scopo di ridurre le frodi sui contenuti online.

Tuttavia, anche gli strumenti più evoluti non potranno colpire nel segno, se non verranno integrati nei flussi di lavoro digitali delle aziende al fine di evitare, o contenere, i danni creati da media manipolati come i deepfake.

Fonte: VentureBeat