Sicurezza nelle Video Identificazioni: combattere i deepfake

Sicurezza nelle Video Identificazioni: combattere i deepfake

video-identificazione-sicura


Nell’epoca digitale in cui viviamo, le video identificazioni sono diventate parte integrante di molte attività quotidiane, dai controlli di sicurezza alle transazioni online fino alla creazione di account. Tuttavia, con l’avanzare della tecnologia, sorgono costantemente nuove minacce, tra cui i cosiddetti “deepfake”, video manipolati al punto da sembrare autentici. I deepfake rendono sempre più difficile distinguere tra contenuti genuini e manipolazioni artificiali.

I deepfake possono mettere a repentaglio dati sensibili e potenzialmente causare perdite finanziarie. Impersonando utenti autorizzati attraverso video generati dall’IA, i criminali informatici possono accedere a sistemi protetti o approfittarsi inconsapevolmente delle vittime, come riportato da un recente fatto di cronaca accaduto in un ufficio di Hong Kong dove un video fake del direttore finanziario ha fatto urgentemente spostare 25 milioni di dollari su 5 diversi conti ai suoi dipendenti in collegamento in video call, totalmente inconsci della falsità del video.

Di conseguenza, comprendere come preservarsi dalle sofisticate minacce poste da questa forma di manipolazione digitale è essenziale.

In questo articolo, esploreremo le sfide legate alla sicurezza nelle video identificazioni e le strategie per contrastare efficacemente i deepfake.

 

Principali rischi dei deepfake nelle video identificazioni

  1. Manipolazione dell’identità

I deepfake possono creare video convincenti che falsificano l’identità di un individuo. Questo rappresenta una minaccia per la sicurezza in situazioni in cui le video identificazioni sono utilizzate per accedere a servizi sensibili o autorizzazioni speciali. Le conseguenze possono essere devastanti: accesso non autorizzato a sistemi, frodi o danni alla reputazione.

  1. Frodi online

I criminali possono sfruttare i deepfake per compiere frodi online. Ad esempio, possono accedere ad account bancari o effettuare transazioni fraudolente. Ciò minaccia la sicurezza finanziaria degli utenti e può causare gravi danni economici.

  1. Minacce alla sicurezza informatica

Volti e voci possono essere manipolati per ingannare anche i sistemi informatici, come quelli di domotica o gli assistenti vocali, che ricorrono a dati biometrici vocali e facciali per l’autenticazione di accesso.

  1. Manipolazione dell’opinione pubblica

Politici e opinion leader sono spesso tra i bersagli preferiti dei deep fake che, in questi casi, puntano a diffondere disinformazione, minando la fiducia pubblica nelle istituzioni e negli individui coinvolti.
La democrazia stessa è a rischio quando la verità viene distorta attraverso questi mezzi.

 

kyc-automatico-contro-frodi-online

Strategie di sicurezza contro i deepfake

  1. Riconoscimento facciale avanzato

Le soluzioni di rilevamento dei deepfake basate sull’intelligenza artificiale (AI) stanno diventando sempre più sofisticate. L’uso di algoritmi di machine learning riesce ad individuare anomalie nei modelli di movimento facciale o negli schemi di illuminazione che possono indicare la presenza di un deepfake.

Tra questi il Face matching analizza e confronta il volto in video di una persona con la foto del volto presente sul documento di identificazione per determinare la loro somiglianza.

La tecnologia di Liveness check verifica che la persona mostrata in video sia una personale reale e non un video registrato, facendole compiere alcune attività.

Risulta di notevole aiuto anche la combinazione del Face detection con il Face Recognition, infatti mentre il primo individua la presenza di un volto all’interno di immagini o video digitali, il riconoscimento facciale, tramite una tecnologia biometrica, è in grado di associare un’identità ad un viso e quindi di confermare o meno l’identità di una persona.

 

2. Normative e linee guida

A livello globale, i governi e le autorità di regolamentazione stanno sviluppando framework legislativi per affrontare la minaccia dei deepfake. Ad esempio, l’Unione Europea sta lavorando a una proposta di legge che prevede sanzioni severe per chi produce e distribuisce deepfake dannosi.
Anche il National Institute of Standards and Technology (NIST) degli Stati Uniti ha pubblicato linee guida per l’utilizzo di tecnologie di intelligenza artificiale per il rilevamento di media manipolati.

In Italia, il Garante Privacy ha prodotto una scheda informativa per informare il grande pubblico e aumentare la consapevolezza contro i deepfake. La recente proposta di legge, ancora in fase di discussione, “Legge sulla Trasparenza dei Contenuti Generati da Intelligenza Artificiale” mira ad affrontare la sfida dei deepfake per garantire la trasparenza e la riconoscibilità dei contenuti generati da IA, contribuendo a proteggere gli utenti dai rischi associati ai deepfake.

 

3. Blockchain per la verifica dell’autenticità

La blockchain può richiedere agli utenti di dimostrare la loro identità prima di condividere contenuti e questo può essere un valido deterrente per i malintenzionati. In fase di creazione contenuti un video autentico può essere registrato sulla blockchain in modo immutabile. Qualsiasi tentativo di modifica successiva sarebbe tracciato.

 

4. Consapevolezza e educazione

La sensibilizzazione sul problema dei deepfake è fondamentale per proteggersi dalle loro insidie. Organizzazioni e individui dovrebbero essere incoraggiati a familiarizzare con le caratteristiche tipiche dei deepfake, come ad esempio anomalie nei movimenti facciali, imperfezioni nell’illuminazione o difetti audio. Una maggiore consapevolezza renderà più difficile ingannare le persone con false rappresentazioni visive e auditive.

 

5. Collaborazione tra settori

Il contrasto alle minacce dei deepfake richiede uno sforzo collaborativo tra istituti di ricerca, società private e governo. Creare reti di scambio di informazioni e risorse può accelerare lo sviluppo di contromisure efficaci contro i deepfake e aumentare la resilienza complessiva del sistema.

 

video-riconoscimento-identità-sicura

Prevenire i rischi dei deepfake nelle video identificazioni

1. Implementare misure di sicurezza multifattoriali: per potenziare le attività di difesa è utile combinare differenti metodi di autenticazione come domande di sicurezza personalizzate oppure metodi di autenticazione a due fattori (2FA) tipo messaggi inviati tramite SMS.

Inoltre, in fase di video identificazioni, per irrobustire ulteriormente i controlli, è possibile attivare interrogazioni automatiche verso database pubblici, come CRIMNET, per il controllo dei documenti rubati o smarriti; il DataBase di IP Reputation, che offre informazioni dettagliate sulla reputazione e l’affidabilità di un’e-mail o di un indirizzo IP o il DB Terroristi. Attuando strategie di difesa a più livelli si riduce la vulnerabilità collegata alle frodi generate dai deepfake.

 

2. Controllo qualità servizio offerto costante: attivare sistemi di controllo (automatici o condotti da personale specializzato) sui servizi di video identificazione serve per individuare prontamente eventuali anomalie e adoperarsi di conseguenza per reagire, bloccarle e contrastarle nel futuro.

 

3. Mantenere aggiornate politiche e procedure: seguire gli sviluppi emergenti nelle tecnologie di difesa contro i deepfake e adattare le procedure di conseguenza. Seguire anche le raccomandazioni emesse dalle autorità competenti per rafforzare la resilienza complessiva del sistema.

 

4. Educare dipendenti e clienti: fornire materiale informativo che insegni a clienti e dipendenti a riconoscere e rispondere ai deepfake è di fondamentale importanza. Famigliarizzarli con i campanelli d’allarme associati a questo tipo di attacco riduce la suscettibilità a cadere vittime di violazioni basate sui deepfake.

Informazioni utili anche per contrastare le attività telematiche illegali che prendono giornalmente di mira numerose persone, come lo spoofing (furto di dati attraverso la falsificazione di identità), il phishing (invio di mail per spingere la vittima a cedere involontariamente informazioni bancarie o credenziali), e il ransomware (programma informatico che infetta un dispositivo per il quale i ‘pirati’ chiedono di pagare un riscatto).

 

In conclusione, la sicurezza nelle video identificazioni richiede una comprensione approfondita dei deep fake e un aggiornamento costante sulle nuove tecnologie a rischio quando si affrontano minacce digitali persistenti.

Attraverso una combinazione di campagne di sensibilizzazione, regolamentazioni specifiche, tecnologie di rilevamento avanzate, strategie di gestione e sicurezza multilivello dei sistemi di video identificazione, cooperazione intersettoriale e formazione continua, saremo tutti maggiormente preparati per affrontare con successo la minaccia dei deepfake.

 

error: Contenuto protetto