Aggiornamenti recenti Marzo 18th, 2024 2:00 PM
Nov 11, 2020 Manuela Santini Approfondimenti, Minacce, Scenario, Women for Security 0
L’utilizzo di app basate su algoritmi di AI per la manipolazione di immagini, video e audio è in aumento. Eppure, non sempre le aziende che sviluppano tali app tengono conto dei rischi a cui potrebbero essere esposti gli utenti. Uno dei maggiori pericoli deriva dall’utilizzo delle app per creare falsi di altissimo livello, noti come “deepfake”.
Sostituire i visi delle persone in video ed immagini (face swapping) e manipolare contenuti audio (audio deepfake) è oggi alla portata di tutti: con qualche click e secondo di attesa, è possibile realizzare video falsi di buona qualità, magari pensando ad un semplice scherzo tra amici. Ma le conseguenze possono essere ben più gravi.
Il revenge porn ha trovato un nuovo alleato in applicazioni come DeepNude, che permettono di spogliare le donne e poi condividerne la nuova immagine. I danni reputazionali, psicologici e più in generale gli impatti sulla vita privata delle persone oggetto di tali foto non sono spesso presi in considerazione da chi sviluppa e utilizza le app. Ad essere colpiti sono spesso singoli individui, in particolare le donne, ma anche le aziende possono pagarne il prezzo perché immagini e video manipolati possono essere sfruttati per carpire segreti industriali, cambiare politiche aziendali o arrecare un danno di immagine a un’azienda.
Come difendersi da tutto ciò?
Per le aziende la strategia di difesa non può che basarsi su un processo di gestione del rischio. Tecnologie di deep learning dovrebbero essere progettate e utilizzate con prudenza da parte delle aziende, prestando attenzione ad esigenze di business come anche ai rischi per i diritti e le libertà degli utenti.
Per difendersi dai deepfake esistono specifiche tecniche basate sull’intelligenza artificiale: dall’inserimento di pixel di disturbo in grado di impedire la manipolazione dei video, all’analisi di fotogrammi specifici allo scopo di rilevare eventuali distorsioni dell’immagine frutto di manipolazione, fino all’analisi dello spettro acustico alla ricerca di frequenze non compatibili con il parlato naturale di una persona.
Tuttavia, come spesso accade, con la nascita di tecnologie capaci di contrastare una minaccia, la minaccia stessa tende ad evolvere. È perciò fondamentale garantire un’adeguata formazione e sensibilizzazione del personale aziendale su come gestire informazioni riservate e/o privilegiate.
Un contributo importante in tal senso può provenire da soluzioni di people engagement che permettano ai dipendenti di sentirsi parte attiva della propria organizzazione ed elemento fondamentale nella gestione della sicurezza delle informazioni in azienda. Le attività di formazione e sensibilizzazione dovrebbero coinvolgere chiunque utilizzi sistemi di social network o piattaforme di instant messaging (es. whatsapp, telegram, etc.), le quali rappresentano oggi i principali veicoli di trasmissione dei deepfake.
Il messaggio deve essere chiaro: caricando un’immagine, un audio o un video in un’app, si rischia di perderne il controllo. Occorre quindi verificare la fonte dei contenuti multimediali che si ricevono e al minimo dubbio sulla loro autenticità evitare di condividerli.
Feb 26, 2024 0
Feb 15, 2024 0
Feb 06, 2024 0
Ott 31, 2023 0
Mar 15, 2024 0
Mar 15, 2024 0
Mar 13, 2024 0
Feb 29, 2024 0
Mar 15, 2024 0
Dopo alcuni mesi dalla sua scoperta, Tomer Peled,...Mar 15, 2024 0
Sempre più aziende stanno scegliendo Kubernetes (K8s) per...Mar 13, 2024 0
Negli ultimi anni il ruolo del CISO (Chief Information...Feb 29, 2024 0
Secondo la ricerca “Connecting the future of...Feb 28, 2024 0
Secondo l’ultimo sondaggio di Check Point, fornitore...Mag 04, 2018 0
E se vi dicessimo che la saga di Star Wars ...Nov 14, 2016 2
Abbiamo rubato al blog di Kaspersky un vecchio pezzo di...Nov 08, 2016 2
Il numero uno degli scacchi mondiali Magnus Carlsen ha...Ott 28, 2016 0
Il pirata informatico che ha creato il ransomware cerca...Ott 11, 2016 0
Dopo la raffica di figuracce, l’azienda sospende per...Mar 18, 2024 0
F.A.C.C.T, agenzia russa di cybersecurity, ha denunciato...Mar 18, 2024 0
Il team di SonicWall Capture Labs ha scoperto di recente...Mar 15, 2024 0
Dopo alcuni mesi dalla sua scoperta, Tomer Peled,...Mar 14, 2024 0
I ricercatori di FortiGuard Labs hanno scoperto una...Mar 14, 2024 0
I ricercatori di SaltSecurity hanno individuato due...