Aggiornamenti recenti Dicembre 5th, 2025 4:48 PM
Nov 11, 2020 Manuela Santini Approfondimenti, Minacce, Scenario, Women for Security 0
L’utilizzo di app basate su algoritmi di AI per la manipolazione di immagini, video e audio è in aumento. Eppure, non sempre le aziende che sviluppano tali app tengono conto dei rischi a cui potrebbero essere esposti gli utenti. Uno dei maggiori pericoli deriva dall’utilizzo delle app per creare falsi di altissimo livello, noti come “deepfake”.
Sostituire i visi delle persone in video ed immagini (face swapping) e manipolare contenuti audio (audio deepfake) è oggi alla portata di tutti: con qualche click e secondo di attesa, è possibile realizzare video falsi di buona qualità, magari pensando ad un semplice scherzo tra amici. Ma le conseguenze possono essere ben più gravi.

Il revenge porn ha trovato un nuovo alleato in applicazioni come DeepNude, che permettono di spogliare le donne e poi condividerne la nuova immagine. I danni reputazionali, psicologici e più in generale gli impatti sulla vita privata delle persone oggetto di tali foto non sono spesso presi in considerazione da chi sviluppa e utilizza le app. Ad essere colpiti sono spesso singoli individui, in particolare le donne, ma anche le aziende possono pagarne il prezzo perché immagini e video manipolati possono essere sfruttati per carpire segreti industriali, cambiare politiche aziendali o arrecare un danno di immagine a un’azienda.
Come difendersi da tutto ciò?
Per le aziende la strategia di difesa non può che basarsi su un processo di gestione del rischio. Tecnologie di deep learning dovrebbero essere progettate e utilizzate con prudenza da parte delle aziende, prestando attenzione ad esigenze di business come anche ai rischi per i diritti e le libertà degli utenti.
Per difendersi dai deepfake esistono specifiche tecniche basate sull’intelligenza artificiale: dall’inserimento di pixel di disturbo in grado di impedire la manipolazione dei video, all’analisi di fotogrammi specifici allo scopo di rilevare eventuali distorsioni dell’immagine frutto di manipolazione, fino all’analisi dello spettro acustico alla ricerca di frequenze non compatibili con il parlato naturale di una persona.
Tuttavia, come spesso accade, con la nascita di tecnologie capaci di contrastare una minaccia, la minaccia stessa tende ad evolvere. È perciò fondamentale garantire un’adeguata formazione e sensibilizzazione del personale aziendale su come gestire informazioni riservate e/o privilegiate.
Un contributo importante in tal senso può provenire da soluzioni di people engagement che permettano ai dipendenti di sentirsi parte attiva della propria organizzazione ed elemento fondamentale nella gestione della sicurezza delle informazioni in azienda. Le attività di formazione e sensibilizzazione dovrebbero coinvolgere chiunque utilizzi sistemi di social network o piattaforme di instant messaging (es. whatsapp, telegram, etc.), le quali rappresentano oggi i principali veicoli di trasmissione dei deepfake.
Il messaggio deve essere chiaro: caricando un’immagine, un audio o un video in un’app, si rischia di perderne il controllo. Occorre quindi verificare la fonte dei contenuti multimediali che si ricevono e al minimo dubbio sulla loro autenticità evitare di condividerli.
Nov 13, 2025 0
Nov 03, 2025 0
Ott 31, 2025 0
Ago 12, 2025 0
Dic 05, 2025 0
Nov 27, 2025 0
Nov 26, 2025 0
Nov 24, 2025 0
Dic 05, 2025 0
Lakera, società di Check Point, ha pubblicato una ricerca...
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Nov 24, 2025 0
Analizzando DeepSeek R1, un potente LLM dell’omonima...
Nov 21, 2025 0
Lo scorso marzo Skybox Security, società israeliana di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 04, 2025 0
Dark Telegram, il regno dei canali clandestini, non sembra...
Dic 03, 2025 0
I ricercatori di JFrog Security Research hanno...
Dic 02, 2025 0
Una campagna durata sette anni che ha infettato 4.3...
Dic 01, 2025 0
Coupang, colosso del retail sud-coreano, ha confermato di...
Dic 01, 2025 0
Nel periodo compreso tra il 22 e il 28 novembre,...
