Aggiornamenti recenti Aprile 10th, 2026 3:23 PM
Nov 11, 2020 Manuela Santini Approfondimenti, Minacce, Scenario, Women for Security 0
L’utilizzo di app basate su algoritmi di AI per la manipolazione di immagini, video e audio è in aumento. Eppure, non sempre le aziende che sviluppano tali app tengono conto dei rischi a cui potrebbero essere esposti gli utenti. Uno dei maggiori pericoli deriva dall’utilizzo delle app per creare falsi di altissimo livello, noti come “deepfake”.
Sostituire i visi delle persone in video ed immagini (face swapping) e manipolare contenuti audio (audio deepfake) è oggi alla portata di tutti: con qualche click e secondo di attesa, è possibile realizzare video falsi di buona qualità, magari pensando ad un semplice scherzo tra amici. Ma le conseguenze possono essere ben più gravi.

Il revenge porn ha trovato un nuovo alleato in applicazioni come DeepNude, che permettono di spogliare le donne e poi condividerne la nuova immagine. I danni reputazionali, psicologici e più in generale gli impatti sulla vita privata delle persone oggetto di tali foto non sono spesso presi in considerazione da chi sviluppa e utilizza le app. Ad essere colpiti sono spesso singoli individui, in particolare le donne, ma anche le aziende possono pagarne il prezzo perché immagini e video manipolati possono essere sfruttati per carpire segreti industriali, cambiare politiche aziendali o arrecare un danno di immagine a un’azienda.
Come difendersi da tutto ciò?
Per le aziende la strategia di difesa non può che basarsi su un processo di gestione del rischio. Tecnologie di deep learning dovrebbero essere progettate e utilizzate con prudenza da parte delle aziende, prestando attenzione ad esigenze di business come anche ai rischi per i diritti e le libertà degli utenti.
Per difendersi dai deepfake esistono specifiche tecniche basate sull’intelligenza artificiale: dall’inserimento di pixel di disturbo in grado di impedire la manipolazione dei video, all’analisi di fotogrammi specifici allo scopo di rilevare eventuali distorsioni dell’immagine frutto di manipolazione, fino all’analisi dello spettro acustico alla ricerca di frequenze non compatibili con il parlato naturale di una persona.
Tuttavia, come spesso accade, con la nascita di tecnologie capaci di contrastare una minaccia, la minaccia stessa tende ad evolvere. È perciò fondamentale garantire un’adeguata formazione e sensibilizzazione del personale aziendale su come gestire informazioni riservate e/o privilegiate.
Un contributo importante in tal senso può provenire da soluzioni di people engagement che permettano ai dipendenti di sentirsi parte attiva della propria organizzazione ed elemento fondamentale nella gestione della sicurezza delle informazioni in azienda. Le attività di formazione e sensibilizzazione dovrebbero coinvolgere chiunque utilizzi sistemi di social network o piattaforme di instant messaging (es. whatsapp, telegram, etc.), le quali rappresentano oggi i principali veicoli di trasmissione dei deepfake.
Il messaggio deve essere chiaro: caricando un’immagine, un audio o un video in un’app, si rischia di perderne il controllo. Occorre quindi verificare la fonte dei contenuti multimediali che si ricevono e al minimo dubbio sulla loro autenticità evitare di condividerli.
Apr 03, 2026 0
Feb 18, 2026 0
Feb 09, 2026 0
Feb 03, 2026 0
Apr 02, 2026 0
Apr 01, 2026 0
Mar 31, 2026 0
Mar 23, 2026 0
Apr 03, 2026 0
Nel mese scorso, il governo degli USA ha rilasciato un...
Apr 02, 2026 0
Secondo un’analisi pubblicata da GreyNoise, basata su...
Apr 01, 2026 0
Un recente studio della Unit 42 di Palo Alto ha messo in...
Mar 31, 2026 0
Il concetto di vibecoding – ovvero la generazione di...
Mar 23, 2026 0
Man mano che il tempo passa, i ricercatori di sicurezza...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Apr 10, 2026 0
Un attacco alla catena di distribuzione ha colpito il...
Apr 08, 2026 0
L’annuncio di Anthropic sembrerebbe una trovata di...
Apr 07, 2026 0
Secondo un’analisi pubblicata dal National Cyber Security...
Apr 03, 2026 0
Nel mese scorso, il governo degli USA ha rilasciato un...
Apr 02, 2026 0
Secondo un’analisi pubblicata da GreyNoise, basata su...
