Aggiornamenti recenti Ottobre 25th, 2024 6:40 PM
Giu 20, 2024 Marina Londei Approfondimenti, Attacchi, Minacce, News, RSS 0
La diffusione dell’intelligenza artificiale sta contribuendo fortemente all’innovazione, ma comporta anche rischi di privacy, etica e sicurezza. Khurram Akhtar, co-fondatore di ProgrammersForce, sottolinea che nei prossimi due anni la disinformazione creata dall’IA sarà una delle minacce più pressanti per il pubblico e il privato; in particolare, saranno i deepfake a destare le maggiori preoccupazioni.
Il numero di video che impersonano figure aziendali o celebrità sta crescendo e sia i cittadini che le imprese devono sapersi proteggere da questi attacchi.
I deepfake vengono creati sfruttando tecnologie di IA che, a partire da audio, video o immagini reali, replicano l’aspetto e/o la voce di una vittima per eseguire truffe o attacchi. Nel dettaglio, spiega Akhtar, si utilizzano le reti neurali convoluzionali (convolutional neural networks – CNN) e le reti generative avversarie (generative adversarial networks – GAN): le prime vengono utilizzate per riconoscere pattern sofisticati nelle immagini e replicarli; le seconde invece usano due algoritmi di reti neurali che generano e valutano l’autenticità del risultato; il processo viene eseguito in modo iterativo finché l’immagine generata non è sufficientemente precisa e indistinguibile dalla fonte.
I deepfake possono essere un serio pericolo non solo per le organizzazioni, ma anche per i cittadini e la sicurezza nazionale stessa. Figure pubbliche come politici, celebrità ma anche influencer e giornalisti possono diventare vittime di questa tecnologia e perdere soldi e reputazione.
Akhtar ricorda il caso del dipendente di una compagnia di Hong Kong che ha fatto perdere all’organizzazione 25 milioni di dollari dopo aver partecipato a una videoconferenza con quello che credeva essere il CFO. Le truffe sono solo un esempio degli attacchi che possono essere eseguiti coi deepfake: l’abuso di questa tecnologia può portare al furto d’identità, a cyberattacchi di vario tipo e alla diffusione di disinformazione.
Proprio in merito a quest’ultimo tema, di recente l’intelligence statunitense ha reso noto di aver trovato deepfake creati da governi cinesi e iraniani mirati a influenzare i risultati delle elezioni del 2020. Anche se questi video non sono mai stati diffusi, probabilmente perché non sono stati ritenuti abbastanza convincenti, a quattro anni di distanza, con un miglioramento significativo della tecnologia, il pericolo è più reale che mai.
Akhtar sottolinea che, con l’avanzamento delle tecnologie di machine learning, è fondamentale implementare un livello di sicurezza aggiuntivo per verificare l’identità degli utenti e individuare qualsiasi anomalia.
Le tecniche di riconoscimento facciale possono proteggere gli utenti sfruttando algoritmi e sensori per analizzare i volti nei video e identificare ogni movimento, cercando di comprendere se è reale o se è finto. Tra le tecniche più utilizzate c’è l’analisi del movimento, ovvero l’analisi delle feature facciali come le espressioni del volto, le palpebre che sbattono e lo sguardo, caratteristiche molto difficili da replicare.
Un’altra tecnica efficace è la texture analysis, ovvero l’analisi dei dettagli della pelle come la grana o i pori; oltre a essa, si utilizza anche l’imaging termico, il quale necessita però di una camera a infrarossi per determinare se dall’altra parte del video c’è un essere umano.
Altre tecniche utilizzate sono l’analisi 3D, la quale cattura la geometria tridimensionale di un volto usando i sensori di profondità, e l’analisi comportamentale che analizza pattern di comportamento come quelli del parlato, della frequenza nello sbattimento delle palpebre e dei movimenti della testa.
Gli attacchi deepfake diventeranno sempre più sofisticati e con conseguenze potenzialmente disastrose. Le organizzazioni, oltre a stabilire una cultura aziendale basata sulla sicurezza e a istruire i propri dipendenti sulle possibili truffe, devono investire su soluzioni di protezione all’avanguardia e promuovere la standardizzazione delle tecnologie per combattere i deepfake.
Set 04, 2024 0
Lug 01, 2024 0
Giu 17, 2024 0
Mag 17, 2024 0
Ott 25, 2024 0
Ott 25, 2024 0
Ott 25, 2024 0
Ott 24, 2024 0
Ott 25, 2024 0
Se in passato il tracciamento digitale era considerata una...Ott 22, 2024 0
Una delle problematiche più discusse degli assistenti di...Ott 22, 2024 0
Le minacce informatiche crescono in numero e complessità e...Ott 21, 2024 0
Le aziende si espandono e con esse anche i loro ambienti,...Ott 21, 2024 0
Di recente il team di Group-IB è riuscito a ottenere...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Ott 25, 2024 0
Tra le figure più richieste sul mercato del lavoro ci...Ott 25, 2024 0
Oltre 6.000 siti WordPress hackerati per installare plugin...Ott 24, 2024 0
Il team di Symantec ha scoperto che molte applicazioni...Ott 24, 2024 0
Gli attacchi ibridi alle password sono sempre più...Ott 23, 2024 0
Un’approfondita analisi dei ricercatori di sicurezza...