Aggiornamenti recenti Ottobre 28th, 2025 9:10 AM
Apr 06, 2023 Marina Londei Approfondimenti, Attacchi, Minacce, RSS, Tecnologia 0
L’IA generativa non è immune dagli attacchi informatici: uno studio congiunto dei ricercatori di IBM, della National Tsing Hua University di Taiwan e della Chinese University di Hong Kong ha dimostrato che è possibile introdurre delle backdoor nei modelli di diffusione.
Queste reti neurali sono alla base di strumenti text-to-image come DALL-E e rappresentano l’architettura sulla quale sono costruiti questi tool. I modelli di diffusione operano aggiungendo del “rumore”, cioè elementi e caratteristiche non presenti nell’immagine iniziale, ai dati di addestramento e poi invertendo il processo per generare immagini fedeli all’originale.

Freepik
Come riportato da VentureBeat, questo approccio comporta dei rischi di sicurezza che finora non sono stati approfonditi. Nel loro studio i ricercatori descrivono un framework d’attacco chiamato BadDiffusion che consiste nell’inserire una backdoor nel modello per generare un output specifico, diverso da quello atteso dalla vittima.
Un attaccante può modificare gli step del modello per renderlo sensibile a un determinato trigger nei dati di training, e inserire poi questo trigger nel dataset in uso. La particolarità dell’attacco è che funziona solo quando, a fronte della modifica del modello, c’è uno specifico innesco nei dati; ciò significa che in circostanze normali il modello produce l’output atteso dall’utente.
Poiché senza un trigger il modello funziona come dovrebbe gli utenti non sono in grado di individuare la backdoor semplicemente analizzando le immagini generate. Il framework d’attacco è inoltre molto economico da realizzare: è sufficiente ritoccare i modelli di diffusione già disponibili sul web per inserire la backdoor e riproporre il modello compromesso sul web.

Freepik
I ricercatori hanno analizzato due possibili contromisure contro il BadDiffusion: l’Adversarial Neuron Pruning (ANP) e l’Inference-Time Clipping. Il primo si è rivelato piuttosto instabile e troppo sensibile al numero di parametri del modello; il secondo, pur essendo più semplice del primo, ha portato risultati promettenti, anche se potrebbe rivelarsi inefficace contro backdoor complesse.
Visto l’ampio utilizzo di questi modelli e la scarsità di soluzioni contro le minacce è importante investire sulla ricerca e lo sviluppo di nuove linee di difesa. Il primo passo, come sempre, è comprendere i rischi che i modelli di diffusione comportano; inoltre è opportuno verificare sempre l’autenticità dei modelli scaricati dal web.
Ott 21, 2025 0
Ott 08, 2025 0
Ott 07, 2025 0
Ott 06, 2025 0
Ott 28, 2025 0
Ott 27, 2025 0
Ott 24, 2025 0
Ott 23, 2025 0
Ott 27, 2025 0
Dante, un sofisticato e finora sconosciuto spyware...
Ott 21, 2025 0
Le campagne di estorsione e i ransomware continuano a...
Ott 17, 2025 0
Il Global Threat Intelligence Report di settembre...
Ott 16, 2025 0
ChatGPT Agent può essere usato per esfiltrare dati: lo ha...
Ott 15, 2025 0
Aumentare la complessità delle password, richiedendo...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Ott 28, 2025 0
L’interruzione delle attività governative negli...
Ott 27, 2025 0
Dante, un sofisticato e finora sconosciuto spyware...
Ott 27, 2025 0
Nel periodo compreso tra il 18 e il 24 ottobre,...
Ott 24, 2025 0
Il Pwn2Own di ottobre, tenutosi a Cork, in Irlanda, si...
Ott 23, 2025 0
Una recente analisi di ESET riporta che il gruppo...
