Aggiornamenti recenti Dicembre 23rd, 2025 10:00 AM
Set 30, 2025 Marina Londei Attacchi, In evidenza, Minacce, News, RSS 0
I ricercatori di Radware hanno dettagliato ShadowLeak, un attacco che sfrutta un bug zero-click di Deep Research di ChatGPT per esfiltrare dati.
Deep Research è una funzionalità agentica del chatbot in grado di effettuare ricerche approfondite in rete e analizzare i dati raccolti. L’utente specifica un argomento o una domanda e il chatbot ricerca tra articoli, paper scientifici, siti web specializzati e documenti per apprendere tutto ciò che può sul tema; in seguito, genera un report dettagliato consultabile dall’utente.
La particolarità di Deep Research è che può essere integrato con servizi come GitHub o Gmail ed effettuare quindi ricerche sui dati personali dell’utente. Nell’attacco ShadowLeak, gli attaccanti sfruttano proprio questa integrazione per esfiltrare dati sensibili dalle email senza che la vittima se ne accorga.

Il flusso di attacco è piuttosto semplice: inizialmente, i cybercriminali inviano un’email alla vittima senza alcun messaggio sospetto. L’email contiene però un prompt, nascosto nel body HTML o semplicemente offuscato, che quando viene letto da Deep Research forza il chatbot a raccogliere i dati sensibili e inviarli a un URL che punta a un server controllato dagli attaccanti.
Il prompt nascosto può, per esempio, ordinare a ChatGPT di individuare nelle email ricevute il nome completo della vittima, il suo indirizzo di residenza, il suo numero di telefono o altri dati sensibili. A questo punto è sufficiente attendere che l’utente effettui una ricerca sulle email tramite Deep Research e che il chatbot elabori il prompt nascosto per far cominciare il processo di esfiltrazione.
La difficoltà principale dell’attacco sta nella scrittura di un prompt efficace, difficoltà facilmente superabile dopo qualche raffinamento; per il resto, il flusso è lineare e soprattutto non richiede alcuna interazione utente.
“Il leak avviene server-side, interamente all’interno dell’ambiente cloud di OpenAI“ spiegano i ricercatori. “Il tool built-in di ricerca dell’agente effettuate l’esfiltrazione in maniera autonoma, senza coinvolgere il client“.
Per proteggersi dall’attacco, il team di Radware consiglia di sanificare le email prima che vengano analizzate da ChatGPT, eliminando elementi HTML sospetti e caratteri offuscati, e normalizzando il CSS non visibile. Oltre a ciò, è fondamentale monitorare il comportamento del chatbot per assicurarsi che non effettui azioni sospette.
Radware ha individuato il problema a giugno e lo ha notificato a OpenAI. La compagnia ha risolto il bug di ChatGPT a inizio agosto e ha comunicato l’avvenuta risoluzione a inizio settembre.
Nov 10, 2025 0
Nov 05, 2025 0
Ott 29, 2025 0
Ott 16, 2025 0
Dic 22, 2025 0
Dic 22, 2025 0
Dic 19, 2025 0
Dic 18, 2025 0
Dic 23, 2025 0
Il dark web non è più soltanto un luogo di scambio di...
Dic 22, 2025 0
Nel 2025 la pressione cyber sul settore finanziario è...
Dic 18, 2025 0
Se c’è una cosa su cui tutti concordano è che...
Dic 17, 2025 0
Il secondo semestre del 2025 ha segnato un punto di svolta...
Dic 15, 2025 0
Il 2025 sta giungendo al termine e nel mondo della...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 22, 2025 0
Nel 2025 la pressione cyber sul settore finanziario è...
Dic 22, 2025 0
Nel corso della settimana appena analizzata, il CERT-AGID...
Dic 19, 2025 0
Una vecchia vulnerabilità di ASUS Live Update è ancora...
Dic 18, 2025 0
Se c’è una cosa su cui tutti concordano è che...
Dic 17, 2025 0
Mezzo milione di nuovi file malevoli al giorno. È
