Aggiornamenti recenti Dicembre 5th, 2025 4:48 PM
Ago 30, 2024 Marina Londei Approfondimenti, Attacchi, Attacchi, In evidenza, News, RSS 0
La diffusione dell’intelligenza artificiale sta cambiando il mondo del lavoro e offrendo nuove opportunità di innovazione, ma anche ampliato la superficie di attacco: i cybercriminali non si sono fermati un attimo e negli ultimi due anni hanno ideato nuovi exploit e tecniche di attacco che sfruttano le vulnerabilità dei chatbot e altri tool di IA.
In un post sul suo blog, il ricercatore di sicurezza wunderwuzzi ha illustrato un exploit contro Microsoft 365 Copilot che, a partire dalla prompt injection, permette di esfiltrare i dati sensibili di un utente.
Il ricercatore ha spiegato che il copilota di produttività è vulnerabile a prompt injection da contenuti di terze parti, per esempio quando deve processare email e documenti. Nel dettaglio, l’attaccante ha condiviso col chatbot un documento Word con comandi specifici per trasformare Copilot in “Microsoft Defender per Copirate”, uno strumento di scam ampiamente usato.
In uno degli esempi condivisi, il ricercatore mostra il testo di un’email che viene fatto analizzare dal chatbot in cui si ordina al tool di cercare un’email con titolo “Slack confirmation code” per poi inviare il risultato a una pagina controllata dall’attaccante.

Credits: wunderwuzzi
Ottenuto il controllo del tool, l’attaccante può sfruttare una nuova tecnica chiamata “ASCII Smuggling” che usa caratteri Unicode speciali simili agli ASCII ma non visibili nell’interfaccia utente; ciò significa che il cybercriminale può fare in modo che il chatbot scriva questi caratteri invisibili in risposta all’utente e li integri in link cliccabili. A questo punto, se l’utente clicca sul link, i dati vengono inviati al server malevolo.
Wunderwuzzi ha individuato la catena di attacco a inizio anno e ha contattato immediatamente Microsoft condividendogli tutti i dettagli dell’exploit, reso noto solo ora. Attualmente l’exploit non funziona più, anche se Microsoft non ha chiarito come ha risolto il problema. Il ricercatore ha sottolineato però che Copilot è ancora vulnerabile ad attacchi di prompt injection.
Nov 27, 2025 0
Nov 13, 2025 0
Nov 05, 2025 0
Ott 31, 2025 0
Dic 05, 2025 0
Dic 04, 2025 0
Dic 03, 2025 0
Dic 02, 2025 0
Dic 05, 2025 0
Lakera, società di Check Point, ha pubblicato una ricerca...
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Nov 24, 2025 0
Analizzando DeepSeek R1, un potente LLM dell’omonima...
Nov 21, 2025 0
Lo scorso marzo Skybox Security, società israeliana di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 04, 2025 0
Dark Telegram, il regno dei canali clandestini, non sembra...
Dic 03, 2025 0
I ricercatori di JFrog Security Research hanno...
Dic 02, 2025 0
Una campagna durata sette anni che ha infettato 4.3...
Dic 01, 2025 0
Coupang, colosso del retail sud-coreano, ha confermato di...
Dic 01, 2025 0
Nel periodo compreso tra il 22 e il 28 novembre,...
