Aggiornamenti recenti Marzo 17th, 2026 4:00 PM
Ago 30, 2024 Marina Londei Approfondimenti, Attacchi, Attacchi, In evidenza, News, RSS 0
La diffusione dell’intelligenza artificiale sta cambiando il mondo del lavoro e offrendo nuove opportunità di innovazione, ma anche ampliato la superficie di attacco: i cybercriminali non si sono fermati un attimo e negli ultimi due anni hanno ideato nuovi exploit e tecniche di attacco che sfruttano le vulnerabilità dei chatbot e altri tool di IA.
In un post sul suo blog, il ricercatore di sicurezza wunderwuzzi ha illustrato un exploit contro Microsoft 365 Copilot che, a partire dalla prompt injection, permette di esfiltrare i dati sensibili di un utente.
Il ricercatore ha spiegato che il copilota di produttività è vulnerabile a prompt injection da contenuti di terze parti, per esempio quando deve processare email e documenti. Nel dettaglio, l’attaccante ha condiviso col chatbot un documento Word con comandi specifici per trasformare Copilot in “Microsoft Defender per Copirate”, uno strumento di scam ampiamente usato.
In uno degli esempi condivisi, il ricercatore mostra il testo di un’email che viene fatto analizzare dal chatbot in cui si ordina al tool di cercare un’email con titolo “Slack confirmation code” per poi inviare il risultato a una pagina controllata dall’attaccante.

Credits: wunderwuzzi
Ottenuto il controllo del tool, l’attaccante può sfruttare una nuova tecnica chiamata “ASCII Smuggling” che usa caratteri Unicode speciali simili agli ASCII ma non visibili nell’interfaccia utente; ciò significa che il cybercriminale può fare in modo che il chatbot scriva questi caratteri invisibili in risposta all’utente e li integri in link cliccabili. A questo punto, se l’utente clicca sul link, i dati vengono inviati al server malevolo.
Wunderwuzzi ha individuato la catena di attacco a inizio anno e ha contattato immediatamente Microsoft condividendogli tutti i dettagli dell’exploit, reso noto solo ora. Attualmente l’exploit non funziona più, anche se Microsoft non ha chiarito come ha risolto il problema. Il ricercatore ha sottolineato però che Copilot è ancora vulnerabile ad attacchi di prompt injection.
Feb 24, 2026 0
Feb 13, 2026 0
Gen 29, 2026 0
Gen 15, 2026 0
Mar 17, 2026 0
Mar 16, 2026 0
Mar 13, 2026 0
Mar 11, 2026 0
Mar 16, 2026 0
Secondo una ricerca di Qualys, il pacchetto di...Mar 13, 2026 0
L’adozione degli agenti AI nelle aziende sta accelerando...
Mar 11, 2026 0
Il 2025 segna un nuovo record storico per la criminalità...
Mar 10, 2026 0
Torna il tema dell’affidabilità dei plug-in e servizi...
Mar 06, 2026 0
Nel mondo dello sviluppo software e delle infrastrutture...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Mar 17, 2026 0
Le più recenti ricerche di BeyondTrust, Miggo e Orca...
Mar 16, 2026 0
Secondo una ricerca di Qualys, il pacchetto di...Mar 13, 2026 0
L’adozione degli agenti AI nelle aziende sta accelerando...
Mar 11, 2026 0
Il 2025 segna un nuovo record storico per la
Mar 10, 2026 0
Torna il tema dell’affidabilità dei plug-in e servizi...
