Aggiornamenti recenti Agosto 29th, 2025 5:25 PM
Apr 28, 2023 Marina Londei Approfondimenti, Attacchi, Hacking, RSS, Vulnerabilità 0
Le imprese stanno investendo sempre di più su applicazioni basate sui LLM come chatbot e tool generativi, ignorando però la presenza di una vulnerabilità molto importante: la prompt injection. Si tratta di un processo che consiste nel portare il modello generativo a generare l’output desiderato inserendo un testo specifico nella richiesta di un utente o creare input appositi per ottenere informazioni o eseguire azioni.
Nel suo blog Simon Willson ha dettagliato alcune casistiche di attacco che sfruttano la prompt injection, sottolineando che finora non ha individuato sistemi con difese contro questo tipo di attacco.
In uno degli esempi riportati nell’articolo, Willson analizza il caso di un assistente vocale in grado di leggere le email, classificare quelle importanti e riassumerne il contenuto. Poiché il tool legge le singole email per elaborarle, un attaccante può inviare un’email contenente delle specifiche istruzioni per l’assistente vocale e controllarne l’output.
Freepik
Willson menziona anche il search index poisoning come uno degli attacchi più efficaci che sfruttano i modelli generativi: inserendo delle richieste specifiche nelle pagine web, i chatbot e i motori di ricerca basati su IA come Bing possono venire manipolati nel fornire informazioni false all’utente. Similmente, l’indirect prompt injection sfrutta i prompt nascosti nei siti web per imporre nuove istruzioni al tool mentre esegue lo scraping del sito.
Infine, altri attacchi sono in grado di estrarre dati da applicazioni e database collegati ai tool, semplicemente inserendo delle query specifiche nell’input.
Quali sono le reali conseguenze di una prompt injection? Come spiega Willson, nel caso di applicazioni che si interfacciano solo col singolo utente tramite una chat non è un grosso problema. Ciò che può accadere, al massimo, è che un attaccante potrebbe essere in grado di ottenere il prompt originale del modello (prompt leaking), ma non di più.
La situazione cambia quando i tool sono integrati in altre applicazioni e vengono usati per avviare altri processi come l’invio di richieste ad API, ricerche su documenti sensibili e l’esecuzione di codice.
Pixabay
Secondo Willson non esistono metodi di protezione efficaci al 100%, ma è possibile comunque ridurre il rischio implementando dei filtri sull’input e sull’output. Nel caso un attaccante concateni un testo all’input, può essere utile condividere con l’utente il prompt effettivo utilizzato dal tool per assicurarsi che sia quello corretto.
In maniera analoga, se il tool è collegato ad altri servizi, ad esempio a un client di posta, è conveniente proporre il testo generato dell’email e attendere la conferma dell’utente prima di inviarlo.
Ago 22, 2025 0
Ago 11, 2025 0
Lug 24, 2025 0
Lug 18, 2025 0
Ago 29, 2025 0
Ago 27, 2025 0
Ago 26, 2025 0
Ago 25, 2025 0
Ago 29, 2025 0
Il prossimo 14 ottobre terminerà ufficialmente il supporto...Ago 26, 2025 0
Il mondo dell’IoT rimane uno dei più esposti alle...Ago 04, 2025 0
I chatbot basati su modelli linguistici di grandi...Lug 29, 2025 0
Tra le minacce più recenti che stanno facendo tremare il...Lug 17, 2025 0
Gli attacchi DDoS, compresi quelli ipervolumetrici,...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Ago 29, 2025 0
Il prossimo 14 ottobre terminerà ufficialmente il supporto...Ago 27, 2025 0
Google ha deciso di aumentare la sicurezza dei dispositivi...Ago 26, 2025 0
Il mondo dell’IoT rimane uno dei più esposti alle...Ago 25, 2025 0
Il gruppo pakistano APT36, noto anche come Transparent...Ago 25, 2025 0
La scorsa settimana il CERT-AGID ha rilevato 81 campagne...