Aggiornamenti recenti Agosto 20th, 2025 12:52 PM
Ago 20, 2025 Giancarlo Calzetta In evidenza, News, Vulnerabilità 0
Il chatbot di assistenza clienti di Lenovo, chiamato Lena, è risultato esposto a una grave vulnerabilità che avrebbe permesso a un attaccante remoto di eseguire codice malevolo e sottrarre dati sensibili. La falla, individuata dai ricercatori di Cybernews e resa pubblica a inizio agosto, dimostra ancora una volta quanto i sistemi basati su intelligenza artificiale possano trasformarsi in un veicolo di rischio se non adeguatamente protetti.
L’attacco con un solo prompt
Il problema risiedeva nella gestione degli input forniti al chatbot. Attraverso un prompt appositamente costruito, lungo circa 400 caratteri, era possibile indurre Lena a restituire contenuti in formato HTML e JSON che includevano codice potenzialmente eseguibile dal browser della vittima. In questo modo, con un semplice comando, il sistema avrebbe inviato i cookie di sessione verso un server controllato dall’attaccante, consentendo di prendere il controllo delle conversazioni e di accedere a informazioni riservate.
Una volta ottenuti i cookie, gli aggressori avrebbero potuto muoversi liberamente nel portale di supporto, leggere dati personali, interagire con i sistemi e persino tentare installazioni di backdoor per mantenere un accesso persistente.
Il ruolo della scarsa validazione
Secondo l’analisi dei ricercatori, il cuore della vulnerabilità risiedeva nella mancanza di filtri adeguati su input e output del modello. Il chatbot non solo accettava comandi malevoli senza alcun controllo, ma li restituiva all’utente senza applicare procedure di sanificazione. L’assenza di regole di escaping e di restrizioni sull’esecuzione di codice lato client ha amplificato l’impatto della falla, trasformando un semplice prompt in un’arma capace di compromettere l’intero sistema di assistenza.
La vulnerabilità è stata scoperta e segnalata il 22 luglio 2025. Lenovo ha riconosciuto ufficialmente il problema il 6 agosto e, poco meno di due settimane più tardi, ha rilasciato una patch correttiva.
Con il diffondersi dei sistemi di AI, diventa sempre più impellente la creazione di un know how di sicurezza su questi sistemi che, per forza di cose, avrà bisogno di tempo per formarsi. Quello del prompt engineering è un settore ancora in rapida espansione, ma che bisogna tenere ben presente per evitare altri casi come questo.
Giu 13, 2025 0
Ago 19, 2025 0
Ago 18, 2025 0
Ago 13, 2025 0
Ago 12, 2025 0
Ago 04, 2025 0
I chatbot basati su modelli linguistici di grandi...Lug 29, 2025 0
Tra le minacce più recenti che stanno facendo tremare il...Lug 17, 2025 0
Gli attacchi DDoS, compresi quelli ipervolumetrici,...Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 03, 2025 0
Recentemente il team Satori Threat Intelligence di HUMAN ha...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Ago 20, 2025 0
Il chatbot di assistenza clienti di Lenovo, chiamato Lena,...Ago 19, 2025 0
Il team di sicurezza della Python Software Foundation,...Ago 18, 2025 0
Nel corso di questa settimana il CERT-AGID ha rilevatoAgo 13, 2025 0
Le tensioni tra Stati Uniti e Cina si spostano sul...Ago 12, 2025 0
Una nuova campagna di attacchi informatici sta prendendo di...