Aggiornamenti recenti Agosto 13th, 2025 11:24 AM
Nov 15, 2024 Valentina Caruso Attacchi, News 0
La sicurezza dei toolkit ML continua a essere minacciata da una serie di vulnerabilità piuttosto diffuse. Un’analisi recente di JFrog, azienda specializzata nella sicurezza della catena di fornitura del software, ha rivelato una serie di debolezze presenti in 15 progetti open-source legati al mondo dei sistemi di apprendimento automatico (ML). Parliamo di falle che potrebbero compromettere sia server sia client.
Nel complesso, i ricercatori JFrog hanno individuato oltre venti vulnerabilità. Sfruttandole, i cybercriminali potrebbero prendere il controllo di componenti critiche dei sistemi ML, tra cui database e pipeline di addestramento. Una delle vulnerabilità individuate, CVE-2024-7340 (Weave ML), è una falla directory traversal. Questa fragilità permette agli utenti con pochi privilegi di accedere a file riservati eludendo le protezioni. Gli attacchi che la sfruttano vengono spesso sottovalutati rispetto ad altre minacce online ma sono in realtà altrettanto pericolosi.
Ci sono poi vulnerabilità legate a misure di accesso deboli o privilegi assegnati in modo errato. La prima tipologia (ZenML) permette agli utenti di ottenere autorizzazioni amministrative e manipolare il codice. La seconda, invece, si chiama CVE-2024-6507 (Deep Lake) ed è una vulnerabilità di tipo injection che consente ai malintenzionati di eseguire comandi di sistema su dataset remoti.
CVE-2024-45187 (Mage AI), grazie ai privilegi assegnati in modo errato, fa sì che utenti guest siano autorizzati ad eseguire codice arbitrario da remoto, anche dopo la loro cancellazione, per 30 giorni.
JFrog ha sottolineato che molte di queste falle possono portare a violazioni anche gravi. Questo perché i cybercriminali possono sfruttarle per accedere a dati, training e modelli. Una pipeline vulnerabile può permettere agli hacker di compromettere severamente i modelli ML, fare data poisoning o installare backdoor.
Le falle di cui abbiamo parlato sono state identificate in strumenti come Weave, ZenML, Deep Lake, Vanna.AI e Mage AI. Tutte consentono, potenzialmente, di accedere senza autorizzazione a dati sensibili e modelli ML.
Questo panorama di vulnerabilità dimostra quanto sia essenziale una protezione completa e aggiornata dei sistemi ML per contrastare proattivamente le minacce, prevenire eventuali attacchi e proteggere dati e modelli sensibili.
Gen 18, 2019 0
Ago 13, 2025 0
Ago 12, 2025 0
Ago 11, 2025 0
Ago 11, 2025 0
Ago 13, 2025 0
Ago 12, 2025 0
Ago 11, 2025 0
Ago 11, 2025 0
Ago 04, 2025 0
I chatbot basati su modelli linguistici di grandi...Lug 29, 2025 0
Tra le minacce più recenti che stanno facendo tremare il...Lug 17, 2025 0
Gli attacchi DDoS, compresi quelli ipervolumetrici,...Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 03, 2025 0
Recentemente il team Satori Threat Intelligence di HUMAN ha...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Ago 13, 2025 0
Le tensioni tra Stati Uniti e Cina si spostano sul...Ago 12, 2025 0
Una nuova campagna di attacchi informatici sta prendendo di...Ago 11, 2025 0
Una vulnerabilità in Google Calendar consentiva a un...Ago 11, 2025 0
La scorsa settimana il CERT-AGID ha rilevato e analizzato...Ago 08, 2025 0
SonicWall ha smentito l’ipotesi che i recenti attacchi...