Aggiornamenti recenti Dicembre 8th, 2025 9:00 AM
Mar 05, 2024 Marina Londei Hacking, In evidenza, Minacce, News, RSS 0
Durante un’analisi dei repository Hugging Face, i ricercatori di JFrog hanno scoperto un modello di machine learning malevolo in grado di installare una backdoor sul dispositivo della vittima, prendendone il controllo. Il team ha scoperto inoltre che esistono almeno 100 istanze che nascondono lo stesso funzionamento.
I ricercatori monitorano continuamente i repository della piattaforma scansionando i modelli caricati dagli utenti per individuare quelli malevoli. Il modello analizzato è in grado di eseguire codice sulla macchina della vittima e comunicare con il server degli attaccanti per ricevere comandi.
Il modello di ML sfrutta il formato “pickle”, usato per serializzare gli oggetti Python, che consente di eseguire codice quando viene caricato. Il repository analizzato, un modello PyTorch, tenta di aprire una reverse shell verso l’indirizzo 210.117-212-93, cercando di stabilire una connessione diretta col server degli attaccanti. L’indirizzo IP appartiene a KREOnet, “Korea Research Environment Open NETwork”, un network di ricerca della Corea del Sud usato per scopi educativi.

Pixabay
Il team di JFrog ha segnalato il problema a Hugging Face che ha eliminato il modello dalla piattaforma, ma i ricercatori hanno individuato un’altra istanza del repository con lo stesso payload, ma diverso indirizzo IP. Secondo i ricercatori, è probabile che dietro questi modelli ci sia un ricercatore o un professionista nel campo dell’IA. Un’analisi più approfondita ha dimostrato che sulla piattaforma esistono almeno altre 100 istanze di modelli PyTorch malevoli.
“Questa infiltrazione silenziosa potrebbe potenzialmente garantire l’accesso a sistemi interni critici e aprire la strada a violazioni di dati su larga scala o addirittura allo spionaggio aziendale, con un impatto non solo sui singoli utenti ma potenzialmente su intere organizzazioni in tutto il mondo, lasciando le vittime del tutto ignare di essere state compromesse” spiega Cohen.
Nonostante Hugging Face scansioni regolarmente i propri repository per individuare codice malevolo, alcune minacce possono sfuggire all’analisi. La piattaforma, inoltre, non blocca tutti i repo sospetti: in molti casi li segnala come potenzialmente pericolosi, ma gli utenti possono comunque scaricarli. È importante quindi usare soltanto modelli provenienti da fonti conosciute e ufficiali e implementare delle misure di sicurezza locali per analizzare il codice scaricato.
Dic 02, 2025 0
Nov 27, 2025 0
Nov 13, 2025 0
Ott 31, 2025 0
Dic 08, 2025 0
Dic 05, 2025 0
Dic 04, 2025 0
Dic 03, 2025 0
Dic 05, 2025 0
Lakera, società di Check Point, ha pubblicato una ricerca...
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Nov 24, 2025 0
Analizzando DeepSeek R1, un potente LLM dell’omonima...
Nov 21, 2025 0
Lo scorso marzo Skybox Security, società israeliana di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 08, 2025 0
Nel periodo compreso tra il 29 novembre e il 5...
Dic 04, 2025 0
Dark Telegram, il regno dei canali clandestini, non sembra...
Dic 03, 2025 0
I ricercatori di JFrog Security Research hanno...
Dic 02, 2025 0
Una campagna durata sette anni che ha infettato 4.3...
Dic 01, 2025 0
Coupang, colosso del retail sud-coreano, ha confermato di...
