Aggiornamenti recenti Luglio 25th, 2025 4:14 PM
Lug 25, 2025 Redazione In evidenza, News, RSS, Scenari, Scenario 0
Un nuovo studio condotto da Harmonic Security rivela uno scenario preoccupante per la sicurezza aziendale: in molte imprese con sede negli Stati Uniti e nel Regno Unito, gli strumenti di intelligenza artificiale generativa sviluppati in Cina vengono utilizzati quotidianamente da dipendenti senza l’approvazione – e spesso neppure la consapevolezza – dei team di cybersecurity. Il fenomeno, osservato nell’arco di 30 giorni su un campione di 14.000 dipendenti, coinvolge il caricamento di dati sensibili su piattaforme come DeepSeek, Kimi Moonshot, Baidu Chat, Qwen (Alibaba) e Manus, tutte soggette a politiche di trattamento dei dati opache o permissive.
L’analisi ha individuato ben 535 episodi di esposizione di dati sensibili riguardanti contenuti caricati da 1.059 utenti. Tra le informazioni compromesse figurano codice sorgente, documentazione ingegneristica, report finanziari, contratti legali, dati personali e documenti relativi a operazioni di fusione e acquisizione. Oltre un terzo del materiale riguarda direttamente asset strategici delle imprese coinvolte.
DeepSeek si conferma come la piattaforma più utilizzata, presente nell’85% degli incidenti, seguita da Kimi Moonshot e Qwen. Si tratta di strumenti che, pur offrendo funzionalità avanzate e accesso immediato, non garantiscono trasparenza né controllo sull’uso futuro dei dati caricati, lasciando le aziende esposte a gravi rischi di violazione della riservatezza, perdita di proprietà intellettuale e non conformità normativa.
Secondo Harmonic, il fenomeno dell’adozione “silenziosa” delle GenAI cinesi è particolarmente diffuso nelle aziende ad alta densità di sviluppatori, dove la pressione sul time-to-output supera spesso il rispetto delle policy aziendali. La facilità d’uso di queste piattaforme alimenta un comportamento user-driven che aggira completamente i controlli IT e le autorizzazioni formali, spingendo i confini della shadow IT verso un territorio ancora più rischioso.
La crescente pervasività di questi strumenti impone alle imprese di rivedere con urgenza le proprie strategie di governance dell’AI. Come sottolineano i ricercatori, la sola consapevolezza non è più sufficiente: servono strumenti tecnici per il monitoraggio in tempo reale e il blocco proattivo delle interazioni non autorizzate con applicazioni potenzialmente pericolose.
I risultati dello studio evidenziano come la gestione dell’intelligenza artificiale generativa sia diventata una priorità non solo tecnica, ma strategica. La capacità di controllare l’adozione e l’utilizzo di questi strumenti sarà cruciale quanto le performance stesse dei modelli, specialmente per le aziende che operano in settori regolamentati o con un’elevata dipendenza da software proprietario e informazioni riservate.
Mar 04, 2025 0
Gen 16, 2024 0
Lug 25, 2025 0
Lug 24, 2025 0
Lug 23, 2025 0
Lug 22, 2025 0
Lug 17, 2025 0
Gli attacchi DDoS, compresi quelli ipervolumetrici,...Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 03, 2025 0
Recentemente il team Satori Threat Intelligence di HUMAN ha...Giu 09, 2025 0
La cybersecurity sta acquisendo sempre più importanza tra...Mag 30, 2025 0
Nel 2024, le piccole e medie imprese, spesso considerate il...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Lug 25, 2025 0
I ricercatori di Prodaft, compagnia di cybersecurity, hanno...Lug 25, 2025 0
Un nuovo studio condotto da Harmonic Security rivela uno...Lug 24, 2025 0
Sam Altman è spaventato dalla crescente capacità...Lug 23, 2025 0
Dall’Università La Sapienza di Roma arriva WhoFi, un...Lug 22, 2025 0
La campagna di attacchi mirati che sta sfruttando una...