Aggiornamenti recenti Dicembre 10th, 2025 2:00 PM
Lug 25, 2025 Redazione In evidenza, News, RSS, Scenari, Scenario 0
Un nuovo studio condotto da Harmonic Security rivela uno scenario preoccupante per la sicurezza aziendale: in molte imprese con sede negli Stati Uniti e nel Regno Unito, gli strumenti di intelligenza artificiale generativa sviluppati in Cina vengono utilizzati quotidianamente da dipendenti senza l’approvazione – e spesso neppure la consapevolezza – dei team di cybersecurity. Il fenomeno, osservato nell’arco di 30 giorni su un campione di 14.000 dipendenti, coinvolge il caricamento di dati sensibili su piattaforme come DeepSeek, Kimi Moonshot, Baidu Chat, Qwen (Alibaba) e Manus, tutte soggette a politiche di trattamento dei dati opache o permissive.

L’analisi ha individuato ben 535 episodi di esposizione di dati sensibili riguardanti contenuti caricati da 1.059 utenti. Tra le informazioni compromesse figurano codice sorgente, documentazione ingegneristica, report finanziari, contratti legali, dati personali e documenti relativi a operazioni di fusione e acquisizione. Oltre un terzo del materiale riguarda direttamente asset strategici delle imprese coinvolte.
DeepSeek si conferma come la piattaforma più utilizzata, presente nell’85% degli incidenti, seguita da Kimi Moonshot e Qwen. Si tratta di strumenti che, pur offrendo funzionalità avanzate e accesso immediato, non garantiscono trasparenza né controllo sull’uso futuro dei dati caricati, lasciando le aziende esposte a gravi rischi di violazione della riservatezza, perdita di proprietà intellettuale e non conformità normativa.
Secondo Harmonic, il fenomeno dell’adozione “silenziosa” delle GenAI cinesi è particolarmente diffuso nelle aziende ad alta densità di sviluppatori, dove la pressione sul time-to-output supera spesso il rispetto delle policy aziendali. La facilità d’uso di queste piattaforme alimenta un comportamento user-driven che aggira completamente i controlli IT e le autorizzazioni formali, spingendo i confini della shadow IT verso un territorio ancora più rischioso.
La crescente pervasività di questi strumenti impone alle imprese di rivedere con urgenza le proprie strategie di governance dell’AI. Come sottolineano i ricercatori, la sola consapevolezza non è più sufficiente: servono strumenti tecnici per il monitoraggio in tempo reale e il blocco proattivo delle interazioni non autorizzate con applicazioni potenzialmente pericolose.
I risultati dello studio evidenziano come la gestione dell’intelligenza artificiale generativa sia diventata una priorità non solo tecnica, ma strategica. La capacità di controllare l’adozione e l’utilizzo di questi strumenti sarà cruciale quanto le performance stesse dei modelli, specialmente per le aziende che operano in settori regolamentati o con un’elevata dipendenza da software proprietario e informazioni riservate.
Nov 24, 2025 0
Mar 04, 2025 0
Gen 16, 2024 0
Dic 10, 2025 0
Dic 09, 2025 0
Dic 08, 2025 0
Dic 05, 2025 0
Dic 10, 2025 0
Secondo il National Cyber Security Centre (NCSC),...
Dic 05, 2025 0
Lakera, società di Check Point, ha pubblicato una ricerca...
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Nov 24, 2025 0
Analizzando DeepSeek R1, un potente LLM dell’omonima...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 10, 2025 0
Secondo il National Cyber Security Centre (NCSC),...
Dic 09, 2025 0
React2Shell, una vulnerabilità di React che consente...
Dic 08, 2025 0
Nel periodo compreso tra il 29 novembre e il 5...
Dic 04, 2025 0
Dark Telegram, il regno dei canali clandestini, non sembra...
Dic 03, 2025 0
I ricercatori di JFrog Security Research hanno...
