Aggiornamenti recenti Ottobre 24th, 2025 5:37 PM
Lug 25, 2025 Redazione In evidenza, News, RSS, Scenari, Scenario 0
Un nuovo studio condotto da Harmonic Security rivela uno scenario preoccupante per la sicurezza aziendale: in molte imprese con sede negli Stati Uniti e nel Regno Unito, gli strumenti di intelligenza artificiale generativa sviluppati in Cina vengono utilizzati quotidianamente da dipendenti senza l’approvazione – e spesso neppure la consapevolezza – dei team di cybersecurity. Il fenomeno, osservato nell’arco di 30 giorni su un campione di 14.000 dipendenti, coinvolge il caricamento di dati sensibili su piattaforme come DeepSeek, Kimi Moonshot, Baidu Chat, Qwen (Alibaba) e Manus, tutte soggette a politiche di trattamento dei dati opache o permissive.

L’analisi ha individuato ben 535 episodi di esposizione di dati sensibili riguardanti contenuti caricati da 1.059 utenti. Tra le informazioni compromesse figurano codice sorgente, documentazione ingegneristica, report finanziari, contratti legali, dati personali e documenti relativi a operazioni di fusione e acquisizione. Oltre un terzo del materiale riguarda direttamente asset strategici delle imprese coinvolte.
DeepSeek si conferma come la piattaforma più utilizzata, presente nell’85% degli incidenti, seguita da Kimi Moonshot e Qwen. Si tratta di strumenti che, pur offrendo funzionalità avanzate e accesso immediato, non garantiscono trasparenza né controllo sull’uso futuro dei dati caricati, lasciando le aziende esposte a gravi rischi di violazione della riservatezza, perdita di proprietà intellettuale e non conformità normativa.
Secondo Harmonic, il fenomeno dell’adozione “silenziosa” delle GenAI cinesi è particolarmente diffuso nelle aziende ad alta densità di sviluppatori, dove la pressione sul time-to-output supera spesso il rispetto delle policy aziendali. La facilità d’uso di queste piattaforme alimenta un comportamento user-driven che aggira completamente i controlli IT e le autorizzazioni formali, spingendo i confini della shadow IT verso un territorio ancora più rischioso.
La crescente pervasività di questi strumenti impone alle imprese di rivedere con urgenza le proprie strategie di governance dell’AI. Come sottolineano i ricercatori, la sola consapevolezza non è più sufficiente: servono strumenti tecnici per il monitoraggio in tempo reale e il blocco proattivo delle interazioni non autorizzate con applicazioni potenzialmente pericolose.
I risultati dello studio evidenziano come la gestione dell’intelligenza artificiale generativa sia diventata una priorità non solo tecnica, ma strategica. La capacità di controllare l’adozione e l’utilizzo di questi strumenti sarà cruciale quanto le performance stesse dei modelli, specialmente per le aziende che operano in settori regolamentati o con un’elevata dipendenza da software proprietario e informazioni riservate.
Mar 04, 2025 0
Gen 16, 2024 0
Ott 24, 2025 0
Ott 23, 2025 0
Ott 22, 2025 0
Ott 21, 2025 0
Ott 21, 2025 0
Le campagne di estorsione e i ransomware continuano a...
Ott 17, 2025 0
Il Global Threat Intelligence Report di settembre...
Ott 16, 2025 0
ChatGPT Agent può essere usato per esfiltrare dati: lo ha...
Ott 15, 2025 0
Aumentare la complessità delle password, richiedendo...
Ott 01, 2025 0
Secondo l’ultima ricerca di FireMon, azienda di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Ott 24, 2025 0
Il Pwn2Own di ottobre, tenutosi a Cork, in Irlanda, si...
Ott 23, 2025 0
Una recente analisi di ESET riporta che il gruppo...
Ott 22, 2025 0
Zyxel Networks ha presentato “Zyxel Commercialisti...
Ott 21, 2025 0
Le campagne di estorsione e i ransomware continuano a...
Ott 20, 2025 0
Il Threat Research Team della compagnia di sicurezza...
