Aggiornamenti recenti Luglio 28th, 2025 3:06 PM
Mag 12, 2025 Marina Londei Approfondimenti, Gestione dati, In evidenza, Minacce, Minacce, News, RSS 0
Stando all’ultimo report sulle minacce al settore sanitario di Netskope Threat Labs, i lavoratori del settore caricano regolarmente dati sensibili su siti web e piattaforme cloud non approvati.
Sono in particolare le applicazioni di intelligenza artificiale quelle coinvolte in queste violazioni, prime fra tutte ChatGPT e Gemini. Secondo l’analisi di Netskope, l’81% delle violazioni delle policy sui dati nelle organizzazioni sanitarie nell’ultimo anno ha riguardato dati sanitari regolamentati, ovvero protetti da normative locali, nazionali e internazionali, contenenti informazioni mediche e cliniche sensibili.
Password, chiavi di accesso, codice sorgente e proprietà intellettuale rappresentano invece il restante 19% delle violazioni. La maggior parte di esse è stata provocata dalla condivisione dei dati su account personali di OneDrive o Google Drive.
I tool di intelligenza artificiale sono diventati molto diffusi anche nel settore sanitario: secondo il report di Netskope, l’88% delle organizzazioni integra applicazioni di IA in cloud. La quasi totalità delle realtà che sfruttano questi strumenti usa i dati degli utenti per l’addestramento.
Anche se l’IA porta molti benefici al settore sanitario, la condivisione di dati sensibili aumenta il rischio di violazioni. Se si considera che il 44% degli incidenti registrati coinvolge dati regolamentati, è facile comprendere l’impatto dei comportamenti errati degli operatori. Il report di Netskope evidenzia a tal proposito che più di due utenti di genAI su tre nel settore sanitario inviano dati sensibili ai propri account personali durante l’orario di lavoro, ostacolando la visibilità dei team di sicurezza.
“Le applicazioni di intelligenza artificiale generativa offrono soluzioni innovative, ma introducono anche nuovi vettori per potenziali violazioni dei dati, soprattutto in ambienti ad alta pressione e criticità come quello sanitario, dove il personale e i professionisti devono spesso operare con rapidità e agilità. Le organizzazioni sanitarie devono bilanciare i benefici della genAI con l’adozione di misure di sicurezza e protezione dei dati per mitigare tali rischi” ha commentato Gianpietro Cutolo, Cloud Threat Researcher presso Netskope Threat Labs.
Per ridurre il rischio di violazioni, soprattutto quelle legate alla condivisione di dati sensibili su strumenti di IA, le organizzazioni del settore sanitario dovrebbero innanzitutto implementare politiche di DLP (Data Loss Prevention – Prevenzione della perdita di dati) per monitorare l’accesso alle applicazioni di GenAI e definire il tipo di dati che può essere condiviso con esse. Oggi la percentuale di realtà sanitarie che hanno adottato politiche DLP è salita al 54% dal 31% dell’anno scorso.
È essenziale inoltre implementare applicazioni di IA generativa approvate dall’organizzazione, in modo che i team di sicurezza abbiano un maggior controllo su di esse e si riduca il rischio di “shadow AI”. Infine, occorre affidarsi a strumenti di formazione in tempo reale per gli utenti che siano in grado anche di avvisarli quando stanno compiendo azioni rischiose.
“Nel settore sanitario, la rapida adozione delle applicazioni di intelligenza artificiale generativa e l’uso crescente delle piattaforme cloud hanno reso ancora più urgente la protezione dei dati sanitari regolamentati. Man mano che la genAI viene integrata nei flussi di lavoro clinici e operativi, le organizzazioni stanno accelerando l’implementazione di controlli come le politiche DLP e il blocco delle applicazioni per ridurre i rischi. Le organizzazioni sanitarie stanno facendo progressi, ma sarà fondamentale mantenere l’attenzione su soluzioni sicure e approvate a livello aziendale, per garantire che i dati restino protetti in questo scenario in continua evoluzione” ha concluso Cutolo.
Lug 24, 2025 0
Lug 16, 2025 0
Lug 15, 2025 0
Lug 08, 2025 0
Lug 28, 2025 0
Lug 28, 2025 0
Lug 25, 2025 0
Lug 25, 2025 0
Lug 17, 2025 0
Gli attacchi DDoS, compresi quelli ipervolumetrici,...Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 03, 2025 0
Recentemente il team Satori Threat Intelligence di HUMAN ha...Giu 09, 2025 0
La cybersecurity sta acquisendo sempre più importanza tra...Mag 30, 2025 0
Nel 2024, le piccole e medie imprese, spesso considerate il...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Lug 28, 2025 0
La scorsa settimana Google ha annunciato OSS Rebuild,...Lug 28, 2025 0
Negli ultimi sette giorni, il panorama delle minacce...Lug 25, 2025 0
I ricercatori di Prodaft, compagnia di cybersecurity, hanno...Lug 25, 2025 0
Un nuovo studio condotto da Harmonic Security rivela uno...Lug 24, 2025 0
Sam Altman è spaventato dalla crescente capacità...