Aggiornamenti recenti Luglio 14th, 2025 4:57 PM
Mag 02, 2024 Marina Londei Minacce, News, RSS 0
Il Dipartimento della sicurezza interna degli Stati Uniti (Department of Homeland Security – DHS) ha pubblicato nuove linee guida per proteggere le infrastrutture critiche del Paese e le armi di distruzioni di massa dai rischi dell’IA.
“L’intelligenza artificiale può offrire soluzioni trasformative per le infrastrutture critiche statunitensi, ma comporta anche il rischio di rendere questi sistemi vulnerabili a guasti critici con nuove modalità, attacchi fisici e informatici. Il nostro Dipartimento sta prendendo provvedimenti per identificare e mitigare queste minacce” ha affermato Alejandro N. Mayorkas, segretario del DHS.
Pixabay
Insieme al CISA, il DHS ha rilasciato delle linee guida cross-industriali volte a ridurre l’impatto dei rischi legati all’IA e proteggere i sistemi delle infrastrutture critiche.
Le due organizzazioni hanno lavorato seguendo tre diverse categorie di rischio: la prima contempla l’uso dell’IA per pianificare, migliorare o scalare attacchi fisici o cyber alle infrastrutture; la seconda considera gli attacchi contro i sistemi di IA che supportano le infrastrutture critiche; infine, nell’ultima categoria rientrano tutti i rischi legati a errori presenti nell’implementazione o l’esecuzione dei tool di IA.
La strategia si organizza in quattro punti fondamentali che responsabili e utenti dell’infrastruttura devono seguire per mitigare i rischi. In primo luogo, le linee guide impongono di creare una cultura improntata sulla gestione del rischio dell’IA; ciò si traduce nel dare priorità alle implicazioni di sicurezza, alla trasparenza dei sistemi e rendere la protezione una priorità di business.
Le imprese devono inoltre definire il proprio profilo di rischio individuando i contesti in cui possono emergere e sviluppare sistemi che consentono di analizzare e tracciare i rischi dell’IA e gli impatti.
Infine, è indispensabile implementare e mantenere sistemi di controllo dei rischi per massimizzare i benefici dei sistemi di IA e al contempo ridurre la probabilità di impatti negativi.
Pixabay
Oltre alle linee guida per proteggere i sistemi critici, il DHS, insieme al Countering Weapons of Mass Destruction (CWMD) Office ha pubblicato un report che analizza il rischio che l’IA venga usata per supportare lo sviluppo e la produzione di minacce chimiche, biologiche, radioattive e nucleari. Nel documento il Dipartimento ha inserito anche una serie di step da seguire per mitigare la diffusione di queste potenziali minacce contro la nazione.
“L’uso responsabile dell’IA è molto promettente per far progredire la scienza, risolvere sfide urgenti e future e migliorare la nostra sicurezza nazionale, ma richiede anche di essere preparati a mitigare rapidamente l’uso improprio dell’IA nello sviluppo di minacce chimiche e biologiche” ha affermato Mary Ellen Callahan, sottosegretario del CWMD.
Le pubblicazioni arrivano dopo 180 giorni dall’ordine esecutivo di Biden sulla gestione sicura e responsabile dei sistemi di intelligenza artificiale e mirano a rafforzare la sicurezza di organizzazioni e cittadini. Come per l’AI Act europeo, anche in questo caso si parla di indicazioni piuttosto generiche che ogni organizzazione deve poi implementare contestualmente, con tutte le difficoltà che comporta. Il successo delle regolamentazioni statunitensi si basa sull’idea di una stretta collaborazione tra aziende e istituzioni; senza di essa, gli sforzi potrebbero risultare vani.
Giu 26, 2025 0
Giu 24, 2025 0
Giu 09, 2025 0
Mag 28, 2025 0
Lug 14, 2025 0
Lug 14, 2025 0
Lug 11, 2025 0
Lug 10, 2025 0
Lug 08, 2025 0
In una recente analisi, Group-IB ha approfondito il ruolo...Lug 03, 2025 0
Recentemente il team Satori Threat Intelligence di HUMAN ha...Giu 09, 2025 0
La cybersecurity sta acquisendo sempre più importanza tra...Mag 30, 2025 0
Nel 2024, le piccole e medie imprese, spesso considerate il...Mag 27, 2025 0
MATLAB ha smesso di funzionare per quasi una settimana e...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Lug 14, 2025 0
I ricercatori di AG Security Research hanno individuato una...Lug 14, 2025 0
Nel corso di questa settimana, il CERT-AGID ha individuato...Lug 11, 2025 0
I ricercatori di PCA Cybersecurity hanno individuato un set...Lug 10, 2025 0
Una grave falla di sicurezza ha trasformato una sessione...Lug 10, 2025 0
Un nuovo gruppo APT entra nei radar dei ricercatori di...