Aggiornamenti recenti Luglio 1st, 2025 3:44 PM
Mag 02, 2024 Marina Londei Minacce, News, RSS 0
Il Dipartimento della sicurezza interna degli Stati Uniti (Department of Homeland Security – DHS) ha pubblicato nuove linee guida per proteggere le infrastrutture critiche del Paese e le armi di distruzioni di massa dai rischi dell’IA.
“L’intelligenza artificiale può offrire soluzioni trasformative per le infrastrutture critiche statunitensi, ma comporta anche il rischio di rendere questi sistemi vulnerabili a guasti critici con nuove modalità, attacchi fisici e informatici. Il nostro Dipartimento sta prendendo provvedimenti per identificare e mitigare queste minacce” ha affermato Alejandro N. Mayorkas, segretario del DHS.
Pixabay
Insieme al CISA, il DHS ha rilasciato delle linee guida cross-industriali volte a ridurre l’impatto dei rischi legati all’IA e proteggere i sistemi delle infrastrutture critiche.
Le due organizzazioni hanno lavorato seguendo tre diverse categorie di rischio: la prima contempla l’uso dell’IA per pianificare, migliorare o scalare attacchi fisici o cyber alle infrastrutture; la seconda considera gli attacchi contro i sistemi di IA che supportano le infrastrutture critiche; infine, nell’ultima categoria rientrano tutti i rischi legati a errori presenti nell’implementazione o l’esecuzione dei tool di IA.
La strategia si organizza in quattro punti fondamentali che responsabili e utenti dell’infrastruttura devono seguire per mitigare i rischi. In primo luogo, le linee guide impongono di creare una cultura improntata sulla gestione del rischio dell’IA; ciò si traduce nel dare priorità alle implicazioni di sicurezza, alla trasparenza dei sistemi e rendere la protezione una priorità di business.
Le imprese devono inoltre definire il proprio profilo di rischio individuando i contesti in cui possono emergere e sviluppare sistemi che consentono di analizzare e tracciare i rischi dell’IA e gli impatti.
Infine, è indispensabile implementare e mantenere sistemi di controllo dei rischi per massimizzare i benefici dei sistemi di IA e al contempo ridurre la probabilità di impatti negativi.
Pixabay
Oltre alle linee guida per proteggere i sistemi critici, il DHS, insieme al Countering Weapons of Mass Destruction (CWMD) Office ha pubblicato un report che analizza il rischio che l’IA venga usata per supportare lo sviluppo e la produzione di minacce chimiche, biologiche, radioattive e nucleari. Nel documento il Dipartimento ha inserito anche una serie di step da seguire per mitigare la diffusione di queste potenziali minacce contro la nazione.
“L’uso responsabile dell’IA è molto promettente per far progredire la scienza, risolvere sfide urgenti e future e migliorare la nostra sicurezza nazionale, ma richiede anche di essere preparati a mitigare rapidamente l’uso improprio dell’IA nello sviluppo di minacce chimiche e biologiche” ha affermato Mary Ellen Callahan, sottosegretario del CWMD.
Le pubblicazioni arrivano dopo 180 giorni dall’ordine esecutivo di Biden sulla gestione sicura e responsabile dei sistemi di intelligenza artificiale e mirano a rafforzare la sicurezza di organizzazioni e cittadini. Come per l’AI Act europeo, anche in questo caso si parla di indicazioni piuttosto generiche che ogni organizzazione deve poi implementare contestualmente, con tutte le difficoltà che comporta. Il successo delle regolamentazioni statunitensi si basa sull’idea di una stretta collaborazione tra aziende e istituzioni; senza di essa, gli sforzi potrebbero risultare vani.
Giu 26, 2025 0
Giu 24, 2025 0
Giu 09, 2025 0
Mag 28, 2025 0
Lug 01, 2025 0
Giu 30, 2025 0
Giu 27, 2025 0
Giu 25, 2025 0
Giu 09, 2025 0
La cybersecurity sta acquisendo sempre più importanza tra...Mag 30, 2025 0
Nel 2024, le piccole e medie imprese, spesso considerate il...Mag 27, 2025 0
MATLAB ha smesso di funzionare per quasi una settimana e...Mag 27, 2025 0
Nel corso del “TRU Security Day 2025” di...Mag 26, 2025 0
I ricercatori di Akamai hanno individuato di recente...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Lug 01, 2025 0
In un documento congiunto rilasciato ieri, la CISA,...Giu 30, 2025 0
I ricercatori di Koi Security hanno individuato una...Giu 27, 2025 0
Durante un processo di analisi di vulnerabilità zero-day,...Giu 26, 2025 0
I ricercatori di Check Point Research hanno individuato una...Giu 25, 2025 0
Il 14 ottobre il supporto tecnico e di sicurezza per...