Aggiornamenti recenti Agosto 29th, 2025 5:25 PM
Mag 02, 2024 Marina Londei Minacce, News, RSS 0
Il Dipartimento della sicurezza interna degli Stati Uniti (Department of Homeland Security – DHS) ha pubblicato nuove linee guida per proteggere le infrastrutture critiche del Paese e le armi di distruzioni di massa dai rischi dell’IA.
“L’intelligenza artificiale può offrire soluzioni trasformative per le infrastrutture critiche statunitensi, ma comporta anche il rischio di rendere questi sistemi vulnerabili a guasti critici con nuove modalità, attacchi fisici e informatici. Il nostro Dipartimento sta prendendo provvedimenti per identificare e mitigare queste minacce” ha affermato Alejandro N. Mayorkas, segretario del DHS.
Pixabay
Insieme al CISA, il DHS ha rilasciato delle linee guida cross-industriali volte a ridurre l’impatto dei rischi legati all’IA e proteggere i sistemi delle infrastrutture critiche.
Le due organizzazioni hanno lavorato seguendo tre diverse categorie di rischio: la prima contempla l’uso dell’IA per pianificare, migliorare o scalare attacchi fisici o cyber alle infrastrutture; la seconda considera gli attacchi contro i sistemi di IA che supportano le infrastrutture critiche; infine, nell’ultima categoria rientrano tutti i rischi legati a errori presenti nell’implementazione o l’esecuzione dei tool di IA.
La strategia si organizza in quattro punti fondamentali che responsabili e utenti dell’infrastruttura devono seguire per mitigare i rischi. In primo luogo, le linee guide impongono di creare una cultura improntata sulla gestione del rischio dell’IA; ciò si traduce nel dare priorità alle implicazioni di sicurezza, alla trasparenza dei sistemi e rendere la protezione una priorità di business.
Le imprese devono inoltre definire il proprio profilo di rischio individuando i contesti in cui possono emergere e sviluppare sistemi che consentono di analizzare e tracciare i rischi dell’IA e gli impatti.
Infine, è indispensabile implementare e mantenere sistemi di controllo dei rischi per massimizzare i benefici dei sistemi di IA e al contempo ridurre la probabilità di impatti negativi.
Pixabay
Oltre alle linee guida per proteggere i sistemi critici, il DHS, insieme al Countering Weapons of Mass Destruction (CWMD) Office ha pubblicato un report che analizza il rischio che l’IA venga usata per supportare lo sviluppo e la produzione di minacce chimiche, biologiche, radioattive e nucleari. Nel documento il Dipartimento ha inserito anche una serie di step da seguire per mitigare la diffusione di queste potenziali minacce contro la nazione.
“L’uso responsabile dell’IA è molto promettente per far progredire la scienza, risolvere sfide urgenti e future e migliorare la nostra sicurezza nazionale, ma richiede anche di essere preparati a mitigare rapidamente l’uso improprio dell’IA nello sviluppo di minacce chimiche e biologiche” ha affermato Mary Ellen Callahan, sottosegretario del CWMD.
Le pubblicazioni arrivano dopo 180 giorni dall’ordine esecutivo di Biden sulla gestione sicura e responsabile dei sistemi di intelligenza artificiale e mirano a rafforzare la sicurezza di organizzazioni e cittadini. Come per l’AI Act europeo, anche in questo caso si parla di indicazioni piuttosto generiche che ogni organizzazione deve poi implementare contestualmente, con tutte le difficoltà che comporta. Il successo delle regolamentazioni statunitensi si basa sull’idea di una stretta collaborazione tra aziende e istituzioni; senza di essa, gli sforzi potrebbero risultare vani.
Lug 24, 2025 0
Lug 16, 2025 0
Lug 15, 2025 0
Giu 26, 2025 0
Ago 29, 2025 0
Ago 27, 2025 0
Ago 26, 2025 0
Ago 25, 2025 0
Ago 29, 2025 0
Il prossimo 14 ottobre terminerà ufficialmente il supporto...Ago 26, 2025 0
Il mondo dell’IoT rimane uno dei più esposti alle...Ago 04, 2025 0
I chatbot basati su modelli linguistici di grandi...Lug 29, 2025 0
Tra le minacce più recenti che stanno facendo tremare il...Lug 17, 2025 0
Gli attacchi DDoS, compresi quelli ipervolumetrici,...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Ago 29, 2025 0
Il prossimo 14 ottobre terminerà ufficialmente il supporto...Ago 27, 2025 0
Google ha deciso di aumentare la sicurezza dei dispositivi...Ago 26, 2025 0
Il mondo dell’IoT rimane uno dei più esposti alle...Ago 25, 2025 0
Il gruppo pakistano APT36, noto anche come Transparent...Ago 25, 2025 0
La scorsa settimana il CERT-AGID ha rilevato 81 campagne...