Aggiornamenti recenti Gennaio 19th, 2026 9:00 AM
Lug 21, 2022 Redazione news Attacchi, News, RSS 0
Nell’ultimo decennio, il Machine Learning (ML) o apprendimento artificiale è diventato sempre più comune, passando dal mondo digitale a quello fisico. Mentre alcune tecnologie sono praticamente sinonimo di ML (come gli assistenti vocali domestici e le auto a guida autonoma), ci sono molti casi d’uso comuni dell’apprendimento automatico che possono sfuggire.
Tra questi gli algoritmi di suggerimento per i servizi di streaming e i social network e il riconoscimento facciale/biometrico. In ambito professionale ci sono poi sistemi di assistenza clienti e chatbot automatizzati, logistica di magazzino, approvazione di prestiti bancari, mutui o assicurazioni, rilevamento di frodi finanziarie, diagnosi medica e molto altro.

Al crescere della sua popolarità sono nati degli specifici attacchi a questo tipo di tecnologia, definiti “adversarial machine learning” (apprendimento automatico antagonistico) che possono assumere diverse forme. La startup HiddenLayer è nata proprio per contrastare questo tipo di rischio.
Come spiegano in un loro articolo, l’Adversarial ML è una frontiera relativamente nuova e all’avanguardia della cybersecurity ed è ancora in fase embrionale. La ricerca di nuovi attacchi che producono comportamenti errati nei modelli è però in aumento.
Il recente MITRE – ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), realizzato dai creatori di MITRE ATT&CK, documenta diversi casi di studio di attacchi di apprendimento automatico antagonistico ai sistemi di produzione ML, che secondo loro sono in crescita.
HiddenLayer dichiara che la sua tecnologia è in grado di difendere i modelli di apprendimento automatico dagli attacchi senza bisogno di accedere ai dati grezzi o agli algoritmi dei suoi clienti, sulla base dell’analisi delle interazioni tra i modelli.
Analizza via software gli input e gli output degli algoritmi di apprendimento automatico, ossia i dati immessi nel modello e quelli che esso produce in risposta. In questo modo può individuare attività anomale coerenti con le tecniche di attacco dell’adversarial machine learning.
Gen 15, 2026 0
Gen 14, 2026 0
Gen 08, 2026 0
Gen 05, 2026 0
Gen 19, 2026 0
Gen 16, 2026 0
Gen 13, 2026 0
Gen 12, 2026 0
Gen 16, 2026 0
Dall’ultima ricerca di Reflectiz, “The State of...
Gen 15, 2026 0
Microsoft ha annunciato di aver smantellato RedVDS, una...
Gen 13, 2026 0
Gli utenti aziendali utilizzano ancora password deboli,...
Gen 05, 2026 0
Il mondo della cybersecurity si appresta a vivere un 2026...
Dic 23, 2025 0
Il dark web non è più soltanto un luogo di scambio di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Gen 19, 2026 0
Nel periodo compreso tra il 10 e il 16 gennaio,...
Gen 16, 2026 0
Dall’ultima ricerca di Reflectiz, “The State of...
Gen 15, 2026 0
Microsoft ha annunciato di aver smantellato RedVDS, una...
Gen 14, 2026 0
I ricercatori di Check Point Research hanno individuato una...
Gen 13, 2026 0
Gli utenti aziendali utilizzano ancora password deboli,...
