Aggiornamenti recenti Dicembre 4th, 2025 10:32 AM
Lug 21, 2022 Redazione news Attacchi, News, RSS 0
Nell’ultimo decennio, il Machine Learning (ML) o apprendimento artificiale è diventato sempre più comune, passando dal mondo digitale a quello fisico. Mentre alcune tecnologie sono praticamente sinonimo di ML (come gli assistenti vocali domestici e le auto a guida autonoma), ci sono molti casi d’uso comuni dell’apprendimento automatico che possono sfuggire.
Tra questi gli algoritmi di suggerimento per i servizi di streaming e i social network e il riconoscimento facciale/biometrico. In ambito professionale ci sono poi sistemi di assistenza clienti e chatbot automatizzati, logistica di magazzino, approvazione di prestiti bancari, mutui o assicurazioni, rilevamento di frodi finanziarie, diagnosi medica e molto altro.

Al crescere della sua popolarità sono nati degli specifici attacchi a questo tipo di tecnologia, definiti “adversarial machine learning” (apprendimento automatico antagonistico) che possono assumere diverse forme. La startup HiddenLayer è nata proprio per contrastare questo tipo di rischio.
Come spiegano in un loro articolo, l’Adversarial ML è una frontiera relativamente nuova e all’avanguardia della cybersecurity ed è ancora in fase embrionale. La ricerca di nuovi attacchi che producono comportamenti errati nei modelli è però in aumento.
Il recente MITRE – ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), realizzato dai creatori di MITRE ATT&CK, documenta diversi casi di studio di attacchi di apprendimento automatico antagonistico ai sistemi di produzione ML, che secondo loro sono in crescita.
HiddenLayer dichiara che la sua tecnologia è in grado di difendere i modelli di apprendimento automatico dagli attacchi senza bisogno di accedere ai dati grezzi o agli algoritmi dei suoi clienti, sulla base dell’analisi delle interazioni tra i modelli.
Analizza via software gli input e gli output degli algoritmi di apprendimento automatico, ossia i dati immessi nel modello e quelli che esso produce in risposta. In questo modo può individuare attività anomale coerenti con le tecniche di attacco dell’adversarial machine learning.
Dic 03, 2025 0
Nov 27, 2025 0
Nov 13, 2025 0
Ott 31, 2025 0
Dic 04, 2025 0
Dic 02, 2025 0
Dic 01, 2025 0
Dic 01, 2025 0
Nov 27, 2025 0
Dopo l’esplosione di ChatGPT e degli LLM, nel mondo...
Nov 26, 2025 0
I ricercatori di watchTowr Labs hanno individuato migliaia...
Nov 24, 2025 0
Analizzando DeepSeek R1, un potente LLM dell’omonima...
Nov 21, 2025 0
Lo scorso marzo Skybox Security, società israeliana di...
Nov 19, 2025 0
Di recente la Threat Research Unit di Acronis ha analizzato...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Dic 04, 2025 0
Dark Telegram, il regno dei canali clandestini, non sembra...
Dic 03, 2025 0
I ricercatori di JFrog Security Research hanno...
Dic 02, 2025 0
Una campagna durata sette anni che ha infettato 4.3...
Dic 01, 2025 0
Coupang, colosso del retail sud-coreano, ha confermato di...
Dic 01, 2025 0
Nel periodo compreso tra il 22 e il 28 novembre,...
