Aggiornamenti recenti Novembre 3rd, 2025 9:00 AM
Lug 21, 2022 Redazione news Attacchi, News, RSS 0
Nell’ultimo decennio, il Machine Learning (ML) o apprendimento artificiale è diventato sempre più comune, passando dal mondo digitale a quello fisico. Mentre alcune tecnologie sono praticamente sinonimo di ML (come gli assistenti vocali domestici e le auto a guida autonoma), ci sono molti casi d’uso comuni dell’apprendimento automatico che possono sfuggire.
Tra questi gli algoritmi di suggerimento per i servizi di streaming e i social network e il riconoscimento facciale/biometrico. In ambito professionale ci sono poi sistemi di assistenza clienti e chatbot automatizzati, logistica di magazzino, approvazione di prestiti bancari, mutui o assicurazioni, rilevamento di frodi finanziarie, diagnosi medica e molto altro.

Al crescere della sua popolarità sono nati degli specifici attacchi a questo tipo di tecnologia, definiti “adversarial machine learning” (apprendimento automatico antagonistico) che possono assumere diverse forme. La startup HiddenLayer è nata proprio per contrastare questo tipo di rischio.
Come spiegano in un loro articolo, l’Adversarial ML è una frontiera relativamente nuova e all’avanguardia della cybersecurity ed è ancora in fase embrionale. La ricerca di nuovi attacchi che producono comportamenti errati nei modelli è però in aumento.
Il recente MITRE – ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), realizzato dai creatori di MITRE ATT&CK, documenta diversi casi di studio di attacchi di apprendimento automatico antagonistico ai sistemi di produzione ML, che secondo loro sono in crescita.
HiddenLayer dichiara che la sua tecnologia è in grado di difendere i modelli di apprendimento automatico dagli attacchi senza bisogno di accedere ai dati grezzi o agli algoritmi dei suoi clienti, sulla base dell’analisi delle interazioni tra i modelli.
Analizza via software gli input e gli output degli algoritmi di apprendimento automatico, ossia i dati immessi nel modello e quelli che esso produce in risposta. In questo modo può individuare attività anomale coerenti con le tecniche di attacco dell’adversarial machine learning.
Ott 31, 2025 0
Ott 21, 2025 0
Ott 08, 2025 0
Ott 07, 2025 0
Nov 03, 2025 0
Ott 30, 2025 0
Ott 29, 2025 0
Ott 28, 2025 0
Ott 31, 2025 0
L’IA è un ottimo strumento per scrivere codice...
Ott 30, 2025 0
Un gruppo di ricercatori della Gerogia Tech University e...
Ott 27, 2025 0
Dante, un sofisticato e finora sconosciuto spyware...
Ott 21, 2025 0
Le campagne di estorsione e i ransomware continuano a...
Ott 17, 2025 0
Il Global Threat Intelligence Report di settembre...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Nov 03, 2025 0
Nel periodo compreso tra il 25 e il 31 ottobre,...
Ott 31, 2025 0
L’IA è un ottimo strumento per scrivere codice...
Ott 30, 2025 0
Un gruppo di ricercatori della Gerogia Tech University e...
Ott 29, 2025 0
I ricercatori di LayerX hanno scoperto una vulnerabilità...
Ott 28, 2025 0
L’interruzione delle attività governative negli...
