Aggiornamenti recenti Aprile 17th, 2026 2:21 PM
Lug 21, 2022 Redazione news Attacchi, News, RSS 0
Nell’ultimo decennio, il Machine Learning (ML) o apprendimento artificiale è diventato sempre più comune, passando dal mondo digitale a quello fisico. Mentre alcune tecnologie sono praticamente sinonimo di ML (come gli assistenti vocali domestici e le auto a guida autonoma), ci sono molti casi d’uso comuni dell’apprendimento automatico che possono sfuggire.
Tra questi gli algoritmi di suggerimento per i servizi di streaming e i social network e il riconoscimento facciale/biometrico. In ambito professionale ci sono poi sistemi di assistenza clienti e chatbot automatizzati, logistica di magazzino, approvazione di prestiti bancari, mutui o assicurazioni, rilevamento di frodi finanziarie, diagnosi medica e molto altro.

Al crescere della sua popolarità sono nati degli specifici attacchi a questo tipo di tecnologia, definiti “adversarial machine learning” (apprendimento automatico antagonistico) che possono assumere diverse forme. La startup HiddenLayer è nata proprio per contrastare questo tipo di rischio.
Come spiegano in un loro articolo, l’Adversarial ML è una frontiera relativamente nuova e all’avanguardia della cybersecurity ed è ancora in fase embrionale. La ricerca di nuovi attacchi che producono comportamenti errati nei modelli è però in aumento.
Il recente MITRE – ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), realizzato dai creatori di MITRE ATT&CK, documenta diversi casi di studio di attacchi di apprendimento automatico antagonistico ai sistemi di produzione ML, che secondo loro sono in crescita.
HiddenLayer dichiara che la sua tecnologia è in grado di difendere i modelli di apprendimento automatico dagli attacchi senza bisogno di accedere ai dati grezzi o agli algoritmi dei suoi clienti, sulla base dell’analisi delle interazioni tra i modelli.
Analizza via software gli input e gli output degli algoritmi di apprendimento automatico, ossia i dati immessi nel modello e quelli che esso produce in risposta. In questo modo può individuare attività anomale coerenti con le tecniche di attacco dell’adversarial machine learning.
Feb 13, 2026 0
Gen 29, 2026 0
Gen 15, 2026 0
Gen 14, 2026 0
Apr 17, 2026 0
Apr 16, 2026 0
Apr 15, 2026 0
Apr 14, 2026 0
Apr 16, 2026 0
Nel panorama delle minacce informatiche, esiste una...
Apr 03, 2026 0
Nel mese scorso, il governo degli USA ha rilasciato un...
Apr 02, 2026 0
Secondo un’analisi pubblicata da GreyNoise, basata su...
Apr 01, 2026 0
Un recente studio della Unit 42 di Palo Alto ha messo in...
Mar 31, 2026 0
Il concetto di vibecoding – ovvero la generazione di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Apr 17, 2026 0
La nuova app europea per la verifica dell’età,...
Apr 16, 2026 0
Nel panorama delle minacce informatiche, esiste una...
Apr 15, 2026 0
Sembra che il mercato inizi a considerare una cosa...
Apr 14, 2026 0
La cybersecurity italiana continua a crescere, ma la...
Apr 13, 2026 0
Qualcuno ricorderà che qualche mese fa è stato annunciato...
