Aggiornamenti recenti Gennaio 31st, 2023 6:00 PM
Ago 07, 2017 Marco Schiaffino Hacking, News, RSS, Scenari, Vulnerabilità 0
L’intelligenza artificiale starà anche facendo enormi progressi, ma ci sono dei suoi limiti intrinseci che continuano a sollevare (grosse) perplessità. Uno di questi riguarda le modalità con cui giunge a interpretare la realtà, troppo diverse da quelle “umane”.
Per capire la portata del problema basta dare un’occhiata a una ricerca pubblicata da un gruppo di otto ricercatori che hanno preso di mira i sistemi di riconoscimento dei segnali stradali usati dalle auto senza conducente.
La loro tesi, ampiamente confermata dalle prove sul campo, è che sia possibile ingannarli apportando delle modifiche ai segnali stradali che per un essere umano rimangono impercettibili o comunque trascurabili. Insomma: sarebbe possibile mettere a rischio la sicurezza dell’auto senza conducente senza che nessun umano sia in grado di accorgersi preventivamente del “sabotaggio”.
Il concetto di base, spiegato nel dettaglio all’interno della ricerca, è quello di creare un disturbo che faccia male interpretare il segnale e, nel caso specifico, i ricercatori si sono dati da fare per fare in modo che un cartello venga letto come qualcos’altro.
Per farlo hanno utilizzato due stratagemmi diversi: introdurre un disturbo diffuso su tutta la superficie del cartello, stampare un poster con le stesse dimensioni e forma del segnale o inserire delle alterazioni più visibili in punti specifici utilizzando adesivi o graffiti. I risultati sono stati decisamente sorprendenti.
Nel caso del primo cartello, ottenuto attraverso la stampa di un poster in cui è inserito un disturbo, il sistema di riconoscimento automatico scambia il segnale per un limite di velocità a 45 miglia orarie nel 100% dei casi. Questo significa che un’auto senza conducente, arrivando allo stop, taglierebbe dritto l’incrocio.
Anche nel caso di un’alterazione più “mirata”, come quella nelle immagini qui sopra, la percentuale in cui il sistema di riconoscimento viene ingannato è elevatissima: 66,7% nel caso della scritta “LOVE HATE” e 100% nel caso dei rettangoli bianchi e neri incollati sul segnale.
I ricercatori poi hanno provato anche a inserire un disturbo di tipo ottico (che crea una sorta di riflesso) a un segnale di obbligo di svolta a destra. Il risultato è altrettanto inquietante: nel 66,7% dei casi il sistema di riconoscimento scambia il cartello per qualcos’altro (nella maggior parte dei casi per un cartello di STOP) a seconda della distanza e dell’angolo di visuale.
Naturalmente non si tratta di disturbi “casuali”, ma di alterazioni studiate al computer attraverso un’analisi accurata dei sistemi di riconoscimento e che richiedono una certa precisione per essere apportate. Insomma: non basta il primo vandalo di passaggio per mettere in crisi un’auto senza conducente. Il problema, però, rimane sul tavolo e non è un problema da poco.
Gen 27, 2023 0
Mar 31, 2022 0
Gen 19, 2021 0
Feb 23, 2017 1
Gen 31, 2023 0
Gen 31, 2023 0
Gen 30, 2023 0
Gen 30, 2023 0
Gen 30, 2023 0
Experian ha pubblicato il Data Breach Industry Forecast, un...Gen 30, 2023 0
Yahoo è stato il brand più impersonato negli attacchi di...Gen 27, 2023 0
Trend Micro ha pubblicato il nuovo report Future/Tense:...Gen 26, 2023 0
Unit 42, il Threat Intelligence Team di Palo Alto Networks...Gen 23, 2023 0
L’Attack Surface Management comprende...Mag 04, 2018 0
E se vi dicessimo che la saga di Star Wars ...Nov 14, 2016 2
Abbiamo rubato al blog di Kaspersky un vecchio pezzo di...Nov 08, 2016 2
Il numero uno degli scacchi mondiali Magnus Carlsen ha...Ott 28, 2016 0
Il pirata informatico che ha creato il ransomware cerca...Ott 11, 2016 0
Dopo la raffica di figuracce, l’azienda sospende per...Gen 31, 2023 0
Kaspersky ha pubblicato una nuova ricerca denominata...Gen 31, 2023 0
Durante il down di Libero e Virgilio, gli attaccanti non...Gen 30, 2023 0
Il 2022 è stato un anno molto impegnativo per la...Gen 27, 2023 0
I ricercatori di Proofpoint hanno pubblicato un’analisi...Gen 27, 2023 0
I ricercatori di Akamai hanno pubblicato una Proof of...