Aggiornamenti recenti Dicembre 7th, 2023 6:02 PM
Ago 07, 2017 Marco Schiaffino Hacking, News, RSS, Scenari, Vulnerabilità 0
L’intelligenza artificiale starà anche facendo enormi progressi, ma ci sono dei suoi limiti intrinseci che continuano a sollevare (grosse) perplessità. Uno di questi riguarda le modalità con cui giunge a interpretare la realtà, troppo diverse da quelle “umane”.
Per capire la portata del problema basta dare un’occhiata a una ricerca pubblicata da un gruppo di otto ricercatori che hanno preso di mira i sistemi di riconoscimento dei segnali stradali usati dalle auto senza conducente.
La loro tesi, ampiamente confermata dalle prove sul campo, è che sia possibile ingannarli apportando delle modifiche ai segnali stradali che per un essere umano rimangono impercettibili o comunque trascurabili. Insomma: sarebbe possibile mettere a rischio la sicurezza dell’auto senza conducente senza che nessun umano sia in grado di accorgersi preventivamente del “sabotaggio”.
Il concetto di base, spiegato nel dettaglio all’interno della ricerca, è quello di creare un disturbo che faccia male interpretare il segnale e, nel caso specifico, i ricercatori si sono dati da fare per fare in modo che un cartello venga letto come qualcos’altro.
Per farlo hanno utilizzato due stratagemmi diversi: introdurre un disturbo diffuso su tutta la superficie del cartello, stampare un poster con le stesse dimensioni e forma del segnale o inserire delle alterazioni più visibili in punti specifici utilizzando adesivi o graffiti. I risultati sono stati decisamente sorprendenti.
Nel caso del primo cartello, ottenuto attraverso la stampa di un poster in cui è inserito un disturbo, il sistema di riconoscimento automatico scambia il segnale per un limite di velocità a 45 miglia orarie nel 100% dei casi. Questo significa che un’auto senza conducente, arrivando allo stop, taglierebbe dritto l’incrocio.
Anche nel caso di un’alterazione più “mirata”, come quella nelle immagini qui sopra, la percentuale in cui il sistema di riconoscimento viene ingannato è elevatissima: 66,7% nel caso della scritta “LOVE HATE” e 100% nel caso dei rettangoli bianchi e neri incollati sul segnale.
I ricercatori poi hanno provato anche a inserire un disturbo di tipo ottico (che crea una sorta di riflesso) a un segnale di obbligo di svolta a destra. Il risultato è altrettanto inquietante: nel 66,7% dei casi il sistema di riconoscimento scambia il cartello per qualcos’altro (nella maggior parte dei casi per un cartello di STOP) a seconda della distanza e dell’angolo di visuale.
Naturalmente non si tratta di disturbi “casuali”, ma di alterazioni studiate al computer attraverso un’analisi accurata dei sistemi di riconoscimento e che richiedono una certa precisione per essere apportate. Insomma: non basta il primo vandalo di passaggio per mettere in crisi un’auto senza conducente. Il problema, però, rimane sul tavolo e non è un problema da poco.
Set 26, 2023 0
Mar 03, 2023 0
Gen 27, 2023 0
Mar 31, 2022 0
Dic 07, 2023 0
Dic 07, 2023 0
Dic 06, 2023 0
Dic 05, 2023 0
Dic 05, 2023 0
Negli ultimi anni i cyberattaccanti nord-coreani hanno...Nov 30, 2023 0
L’avvicinarsi della fine dell’anno coincide con...Nov 30, 2023 0
Gli attacchi informatici crescono in numero e in...Nov 29, 2023 0
Yarix, divisione Digital Security di Var Group, ha...Nov 27, 2023 0
Le minacce APT sono tra le più pericolose nel panorama...Mag 04, 2018 0
E se vi dicessimo che la saga di Star Wars ...Nov 14, 2016 2
Abbiamo rubato al blog di Kaspersky un vecchio pezzo di...Nov 08, 2016 2
Il numero uno degli scacchi mondiali Magnus Carlsen ha...Ott 28, 2016 0
Il pirata informatico che ha creato il ransomware cerca...Ott 11, 2016 0
Dopo la raffica di figuracce, l’azienda sospende per...Dic 07, 2023 0
I ricercatori di VUSec, il gruppo di sicurezza...Dic 07, 2023 0
Google ha rilasciato importanti aggiornamenti di sicurezza...Dic 06, 2023 0
Vi ricordate l’attacco di CyberAv3ngers al centro...Dic 05, 2023 0
Che i sistemi di intelligenza artificiale fossero...Dic 04, 2023 0
I gruppi di cyberattaccanti nord-coreani dietro campagne...