Aggiornamenti recenti Marzo 29th, 2024 9:00 AM
Ago 07, 2017 Marco Schiaffino Hacking, News, RSS, Scenari, Vulnerabilità 0
L’intelligenza artificiale starà anche facendo enormi progressi, ma ci sono dei suoi limiti intrinseci che continuano a sollevare (grosse) perplessità. Uno di questi riguarda le modalità con cui giunge a interpretare la realtà, troppo diverse da quelle “umane”.
Per capire la portata del problema basta dare un’occhiata a una ricerca pubblicata da un gruppo di otto ricercatori che hanno preso di mira i sistemi di riconoscimento dei segnali stradali usati dalle auto senza conducente.
La loro tesi, ampiamente confermata dalle prove sul campo, è che sia possibile ingannarli apportando delle modifiche ai segnali stradali che per un essere umano rimangono impercettibili o comunque trascurabili. Insomma: sarebbe possibile mettere a rischio la sicurezza dell’auto senza conducente senza che nessun umano sia in grado di accorgersi preventivamente del “sabotaggio”.
Il concetto di base, spiegato nel dettaglio all’interno della ricerca, è quello di creare un disturbo che faccia male interpretare il segnale e, nel caso specifico, i ricercatori si sono dati da fare per fare in modo che un cartello venga letto come qualcos’altro.
Per farlo hanno utilizzato due stratagemmi diversi: introdurre un disturbo diffuso su tutta la superficie del cartello, stampare un poster con le stesse dimensioni e forma del segnale o inserire delle alterazioni più visibili in punti specifici utilizzando adesivi o graffiti. I risultati sono stati decisamente sorprendenti.
Nel caso del primo cartello, ottenuto attraverso la stampa di un poster in cui è inserito un disturbo, il sistema di riconoscimento automatico scambia il segnale per un limite di velocità a 45 miglia orarie nel 100% dei casi. Questo significa che un’auto senza conducente, arrivando allo stop, taglierebbe dritto l’incrocio.
Anche nel caso di un’alterazione più “mirata”, come quella nelle immagini qui sopra, la percentuale in cui il sistema di riconoscimento viene ingannato è elevatissima: 66,7% nel caso della scritta “LOVE HATE” e 100% nel caso dei rettangoli bianchi e neri incollati sul segnale.
I ricercatori poi hanno provato anche a inserire un disturbo di tipo ottico (che crea una sorta di riflesso) a un segnale di obbligo di svolta a destra. Il risultato è altrettanto inquietante: nel 66,7% dei casi il sistema di riconoscimento scambia il cartello per qualcos’altro (nella maggior parte dei casi per un cartello di STOP) a seconda della distanza e dell’angolo di visuale.
Naturalmente non si tratta di disturbi “casuali”, ma di alterazioni studiate al computer attraverso un’analisi accurata dei sistemi di riconoscimento e che richiedono una certa precisione per essere apportate. Insomma: non basta il primo vandalo di passaggio per mettere in crisi un’auto senza conducente. Il problema, però, rimane sul tavolo e non è un problema da poco.
Set 26, 2023 0
Mar 03, 2023 0
Gen 27, 2023 0
Mar 31, 2022 0
Mar 29, 2024 0
Mar 28, 2024 0
Mar 27, 2024 0
Mar 26, 2024 0
Mar 29, 2024 0
Le aziende hanno compreso l’importanza della...Mar 28, 2024 0
Stando al Rapporto Annuale sulle Minacce Informatiche di...Mar 27, 2024 0
La sanità viene presa di mira dagli infostealer: a dirlo...Mar 22, 2024 0
Nel 2024 i deepfake saranno una delle applicazioni di...Mar 21, 2024 0
Acronis annuncia l’ottenimento della qualificazione...Mag 04, 2018 0
E se vi dicessimo che la saga di Star Wars ...Nov 14, 2016 2
Abbiamo rubato al blog di Kaspersky un vecchio pezzo di...Nov 08, 2016 2
Il numero uno degli scacchi mondiali Magnus Carlsen ha...Ott 28, 2016 0
Il pirata informatico che ha creato il ransomware cerca...Ott 11, 2016 0
Dopo la raffica di figuracce, l’azienda sospende per...Mar 29, 2024 0
Le aziende hanno compreso l’importanza della...Mar 28, 2024 0
Stando al Rapporto Annuale sulle Minacce Informatiche di...Mar 26, 2024 0
Un gruppo di ricercatori ha individuato un grosso problema...Mar 25, 2024 0
La scorsa settimana ha rappresentato una sfida...Mar 25, 2024 0
Il 22 marzo si è concluso il Pwn2Own, l’hackathon...