Aggiornamenti recenti Aprile 30th, 2025 9:31 AM
Ago 07, 2017 Marco Schiaffino Hacking, News, RSS, Scenari, Vulnerabilità 0
L’intelligenza artificiale starà anche facendo enormi progressi, ma ci sono dei suoi limiti intrinseci che continuano a sollevare (grosse) perplessità. Uno di questi riguarda le modalità con cui giunge a interpretare la realtà, troppo diverse da quelle “umane”.
Per capire la portata del problema basta dare un’occhiata a una ricerca pubblicata da un gruppo di otto ricercatori che hanno preso di mira i sistemi di riconoscimento dei segnali stradali usati dalle auto senza conducente.
La loro tesi, ampiamente confermata dalle prove sul campo, è che sia possibile ingannarli apportando delle modifiche ai segnali stradali che per un essere umano rimangono impercettibili o comunque trascurabili. Insomma: sarebbe possibile mettere a rischio la sicurezza dell’auto senza conducente senza che nessun umano sia in grado di accorgersi preventivamente del “sabotaggio”.
Il concetto di base, spiegato nel dettaglio all’interno della ricerca, è quello di creare un disturbo che faccia male interpretare il segnale e, nel caso specifico, i ricercatori si sono dati da fare per fare in modo che un cartello venga letto come qualcos’altro.
Per farlo hanno utilizzato due stratagemmi diversi: introdurre un disturbo diffuso su tutta la superficie del cartello, stampare un poster con le stesse dimensioni e forma del segnale o inserire delle alterazioni più visibili in punti specifici utilizzando adesivi o graffiti. I risultati sono stati decisamente sorprendenti.
Nel caso del primo cartello, ottenuto attraverso la stampa di un poster in cui è inserito un disturbo, il sistema di riconoscimento automatico scambia il segnale per un limite di velocità a 45 miglia orarie nel 100% dei casi. Questo significa che un’auto senza conducente, arrivando allo stop, taglierebbe dritto l’incrocio.
Anche nel caso di un’alterazione più “mirata”, come quella nelle immagini qui sopra, la percentuale in cui il sistema di riconoscimento viene ingannato è elevatissima: 66,7% nel caso della scritta “LOVE HATE” e 100% nel caso dei rettangoli bianchi e neri incollati sul segnale.
I ricercatori poi hanno provato anche a inserire un disturbo di tipo ottico (che crea una sorta di riflesso) a un segnale di obbligo di svolta a destra. Il risultato è altrettanto inquietante: nel 66,7% dei casi il sistema di riconoscimento scambia il cartello per qualcos’altro (nella maggior parte dei casi per un cartello di STOP) a seconda della distanza e dell’angolo di visuale.
Naturalmente non si tratta di disturbi “casuali”, ma di alterazioni studiate al computer attraverso un’analisi accurata dei sistemi di riconoscimento e che richiedono una certa precisione per essere apportate. Insomma: non basta il primo vandalo di passaggio per mettere in crisi un’auto senza conducente. Il problema, però, rimane sul tavolo e non è un problema da poco.
Set 26, 2023 0
Mar 03, 2023 0
Gen 27, 2023 0
Mar 31, 2022 0
Apr 30, 2025 0
Apr 29, 2025 0
Apr 28, 2025 0
Apr 24, 2025 0
Apr 29, 2025 0
Secondo una recente analisi pubblicata dal Threat...Apr 18, 2025 0
I ricercatori di Cisco Talos hanno pubblicato una nuova...Apr 15, 2025 0
La diffusione dell’IA e il progressivo miglioramento...Apr 09, 2025 0
Gli agenti di IA stanno diventando sempre più capaci, in...Apr 07, 2025 0
I file PDF possono diventare molto pericolosi: stando a una...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Apr 30, 2025 0
Quest’anno la RSA Conference, il più grande evento...Apr 29, 2025 0
Secondo una recente analisi pubblicata dal Threat...Apr 28, 2025 0
Una delle ultime patch di Windows, rilasciata per risolvere...Apr 24, 2025 0
I ricercatori di Dr. Web, fornitore russo di software...Apr 23, 2025 0
A sei anni dal primo annuncio, Google ha deciso di...