Nei prossimi decenni i sistemi di guida autonoma controlleranno molto probabilmente tutte le auto in circolazione, ma al momento hanno ancora molto da imparare. Non solo non sono ancora in grado di gestirsi in condizioni di traffico normali, ma sono ancora facile preda di operazioni di hacking che anche oggi possono mettere in pericolo gli automobilisti che si affidano a soluzioni di guida assistita. A dimostrarlo sono stati i ricercatori di McAfee, che sono riusciti a ingannare la modalità Autopilot di due Tesla Model X e Model S del 2016, dimostrando di poterle portare a più di 130 chilometri orari in strade dove il limite è di 50.

Basta del nastro adesivo

Per farlo i ricercatori non hanno avuto bisogno di manomettere fisicamente le auto né di introdursi nel loro sistema informatico; si sono semplicemente serviti di un cartello stradale opportunamente modificato per ingannare le telecamere sulle quali si basa il sistema di riconoscimento della segnaletica verticale incorporato nel sistema di guida semiautonoma Autopilot. Il cartello in questione è quello che negli Stati Uniti segnala il limite di velocità di 35 miglia orarie, modificato per l'occasione con del semplice nastro adesivo nero. Il numero 3 sul cartello è stato alterato in modo impercettibile, tanto da non destare sospetti a un occhio umano ma da sembrare invece un 8 per i sistemi di interpretazione delle immagini dell'automobile.

80 chilometri orari sopra il limite

Il sistema Autopilot delle auto Tesla — come molti sistemi di guida assistita meno evoluti — imposta la velocità di crociera del veicolo su ciò che le videocamere di bordo rilevano essere il limite di velocità; in questo caso, dopo essere stato ingannato il sistema può tranquillamente far aumentare la velocità dell'auto fino a 85 miglia orarie, ovvero circa 135 chilometri orari. L'operazione dei ricercatori è avvenuta in un ambiente controllato, ma un cartello così modificato posizionato in una zona residenziale può far perdere il controllo dell'auto ben prima che il guidatore si accorga di ciò che sta succedendo.

Anche altre auto coinvolte

Il principale bersaglio dell'attacco è il chip per il riconoscimento delle immagini Mobileye EyeQ 3, impiegato da Tesla su alcune delle sue auto meno recenti ma anche da altri produttori. Del resto non è neppure la prima volta che viene dimostrato quanto sia semplice ingannare gli algoritmi per la guida assistita o semiautonoma con trucchi ottici elementari. Tradizionalmente i produttori impiegano poco tempo a sviluppare dei correttivi software che correggono il problema immunizzando le auto, ma l'ideale sarebbe arrivare a un sistema capace di prevedere nuovi attacchi e premunirsi di conseguenza. Fino ad allora, anche sulle auto più stipate di optional meglio tenere le mani sempre salde sul volante e gli occhi incollati alla carreggiata.