Istraživači koji se bave problemima bezbjednosti saobraćaja sproveli jednostavan eksperiment čiji rezultati pokazuju da bi Tesla autopilot u određenim uslovima mogao da skrene u pogrešnu traku, krene u susret automobilima iz suprotnog smjera, i tako ih sve dovede u opasnost.
Ranjivost sistema nije dokazana tako što je on hakovan, već upotrebom naizgled bezazlenih naljepnica koje uspijevaju da prevare unaprijeđeni Teslin autopilot Modela S 75 da detektuje i prati lažne promjene u okviru trake kojom se kreće, prenosi PC Press.
Autopilot podržava različite funckije, uključujući centriranje automobila u traci kojom se kreće, autonomno parkiranje, te automatsko mjenjanje trake uz potvrdu vozača.
Sistem se inače oslanja na kamere, ultrazvučne senzore i radar, kada je u pitanju prikupljanje informacija o okruženju, preprekama, terenu i promjenama u okviru traka na putu. Informacije se potom šalju u kompjuter, pa automobil na osnovu njih donosi odluke u realnom vremenu.
Bezbjednosni eksperti sproveli su eksperiment u okviru kojeg se pratilo kako se autopilot ponaša kada se promjene uslovi na putu, te su u okviru jednog dijela korišćene i naljepnice koje su se postavljale na put kojim se vozilo kretalo, a tako da vozač nije mogao da ih vidi.
Algoritmi su ih ipak registrovali, te doživljavali kao informaciju da traka kojom se kreću skreće ulijevo, te je i vozilo kretalo u tom smjeru, a u susret automobilima koji su dolazili iz suprotnog smjera.
Ranjivost se pojavila u okviru "detect_and_track" opcije kojom se detektuju trake na putu, i uz pomoć kojih se ažurira interna mapa iz koje se šalju informacije upravljaču.
Mogućnost uticanja na „ponašanje“ autonomnih automobila uz pomoć promjena u okruženju nije ništa novo. Još 2017. dokazano da promjene na putu izazivaju određene probleme, a poenta ovakvih eksperimenata je da se prepoznaju sve moguće ranjivosti, te da se sistem ažurira tako da se broj mogućih grešaka svede na minimum.
Pratite nas na našoj Facebook i Instagram stranici, kao i na X nalogu.