Kecanggihan mobil otonom masih mengalami trial dan error. Tesla kembali disorot terkait keamanan fitur autopilot kendaraannya setelah terjadi kecelakaan yang menewaskan dua orang.
Tesla Model S 2019 yang dikendarai dua pria bertabrakan dengan pohon di utara Houston. Kedua pria yang menjadi korban tak ada yang berada di kursi pengemudi. Satu di kursi penumpang depan, dan satu lagi di belakang. Kecelakaan terjadi di Spring, Texas, AS pada Sabtu (17/4) malam waktu AS.
Belum bisa dipastikan apakah Autopilot aktif saat terjadi kecelakaan. Para korban belum diidentifikasi, namun salah satunya berusia 59 tahun sementara yang lainnya berusia 69 tahun. Sejauh ini Tesla belum memberikan komentar.
SCROLL TO CONTINUE WITH CONTENT
Menurut polisi setempat, kendaraan Tesla menabrak pohon dan terbakar. Petugas pemadam kebakaran dilaporkan menggunakan 32.000 galon air dan menghabiskan waktu berjam-jam untuk memadamkan api yang diakibatkan oleh kecelakaan kendaraan listrik tersebut.
Dikutip dari Engadget, Senin (19/4/2021) jika Model S tersebut benar-benar tanpa pengemudi, insiden itu menunjukkan bahwa penumpang salah paham dengan fitur autopilot, full self-driving (FSD), atau keduanya.
Masalah seperti ini sebenarnya sudah dikhawatirkan sejak lama. Banyak yang cemas bahwa pengguna mobil tersebut akan bergantung sepenuhnya pada teknologi autopilot, dan menganggap bahwa dapat melepaskan tangan dari kemudi, bahkan tidak berada di kursi pengemudi sama sekali.
Namun, bahkan FSD beta Tesla tidak menawarkan otonomi penuh, dan pengguna mobil harus siap untuk mengambil kendali setiap saat. Mobil akan meminta penggunanya untuk memegang kemudi jika membiarkannya cukup lama.
Dalam sebuah surat kepada otoritas California DMV (Department of Motor Vehicle) akhir tahun lalu, pengacara Tesla mengatakan bahwa baik Autopilot maupun FSD Capability bukanlah sistem otonom.
Dalam manual pemiliknya, Tesla memperingatkan pengemudi: Fitur yang saat ini diaktifkan memerlukan pengawasan pengemudi aktif dan tidak membuat kendaraan menjadi otonom.
Meskipun begitu, banyak penggemar dan influencer Tesla yang pamer di media sosial, menunjukkan kemampuan mengemudi dengan lepas tangan untuk waktu yang lama, tidur di belakang kemudi atau tanpa ada orang di kursi pengemudi sama sekali.
Di Jerman, pengadilan Munich sebenarnya melarang Tesla menggunakan frasa yang setara dengan kemampuan autopilot dan full self-driving dalam iklannya, karena mereka menemukan bahasa ini melebih-lebihkan kemampuan mobil dan menyesatkan konsumen.
Baca juga: Elon Musk Izinkan Beli Tesla Pakai Bitcoin |
Ini bukan kecelakaan pertama yang melibatkan kendaraan Tesla. Otoritas keselamatan lalu lintas AS membuka 27 penyelidikan kecelakaan kendaraan Tesla, 23 di antaranya masih aktif. Hal ini mendorong penyelidikan federal untuk menentukan apakah sistem autopilot atau FSD Tesla ikut berperan dalam tabrakan tersebut.
(rns/fay)