Tesla’nın Full Self-Driving (FSD) isimli tam otonom sürüş özelliğiyle gerçekleştirilen son deneme, otomobil dünyasında geniş yankı uyandırdı. Test sırasında Tesla Model Y, duran bir okul servisinin kırmızı ışıklarını ve açık dur işaretini algılamadı. Bununla kalmadı, yola yerleştirilen çocuk boyutundaki mankenlere çarparak ilerlemeye devam etti. Otonom sürüşün güvenlik düzeyi, bu test sonrası yeniden tartışma konusu oldu.
Bu dikkat çekici deneme, The Dawn Project, Tesla Takedown ve ResistAustin gibi grupların iş birliğiyle Austin, Teksas’ta yapıldı. Test boyunca Model Y’nin aynı hatayı tam sekiz defa üst üste tekrarladığı belirtildi. Her seferinde okul servisinin yanında durmayan araç, çocukları temsil eden mankenlere çarptı. Bu durum yazılımın bazı temel trafik senaryolarını hâlâ doğru yorumlayamadığını ortaya koydu.
Tesla Model Y, dur işaretini algılamadan çocuk mankenlere çarptı
Tesla’nın FSD özelliği resmi olarak “Full Self-Driving (Supervised)” olarak adlandırılıyor. Firma, bu sistemin aktif olduğu durumlarda sürücünün dikkatli olmasını ve direksiyon başında bulunmasını zorunlu kılıyor. Sistemin kendisi de ekranda sürücüye yönelik uyarılar vererek dikkat çekmeye çalışıyor. Fakat tüm bu uyarılara rağmen sistemin bu tür tehlikeli senaryolarda başarısız olması, soru işaretlerini artırıyor.
Testi organize eden Dawn Project’in kurucusu Dan O’Dowd, Tesla’ya karşı daha önce de eleştiriler yöneltmişti. Aynı zamanda rakip bir otonom sürüş yazılımı geliştiren O’Dowd, daha önce tam sayfa gazetelere verdiği ilanlarla Tesla’nın okul servislerine yaklaşımını sorgulamıştı. Bu son test, onun eleştirilerini destekler nitelikte sonuçlar verdi. Görüntüler sosyal medyada hızla yayıldı ve kamuoyunun ilgisini çekti.
2024 Nisan ayında yaşanan başka bir olay da Tesla’nın FSD sistemini gündeme taşımıştı. Washington’da bir Tesla Model S, FSD açıkken bir motosiklete çarpmış, kazada motosiklet sürücüsü hayatını kaybetmişti. Bu olay Tesla’nın yazılımının gerçek trafik koşullarında yeterince güvenli çalışmadığını gösteren örneklerden biriydi. Şirket bu tür olaylara rağmen FSD’yi geliştirmeye devam ediyor.
Otonom sürüş sistemleri hâlâ denetimli bir sürüş gerektiriyor olsa da, sistemin adının “tam otonom” olması beklentileri yükseltiyor. Özellikle okul servisleri gibi hassas durumlarda yapılan bu tür hatalar, kamuoyunda ciddi güvenlik kaygılarına neden oluyor. Çünkü FSD özelliğine sahip bir araçtan beklenti sadece kendi kendine gitmesi değil, aynı zamanda insan hayatına duyarlı hareket etmesi. Bu test ise bunun gerçekleşmediğini gösterdi.
Tüm bunların yanında, Tesla’nın yeni otonom taksi projesi Cybercab için de geri sayım başlamıştı. İlk etapta 22 Haziran’da tanıtılması planlanan araç için Elon Musk, “güvenlik konusunda fazlasıyla hassas davranıyoruz” diyerek lansmanın ertelenebileceğini söyledi. Musk ayrıca 28 Haziran’da, “fabrikadan çıkıp kendi kendine ilk kez bir müşterinin evine gidecek araç” açıklamasını yaptı. Bu iddia heyecan uyandırsa da test sonuçları bu hedefin gerçekçiliğini sorgulatıyor.
Model Y’nin okul servislerini ve dur işaretlerini tanıyamaması, yalnızca teknik bir eksiklik olarak görülemez. Bu tarz hatalar, insan hayatını doğrudan tehdit ediyor. Tesla her ne kadar sürücü denetimi gerektiğini vurgulasa da, sistemin adı ve pazarlama dili bu beklentiyi aşıyor. Tam da bu nedenle yapılan testler, Tesla’nın FSD sistemine yönelik güven duygusunu ciddi biçimde sarsıyor.