자율주행 시대를 이끌겠다던 테슬라가 다시 한 번 안전성 논란에 휩싸였다는 소식입니다.
테슬라의 최신 풀 셀프 드라이빙, 이른바 FSD 소프트웨어가 대규모 연방 조사의 도마 위에 올랐습니다.
최근 로스앤젤레스에서 진행된 종합 테스트 주행에서, 운영 중이던 차량이 불과 90분 만에 7건의 중대한 안전 오류를 기록했습니다.
가장 충격적인 결과는 깜빡이는 불빛의 스쿨버스를 전혀 인식하지 못했다는 사실입니다.
아이들을 태우고 내리는 상황에서도 멈추지 않고 그대로 주행을 이어가며, 아동 크기의 마네킹에 정면 충돌하는 모습이 확인됐습니다.
이뿐만이 아닙니다. 독립적 테스트 기관 ‘던 프로젝트’가 오스틴에서 8차례 시험한 결과, 모든 경우에서 테슬라 FSD 차량은 멈추지 않고 불법적으로 버스를 통과했고, 충돌 직전까지도 운전자에게 경고를 보내지 않았습니다.
실제 운전자들의 경험담 또한 문제를 뒷받침합니다. 철도 건널목에서 신호와 차단기를 무시하거나 접근하는 기차를 피해가지 못하는 사고 보고가 2023년 이후 40건 이상 쏟아졌습니다.
게다가 최근 벌어진 ‘미국 횡단 도전’에서도 문제가 드러났습니다.
테슬라 인플루언서들이 자율주행으로 대륙을 건너려 했지만, 출발 60마일 만에 노상 장애물을 감지하지 못해 사고를 내며 도전이 조기 종료됐습니다.
이 같은 상황에 미국 고속도로 교통 안전국, NHTSA가 칼을 빼들었습니다.
테슬라가 사고 후 수개월이 지나 보고서를 제출하며 규정 위반을 반복했기 때문입니다.
한편 오스틴에서 시작된 로보택시 시험 서비스 역시 출범 한 달 만에 12대 중 3건의 사고를 내며 신뢰성에 의문을 키우고 있습니다.
전문가들은 카메라만을 의존하는 테슬라의 접근법이 근본적인 한계를 갖고 있다고 지적합니다.
경쟁자인 웨이모가 라이다와 레이더를 포함한 다중 센서를 활용하는 것과 달리, 테슬라의 차량은 악천후나 복잡한 상황에서 취약하다는 분석입니다.
이런 문제에도 불구하고, 일론 머스크 CEO는 올해 안에 로보택시에서 안전 요원을 없애고 전국으로 서비스를 확대하겠다고 공언했습니다.
그러나 현 단계에서 과연 이 기술이 대중에게 안전하게 적용될 수 있느냐는 의문은 갈수록 커지고 있습니다.














































































