Новости

Беспилотный автомобиль от Tesla столкнулся с расследованием после смерти пешехода

В США началось федеральное расследование на предмет наличия дефектов в системе частичной автоматизации компании Tesla Inc., позиционируемой как Full Self-Driving, после многочисленных аварий, одна из которых закончилась смертельным исходом, сообщает Bloomberg.

Национальная администрация безопасности дорожного движения заявила, что оценит, способна ли система Tesla, также известная как FSD, обнаруживать и соответствующим образом реагировать на туман и другие условия ограниченной видимости. Агентство заявило, что в таких сценариях были зарегистрированы четыре аварии, в которых была задействована FSD.

В одной из аварий внедорожник Tesla Model Y насмерть сбил пешехода. Еще одно столкновение с участием седана Model 3 привело к получению незначительной травмы, согласно NHTSA. Представители Tesla не ответили запрос о комментарии.

Расследование может помешать усилиям генерального директора Илона Маска позиционировать Tesla как лидера в области автоматизированного вождения. В настоящее время пользователи FSD обязаны постоянно контролировать систему, но, по словам Маска, водителям в Техасе и Калифорнии со следующего года больше не нужно будет обращать на это внимание.

Акции Tesla упали на 0,8% вскоре после начала регулярных торгов. Акции распродавались после того, как на прошлой неделе Маск представил прототипы беспилотных автомобилей, но не раскрыл подробностей, как компания будет реализовывать его амбиции в области беспилотного вождения.

Хотя расследование дефекта охватывает около 2,4 млн автомобилей Tesla, лишь часть клиентов компании платит за FSD. Расследование идет в дополнение к запросу об отзыве, открытому NHTSA в апреле, на предмет того, сделала ли Tesla достаточно, чтобы не допустить злоупотребления водителями другим набором функций помощи, которые компания продвигает как Autopilot.

Агентство изучает, обеспечивает ли обновление программного обеспечения, развернутое Tesla в конце прошлого года, сохранение вовлеченности водителей при использовании системы.

NHTSA заявило, что существует «критический разрыв в безопасности» между тем, что водители думают о возможностях автопилота, и его фактическими возможностями. Этот разрыв привел к предсказуемому неправильному использованию системы и предотвратимым авариям.

В апреле NHTSA заявила, что обнаружила 211 инцидентов, в которых Tesla попадали в аварии на автопилоте, несмотря на то что у водителей было достаточно времени, чтобы избежать или смягчить столкновения. В 111 случаях водители съезжали с дороги после непреднамеренного отключения системы.

Маск заявил, что способность Tesla разрабатывать технологию автономного транспорта в конечном итоге определит, будет ли компания стоить больших денег или «практически ничего». Автопроизводитель взимает $8 тыс. за FSD в США и заявил, что в начале следующего года попытается получить одобрение регулирующих органов на развертывание в Европе и Китае.

Ранее сообщалось, что Tesla хочет предоставить владельцам Cybertruck возможность полностью автономного вождения в присутствии водителя (FSD). Члены клуба владельцев Cybertruck говорят, что им удалось установить обновление FSD на свои автомобили.