Недавно мы сообщили о NHTSA начинает расследование в отношении Teslas с помощью активной полуавтоматической системы вождения с автопилотом 2 уровня, которая имеет Столкнутьсятак В автомобилях скорой помощи, таких как полицейские машины или Пожарная машина. Похоже, что этот крах мог произойти и в другом подобном случае В субботу утром, когда Tesla Model 3 врезался в полицейскую машину, которая была припаркована на обочине дороги, чтобы помочь автомобилисту в Орландо, Флорида.. К счастью, никто не пострадал, но это, кажется, подтверждает идею о том, что у автопилота проблемы с питанием.
В заявлении дорожного патруля Флориды (FHP) говорится, что сотрудник FHP остановился, чтобы помочь водителю-инвалиду. Mercedes-Benz GLK 350 2012 года на плече I-4 вокруг Орландо.
2019 г. Tesla Model 3, которая, по словам водителя, работает на автопилоте, врезается в машину полицейского и вытирает ее боком, а затем также врезается в подбитый Mercedes, возможно, просто чтобы быть правдой.Я уверен, что всем будет испорчен день.
В настоящее время проводится расследование, чтобы подтвердить, чтоПорты вокруг статус автопилота и его роль в аварии; Конечно, не исключено, что эта информация может быть неверной, но, опять же, подобный тип аварии уже наблюдался с автопилотом раньше. Отсюда и расследование НАБДД.
G / O Media может получить комиссию
Я встал на автопилоте, и правда Все полуавтоматы уровня 2 Системы вождения довольно просты: они плохи, не обязательно по техническим причинам, но по концептуальным причинам, которые связаны с тем, как люди — основной целевой рынок Teslas и многие другие новые автомобили — взаимодействуют с ними. Не только я думаю об этом.
Люди умеют избегать машин экстренной помощи, припаркованных на обочине шоссе. Автопилот, кажется, очень плохо справляется с этим. Если бы в этом случае автопилот использовался правильно, водитель-человек увидел бы, что машина решила ударить по полицейской машине, захватив ее.
Но проблема в том, что когда система выполняет почти все фактическое вождение — как это часто делает автопилот в дорожных ситуациях и как система обычно доказывает свою работоспособность — люди ужасно относятся к мониторингу системы.
Конечно, это человеческая ошибка, но это также результат плохой системы, которая не принимает во внимание, как на самом деле работают люди. это Как та ужасная мышь, которую Apple сделала около 20 лет назад: Технически это было нормально, но в дизайне не учтено, как формируются руки человека, и в результате получилась катастрофа.
Эти мыши не врезались в полицейские машины на обочине дороги, и это тоже стоит отметить. Автопилот и другие системы L2Темза совершает ту же основную ошибку, игнорируя то, как на самом деле работают люди.
Мне любопытно узнать результаты этого расследования и можно ли вытащить видеоклип из машины. Если это показывает, что автопилот контролировал ситуацию, я надеюсь, что это побудит Tesla как можно скорее сосредоточиться на улучшении способности избегать припаркованных автомобилей при обновлении системы.
«Организатор. Поклонник поп-культуры. Заядлый знаток зомби. Эксперт по путешествиям. Внештатный веб-гуру».
More Stories
Рынки Азиатско-Тихоокеанского региона торгуются меньше; Торговые данные Китая за август не оправдали ожиданий
Фьючерсы на природный газ в США упали более чем на 5% из-за увеличения добычи
Администрация Байдена запускает план инвестиций в картофельные чипсы на 50 миллиардов долларов