Катастрофа Gardena 2019 года была идеальным штормом для несовершенного автопилота Tesla

Катастрофа Gardena 2019 года была идеальным штормом для несовершенного автопилота Tesla

Прошел еще год, и Система полного самостоятельного вождения по-прежнему является действительно классным демонстрационным комплексом, который создает больше проблем, чем решает. Его предшественник, , предназначенный только для шоссе, также вернулся в новости из-за того, что он был связан со смертельным исходом, произошедшим в Гардене, штат Калифорния, в 2019 году.

Несмотря на то, что в настоящее время общественность не имеет всестороннего обзора аварии, довольно легко проанализировать то, что произошло, из новостных сообщений. Кевин Джордж Азиз Риад ехал на запад в Tesla Модель S на дальнем западном конце CA-91 (шоссе Гардена) с включенным автопилотом незадолго до инцидента. Хотя сообщения о том, что Риад «покинул» автостраду, могут быть неверно истолкованы как намек на то, что он каким-то образом потерял управление и съехал с обочины, это не то, что произошло; шоссе просто закончилось.

Как и многие незавершенные городские автомагистрали Америки, 91-я не просто заходит в тупик в конце своего маршрута. Вместо этого он становится наполовину разделенной наземной улицей под названием бульвар Артезия. Вот как это выглядит на Google Maps:

Что именно произошло внутри Риада? Tesla то, как он проехал эти последние несколько сотен футов автострады, может навсегда остаться загадкой, но то, что произошло дальше, хорошо задокументировано. Риад якобы проехал на красный свет на первом перекрестке с севера на юг (Вермонт-авеню), врезавшись в Honda Civic с Хильберто Алькасаром Лопесом и Марией Гуадалупе Ньевес-Лопес на борту. Оба скончались на месте. Риад и пассажир в Tesla были госпитализированы с несовместимыми с жизнью травмами.

Когда произошло крушение 91-Artesia, автопилот не был основным компонентом истории. Это произошло совсем недавно, когда власти объявили, что Риаду будут предъявлены два обвинения в непредумышленном убийстве транспортного средства — первое обвинение в совершении уголовного преступления, выдвинутое против частного владельца, который разбился при использовании автоматизированной системы вождения. Но действительно ли проблема в автопилоте в данном случае?



Автопилот — это система помощи при вождении на автомагистралях. Хотя он может следовать по полосам, контролировать и регулировать скорость, сливаться, обгонять более медленные потоки и даже выезжать с автострады, это не полный комплект для самостоятельного вождения. Он не предназначался для обнаружения, понимания или остановки на красный свет (хотя эта функция действительно появилась после аварии 91-Artesia). На автостраде таких нет. Таким образом, если автопилот был включен, когда произошла авария, это означает, что он работал не по назначению. Преодоление опасностей наземных улиц является задачей TeslaПолное программное обеспечение для самостоятельного вождения — или, по крайней мере, оно будет, когда оно перестанет натыкаться на вещи, которые Tesla Генеральный директор Илон Маск предсказал, что это будет происходить каждый год в течение последних нескольких лет.

В то же время подобные ситуации подчеркивают, насколько велик разрыв между тем, что мы интуитивно ожидаем от беспилотных автомобилей, и тем, что технология способна обеспечить в настоящее время. До тех пор, пока Риад не «покинул» автостраду, позволить автопилоту выполнять рутинную работу было вполне разумно. К западу от 110 это стало трагической ошибкой, погубившей и изменившей жизнь. И предотвратимые, с небольшим вниманием и вмешательством человека — две самые важные вещи, которые программное обеспечение для самостоятельного вождения стремится сделать излишними.

я не был в этом Tesla еще в 2019 году. Я не знаю, почему Риад не смог предотвратить столкновение. Но я знаю, что полуавтономные люксы требуют уровня внимания, эквивалентного тому, что требуется для реального вождения автомобиля. Человеческое суждение — ошибочное, предположительно ненадежное программное обеспечение для обеспечения безопасности процессов, которое предлагается устранить, — еще более важно при использовании этих пакетов, чем раньше, особенно с учетом состояния инфраструктуры США.

Этот инцидент является убедительным аргументом в пользу того, что автономные транспортные средства будут бороться не только с плохо нарисованной разметкой полосы движения и отсутствующими отражателями. Сами конструкции многих наших дорожных систем по своей природе сложны как для машинной обработки, и человеческий интеллект. И я использую термин «дизайн» вольно и со всем уважением в мире по отношению к инженерам-строителям, которые обходятся тем, что им вручают. Нравится вам это или нет, инфраструктурное дурачество вроде развязки 91/110/Artesia Blvd не редкость в системе автомобильных дорог Америки. Не верите мне? Вот еще четыре примера подобной глупости, которые только что пришли мне в голову:

Если вы когда-либо ездили по крупной городской или пригородной трассе в Соединенных Штатах, вы, вероятно, знакомы по крайней мере с одним таким же крутым тупиком на автостраде. Более заметные вывески, предупреждающие о таком серьезном изменении дорожного движения, принесут пользу водителям, как людям, так и искусственным (при условии, что ИИ знает, что они имеют в виду). И многие из этих проектов автомагистралей никогда не были разрешены для коммерческой деятельности. Но это оба (длинных, вызывающих разногласия) аргумента в другой раз. То же самое относится и к любому реальному понятию вины со стороны инфраструктуры или беспилотных систем. Даже если в этом случае человеческий «водитель» полностью исключен из уравнения, ни инфраструктура, ни автономия не будут виноваты в самом строгом смысле. Это просто две противоречащие друг другу вещи — и, возможно, в конечном счете несовместимые.

В нынешних условиях к Риаду будут относиться так же, как и к любому другому водителю (и следует) в данных обстоятельствах. Степень ответственности будет определяться так же, как и всегда. Водитель отвлекся? В состоянии алкогольного опьянения? Усталый? Безрассудный? Вопрос о том, можем ли мы доверять технологиям делать работу за нас, здесь не рассматривается. Еще нет. Есть много причин, по которым автоматизированные системы вождения вызывают споры, но лично меня больше всего интересует элемент автономии — ответственность. Если вы водитель в Америке, доллар обычно останавливается на вас. Да, могут быть смягчающие обстоятельства, дефекты или другие факторы, способствовавшие аварии, но ответственность за аварию почти всегда ложится на виновного водителя — определение, которому противостоят автономные автомобили.

Раньше я шутил, что в конечном итоге мы можем до смерти устать за рулем беспилотных автомобилей, но пока мы собираемся застрять на Red Bull и 5-Hour Energy, просто пытаясь следить за нашими электронными няни. Раньше нам приходилось только догадываться. Теперь нам предстоит управлять искусственным интеллектом, который, несмотря на то, что в некоторых отношениях превосходит человеческий мозг, не справляется с некоторыми из самых элементарных задач. TeslaFSD едва может пройти базовый экзамен по вождению, и даже это требует вмешательства человека. Tesla даже научил его сокращать путь, как ленивый человек. И теперь есть статистические доказательства того, что машины ничуть не безопаснее.

Итак, машина лучше управляет автомобилем или мы? Даже если бы ответ был «машина» (а это не так), ни один автопроизводитель не предлагает покрыть ваши судебные издержки, если ваш полуавтономный автомобиль убьет кого-то. Считайте любую технологию автономного вождения в лучшем случае экспериментальной и относитесь к ней соответствующим образом. Доллар по-прежнему останавливается на вас.