Смертельное ДТП показало неспособность автопилота Tesla контролировать водителя

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Судя по отсутствию человека на водительском сиденье, машиной управлял автопилот. В теории он отслеживает наличие человека за рулем и без него не едет. Но на практике человек всегда может обмануть компьютер. Неспособность компьютера контролировать человека в описываемом случае привела к печальным последствиям. Несмотря на это, по последним данным, автопилот Tesla снижает риск попасть в аварию в девять раз. Впрочем, с одним нюансом.

Согласно сообщению телеканал KHOU-TV, близ Хьюстона произошло ДТП с участием Tesla Model S. Машина вылетела с дороги на крутом повороте, врезалась в дерево и загорелась. Тушение пожара заняло длительное время, в итоге в машине обнаружили тела двух пассажиров. Ни одно из них не было на водительском сиденье. Судя по параметрам ДТП, оба погибших вряд ли могли двигаться сразу после удара о дерево. Из этого местные власти делают вывод, что машина ехала на автопилоте.

В норме «теслы» не едут, если на водительском сиденье нет человека. Чтобы убедиться, что он есть, от водителя требуются периодические касания руля. Некоторые машины компании еще контролируют наличие человека за рулем камерой. Однако ряд владельцев этих машин обходят ограничения. Для имитации касания руля они приматывают к нему скотчем полупустую банку с напитком: на ухабах банку покачивает, и она слегка качает руль, обманывая автопилот.

Другие сажают самодельное чучело на водительское сиденье и едут рядом. Камера не может отличить муляж в темных очках от человека и позволяет такую езду. Разумеется, подобные действия небезопасны, но убедить в этом всех владельцев машин не представляется возможным в силу известных особенностей человеческой природы.

Случившееся подчеркивает главную слабость всех автопилотов, существующих на планете: ими управляют алгоритмические компьютеры. Реальными машинами управляют люди, природа мышления которых неизвестна, но ясно, что она не алгоритмична. Чтобы понять, как действовать, автопилоты сравнивают вид дороги перед собой с заложенными в ПО алгоритмами поведения на той или иной дороге.

Значит, если алгоритмы распознавания дорожных условий дадут ошибку, то компьютер отреагирует неверно: как в нашем случае, когда он «не увидел» изгиб дороги и вылетел с нее. Пока не ясно, как можно решить эту проблему. Компьютеров, способных мыслить не алгоритмами, осознавать окружающую реальность, а не перебирать запрограммированные варианты, не понимая, что они описывают, еще нет. И придумать их сейчас невозможно, поскольку нет никакой ясности, как работает сознание у людей.

В то же время следует отметить, что у автопилота Tesla в итоге неплохая общая статистика аварийности. Согласно отчету компании за первый квартал 2021 года, машины под управлением ее автопилота попадали в аварию один раз на 6,74 миллиона километров пробега. «Теслы», владельцы которых не заплатили за автопилот при покупке (Илон Маск называет это «пассивный автопилот»), показали одну аварию примерно на 3,2 миллиона километров. Такие машины включают тормоза перед препятствием, которое не заметил человек-водитель, но только в последний момент.

Машины компании без включенного автопилота и «пассивного автопилота» показали одну аварию на 1,6 миллиона километров пробега. В среднем для США одна авария приходится на менее чем 0,8 миллиона километров пробега. Это дало Маску основания для громкого заявления о том, что ездить на автопилоте чуть ли не в десять раз безопаснее, чем без него.

Между тем, это не совсем корректно. Да, аварийность «тесл» на автопилоте примерно в девять раз ниже, чем у среднестатистического американского водителя на среднестатистической американской машине. Но это нечестное сравнение. Из статистики выше заметно, что средняя «тесла» безо всяких черт автопилота становится участником ДТП вдвое реже обычной американской машины. Это происходит потому, что у нее весьма эффективная тормозная система и ряд других особенностей, связанных с риском попадания в аварию.

Честное сравнение может быть только между «теслами» без черт автопилота и ими же, но с автопилотом. Оно показывает, что на сегодня автопилот в четыре с лишним раза безопаснее вождения вручную.

tesla1.pngТипичные образцы особей (ареал этих конкретных — TikTok), обманывающих автопилот и едущих на нем без рук на руле / ©TMZ

В то же время, при всей правоте этого тезиса, смерти, подобные описанным выше, определенно не исчезнут окончательно еще долгие годы. Автопилот действительно снижает аварийность, но за счет того, что не делает «человеческих» ошибок. Зато он делает — хотя много реже людей — собственные ошибки, которые человек может совершить весьма нечасто.

Сам глава Tesla Илон Маск недавно успел заявить: он уверен, что его машины будут ездить безопаснее авто с «живым» водителем уже в этом году. Если исходить из общей аварийности, то это, как мы видим, свершившийся факт. Но на практике сомнительно, что все люди станут доверять автопилоту, которые делает свои, «нечеловеческие» ошибки и вылетает с дороги. Скорее всего, и власти будут с большой неохотой разрешать езду на полном автопилоте. Даже несмотря на то, что она менее аварийна, чем езда «живого» водителя.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 1.5 (2 votes)
Источник(и):

Naked Science