Автопилот Tesla проверили на московских дорогах (видео)
14 октября 2015 года компания Tesla выпустила обновление для автомобильного софта с новой функций Autopilot для американских пользователей, а 24 октября получила разрешение на обновление прошивки автомобилей во всех странах мира, кроме Японии. Апгрейд доступен для машин, выпущенных после сентября 2014 года.
В режиме автопилота программа использует данные от камеры и радара в передней части автомобиля, а также от GPS-модуля и 12 ультразвуковых датчиков расстояния по периметру кузова, поддерживает движение автомобиля по своей полосе, уклоняется от препятствий, разгоняется и притормаживает в случае необходимости.
Способность уклоняться от препятствий пришлась как нельзя кстати при тестировании Autopilot на московских автодорогах. Первый тест в Москве провёл московский Клуб любителей Tesla.
На видео вверху показано, как автопилот Tesla уворачивается от машины такси, которая подрезала электромобиль. Тот повёл себя весьма корректно: слегка притормозил и сместился в соседний ряд, чтобы пропустить спешащего таксиста. После того, как таксист завершил манёвр, автопилот вернулся на прежнее место.
На сайте Клуба любителей Tesla опубликован небольшой обзор последней прошивки Tesla v7.0 и обзор функций автопилота.
Отдельно выложен тест-драйв автопилота.
Тем временем Tesla готовит обновление: версию Autopilot 1.01 с адаптацией кривой скорости, «плавностью контроллера», с распознаванием полос на плохих дорогах и улучшенным «обучением на лету».
И еще по теме:
Как должен вести себя беспилотный автомобиль в случае, если избежать жертв в результате аварии невозможно?
Французские учёные из Тулузской школы экономики во главе с Жаном-Франсуа Боннфоном (Jean-Francois Bonnefon) опубликовали научную работу «Робомобилям нужна экспериментальная этика: готовы ли мы выпускать машины на дороги?» (Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?), в которой попытались ответить на сложный этический вопрос: каким должно быть поведение беспилотного автомобиля в случае, если избежать аварии невозможно и жертвы неизбежны? Авторы опросили несколько сотен участников краудсорсингового сайта Amazon Mechanical Turk, который объединяет людей, готовых выполнять какую-либо проблемную работу, на которую компьютеры пока что не способны по различным причинам. На статью обратил внимание ресурс MIT Technology Review.
Авторы подошли к исследованию достаточно осторожно, не требуя от людей однозначных ответов: да или нет. При этом под робомобилем подразумевались действительно автономные автомобили, которые полностью управляются компьютером, без возможности повлиять на ситуацию живым человеком. Было сформулировано несколько вопросов, иллюстрирующих ряд ситуаций, при которых поведение компьютерного алгоритма, управляющего робомобилем, становится этической проблемой. К примеру, если дорожные обстоятельства складываются таким образом, что есть только два варианта развития событий: избежать столкновения с группой из 10 пешеходов означает самому въехать в отбойник или заехать в толпу людей, когда число жертв становится по-настоящему непредсказуемым. Как в таком случае должен поступить компьютерный алгоритм? Ещё более сложная ситуация: если на дороге только один пешеход и один робомобиль? Что этически более приемлемо — убить пешехода или убить владельца машины?
По результатам исследования выяснилось, что люди считают «относительно приемлемым», если робомобиль будет запрограммирован на минимизацию человеческих жертв в случае дорожного проишествия. Другими словами, в случае возможной аварии с участием 10 пешеходов, компьютерный алгоритм должен фактически пожертвовать своим владельцем. Правда, более менее однозначный ответ исследователи получали ровно до того момента, пока участники исследования не оказывались за рулем робомобиля — ставить себя на место его водителя они отказались. Это приводит к другой противоречивой проблеме. Чем меньше людей будут покупать робомобили, которые действительно намного реже, чем живые водители попадают в опасные ситуации, тем больше людей будет гибнуть в авариях на обычных автомобилях. Другими словами, вряд ли покупателю будущего гугломобиля понравится один из пунктов в лицензионном соглашении, гласящий, что в случае неизбежной жертвы в результате аварии, программное обеспечение фактически выберет убить своего владельца.
Комментарии
картинки a,b,c и тд. - авто всегда тупо поворачивает вправо в любой ситуации.
Отправить комментарий