9 просмотров

Как искусственный интеллект делает автономные транспортные средства более безопасными

ИИ используется для имитации реальных условий для проверки безопасности автономных транспортных средств. Исследователи из Стэнфорда изучили алгоритмы и говорят, что они хороши, но работа еще впереди.

7 марта 2022 г.
Эндрю Майерс
Изображение

Влияние на производительность

Каковы наилучшие способы тестирования автономных транспортных средств? | iStock/хапабапа

Каждый раз, когда автономный автомобиль или самолет взлетает в воздух, на карту поставлено многое. Инженеры возлагают большие надежды на интеллектуальные системы, которые видят и чувствуют мир и помогают самоуправляемым транспортным средствам избегать практически всех опасностей, которые могут встретиться на их пути.

«Наша главная задача как отрасли заключается в том, как мы можем гарантировать, что эти удивительные возможности систем искусственного интеллекта — беспилотные автомобили и беспилотные самолеты — безопасны. до мы размещаем их в местах, где на карту поставлены человеческие жизни?» — говорит Энтони Корсо, доктор наук в области аэронавтики и космонавтики и исполнительный директор Стэнфордского центра безопасности ИИ.

«Сами системы чрезвычайно сложны, но среда, в которой мы просим их работать, также невероятно сложна», — говорит Корсо. «Машинное обучение позволило роботам управлять автомобилем, например, в центре Сан-Франциско, но это огромная вычислительная проблема, которая еще больше усложняет проверку».

Дорожные испытания являются высшим арбитром безопасности, но дорожные испытания обычно проводятся только на самых последних этапах цикла проектирования и сопряжены с такими же рисками для человеческой жизни, которых исследователи надеются избежать. Ни один инженер не захочет нести ответственность за дорожные испытания, унесшие жизни или даже ценное имущество, во имя доказательства того, что технология безопасна.

Статья в тему:  Как студент колледжа может узнать об искусственном интеллекте

В свете этих практических проблем разработчики автономных транспортных средств стали полагаться на моделирование для проверки способности автономных транспортных средств избегать опасности. Но справятся ли эти симуляции с вызовом? С статьей, опубликованной в Журнал исследований искусственного интеллекта, Корсо и его коллеги из Стэнфорда и НАСА представляют обзор этих алгоритмов проверки безопасности «черного ящика». Они находят основания для оптимизма в том, что моделирование однажды может обеспечить необходимый уровень уверенности, но работа еще впереди.

Оценка «черного ящика»

Разработчики беспилотных автомобилей и самолетов, а также других автономных транспортных средств, требовательных к вычислительным ресурсам, обратились к так называемым приложениям проверки «черный ящик». Алгоритмы черного ящика отличаются от своих братьев и сестер, методов белого ящика. Проверка «белого ящика» направлена ​​на то, что известно как «формальная проверка» безопасности системы — не только нахождение потенциальных точек отказа, но, в идеале, доказательство абсолютной безопасности. отсутствие неудачи, а также.

Однако этот более высокий стандарт невероятно интенсивен с вычислительной точки зрения и плохо масштабируется для больших и сложных задач, таких как автономные транспортные средства. Происходит слишком много всего, чтобы все рассчитать и обеспечить уверенность на уровне белого ящика. Но, срезав несколько вычислительных углов, подходы «черный ящик» надеются преодолеть эти проблемы.

Корсо сравнивает это с видеоигрой, в которую играют наоборот, где алгоритмом тестирования является игрок, а победа определяется как неудача — авария, — но, разумеется, в смоделированном мире, без риска для жизни или имущества. Только тогда, когда вы знаете, когда и почему система вышла из строя, вы можете устранить такие ситуации в механизмах безопасности, встроенных в автомобиль.

Статья в тему:  Каковы ограничения искусственного интеллекта

«Алгоритмы используют состязательный подход, пытаясь найти слабые места. Мы надеемся, что не найдем неудачу. Чем дольше методы «черного ящика» работают, просматривая возможные сценарии, пытаясь создать слабые места и не находя их, тем больше растет наша уверенность в общей безопасности системы», — говорит Корсо о философии, которая движет этой областью.

Триангуляция

Чтобы обеспечить максимально возможную достоверность, алгоритмы проверки выполняют своего рода триангуляцию в случае отказа. Алгоритмы валидации — это самый высокий уровень для наиболее не склонных к риску отраслей, таких как авиация. Алгоритмы валидации ищут любые причины, по которым система может выйти из строя. Этот подход известен как фальсификация. «Фальсификация спрашивает: можешь ли ты найти меня? Любые пример, когда система дает сбой?» — говорит Корсо.

Это преднамеренно заниженная планка, чтобы обеспечить наибольшую уверенность. Однако для беспилотных автомобилей этот порог слишком низок. «С беспилотным автомобилем, работающим в городской среде, всегда можно найти какую-то патологическую ситуацию, которая может привести к аварии», — говорит Корсо. «Поэтому мы немного поднимаем планку».

Следующий уровень, таким образом, включает в себя поиск сбоев, которые наиболее вероятны, чтобы помочь группе разработчиков сделать свои системы максимально безопасными.Третий уровень предназначен для оценки вероятности различных форм отказа, чтобы оценить, насколько один результат превосходит другой.

«Эти методы как бы накладываются друг на друга, чтобы повысить уверенность в общей безопасности системы», — говорит Корсо.

Статья в тему:  Как искусственный интеллект борется с лесными пожарами

К более безопасным системам

В опросе не обязательно делаются оценочные суждения по рассмотренным инструментам «черного ящика», а скорее сравнивается то, как каждый из них решает проблему, какие предположения создатели встроили в свою систему, и каковы относительные сильные и слабые стороны каждого из них, чтобы разработчики автономных систем могут выбрать тот подход, который лучше всего соответствует их потребностям.

Тем не менее, из девяти протестированных систем, которые в настоящее время доступны для использования, Корсо отмечает, что только две обеспечивают что-то большее, чем проверка фальсификации, только одна предлагает тестирование наиболее вероятного отказа, а другая предлагает оценку вероятности. Так что, говорит он, есть куда расти.

В целом, Корсо и его коллеги еще не могут утвердить ни один из вариантов, но он видит, куда движется поле. По его словам, наиболее захватывающим направлением является «проверка состава», тестирование отдельных компонентов по отдельности, таких как системы визуального восприятия и датчики приближения, чтобы узнать, почему каждый компонент выходит из строя. По словам Корсо, больше информации о том, как подкомпоненты выходят из строя, можно использовать для повышения уверенности в общей безопасности системы.

«Несколько подходов, которые мы упомянули, начали затрагивать эту концепцию, — говорит Корсо, — но я думаю, что это потребует гораздо больше работы. В их нынешнем состоянии эти общесистемные алгоритмы сами по себе недостаточны, чтобы поставить на них формальную печать одобрения».

Статья в тему:  Как искусственный интеллект помогает учителю выявлять пробелы в учебе

Миссия Stanford HAI состоит в том, чтобы продвигать исследования, образование, политику и практику ИИ для улучшения условий жизни людей. Учить больше.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x