Что такое искусственный интеллект?
Этот отчет является частью серии «План будущего ИИ» Института Брукингса, в которой анализируются новые проблемы и потенциальные политические решения, связанные с искусственным интеллектом и другими новыми технологиями.
Немногие концепции так плохо изучены, как искусственный интеллект. Опросы общественного мнения показывают, что даже высшие руководители бизнеса не имеют детального представления об ИИ и что многие обычные люди путают его со сверхмощными роботами или сверхинтеллектуальными устройствами.Голливуд мало помогает в этом отношении, объединяя роботов и современное программное обеспечение в самовоспроизводящиеся автоматы, такие как Скайнет Терминатора или злобный HAL из фильма Артура Кларка «2001: Космическая одиссея», который выходит из-под контроля после того, как люди планируют деактивировать его. Отсутствие ясности вокруг термина позволяет технологическим пессимистам предупреждать, что ИИ покорит людей, подавит индивидуальную свободу и разрушит личную неприкосновенность частной жизни посредством цифрового «1984».
Даррелл М. Уэст
Вице-президент и директор по исследованиям в области управления
Старший научный сотрудник — Центр технологических инноваций
Дуглас Диллон Кафедра государственных исследований
Частью проблемы является отсутствие единого согласованного определения. Алану Тьюрингу обычно приписывают происхождение этой концепции, когда он в 1950 году рассуждал о «мыслящих машинах», которые могли рассуждать на уровне человека. Его известный «Тест Тьюринга» указывает, что компьютеры должны решать логические задачи так же, как и люди, чтобы считаться «думающими» в автономном режиме.
Несколько лет спустя за Тьюрингом последовал Джон Маккарти, который впервые использовал термин «искусственный интеллект» для обозначения машин, способных мыслить автономно. Он описал порог как «заставить компьютер делать вещи, которые, как говорят, когда делают люди, требуют интеллекта».
С 1950-х годов ученые спорят о том, что представляет собой «мышление» и «интеллект», а что является «полностью автономным», когда речь идет об аппаратном и программном обеспечении. Усовершенствованные компьютеры, такие как IBM Watson, уже обыграли людей в шахматы и способны мгновенно обрабатывать огромные объемы информации.
Отсутствие ясности вокруг термина позволяет технологическим пессимистам предупреждать, что ИИ покорит людей, подавит индивидуальную свободу и разрушит личную неприкосновенность частной жизни посредством цифрового «1984».
Сегодня обычно считается, что ИИ относится к «машинам, которые реагируют на стимуляцию в соответствии с традиционными реакциями людей, учитывая человеческую способность к созерцанию, суждению и намерению». По словам исследователей Шубхенду и Виджая, эти программные системы «принимают решения, которые обычно требуют человеческого уровня знаний», и помогают людям предвидеть проблемы или решать проблемы по мере их возникновения. Как утверждали мы с Джоном Алленом в апрельской статье 2018 года, такие системы обладают тремя качествами, составляющими сущность искусственного интеллекта: преднамеренностью, интеллектом и адаптивностью.
В оставшейся части этой статьи я расскажу об этих качествах и о том, почему важно убедиться, что каждое из них соответствует основным человеческим ценностям. Каждая из функций ИИ может прогрессивно продвигать цивилизацию вперед. Но без адекватных гарантий или учета этических соображений утопия ИИ может быстро превратиться в антиутопию.
преднамеренность
Алгоритмы искусственного интеллекта предназначены для принятия решений, часто с использованием данных в реальном времени. Они не похожи на пассивные машины, которые способны только к механическим или заранее определенным реакциям. Используя датчики, цифровые данные или удаленные входы, они объединяют информацию из множества различных источников, мгновенно анализируют материал и действуют в соответствии с выводами, полученными из этих данных. Таким образом, они намеренно разрабатываются людьми и делают выводы на основе их мгновенного анализа.
Пример из транспортной отрасли показывает, как это происходит. Автономные транспортные средства оснащены лидарами (обнаружение света и определение дальности) и дистанционными датчиками, которые собирают информацию из окружения транспортного средства. LIDAR использует свет от радара, чтобы видеть объекты перед автомобилем и вокруг него и принимать мгновенные решения относительно наличия объектов, расстояния и того, собирается ли автомобиль что-то ударить.Бортовые компьютеры объединяют эту информацию с данными датчиков, чтобы определить, есть ли какие-либо опасные условия, транспортному средству необходимо сменить полосу движения, или оно должно замедлиться или полностью остановиться. Весь этот материал должен быть проанализирован мгновенно, чтобы избежать столкновений и удержать транспортное средство на надлежащей полосе движения.
Связанный
Как искусственный интеллект меняет мир
Вторник, 24 апреля 2018 г.
Что такое машинное обучение?
Четверг, 4 октября 2018 г.
Роль корпораций в решении этических дилемм ИИ
Четверг, 13 сентября 2018 г.
Благодаря значительным улучшениям в системах хранения, скорости обработки и аналитических методах эти алгоритмы способны на невероятную сложность анализа и принятия решений. Финансовые алгоритмы могут обнаруживать мельчайшие различия в оценках акций и совершать рыночные сделки, используя эту информацию. Та же логика применяется в системах экологической устойчивости, которые используют датчики для определения того, находится ли кто-то в комнате, и автоматически регулируют отопление, охлаждение и освещение на основе этой информации. Цель состоит в том, чтобы экономить энергию и использовать ресурсы оптимальным образом.
Пока эти системы соответствуют важным человеческим ценностям, существует небольшой риск того, что ИИ станет мошенником или подвергнет опасности людей. Компьютеры могут намеренно анализировать информацию таким образом, чтобы дополнять людей или помогать им работать на более высоком уровне. Однако, если программное обеспечение плохо разработано или основано на неполной или предвзятой информации, оно может поставить под угрозу человечество или повторить прошлые несправедливости.
Интеллект
ИИ часто используется в сочетании с машинным обучением и анализом данных, и в результате комбинация позволяет принимать разумные решения. Машинное обучение берет данные и ищет основные тенденции. Если он обнаруживает что-то, что имеет отношение к практической проблеме, разработчики программного обеспечения могут использовать эти знания и использовать их с анализом данных для понимания конкретных проблем.
Например, существуют системы искусственного интеллекта для управления зачислением в школы. Они собирают информацию о местоположении района, желаемых школах, основных интересах и т. п. и на основе этого материала распределяют учеников по конкретным школам. Пока в отношении основных критериев мало разногласий или разногласий, эти системы работают разумно и эффективно.
Выяснение того, как согласовать конфликтующие значения, является одной из самых важных задач, стоящих перед разработчиками ИИ. Крайне важно, чтобы они писали код и включали информацию, которая была бы непредвзятой и недискриминационной. Невыполнение этого требования приводит к тому, что алгоритмы ИИ становятся несправедливыми и несправедливыми.
Конечно, часто это не так. Отражая важность образования для результатов жизни, родители, учителя и школьная администрация спорят о важности различных факторов. Должны ли учащиеся всегда назначаться в школу по месту жительства или другие критерии должны преобладать над этим соображением? Например, в городе с широко распространенной расовой сегрегацией и экономическим неравенством по соседству повышение школьных заданий по соседству может усугубить неравенство и расовую сегрегацию. По этим причинам разработчики программного обеспечения должны уравновешивать конкурирующие интересы и принимать разумные решения, отражающие ценности, важные для данного конкретного сообщества.
Принятие такого рода решений все чаще ложится на плечи программистов. Они должны создавать интеллектуальные алгоритмы, которые принимают решения на основе ряда различных соображений. Это может включать такие основные принципы, как эффективность, равенство, справедливость и действенность. Выяснение того, как согласовать конфликтующие значения, является одной из самых важных задач, стоящих перед разработчиками ИИ. Крайне важно, чтобы они писали код и включали информацию, которая была бы непредвзятой и недискриминационной. Невыполнение этого требования приводит к тому, что алгоритмы ИИ становятся несправедливыми и несправедливыми.
Адаптивность
Последнее качество, которое отличает системы ИИ, — это способность учиться и адаптироваться по мере того, как они собирают информацию и принимают решения. Эффективный искусственный интеллект должен приспосабливаться к изменению обстоятельств или условий. Это может включать изменения в финансовом положении, дорожных условиях, экологических соображениях или военных обстоятельствах. ИИ должен интегрировать эти изменения в свои алгоритмы и принимать решения о том, как адаптироваться к новым возможностям.
Наиболее ярко эти проблемы можно проиллюстрировать в области транспорта. Автономные транспортные средства могут использовать межмашинную связь, чтобы предупреждать другие автомобили на дороге о предстоящих заторах, выбоинах, строительных работах или других возможных препятствиях для движения. Транспортные средства могут использовать опыт других транспортных средств на дороге без участия человека, и весь объем полученного ими «опыта» может быть немедленно и полностью перенесен на другие транспортные средства с аналогичной конфигурацией. Их передовые алгоритмы, датчики и камеры включают в себя опыт текущих операций и используют информационные панели и визуальные дисплеи для представления информации в режиме реального времени, чтобы водители-люди могли понимать текущее движение и состояние транспортных средств.
Аналогичная логика применима к ИИ, разработанному для планирования встреч. Существуют персональные цифровые помощники, которые могут определять предпочтения человека и динамически отвечать на запросы электронной почты о личных встречах. Без какого-либо вмешательства человека цифровой помощник может назначать встречи, корректировать графики и сообщать об этих предпочтениях другим людям. Создание адаптируемых систем, которые обучаются по ходу работы, может повысить эффективность и результативность. Такие алгоритмы могут решать сложные задачи и выносить суждения, которые повторяют или превосходят возможности человека. Но убедиться, что они «обучаются» честным и справедливым образом, является первоочередной задачей для разработчиков систем.
Вывод
Короче говоря, в последние годы были достигнуты невероятные успехи в способности систем ИИ включать преднамеренность, интеллект и адаптивность в свои алгоритмы. Вместо того, чтобы быть механистичным или детерминированным в том, как работают машины, программное обеспечение ИИ учится по ходу дела и использует реальный опыт при принятии решений. Таким образом, он повышает производительность человека и расширяет его возможности.
Конечно, эти достижения также заставляют людей нервничать по поводу сценариев конца света, которые создают сенсации создателями фильмов. Ситуации, когда роботы с искусственным интеллектом берут верх над людьми или ослабляют основные ценности, пугают людей и заставляют их задуматься, вносит ли искусственный интеллект полезный вклад или рискует поставить под угрозу сущность человечества.
При наличии надлежащих гарантий страны могут двигаться вперед и пользоваться преимуществами искусственного интеллекта и новых технологий, не жертвуя важными качествами, определяющими человечество.
На этот вопрос нет простого ответа, но разработчики систем должны включать в алгоритмы важные этические ценности, чтобы убедиться, что они соответствуют интересам людей, а также учиться и адаптироваться таким образом, чтобы это соответствовало ценностям сообщества. Вот почему важно обеспечить серьезное отношение к этике ИИ и ее влияние на решения общества. Чтобы максимизировать положительные результаты, организации должны нанимать специалистов по этике, которые работают с корпоративными лицами, принимающими решения, и разработчиками программного обеспечения, иметь кодекс этики ИИ, в котором изложено, как будут решаться различные проблемы, организовывать совет по анализу ИИ, который регулярно рассматривает корпоративные этические вопросы, иметь ИИ. контрольные журналы, которые показывают, как были приняты различные решения по кодированию, внедрять программы обучения ИИ, чтобы сотрудники применяли этические соображения в своей повседневной работе, и предоставлять средства для исправления, когда решения ИИ наносят вред или ущерб людям или организациям.
Благодаря такого рода мерам безопасности общества повысят вероятность того, что системы ИИ преднамеренны, разумны и адаптируемы, но при этом соответствуют основным человеческим ценностям. Таким образом, страны могут двигаться вперед и пользоваться преимуществами искусственного интеллекта и новых технологий, не жертвуя важными качествами, определяющими человечество.