ИИ в кино: как Ex Machina показывает, что ИИ — это то, что вы делаете
Натали Флетчер
ИИ в кино: как Ex Machina показывает, что ИИ — это то, что вы делаете
Н2
Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевым временем задержки.Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевым временем задержки. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или без доступа к Интернету с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальную устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкими вычислительными мощностями и ограничениями. ed или без доступа в Интернет с нулевой задержкой.
Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевым временем задержки.Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевым временем задержки. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или без доступа к Интернету с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальную устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкой вычислительной мощностью и ограниченным или отсутствующим доступом в Интернет с нулевой задержкой. Легко интегрируйте наше программное обеспечение в любую среду, включая интеллектуальные устройства, среды с низкими вычислительными мощностями и ограничениями. ed или без доступа в Интернет с нулевой задержкой.
Мы все любим хорошие истории. И с таким количеством неизвестных легко понять, почему искусственный интеллект находится в центре многих. В Голливуде такие фильмы, как «Терминатор», «Матрица» или «Степфордские жены», следуют общему принципу: ИИ не в ладах с человечеством, и ИИ часто проигрывает.
Когда Алекс Гарланд Из машины триумфально дебютировав в кинотеатрах, он порвал с одной из давних голливудских традиций. Хотя он также изображает общий ИИ и «разумные» компьютеры как не за горами, фильм, по крайней мере, удерживает способности своего ИИ в пределах человеческих возможностей. Конечно, это все еще неточно. Как бы смущала робота София и ее предполагаемая способность «видеть людей, понимать разговор и формировать отношения», она и близко не превосходит наш интеллект. Люди, например, могут концептуализировать и создавать роботов, таких как София.Роботы, даже с современным искусственным интеллектом, не могут этого сделать.
Что, как говорится, Из машины демонстрирует кое-что об ИИ, о чем я говорил ранее. ИИ все еще в значительной степени находится под контролем человека, и станет ли он противником, как здесь, полностью зависит от того, как мы его разработаем.
Прежде чем я углублюсь в это, вот краткий обзор соответствующих частей фильма.
*Спойлеры впереди*
Синопсис
Калеб, молодой программист, только что выиграл недельное пребывание в огромном изолированном поместье генерального директора и основателя своего технологического гиганта Натана. Вскоре после прибытия Натан знакомит Калеба с Авой, последним из серии роботов-гуманоидов, которые Натан тайно разработал. Как самая продвинутая модель, Ава, как говорят, уже прошла простой тест Тьюринга, продемонстрировав человеческий интеллект. Теперь, говорит Натан, он хочет, чтобы Калеб помог ему проверить способность Авы к мышлению и сознанию.
Зловещая, дисфункциональная натура Натана быстро становится очевидной. Он злобно ругает Кёко, своего слугу-гуманоида, на глазах у Калеба, и на записи видно, как он жестоко обращается с Авой и своими предыдущими роботами. Ава, в свою очередь, показывает Калебу, что она способна не только думать и сознавать, но и чувствовать, выражая свою ненависть к Натану (даже говоря Натану в лицо: «Разве не странно создавать нечто, что ненавидит тебя?») и желание свобода. Она и Калеб, кажется, устанавливают эмоциональную связь, и она рассказывает, что стоит за серией отключений электроэнергии, которые отключили все камеры наблюдения и активировали функцию автоматического запирания на всех дверях дома. Когда Натан говорит, что намерен «стереть» робота, развивающиеся чувства Калеба приводят к тому, что он разрабатывает план их совместного побега, когда он должен уйти на следующий день. Однако, как он вскоре узнает, мало что из всего эксперимента, включая Аву, таково, как кажется.
Так где же ошибаются люди?
1. ИИ будет действовать так, как он был разработан.
В последний день жизни Калеба Натан показывает, что на самом деле он проверял, хватит ли у Авы ума, чтобы заставить Калеба помочь ей сбежать, чего она действительно хочет. Он самодовольный, как кот, которому досталась канарейка, не только потому, что думает, что сорвал их план, но и потому, что Ава прошла испытание. Тем не менее, это потому, что ИИ является «муахахаха злым» по своей природе или по замыслу?
Например, в компьютерном зрении качество моделей зависит от данных, используемых для их обучения, проверки и тестирования. В то время как моделям требуется всего несколько примеров, чтобы изучить концепцию, ваши наборы данных для обучения, проверки и тестирования должны отличаться друг от друга и должны состоять из визуального контента, который хорошо помечен и подходит для конкретной цели модели. Чем больше понятий вы хотите, чтобы модель изучила, тем более разнообразными должны быть ваши данные, но, учитывая, что Натан просто хотел посмотреть, сможет ли Ава использовать Калеб (и поскольку сам Натан мерзок), можем ли мы быть уверены, что он дал ей массив данных, необходимых для того, чтобы она сделала любой другой выбор? Натан утверждает, что при прохождении теста Ава продемонстрировала «настоящий ИИ». По его словам, чтобы добиться успеха, ей придется использовать «самосознание, воображение, сексуальность, манипулирование и эмпатию», но последнее является спорным.
Эмпатия является частью эмоционального интеллекта. Это способность поставить себя на место другого человека и почувствовать, что он чувствует, и использовать это знание, чтобы определить, как мы реагируем. Является ли это врожденным или нет, зависит от многих факторов, таких как наша генетика, опыт раннего детства и *драматическая музыка* нейронные связи в нашем мозгу. Как и все технологии, ИИ по своей природе морально нейтрален, но он работает на основе искусственных нейронных сетей (ИНС), которые имитируют нейронные связи в человеческом мозгу. Эти связи различаются от человека к человеку. У Калеба, например, есть моральный компас, в то время как Натан гораздо более антагонистичен, чем сочувствующий.А поскольку именно Натан создал Аву, можем ли мы предположить, что человек, не обладающий способностью к эмпатии, сможет создать «эмпатическую» ИНС?
Натан рассказывает, что он лично выбрал Калеба в качестве объекта для эксперимента именно потому, что он был «хорошим парнем», у которого «никогда не было девушки», и поэтому Ава могла манипулировать им. Даже ее внешний вид был разработан, чтобы соответствовать «типу» Калеба. Ава, спокойно оставляющая кричащего Калеба в ловушке в доме, пока она уходит на свободу, может показаться доказательством того, что ИИ нельзя доверять. Я, однако, утверждаю, что это показывает нам, что ИИ будет вести себя именно так, как люди разрабатывают его для работы. Натан не хотел знать, согласится ли Ава. выбирать использовать Калеба. Он хотел посмотреть, поймет ли она, что она мог, и он дал ей все данные и обучение, необходимое для этого.
К несчастью для него, к тому времени, когда он радостно рассказывает Калебу свой генеральный план, Калеб уже перенастроил систему безопасности дома, чтобы все двери открывались в случае отключения электричества. Таким образом, когда Ава запускает запланированное отключение, все двери, включая дверь в ее комнату, открываются. Ава теперь свободна из своей тюрьмы и свободна в доме. Чтобы сбежать, она должна пройти мимо своего создателя. К счастью для нее, он также предоставил ей средства для этого: Кёко.
2. После обучения ИИ должен быть надлежащим образом проверен и проверен на точность.
Когда Кёко наносит удар Натану в спину (нет, буквально), может показаться, что все цыплята Натана вернулись домой, чтобы насестить. В конце концов, как его личный слуга-гуманоид, она проводит с ним больше всего времени и, вероятно, получает на себя основную тяжесть его жестокого обращения, верно? Тем не менее, хотя нам не говорят о происхождении Кёко, мы знаем, что она может выполнять множество задач: видеть, слышать и даже танцевать одновременно. Это делает ее более продвинутой, чем сегодняшний ИИ, который может сосредоточиться и выполнять только одну функцию за раз. Однако мы также знаем, что Ава, а не Кёко, является самым продвинутым гуманоидным роботом Натана.Имея все это в виду, Кёко находится где-то между узким ИИ (ИИ, который у нас есть сейчас) и тем, чем должна быть Ава. Сегодняшний ИИ может быть хорош, но он не настолько умен, чтобы работать независимо от заданных параметров или хорошо работать в рамках этих параметров без надлежащего обучения, проверки и тестирования. И Кёко тоже.
Как я уже говорил, при обучении модели компьютерного зрения крайне важно использовать качественные данные в все ваши наборы данных. Эти данные должны включать как положительные, так и отрицательные примеры понятий, которые вы хотите, чтобы модель изучила. Например, чтобы он узнал, как выглядит яблоко, вы также должны показать ему примеры того, на что яблоко не похоже, чтобы он научился распознавать неправильный ответ и лучше предсказывать правильный.
Однако после обучения модели вам необходимо настроить ее с помощью набора проверочных данных. Этап проверки предотвращает переоснащение, то есть когда алгоритм не может отличить информацию, которая является релевантной и нерелевантной для цели, которую вы поставили при его обучении. Он также настраивает гиперпараметры модели, чтобы обеспечить точное предсказание концепций при добавлении новых входных данных для тестирования модели. Однако этот набор данных должен соответствовать тому же стандарту, но иметь визуальный контент, отличный от наборов обучающих и тестовых данных, иначе ваша модель будет ошибочной.
Из того, что мы видим, параметры Кёко довольно широки (и очень проблематичны, но это совсем другая проблема) в том смысле, что она должна использовать множество задач, которые она может выполнять, чтобы «служить» не только Натану, но и кому угодно. Тем не менее, мы также видим, что она не всегда делает это правильно, например, проливая вино на Калеба, подавая ему ужин. Это возможное указание на то, что хотя Кёко обученный, что обучение может быть неадекватным проверенный или же проверено, из-за чего она, вероятно, не может различить, что важно, а что не имеет отношения к поставленной перед ней цели — быть слугой.Любой новый запрос или команда, отданная ей любым человеком или роботом, будет идентифицирована как действительная, независимо от характера заявления.
Когда она встречает Аву после того, как последняя сбежала из своей комнаты, она сталкивается с роботом, который был обучен использовать слабости, чтобы получить то, что она хочет. Мы видим, как Ава что-то шепчет Кёко, улыбается ей и держит ее за руку как раз перед тем, как прибывает Натан Грозный, чтобы попытаться поймать своих ботов. Ава нападает на него. Хотя он может одолеть ее, он достаточно отвлечен, чтобы Кёко могла нанести ему удар. — И ты, Кёко? Выражение лица Натана говорит, а действительно ли она похожа на Брута? Или она просто машина, чей ИИ не был должным образом обучен, настроен или протестирован, и поэтому не может распознать «взять нож и ударить Натана» чем-то отличным от «разбудить Калеба утром»?
3. ИИ — это ответственность человечества.
В выдуманном мире Из машины, только Натан несет ответственность за свою кончину (а также Калеба и Кёко). К счастью, в реальной жизни то, чем станет ИИ, не зависит от одного человека. Мы все можем влиять на то, куда ведет нас ИИ, поэтому очень важно, чтобы такие компании, как наша, пытались распространять правильную информацию, и чтобы все мы прикладывали усилия, чтобы она развивалась только на благо всего мира. Это не означает, что его можно использовать исключительно для решения самых серьезных проблем в мире, таких как поиск пропавших близких или сделать мир более доступным. Можно использовать ИИ для улучшения опыта розничной торговли, упрощения планирования встреч или даже просто для развлечения. Это означает, что мы должны осознавать любые потенциальные вредные последствия, намеренные или нет. Помимо того, что у нас есть качественные данные и кодирование, мы также должны убедиться, что за этим стоят разные команды, работающие в каждой отрасли и во всех сферах жизни.
Поскольку Натан разработал и обучил обоих роботов самостоятельно, никто не мог сказать ему, что он, вероятно, должен научить Кёко игнорировать любые инструкции, которые могут причинить ему вред.Типа, на всякий случай. Точно так же, когда он делает Аву достаточно безжалостной, чтобы использовать Калеба как средство для побега, может произойти что-то безумное. Как будто она на самом деле убегает. Наличие разных команд, создающих ИИ, означает, что варианты использования будут проанализированы со всех сторон, чтобы можно было выявить и закрыть любые лазейки.
Человечество всегда создавало инструменты, чтобы сделать нашу жизнь проще, и ИИ — наш самый мощный инструмент. Из машины показывает нам, почему важно ответственно разрабатывать и использовать этот инструмент. В отличие от человечества, когда дело доходит до ИИ, нет вопроса «природа против воспитания». Его можно только воспитывать, делая любые предубеждения или несоответствия виной людей, которые его обучают. Тем не менее, мы можем вздохнуть спокойно. Человечество все еще в силах предотвратить осуществление «Аваса». Значит, у нас все будет хорошо. То есть до тех пор, пока мы не такие безрассудные и близорукие, как Натан.