Юридические боты: как искусственный интеллект меняет юридическую профессию
Искусственный интеллект (ИИ) меняет почти каждую отрасль и профессию, некоторые быстрее и глубже, чем другие.В отличие от промышленной революции, автоматизировавшей физический труд и заменившей мышцы гидравлическими поршнями и дизельными двигателями, революция, основанная на искусственном интеллекте, автоматизирует умственные задачи. Хотя это может быть просто оптимизация некоторых рабочих мест «синих воротничков», ИИ вносит более фундаментальные изменения во многие роли белых воротничков, которые ранее считались безопасными для автоматизации. Некоторые из этих профессий полностью трансформируются благодаря сверхчеловеческим способностям ИИ делать то, что раньше было невозможно, дополняя — и в некоторой степени заменяя — своих коллег-людей в офисах.
Таким образом, ИИ оказывает глубокое влияние на юридическую практику. Хотя ИИ скорее поможет, чем заменит адвокатов в ближайшем будущем, он уже используется для проверки контрактов, поиска соответствующих документов в процессе обнаружения и проведения юридических исследований. Совсем недавно ИИ начали использовать для помощи в составлении контрактов, предсказании результатов судебного разбирательства и даже для рекомендаций судебных решений о вынесении приговора или освобождении под залог.
Потенциальные преимущества ИИ в законе реальны. Это может повысить производительность адвоката и избежать дорогостоящих ошибок. В некоторых случаях это также может смазать колеса правосудия, чтобы увеличить скорость исследований и принятия решений. Однако ИИ еще не готов заменить человеческое суждение в юридической профессии. Прежде чем использовать эту технологию в некоторых правовых контекстах, необходимо преодолеть риск скрытой предвзятости в данных, которые подпитывают ИИ, и неспособность адекватно понять обоснование решений, полученных с помощью ИИ, понятным для людей способом (т. Е. Объяснимость).
Сверхчеловеческие юристы
Адвокаты уже используют ИИ, и особенно машинное обучение (ML), для более быстрого и последовательного рассмотрения контрактов, выявляя проблемы и ошибки, которые могли быть упущены юристами-людьми. Такие стартапы, как Lawgeex, предоставляют сервис, который может просматривать контракты быстрее, а в некоторых случаях и точнее, чем люди.
Некоторое время алгоритмы использовались при открытии — юридическом процессе идентификации соответствующих документов у оппонента в судебном процессе. Теперь ML также используется в этих усилиях. Одна из сложностей при запросе и поиске всех соответствующих документов состоит в том, чтобы продумать все различные способы описания или ссылки на тему. В то же время некоторые документы защищены от проверки, и адвокат (или судья) может попытаться ограничить объем обыска, чтобы не обременять производящую сторону. ML продевает нитку в эту иглу, используя контролируемое и неконтролируемое обучение. Такие компании, как CS Disco, которая недавно стала публичной, предоставляют юридическим фирмам по всей территории США услуги по обнаружению информации на базе ИИ.
Еще одна область, где ИИ уже широко используется в юридической практике, — это проведение юридических исследований. Практикующие адвокаты могут даже не знать, что они используют ИИ в этой области, поскольку он органично вплетен во многие исследовательские службы. Одним из таких сервисов является Westlaw Edge, запущенный Thomson Reuters более трех лет назад. Подход к поиску по ключевым словам или логическим значениям, который был отличительной чертой службы на протяжении десятилетий, был дополнен семантическим поиском. Это означает, что алгоритмы машинного обучения пытаются понять значение слов, а не просто сопоставить их с ключевыми словами. Другим примером функции на базе ИИ от Westlaw Edge является Quick Check, которая использует ИИ для анализа черновика аргумента, чтобы получить дополнительную информацию или определить соответствующие полномочия, которые могли быть упущены. Быстрая проверка может даже определить, когда указанное дело было косвенно отменено.
Автоматизированные ученые-юристы
ИИ может генерировать контент, а также анализировать его. В отличие от ИИ, используемого для управления беспилотными автомобилями, где ошибки могут иметь фатальные последствия, генеративный ИИ не обязательно должен быть идеальным каждый раз. Фактически, неожиданные и необычные артефакты, связанные с работами, созданными ИИ, являются частью того, что делает их интересными.ИИ подходит к творческому процессу принципиально иначе, чем люди, поэтому выбранный путь или конечный результат иногда могут удивить. Этот аспект ИИ называется «эмерджентным поведением». Возникающее поведение может привести к новым стратегиям победы в играх, открытию новых наркотиков или просто выражению идей новыми способами. В случае письменного контента авторы-люди по-прежнему необходимы для управления творческим процессом, выбирая, какие из множества сгенерированных ИИ фраз или версий использовать.
Многое из этого возможно благодаря новым алгоритмам и огромным моделям искусственного интеллекта. GPT-3, созданный OpenAI, является одной из таких моделей. GPT-3 — это генеративная модель, которая может предсказать следующий токен в последовательности, будь то аудио или текст. GPT-3 — это преобразователь, то есть он берет последовательности данных в контексте, например предложение, и фокусирует внимание на наиболее важных частях, чтобы расширить работу таким образом, чтобы она казалась естественной, ожидаемой и гармоничной. Что делает GPT-3 необычным, так это то, что это предварительно обученная модель, и она огромна — использует почти 200 миллиардов параметров и обучена на полутриллионе слов.
Этот подход уже использовался в творческом письме и журналистике, и в настоящее время в этой области существует множество инструментов для создания текста, некоторые из которых построены на GPT-3. С помощью короткой подсказки автор ИИ может создать рассказ, статью или отчет, но не ожидайте совершенства. Иногда инструмент ИИ поднимает случайные темы или идеи, и, поскольку ИИ не имеет человеческого опыта, он может иметь некоторые фактические неточности или странные ссылки.
Например, чтобы ИИ составлял юридические контракты, его нужно обучить, чтобы он стал компетентным юристом. Это требует, чтобы создатель ИИ собирал данные о юридических показателях в различных версиях языка контракта, процесс, называемый «маркировкой». Затем эти помеченные данные используются для обучения ИИ тому, как составить хороший контракт. Однако юридическое исполнение контракта часто зависит от контекста, не говоря уже о различиях в зависимости от юрисдикции и постоянно меняющегося свода законов.Кроме того, большинство контрактов никогда не видят в зале суда, поэтому их положения остаются непроверенными и конфиденциальными для сторон. Обучение генеративным системам ИИ на контрактах рискует усилить плохую юридическую работу так же, как и хорошую. По этим причинам неясно, как составители контрактов с ИИ могут стать намного лучше в ближайшее время. Инструментам ИИ просто не хватает знаний в предметной области и точности языка, чтобы они могли работать независимо. Несмотря на то, что эти инструменты могут быть полезны для написания формулировок, специалисты по-прежнему необходимы для проверки результатов перед их использованием.
Боты-судьи
Еще одно новаторское использование ИИ — прогнозирование юридических результатов. Точная оценка вероятности успешного исхода судебного процесса может быть очень ценной. Это позволяет адвокату решить, следует ли ему брать дело на случай непредвиденных обстоятельств, или сколько инвестировать в экспертов, или советовать ли своим клиентам урегулировать дело. Такие компании, как Lex Machina, используют машинное обучение и прогнозную аналитику, чтобы получить представление об отдельных судьях и юристах, а также о самом судебном деле, чтобы предсказать поведение и результаты.
Более важным аспектом использования ИИ является консультирование судей по вопросам освобождения под залог и вынесения приговора. Одним из таких приложений является профилирование управления исправительными преступниками для альтернативных санкций (COMPAS). COMPAS и аналогичные инструменты ИИ используются судьями по уголовным делам во многих штатах для оценки риска рецидива обвиняемых или осужденных при принятии решений о предварительном заключении, вынесении приговора или досрочном освобождении. Существует много споров о справедливости или точности этих систем. Согласно исследованию ProPublica, такие инструменты оценки кажутся предвзятыми по отношению к чернокожим заключенным, непропорционально помечая их как тех, кто со значительно большей вероятностью совершит повторное преступление, чем белые заключенные. [1] Equivant, компания, разработавшая COMPAS, попыталась опровергнуть анализ ProPublica и отвергла его выводы о расовой предвзятости. [2]
Тем не менее, использование ИИ в этом контексте может отражать или даже усиливать присущую данным системы уголовного правосудия предвзятость.Данные, используемые для обучения моделей машинного обучения, основаны на фактических количествах арестов и обвинительных приговоров, которые могут быть искажены в отношении некоторых групп населения. Таким образом, он может увековечить прошлые несправедливости или, что еще хуже, ложно замаскировать их облачением компьютерной объективности.
Готов ли ИИ заниматься юридической практикой?
AI поднимает множество вопросов в контексте юридической профессии:
- Будет ли когда-либо отказ от использования ИИ в некоторых аспектах закона (например, обнаружение) приравниваться к злоупотреблению служебным положением? Например, если показано, что неиспользование ИИ замедляет процесс обнаружения или приводит к неполному раскрытию информации, может возникнуть профессиональное обязательство использовать ИИ для обнаружения.
- Должны ли обвиняемые по уголовным делам иметь право доступа к инструментам ИИ, если они полезны для их дела?
- Должны ли адвокаты раскрывать информацию об использовании ИИ в деле? Если да, нужно ли им раскрывать обучающие данные или другие входные данные, используемые для настройки моделей машинного обучения?
- Делает ли отсутствие эффективной прозрачности моделей ОД их неприемлемыми для некоторых приложений в законе?
- Как мы можем гарантировать отсутствие укоренившейся предвзятости, отражающей сексистские или расистские настроения?
Как способ сделать судебный процесс более быстрым и свободным от ошибок или упущений, ИИ является долгожданным инструментом в деле правосудия. ИИ может быть более эффективным способом разрешения гражданских дел, в то же время повышая предсказуемость, не создавая морального риска.
Ситуация становится более проблематичной, когда ИИ используется вместо человеческого суждения, особенно в контексте уголовного права. ИИ к этому не готов по ряду причин. Во-первых, в обучающих данных может существовать предвзятость, которая будет усилена и дополнительно институционализирована результирующими моделями ML. Возможно, мы сможем решить эту проблему; действительно, процесс исключения предвзятости из наших обучающих данных может привести к тому, что мы осознаем и исправим некоторые присущие нашей правовой системе расизм и сексизм.
Однако существует также проблема надлежащей правовой процедуры, связанная с отсутствием прозрачности и объяснимости при использовании ИИ.Нельзя подвергать перекрестному изучению искусственную нейронную сеть с глубоким обучением… по крайней мере, пока! ИИ — это зеркало человечества, раскрывающее некоторые из наших врожденных недостатков. Процесс раскрытия причин, по которым ИИ дает рекомендации, может привести нас к лучшему пониманию реальности и ограничений человеческих объяснений или обоснований их решений.
Но что еще более важно, идея позволить алгоритмам принимать решения, лишающие свободы, может быть просто недобросовестной. Не исключено, что алгоритмы машинного обучения начнут предсказывать, когда человек с большой вероятностью совершит преступление в будущем, как в научно-фантастическом фильме. Отчет меньшинства. Еще одна веская причина для ограничения использования ИИ в уголовном контексте может заключаться в том, что судьи, юристы и общество в целом могут слишком сильно доверять этим алгоритмам. Даже если за людьми сохраняется высшая власть принятия решений, они нередко чрезмерно полагаются на рекомендации, основанные на технологиях, явление, называемое предвзятостью автоматизации. В случае с ИИ это доверие может быть особенно неуместным, поскольку реальные возможности технологии могут быть не такими «интеллектуальными», как кажутся.
Примечание. Эта статья основана на лекции, прочитанной Мэтью Степкой в юридической школе Калифорнийского университета в Беркли в ноябре 2021 года. Статья будет опубликована в его блоге «Разбираемся в ИИ.”