Hitech logo

Мнения

ИИ в праве: за что штрафуют юристов, и чему Россия может поучиться на чужих ошибках

TODO:
София ГоловинаСегодня, 07:48 AM

Генеративный ИИ добрался до судебных залов, юридических департаментов и, конечно, лигалтех-стартапов — и первые годы этого соседства оказались богаты на скандалы. Несуществующие прецеденты в исках, многомиллионные штрафы за сбор персональных данных, «робот-юрист», оштрафованный регулятором. Западный рынок уже собирает урожай ошибок. Разбираемся, что пошло не так, и что с этим делать. Обсудили кейсы с Милой Артемовой, международным экспертом по ответственному применению ИИ и цифровых технологий в образовании и юриспруденции. Мила — участница инициатив ООН по этике ИИ, автор продуктов на стыке LegalTech, EdTech и глобальной мобильности.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

«Ваша честь, дело существует» — ChatGPT сказал

В мае 2023 года в суд Нью-Йорка был подан иск по делу о травме, полученной на борту самолёта Avianca. Адвокат истца подготовил иск с помощью ChatGPT и подал в суд документы, содержащие ссылки на шесть несуществующих прецедентов. Дела были выдуманы языковой моделью вместе с названиями, датами и внутренними цитатами. Когда вторая сторона сообщила, что не может найти упомянутые решения, адвокат истца снова обратился к ChatGPT и получил «подтверждение» тех же несуществующих дел, после чего направил суду распечатки фейковых «решений».

Суд расценил это как нарушение и наложил на адвокатов штраф в $5 000 с обязанностью разослать принятое решение по санкциям всем судьям, чьи имена фигурировали в сгенерированных ии документах.

Это был первый громкий кейс. Но далеко не последний.

В 2025 году Апелляционный суд Калифорнии оштрафовал адвоката Амира Мостафави на $10 000: в его апелляционной жалобе 21 из 23 цитат из судебных решений оказались сгенерированы ChatGPT и не существовали в реальности. Суд назвал жалобу «фривольной» и «расточительством судебного времени и средств налогоплательщиков». Адвокат признал, что использовал ChatGPT для «улучшения» текста и не перечитал финальный документ перед подачей.

В феврале 2026 года Апелляционный суд США Пятого округа пошёл ещё дальше: оштрафовал адвоката Хизер Херш на $2 500 за 16 сфабрикованных цитат и пять серьёзных искажений фактов в апелляции. Суд прямо указал, что проблема ИИ-галлюцинаций «становится всё более серьёзной и не ослабевает».

Французский исследователь Дамьен Шарлотэн ведёт открытую базу подобных случаев. К 2026 году в базе зафиксировано свыше 1 300 судебных решений по всему миру, значительная часть из них в США.

Мила: Юристы попадаются в ловушку ИИ‑галлюцинаций по очень человеческой причине: мозг экономит усилия. Когда инструмент выглядит как привычная поисковая строка, мы автоматически переносим на него доверие, которое привыкли отдавать профессиональным базам данных. В итоге модель, которая по сути «сочиняет», воспринимается как поисковая, и если у команды нет жёсткой привычки всё без исключения перепроверять в реальных базах данных, ошибка становится почти неизбежной.

«Первый робот-юрист» и штраф от Федеральной торговой комиссии США

Параллельно с судебными скандалами разворачивалась другая история, уже про продуктовые амбиции.

Стартап DoNotPay позиционировал себя как «первого в мире робота-юриста» и обещал пользователям помощь сопоставимую с настоящим адвокатом. Без какой-либо проверки качества, без штатных юристов в QA, без данных о реальной результативности. В 2024 году Федеральная торговая комиссия США предъявила компании претензии именно за это — за маркетинговые заявления о компетенциях, которые не были ничем подтверждены. В 2025 году компания согласилась выплатить $193 000 и уведомить клиентов об ограничениях сервиса.

Мила: Интуитивное ощущение, что между «ИИ помогает юристу» и «ИИ заменяет юриста» пропасть, хорошо ложится на несколько фреймворков, которые сегодня предлагают инвесторы и экономисты. Sequoia Capital довольно жёстко формулирует: рынок ИИ — это не рынок софта, а рынок услуг, потому что компании тратят условный один доллар на программное обеспечение и шесть долларов на услуги: внедрение, аутсорс, консалтинг. Если ИИ научился делать не «инструмент для юриста», а саму юридическую работу, он претендует не на ИТ‑бюджет, а на бюджет человеческого труда.

В этом контексте появляется важное разделение на intelligence и judgement, которое описывают авторы Prediction Machines. Они предлагают думать об ИИ как об удешевлении предсказаний: машина заполняет недостающую информацию и отлично справляется там, где можно формализовать правила: от оценки риска до сортировки документов. Но между предсказанием и решением всегда есть слой суждения: что для нас важно, какой риск допустим, какую сделку мы готовы потерять ради снижения количества ошибок. В праве этот слой особенно плотный, он включает ответственность перед клиентом, интерпретацию прецедентов и понимание политического контекста.

Sequoia называет это дихотомией «копилоты против автопилотов». Копилот продаёт инструмент профессионалу: вы ставите Harvey внутрь юридической фирмы, и юрист остаётся конечным носителем ответственности, просто делает ревью в разы быстрее. Автопилот продаёт уже не софт, а готовую единицу работы: Crosby не «помогает юристу подготовить NDA», а приносит бизнесу уже согласованный шаблон, который заменяет работу внешнего юридического консультанта. Разница в бизнес‑модели фундаментальная: копилот монетизирует специалиста, автопилот — саму транзакцию.

Отсюда очень прагматичный аргумент про точку входа. На каждый доллар, который бизнес тратит на софт, приходится в разы больший бюджет на услуги, а именно, аутсорс юридической поддержки, бухгалтерии, комплаенса. Если задача уже отдана на аутсорс, значит компания согласилась, что её можно выполнять чужими руками, и платит за результат; подменить одного провайдера услуг другим, у которого внутри работает ИИ, это смена подрядчика, а не реорганизация штатной структуры. В праве это особенно видно на примере типовых контрактов и регуляторных подач, которые десятилетиями делались внешними фирмами.

Для действующих игроков рынка копилотов это классическая дилемма инноватора. Чтобы стать автопилотом, нужно начать закрывать задачу целиком и напрямую конкурировать с агентствами, юрфирмами и аутсорс‑бухгалтериями, которые сегодня составляют львиную долю их клиентской базы. Но как только вы выходите в этот режим, вопрос «заменяет ли ваш ИИ юриста» перестаёт быть маркетинговой метафорой и превращается в практический вопрос к лицензированию, страховке профессиональной ответственности, соблюдению требований к юридической практике и режиму персональных данных.

Если перенести всё это обратно в исходное различие «ИИ помогает юристу» против «ИИ заменяет юриста», то «помогает» это про копилоты и слой intelligence внутри чётко спроектированного процесса, где суждение и ответственность остаются у человека. «Заменяет» это про автопилоты, которые заходят в зону услуг с оплатой за выполненную работу и автоматически попадают под более жёсткий регуляторный и этический контур. Именно поэтому выбор между копилотом и автопилотом в legaltech это не столько про продуктовую стратегию, сколько про то, в каком юридическом и репутационном поле вы согласны жить ближайшие десять лет.

А в марте 2026 года появился ещё один прецедент, куда более масштабный. Nippon Life Insurance Company of America (страховая компания) подала в федеральный суд Иллинойса иск против OpenAI. По версии истца, бывшая сотрудница после заключения мирового соглашения загрузила переписку с адвокатом в ChatGPT, получила совет оспорить соглашение и использовала ИИ для генерации более 40 процессуальных документов. Nippon Life потратила около $300 000 на юридические ответы на эти ходатайства и теперь требует $10 млн штрафных убытков и запрет OpenAI на предоставление правовой помощи в штате.

Иск пока не рассмотрен. Но он ставит вопрос, который legal tech обходил стороной: где заканчивается «общая информация» и начинается несанкционированная юридическая практика?

GDPR как краш-тест: Clearview, OpenAI, LinkedIn

Если в американских судах ИИ горит на галлюцинациях, то в Европе — на персональных данных.

Clearview AI строила глобальную базу из десятков миллиардов фотографий, собранных из открытых источников в интернете, и продавала сервис распознавания лиц. Европейские регуляторы восприняли это иначе. В 2022 году итальянский Garante оштрафовал компанию на €20 млн и запретил обработку данных граждан своей страны. В 2024 году нидерландский регулятор добавил ещё €30,5 млн. К 2025 году совокупный объём европейских штрафов превысил €90 млн.

Логика Clearview «соберём всё, а потом разберёмся» оказалась несовместима с GDPR.

OpenAI в ноябре 2024 года получил от того же итальянского Garante штраф в €15 млн за отсутствие надлежащей правовой основы для обработки данных при обучении модели и недостаточную прозрачность для пользователей. Месяц назад суд в Риме отменил штраф; мотивировочная часть решения пока не опубликована, однако в материалах Garante по‑прежнему описаны установленные нарушения GDPR со стороны OpenAI.

LinkedIn в том же 2024 году получил штраф €310 млн от ирландской DPC за использование поведенческого анализа и таргетированной рекламы без надлежащей правовой основы и прозрачности для пользователей. Платформа анализировала не только лайки и подписки, но и косвенные сигналы (скорость скроллинга, время просмотра поста) и делала на их основе выводы о намерениях пользователей без их ведома и согласия.

Мила: В продуктовых командах GDPR до сих пор часто живёт в плоскости «юридическая рутина»: что‑то подпишем, что‑то допишем в политику, а потом как‑нибудь разберёмся. На практике в высокорисковых ИИ-системах GDPR — это про архитектуру: какие данные вообще допустимо собирать, есть ли у нас основания их обрабатывать, где проходит граница анонимизации, кто имеет к ним доступ и как вы объясните это пользователю. Когда я работала с продуктами в миграции и образовании, мы каждый раз начинали не с текста согласия, а с вопроса: «а нам точно нужны эти данные, чтобы решить задачу клиента?»

Общий знаменатель европейских кейсов: компании выводили продукты на рынок, а комплайнс догоняли постфактум под давлением регулятора. Для крупных корпораций это дорого. Для стартапов вообще смертельно.

AI Act: закон есть, инфраструктуры нет

Европа приняла AI Act, первый в мире горизонтальный закон об ИИ. Но его реализация демонстрирует собственный провал: разрыв между амбицией и исполнением.

Исследование LatticeFlow совместно с ETH Zurich показало, что крупные модели OpenAI, Meta, Alibaba, Mistral при тестировании по метрикам AI Act серьёзно проваливаются по отдельным критическим показателям: GPT-3.5 Turbo набрал 0,46 из 1,0 по показателю недискриминации, Llama 2 13B Chat — 0,42 по устойчивости к prompt-hijacking (манипуляция входным промптом). И это уже коммерчески работающие модели.

Аналитики CEPA фиксируют, что AI Office ЕС, ответственный за реализацию закона, не успевает за собственными сроками: первый драфт Code of Practice для провайдеров ИИ был опубликован с десятидневным сроком на комментарии в ноябре 2024 года, второй прямо перед Новым годом. Еврокомиссия рассматривает возможность отсрочки части требований до 2027 года.

По данным доклада Марио Драги о конкурентоспособности Европы, в ЕС сейчас около 100 законов, касающихся цифровых технологий, и более 270 регуляторов, вовлечённых в надзор над цифровыми рынками. Крупные корпорации такой ландшафт выдерживают, а вот стартапы уходят на другие рынки.

90% пилотов не доходят до результата

За пределами судебных залов и регуляторных офисов идёт другой, менее публичный провал: большинство внедрений ИИ в юридических департаментах просто не работают.

По данным Axiom и других консультантов, около 90–95% пилотов ИИ в юриспруденции не достигают заявленных бизнес-результатов. Не потому что технология плохая, а потому что её внедряют не туда и не так.

Типичная картина: компания покупает CLM «с ИИ», но не настраивает его под собственный risk-playbook. Или запускает пилот на некачественных сканах с пропущенными страницами. Или пытается автоматизировать процессы, которые никто никогда не описывал. STP.one называет это «автоматизацией хаоса».

Мила: Типичный провальный пилот ИИ в legal tech изнутри выглядит так: энтузиазм есть, бюджет есть, а внятного процесса — нет. Команда берёт «умный» CLM или ассистента для ревью, загружает туда хаотичный массив сканов и шаблонов, не описав ни risk‑playbook, ни критерии качества. Через полгода все делают вывод «ИИ не работает в нашей индустрии», хотя на самом деле они просто автоматизировали хаос. Правильный первый вопрос в таком пилоте звучит не «какой моделью мы будем пользоваться?», а «какой именно юридический процесс у нас уже стабилен настолько, что его можно масштабировать с помощью ИИ?

LegalSifter систематизировал шесть типичных ошибок при внедрении AI-ревью контрактов: ожидание, что ИИ заменит юриста без human-in-the-loop; загрузка некачественных документов; отсутствие настройки под внутренний playbook; игнорирование интеграции в рабочий процесс; отсутствие постоянного переобучения модели.

Парадокс в том, что там, где ИИ встраивается в зрелые процессы с чёткими ролями и обязательной проверкой человеком, он работает. Там, где он призван заменить сам процесс — провалится.

Что это значит для российского рынка

Российский рынок долгое время существовал без формализованных требований к ИИ-системам уровня GDPR или AI Act. Ситуация меняется: в марте 2026 года правительство опубликовало проект федерального закона об ИИ, а вокруг действующего 152-ФЗ о персональных данных последовательно появляются новые нормы, касающиеся обработки данных в ИИ-системах. Регуляторный ландшафт формируется, и компаниям, которые работают с ИИ в юридической сфере, имеет смысл следить за этим процессом уже сейчас.

Мила: Да, российский рынок очень долго прожил в ощущении «у нас нет GDPR и AI Act, значит, у нас меньше рисков», но это иллюзия. Сейчас рассматривается и активно обсуждается законопроект об ИИ. Но даже сегодняшнее отсутствие формализованных требований не отменяет репутационных и финансовых последствий для компаний, которые бездумно обращаются с персональными данными или продают ИИ как магическое решение вместо понятного сервиса. То, что в Европе заканчивается многомиллионным штрафом, у нас чаще заканчивается потерянным доверием клиентов и тотальной невозможностью выйти на международные рынки. Уже сейчас можно перенять из западного опыта базовые практики governance: прозрачность для пользователя, минимизацию данных и чёткое разделение «подсказка ИИ» и «юридический совет».

Ошибки, которые в США стоят адвокатам $10 000 штрафа, а европейским стартапам €90 млн от регулятора, в России пока видны реже. Но не потому что их нет, а потому что их ещё не считают.

Три урока, которые работают в любой юрисдикции:

  • ИИ — усилитель существующих структур. Если процесс хаотичен, ИИ масштабирует хаос. Если в компании нет регламента проверки контрактов, то AI-ревью не создаст его автоматически.
  • Guardrails важнее функциональности. Кейс Nippon Life показывает: даже инструмент с дисклеймерами может стать litigation-коучем без встроенных ограничений. Граница между «справочной информацией» и «юридическим советом» должна быть зашита в продукт, а не только в Terms of Service.
  • Compliance не равно юридическая рутина. GDPR-кейсы Clearview и OpenAI объединяет одно: персональные данные обрабатывались сначала, а вопрос «на каком основании» задавался потом. В высокорисковых AI-системах это уравнение не работает.
  • Мила: В ближайшие два‑три года в legal tech изменится главное: терпимость к «экспериментам на проде» резко снизится. Регуляторы, инвесторы и корпоративные клиенты будут спрашивать не просто «что делает ваш ИИ?», а «какие у вас guardrails, кто несёт ответственность и как вы это проверяете». Выиграют те команды, которые научатся строить продукты на стыке трёх дисциплин: права, инженерии и операционного дизайна процессов. Всем, кто заходит в эту сферу сейчас, имеет смысл думать не о том, как сделать «первого робота‑юриста», а о том, как построить надёжную инфраструктуру, где ИИ усиливает зрелую юридическую практику и экспертную команду. 

    Истории про штрафы и провальные пилоты — это концентрированная версия того, что сегодня происходит со всеми цифровыми технологиями. Легалтех просто делает цену ошибки максимально видимой. 

    ИИ в этом смысле одинаково устроен для любой индустрии: он усиливает и устойчивые процессы, и хаос с соблазном «продать магию вместо сервиса». Поэтому главный вопрос здесь не в том, заменит ли ИИ юриста, маркетолога или бухгалтера, а в том, какую инфраструктуру мы строим вокруг этих систем: есть ли у нас понятные инструменты регуляции, разделение между подсказкой и решением, архитектура compliance, в которой новые модели — это всего лишь ещё один компонент, а не эксперимент над пользователями. 

    Западные кейсы — это концентрированный опыт первой волны внедрений, за который уже заплачено штрафами, репутацией и закрытыми пилотами. Российский рынок входит в период, когда регуляторный ландшафт только формируется: федеральный закон об ИИ ожидается к сентябрю 2027 года, требования к персональным данным в ИИ-системах ужесточаются. У компаний, которые работают с ИИ в юридической сфере сейчас, есть редкое окно — выстроить инфраструктуру до того, как правила окончательно закрепятся, а не догонять регулятора постфактум, как это делали Clearview и OpenAI в Европе.