«Ваша честь, дело существует» — ChatGPT сказал
В мае 2023 года в суд Нью-Йорка был подан иск по делу о травме, полученной на борту самолёта Avianca. Адвокат истца подготовил иск с помощью ChatGPT и подал в суд документы, содержащие ссылки на шесть несуществующих прецедентов. Дела были выдуманы языковой моделью вместе с названиями, датами и внутренними цитатами. Когда вторая сторона сообщила, что не может найти упомянутые решения, адвокат истца снова обратился к ChatGPT и получил «подтверждение» тех же несуществующих дел, после чего направил суду распечатки фейковых «решений».
Суд расценил это как нарушение и наложил на адвокатов штраф в $5 000 с обязанностью разослать принятое решение по санкциям всем судьям, чьи имена фигурировали в сгенерированных ии документах.
Это был первый громкий кейс. Но далеко не последний.
В 2025 году Апелляционный суд Калифорнии оштрафовал адвоката Амира Мостафави на $10 000: в его апелляционной жалобе 21 из 23 цитат из судебных решений оказались сгенерированы ChatGPT и не существовали в реальности. Суд назвал жалобу «фривольной» и «расточительством судебного времени и средств налогоплательщиков». Адвокат признал, что использовал ChatGPT для «улучшения» текста и не перечитал финальный документ перед подачей.
В феврале 2026 года Апелляционный суд США Пятого округа пошёл ещё дальше: оштрафовал адвоката Хизер Херш на $2 500 за 16 сфабрикованных цитат и пять серьёзных искажений фактов в апелляции. Суд прямо указал, что проблема ИИ-галлюцинаций «становится всё более серьёзной и не ослабевает».
Французский исследователь Дамьен Шарлотэн ведёт открытую базу подобных случаев. К 2026 году в базе зафиксировано свыше 1 300 судебных решений по всему миру, значительная часть из них в США.
Мила: Юристы попадаются в ловушку ИИ‑галлюцинаций по очень человеческой причине: мозг экономит усилия. Когда инструмент выглядит как привычная поисковая строка, мы автоматически переносим на него доверие, которое привыкли отдавать профессиональным базам данных. В итоге модель, которая по сути «сочиняет», воспринимается как поисковая, и если у команды нет жёсткой привычки всё без исключения перепроверять в реальных базах данных, ошибка становится почти неизбежной.
«Первый робот-юрист» и штраф от Федеральной торговой комиссии США
Параллельно с судебными скандалами разворачивалась другая история, уже про продуктовые амбиции.
Стартап DoNotPay позиционировал себя как «первого в мире робота-юриста» и обещал пользователям помощь сопоставимую с настоящим адвокатом. Без какой-либо проверки качества, без штатных юристов в QA, без данных о реальной результативности. В 2024 году Федеральная торговая комиссия США предъявила компании претензии именно за это — за маркетинговые заявления о компетенциях, которые не были ничем подтверждены. В 2025 году компания согласилась выплатить $193 000 и уведомить клиентов об ограничениях сервиса.
Мила: Интуитивное ощущение, что между «ИИ помогает юристу» и «ИИ заменяет юриста» пропасть, хорошо ложится на несколько фреймворков, которые сегодня предлагают инвесторы и экономисты. Sequoia Capital довольно жёстко формулирует: рынок ИИ — это не рынок софта, а рынок услуг, потому что компании тратят условный один доллар на программное обеспечение и шесть долларов на услуги: внедрение, аутсорс, консалтинг. Если ИИ научился делать не «инструмент для юриста», а саму юридическую работу, он претендует не на ИТ‑бюджет, а на бюджет человеческого труда.
В этом контексте появляется важное разделение на intelligence и judgement, которое описывают авторы Prediction Machines. Они предлагают думать об ИИ как об удешевлении предсказаний: машина заполняет недостающую информацию и отлично справляется там, где можно формализовать правила: от оценки риска до сортировки документов. Но между предсказанием и решением всегда есть слой суждения: что для нас важно, какой риск допустим, какую сделку мы готовы потерять ради снижения количества ошибок. В праве этот слой особенно плотный, он включает ответственность перед клиентом, интерпретацию прецедентов и понимание политического контекста.
Sequoia называет это дихотомией «копилоты против автопилотов». Копилот продаёт инструмент профессионалу: вы ставите Harvey внутрь юридической фирмы, и юрист остаётся конечным носителем ответственности, просто делает ревью в разы быстрее. Автопилот продаёт уже не софт, а готовую единицу работы: Crosby не «помогает юристу подготовить NDA», а приносит бизнесу уже согласованный шаблон, который заменяет работу внешнего юридического консультанта. Разница в бизнес‑модели фундаментальная: копилот монетизирует специалиста, автопилот — саму транзакцию.
Отсюда очень прагматичный аргумент про точку входа. На каждый доллар, который бизнес тратит на софт, приходится в разы больший бюджет на услуги, а именно, аутсорс юридической поддержки, бухгалтерии, комплаенса. Если задача уже отдана на аутсорс, значит компания согласилась, что её можно выполнять чужими руками, и платит за результат; подменить одного провайдера услуг другим, у которого внутри работает ИИ, это смена подрядчика, а не реорганизация штатной структуры. В праве это особенно видно на примере типовых контрактов и регуляторных подач, которые десятилетиями делались внешними фирмами.
Для действующих игроков рынка копилотов это классическая дилемма инноватора. Чтобы стать автопилотом, нужно начать закрывать задачу целиком и напрямую конкурировать с агентствами, юрфирмами и аутсорс‑бухгалтериями, которые сегодня составляют львиную долю их клиентской базы. Но как только вы выходите в этот режим, вопрос «заменяет ли ваш ИИ юриста» перестаёт быть маркетинговой метафорой и превращается в практический вопрос к лицензированию, страховке профессиональной ответственности, соблюдению требований к юридической практике и режиму персональных данных.
Если перенести всё это обратно в исходное различие «ИИ помогает юристу» против «ИИ заменяет юриста», то «помогает» это про копилоты и слой intelligence внутри чётко спроектированного процесса, где суждение и ответственность остаются у человека. «Заменяет» это про автопилоты, которые заходят в зону услуг с оплатой за выполненную работу и автоматически попадают под более жёсткий регуляторный и этический контур. Именно поэтому выбор между копилотом и автопилотом в legaltech это не столько про продуктовую стратегию, сколько про то, в каком юридическом и репутационном поле вы согласны жить ближайшие десять лет.
А в марте 2026 года появился ещё один прецедент, куда более масштабный. Nippon Life Insurance Company of America (страховая компания) подала в федеральный суд Иллинойса иск против OpenAI. По версии истца, бывшая сотрудница после заключения мирового соглашения загрузила переписку с адвокатом в ChatGPT, получила совет оспорить соглашение и использовала ИИ для генерации более 40 процессуальных документов. Nippon Life потратила около $300 000 на юридические ответы на эти ходатайства и теперь требует $10 млн штрафных убытков и запрет OpenAI на предоставление правовой помощи в штате.
Иск пока не рассмотрен. Но он ставит вопрос, который legal tech обходил стороной: где заканчивается «общая информация» и начинается несанкционированная юридическая практика?
GDPR как краш-тест: Clearview, OpenAI, LinkedIn
Если в американских судах ИИ горит на галлюцинациях, то в Европе — на персональных данных.
Clearview AI строила глобальную базу из десятков миллиардов фотографий, собранных из открытых источников в интернете, и продавала сервис распознавания лиц. Европейские регуляторы восприняли это иначе. В 2022 году итальянский Garante оштрафовал компанию на €20 млн и запретил обработку данных граждан своей страны. В 2024 году нидерландский регулятор добавил ещё €30,5 млн. К 2025 году совокупный объём европейских штрафов превысил €90 млн.
Логика Clearview «соберём всё, а потом разберёмся» оказалась несовместима с GDPR.
OpenAI в ноябре 2024 года получил от того же итальянского Garante штраф в €15 млн за отсутствие надлежащей правовой основы для обработки данных при обучении модели и недостаточную прозрачность для пользователей. Месяц назад суд в Риме отменил штраф; мотивировочная часть решения пока не опубликована, однако в материалах Garante по‑прежнему описаны установленные нарушения GDPR со стороны OpenAI.
LinkedIn в том же 2024 году получил штраф €310 млн от ирландской DPC за использование поведенческого анализа и таргетированной рекламы без надлежащей правовой основы и прозрачности для пользователей. Платформа анализировала не только лайки и подписки, но и косвенные сигналы (скорость скроллинга, время просмотра поста) и делала на их основе выводы о намерениях пользователей без их ведома и согласия.
Мила: В продуктовых командах GDPR до сих пор часто живёт в плоскости «юридическая рутина»: что‑то подпишем, что‑то допишем в политику, а потом как‑нибудь разберёмся. На практике в высокорисковых ИИ-системах GDPR — это про архитектуру: какие данные вообще допустимо собирать, есть ли у нас основания их обрабатывать, где проходит граница анонимизации, кто имеет к ним доступ и как вы объясните это пользователю. Когда я работала с продуктами в миграции и образовании, мы каждый раз начинали не с текста согласия, а с вопроса: «а нам точно нужны эти данные, чтобы решить задачу клиента?»
Общий знаменатель европейских кейсов: компании выводили продукты на рынок, а комплайнс догоняли постфактум под давлением регулятора. Для крупных корпораций это дорого. Для стартапов вообще смертельно.
AI Act: закон есть, инфраструктуры нет
Европа приняла AI Act, первый в мире горизонтальный закон об ИИ. Но его реализация демонстрирует собственный провал: разрыв между амбицией и исполнением.
Исследование LatticeFlow совместно с ETH Zurich показало, что крупные модели OpenAI, Meta, Alibaba, Mistral при тестировании по метрикам AI Act серьёзно проваливаются по отдельным критическим показателям: GPT-3.5 Turbo набрал 0,46 из 1,0 по показателю недискриминации, Llama 2 13B Chat — 0,42 по устойчивости к prompt-hijacking (манипуляция входным промптом). И это уже коммерчески работающие модели.
Аналитики CEPA фиксируют, что AI Office ЕС, ответственный за реализацию закона, не успевает за собственными сроками: первый драфт Code of Practice для провайдеров ИИ был опубликован с десятидневным сроком на комментарии в ноябре 2024 года, второй прямо перед Новым годом. Еврокомиссия рассматривает возможность отсрочки части требований до 2027 года.
По данным доклада Марио Драги о конкурентоспособности Европы, в ЕС сейчас около 100 законов, касающихся цифровых технологий, и более 270 регуляторов, вовлечённых в надзор над цифровыми рынками. Крупные корпорации такой ландшафт выдерживают, а вот стартапы уходят на другие рынки.
90% пилотов не доходят до результата
За пределами судебных залов и регуляторных офисов идёт другой, менее публичный провал: большинство внедрений ИИ в юридических департаментах просто не работают.
По данным Axiom и других консультантов, около 90–95% пилотов ИИ в юриспруденции не достигают заявленных бизнес-результатов. Не потому что технология плохая, а потому что её внедряют не туда и не так.
Типичная картина: компания покупает CLM «с ИИ», но не настраивает его под собственный risk-playbook. Или запускает пилот на некачественных сканах с пропущенными страницами. Или пытается автоматизировать процессы, которые никто никогда не описывал. STP.one называет это «автоматизацией хаоса».
Мила: Типичный провальный пилот ИИ в legal tech изнутри выглядит так: энтузиазм есть, бюджет есть, а внятного процесса — нет. Команда берёт «умный» CLM или ассистента для ревью, загружает туда хаотичный массив сканов и шаблонов, не описав ни risk‑playbook, ни критерии качества. Через полгода все делают вывод «ИИ не работает в нашей индустрии», хотя на самом деле они просто автоматизировали хаос. Правильный первый вопрос в таком пилоте звучит не «какой моделью мы будем пользоваться?», а «какой именно юридический процесс у нас уже стабилен настолько, что его можно масштабировать с помощью ИИ?
LegalSifter систематизировал шесть типичных ошибок при внедрении AI-ревью контрактов: ожидание, что ИИ заменит юриста без human-in-the-loop; загрузка некачественных документов; отсутствие настройки под внутренний playbook; игнорирование интеграции в рабочий процесс; отсутствие постоянного переобучения модели.
Парадокс в том, что там, где ИИ встраивается в зрелые процессы с чёткими ролями и обязательной проверкой человеком, он работает. Там, где он призван заменить сам процесс — провалится.
Что это значит для российского рынка
Российский рынок долгое время существовал без формализованных требований к ИИ-системам уровня GDPR или AI Act. Ситуация меняется: в марте 2026 года правительство опубликовало проект федерального закона об ИИ, а вокруг действующего 152-ФЗ о персональных данных последовательно появляются новые нормы, касающиеся обработки данных в ИИ-системах. Регуляторный ландшафт формируется, и компаниям, которые работают с ИИ в юридической сфере, имеет смысл следить за этим процессом уже сейчас.
Мила: Да, российский рынок очень долго прожил в ощущении «у нас нет GDPR и AI Act, значит, у нас меньше рисков», но это иллюзия. Сейчас рассматривается и активно обсуждается законопроект об ИИ. Но даже сегодняшнее отсутствие формализованных требований не отменяет репутационных и финансовых последствий для компаний, которые бездумно обращаются с персональными данными или продают ИИ как магическое решение вместо понятного сервиса. То, что в Европе заканчивается многомиллионным штрафом, у нас чаще заканчивается потерянным доверием клиентов и тотальной невозможностью выйти на международные рынки. Уже сейчас можно перенять из западного опыта базовые практики governance: прозрачность для пользователя, минимизацию данных и чёткое разделение «подсказка ИИ» и «юридический совет».
Ошибки, которые в США стоят адвокатам $10 000 штрафа, а европейским стартапам €90 млн от регулятора, в России пока видны реже. Но не потому что их нет, а потому что их ещё не считают.
Три урока, которые работают в любой юрисдикции:
Мила: В ближайшие два‑три года в legal tech изменится главное: терпимость к «экспериментам на проде» резко снизится. Регуляторы, инвесторы и корпоративные клиенты будут спрашивать не просто «что делает ваш ИИ?», а «какие у вас guardrails, кто несёт ответственность и как вы это проверяете». Выиграют те команды, которые научатся строить продукты на стыке трёх дисциплин: права, инженерии и операционного дизайна процессов. Всем, кто заходит в эту сферу сейчас, имеет смысл думать не о том, как сделать «первого робота‑юриста», а о том, как построить надёжную инфраструктуру, где ИИ усиливает зрелую юридическую практику и экспертную команду.
Истории про штрафы и провальные пилоты — это концентрированная версия того, что сегодня происходит со всеми цифровыми технологиями. Легалтех просто делает цену ошибки максимально видимой.
ИИ в этом смысле одинаково устроен для любой индустрии: он усиливает и устойчивые процессы, и хаос с соблазном «продать магию вместо сервиса». Поэтому главный вопрос здесь не в том, заменит ли ИИ юриста, маркетолога или бухгалтера, а в том, какую инфраструктуру мы строим вокруг этих систем: есть ли у нас понятные инструменты регуляции, разделение между подсказкой и решением, архитектура compliance, в которой новые модели — это всего лишь ещё один компонент, а не эксперимент над пользователями.
Западные кейсы — это концентрированный опыт первой волны внедрений, за который уже заплачено штрафами, репутацией и закрытыми пилотами. Российский рынок входит в период, когда регуляторный ландшафт только формируется: федеральный закон об ИИ ожидается к сентябрю 2027 года, требования к персональным данным в ИИ-системах ужесточаются. У компаний, которые работают с ИИ в юридической сфере сейчас, есть редкое окно — выстроить инфраструктуру до того, как правила окончательно закрепятся, а не догонять регулятора постфактум, как это делали Clearview и OpenAI в Европе.

