ARTIFICIAL INTELLIGENCE AND JUSTICE
Abstract and keywords
Abstract (English):
The article examines the advantages and risks of using artificial intelligence (AI) in the legal sphere. It emphasizes the need to develop a balanced system of legal norms that will enable the regulation of AI applications, minimize risks, and ensure the protection of human rights.

Keywords:
artificial intelligence, law, legal norms, risks.
Text
Text (PDF): Read Download

1. Появление метатехнологии генеративного искусственного интеллекта (ИИ), ChatGPT и Deepseek, стало глобальной революцией, охватывающей все сферы человеческой деятельности, включая право [1]. ИИ порождает новые надежды, но также вызывает серьезные опасения [1–15]. Разработка, внедрение и применение ИИ должны сопровождаться анализом рисков и созданием механизмов, обеспечивающих прозрачность, подотчетность, защиту ценностей и прав человека.

По словам практикующих адвокатов, ИИ позволяет выполнить до 80% их работы за несколько минут. Он не только занимается поиском и обработкой информации, но также способен составлять проекты законов с юридическим и этическим обоснованием, писать статьи и книги [8]. Однако внедрение ИИ в правовую сферу сопровождается множеством правовых и этических вопросов, некоторые из которых перечислены ниже.

 

2. Под угрозой оказываются фундаментальные права человека: доступ к правосудию, беспристрастность судебных решений, право на апелляцию.

С одной стороны, новая технология может сделать правосудие более доступным и ускорить судебные процессы. С другой стороны, существует риск возникновения цифрового неравенства. Нежелательно разделение общества на тех, кто использует ИИ и получает преимущества, и тех, кто не имеет доступа к этой технологии или не умеет ею пользоваться.

Также возникает проблема доступа к персональным данным и их использования, что создает угрозу приватности и свободе мысли.

ИИ обучается на больших массивах данных. Это порождает вопросы о законности использования информации, защищенной авторским правом. В США уже прошли судебные процессы, связанные с этой проблемой.

Применение ИИ также связано с риском безработицы, хотя в некоторых областях эти опасения оказались преувеличенными.

В международных отношениях существует риск цифрового колониализма: бедные страны могут стать не только поставщиками сырья, но и данных. Кроме того, можно говорить о цифровом империализме США, которые стремятся установить свою монополию в области ИИ. Эти амбиции вызывают опасения даже у ближайших союзников США в ЕС.

 

3. В ЕС подход к использованию ИИ основан на оценке рисков. В случаях слабого риска применяется позитивное право, а в случаях неприемлемого риска использование ИИ запрещено. Например, недопустимы оценка социального рейтинга и манипуляция поведением. Применение ИИ в правосудии относится к категории высокого риска. ИИ, например, может «выдумать» юридическое решение и обосновать его ссылками на несуществующие источники.

С одной стороны, технология беспристрастна, так как не подвержена эмоциям. С другой стороны, ИИ обучается на данных, созданных людьми, что может приводить к систематическим ошибкам и дискриминации. Например, алгоритмы, оценивающие риск рецидива у преступников, могут быть предвзятыми в отношении определенных социальных групп.

Прозрачность данных – еще одна важная проблема. Функционирование правосудия и демократии в целом требует открытости. Судья должен понимать, на основе каких данных и каким образом ИИ приходит к своим выводам. В противном случае невозможно принять обоснованное решение.

 

4. Необходимо понимать природу генеративного ИИ. ИИ – это не интеллект в человеческом понимании. Его ответы не являются ни истинными, ни ложными, а вероятностными. Они зависят от данных, на которых ИИ был обучен. В отличие от человека, ИИ не способен интерпретировать законы, учитывать человеческие обстоятельства, мотивы и эмоции. У ИИ нет сознания, он лишен эмпатии и нечувствителен к контексту. Как отмечает немецкий философ Маркус Габриэль, ИИ безразличен к истинному и ложному, и то, что он выдает, можно назвать «брехней» (bullshit). Некоторые исследователи также используют термин «галлюцинация», особенно когда ИИ ссылается на несуществующие источники, которые он сам выдумывает.

Специалисты подчеркивают, что пока нет полного теоретического понимания того, как ИИ приходит к своим ответам. ИИ функционирует как «черный ящик», что противоречит принципу прозрачности, необходимому для справедливого правосудия.

Придание смысла ответам ИИ, оценка их на правдоподобность, истинность и ложность требуют профессиональных знаний в конкретной области. ИИ – это инструмент, который может помочь в анализе данных, выявлении закономерностей или подготовке рекомендаций, но он не может заменить человеческое суждение. Окончательное решение всегда должно оставаться за человеком.

Французский адвокат Ален Бенcуссан (Alain Bensoussan) выделил десять типов ошибок, которые допускает ИИ: ошибки в рассуждениях, логические ошибки, вычислительные ошибки, смешения, посредственные ответы, стереотипные ответы, когнитивные искажения, галлюцинации, потеря памяти и ссылки на несуществующие источники [8]. На самом деле, ошибки ИИ – имитация ошибок, которые допускает человек. Ошибаться и нести ответственность может только человек.

 

5. Появление и развитие ИИ расширяет и углубляет понятие реальности вообще и понятие правовой реальности, в частности. Новая реальность требует актуализации многих норм и понятий, как, например, справедливость, а также создания новых правовых концепций.

Согласно Л. В. Бертовскому, мы вступили в эпоху высокотехнологичного права: «Высокотехнологичное право – это такой логистичный, наукоемкий и технологичный регулятор общественных отношений, который, с одной стороны, использует высокие технологии в процессе правоприменения, а с другой – регламентирует возникающие с ними отношения» [1, с. 742].

Необходимо разработать сбалансированную систему правовых норм, которая позволит контролировать и ограничивать применение ИИ, управляя рисками. Отсутствие такого баланса или запаздывание в правовом регулировании может стать препятствием для развития конкурентоспособного ИИ.

 

6. С серьезными правовыми вызовами столкнулось сегодня применение ИИ в сфере культуры, что приводит к ущербу для творческой среды. Культура является результатом человеческой творческой деятельности, основанной на свободе, субъектности и способности создавать новое. Использование генеративных моделей, обученных на масштабных корпусах произведений, делает традиционные категории авторства, собственности и ответственности проблематичными. Возникают фундаментальные философские и юридические вопросы: существует ли принципиальная граница между подлинной и синтетической культурой, и имеет ли последняя право на признание и правовой статус? Может ли ИИ обладать талантом и создавать произведения, которые следует считать актом творчества?

Согласно Канту, талант в искусстве создает новые правила. ИИ же, как полагают многие, лишь перерабатывает существующие образцы, статистически комбинируя их и имитируя стиль, но не выражая человеческий опыт. Однако способность моделей обнаруживать новые закономерности и неожиданные структурные связи заставляет задуматься: не приближаются ли они к созданию новых правил? На данный момент несомненно одно: творчество ИИ не является человеческим творчеством и лишено того антропологического измерения, которое делает произведение искусства выражением духа.

С этой позиции продукция ИИ не должна рассматриваться как объект авторского права. С точки зрения позитивного права у произведений синтетической культуры отсутствует автор, поскольку автором может быть только человек. Для признания произведения объектом авторского права необходимо наличие индивидуальности и отпечатка личности. Международная судебная практика подтверждает этот вывод: например, картине «A Recent Entrance to Paradise», созданной ИИ без участия человека, было отказано в правовой охране.

Пока ИИ признается юридически объектом – инструментом. Однако некоторые философы приписывают ИИ квазисубъектность. Другие считают, что ИИ занимает промежуточное положение между инструментом и агентом, что потенциально может привести к необходимости пересмотра понятия субъекта права. Тем не менее признание ИИ автором означало бы размывание границы между творчеством и вычислением, свободой и детерминированностью, человеком и машиной – что имело бы глубокие цивилизационные последствия. В то же время произведения, созданные человеком с использованием ИИ как инструмента, могут быть защищены. Правовая задача состоит в установлении следов индивидуального вклада и разграничении человеческой и автоматической части работы.

 

7. В правовой защите нуждается не синтетическая продукция ИИ, а произведения человеческой культуры. Без такой защиты создатели рискуют утратить профессиональные навыки, поскольку их труд становится незаметным на фоне массового машинного производства и обесценивается. Недорогие или бесплатные продукты среднего уровня способны вытеснять выдающиеся произведения. По данным французской юристки С. Ле Кам, вознаграждение переводчиков снизилось на 64 %, а иллюстраторов – на 30 % [9]. Это связано с предположением издателей, что работа, выполненная с использованием ИИ, требует меньших усилий. Такая тенденция приводит к снижению качества культурных продуктов и депрофессионализации авторов.

Кроме того, все труднее отличить человеческое произведение от синтетического, что порождает эпистемологическую неопределенность: становится сложно установить, что истинно, а что сгенерировано. Последствия затрагивают юридическую, социальную, экономическую и налоговую сферы. Защита авторских прав, справедливое вознаграждение, прозрачность обучения моделей и признание уникальной ценности человеческого творчества становятся ключевыми условиями сохранения культуры. Человек не должен превращаться в инструмент для машинного творчества.

Исследования показывают, что ИИ зависит от человеческой продукции: он нуждается в постоянном притоке новых данных, созданных людьми. Модели, обучающиеся исключительно на синтетических данных, деградируют и в конечном итоге коллапсируют [10].

 

8. Существующая практика применения ИИ характеризуется отсутствием прозрачности: данные для обучения часто собираются скрытно, включая использование нелегальных источников (LibGen, BooksFree), что нарушает право автора на согласие, контроль и вознаграждение.

Во Франции действует директива 2019 года (статья 4), временно отменяющая исключительные авторские права при соблюдении двух условий: (1) легальный доступ к произведению; (2) возможность отказа через читаемую машиной форму opt-out. В отличие от механизма opt-in, действующего «по умолчанию запрещено», модель opt-out разрешает использование, если автор активно не запретил его.

С 2019 года ситуация изменилась: доступ к данным часто нелегален, а стандартного механизма opt-out нет. Также возникает вопрос совместимости исключения для майнинга текста и данных с международным правом. Бернская конвенция запрещает вводить формальности для получения охраны: защита возникает автоматически. Европейский трехступенчатый тест требует, чтобы использование не причиняло ущерба нормальной эксплуатации произведения; однако массовое использование культурного контента такой ущерб вызывает. По мнению французской юристки А. Бенсамун, исключение для майнинга текста и данных в текущем виде утратило практическую применимость и должно быть нейтрализовано [11].

 

9. Современное развитие генеративного ИИ требует пересмотра традиционных механизмов защиты авторских прав. Многие юристы считают, что необходимо вернуться к базовому принципу – исключительному праву автора на свое произведение (механизм opt-in) [9; 11–12]. Это включает монополию на использование произведения, разрешение на его использование, получение вознаграждения и право на защиту при нарушениях.

С июня 2024 года поэтапно вводится закон ЕС об ИИ, требующий маркировки синтетического контента и раскрытия источников данных для обеспечения прозрачности [13]. Закон устанавливает две правовые обязанности: поставщики ИИ должны соблюдать авторские права, внедрять меры для их соблюдения, в том числе механизм opt-out (но он не является обязательным); поставщики ИИ должны публиковать подробное резюме использованных материалов. Однако выполнение этих требований вызывает сложности: правообладатель не может узнать, использовалось ли его произведение, был ли соблюден opt-out или данные поступили из пиратских источников. В отсутствие прозрачности нарушаются фундаментальные права на судебную защиту и интеллектуальную собственность. Бенсамун предложила дополнительные меры: презумпция использования нелегального контента при серьезных подозрениях и раскрытие перечня источников («ингредиенты») без раскрытия технических методов обработки («рецепт»). Отдельной проблемой является использование голоса или образа уже умерших людей. По всей видимости, действующее законодательство следует распространить и на эту сферу [11].

 

10. Серьезные риски для прав граждан и принципов правового государства создает внедрение ИИ в сферы государственного управления и судебной системы. Закон ЕС об ИИ вводит классификацию систем ИИ по уровням риска: 1. Системы неприемлемого риска – их применение запрещено из-за угрозы фундаментальным правам человека и демократическим институтам. К ним относятся социальный рейтинг граждан, эксплуатация уязвимых групп, а также предиктивная полиция, практикующая прогнозирование преступлений, криминогенных зон и потенциальных правонарушителей с использованием алгоритмов и анализа больших данных. 2. Системы высокого риска – допускаются к использованию при условии строгого регулирования, документирования и контроля со стороны человека. В эту категорию входят, например, системы принятия решений при найме персонала, в миграционной политике, медицине или в репрессивных государственных функциях. 3. Системы ограниченного риска – ключевым требованием является информирование пользователя о взаимодействии с ИИ; сюда относятся чат-боты, технологии дипфейков и генерация синтетического контента. 4. Системы минимального риска – включают инструменты без существенного влияния на права и свободы, например игровые ИИ-модули или рекомендательные алгоритмы.

Применение ИИ в правосудии, например для поддержки принятия судебных решений, относится к системам высокого риска. По мнению профессора права Б. Фридмана, в настоящее время отсутствуют процедуры, обеспечивающие безопасное использование ИИ в этой сфере [14].

 

11. Во Франции действует закон n 78-17 от 6 января 1978 года, направленный на защиту персональных данных и свободы личности при обработке файлов и баз данных. Закон вводит ограничения на автоматизированные решения и претерпел изменения с момента его принятия: были внесены поправки, смягчающие запрет на полностью автоматические решения, а также появились новые формы автоматизации, не подпадающие под действие закона. В результате на сегодняшний день механизмы автоматизированного принятия решений применяются во всех сферах, включая области высокого риска, такие как оценка риска, скоринг и алгоритмическое профилирование, в том числе в государственных и социальных службах.

Например, при получении визы решение о выдаче или отказе может приниматься полностью автоматически. В некоторых странах налоговые органы полностью полагаются на алгоритмы при выборе объектов проверки. Как отмечает Фридман, в таких условиях для того, чтобы избежать наказания, нужно не оказаться в ситуации, когда алгоритм сочтет вас нарушителем, что принципиально отличается от реального соблюдения закона [14].

В ЕС запрещен социальный рейтинг, который в контексте государственного управления может означать оценку граждан по социальным критериям, таким как благонадежность, участие в общественной жизни или соблюдение норм и правил. Подобная система реально существует, например, в Китае, где граждане получают баллы за поведение. При этом, как утверждает Фридман, китайская модель была заимствована у европейских практик. В ЕС, включая Францию, существуют публичные и частные структуры, оценивающие людей по совокупности данных (история выплат, поведение, вероятные риски), что приближает их к понятию «социального скоринга». Однако эти оценки не являются всеобъемлющими.

 

12. Как известно, в развитии права чередовались два подхода – интерпретация и формализация. Идея формализации восходит к XVII веку: юристы и философы стремились создать научно обоснованную систему норм, в которой решения по отдельным случаям выводились бы из общих принципов. Этот «геометрический» подход, изначально вдохновленный аксиоматическим методом Евклида, обеспечивал строгую логическую структуру, аналогичную математическим доказательствам, и стал основой современной кодификации. Так, Лейбниц полагал, что возможно создать универсальную науку, охватывающую как мораль, так и право. Для него справедливость была истиной, подобно истине в математике. С тем, что суждения о том, что справедливо или несправедливо, могут быть объективными и отражать правовую реальность, можно согласиться, но не с точкой зрения Лейбница о том, что о справедливом и несправедливом можно судить столь же бесспорно, как в математике.

По мнению Фридмана, применение ИИ в области права является продолжением исторической линии формализации. На наш взгляд, формализацию норм и правил обеспечивает символический ИИ, тогда как сочетание символического и коннекционистского подходов, включая использование трансформеров, позволяет ИИ также имитировать человеческую интерпретацию и в известной мере адаптироваться к сложным правовым контекстам.

 

13. В настоящее время в правовой сфере применяются три основных типа систем ИИ. Во-первых, это экспертные системы, предназначенные, например, для проверки соответствия корпоративной политики законодательству о защите данных; такие системы можно отнести к символическому ИИ, основанному на логических правилах. Во-вторых, применяются коннекционистские (нейросетевые) модели, которые выявляют корреляции и закономерности в больших массивах данных без заранее заданных правил, занимаются профилированием людей и прогнозированием их поведения. В-третьих, используются генеративные модели, способные создавать документы, выносить судебные решения и предоставлять консультации.

Коннекционистские модели часто функционируют как «черный ящик», что затрудняет понимание причин принятых решений и ставит под угрозу права человека и справедливость. Частичное решение этой проблемы мы видим в системах ИИ агентного типа, в которых функции разделяются: один ИИ принимает решение, а другой интерпретирует и «объясняет» его мотивацию. (При этом окончательное суждение, конечно, должно всегда оставаться за человеком.) Тем не менее, по мнению Фридмана, такое использование ИИ проблематично [14].

 

14. Отсутствие прозрачности в принятии решений нарушает принцип публичности правовых норм и создает риск дискриминации, поскольку алгоритмы могут проявлять предвзятость. Так, уровень ложноположительных прогнозов алгоритма COMPAS, применяемого для оценки риска рецидива в американских судах, в отношении афроамериканцев почти вдвое выше, чем для других групп. Эти прогнозы могут оказывать прямое влияние на решения о залоге, приговоре или условно-досрочном освобождении. Проблема, в частности, заключается в том, что алгоритм является секретным, а значит – его логику работы невозможно проверить. Его функционирование защищено правом интеллектуальной собственности. Таким образом, нарушается фундаментальное право на объяснение и обоснование вынесенного решения.

 

15. Одним из краеугольных принципов правовой традиции является идеал верховенства закона: закон должен быть ясен, рационален и поддаваем толкованию, а следовательно – оспариванию. Как уже отмечалось, алгоритмические системы нередко функционируют как «черный ящик»: их результаты могут быть точными, однако логика их формирования остается недоступной человеку. Такая ситуация порождает явление, которое можно определить как алгоритмический абсолютизм – власть, действующую без объяснения и возможности апелляции. В правовом контексте термин «алгоритмический абсолютизм» обозначает подход, при котором алгоритмические решения воспринимаются как объективные, точные и нейтральные, что якобы исключает необходимость их контроля, пересмотра или критического анализа человеком. Иными словами, существует убеждение, что алгоритм всегда прав, поскольку он «основан на данных», «беспристрастен» или «математически точен». При этом использование ИИ вступает в противоречие с принципом audi alteram partem – «пусть будет услышана другая сторона», поскольку если система не предоставляет объяснение своего вывода, возможность опротестования становится фиктивной.

Технологические инструменты на базе ИИ уже способны существенно поддерживать судей, в частности, при анализе судебной практики и повышении эффективности работы судебной системы. Однако современные алгоритмы пока не способны самостоятельно принимать сложные юридические решения на уровне человека. В будущем ИИ может стать более компетентным, но маловероятно, что он полностью заменит судей; скорее ожидается постепенное перераспределение функций между людьми и машинами [15].

References

1. Bertovsky L. V. High-tech law: concept, genesis and prospects. Bulletin of the RUDN University. Series: Legal Sciences. 2021; 25 (4): 735-749. (In Russ.).

2. Greseva I. Justice of the future: how artificial intelligence is changing courts. Available at: https://softline.ru/about/blog/pravosudie-budushego-kak-iskusstvennyj-intellekt-menyaet-sudy (accessed: 08.02.2025) (In Russ.).

3. Milinchuk D. S. Artificial intelligence in law: trends, threats and prospects of law at the present stage of society development. Imushchestvennye otnosheniya v RF. 2021; 7 (238): 70-76. (In Russ.).

4. Smirnov G. Artificial intelligence and the judicial system. How to ensure justice? Available at: https://aismarthub.ru/articles/view/iskusstvennyy-intellekt-i-sudebnaya-sistema-kak-obespechit-pravosudie (accessed: 07.02.2025). (In Russ.).

5. Tsvetkov A. C. Artificial intelligence in justice. Zakon. 2021; 4: 91-107. (In Russ.).

6. Yankovsky R. The use of artificial intelligence in the work of a lawyer. Practical guide. Moscow: Norouts Publ.; 2025. 54 p. (In Russ.).

7. Lim E., Morgan P., eds. The Cambridge Handbook of Private Law and Artificial Intelligence. Cambridge University Press Publ; 2024. 672 p.

8. Bensoussan A. ChatGPT dans le monde de droit. Bruylant Publ.; 2024. 798 p.

9. Le Cam S. Intelligence Artificielle et droit d'auteur: responsabilités et enjeux. Available at: https://www.youtube.com/watch?v=r-bh_7zy3-U.

10. Shumailov I., Zhao Y., et. al. AI models collapse when trained on recursively generated data. Nature. 2024; 631: 755-760.

11. Bensamoun A. IA et culture: “Je t’aime, moi non plus…”. Available at: https://www.youtube.com/watch?v=VVvxc68MFIU.

12. Le Cam S., Basire Y., Le Goffic C., eds. Propriété intellectuelle: regards pratiques et enjeux prospectifs. Dalloz Publ.; 2025. 544 p.  

13. Bensoussan A., Bensoussan J., Bensoussan-Brulé V. Le règlement européen sur l'intelligence artificielle. Larcier Publ., 2025.

14. Frydman B. Comment l’IA transforme le droit et la justice. Available at: https://www.youtube.com/watch?v=1mDil8GCdXI.

15. G’sell F. AI judges. The Cambridge Handbook of Artificial Intelligence. Global perspectives on law and ethics. Cambridge University Press Publ.; 2022: 347-363.

Login or Create
* Forgot password?