LLM-ИНСТРУМЕНТЫ В НОРМОТВОРЧЕСКОЙ ДЕЯТЕЛЬНОСТИ: РЕАЛЬНОСТЬ, ПРОБЛЕМЫ, ВОЗМОЖНОСТИ, РИСКИ И ПЕРСПЕКТИВЫ
Аннотация и ключевые слова
Аннотация:
В статье исследуется применение больших языковых моделей (LLM) – ChatGPT, Claude, GigaChat, YandexGPT – в нормотворческой деятельности. На основе анализа международного опыта (Бразилия, США, ОАЭ, ЕС) и российской практики (ГИС «Нормотворчество») выявлены возможности и риски использования генеративного ИИ при разработке законопроектов. Установлено, что проблемы «галлюцинаций», алгоритмической предвзятости и «теневого» применения ИИ парламентариями требуют правового регулирования. Обоснована модель «human-in-the-loop» как оптимальная парадигма интеграции LLM в нормотворческий процесс. Предложены направления правового регулирования использования LLM-инструментов в законотворчестве.

Ключевые слова:
большие языковые модели, нормотворчество, искусственный интеллект, ChatGPT, законотворческий процесс, ГИС «Нормотворчество», EU AI Act, галлюцинации ИИ, высокотехнологичное право
Текст
Текст (PDF): Читать Скачать

Искусственный интеллект уже сегодня фактически участвует в создании законов. Для этого не потребовалось никаких изменений в законодательных процедурах  достаточно одного законодателя или помощника, использующего генеративный ИИ в процессе подготовки законопроекта [1]. В настоящее время в Палате представителей и Сенате США, а также в парламентах по всему миру реализуются проекты по апробации использования ИИ различными способами: поиск по базам данных, составление текстов, подготовка протоколов заседаний, проведение политических исследований и анализа [1].

Появление больших языковых моделей (Large Language Models, LLM)  таких как ChatGPT компании OpenAI, Claude компании Anthropic, Gemini компании Google  ознаменовало принципиально новый этап в эволюции технологий обработки правового текста. Европейская комиссия, осознавая значимость новых технологий, инициировала исследование решений на базе ИИ для законодательного редактирования в ЕС, в котором особое внимание уделено потенциальным последствиям и применениям LLM в законодательных процессах [2].

Между тем в российской юридической науке данная проблематика остается практически не исследованной. Существующие работы, посвященные цифровизации права и искусственному интеллекту в правотворчестве, были опубликованы до появления генеративного ИИ нового поколения и не учитывают специфические возможности и риски LLM-инструментов. Настоящая статья призвана восполнить этот пробел в рамках концепции «высокотехнологичного права».

 

1. КОНЦЕПТУАЛЬНЫЕ ОСНОВЫ: LLM КАК НОВЫЙ ФЕНОМЕН

В НОРМОТВОРЧЕСТВЕ

 

Необходимо разграничить понятия «классический ИИ» и «генеративный ИИ на основе LLM». Классические системы ИИ в правовой сфере  экспертные системы, основанные на правилах (rule-based),  функционируют в рамках заранее заданных алгоритмов. LLM представляют собой принципиально иную технологию. Большие языковые модели, обученные на огромных массивах текстовых данных для предсказания следующего токена в последовательности, вызывают трансформацию юридического мира  от юридического образования до юридических исследований и самой юридической практики [3].

Регламент ЕС об искусственном интеллекте (Regulation (EU) 2024/1689) определяет систему ИИ как машинную систему, разработанную для функционирования с различными уровнями автономии [4]. Данный регламент является первым в мире всеобъемлющим правовым актом в области ИИ, устанавливающим основанные на оценке рисков правила для разработчиков и операторов ИИ-систем [5].

Применительно к нормотворчеству LLM открывают возможности, которые были недоступны классическим системам: генерация связного юридического текста, анализ межнормативных коллизий, стилистическая унификация законодательных актов, автоматическое выявление пробелов регулирования. Исследование Fitsilis и Mikros для Еврокомиссии выделило приоритетный список из 11 «умных функциональностей» для системы законодательного редактирования LEOS, включая использование пяти основных технологий ИИ, в том числе LLM, для их реализации [5].

 

2. МЕЖДУНАРОДНЫЙ ОПЫТ: ОТ СТИХИЙНОГО ИСПОЛЬЗОВАНИЯ К ИНСТИТУЦИОНАЛИЗАЦИИ

 

2.1. Бразилия: прецедент «теневого» применения

Первым известным случаем принятия закона, полностью написанного генеративным ИИ, стал прецедент в городе Порту-Алегри (Бразилия). Экспериментальный муниципальный акт был принят в октябре 2023 года, и депутат городского совета Рамиро Росарио сообщил, что он был написан чат-ботом, вызвав возражения и подняв вопросы о роли ИИ в публичной политике [6]. Росарио рассказал Associated Press, что он попросил чат-бот ChatGPT подготовить предложение о запрете взимания с налогоплательщиков платы за замену украденных счетчиков воды, после чего представил его 35 коллегам по совету, не внеся ни единого изменения и даже не сообщив им о его беспрецедентном происхождении [6].

Все 36 членов совета единогласно приняли предложение, которое вступило в силу в конце ноября 2023 года [6]. Депутат сообщил Washington Post, что законопроект появился примерно за 15 секунд после ввода запроса из 250 символов в ChatGPT [7].

Данный случай выявил критическую проблему  возможность «теневого» использования LLM-инструментов парламентариями без раскрытия информации об этом. Председатель совета Порту-Алегри Гамильтон Соссмейер первоначально назвал это «опасным прецедентом» [6]. Ассистент совета по законодательному редактированию обнаружил, что первоначальный вариант был неполным из-за ограничений по количеству символов, и депутату пришлось возвращаться к ИИ-платформе для доработки [6].

 

2.2. Соединенные Штаты: от эксперимента к системной интеграции

Конгрессмен Тед Лью (демократ, Калифорния) внес первый в истории Конгресса федеральный законодательный акт, написанный искусственным интеллектом, используя ChatGPT с запросом: «Ты  конгрессмен Тед Лью. Напиши всеобъемлющую резолюцию Конгресса, в целом выражающую поддержку сосредоточения Конгресса на ИИ» [8]. Результатом стала резолюция, которую ему даже не потребовалось редактировать [8].

Одновременно конгрессмен Джейк Окинклосс (демократ, Массачусетс) использовал ChatGPT для подготовки текста одноминутной речи на заседании Палаты представителей [9].

Особый интерес представляет опыт штата Огайо, где ИИ используется для масштабного пересмотра административного законодательства. Новая инициатива штата Огайо направлена на использование искусственного интеллекта для руководства масштабным пересмотром законов и нормативных актов штата [10]. На основе успешного опыта Огайо по использованию ИИ-инструмента для выявления устаревших, противоречащих друг другу или избыточных положений в кодексе штата, штат находится на пути к сокращению 5 миллионов ненужных слов из 17-миллионного кодекса [10].

Принципиально важен контекст решения Верховного суда США по делу Loper Bright Enterprises v. Raimondo (2024). 28 июня 2024 года Верховный суд, шестью голосами против трех, отменил доктрину Шеврон, установив, что суды должны полагаться на собственное толкование неоднозначных законов [11]. Это решение потенциально затронуло более 18 000 дел, ранее решенных на основании доктрины Шеврон [12]. Н. Сандерс из Гарвардского центра Беркмана Кляйна прогнозирует, что американские законодатели могут обратиться к ИИ, чтобы справиться с растущей сложностью законотворчества, что будет подавлять полномочия и дискрецию исполнительной власти в области формирования политики [12].

 

2.3. Объединенные Арабские Эмираты: ИИ как «со-законодатель»

ОАЭ представляют наиболее амбициозный подход к интеграции ИИ в нормотворчество на государственном уровне. ОАЭ представили планы по использованию ИИ для разработки, внесения поправок и экспертизы законов, став первопроходцами в интеграции этой технологии в законодательный процесс на мировом уровне [13]. Шейх Мохаммад бин Рашид Аль Мактум заявил, что новая система, работающая на основе искусственного интеллекта, изменит способ создания законов, сделав процесс быстрее и точнее [13].

ИИ поможет ускорить законодательный процесс на 70 %, сократив время и усилия, необходимые для исследования, разработки, оценки и принятия законов [13]. Экосистема создаст единую законодательную карту, связывающую все федеральные и местные законы с судебными решениями, исполнительными процедурами и государственными услугами [14].

ОАЭ в 2017 году стали первой страной, назначившей Министра государства по искусственному интеллекту, а Национальная стратегия ИИ 2031 определяет амбициозное видение по превращению страны в мирового лидера в области ИИ [15].

 

2.4. Европейский Союз: институциональный подход – система LEOS

Европейская комиссия развивает системный подход к интеграции ИИ в законотворчество через платформу LEOS (Legislation Editing Open Software). Исследование, подготовленное для Генерального директората по цифровым услугам ЕК, фокусируется на концепции «умных функциональностей» в законотворчестве – передовых информационных технологий, помогающих разработчикам правовых актов в их повседневной работе [3]. Целью исследования было содействие развитию LEOS в перспективный инструмент, способный поддерживать весь законодательный процесс; предыдущее исследование выявило 34 потенциальные «умные функциональности», сгруппированные в девять категорий [7].

Через интервью и анкетирование экспертов ЕК исследование уточнило первоначальные категории до семи: верификация, отслеживание изменений, лингвистическая поддержка, правовая помощь, автоматизированная разработка, юридическая практика и политическое измерение, после чего приоритизировало 11 «умных функциональностей» для углубленного анализа [7].

 

2.5. Межпарламентский союз: глобальные стандарты

Руководства МПС по ИИ в парламентах опубликованы в партнерстве с Парламентским центром обработки данных в Центре инноваций МПС; они следуют за принятием знаковой резолюции «Влияние искусственного интеллекта на демократию, права человека и верховенство закона» парламентами-членами МПС на 149-й Ассамблее МПС в Женеве в октябре 2024 года [16].

Усилия по изучению того, как ИИ может поддерживать парламентскую работу, возглавляются авангардом из 20–30 парламентов; «ранние последователи» ИИ в парламентской среде включают Бразилию, Канаду, Данию, Эстонию, Италию и Европарламент [16].

 

3. РОССИЙСКИЙ КОНТЕКСТ: ГИС «НОРМОТВОРЧЕСТВО» И ПЕРСПЕКТИВЫ LLM

 

В Российской Федерации ключевым элементом цифровизации нормотворчества стала ГИС «Нормотворчество». С 1 октября 2024 года в России начала функционировать государственная информационная система «Национальная единая среда взаимодействия участников нормотворческого процесса» (ГИС «Нормотворчество»); постановление, утверждающее положение о новой системе, подписал Председатель Правительства Михаил Мишустин [20].

Ежегодно в России принимается более 19 тысяч федеральных, 1 миллион региональных и 10 миллионов муниципальных правовых актов; в подготовке одного нормативного акта в среднем участвуют шесть федеральных органов исполнительной власти [21]. Средний срок подготовки нормативно-правовых актов составляет 328 дней, а от внедрения ГИС ожидается сокращение этих сроков на 30%, то есть примерно на 120 дней [21].

В системе предусмотрено применение искусственного интеллекта; в перспективе технология будет использоваться для автоматизации исправления юридико-технических ошибок, автоматической проверки комплектности документов и их полноты [22].

До конца 2024 года ГИС была развернута в пяти федеральных органах исполнительной власти: Минэкономразвития, Минэнерго, Минфине, Минприроды и Минюсте [22]. К 2030 году система должна стать основным инструментом разработки нормативных правовых актов на всех уровнях власти, включая региональные и муниципальные органы [23].

Зампред думского комитета Антон Горелкин подчеркнул: «Говорить о том, что теперь законы будет писать искусственный интеллект, нельзя. Применение ИИ в такой чувствительной сфере, как государственное управление, необходимо тщательно контролировать. Решения должны принимать люди» [24].

Вместе с тем ГИС «Нормотворчество» в текущей конфигурации опирается на классические информационные технологии (автоматизация документооборота, мониторинг сроков) и пока не интегрирует полноценные возможности LLM нового поколения  генерацию юридических текстов, семантический анализ коллизий, предиктивную оценку регуляторного воздействия. Здесь открывается перспективное направление для развития: интеграция отечественных LLM (GigaChat от Сбера, YandexGPT) в контур ГИС «Нормотворчество» как интеллектуальных ассистентов, работающих в рамках модели «human-in-the-loop».

 

4. ВОЗМОЖНОСТИ И РИСКИ: СИСТЕМНЫЙ АНАЛИЗ

 

4.1. Конкретные возможности LLM в нормотворчестве

Систематизируя мировой опыт, можно выделить следующие практические возможности использования LLM.

Во-первых, автоматическая проверка коллизий и дублирования. ИИ-инструмент не заменяет специалистов и не производит автоматических сокращений, а указывает на устаревшие, повторяющиеся формулировки соответствующему ведомству, чтобы эксперты внутри ведомства могли проанализировать и принять решение об удалении [17].

Во-вторых, ускорение подготовки законопроектов. Система ИИ будет оценивать ежедневное воздействие законодательства на экономику и общество с использованием аналитики больших данных и предлагать своевременные поправки [22].

В-третьих, лингвистическая и юридико-техническая поддержка. Учитывая, что ключевым фактором являются люди, человекоцентричная разработка программного обеспечения, правовая и этическая легитимация и инклюзивное обучение заинтересованных сторон в процессе законотворчества станут существенными шагами к внедрению умных инструментов [7].

В-четвертых, анализ регуляторного воздействия и сравнительно-правовой анализ. ChatGPT может помочь с более рутинными элементами законотворческого процесса, включая корректный и быстрый поиск и цитирование уже существующих законов [1].

 

4.2. Риски: «галлюцинации», предвзятость, правовая неопределенность

Центральной проблемой применения LLM в юридическом контексте являются «галлюцинации»  генерация фактически недостоверного контента. Исследователи Стэнфорда обнаружили, что правовые галлюцинации тревожно распространены  от 58 % случаев при использовании ChatGPT 4 до 88 % при использовании Llama 2 при ответах на конкретные верифицируемые вопросы о делах федеральных судов [4].

LLM галлюцинируют как минимум в 58 % случаев, испытывают затруднения с предсказанием собственных галлюцинаций и часто некритически принимают неверные правовые предположения пользователей [4]. При ответах на вопросы о ключевых выводах суда модели галлюцинируют как минимум в 75 % случаев; при оценке прецедентных отношений между делами большинство LLM не показывают результатов лучше случайного угадывания [4].

Правовая информация подвержена уровню галлюцинаций в 6,4 % даже среди лучших моделей, по сравнению с 0,8 % для вопросов общих знаний [25].

Проблему усугубляет феномен «уверенных ошибок»: исследование MIT от января 2025 года обнаружило, что, когда модели ИИ галлюцинируют, они используют более уверенные формулировки, чем при предоставлении фактической информации  на 34 % чаще используя выражения вроде «определенно», «безусловно», «без сомнения» при генерации некорректной информации [26].

Наглядной иллюстрацией рисков стало широко известное дело адвоката в Нью-Йорке: адвокат представил в суд юридическую записку, в значительной мере сгенерированную ChatGPT, и судья охарактеризовал это как «беспрецедентное обстоятельство», отметив, что записка изобиловала вымышленными судебными решениями, поддельными цитатами и вымышленными внутренними ссылками [27].

Помимо галлюцинаций, существуют риски алгоритмической предвзятости, воспроизведения дискриминационных паттернов из обучающих данных, а также угрозы конфиденциальности при обработке проектов нормативных актов через коммерческие LLM-платформы.

 

5. «ТЕНЕВОЙ ИИ» В ПАРЛАМЕНТАХ: НЕРЕГУЛИРУЕМАЯ РЕАЛЬНОСТЬ

 

Феномен «теневого ИИ» (Shadow AI) в законодательных органах представляет особую угрозу для демократической легитимности нормотворчества. Когда законодатели голосовали за бразильский законопроект в 2023 году, они не знали, что он написан ИИ; использование ChatGPT не было раскрыто; и даже если бы они знали, неясно, изменило бы это что-либо [1].

Законодатели уже пишут все более длинные, детальные и сложные законы, которые человеческим составителям становится трудно производить; многомиллиардная лоббистская индустрия в США субсидирует законодателей в написании «барочных» законов [1].

Офис Главного административного директора Палаты представителей направил меморандум всем сотрудникам, разрешив использование только платной версии ChatGPT Plus [28].

Парламентам настоятельно рекомендуется начать экспериментировать с генеративным ИИ для экономии времени на таких задачах, как подготовка резюме текстов и создание протоколов парламентских дебатов; однако необходимо проявлять крайнюю осторожность при внедрении генеративного ИИ в основные законодательные системы на данном этапе [31].

Отсутствие обязательных требований к раскрытию информации об использовании LLM при подготовке законопроектов создает «слепую зону» правового регулирования. Парламентарии могут использовать ChatGPT, Claude или иные инструменты без какой-либо обязанности сообщить об этом коллегам или общественности, что подрывает принцип транспарентности законотворческого процесса.

 

6. ПРАВОВОЕ РЕГУЛИРОВАНИЕ: СУЩЕСТВУЮЩИЕ РАМКИ И ПРОБЕЛЫ

 

Регламент ЕС об ИИ (EU AI Act) вступил в силу 1 августа 2024 года и будет полностью применяться со 2 августа 2026 года, с некоторыми исключениями: запрещенные практики ИИ и требования к грамотности в области ИИ начали применяться с 2 февраля 2025 года [5]. Регламент классифицирует ИИ по уровню риска: неприемлемый, высокий, ограниченный и минимальный, причем системы неприемлемого риска запрещены [29].

Правила для систем ИИ общего назначения, которые должны соответствовать требованиям транспарентности, применяются через 12 месяцев после вступления в силу; на системы высокого риска отводится 36 месяцев для соответствия требованиям [30].

Однако EU AI Act не содержит специальных норм об использовании LLM-инструментов непосредственно в нормотворческом процессе. Законодательные органы, использующие ChatGPT для подготовки проектов, формально не подпадают под категорию «высокого риска», поскольку речь идет не о принятии решений, затрагивающих права граждан напрямую, а о вспомогательной деятельности по подготовке текстов.

В российском правовом поле ситуация характеризуется еще большей неопределенностью. В 2024 году Государственная дума приняла 564 федеральных закона [32], однако вопрос допустимости и порядка использования генеративного ИИ при их подготовке не регламентирован ни на уровне закона, ни на уровне подзаконных актов, ни в регламентах палат Федерального Собрания.

 

7. ПРЕДЛОЖЕНИЯ И ПЕРСПЕКТИВЫ

 

На основе проведенного анализа международного опыта и российского контекста предлагаются следующие направления правового регулирования использования LLM в нормотворчестве.

Первое  внедрение модели «human-in-the-loop» как обязательного стандарта. Парламенты должны взять на себя ведущую роль в управлении использованием ИИ – не только через законодательство и надзор, но и через собственное внедрение и реализацию этих технологий [17]. LLM должны использоваться исключительно как вспомогательные инструменты при обязательном контроле юристов-экспертов на всех этапах.

Второе  установление обязанности раскрытия информации (disclosure requirement). По аналогии с мнением сенатора Массачусетса Б. Финеголда, необходимо, чтобы каждый знал, что ChatGPT или аналогичный инструмент был использован в процессе; работа, сгенерированная ChatGPT, должна иметь «водяной знак» [31].

Третье  интеграция отечественных LLM в ГИС «Нормотворчество». ГИС «Нормотворчество» уже более года используется в пилотном режиме Минэкономразвития; министерство является оператором системы и отвечает за ее развитие; на сегодняшний день с использованием системы подготовлено более 100 проектов актов [22]. Следующим этапом может стать интеграция отечественных LLM (GigaChat, YandexGPT) для расширения интеллектуальных возможностей системы при соблюдении требований информационной безопасности.

Четвертое  разработка специальных стандартов верификации LLM-генерированного правового текста. Руководства МПС предлагают всеобъемлющую систему для понимания и ответственного внедрения ИИ парламентами, включая практические рекомендации по стратегическому подходу, надежному управлению, этическим соображениям и управлению рисками [19].

Пятое  введение специализированных программ подготовки специалистов в области «ИИ-компетентного нормотворчества» в рамках юридического образования, что полностью соответствует требованиям EU AI Act об AI literacy. Требования к грамотности в области ИИ начали применяться с 2 февраля 2025 года [5].

 

ЗАКЛЮЧЕНИЕ

 

Проведенный анализ свидетельствует о том, что использование LLM-инструментов в нормотворческой деятельности – не гипотетическая перспектива, а существующая реальность, требующая правового осмысления и регулирования. Опыт Бразилии, США, ОАЭ и Европейского Союза демонстрирует различные модели интеграции генеративного ИИ в законотворческий процесс – от стихийного «теневого» использования до институционализированных платформ. Российская ГИС «Нормотворчество» создает инфраструктурную основу для потенциальной интеграции LLM-технологий, однако нормативная база для такой интеграции отсутствует.

Высокие показатели «галлюцинаций» LLM в правовом контексте, феномен «теневого ИИ» в парламентах и отсутствие стандартов верификации генерируемого юридического текста создают угрозы качеству законодательства и демократической легитимности нормотворческого процесса. Модель «human-in-the-loop», дополненная требованиями транспарентности, раскрытия информации и обязательной верификации, представляется оптимальной парадигмой для интеграции LLM в нормотворчество.

Дальнейшие исследования в рамках концепции «высокотехнологичного права» должны быть направлены на выработку конкретных правовых механизмов, обеспечивающих баланс между инновационным потенциалом генеративного ИИ и фундаментальными требованиями правовой определенности, качества законодательства и верховенства права.

Список литературы

1. Sanders, N. E., & Schneier, B. (2025, January 16). AI will write complex laws. Lawfare. URL: https://www.lawfaremedia.org/article/ai-will-write-complex-laws

2. European Commission, Directorate-General for Digital Services, Fitsilis, F., & Mikros, G. (2024). AI-based solutions for legislative drafting in the EU. Summary report. Publications Office of the European Union. URL: https://op.europa.eu/en/publication-detail/-/publication/dece3782-90ed-11ef-a130-01aa75ed71a1

3. Dahl, M., Magesh, V., Suzgun, M., & Ho, D. E. (2024). Large legal fictions: Profiling legal hallucinations in large language models. Journal of Legal Analysis, 16(1), 64–93. URL: https://doi.org/10.1093/jla/laae003

4. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689. URL: https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng

5. Fitsilis, F., Mikros, G., & Leventis, S. (2024). Overview of smart functionalities in drafting legislation in LEOS. European Commission, Directorate-General for Digital Services. URL: https://doi.org/10.2799/6892931

6. Brito, R. (2023, November 29). A Brazilian city’s AI-written ordinance is a wake-up call for regulation. Associated Press. URL: https://apnews.com/article/brazil-artificial-intelligence-chatgpt-legislation

7. Verma, P. (2023, December 1). A city used ChatGPT to write a law. What could go wrong? The Washington Post. URL: https://www.washingtonpost.com/technology/2023/12/01/brazil-chatgpt-law-porto-alegre/

8. Lieu, T. (2023, January 23). I’m a congressman who codes. A.I. freaks me out. The New York Times. URL: https://www.nytimes.com/2023/01/23/opinion/ted-lieu-ai-chatgpt-congress.html

9. Metz, C. (2023, January 25). Congressman uses ChatGPT to write a speech on AI regulation. The New York Times. URL: https://www.nytimes.com/2023/01/25/technology/chatgpt-congress-speech.html

10. Ned Oliver. (2026). Ohio uses AI to eliminate unnecessary words in state administrative code. Axios Media Inc. URL: https://www.axios.com/local/columbus/2024/04/29/artificial-intelligence-ai-ohio-state-administrative-code-husted

11. Howe, A. (2024, June 28). Supreme Court strikes down Chevron, curtailing power of federal agencies. SCOTUSblog. URL: https://www.scotusblog.com/2024/06/supreme-court-strikes-down-chevron-curtailing-power-of-federal-agencies/

12. Congressional Research Service. (2024). Loper Bright Enterprises v. Raimondo and the future of agency interpretations of law (CRS Report No. R48320). Library of Congress. URL: https://www.congress.gov/crs-product/R48320

13. WAM. (2025, September 15). UAE launches AI-powered legislative system to speed lawmaking by 70%. Emirates News Agency. URL: https://www.wam.ae/en/article/uae-ai-legislative-system-2025

14. Government of UAE. (2025, April). Cabinet approves world’s first AI-powered regulatory intelligence ecosystem. UAE Government Portal. URL: https://www.wam.ae/en/article/bj6abdw-uae-cabinet-chaired-mohammed-bin-rashid-approves

15. Government of UAE. (2018). UAE National Strategy for Artificial Intelligence 2031. URL: https://staticcdn.mbzuai.ac.ae/mbzuaiwpprd01/2022/07/UAE-National-Strategy-for-Artificial-Intelligence-2031.pdf

16. Inter-Parliamentary Union. (2024, December). Guidelines for AI in parliaments. IPU Centre for Innovation in Parliament. URL: https://www.ipu.org/resources/publications/reference/2024-12/guidelines-ai-in-parliaments

17. Inter-Parliamentary Union. (2024). Updates on AI from the parliamentary community. IPU Innovation Tracker. URL: https://www.ipu.org/innovation-tracker/story/updates-ai-parliamentary-community

18. Inter-Parliamentary Union. (2024, December). About the Guidelines. In Guidelines for AI in parliaments. IPU Centre for Innovation in Parliament. URL: https://www.ipu.org/ai-guidelines/about-guidelines

19. Inter-Parliamentary Union. (2024, December 3). New IPU tools to harness the potential of AI in parliament [Пресс-релиз]. URL: https://www.ipu.org/news/press-releases/2024-12/new-ipu-tools-harness-potential-ai-in-parliament

20. Запуск ГИС «Нормотворчество» — новая система для разработки правовых актов в России. (2024, 13 сентября). Цифрастрой. URL: https://cifrastroy.ru/news/v-rossii-zapuskaetsja-gis-normotvorchestvo-dlja-razrabotki-pravovyh-aktov

21. ГИС «Нормотворчество» получила зеленый свет для запуска. (2024, 16 сентября). ComNews. URL: https://www.comnews.ru/content/235203/2024-09-16/2024-w38/1007/gis-normotvorchestvo-poluchila-zelenyy-svet-dlya-zapuska

22. Правительство переводит подготовку нормативных актов и законопроектов в цифровой формат. (2024). Клерк.ру. URL: https://www.klerk.ru/buh/news/623151/

23. ГИС «Нормотворчество» и механизм автосогласования: как в России проходит цифровизация законопроектной деятельности. (2024). TAdviser. URL: https://www.tadviser.ru/index.php/Проект:ГИС_Нормотворчество

24. С 1 октября заработала государственная информсистема «Нормотворчество». (2024, 1 октября). Ассоциация юристов России / Парламентская газета. URL: https://alrf.ru/news/s-1-oktyabrya-zarabotala-gosudarstvennaya-informsistema-normotvorchestvo/

25. Vectara. (2024). Hallucination leaderboard: Benchmarking LLM accuracy. GitHub. URL: https://github.com/vectara/hallucination-leaderboard

26. When AI Gets It Wrong: Addressing AI Hallucinations and Bias. MIT News. URL: https://mitsloanedtech.mit.edu/ai/basics/addressing-ai-hallucinations-and-bias/

27. Weiser, B. (2023, May 27). Here’s what happens when your lawyer uses ChatGPT. The New York Times. URL: https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html

28. Christopher Janaro. (2023, 28 июня). Memo to US House Staffers: You Can Use ChatGPT Plus, But Don't Be Stupid About It. PCMAG. URL: https://www.pcmag.com/news/memo-to-us-house-staffers-you-can-use-chatgpt-plus-but-dont-be-stupid-about?test_uuid=04IpBmWGZleS0I0J3epvMrC&test_variant=B

29. FacePhi. (2025, October 16). EU Regulation 2024/1689 and how it will affect the use of AI. URL: https://facephi.com/en/eu-ai-regulation/

30. European Parliament. (2024). EU AI Act: First regulation on artificial intelligence. European Parliament Topics. URL: https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

31. Finegold, B. (2023). An Act relative to the use of artificial intelligence in the Commonwealth (S.31). Massachusetts Legislature, 193rd General Court. URL: https://legiscan.com/MA/text/S31/id/2739024

Войти или Создать
* Забыли пароль?