The article is devoted to the problem of academic integrity when using generative artificial intelligence (GenAI) in research work. Based on the latest international recommendations for researchers and universities, as well as in the context of emerging regulation (primarily the EU AI Act and the national strategies of the United States, Great Britain, etc.), it is proposed to conceptualize the boundary between "support" and "substitution" of research thinking. The methods of recording AI's contribution to scientific results, the risks of inaccurate or "hallucinatory" data extraction, the limits of acceptable AI delegation of individual operations, scientific and educational policy in the field of GenAI, as well as trends in AI research and regulation are analyzed. It is concluded that it is necessary to combine the model of "AI as a tool" with strengthening the personal responsibility of the author and institutionalizing transparent procedures for documenting the use of GenAI.
generative artificial intelligence, academic integrity, scientific honesty, AI in research, scientific and educational policy, legal regulation.
Генеративный искусственный интеллект, пройдя путь от экспериментальной инновации до повседневного инструмента исследовательской деятельности, поставил перед научным сообществом принципиальный вопрос: как сохранить целостность научного мышления и доверие к результатам научных исследований в условиях стремительного роста автоматизации интеллектуальных процессов. Согласно данным AI Index 2025, доля организаций, внедряющих инструменты искусственного интеллекта, выросла за один год с 55 % до 78 %, при этом именно генеративные модели стали ядром такого роста [1]. Стремительное распространение технологий, сопровождающееся снижением порога доступа к ним и увеличением их функциональности (от простого поиска до сложных аналитических операций), не только повышает эффективность исследовательской деятельности, но и вызывает серьёзные опасения относительно изменения природы научного труда, в частности – размывания грани между авторским участием и внешней генерацией результата и, соответственно, ставит под вопрос традиционные представления об авторстве и оригинальности научного знания [2, с. 17].
Современные регуляторные и академические подходы к использованию ИИ в научной деятельности развиваются по двум направлениям. Первое – это формирование системы правового регулирования технологии как таковой (в частности, принятие Регламента ЕС об искусственном интеллекте – EU AI Act, разработка национальных стратегий в США, Великобритании, странах Восточной Азии) [3]. Второе – институционализация стандартов добросовестного использования ИИ в научной и образовательной среде (политика университетов, рекомендации исследовательских организаций по GenAI и пр.). Именно в этой дуальности (технологического управления и этико-правовой саморегуляции науки) проявляется новая конфигурация академической добросовестности.
Одним из центральных вопросов, возникающих в связи с применением генеративного ИИ, является фиксация его вклада в научно-исследовательскую деятельность.
В рамках настоящего исследования предпримем попытку дать ответ на вопрос: как очертить границу между допустимой поддержкой исследовательского мышления средствами GenAI и недопустимой подменой собственно научного вклада?
Рассуждая о фиксации вклада ИИ, а также о прозрачности как важном условии доверия, следует отметить, что Европейские рекомендации для исследователей, разработанные в рамках инициатив поддержки AI-assisted science, исходят из постулата «ИИ может существенно облегчать исследовательскую деятельность, но его применение должно быть прозрачно и объективно задокументировано» [4].
В современной практике можно выделить два уровня фиксации участия ИИ. Первый – это уровень «описания использования». В данном случае речь идёт о минимальном стандарте или отдельном разделе, где автор в обязательном порядке: указывает конкретные инструменты (версия модели, дата обращения); описывает тип задач, для которых применялся GenAI (например, языковая правка, генерация черновиков, поиск литературы и др.); раскрывает масштаб использования (единичные запросы, множественная обработка данных и т. п.). Именно такой подход предлагают рекомендации Европейского исследовательского пространства по ответственному использованию GenAI в исследованиях, подчёркивая, что прозрачность и документирование являются ключом к сохранению доверия к науке.
Второй, более высокий уровень, предполагает: сохранение промптов и ответов модели (как минимум, репрезентативных образцов) в приложениях; фиксацию версии модели и её параметров, особенно при критически важных задачах (например, автоматизированное извлечение данных из юридических документов и т. п.); при возможности – указание доступных ограничений модели (например, отсутствие доступа к закрытым базам, языковые ограничения, ограничения по доменной специфике). Этому придаётся особое значение в дискуссиях о воспроизводимости научного знания, поскольку анализ вклада ИИ должен подлежать внешней проверке. Подобная логика близка традиционному пониманию к воспроизводимости результатов проведённых изысканий, и все чаще отражается в устанавливаемых требованиях по GenAI для исследователей, где главным принципом является, что любое использование инструментов генеративного ИИ должно сопровождаться критическим анализом и контролем со стороны пользователя [5].
Не менее важным является вопрос о возможности рассматривать ИИ в качестве «соавтора». Практика международных журналов и политика ведущих исследовательских организаций сходятся во мнении, что ИИ не является субъектом авторского права и не может нести ответственность за содержание научного труда. Авторство связано не только с созданием текста, но прежде всего с формулированием научной проблемы, выбором методологии, интерпретацией результатов и гарантиями их достоверности – то есть с проявлением интеллектуальной воли исследователя. Исходя из такого подхода, можно утверждать, что ИИ не может быть указан как автор или соавтор, а вклад ИИ указывается в разделе «описание методики проведённого исследования». Критерии авторства (участие в концепции, анализе и интерпретации, написании и критическом пересмотре текста, а также ответственности за содержание) могут выполняться только людьми.
Отсюда вытекает ключевой принцип: автор (человек) сохраняет полную ответственность за все материалы, сгенерированные или модифицированные ИИ, и в обязательном порядке должен их проверять. Подобные выводы подтверждаются в Концепции, разработанной на основе политики и рекомендаций Университета Иллинойса в Урбана-Шампейн, представленной в виде практического руководства по ответственному использованию генеративного ИИ в научных исследованиях. Учитывая то обстоятельство, что GenAI уже необратимо вошёл в исследовательскую практику и запретить его в реальности практически невозможно, то созданное в Университете Иллинойса «практическое руководство», по сути, является комплексным стандартом для работы с генеративным ИИ и рассматривается в академическом сообществе как эталон этико-правовой и организационной регламентации использования GenAI в научных исследованиях [6].
Особое значение в настоящее время приобретает извлечение эмпирических данных из научных статей, решений судов, административных актов и т. д., а именно: обработка и анализ точности извлечённых данных с использованием ИИ [7, с. 124]. Наряду с очевидными преимуществами (ускорение поиска и анализа литературы, автоматизация классификации документов, построение выборок), моделям присущи существенные эпистемологические риски. Среди них наиболее значимы феномен «галлюцинаций» (генерации ложных, но правдоподобных фактов), отсутствие маркировки степени уверенности и невозможность корректной интерпретации сложных нормативных формулировок. Эти риски требуют введения формализованных процедур валидации результатов, включая обязательную выборочную проверку извлечённых данных исследователем. Отдельно можно отметить, что в контексте правовых исследований, где смысловые нюансы играют важную роль, принцип методологической осмотрительности получает особое значение, о чём прямо упоминается в вышеприведённых европейских рекомендациях по GenAI в исследованиях.
Современные лучшие практики по использованию GenAI в научных исследованиях чётко связывают его применение с общими принципами «ответственного проведения исследований», т. е. честностью, аккуратностью, прозрачностью и ответственностью. Иначе говоря, делегировать модели этап технического извлечения данных возможно, но интерпретация и окончательная валидация должны оставаться исключительно в компетенции человека.
Вопрос разграничения допустимых и недопустимых форм делегирования функций ИИ выступает концептуальным элементом правового анализа. Сравнительно-правовой подход позволяет выявить устойчивость позиций ведущих университетов и исследовательских организаций (европейских, британских, американских). Допустимыми, при условии раскрытия и проверки, признаются задачи вспомогательного характера, такие как языковая и стилистическая обработка текста (орфография, грамматика, стиль, частичная перефразировка при условии сохранения смысла). В ряде университетов прямо допускается использование GenAI для улучшения языка статьи (особенно для авторов, пишущих не на родном языке), при условии раскрытия этого факта и финальной проверки человеком [8]. Также считается допустимым делегирование искусственному интеллекту таких функций, как создание черновиков текстовых фрагментов с незначительной концептуальной нагрузкой (аннотации, резюме, сопроводительные письма, списки вопросов для интервью, шаблоны инструкций участникам исследования и пр.). Кроме того, к допустимым формам делегирования можно отнести поиск и предварительную суммаризацию данных, формирование перечня источников, при условии последующей проверки ссылок и оригинальных текстов.
Недопустимыми или требующими исключительной человеческой ответственности формами делегирования функций ИИ являются: формулировка научной проблемы (поскольку именно здесь проявляется интеллектуальный вклад исследователя), обоснование гипотез и выводов, интерпретация данных, доктринально-правовой анализ, создание или искусственное дополнение эмпирических данных, а также принятие решений об этической допустимости исследования. Представляется, что подобное разграничение, сформированное на основе профессиональных и образовательных стандартов, вполне может приобрести нормативное закрепление как элемент необходимого критерия академической добросовестности. Во многих национальных и университетских документах акцентируется внимание на принцип «GenAI может помогать, но он не отменяет и не уменьшает персональную ответственность исследователя за содержание и последствия работы» [9].
Значительную роль в формировании границ использования ИИ в научно-исследовательской деятельности играет политика образовательной организации. С 2023 по 2025 гг. ведущие университеты мира переходят от первоначальной «паники» и запретов к выработке позитивных принципов использования GenAI в обучении и исследованиях. Иными словами, наблюдается переход от запретительного подхода («генеративный ИИ как угроза академической честности») к модели позитивной интеграции, основанной на регулировании условий использования.
Сравнение политик ряда университетов позволяет выделить несколько общих элементов, среди которых можно назвать следующие: требование прозрачности (обязанность указывать факт использования ИИ), закрепление ответственности автора за результаты, недопустимость скрытого применения, обязательство соблюдения требований защиты данных. Университеты Глазго, Гарварда, Эдинбурга, а также ряд австралийских и британских университетов предлагают специализированные чек-листы для исследователей, тем самым институционализируя разделение между поддержкой и подменой мышления [10]. Подобная практика вполне может рассматриваться как пример правового режима ответственного использования технологий, вытекающего из общетеоретического принципа добросовестности и адаптированного к научной среде.
Анализ национальных и наднациональных стратегий свидетельствует о растущем влиянии правового регулирования на научную практику. Обзоры международных аналитических докладов (в частности, AI Index 2025), подтверждают, что генеративный ИИ становится повсеместным инструментом научной деятельности. Одновременно с этим фиксируется рост инцидентов недобросовестного использования технологий, усиливающий необходимость перехода от формального запрета к архитектуре ответственности.
По итогу рассмотрения обозначенных вопросов можно сформулировать некоторые выводы. Генеративный ИИ трансформирует структуру научного труда, но не изменяет фундаментального положения науки как сферы человеческого мышления и ответственности. Граница между поддержкой и подменой мышления определяется не технологической эффективностью, а соблюдением принципов прозрачности, верифицируемости и личной ответственности автора. Существует очевидная необходимость формирования многоуровневой системы правового и этико-организационного обеспечения ответственного использования ИИ. Генеративный искусственный интеллект может усилить исследовательское мышление, но только при условии, что он не подменяет его.
1. Artificial Intelligence Index Report 2025. Available at: https://arxiv.org/pdf/ 2504.07139 (accessed: 01.12.2025).
2. Bertovsky L. V. High-tech law: our expectations. Current issues of Russian criminal justice: investigation of crimes, appointment and execution of punishments. Materials of the interregional scientific and practical conference. Krasnoyarsk: Krasnoyarsk State Agrarian University Publ.; 2025: 16-19. (In Russ.).
3. The Law on Artificial Intelligence. Available at: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai?utm_source=chatgpt.com (accessed: 01.12.2025).
4. Current recommendations on responsible use of generative AI in scientific research. Available at: https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en?utm_source=chatgpt.com (accessed: 01.12.2025).
5. Generative AI Guidance for Researchers. Available at: https://www.gla.ac.uk/research/strategy/ourpolicies/ai-for-researchers/?utm _source =chatgpt.com (accessed: 01.12.2025).
6. Best practices for using Generative AI in research. Available at: https://genai.illinois.edu/best-practices-using-generative-ai-in-research/?utm_source=chatgpt.com (accessed: 01.12.2025).
7. Bertovskiy L.V., Devyatkin G.S., Fedorov A.R. Interdisciplinary aspects of the introduction of virtual reality technologies in court proceedings. Kutafin Law Review. 2024; 1:124-141. EDN: EKEWVN
8. The University's position on artificial intelligence. Available at: https://portal.lancaster.ac.uk/ask/administration/policies-regulations/university-position-on-artificial-intelligence/?utm_source=chatgpt.com (accessed: 01.12.2025).
9. Encouraging academic integrity. Available at: https://teaching.pitt.edu/resources/encouraging-academic-integrity/?utm_source=chatgpt.com (accessed: 01.12.2025).
10. A Guide to Using Generative AI Tools at Harvard. Available at: https://www.huit.harvard.edu/ai/guidelines?utm_source=chatgpt.com (accessed: 01.12.2025).



