АКАДЕМИЧЕСКАЯ ДОБРОСОВЕСТНОСТЬ ИСПОЛЬЗОВАНИЯ ГЕНЕРАТИВНОГО ИИ В НАУЧНО-ИССЛЕДОВАТЕЛЬСКОЙ РАБОТЕ: ГРАНИЦА МЕЖДУ ПОДДЕРЖКОЙ И ПОДМЕНОЙ МЫШЛЕНИЯ
Аннотация и ключевые слова
Аннотация (русский):
Статья посвящена проблеме академической добросовестности при использовании генеративного искусственного интеллекта (GenAI) в научно-исследовательской работе. На материалах новейших международных рекомендаций для исследователей и университетов, а также в контексте формирующегося регулирования (прежде всего, Акта ЕС об ИИ и национальных стратегий США, Великобритании и др.) предлагается концептуализировать границу между «поддержкой» и «подменой» исследовательского мышления. Анализируются способы фиксации вклада ИИ в научный результат, риски неточных или «галлюцинаторных» извлечений данных, пределы допустимого делегирования ИИ отдельных операций, научно-образовательная политика в сфере GenAI, а также тенденции в исследованиях и регулировании ИИ. Делается вывод о необходимости сочетать модель «ИИ как инструмента» с усилением персональной ответственности автора и институционализацией прозрачных процедур документирования использования GenAI.

Ключевые слова:
генеративный искусственный интеллект, академическая добросовестность, научная честность, ИИ в исследованиях, научно-образовательная политика, правовое регулирование.
Текст
Текст (PDF): Читать Скачать

Генеративный искусственный интеллект, пройдя путь от экспериментальной инновации до повседневного инструмента исследовательской деятельности, поставил перед научным сообществом принципиальный вопрос: как сохранить целостность научного мышления и доверие к результатам научных исследований в условиях стремительного роста автоматизации интеллектуальных процессов. Согласно данным AI Index 2025, доля организаций, внедряющих инструменты искусственного интеллекта, выросла за один год с 55 % до 78 %, при этом именно генеративные модели стали ядром такого роста [1]. Стремительное распространение технологий, сопровождающееся снижением порога доступа к ним и увеличением их функциональности (от простого поиска до сложных аналитических операций), не только повышает эффективность исследовательской деятельности, но и вызывает серьёзные опасения относительно изменения природы научного труда, в частности – размывания грани между авторским участием и внешней генерацией результата и, соответственно, ставит под вопрос традиционные представления об авторстве и оригинальности научного знания [2, с. 17].

Современные регуляторные и академические подходы к использованию ИИ в научной деятельности развиваются по двум направлениям. Первое – это формирование системы правового регулирования технологии как таковой (в частности, принятие Регламента ЕС об искусственном интеллекте – EU AI Act, разработка национальных стратегий в США, Великобритании, странах Восточной Азии) [3]. Второе – институционализация стандартов добросовестного использования ИИ в научной и образовательной среде (политика университетов, рекомендации исследовательских организаций по GenAI и пр.). Именно в этой дуальности (технологического управления и этико-правовой саморегуляции науки) проявляется новая конфигурация академической добросовестности.

Одним из центральных вопросов, возникающих в связи с применением генеративного ИИ, является фиксация его вклада в научно-исследовательскую деятельность.

В рамках настоящего исследования предпримем попытку дать ответ на вопрос: как очертить границу между допустимой поддержкой исследовательского мышления средствами GenAI и недопустимой подменой собственно научного вклада?

Рассуждая о фиксации вклада ИИ, а также о прозрачности как важном условии доверия, следует отметить, что Европейские рекомендации для исследователей, разработанные в рамках инициатив поддержки AI-assisted science, исходят из постулата «ИИ может существенно облегчать исследовательскую деятельность, но его применение должно быть прозрачно и объективно задокументировано» [4].

В современной практике можно выделить два уровня фиксации участия ИИ. Первый – это уровень «описания использования». В данном случае речь идёт о минимальном стандарте или отдельном разделе, где автор в обязательном порядке: указывает конкретные инструменты (версия модели, дата обращения); описывает тип задач, для которых применялся GenAI (например, языковая правка, генерация черновиков, поиск литературы и др.); раскрывает масштаб использования (единичные запросы, множественная обработка данных и т. п.). Именно такой подход предлагают рекомендации Европейского исследовательского пространства по ответственному использованию GenAI в исследованиях, подчёркивая, что прозрачность и документирование являются ключом к сохранению доверия к науке.

Второй, более высокий уровень, предполагает: сохранение промптов и ответов модели (как минимум, репрезентативных образцов) в приложениях; фиксацию версии модели и её параметров, особенно при критически важных задачах (например, автоматизированное извлечение данных из юридических документов и т. п.); при возможности – указание доступных ограничений модели (например, отсутствие доступа к закрытым базам, языковые ограничения, ограничения по доменной специфике). Этому придаётся особое значение в дискуссиях о воспроизводимости научного знания, поскольку анализ вклада ИИ должен подлежать внешней проверке. Подобная логика близка традиционному пониманию к воспроизводимости результатов проведённых изысканий, и все чаще отражается в устанавливаемых требованиях по GenAI для исследователей, где главным принципом является, что любое использование инструментов генеративного ИИ должно сопровождаться критическим анализом и контролем со стороны пользователя [5].

Не менее важным является вопрос о возможности рассматривать ИИ в качестве «соавтора». Практика международных журналов и политика ведущих исследовательских организаций сходятся во мнении, что ИИ не является субъектом авторского права и не может нести ответственность за содержание научного труда. Авторство связано не только с созданием текста, но прежде всего с формулированием научной проблемы, выбором методологии, интерпретацией результатов и гарантиями их достоверности – то есть с проявлением интеллектуальной воли исследователя. Исходя из такого подхода, можно утверждать, что ИИ не может быть указан как автор или соавтор, а вклад ИИ указывается в разделе «описание методики проведённого исследования». Критерии авторства (участие в концепции, анализе и интерпретации, написании и критическом пересмотре текста, а также ответственности за содержание) могут выполняться только людьми.

Отсюда вытекает ключевой принцип: автор (человек) сохраняет полную ответственность за все материалы, сгенерированные или модифицированные ИИ, и в обязательном порядке должен их проверять. Подобные выводы подтверждаются в Концепции, разработанной на основе политики и рекомендаций Университета Иллинойса в Урбана-Шампейн, представленной в виде практического руководства по ответственному использованию генеративного ИИ в научных исследованиях. Учитывая то обстоятельство, что GenAI уже необратимо вошёл в исследовательскую практику и запретить его в реальности практически невозможно, то созданное в Университете Иллинойса «практическое руководство», по сути, является комплексным стандартом для работы с генеративным ИИ и рассматривается в академическом сообществе как эталон этико-правовой и организационной регламентации использования GenAI в научных исследованиях [6].

Особое значение в настоящее время приобретает извлечение эмпирических данных из научных статей, решений судов, административных актов и т. д., а именно: обработка и анализ точности извлечённых данных с использованием ИИ [7, с. 124]. Наряду с очевидными преимуществами (ускорение поиска и анализа литературы, автоматизация классификации документов, построение выборок), моделям присущи существенные эпистемологические риски. Среди них наиболее значимы феномен «галлюцинаций» (генерации ложных, но правдоподобных фактов), отсутствие маркировки степени уверенности и невозможность корректной интерпретации сложных нормативных формулировок. Эти риски требуют введения формализованных процедур валидации результатов, включая обязательную выборочную проверку извлечённых данных исследователем. Отдельно можно отметить, что в контексте правовых исследований, где смысловые нюансы играют важную роль, принцип методологической осмотрительности получает особое значение, о чём прямо упоминается в вышеприведённых европейских рекомендациях по GenAI в исследованиях.

Современные лучшие практики по использованию GenAI в научных исследованиях чётко связывают его применение с общими принципами «ответственного проведения исследований», т. е. честностью, аккуратностью, прозрачностью и ответственностью. Иначе говоря, делегировать модели этап технического извлечения данных возможно, но интерпретация и окончательная валидация должны оставаться исключительно в компетенции человека.

Вопрос разграничения допустимых и недопустимых форм делегирования функций ИИ выступает концептуальным элементом правового анализа. Сравнительно-правовой подход позволяет выявить устойчивость позиций ведущих университетов и исследовательских организаций (европейских, британских, американских). Допустимыми, при условии раскрытия и проверки, признаются задачи вспомогательного характера, такие как языковая и стилистическая обработка текста (орфография, грамматика, стиль, частичная перефразировка при условии сохранения смысла). В ряде университетов прямо допускается использование GenAI для улучшения языка статьи (особенно для авторов, пишущих не на родном языке), при условии раскрытия этого факта и финальной проверки человеком [8]. Также считается допустимым делегирование искусственному интеллекту таких функций, как создание черновиков текстовых фрагментов с незначительной концептуальной нагрузкой (аннотации, резюме, сопроводительные письма, списки вопросов для интервью, шаблоны инструкций участникам исследования и пр.). Кроме того, к допустимым формам делегирования можно отнести поиск и предварительную суммаризацию данных, формирование перечня источников, при условии последующей проверки ссылок и оригинальных текстов.

Недопустимыми или требующими исключительной человеческой ответственности формами делегирования функций ИИ являются: формулировка научной проблемы (поскольку именно здесь проявляется интеллектуальный вклад исследователя), обоснование гипотез и выводов, интерпретация данных, доктринально-правовой анализ, создание или искусственное дополнение эмпирических данных, а также принятие решений об этической допустимости исследования. Представляется, что подобное разграничение, сформированное на основе профессиональных и образовательных стандартов, вполне может приобрести нормативное закрепление как элемент необходимого критерия академической добросовестности. Во многих национальных и университетских документах акцентируется внимание на принцип «GenAI может помогать, но он не отменяет и не уменьшает персональную ответственность исследователя за содержание и последствия работы» [9].

Значительную роль в формировании границ использования ИИ в научно-исследовательской деятельности играет политика образовательной организации. С 2023 по 2025 гг. ведущие университеты мира переходят от первоначальной «паники» и запретов к выработке позитивных принципов использования GenAI в обучении и исследованиях. Иными словами, наблюдается переход от запретительного подхода («генеративный ИИ как угроза академической честности») к модели позитивной интеграции, основанной на регулировании условий использования.

Сравнение политик ряда университетов позволяет выделить несколько общих элементов, среди которых можно назвать следующие: требование прозрачности (обязанность указывать факт использования ИИ), закрепление ответственности автора за результаты, недопустимость скрытого применения, обязательство соблюдения требований защиты данных. Университеты Глазго, Гарварда, Эдинбурга, а также ряд австралийских и британских университетов предлагают специализированные чек-листы для исследователей, тем самым институционализируя разделение между поддержкой и подменой мышления [10]. Подобная практика вполне может рассматриваться как пример правового режима ответственного использования технологий, вытекающего из общетеоретического принципа добросовестности и адаптированного к научной среде.

Анализ национальных и наднациональных стратегий свидетельствует о растущем влиянии правового регулирования на научную практику. Обзоры международных аналитических докладов (в частности, AI Index 2025), подтверждают, что генеративный ИИ становится повсеместным инструментом научной деятельности. Одновременно с этим фиксируется рост инцидентов недобросовестного использования технологий, усиливающий необходимость перехода от формального запрета к архитектуре ответственности.

По итогу рассмотрения обозначенных вопросов можно сформулировать некоторые выводы. Генеративный ИИ трансформирует структуру научного труда, но не изменяет фундаментального положения науки как сферы человеческого мышления и ответственности. Граница между поддержкой и подменой мышления определяется не технологической эффективностью, а соблюдением принципов прозрачности, верифицируемости и личной ответственности автора. Существует очевидная необходимость формирования многоуровневой системы правового и этико-организационного обеспечения ответственного использования ИИ. Генеративный искусственный интеллект может усилить исследовательское мышление, но только при условии, что он не подменяет его.

Список литературы

1. Artificial Intelligence Index Report 2025. [Электронный ресурс]. URL: https://arxiv.org/pdf/ 2504.07139 (дата обращения 01.12.2025).

2. Бертовский Л. В. Высокотехнологичное право: наши ожидания // Материалы межрегиональной научно-практической конференции «Актуальные вопросы российского уголовного судопроизводства: расследование преступлений, назначение и исполнение наказаний». Красноярск: Красноярский государственный аграрный университет, 2025. С. 16-19. EDN: WOCKHU

3. Закон об искусственном интеллекте. [Электронный ресурс]. URL: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai?utm_source=chatgpt.com (дата обращения 01.12.2025).

4. Актуальные рекомендации по ответственному использованию генеративного ИИ в научных исследованиях. [Электронный ресурс]. URL: https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en?utm_source=chatgpt.com (дата обращения 01.12.2025).

5. Generative AI Guidance for Researchers. [Электронный ресурс]. URL: https://www.gla.ac.uk/research/strategy/ourpolicies/ai-for-researchers/?utm _source =chatgpt.com (дата обращения 01.12.2025).

6. Лучшие практики использования генеративного ИИ в исследованиях. [Электронный ресурс]. URL: https://genai.illinois.edu/best-practices-using-generative-ai-in-research/?utm_source=chatgpt.com (дата обращения 01.12.2025).

7. Bertovskiy L. V., Devyatkin G. S., Fedorov А. R. Interdisciplinary aspects of the introduction of virtual reality technologies in court proceedings // Kutafin Law Review. 2024. № 1. С. 124-141.

8. Позиция университета по искусственному интеллекту. [Электронный ресурс]. URL: https://portal.lancaster.ac.uk/ask/administration/ policies-regulations/university-position-on-artificial-intelligence/?utm_source=chatgpt.com (дата обращения 01.12.2025).

9. Поощрение академической честности. [Электронный ресурс]. URL: https://teaching.pitt.edu/resources/encouraging-academic-integrity/?utm_source=chatgpt.com (дата обращения 01.12.2025).

10. Руководство по использованию инструментов генеративного ИИ в Гарварде. [Электронный ресурс]. URL: https://www.huit.harvard.edu/ai/ guidelines?utm_source=chatgpt.com (дата обращения 01.12.2025).

Войти или Создать
* Забыли пароль?