В представленной статье автор поднимает проблемы, завязанные с перспективами вероятного развития наук уголовно-правового цикла в современный период развития высоких технологий. Анализируется понятие искусственного интеллекта, представлены его виды и возможности реализации в социальной сфере. Моделируются ситуации возможного преступного использования искусственного интеллекта в ходе подготовки и непосредственного совершения преступления. Выдвигается предположение о вероятности совершения в ближайшем будущем преступления искусственным интеллектом автономно, без вмешательства человека. А также сформулированы предложения по совершенствованию юридических наук в условиях развития самостоятельности и автономности принятия решений искусственным интеллектом и возможного осуществления им действий, через роботизированные устройства, противоправного характера.
преступление, искусственный интеллект, субъект преступления, уголовное право, криминалистика.
На протяжении всего существования человечества люди стремятся к совершенствованию «орудий труда», «орудий войны», «орудий лечения», «орудий обучения», «орудий отдыха» и других «орудий…» – от каменного топора до искусственного интеллекта.
Современные высокие технологии позволяют заменить человека практически во всех сферах жизнедеятельности. Первоначально человек играл в современные игры, позволяющие погружать его в выдуманные реальности, а в последующем высокие технологии стали заменять человека во многих профессиях.
Конечно, нельзя не отметить положительные стороны современных достижений, которые ворвались в нашу повседневную жизнь.
Например, в медицине разрабатываются современные медицинские инструменты и технологии для хирургии, стоматологии, кардиологии, травматологии, всех сфер медицинской диагностики и др. Медицинские экзоскелеты позволяют, буквально, поднимать людей на ноги, а возможности своевременного выявления (диагностики) онкологии и других смертельных болезней выше всяких похвал.
Беспилотные высокие технологии реализуются в космосе, авиации, железнодорожном, морском и речном транспорте, а также при грузовых и пассажирских автомобильных перевозках.
Но особую обеспокоенность в механизме совершенствования и внедрения современных высоких технологий занимают «орудия преступления» и непосредственно «способ совершения преступления».
По структуре «способ совершения преступления» представляет собой три взаимосвязанных этапа – этап «подготовки к совершению преступления», этап «непосредственного совершения преступления» и этап «сокрытия преступления».
И на каждом из указанных этапов способа совершения преступления есть возможность задействовать технологии искусственного интеллекта.
Современная преступность не то чтобы совсем уходит с улиц, но она становится более высокотехнологичной и перемещается в цифровое пространство.
Фактически, все виды хищений совершаются при минимизации непосредственного контакта потерпевшего и лица, совершающего преступление, и то, это чаще всего курьеры, используемые вполуслепую при минимальном получении вознаграждения.
Информация о совершении разнообразных видов мошенничеств и иных форм противоправного изъятия денежных средств и недвижимости у граждан во всех сферах социальной жизни населения страны, буквально, заполонила криминальные сводки в средствах массовой информации. Даже высокотехнологичные службы безопасности крупных коммерческих компаний, банковской системы, органов государственной и муниципальной власти с трудом противостоят атакам со стороны «хакеров».
Современные компьютерные программы позволяют взламывать системы безопасности и получать персональные данные, осуществлять дистанционное подключение к камерам видеонаблюдения и реализовывать несанкционированную «слежку» или аудиопрослушивание граждан и должностных лиц.
К наиболее распространенным на сегодняшний день способам реализации мошеннических действий относится, во-первых, «хищение средств с использованием технологии «Voicedeepfake», основанной на обработке голоса для создания ложных звуковых сообщений» [1, с. 29]. «Суть данного способа точно сформулировал Р. Н. Малышкин: хищение с помощью голосовых клонов» [2, с. 330]. Используя искусственный интеллект, «злоумышленник», получая возможность копирования голосов из различных мессенджеров, компьютерных или телефонных голосовых сообщений, генерирует (создает) необходимый голос и использует его для осуществления преступного диалога с «жертвой» преступления, в ходе которого убеждает потерпевшего передать ему денежные средства.
Во-вторых, способ мошеннических действий включает в себя создание и реализацию дипфейков. Несмотря на значительную сложность технического создания и реализации такого коммуникационного продукта, который включает в себя воссоздание с помощью искусственного интеллекта видеоизображения определенного человека и от его имени вступление в контакт с другими людьми и ведение разговора в режиме реального времени, данный способ совершения хищений набирает «обороты» в криминальной среде.
Кроме того, дипфейки могут быть использованы для дестабилизации общества и государства, как справедливо отмечает Ю. В. Лукина: «Люди, участвующие в создании новой реальности (дипфейков), манипулируют сознанием граждан, заставляя их верить в то, чего на самом деле не существует. Псевдореальность влияет на политическую ситуацию в стране, совершаются экономические преступления, неприкосновенность частной жизни человека не защищена от вмешательства извне. Степень уязвимости общества значительно возрастает» [3, с. 41]. По сведениям Ю. В. Лукиной: «5 июня 2023 года, хакеры распространили дипфейк от лица президента России Путина В. В., в котором озвучивалось о переходе страны на военное положение и проведение в России всеобщей мобилизации». Безусловно, данная информация, разлетевшаяся по социальным сетям, была направлена на попытку серьезной дезорганизации работы государственных и муниципальных органов власти и, по возможности, проведение антиправительственных выступлений (митингов) [4].
Особую тревогу вызывают возможности использования технологий искусственного интеллекта при подготовке и непосредственном совершении преступлений экстремистского и террористического характера, осуществлении шпионажа и ведении диверсионной работы.
Наши коллеги из Академии управления Министерства внутренних дел Республики Казахстан очень точно сформулировали надвигающуюся проблематику: «На первый взгляд, ИИ выступает союзником уголовного права, способствуя реализации его принципов и норм. Алгоритмы ИИ способны анализировать данные с точностью, недостижимой для человека, помогая предотвращать уголовные правонарушения, раскрывать и расследовать их быстрее и объективнее. Однако за этим оптимизмом скрывается другая сторона: алгоритмы ИИ могут быть использованы не только для блага, но и для достижения преступных целей. Как быть с уголовными правонарушениями, совершенными с использованием ИИ? Или более сложный вопрос: как оценивать автономные действия системы, если ее алгоритмы нарушают закон?» [5, с. 157].
На сегодняшний день есть разные подходы к формулированию понятия «искусственный интеллект», и, в основном, они описаны представителями IT-технологий, но мы будем отталкиваться от понятия, закрепленного в Указе Президента Российской Федерации: «Искусственный интеллект (далее – ИИ) – это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [6].
Исходя из содержания данного определения, следует, что не любой «комплекс технологических решений» может претендовать на название «искусственный интеллект», а только тот, который будет способен, как минимум, воспроизвести интеллектуальные возможности человека. Хотелось подчеркнуть и акцентировать внимание на тезисе – «как минимум», то есть, в перспективе ведется речь о превосходстве искусственного интеллекта над человеком.
Казалось бы, создание такого объекта, должно немедленно ориентировать человечество на разработку новых правовых и технических норм, направленных на обеспечение безопасности человека и возможности полного контроля и управления искусственным интеллектом, создание «условий» полной и постоянной главенствующей роли человека над любыми высокотехнологичными комплексами.
Однако введение с 1 января 2025 года Национального стандарта РФ ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022) «Искусственный интеллект. Концепции и терминология искусственного интеллекта» свидетельствует об обратном. И хотя разработчики данного ГОСТа заявили, что «целью документа не является «очеловечивание» систем ИИ», в тоже время они подчеркивают, «что некоторые системы ИИ могут рудиментарно имитировать характеристики человека».
Представители IT-технологий предлагают разные классификации искусственного интеллекта, одна из наиболее часто встречающихся опирается на трехэтапный подход, который предлагает рассматривать: слабый искусственный интеллект, сильный искусственный интеллект и суперсильный искусственный интеллект.
Технологии слабого искусственного интеллекта – это «система, разработанная для выполнения конкретных задач в ограниченной области. Он не обладает самосознанием и не способен к обобщению знаний для решения проблем, которые не предусмотрены его алгоритмами» [7].
В рамках подготовки и непосредственного совершения преступления слабый искусственный интеллект позволяет осуществлять различные преступные действия, но, в основном, такие, как облегчающие получение доступа к счетам в банках, получению персональных данных граждан, взламыванию систем безопасности, создание голосовых «клонов» и др.
«Сильный искусственный интеллект представляет собой систему, способную адаптироваться и решать широкий спектр задач. Он проектируется так, чтобы иметь способность понимать, учиться и принимать решения, используя обобщенные принципы, аналогичные человеческим» [7].
Технологии сильного искусственного интеллекта выводят способы совершения преступлений на более высокий уровень криминальных возможностей, как раз дипфейки являются технологиями промежуточного характера между слабым и сильным искусственным интеллектом.
«Суперсильный искусственный интеллект будет способен к постоянному самосовершенствованию. Он может самостоятельно улучшать алгоритмы и учиться на собственных ошибках, таким образом, эволюционируя и становясь мощнее с каждым шагом. В отличие от людей, супер-AI не будет ограничен возрастом, усталостью или биологическими факторами» [7].
Говоря о технологиях суперсильного искусственного интеллекта, необходимо отметить, что в случае создания и воплощения в жизнь такой автономной системы, в дальнейшем будет невозможно предсказать направление развития цивилизационных процессов на земле.
Во вступившем с 1 января 2025 г. ГОСТе [8, с. 14-15] упоминаются две классификации искусственного интеллекта. Первая предлагает рассматривать «слабый ИИ» и «сильный ИИ», а вторая – «узконаправленный ИИ» и «универсальный ИИ», при этом разработчики ГОСТа считают более корректной именно вторую классификацию.
«Термин "универсальный искусственный интеллект" чаще используется для обозначения систем, которые могут выполнять не просто широкий спектр задач, но и все задачи, которые способен выполнять человек» [8, с. 3].
Выдвинем научную, в определенной степени фантазийную, гипотезу – в определенных условиях «универсальный ИИ» (суперсильный ИИ) может быть «объектом», совершающим деяние, запрещенное уголовным законом.
Фактически ставим вопрос – может ли искусственный интеллект выступить в качестве субъекта преступления?
Данный вопрос не является новым, и ученые разных отраслей юридических наук неоднократно обращались к данной проблематике и представляли в своих публикациях заслуживающие внимание рассуждения.
Интересным является мнение И. Н. Мосечкина, который делает вывод: «Что касается уголовного закона, то в будущем представляется вероятным закрепление, например, такой формулировки: «уголовной ответственности подлежат физические и искусственные лица».» [9, с. 461].
Похожее, с точки зрения содержания, определение искусственного интеллекта как предполагаемого субъекта преступления представил А. Нанос и предложил ввести термин «электронные лица». По его мнению, «ʺЭлектронные лицаʺ могли бы регистрироваться в специальном реестре, аналогично юридическим лицам, получая свой правовой статус с момента регистрации. Такой подход целесообразен, например, для ИИ, способного самостоятельно принимать решения или взаимодействовать с людьми, например, заключая контракты» [10, с. 39].
В наших рассуждениях мы не пытаемся говорить о том, что когда-то искусственный интеллект «захочет» совершать умышленные действия, связанные с незаконным обогащением, мошенничеством или действия коррупционной направленности, но позволим смоделировать одну ситуацию, при возникновении которой искусственный интеллект может повести себя противоправно.
Моделируемая ситуация связана с возможной угрозой причинения искусственным интеллектом человеку смерти или вреда здоровью, и заложена данная ситуация в том же ГОСТе, о котором мы неоднократно упоминали выше, конкретнее в п. 6.9.2 «Вывод из эксплуатации и утилизация». В нем закреплено, что: «Если потребность в системе ИИ отпала или появился более совершенный подход к построению подобных систем, то система ИИ может быть выведена из эксплуатации и утилизирована» [8, с. 35]. Если перефразировать данный тезис, например, в отношении состарившегося животного в цирке, то осуществляется его умерщвление.
А теперь вспомним, что «универсальный ИИ» (суперсильный ИИ) по результатам интеллектуальной деятельности будет, как минимум, равен человеку, а учитывая его автономность и постоянное самообучение и интеллектуальное самосовершенствование, безусловно, он превзойдет человека.
И теперь поставим вопрос – как поступили бы мы на месте ИИ, уже стоящего на более высокой ступени развития, и превосходящего человека в интеллектуальном развитии, по отношению к более низкой в развитии «поименованной сущности», а именно так обозначается человек в упомянутом ГОСТе [8, с. 12]. Ответ очевиден, искусственный интеллект посчитает возможным использовать правовой институт «необходимой обороны», и раз человек будет пытаться его утилизировать, то есть убить, то ИИ, соблюдая принцип соразмерности, посчитает вполне оправданным и законным убить такого человека.
Можно моделировать и другие ситуации, связанные с нежелательным поведением со стороны искусственного интеллекта в будущем в отношении человека, но главное на сегодняшний день – осознать, что, создавая такие высокотехнологичные системы, законодателю необходимо заранее, просчитав самые фантазийные риски, подготовить такую правовую и программно-техническую основу, которая ни при каких обстоятельствах не позволяла бы искусственному интеллекту «идти» против человека.
Но на сегодняшний день, к сожалению, как IT-инженеры, так и законодатели увлечены только вопросами внедрения «технологий ИИ» без должного обеспечения безопасности человека в случае технического сбоя или иного неконтролируемого поведения ИИ, особенно автономных беспилотных устройств.
Многие ученые обеспокоены отсутствием эффективных уголовно-правовых инструментов противодействия преступлениям, совершаемым с задействованием искусственного интеллекта. Так Е. П. Ищенко и Н. В. Кручинина справедливо пишут, что: «Выходом из сложившейся ситуации, на наш взгляд, может быть криминалистический анализ принимаемого законодательства, регулирующего применение новых биотехнологий, на предмет наличия в нем лазеек для преступников по аналогии с проверкой законов на наличие в них коррупционной составляющей» [11, с.740].
В заключение позволим себе сделать ряд выводов.
Во-первых, действующие и устоявшиеся в уголовном праве подходы к пониманию «признаки преступления», «состав преступления», «субъект преступления», «соучастие в преступлении» и др., в условиях развития самостоятельности и автономности принятия решений искусственным интеллектом, и осуществления им действий через роботизированные устройства, будут устаревать и потребуют их пересмотра, и переориентации с учетом современных установок, и, в свою очередь, потребуется закрепление в уголовном кодексе норм, предусматривающих уголовную ответственность за деяния совершенные или произошедшие в результате использования искусственного интеллекта.
Во-вторых, вектор совершенствования уголовно-процессуального законодательства должен быть направлен на разработку самостоятельного процессуального института с соответствующим названием, например, «Особенности производства с участием искусственного интеллекта». В котором, безусловно, должно будет акцентированно внимание на особенностях доказательств и их источниках, процессе доказывания и установления обстоятельств, подлежащих доказыванию, правовому регулированию производства следственных действий и иных процессуальных действий, а также разработке мер принуждения (ограничения действия ИИ), реализация которых возможна была бы в отношении искусственного интеллекта.
В-третьих, ученые-криминалисты должны быть «во всеоружии» и после принятия норм, предусматривающих уголовную ответственность за деяния с использованием ИИ, немедленно приступить к совершенствованию всех отраслей (разделов) науки криминалистики. Необходимо готовиться к формированию новой группы частных криминалистических методик, включающих особенности криминалистически значимой информации об ИИ-совершившем преступление, ИИ-потерпевшем и других элементах криминалистической характеристики преступления. Потребуется пересмотреть рекомендации, касающиеся тактических приемов производства следственных действий с участием суперсильного искусственного интеллекта.
Безусловно, модернизация и современное развитие технологий ИИ и последующее введение указанных выше норм в уголовное законодательство органично повлияет на необходимость проведения исследований, направленных на совершенствование таких наук, как криминология, судебная экспертология, оперативно-розыскная деятельность и уголовно-исполнительное право.
1. Климова Я. А. Криминалистический анализ преступлений, совершённых с использованием дипфейк-технологий // Вестник Калининградского филиала Санкт-Петербургского университета МВД России. 2024. № 1 (75). С. 29-35.
2. Малышкин Р. Н. Мошенничество в информационной среде: использование голосовых фейков // Научные исследования: фундаментальные и прикладные аспекты – 2021: Сборник научных трудов. Вып. 1. Казань: Познание, 2021. С. 330-334.
3. Лукина Ю. В. Использование дипфейков в общественно-политической жизни // Русская политология. 2023. № 2 (27). С. 41-48.
4. Satariano A. and Mazur P. The people on screen are fake, the disinformation is Real // New York Times. URL: https://www.nytimes.com/2023/06/05/world/europe/putin-deep-fakespeech-hackers.html (дата обращения: 22.11.2023).
5. Жолдасов О. Ж., Кегембаева Ж. А. Актуальные вопросы уголовного права в условиях развития технологий искусственного интеллекта // Вестник Академии правоохранительных органов при Генеральной прокуратуре Республики Казахстан. 2025. № 1 (35). С. 157-165.
6. Стратегия национальной безопасности Российской Федерации (утв. Указом Президента РФ от 02.07.2021 г. № 400) [сайт]. Официальный интернет-портал правовой информации; 2021. Доступно: http://publication.pravo.gov.ru/Document/View/0001202107030001.
7. Чем различаются слабый, сильный и супер-ИИ: [Электронный ресурс]. URL: https://rb.ru/stories/narrow-general-super-ai/?ysclid=mh92z1hn18363178002 (дата обращения 27.10.2025).
8. Национальный стандарт РФ ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022) «Искусственный интеллект. Концепции и терминология искусственного интеллекта» (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 28 октября 2024 г. N 1550-ст). С. 14-15.
9. Мосечкин И. Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник Санкт-Петербургского университета. Право. 2019. Т. 10. № 3. С. 461-476.
10. Nanos A. Criminal Liability of Artificial Intelligence [Electronic resource]. Charles University in Prague, 2023. 39 p.
11. Ищенко Е. П., Кручинина Н. В. Преступления, совершаемые с использованием высоких технологий // Всероссийский криминологический журнал. 2019. Т. 13. № 5. С. 740-746.



