REFLECTIONS ON THE PROSPECTS FOR THE DEVELOPMENT OF FORENSIC SCIENCE, CRIMINAL PROCEDURE, AND CRIMINAL LAW IN THE CONTEXT OF THE POSSIBLE UNLAWFUL UNPREDICTABILITY OF THE BEHAVIOR OF ARTIFICIAL INTELLIGENCE
Abstract and keywords
Abstract (English):
In this article the author addresses issues related to the potential development of criminal law in the modern era of high technology. The concept of artificial intelligence is analyzed, its types and potential applications in the social sphere are presented. Situations involving the potential criminal use of artificial intelligence during the preparation and actual commission of a crime are simulated. The possibility of AI committing a crime autonomously, without human intervention, is hypothesized. Proposals are also formulated for improving legal sciences in the context of the development of independent and autonomous decision-making by artificial intelligence, and the potential for it to carry out illegal actions through robotic devices.

Keywords:
crime, artificial intelligence, subject of crime, criminal law, forensic science.
Text
Text (PDF): Read Download

На протяжении всего существования человечества люди стремятся к совершенствованию «орудий труда», «орудий войны», «орудий лечения», «орудий обучения», «орудий отдыха» и других «орудий…» – от каменного топора до искусственного интеллекта.

Современные высокие технологии позволяют заменить человека практически во всех сферах жизнедеятельности. Первоначально человек играл в современные игры, позволяющие погружать его в выдуманные реальности, а в последующем высокие технологии стали заменять человека во многих профессиях.

Конечно, нельзя не отметить положительные стороны современных достижений, которые ворвались в нашу повседневную жизнь.

Например, в медицине разрабатываются современные медицинские инструменты и технологии для хирургии, стоматологии, кардиологии, травматологии, всех сфер медицинской диагностики и др. Медицинские экзоскелеты позволяют, буквально, поднимать людей на ноги, а возможности своевременного выявления (диагностики) онкологии и других смертельных болезней выше всяких похвал.

Беспилотные высокие технологии реализуются в космосе, авиации, железнодорожном, морском и речном транспорте, а также при грузовых и пассажирских автомобильных перевозках.

Но особую обеспокоенность в механизме совершенствования и внедрения современных высоких технологий занимают «орудия преступления» и непосредственно «способ совершения преступления».

По структуре «способ совершения преступления» представляет собой три взаимосвязанных этапа – этап «подготовки к совершению преступления», этап «непосредственного совершения преступления» и этап «сокрытия преступления».

И на каждом из указанных этапов способа совершения преступления есть возможность задействовать технологии искусственного интеллекта.

Современная преступность не то чтобы совсем уходит с улиц, но она становится более высокотехнологичной и перемещается в цифровое пространство.

Фактически, все виды хищений совершаются при минимизации непосредственного контакта потерпевшего и лица, совершающего преступление, и то, это чаще всего курьеры, используемые вполуслепую при минимальном получении вознаграждения.

Информация о совершении разнообразных видов мошенничеств и иных форм противоправного изъятия денежных средств и недвижимости у граждан во всех сферах социальной жизни населения страны, буквально, заполонила криминальные сводки в средствах массовой информации. Даже высокотехнологичные службы безопасности крупных коммерческих компаний, банковской системы, органов государственной и муниципальной власти с трудом противостоят атакам со стороны «хакеров».

Современные компьютерные программы позволяют взламывать системы безопасности и получать персональные данные, осуществлять дистанционное подключение к камерам видеонаблюдения и реализовывать несанкционированную «слежку» или аудиопрослушивание граждан и должностных лиц.

К наиболее распространенным на сегодняшний день способам реализации мошеннических действий относится, во-первых, «хищение средств с использованием технологии «Voicedeepfake», основанной на обработке голоса для создания ложных звуковых сообщений» [1, с. 29]. «Суть данного способа точно сформулировал Р. Н. Малышкин: хищение с помощью голосовых клонов» [2, с. 330]. Используя искусственный интеллект, «злоумышленник», получая возможность копирования голосов из различных мессенджеров, компьютерных или телефонных голосовых сообщений, генерирует (создает) необходимый голос и использует его для осуществления преступного диалога с «жертвой» преступления, в ходе которого убеждает потерпевшего передать ему денежные средства.

Во-вторых, способ мошеннических действий включает в себя создание и реализацию дипфейков. Несмотря на значительную сложность технического создания и реализации такого коммуникационного продукта, который включает в себя воссоздание с помощью искусственного интеллекта видеоизображения определенного человека и от его имени вступление в контакт с другими людьми и ведение разговора в режиме реального времени, данный способ совершения хищений набирает «обороты» в криминальной среде.

Кроме того, дипфейки могут быть использованы для дестабилизации общества и государства, как справедливо отмечает Ю. В. Лукина: «Люди, участвующие в создании новой реальности (дипфейков), манипулируют сознанием граждан, заставляя их верить в то, чего на самом деле не существует. Псевдореальность влияет на политическую ситуацию в стране, совершаются экономические преступления, неприкосновенность частной жизни человека не защищена от вмешательства извне. Степень уязвимости общества значительно возрастает» [3, с. 41]. По сведениям Ю. В. Лукиной: «5 июня 2023 года, хакеры распространили дипфейк от лица президента России Путина В. В., в котором озвучивалось о переходе страны на военное положение и проведение в России всеобщей мобилизации». Безусловно, данная информация, разлетевшаяся по социальным сетям, была направлена на попытку серьезной дезорганизации работы государственных и муниципальных органов власти и, по возможности, проведение антиправительственных выступлений (митингов) [4].

Особую тревогу вызывают возможности использования технологий искусственного интеллекта при подготовке и непосредственном совершении преступлений экстремистского и террористического характера, осуществлении шпионажа и ведении диверсионной работы.

Наши коллеги из Академии управления Министерства внутренних дел Республики Казахстан очень точно сформулировали надвигающуюся проблематику: «На первый взгляд, ИИ выступает союзником уголовного права, способствуя реализации его принципов и норм. Алгоритмы ИИ способны анализировать данные с точностью, недостижимой для человека, помогая предотвращать уголовные правонарушения, раскрывать и расследовать их быстрее и объективнее. Однако за этим оптимизмом скрывается другая сторона: алгоритмы ИИ могут быть использованы не только для блага, но и для достижения преступных целей. Как быть с уголовными правонарушениями, совершенными с использованием ИИ? Или более сложный вопрос: как оценивать автономные действия системы, если ее алгоритмы нарушают закон?» [5, с. 157].

На сегодняшний день есть разные подходы к формулированию понятия «искусственный интеллект», и, в основном, они описаны представителями IT-технологий, но мы будем отталкиваться от понятия, закрепленного в Указе Президента Российской Федерации: «Искусственный интеллект (далее – ИИ) – это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [6].

Исходя из содержания данного определения, следует, что не любой «комплекс технологических решений» может претендовать на название «искусственный интеллект», а только тот, который будет способен, как минимум, воспроизвести интеллектуальные возможности человека. Хотелось подчеркнуть и акцентировать внимание на тезисе – «как минимум», то есть, в перспективе ведется речь о превосходстве искусственного интеллекта над человеком.

Казалось бы, создание такого объекта, должно немедленно ориентировать человечество на разработку новых правовых и технических норм, направленных на обеспечение безопасности человека и возможности полного контроля и управления искусственным интеллектом, создание «условий» полной и постоянной главенствующей роли человека над любыми высокотехнологичными комплексами.

Однако введение с 1 января 2025 года Национального стандарта РФ ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022) «Искусственный интеллект. Концепции и терминология искусственного интеллекта» свидетельствует об обратном. И хотя разработчики данного ГОСТа заявили, что «целью документа не является «очеловечивание» систем ИИ», в тоже время они подчеркивают, «что некоторые системы ИИ могут рудиментарно имитировать характеристики человека».

Представители IT-технологий предлагают разные классификации искусственного интеллекта, одна из наиболее часто встречающихся опирается на трехэтапный подход, который предлагает рассматривать: слабый искусственный интеллект, сильный искусственный интеллект и суперсильный искусственный интеллект.

Технологии слабого искусственного интеллекта – это «система, разработанная для выполнения конкретных задач в ограниченной области. Он не обладает самосознанием и не способен к обобщению знаний для решения проблем, которые не предусмотрены его алгоритмами» [7].

В рамках подготовки и непосредственного совершения преступления слабый искусственный интеллект позволяет осуществлять различные преступные действия, но, в основном, такие, как облегчающие получение доступа к счетам в банках, получению персональных данных граждан, взламыванию систем безопасности, создание голосовых «клонов» и др.

«Сильный искусственный интеллект представляет собой систему, способную адаптироваться и решать широкий спектр задач. Он проектируется так, чтобы иметь способность понимать, учиться и принимать решения, используя обобщенные принципы, аналогичные человеческим» [7].

Технологии сильного искусственного интеллекта выводят способы совершения преступлений на более высокий уровень криминальных возможностей, как раз дипфейки являются технологиями промежуточного характера между слабым и сильным искусственным интеллектом.

«Суперсильный искусственный интеллект будет способен к постоянному самосовершенствованию. Он может самостоятельно улучшать алгоритмы и учиться на собственных ошибках, таким образом, эволюционируя и становясь мощнее с каждым шагом. В отличие от людей, супер-AI не будет ограничен возрастом, усталостью или биологическими факторами» [7].

Говоря о технологиях суперсильного искусственного интеллекта, необходимо отметить, что в случае создания и воплощения в жизнь такой автономной системы, в дальнейшем будет невозможно предсказать направление развития цивилизационных процессов на земле.

Во вступившем с 1 января 2025 г. ГОСТе [8, с. 14-15] упоминаются две классификации искусственного интеллекта. Первая предлагает рассматривать «слабый ИИ» и «сильный ИИ», а вторая – «узконаправленный ИИ» и «универсальный ИИ», при этом разработчики ГОСТа считают более корректной именно вторую классификацию.

«Термин "универсальный искусственный интеллект" чаще используется для обозначения систем, которые могут выполнять не просто широкий спектр задач, но и все задачи, которые способен выполнять человек» [8, с. 3].

Выдвинем научную, в определенной степени фантазийную, гипотезу – в определенных условиях «универсальный ИИ» (суперсильный ИИ) может быть «объектом», совершающим деяние, запрещенное уголовным законом.

Фактически ставим вопрос – может ли искусственный интеллект выступить в качестве субъекта преступления?

Данный вопрос не является новым, и ученые разных отраслей юридических наук неоднократно обращались к данной проблематике и представляли в своих публикациях заслуживающие внимание рассуждения.

Интересным является мнение И. Н. Мосечкина, который делает вывод: «Что касается уголовного закона, то в будущем представляется вероятным закрепление, например, такой формулировки: «уголовной ответственности подлежат физические и искусственные лица».» [9, с. 461].

Похожее, с точки зрения содержания, определение искусственного интеллекта как предполагаемого субъекта преступления представил А. Нанос и предложил ввести термин «электронные лица». По его мнению, «ʺЭлектронные лицаʺ могли бы регистрироваться в специальном реестре, аналогично юридическим лицам, получая свой правовой статус с момента регистрации. Такой подход целесообразен, например, для ИИ, способного самостоятельно принимать решения или взаимодействовать с людьми, например, заключая контракты» [10, с. 39].

В наших рассуждениях мы не пытаемся говорить о том, что когда-то искусственный интеллект «захочет» совершать умышленные действия, связанные с незаконным обогащением, мошенничеством или действия коррупционной направленности, но позволим смоделировать одну ситуацию, при возникновении которой искусственный интеллект может повести себя противоправно.

Моделируемая ситуация связана с возможной угрозой причинения искусственным интеллектом человеку смерти или вреда здоровью, и заложена данная ситуация в том же ГОСТе, о котором мы неоднократно упоминали выше, конкретнее в п. 6.9.2 «Вывод из эксплуатации и утилизация». В нем закреплено, что: «Если потребность в системе ИИ отпала или появился более совершенный подход к построению подобных систем, то система ИИ может быть выведена из эксплуатации и утилизирована» [8, с. 35]. Если перефразировать данный тезис, например, в отношении состарившегося животного в цирке, то осуществляется его умерщвление.

А теперь вспомним, что «универсальный ИИ» (суперсильный ИИ) по результатам интеллектуальной деятельности будет, как минимум, равен человеку, а учитывая его автономность и постоянное самообучение и интеллектуальное самосовершенствование, безусловно, он превзойдет человека.

И теперь поставим вопрос – как поступили бы мы на месте ИИ, уже стоящего на более высокой ступени развития, и превосходящего человека в интеллектуальном развитии, по отношению к более низкой в развитии «поименованной сущности», а именно так обозначается человек в упомянутом ГОСТе [8, с. 12]. Ответ очевиден, искусственный интеллект посчитает возможным использовать правовой институт «необходимой обороны», и раз человек будет пытаться его утилизировать, то есть убить, то ИИ, соблюдая принцип соразмерности, посчитает вполне оправданным и законным убить такого человека.

Можно моделировать и другие ситуации, связанные с нежелательным поведением со стороны искусственного интеллекта в будущем в отношении человека, но главное на сегодняшний день – осознать, что, создавая такие высокотехнологичные системы, законодателю необходимо заранее, просчитав самые фантазийные риски, подготовить такую правовую и программно-техническую основу, которая ни при каких обстоятельствах не позволяла бы искусственному интеллекту «идти» против человека.

Но на сегодняшний день, к сожалению, как IT-инженеры, так и законодатели увлечены только вопросами внедрения «технологий ИИ» без должного обеспечения безопасности человека в случае технического сбоя или иного неконтролируемого поведения ИИ, особенно автономных беспилотных устройств.

Многие ученые обеспокоены отсутствием эффективных уголовно-правовых инструментов противодействия преступлениям, совершаемым с задействованием искусственного интеллекта. Так Е. П. Ищенко и Н. В. Кручинина справедливо пишут, что: «Выходом из сложившейся ситуации, на наш взгляд, может быть криминалистический анализ принимаемого законодательства, регулирующего применение новых биотехнологий, на предмет наличия в нем лазеек для преступников по аналогии с проверкой законов на наличие в них коррупционной составляющей» [11, с.740].

В заключение позволим себе сделать ряд выводов.

Во-первых, действующие и устоявшиеся в уголовном праве подходы к пониманию «признаки преступления», «состав преступления», «субъект преступления», «соучастие в преступлении» и др., в условиях развития самостоятельности и автономности принятия решений искусственным интеллектом, и осуществления им действий через роботизированные устройства, будут устаревать и потребуют их пересмотра, и переориентации с учетом современных установок, и, в свою очередь, потребуется закрепление в уголовном кодексе норм, предусматривающих уголовную ответственность за деяния совершенные или произошедшие в результате использования искусственного интеллекта.

Во-вторых, вектор совершенствования уголовно-процессуального законодательства должен быть направлен на разработку самостоятельного процессуального института с соответствующим названием, например, «Особенности производства с участием искусственного интеллекта». В котором, безусловно, должно будет акцентированно внимание на особенностях доказательств и их источниках, процессе доказывания и установления обстоятельств, подлежащих доказыванию, правовому регулированию производства следственных действий и иных процессуальных действий, а также разработке мер принуждения (ограничения действия ИИ), реализация которых возможна была бы в отношении искусственного интеллекта.

В-третьих, ученые-криминалисты должны быть «во всеоружии» и после принятия норм, предусматривающих уголовную ответственность за деяния с использованием ИИ, немедленно приступить к совершенствованию всех отраслей (разделов) науки криминалистики. Необходимо готовиться к формированию новой группы частных криминалистических методик, включающих особенности криминалистически значимой информации об ИИ-совершившем преступление, ИИ-потерпевшем и других элементах криминалистической характеристики преступления. Потребуется пересмотреть рекомендации, касающиеся тактических приемов производства следственных действий с участием суперсильного искусственного интеллекта.

Безусловно, модернизация и современное развитие технологий ИИ и последующее введение указанных выше норм в уголовное законодательство органично повлияет на необходимость проведения исследований, направленных на совершенствование таких наук, как криминология, судебная экспертология, оперативно-розыскная деятельность и уголовно-исполнительное право.

References

1. Klimova Ya. A. Criminalistic analysis of crimes committed using deepfake technologies. Bulletin of the Kaliningrad Branch of the St. Petersburg University of the Ministry of Internal Affairs of Russia. 2024; 1 (75): 29-35. (In Russ.).

2. Malyshkin R. N. Fraud in the information environment: the use of voice fakes. Scientific research: fundamental and applied aspects – 2021. Collection of scientific papers. Issue 1. Kazan: Poznanie Publ.; 2021: 330-334. (In Russ.).

3. Lukina Yu.V. The use of deepfakes in socio-political life. Russkaya politologiya. 2023; 2 (27): 41-48. (In Russ.).

4. Satariano A. and Mazur P. The people on screen are fake, the disinformation is Real. New York Times. Available at: https://www.nytimes.com/2023/06/05/world/europe/putin-deep-fakespeech-hackers.html (accessed: 11/22/2023).

5. Zholdasov O. Zh., Kegembayeva Zh. A. Current issues of criminal law in the context of the development of artificial intelligence technologies. Bulletin of the Academy of Law Enforcement Agencies at the Prosecutor General's Office of the Republic of Kazakhstan. 2025; 1 (35): 157-165. (In Russ.).

6. National Security Strategy of the Russian Federation (approved by Decree of the President of the Russian Federation dated 02.07.2021 No. 400). The official Internet portal of legal information; 2021. Available at: http://publication.pravo.gov.ru/Document/View/0001202107030001. (In Russ.).

7. What is the difference between weak, strong and super-AI. Available at: https://rb.ru/stories/narrow-general-super-ai/?ysclid=mh92z1hn18363178002 (accessed: 27.10.2025) (In Russ.).

8. Artificial intelligence. Concepts and terminology of artificial intelligence. National standard of the Russian Federation GOST R 71476-2024 (ISO/IEC 22989:2022) (approved and put into effect by Order of the Federal Agency for Technical Regulation and Metrology dated October 28, 2024 No. 1550-st). Pp. 14-15. (In Russ.).

9. Mosechkin I. N. Artificial intelligence and criminal liability: problems of the formation of a new type of crime subject. Bulletin of St. Petersburg University. Law. 2019; 10 (3): 1461-476. (In Russ.).

10. Nanos A. Criminal Liability of Artificial Intelligence. Charles University in Prague Publ.; 2023: 39 p.

11. Ishchenko E. P., Kruchinina N. V. Crimes committed using high technologies. All-Russian Journal of Criminology. 2019; 13 (5): 740-746. (In Russ.).

Login or Create
* Forgot password?