Файл: Агаян Виолетта Арсеновна использование искусственного интеллекта в целях совершения преступления аннотация Данная статья.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 08.11.2023

Просмотров: 77

Скачиваний: 3

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Богдан Екатерина Александровна

студент 2 курса очной формы обучения

по направлению подготовки

40.02.01Право и организация социального обеспечения

Ростовского института (филиала)

ВГУЮ (РПА Минюста России)

e-mail:nekrutooo@vk.com

Научный руководитель-

Агаян Виолетта Арсеновна

ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЦЕЛЯХ СОВЕРШЕНИЯ ПРЕСТУПЛЕНИЯ

АННОТАЦИЯ:

Данная статья посвящена решению вопросов использования искусственного интеллекта в целях совершения преступлений. Эти проблемы связаны с совершением общественно опасного деяния, связанного с использованием искусственного интеллекта, или преступлений, совершенных самим искусственным интеллектом.

КЛЮЧЕВЫЕ СЛОВА: искусственный интеллект, преступление, информационная безопасность, киберпреступность, информация.

В последнее время мы ежедневно слышим новости про то, как тот или иной искусственный интеллект научился новым навыкам. На сегодняшний день компьютерные алгоритмы умеют копировать стили рисования известных художников, имитировать чужие голоса, создавать поддельные видеоролики с публичными личностями и многое другое. За всем этим очень интересно следить, но многие эксперты по компьютерной безопасности обеспокоены тем, что разрабатываемые технологии могут использоваться злоумышленниками для совершения преступлений.

Искусственный интеллект — свойство искусственных систем выполнять творческие функции, которые традиционно считаются прерогативой человека.

Некоторые формы ИИ являются или будут являться опасными по своей природе. К ним относятся случаи, когда системы с ИИ разрабатываются в военных целях, пусть даже и оборонительных. Если вы выгуливаете собаку без поводка, существует риск, что собака сбежит от вас, игнорируя ваши команды, и кого-нибудь покусает. С учетом этого риска, не принято выгуливать собаку в общественных местах без поводка. Однако не все люди придерживаются этого правила. Риск того, что собака может не послушаться команды хозяина и ранить других животных или людей, потенциально выше, чем в том случае, когда она на поводке. Системе с ИИ необходимы границы, которые бы исполняли роль собачьего поводка. Это не снимет все существующие риски выхода системы с ИИ из-под контроля, но значительно их снизит. Решающее значение для оценки рисков причинения вреда имеет вид ограничения, применяемый к ИИ. Если производитель четко указывает, для чего
предназначен ИИ и какие ограничения он имеет, то тогда стоит рассматривать риск, который может причинить система при использовании ее за границами тех условий, для которых она создавалась. Например, использование автономного автомобиля в снежную погоду, тогда как производитель заявил, что автомобиль не предназначен для эксплуатации в условиях снегопада, может рассматриваться как серьезный риск причинения вреда. Несчастные случаи более вероятны в условиях, для которых автомобиль не построен. Полагаем, что в таком случае, ответственность за причинение вреда ложиться на то лицо, которое, зная о существующих ограничениях, тем не менее использовало систему с искусственным интеллектом за рамками разрешенных границ [1]. Другой аспект, который необходимо рассмотреть, заключается в том, какой эффект вызывает машинное обучение и подобные методы. Большинство систем с ИИ предназначено для изучения своего окружения посредством обработки большого количества данных, так называемая технология bigdata. С помощью этой технологии ИИ принимает решения на основе того, что он смог изучить ранее. Это делает развитие ИИ непредсказуемым, то есть система может придумывать стратегии или принимать решения, которые являются непредвиденными для ее разработчиков и пользователей. Почти наверняка будут ситуации, когда в цепочке от производства до использования ИИ люди все сделали «правильно», но ИИ учится, тем не менее «не тому» [2].

В настоящее время существует множество возможностей ИИ, которые так или иначе отрицательно сказываются на жизни современного общества и в реальной жизни, и в сети.

Одним из методов использования искусственного интеллекта в целях совершения преступления является фишинг.

Фишинг - вид интернет-мошенничества, целью которого является получение доступа к конфиденциальным данным пользователей. Фишинг — это тип кибер-преступления, при котором преступники выдают себя за надежный источник в Интернете, чтобы вынудить жертву передать им личную информацию (например, имя пользователя, пароль, номер банковской карты) [3].



Фишинговая атака может принимать различные формы, и хотя она часто происходит по электронной почте, существует множество различных методов, которые мошенники используют для выполнения своих схем. Это особенно актуально сегодня, когда фишинг продолжает развиваться, порой удивляя своей изощренностью и степенью распространенности.

Эволюция современных технологий привела к появлению различных инноваций, и одна из них, в частности, уже всколыхнула медиа-ландшафт – речь идет про дипфейки. Дипфейк — это видео изображение или аудиозапись, которые были обработаны с помощью технологии искусственного интеллекта. Например, на видео с дипфейком можно сделать так, чтобы человек говорил или делал что-то, чего на самом деле в реальной жизни не было [4].

Дипфейки выглядят очень убедительно, и продолжающееся развитие технологий только усложнило различие между реальным и поддельным контентом. Хотя технология deepfake все еще относительно нова, мы регулярно наблюдаем ее значимую роль в пугающих тенденциях в сфере мошенничества и киберпреступности. Дипфейки стали серьезной проблемой для домашних и корпоративных пользователей, поскольку они используются преступниками для проведения мошеннических афер и атак с методами социальной инженерии, а также для распространения дезинформации.

В настоящее время боты стали еще одной формой взаимодействия машин с людьми, и в такой же степени это инструмент совершения различных преступлений. Бот — это специальная программа, созданная для выполнения простых задач. С помощью нейросетей боты уже научились имитировать поведение людей — и это открыло как новые возможности (боты-ассистенты, чат-боты техподдержки и т. п.), так и создало новые проблемы. [5].

Деньгам грозят не только поддельные личности, но и каналы коммуникации с банками — чат-боты. Они становятся все популярнее с каждым годом. Это напрямую связано с тем, что клиенты ожидают от чат-ботов максимально быстрого ответа на свои вопросы. Самые популярные сценарии преступлений с использованием банковских чат-ботов — сбор информации о пользователе, рассылка вредоносных программ и подмена робота на мошенника [6].

Специалисты по безопасности обнаружили в банковских ботах уязвимости, которые дают доступ к персональным данным клиентов и переписке в чате. Преступники могут: узнать номер и срок действия банковской карты; получить доступ к балансу счета и номеру телефона;
подтвердить перевод денег на другой счет, если код подтверждения приходит в чат.

При этом доступ к банковскому чат-боту не даст преступникам полного доступа к лицевому счету жертвы. Боты используются в банковских приложениях, мессенджерах, соцсетях и контакт-центрах. Наиболее безопасным считается общение через официальное приложение или личный кабинет на сайте банка, если пользователь прошел в них аутентификацию [7].

Очень часто на промышленных предприятиях происходят трагические ситуации, связанные с роботами, вышедшими из строя, а иногда и с абсолютно исправными роботами, имеющими недостатки в разработанной для их работы системе. Так, в марте 2017 года специалист по техническому обслуживанию автоматизированных систем была убита роботом на заводе. Это предприятие было разделено на цеха, в каждом из которых трудилась собственная группа роботов. При этом машина из одного цеха никак не могла попасть в другой — по крайней мере, так было принято считать. Убивший ее робот каким-то образом сумел открыть автоматическую дверь и пробраться в соседний цех, после чего он поднял тяжёлую металлическую деталь и сбросил её на голову женщины. Вернее, он попытался положить эту деталь в контейнер, где уже лежала другая такая же, что было полностью исключено технологией и логикой работы этой машины. Разбиравшаяся с инцидентом комиссия так и не смогла понять, что стало причиной неадекватного поведения робота, и как он сумел проникнуть в закрытое помещение, доступ в которое был для него категорически запрещён.

В результате исследования искусственного интеллекта можно сделать следующие выводы. Наука не будет стоять на месте, ведь благодаря усилиям ученых среди людей появился искусственный интеллект. Люди думают, что это хорошо, потому что ИИ поможет людям за счет разработчиков. Но есть одно "но" - ИИ может принести не только пользу, но и вред. В конце концов, злоумышленник может создать искусственный интеллект и запрограммировать его на совершение преступления в своих интересах. Искусственный интеллект не может быть признан независимым субъектом (ни физическим, ни юридическим лицом), потому что это всего лишь программа, разработанная программистом, и он не может быть осведомлен о совершении преступных деяний, потому что лицо, создавшее его, является программой, разработанной для выполнения воли создателя. ИИ может быть использован в качестве инструмента и средства совершения преступлений, поскольку он может непосредственно воздействовать на объект преступления или способствовать влиянию со стороны власти преступника. Признание искусственного интеллекта потерпевшим в настоящее время является несвоевременно, поскольку развитие самообучающихся компьютерных программ еще не достигло такого уровня, чтобы их сравнивали с людьми в контексте социальной значимости [8].


Библиографический список

  1. Ерахина Е. А., Тирранен В. А. Преступления, совершаемые с использованием искусственного интеллекта: проблема квалификации и расследования // Вестник Сибирского юридического института МВД России. – 2019. - № 2 (35). С. 36-41.

  2. Сокова А. А. Искусственный интеллект: возможности и необходимость его уголовно-правовой охраны // Молодой ученый. 2019.№ 16. С. 122-125.

  3. Петрищева Е.Н Основы информационной безопасности. Учебное посольство. Ростов-на-Дону.2016. №4

  4. Никитин А.Е. Эпистемология искусственного интеллекта: автореф. дисс. … канд. юридич. наук. Архангельск, 2007

  5. Смирнов Е.В. Проблема искусственного интеллекта: автореф. дисс. … канд. юридич. наук. Магнитогорск, 2012

  6. Антонова, Е. Ю. Технологии искусственного интеллекта - субъект преступления или орудие / средство совершения преступления? / Е. Ю. Антонова // Юридический вестник Кубанского государственного университета. – 2022. – № 1. – С. 31-39.

  7. Грачева, Ю. В. Роботизация и искусственный интеллект: уголовно-правовые риски в сфере общественной безопасности / Ю. В. Грачева, А. А. Арямов // Актуальные проблемы российского права. – 2020. – Т. 15. – № 6(115). – С. 169-178.

  8. Лапунин М. М. Обстоятельства, исключающие преступность деяния, и научно-технический прогресс // Вестник Академии Генеральной прокуратуры Российской Федерации. 2017. № 6 (62). С. 81–87.