Файл: Дипломная работа роботизированные комплексы военного назначения перспективы развития и эффективность применения тема.docx

ВУЗ: Не указан

Категория: Дипломная работа

Дисциплина: Не указана

Добавлен: 22.11.2023

Просмотров: 372

Скачиваний: 7

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

СОДЕРЖАНИЕ

ВВЕДЕНИЕ

1 Основы роботизированных комплексов военного назначения

1.1 Определение понятия "роботизированные комплексы"

1.2 Преимущества роботизированных комплексов

1.3 Недостатки роботизированных комплексов в боевой работе

2 Применение роботизированных комплексов военного назначения в боевых условиях

2.1 Беспилотные летательные аппараты

2.2 Медицинский робот

2.3 Наземные робототехнические комплексы военного назначения

2.4 Высокоточное оружие

3 Перспективы развития роботизированных комплексов военного назначения

4 Этические и правовые аспекты создания и применения технологий ИИ в военном деле

5 Безопасность и экологичность

5.1 Анализ опасных и вредных факторов, возникающих на рабочем месте оператора ПЭВМ

5.2 Влияние ПЭВМ на организм человека

5.3 Нормативные требования к организации работы оператора ПЭВМ

5.4 Расчёт искусственного освещения помещения при организации работы на ПЭВМ

5.5 Мероприятия по защите человека при организации работы на ПЭВМ

ЗАКЛЮЧЕНИЕ

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

4 Этические и правовые аспекты создания и применения технологий ИИ в военном деле



Этические проблемы робототехники на сегодняшний день являются объектами интенсивных исследований как в России, так и в зарубежных странах. В частности, рассматриваемые вопросы касаются как этики применения робототехнических технологий в повседневной жизни людей, так и этических правил применения роботов в различных областях экономики, науки и техники.

Важность вопроса рассмотрения этических проблем робототехники вызвала к жизни возникновение новой отрасли этики – робоэтики (Roboethics), основоположником которой стал итальянский ученый-робототехник, исследователь этических, правовых и социальных последствий робототехники Д. Веруджио.

Данная отрасль этики призвана разрабатывать и реализовывать различные прикладные решения, связанные с улучшением жизни человека и общества посредством применения робототехники. Кроме того, одним из направлений нового научного этического течения было определено противостояние несанкционированному и вредному использованию роботов, а также пресечение различных фактов причинения вреда человечеству со стороны искусственного разума.

Если на начальном этапе возникновения робоэтики данное направление включало в себя комплекс различных этических категорий, прямо связанных с искусственным интеллектом, то позже Д. Веруджио определил, что робоэтика – это этика разработчиков, создателей и пользователей автономных машин. Именно данные лица в процессе своей деятельности формируют основу этических взаимоотношений, возникающих при разработке, производстве и применении роботов.

Сложность в трактовку понятия робоэтики вносит дискуссионность вопроса относительно основных характеристик роботов, которые разные ученые формулируют по-разному. Естественно, от того, как позиционируется робот – в качестве машины или же эволюционирующего организма – целиком и полностью зависит процесс наделения его поведения этическими аспектами и критериями. Соответственно проблемы определения этических постулатов поведения автономных роботов можно решить только после того, когда исследователи придут к единому мнению относительно самого понятия «робот», что в ближайшем будущем не представляется возможным по причине постоянного динамичного развития науки и техники и наделения роботов все новыми и новыми свойствами.


Однако, несмотря на сложность рассматриваемого вопроса, уже сейчас остро стоит задача определения этических норм применения роботов, особенно их автономных модификаций, в различных отраслях и в особенности – в военной индустрии.

В первую очередь необходимо рассмотреть смежное с этикой понятие – гуманизм – и определить возможность его применения в качестве оценки действий автономных военных роботов. И.И. Лукашук указывает, что «гуманитарное право, в частности, выступает как способ ограничения "бедствия войны путем определения недопустимых методов и средств ведения военных действий", представляет собой совокупность норм и принципов, применяемых в вооруженной борьбе и в связи с такой борьбой». Как отмечает И.П. Блищенко, нормы гуманитарного права распространяются на контроль режима прав и свобод человека не только в условиях военных конфликтов, но и в мирное время.

Также необходимо обратиться к Женевской конвенции 1949 г., в которой определены принципы ведения гуманной войны. Согласно данному документу к таким принципам следует отнести:

  • военную необходимость;

  • дифференцирование военных и мирных жителей, которые не принимают участия в конфликте;

  • пропорции между потенциальными военными целями и ущербом.

Как верно отмечает Р. Спарроу, к таким принципам можно отнести и оговорку Мартенса, запрещающую применение оружия, противоречащее «принципам гуманности, человечности и здравого смысла». Но как быть, если оружию отдано на откуп право действовать практически самостоятельно? Если в программном обеспечении автономного военного робота заложен алгоритм самостоятельного принятия решений? Ведь даже высокоинтеллектуальные роботы не могут испытывать человеческие эмоции и чувства, и здравый смысл им также не свойствен. При этом действия автономного военного робота могут идти вразрез не только с моральными принципами, но и с правовыми нормами.

В связи с изложенным научная общественность поднимает множество вопросов, касающихся проблемно-правового поля робоэтики. Так, по мнению А.В. Габова и И.А. Хавановой, «роботизация переводит военнослужащих из психологически понятного состояния войны как борьбы человека против человека в плоскость его борьбы с "разумной машиной". Также авторы отмечают проблему коммуникации («прежде всего между людьми-исполнителями и роботами-командирами»), результатом которой может быть возникновение конфронтации, последствия которой предсказать достаточно сложно.



Как отмечает Г.В. Игнатенко, во время течения вооруженных конфликтов как индивиды, так и государства, должны подчиняться определенным нормам поведения, соответствующим требованиям гуманитарного права. Подчинение нормам поведения свойственно субъектам, осознающим указанные нормы. Напротив, роботы лишены такого осознания, соответственно нельзя требовать от автономных машин выполнения норм и правил поведения в рамках ведения боевых действий.

Одним из вопросов, которые необходимо рассмотреть в разрезе анализа этики «автономного разума», вовлеченного в военные действия, является следующий: кто должен нести ответственность за действия автономной системы вооружения в условиях военного времени? Кого мы должны считать ответственным за военное преступление в ситуации, когда решение автономная система вооружения приняла самостоятельно? Способна ли технология удовлетворить требования международного права наряду с «переплетением» гражданского и военного характера технологий двойного назначения? Как решать вопросы, касающиеся идентичности человеческой природы в том случае, если участниками правоотношений в рамках вооруженного конфликта выступают роботы?

Мнение А.Н. Савенкова и А.В. Кудашкина заключается в том, что «в числе правовых проблем применения автономных систем вооружения, построенного на принципах искусственного интеллекта, следует отметить отсутствие механизма юридической ответственности за вред, причиненный в результате их использования».

Если рассматривать в качестве субъекта юридической ответственности разработчика, то в данном случае выбор будет неверным по двум причинам. Во-первых, передав такую систему пользователям и подробно проинструктировав их касательно особенностей применения такой системы, программисты не несут ответственности за ее действия, ответственность берут на себя те, кто все-таки решается послать автономное оружие в бой.

Во-вторых, и это более важно, возможность того, что автономная система будет делать выбор, отличный от тех, которые предсказывают и поощряют его программисты, – это неотъемлемая часть утверждения, что она автономна. Если система обладает достаточной автономией, которую она извлекает из своего опыта и окружения, то ей будет свойственно принимать самостоятельные решения. Чем более автономна система, тем больше у нее возможностей делать выбор, отличный от тех, которые был предопределен разработчиками. В какой-то момент уже невозможно будет возложить на программистов ответственность за результаты, которые они не могли ни контролировать, ни предсказывать. Связь между программистами,
разработчиками и результатами деятельности системы, которая обосновывала бы «присвоение» ответственности, нарушается автономией системы. Возложить на программистов ответственность за действия их творения, как только оно станет автономным, было бы аналогично возложению ответственности на родителей за действия их детей, как только они выйдут из-под их опеки.

Если выбирать в качестве ответственного военного специалиста, в чьем подчинении находится система, то можно предположить, что офицер, отдавший приказ о развертывании системы вооружений, должен нести ответственность за последствия ее применения. Риск того, что могут возникнуть различные сложности в данном ключе, учитывается, когда принимается решение привести автономное оружие в действие. В данном случае следует утверждать, что те, кто отдал приказ к действию автономной системы вооружения, должны нести ответственность за смерти, которые наступают в результате действий такой системы.

Есть мнение, что использование автономной системы вооружения похоже на использование дальнобойной артиллерии. Риск того, что снаряды могут попасть в цель, учитывается, когда принимается решение о стрельбе. Если снаряды убивают людей, которые изначально не выступали целью поражения, ответственность за нападение несет командир.

Однако данный способ решения проблемы идет вразрез с автономностью рассматриваемого вида оружия. Что отличает автономные системы вооружения от существующего оружия, так это то, что они имеют возможность выбирать свои собственные цели. Поэтому применение автономного оружия сопряжено с риском того, что военнослужащие будут нести ответственность за действия машин, решения которых они не контролировали. Чем более автономны системы, тем выше риск. В какой-то момент будет уже неверно возлагать ответственность за действия машины на командира. Если машины действительно сами выбирают себе цели, то нельзя считать командира ответственным за последующие смерти.

Соответственно конечным возможным фокусом ответственности является сама машина. Некоторые исследователи считают, что машину можно рассматривать в качестве «искусственного агента» или «специального субъекта». Однако, как уже было сказано, агенты, в отличие от машин, могут нести моральную ответственность.


О.В. Сибилева указывает, что действия автономных вооруженных систем в обязательном порядке скоординированы с программами, активация которых находится в компетенции оператора. Соответственно в любой ситуации, когда действие осуществляет автономная система вооружения, присутствие человека подразумевается априори. Наравне с этим автор отмечает, что, несмотря на непреложность самого факта наличия ответственности оператора, пределы ответственности определить в данном случае довольно сложно, так как автономность вооруженных систем может проявляться как в большей, так и в меньшей степени.

М. Норман, указывая на необходимость учета человеческого фактора в деятельности военных автономных роботов, отмечает, что из-за метафорического использования понятия автономии автономия роботов часто рассматривается как «черный ящик» в дискуссиях об автономных военных роботах. Развитие автономных военных роботов не обязательно означает конец ответственности человека, как иногда предполагают нарративы, утверждающие, что человеческие акторы неизбежно потеряют контроль над все более автономными роботами.

Таким образом, было бы неэтично использовать автономные системы, включающие сложные искусственные интеллекты, в военных действиях, если кто-то не может нести ответственность за решения, которые они принимают там, где они могут угрожать человеческой жизни. Однако невозможность наказать машину означает, что мы не можем возложить на нее ответственность. Соответственно использование автономных систем вооружения на войне несправедливо либо по отношению к потенциальным жертвам военных действий, либо по отношению к офицеру, который будет нести ответственность за использование автономных вооруженных систем.

Существует также мнение о возможности возложения ответственности за действия автономных военных роботов на международные организации, так как принятие соответствующих конвенций будет способствовать снижению риска несанкционированного применения автономных систем вооружения. Противоположную позицию занял исследователь Дж. Кель. Как он считает, создание международного договора в области запрещения автономных систем вооружения повлияло бы на непрерывный технический прогресс. Также полный запрет на автономное оружие сопряжен со значительными рисками, поскольку производство и использование автономных военных роботов может уйти целиком в теневой бизнес. Выход, который видит данный исследователь, – призвать государства к разработке самонаводящегося оружия открытым и транспарентным образом в соответствии с правилами ведения войны.