Файл: Угрозы и перспективы Chatgpt, для обеспечения политики национальной безопасности.docx
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 08.11.2023
Просмотров: 14
Скачиваний: 1
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
Угрозы и перспективы ChatGPT, для обеспечения политики национальной безопасности
С развитием технологий и компьютерных наук, искусственный интеллект (ИИ) стал одной из самых заметных и значимых областей науки и технологии. За прошедшие десятилетия ИИ прошел путь от досужих разговоров до систем, способных совершать сложнейшие расчеты и принимать реальные решения.
История искусственного интеллекта началась в 1956 году, когда Джон Маккарти создал термин "искусственный интеллект". В то же время широкое распространение получили первые системы машинного обучения, включая линейные регрессии и деревья решений. В начале 1960-х годов были разработаны первые экспертные системы, которые использовали знания экспертов для решения сложных задач. Развитие нейронных сетей В 1980-х годах разработка нейронных сетей стала наиболее активно изучаемой областью искусственного интеллекта. Обучение нейронных сетей, основанное на подобии человеческого мозга, стало основой для создания новых архитектур ИИ, включая метод глубокого обучения. Это привело к современным системам, способным распознавать лица, названия объектов на фотографиях и голосовые команды. В 1997 году IBM разрабатывает Deep Blue – первый компьютер, который победил человека в шахматах. Искусственный интеллект продолжает развиваться с появлением новых методов машинного обучения и все более сложных нейронных сетей. Современные системы ИИ, в том числе нейронные сети глубокого обучения, могут обрабатывать большое количество данных и совершать сложные вычисления многократно быстрее, чем человек. Примером такого ИИ служит Chat GPT, разработанный компанией OpenAI.
GPT был создан с использованием глубокого обучения и нейронных сетей.
В 2018 году OpenAI выпустила GPT-2 с мощностью более 1,5 миллиарда параметров, что позволило ему создавать очень качественный текст, включая новости, статьи, поэзию и диалоги. Однако, из-за опасений относительно злоупотребления ботом для создания фейковых новостей и распространения дезинформации, OpenAI решила не выпускать его в открытый доступ.
В 2019 году OpenAI выпустила более маленький, но все еще мощный GPT-2. Теперь модель состояла из 774 млн параметров и была доступна для участия в исследованиях, но ограничения на ее использование еще необходимы.
В 2020 году OpenAI выпустила GPT-3 с параметрами мощностью 175 миллиардов. Эта версия модели является одной из наиболее продвинутых AI-моделей, созданных когда-либо, и может выполнять широкий диапазон задач, от создания текста до перевода, генерации музыки и многое другое.
Государство может использовать GPT во многих сферах, так как данная технология имеет большое количество преимуществ:
-
Скорость обработки данных: ИИ легко может обрабатывать значительные объемы данных в режиме реального времени. -
Анализ данных: Использование ИИ для анализа данных из его базы данных может помочь государствам выявить тенденции и образы поведения различных социальных групп, например, в медицине или экономике. -
Автоматизация процессов: ИИ можно использовать для улучшения процессов, таких как документирование государственных объектов, регистрация населения, бухгалтерские записи и т.д. -
Повышение эффективности передачи государственной информации: Использование ИИ в информационных системах поможет ускорить обработку и передачу информации, в том числе с целью улучшения внутреннего совместного навыка в правительстве. -
Разработка новых продуктов и услуг: ИИ способен обработать данные и формировать новые идеи, что часто приводит к разработке новых продуктов и услуг, которые могут улучшить качество жизни граждан и сделать органы государственной власти более эффективными.
Государства могут использовать настолько эффективный инструмент, для повышения качества жизни граждан, за счёт ускорения бюрократических процессов с помощью GPT технологий. Общество в целом может выиграть от массового использования ИИ, так как он может позволить упростить процессы коммуникации и поиска информации. Отдельные граждане так же могут быть заинтересованы в использовании ChatGPT, так как он может облегчить их жизнь или даже помочь им в их профессиональной деятельности. Искусственный интеллект безусловно может быть полезен как для государства и общества, так и для гражданина. Но за удобства предоставляемое нам технологиями, в информационный век принято расплачиваться безопасностью.
ChatGPT представляет большую угрозу для обеспечения политики национальной безопасности:
-
Фишинг: ИИ может использоваться мошенниками для создания поддельных сайтов и электронных писем, которые могут выглядеть аутентично. -
Поддельные отзывы: Мошенники могут использовать ИИ для создания поддельных отзывов на веб-сайтах, что может привести к тому, что конечный пользователь будет вводить личные данные и финансовые данные на поддельном сайте. -
Распространение вирусного контента: Используя ИИ мошенники могут создавать поддельные социальные медиа-аккаунты и распространять вирусный контент, что может привести к утечке персональных данных. -
Финансовый мошенничество: ИИ может быть использован для создания поддельных инвестиционных предложений, которые могут привести к потере вложенных средств. -
Сообщения с поддельной идентификацией: ИИ может быть использован для создания сообщений с поддельной идентификацией, которые мошенники могут использовать для атак на системы и получения доступа к чужому софту. -
ИИ создают угрозу для рынка труда: GPT превосходно справляется с работой, связанной с информацией, что делает её бесплатной заменой маркетологам, репетиторам и программистам не высокого уровня. -
ИИ может создавать фейковые новости: ИИ может сгенерировать ложную новость, тем самым может оскорбить или оклеветать кого-то. -
ChatGPT несёт угрозу для образования: студенты могут использовать ChatGPT для написания дипломных работ, что может нанести сильный удар по системе образования. -
ChatGPT нарушает авторские права: несмотря на то, что нейронные сети пишут уникальный текст, они базируются на работах людей, что вызывает проблемы с интеллектуальной собственностью и нарушением авторских прав
Этот список можно продолжать ещё очень долго, ведь с появление настолько сильного инструмента для обработки информации нашлись злоумышленники, которые готовы им пользоваться, для достижения своих целей. Основная опасность состоит в том, что ChatGPT является технологией с нулевым порогом вхождения, то есть каждый человек может использовать его. Для этого не нужно быть опытным программистом, достаточно уметь пользоваться мобильным телефоном. Если раньше для того чтобы совершать преступления в информационной среде, преступник должен был обладать профессиональными навыками программирования, то в наше время с помощью ChatGPT можно написать вредоносный код, при этом не имея компетенций хакера. Масло в огонь подливает то, что ИИ перестал быть нишевой технологией для программистов и математиков, а стала общедоступной и главное бесплатной. Доступность и простота использования делают из ChatGPT прекрасный инструмент для мошенников или для террористов.
Для решения данных проблем, на мой взгляд, необходимо заблокировать ChatGPT, так, например, уже поступили власти Китая и Испании, в них не просто запрещено использование ChatGPT, но ведётся борьба с сервисами, предоставляющими возможность использовать данный ИИ. Но Россия не должна отказываться от такой технологии, уже сейчас Сбербанк разрабатывает нейронную сеть GigaChat, выполняющая такие же функции, как и ChatGPT, но лучше справляющаяся с генерацией текстов на русском языке. Использование GigaChat позволит не переживать пользователям о том, кто видит их запросы, самое главное то, что чат сбербанка не сможет помогать злоумышленникам, к тому же появиться возможность отследить людей, делающих подозрительные запросы. Ещё одним обязательным требованием для борьбы с мошенничеством с помощью современных технологий, является повышение информационной и правовой грамотности граждан, ведь человек знакомый с ИИ с меньшей долей вероятности сможет стать жертвой мошенников.
В информационный век каждый человек должен внимательно следить за бурно развивающимися технологиями и инновациями. Государства и общество должны так же держать руку на пульсе времени, иначе может сложится опасная ситуация, при которой технологии начнут приносить больше вреда, чем пользы.