Файл: Диалектическое единство данных и методов в информационном процессе (Основные понятия информации).pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 29.03.2023

Просмотров: 98

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

К сожалению, большинство современных сложных моделей искусственного интеллекта являются сложными «черными ящиками», которые не в состоянии объяснить, как они вывели конкретную рекомендацию или решение.

Лидеры современного информационного рынка в области данных и аналитики должны изучать потенциальное влияние новых тенденций на бизнес и соответствующим образом корректировать бизнес-модели и проводимые операции, противном случае они рискуют потерять конкурентные преимущества перед теми, кто уделил этому вопросу достаточно внимания.

Интернет вещей (IoT) – это современная революционная технология. Не важно, в применении к автомобилям, роботам или сельскохозяйственным установкам, интернет вещей использует искусственный интеллект, чтобы эффективно выполнять те задачи, которые обычно выполнялись операторами-людьми [6].

Интернет вещей используется в роботах, двигателях, дронах, приборах и компоненты. Таким образом, они охватывают четыре сферы применения: воздух, вода, земля и цифровое пространство. Все они работают с различной степенью мощности, уровнем координации между собой и уровнем интеллектуальной сложности. Например, специалист может управлять дроном в воздухе, чтобы давать команды полностью автономно работающему роботу, например, в поле [6].

Расширенная аналитика (Augmented analytics) – следующая революционная технология в области обработки данных и аналитики. Она использует машинное обучение и технологии искусственного интеллекта для преобразования методов разработки, потребления и совместного использования аналитического контента.

В настоящее время в распоряжении аналитиков постоянно увеличивающееся количество данных для обработки и анализа с целью поддержки принятия оперативных и стратегических решений в компаниях. Учитывая огромные объемы данных, использовать все возможности извлечения информации из них не представляется возможным. Это означает, что ответственные лица компаний могут принять не совсем верные ключевые решения из-за отсутствующей информации.

Ожидается, что к 2020 году более 40% задач анализа данных будут автоматизированы, количество специалистов в области анализа данных в частных сферах применения будет расти в пять раз быстрее по сравнению с промышленными областями применения [6].

Расширенная аналитика станет основным мотиватором новых покупок в интернет-магазинах, в аналитике систем класса Business Intelligence (BI), а также платформ машинного обучения.


Лидеры в области обработки данных и аналитики обязаны планировать внедрение расширенной аналитики по мере развития возможностей платформы.

Цифровой двойник (Digital Twin) – цифровая копия физического объекта, процесса или системы, помогающая оптимизировать эффективность бизнеса. Цифровые двойники могут взаимодействовать между собой, для создания двойников более крупных систем, таких как электростанция, и даже город. Идея цифровых двойников не является новой. Она взяла свое начало в CAD-системах компьютерной поддержки проектирования, но современные двойники имеют четыре важные отличительные особенности [6]:

  • Надежность моделей – с акцентом на том, что они поддерживают конкретные области бизнеса;
  • Связь с реальным миром – потенциально в режиме реально времени с целью мониторинга и контроля;
  • Применение расширенной аналитики больших данных и искусственного интеллекта для создания новых возможностей для бизнеса;
  • Возможность взаимодействовать с двойниками и реализовывать прогнозные сценарии типа «а что, если».

Сегодня основное внимание уделяется цифровым двойникам в технологии интернета вещей (IoT), которые могут улучшить поддержку принятия решений на предприятии за счет предоставления информации о техническом обслуживании и надежности, понимания того, как продукт может работать более эффективно, данных о новых продуктах и повышения эффективности. Цифровые дневники предприятий создаются для мониторинга в реальном времени и повышения эффективности организационных процессов [6].

Иммерсивные технологии, которые также называют технологиями расширенной реальности. К ним также откосятся виртуальная и дополненная реальность, а также 360°-видео. Эти технологии обеспечивают эффект полного или частичного присутствия пользователя в альтернативном пространстве и тем самым могут влиять на субъективный опыт.

До 2028 года разговорные платформы, которые используются при взаимодействии пользователей с внешней средой, и такие технологии, как дополненная реальность (AR), смешанная реальность (MR) и виртуальная реальность (VR), которые влияют на то, как пользователи воспринимают мир, создадут новую иммерсивную реальность. Технологии расширенной реальности имеют огромный потенциал развития, уже следующее поколение виртуальной реальности (VR) будет способно воспринимать формы и отслеживать положение пользователя, а смешанная реальность (MR) будет позволять людям взаимодействовать с внешним миром.


К 2022 году 70% предприятий будут экспериментировать с иммерсивными технологиями для коммерческого использования, а 25% будут использовать данные технологии на производстве. Будущее разговорных платформ, которые варьируются от виртуальных личных помощников до чат-ботов, будет включать в себя расширенные виртульаной реальностью сенсорные каналы, которые позволят платформе распознавать эмоции на основе мимики, они станут более интерактивными.

В конце концов, технология и прогресс сделают доступным взаимодействие людей с сотнями периферийных устройств, начиная от компьютеров и заканчивая автомобилями.

К 2020 году 50 процентов аналитических запросов будут генерироваться с помощью поиска, обработки естественного языка или голоса, или же будут генерироваться автоматически. Необходимость анализировать сложные комбинации данных и делать аналитические данные доступными для всех заинтересованных лиц организации приводит к ее более широкому использованию. Инструменты аналитики будут становиться такими же простыми в использовании, как интерфейс поиска данных или разговор с виртуальным помощником.

Блокчейн – это распределенная база данных, у которой устройства хранения данных не подключены к общему серверу. Блокчейн является источником данных, а не базой данных, и не заменяет существующие технологии управления данными.

Технология позволяет компаниям осуществлять операции и работать с недоверенными источниками без необходимости использования регулирующего центра (например, банка). Блокчейн потенциально уменьшает издержки, сокращает время проведения транзакций и увеличивает денежный поток. Модели, построенные в данный момент исключительно на технологии блокчейна могут быть технологически незрелыми и сложными для масштабирования. Но тем не менее, следует обращать внимание на развитие данной технологии [6].

Непрерывный интеллект - к 2022 году более половины новых крупных бизнес-систем будут использовать непрерывный интеллект, который в свою очередь использует контекстные данные в режиме реального времени для улучшения решений.

Непрерывный интеллект – это паттерн проектирования, в котором аналитика в реальном времени интегрируется в бизнес-операции, обрабатывая текущие и исторические данные для предложения действий в ответ на событие. Он обеспечивает автоматизацию или поддержку принятия решений. Непрерывный интеллект использует несколько технологий, таких как расширенная аналитика, обработка потока событий, оптимизация, управление бизнес-правилами и машинное обучение.


Непрерывный интеллект – это серьезное нововведение в работе команд, занимающихся данными и аналитикой. Это грандиозная задача и прекрасная возможность для команд аналитиков и BI-специалистов помочь компаниям принимать более разумные решения в режиме реального времени уже в 2019 году. Эту технологию можно рассматривать, как окончательный вариант оперативного анализа данных (Business Intelligence).

Технология расширенного управления данными (Augmented Data Management) использует возможности машинного обучения и механизмы искусственного интеллекта, чтобы создать механизмы управления информацией компании, включая качество данных, управление метаданными, управление основными данными, их интеграцию, а также самонастройку систем управления базами данных (СУБД). Она автоматизирует многие задачи и позволяет менее квалифицированным пользователям самостоятельно использовать и интерпретировать данные. В этом случае высококвалифицированные технические специалисты могут сосредоточиться на более важных задачах [7].

К концу 2022 года количество задач, выполняемых вручную в области управления данными, уменьшится на 45% за счет внедрения машинного обучения и автоматизированного управления уровнем обслуживания [7].

Коммерческий искусственный интеллект и машинное обучение. Gartner прогнозирует, что к 2022 году, 75% новых решений для конечных пользователей, в которых используются методы искусственного интеллекта и машинного обучения, будут построены на коммерческих решениях, а не на платформах с открытым исходным кодом.

Коммерческие поставщики решений в области информационных технологий встраивают драйверы в системы с открытым исходным кодом, тем самым предоставляя дополнительные коммерческие функции, необходимые для масштабирования искусственного интеллекта и машинного обучения в такие области автоматизации, как управление проектами и цифровыми двойниками, повторное использование, прозрачность и исследование происхождения данных, а также взаимодействие и интеграция с прочими платформами, чего так не хватает платформам с открытым исходным кодом.

Серверы постоянной памяти - это новые технологии с использованием постоянной памяти (persistent-memory technologies) помогут снизить затраты и сложность внедрения архитектур с поддержкой вычислений в оперативной памяти (IMC). Постоянная память представляет собой новый уровень памяти между DRAM и NAND флэш-памятью, который может послужить экономичным запоминающим устройством для высокопроизводительных нагрузок. Он имеет определенный потенциал, который может быть использован для повышения производительности приложений, их доступности, времени загрузки, методов кластеризации и методов безопасности, сохраняя при этом затраты под контролем. Он также поможет организациям снизить сложность их прикладных программ и архитектур данных за счет снижения необходимости дублирования данных.


Объем данных быстро растет, и актуальность преобразования обычных данных в ценные в режиме реального времени растет вместе с ним. Новые серверные нагрузки требуют не просто более высокой производительности процессора, но и большего объема памяти и более быстрого сохранения данных.

Итак, современные программные продукты статистической обработки данных реализуют функции анализа данных, добычи информации, управления данными, визуализации данных с использованием различных современных методов. В системах используется широкий набор различных аналитических инструментов и методов: графика, разведочный анализ данных, описательные и внутригрупповые статистики, быстрые основные статистики, корреляции [4].

Но в то же время недостаточно просто использовать современные технологии анализа и обработки данных. Существует ряд причин неудач больших проектов. В первую очередь это дефицит специалистов, которые обладают знаниями и навыками в сфере анализа данных, управления данными и программирования. Недостаточный уровень знаний участников проекта, отсутствие постановок задач, анализа и критериев эффективности их решения, неосведомленность бизнес-аналитиков о потенциале новых технологий, методов и средств их анализа приводят к краху проекта [4].

Неправильное проектирование хранилища данных может привести к ошибкам в анализе данных. Ведь современный мир перешел не просто к большим данным, а к очень большим данным и из-за роста объема данных нарушается работоспособность хранилищ данных.

Главной проблемой при работе с данными является не только увеличение их объема, но также изменение их характера.

С появлением, в частности, «больших данных» предприятия осознали важность и необходимость работы с большим объемом структурированных и неструктурированных данных, но для того, чтобы внедрить эти процессы, необходимы четкий план действий и правильно выбранные инструменты оптимизации процессов. Получить ожидаемый положительный результат от больших данных многие компании не могут, так как они используют унаследованные системы управления базами данных, в которых не хватает масштабируемости и функциональности. Ведь основной объем данных - это неструктурированная информация. Ее хранение и обработка на основе реляционных баз данных в привычных системах малоэффективна и реляционные системы управления базами данных в привычных системах не являются выходом для ряда ситуации. Это привело к появлению целого семейства решений, так называемых NoSQL-системы.