Файл: Информация в материальном мире. Значение и возможности информации.pdf
Добавлен: 31.03.2023
Просмотров: 156
Скачиваний: 1
СОДЕРЖАНИЕ
Глава 1: Представление информации
1.4 Формы представления информации
Глава 2: Информация в реальном времени
2.1 Значение информации в различных областях знаний
2.2 Семиотика наука о информации
2.3 Роль информации в кибернетике
2.4 Роль информации в философии
2.6 Информация в материальном мире
2.7 Информация в человеческом обществе
Глава 3: Возможности информации
Основное преимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз. Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете хранится в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 хранится в цифровом виде.
3.3 Количество информации
Человек или какой-нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенностей. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев и, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т.п.
Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, насколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он помимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т.п. То есть, он получит количество информации больше чем мы, так как у него, перед тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.
Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру. Существует формула для расчета количества информации. Мы имеем некоторую неопределенность, и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно расчитать по следующей формуле, которую предложил нам Шеннон:
I = -(p_1 log_{2}p_1 + p_2 log_{2}p_2 +... +p_N log_{2}p_N), где
I - количество информации;
N - количество исходов;
p_1, p_2,..., p_N- вероятности исхода.
Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и, подставив это значение в формулу для равновероятных событий, мы получим бесконечность - бесконечное количество информации.
Можно даже закодировать «войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки, встречающиеся в «войне и мир», с помощью двухзначных цифр - их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» - код «01» и так далее, закодируем знаки препинания, латинские буквы и цифры. Перекодируем «войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы. Поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. Таким образом, если вдруг нам захочется почитать «войну и мир», мы просто измерим левую часть стержня до риски и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).
Реально такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика нам показывает, что после определенного предела, нам уже будет мешать квантовые законы. Интуитивно нам понятно, что чем меньшая точность измерения, тем меньше информации мы получаем, и чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации». В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия, заряжено - не заряжено, отражает свет - не отражает свет, высокий электрический потенциал - низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п. Наравне с битом, часто используется величина называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт - 1 из 256 (2^8). Для измерения количества информации также принято использовать более крупные единицы:
1 Кбайт (один килобайт) 210 байт = 1024 байта
1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта
1 Гбайт (один гигабайт) 210 Мбайт = 1024 Мбайта
Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 10^3, 10^6 и 10^9, соответственно, но исторически сложилась практика использования множителей со степенями двойки.
Бит по Шеннону и бит, который используется в компьютерной технике, совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации. Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.
3.4 Дезинформация
Дезинформация - заведомо ложная информация, предоставляемая противнику или деловому партнёру для более эффективного ведения военных действий, сотрудничества, проверки на утечку информации и направление её утечки, выявление потенциальных клиентов чёрного рынка.Также дезинформацией (также дезинформированные) называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, искажения контекста, искажения части информации.
Цель такого воздействия всегда одна - оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель - это действие, которое будет предпринято оппонентом.
Дезинформация, таким образом, - это товар деятельности человека, попытка создать ложное впечатление и, соответственно подтолкнуть к желаемым действиям и/или бездействию.
Список литературы
1.Винер Н. Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество/ 2-е издание. - М.: Наука; Главная редакция изданий для зарубежных стран, 1983. - 344 с.