Файл: Информация в материальном мире (информация как научная дисциплина).pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 19.06.2023

Просмотров: 154

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

Пример. Сообщение «теплом» представляет собой субъективную информацию, а сообщение «улице 22 С» объективную, но с точностью, которая зависит от погрешности измерений.

Объективная информация может быть получена от здоровых датчиков, измерительных приборов. Отражение в сознании конкретного человека, информация перестает быть объективной, т. к. она преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.

Полноту информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе вашего. Чем больше данных, тем шире диапазон методов, которые можно использовать, тем проще найти способ сделать минимум ошибок в процессе обработки информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

Точность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда правдивая, но достоверная информация может быть как объективные, так и субъективные. Достоверная информация помогает нам принять правильное решение. Ненадлежащая информация может быть по следующим причинам:

  • преднамеренное искажение (дезинформация) или непреднамеренное

искажение субъективного свойства;

  • искажение в результате помех («испорченный телефон») и достаточно

точных средств фиксации.

1.2 Аналоговая и цифровая информация

Звук-это колебания волн в любой среде, например в воздухе. Когда человек говорит, колебания связок горла преобразуется в колебания волн в воздухе. Если рассматривать звук как волну, и как колебания в одной точке, эти колебания могут быть представлены в виде изменяющейся во времени давления воздуха. С помощью микрофона можно обнаружить изменения давления и преобразования их в электрические напряжения. Произошло преобразование давления воздуха в колебания напряжения. Такая трансформация может происходить по различным законам, чаще всего это превращение происходит по линейному закону.

Например, по такому:

U(t) = K(P(t) − P0),

где U(t) – электрическое напряжение, P(t) – давление воздуха, P0– среднее давление воздуха, а K – коэффициент преобразования.


И электрическое напряжение, и давление воздуха являются непрерывными функциями во времени. Функции U(t) и P(t) являются информацией о колебаниях связок горла. Эти функции непрерывны и такая информация называется аналоговой.

Музыка-особый звук, и это тоже может быть представлен в виде некоторой функции времени. Это будет аналог представления музыки. Но музыка просто написаны как заметки. Каждая заметка имеет длительность кратна заданной длительности и высоты (до, ре, ми, фа, соль, и др.). Если эти данные преобразуются в числа, то мы получим цифровое представление музыки.

Человеческая речь является частным случаем звука. Это тоже может быть представлен в аналоговой форме. Но просто как музыка может быть разбита на ноты, это могут быть разбиты на буквы. Если каждой букве дать его цифры, мы получим цифровое представление речи.

Разница между аналоговым и цифровым сведения, что аналоговая информация непрерывна, а цифровая дискретна.

Преобразование информации из одного вида в другой в зависимости от рода преобразования называют по разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.[6]

Как правило, конверсия-это достаточно простой и легко справляются с ними различных устройств, изобретенных человеком. Магнитофон преобразует намагниченности на ленте в аудио, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осциллограф преобразует электрические напряжения или ток в изображение и т. д. для преобразования аналоговой информации в цифровую сложнее. Некоторые преобразования, чтобы сделать машину не удалось или удалось с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по своей сути цифровое представление: очень жесткий автомобиль, чтобы преобразовать в тот же текст в памяти компьютера.

Почему же тогда использовать цифровое представление информации, если это так сложно? Основными преимуществами цифровой информации по аналоговым является помехоустойчивость. То есть в процессе копирования цифровой информации, копируется, как это, он может быть скопирован практически бесконечное количество раз, аналоговой информации в процессе копирования, его качество ухудшается. Как правило, аналоговая информация может быть скопирована в три раза.


Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей вы заметите как сильно ухудшилось качество записи. Информация на кассете храниться в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 храниться в цифровом виде.[7]

Количество информации

Человек или любой другой приемник информации, получив порцию информации допускает некоторую неопределенность. Возьмем для примера все того же дерева. Когда мы увидели дерево, мы решили ряд неопределенностей. Мы знаем, что высота дерева, породы дерева, плотности листьев, цвет листьев, если это плодовое дерево, мы увидели ее на фрукты, как они повзрослели, и др. Прежде чем мы посмотрели на дерево, мы всего этого не знали, после того, как мы посмотрели на дерево, мы пусть неопределенность в получаемой информации.

Если мы пойдем на луг и посмотрим на него, мы получаем информацию другого рода, сколько большой луг, высокая трава и какого цвета трава. Если этот же луг выйдет биолог, он по мимо всего прочего, знать: какие сорта трав растут на лугу, ну типа этой поляне, то увидел бы, что цветы цветут, вы цвести, лугу, пригодных для выпаса, и т. д. то есть, он будет получать большое количество информации больше чем мы, как он, прежде чем, как он смотрел на поляне, было больше вопросов, биолог разрешит больше неопределенности.

Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру.[8]

Существует формула для расчета количества информации. Мы имеем некоторую неопределенность и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно расчитать по следующей формуле, которую предложил нам Шеннон:

I = − (p1log2p1+ p2log2p2+ ... + pNlog2pN), где

I – количество информации;

N – количество исходов;

p1,p2,...,pN- вероятности исхода.

Количество информации измеряется в битах – сокращение от английских слов BInary digiT, что означает двоичная цифра.

Для равновероятных событий формулу можно упростить:

I = log2N, где

I – количество информации;


N – количество исходов.

Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log22 = 1 бит информации.

Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней – шесть равновероятных событий. Получаем:

после того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.

Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?

Предположим, что мы бросили 8 монет. У нас 28вариантов падения монет. Значит после броска монет мы получим log228= 8 бит информации.

Когда мы задаем вопрос и поровну правоподобны для того чтобы получить ответ «Да» или «нет», то после ответа на вопрос мы получаем один бит информации.

Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжения в точке электрической цепи может принимать случайное значение от нуля до одного вольта. Количество исходов равно бесконечности и подставляя это значение в формулу для события равновероятны, мы получим бесконечность – бесконечное количество информации.

Сейчас я покажу вам, как закодировать "войну и мир" с помощью всего одного риска на любой металлический стержень. Мы будем кодировать все буквы и знаки, найденные в "войне и мире" с двузначными числами, то нам должно быть достаточно.

Например, букве «А» дадим код «00», букве «Б» код «01» и так далее, закодируем знаки припинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы, поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. И так если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски, и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).

Реально, такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика, нам показывает, что после определенного предела, нам уже будет мешать квантовые законы.[9]


Интуитивно мы понимаем, что чем меньше погрешность измерения, тем меньше информации мы получаем, тем выше точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения объема аналоговой информации, но есть и другие методы, которые рассматриваются в "теории информации".

В информатике бит соответствует физическому состоянию носителя: намагничено – не намагничено, есть отверстие – нет отверстия, загружен – не загружен, отраженный свет не отражает свет, высокий электрический потенциал низкий электрический потенциал.

При этом одно состояние принято обозначать цифрой 0, а другое – цифрой последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п.[10]

Наравне с битом, часто используется величина, называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт 1 из 256 (28). Для измерения количества информации так же принято использовать более крупные единицы:

1 Кбайт (один килобайт) 210байт = 1024 байта

1 Мбайт (один мегабайт) 210Кбайт = 1024 Кбайта

1 Гбайт (один гигабайт) 210Мбайт = 1024 Мбайта

Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 103, 106и 109, соответственно, но исторически сложилась практика использования множителей со степенями двойки.

По крупицам Шеннон и используемые в вычислительной же, если вероятность появления нуля или нулей в компьютере бит равны. Если вероятности не равны, то количество информации Шеннона, чтобы стать меньше, что мы и наблюдаем в марсианских динозавров. Количество компьютерной информации дает верхнюю оценку количества информации.

Энергозависимой памяти после питания обычно инициализируется некоторым значением, например, все единицы или все нули. Понятно, что после подачи питания на память, никакой информации там нет, потому что значения в ячейках памяти строго определен-никакой неопределенности. Память может хранить любое количество информации, но после включения никаких сведений в ней.

Одним из способов хранения информации — человеческий мозг. Люди, что-то слышал, видел что-то, что-то почувствовал и информация, хранящаяся в его мозге. Тогда он все помнил, он сказал, что его дети и внуки, сохранилась в легендах.

Наскальные рисунки- это тоже способ хранения информации- это трудоемкий, но очень надежный.

Очень долгое время был чуть ли не основным способом хранения информации. И только в последние два века человечество изобрело целую кучу способов хранения информации.