Файл: Телеграмм канал со сливами httpst meentslivyent 1 Понятие информации. Значение информации в современном обществе. Методы и средства обработки информации.doc

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.11.2023

Просмотров: 160

Скачиваний: 4

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Телеграмм канал со сливами: https://t.me/entslivyent

1 Понятие информации. Значение информации в современном обществе. Методы и средства обработки информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, состоянии, позволяющая понизить степень неопределённости знаний об этих объектах. Данные – могут рассматриваться как признаки или записанные наблюдения, которые пока не используются а только хранится. Если есть возможность использовать их для уменьшения неопределённости о чём-либо, данные становятся информацией. Компьютер работает с данными, а пользователь-с информацией. . Информация бывает: текстовая, звуковая, числовая, графическая, видео. Измерение данных основано на способе кодирования данных - при обработке их на компьютере в двоичной системе счисления. Размер измеряется в:

бит (ноль или единица), байт=8бит, килобайт=1024 байта, мегабайт=1024 кг, гигабайт = 1024мегайта. Она хранится в памяти компа. ОЗУ – информация, используемая в данный момент, ПЗУ – неизменяемая, системная информация, ВЗУ – внешние запоминающие устройства

Информация стала одним из важнейших стратегических, управленческих ресурсов, наряду с ресурсами - человеческим, финансовым, материальным. Ее производство и потребление составляют необходимую основу эффективного функционирования и развития различных сфер общественной жизни, и, прежде всего, экономики. А это означает, что не только каждому человеку становятся доступными источники информации в любой части нашей планеты, но и генерируемая им новая информация становится достоянием всего человечества. В современных условиях право на информацию и доступ к ней имеют жизненную ценность для всех членов общества. Возрастающая роль информации в обществе явилась предметом научного осмысления. Были выдвинуты теории, объясняющие ее место и значение. Наиболее популярными являются теории постиндустриального и информационного общества.

Естественные методы. Методы, основанные на органах чувств. Логическое мышление. Воображение, сравнение, сопоставление, анализ, прогнозирование и т.п.

Аппаратные методы. Аппаратные методы – это всегда устройства (приборы). Магнитофоны, телефоны, микроскопы, видеомагнитофоны и т.д. С точки зрения информатики эти устройства выполняют общую функцию – преобразуют данные из формы, недоступной для естественных методов человека, в форму, доступную для них. Не всегда одни устройства могут обрабатывать данные созданные другими приборами. В таких случаях применяют специальные устройства преобразования данных, и говорят не о преобразовании формы данных, а о преобразовании их формата (модемы, бытовые видеокамеры).


Программные методы. Широкое внедрение средств вычислительной техники позволяет автоматизировать обработку самых разных видов данных с помощью компьютера. Компьютер – это прибор особого типа, в котором одновременно сочетаются аппаратные и программные методы обработки и представления информации. Эти методы составляют предметную область информатики.

Если предположить, что информация – это динамический объект, не существующий в природе сам по себе, а образующийся в ходе взаимодействия данных и методов, и существующий столько, сколько длится это взаимодействие, а все остальное время пребывающий в виде данных, то можно дать такое определение:

Информация - это продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия.

Контекстным (адекватным) считается тот метод, который является общепринятым для работы с данными определенного типа. Этот метод должен быть известен как создателю данных, так и потребителю информации.
Для графических данных (иллюстраций) контекстным является метод наблюдения, основанный на зрении. В этом случае имеется в виду визуальная или графическая информация. Для текстовых данных подразумевается контекстный метод чтения, основанный на зрении, знании азбуки и языка. В этом случае говорят о текстовой информации.

Для данных, представленных в виде радиоволн, контекстными являются аппаратные методы преобразования данных и потребления информации с помощью радиоприемника или телевизора. Поэтому часто используются понятия телевизионная информация, информационная программа, информационный выпуск и т.п.

Для данных, хранящихся в компьютере, передающихся по сетям, контекстными являются аппаратные и программные методы вычислительной техники. Их еще называют средствами информационных технологий, которые входят в предметную область информатики. В этом случае используется понятие компьютерной информации.

2 Концепции информации: техническая, биологическая, социальная. Определение информации в технической концепции. Информация и данные. Классификация информации по формам, видам, признакам и свойствам.

Типы информации  -   результат информационного подхода к разным уровням организации (движения) материи. Коли оставить в стороне неживую природу, где информационный подход малопродуктивен, выявляются три Уровня:



1) социальный, соответствующий человеческому обществу;

2) биологический, представленный живой природой;

3) машинный, охватывающий искусственно созданную "вторую природу" и прежде всего — информационную технику.                            

Б и о л о г и ч е с к а я  информация охватывает три рода объектов: во-первых, чувственно-наглядные образы (перцептивные образы) материальных объектов, формируемые посредством органов чувств и хранящиеся в памяти живого существа; во-вторых, сигналы, которыми обмениваются животные в ходе зоокоммуникации; в-третьих, молекулы ДНК, в структурах которых закодирован образ будущего организма и программа его синтезирования. Соответственно различаются три вида биологической информации: сенсорная (перцептивная), зоокоммуникационная, генетическая. Генетическая информация представляет собой сообщения в рамках генетической коммуникации

М а ш и н н а я  информация  - это представленные в форме энергетических излучений (сигналов) или машиночитаемых записей отображения материальных объектов и управляющих программ. Машиночитаемые записи, например, оптические диски, магнитные компакт-диски, являющиеся носителями текстовой и аудиовизуальной информации, одновременно относятся к социально-информационным сообщениям.

Социальная информация — это осмысленное коммуникационное сообщение в свете информационного подхода. Эта дефиниция подразумевает, что осмысленное сообщение может быть носителем знаний, эмоций, побуждений (все это — смыслы), и значит, последние попадают в содержание социальной информации. Другими словами: социальная информация — это сообщение, имеющее смысл. Эти сообщения можно именовать "информационными" или просто "информацией" и в результате элементарная схема коммуникации (рис. 1.1) преобразуется и элементарную схему информационного воздействия (рис. 3.1), представляющую собой один из вариантов интерпретации смысловой коммуникации.

в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов; в этом случае есть источник сообщений, получатель (приемник сообщений), канал связи;

Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. Преобразование и обработка данных позволяет получить информацию.

Информация - это результат преобразования и анализа данных. Отличие информации от данных состоит в том, что данные - это фиксированные сведения о событиях и явлениях, которые хранятся на определенных носителях, а информация появляется в результате обработки данных при решении конкретных задач. Например, в базах данных хранятся различные данные, а по определенному запросу система управления базой данных выдает требуемую информацию.


Виды информации:

-         текстовая;

-         числовая;

-         графическая;

-         звуковая;

-         световая;

-         электромагнитная (информация электромагнитных волн).
С точки зрения информатики, наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

Объективность информации. Объективный — существующий вне и независимо от человеческого сознания. Информация — это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.
Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» — объективную, но с точностью, зависящей от погрешности средства измерения.
Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может искажаться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта, и, таким образом, перестать быть объективной.

Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

Актуальность информации — важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью

3 Определение количества информации. Единицы измерения информации.

В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.

Формула Хартли: I = log2N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100  6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Приведем другие примеры равновероятных сообщений:

при бросании монеты: "выпала решка", "выпал орел";

на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ),
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.