Файл: Локальные и глобальные сети эвм основы компьютерной коммуникации. Принципы построения сетей. Компьютерная сеть.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.11.2023

Просмотров: 512

Скачиваний: 3

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

10
Возникает вопрос, зачем нужны эти системы счисления. Ответ в способах записи информации в компьютер. Поговорим об этом в следующей лекции.
423 16 416 26
7
16 16
10
1
A

1
ВВЕДЕНИЕ
Любому современному квалифицированному специалисту для успешного ведения дел в настоящее время желательно понять важность информационных технологий и информационно-интеллектуальных систем, так как неотъемлемой чертой современного общества является его
информатизация – насыщение производства и всех сфер жизни и деятельности всевозрастающими потоками информации.
В аграрной цивилизации главным ресурсом были земля и низко квалифицированные трудовые ресурсы. В индустриальном обществе главенствует капиталоемкая технология переработки природных ресурсов, а к труду предъявляются повышенные квалификационные требования.
Основой индустриальной цивилизации стали гигантские вещественно- энергетические потоки, которые часто недостаточно рационально использовались в экономике. Переход общества к информационной эпохе вводит в активный оборот информационные ресурсы и еще более повышает требования к квалификации труда специалистов. Именно использование информационных технологий дает возможность рационально распоряжаться всеми остальными видами ресурсов.
Активное использование информационных технологий позволяет получить решение, как эффективнее и экономичнее, т.е. выгоднее организовать производство товаров или услуг.
Знания и информация становятся стратегическими ресурсами, поскольку наряду с эмпирическим знанием и повседневным опытом в экономическую деятельность непосредственно вовлекается систематизированное теоретическое знание. Оно становиться непосредственной производительной силой.
Современному специалисту для достижения экономических целей нужна опора в виде информации о профессиональном знании, особенностях избранной сферы деятельности. Требуемая информация рассеяна по множеству источников и в различных местах хранения. Цель модуля

2
информационные технологии – собрать, тематически объединить и обработать информацию так, чтобы ускорить доступ к информации и представить ее в виде, удобном для интерпретации человеком – пользователем информации. Сегодня в информационных технологиях нет ограничений на вид собираемой информации и тип используемых носителей информации.
Средства современных информационных технологий позволяют интегрировать разнообразную информацию и создавать всеобъемлющее поле информационных ресурсов. Это, безусловно, повышает вероятность получения нового знания.
Информационное обогащение современной экономики – ее наиболее характерная черта на современном этапе развития общества. Сейчас выигрывает тот, кто эффективнее использует информационные технологии.
Информационная
технология – это система методов и способов сбора, хранения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.
1 Введение в информационные технологии
Изучив
материал, студент должен знать:

законы получения, передачи и использования информационных ресурсов, понятие сигнала, как средства передачи информации, носители информации, каналы связи, данные, кодирование, передача, хранение, извлечение и отображение информации;

характеристики информации;

основные единицы измерения количества и объема информации
Изучив
материал, студент должен уметь:

решать задачи на определение количества и объема информации
1.1 Основные определения
Строгого и общепризнанного определения информации до сих пор не существует, несмотря на то, что с информацией мы сталкиваемся постоянно, поэтому вместо определения часто используют понятие об информации.


3
Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.
С позиции материалистической философии информация есть отражение реального мира с помощью сведений (сообщений).
Сообщение
– это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п.
Однако понятие информация часто трактуется по-разному.
Например, школьникам часто дают такое определение. Информация – это то, что мы видим, слышим и можем передать в устной, письменной, графической и любой другой форме. Математики утверждают, что
информация - первичное, неопределенное понятие, подобное понятию множество. Даже наши депутаты дают определение информации.
Существует представление об информации как о совокупности данных, повышающих уровень знаний об объективной реальности и окружающего мира, определение некорректное и легко опровергается в рамках социальных наук. Для информатики как технической науки понятие информации не может основываться на таких антропоцентрических понятиях, как знание.
Понятие, безусловно, субъективное и свойственное пока только человеку.
Средства вычислительной техники обладают способностью обрабатывать информацию автоматически. Эти средства могут работать с искусственной, абстрактной и даже ложной информацией, не имеющей объективного отражения.
Информация
в наиболее общем понимании — это отражение предметного мира с помощью знаков и сигналов.
В предлагаемом учебном пособии рассмотрим новый подход к определению информации, который кажется авторам наиболее интересным, наукоемким и в полной мере адекватным для такой науки как информатика.
В этом подходе четко различают такие понятия как данные и информация и подчеркивают связь между ними. Как часто мы говорим, что вводим информацию в компьютер, а по сути дела на машинных носителях у нас

4 записаны данные. Совершенно очевидно, что одни и те же данные могут в момент потребления поставлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов. В подтверждение этих слов можно привести пример чтения американской справочной информации русскоязычными пользователями компьютера. Разве люди, владеющие в совершенстве английским языком, и те, кто немного читает и переводит со словарем, получают одинаковую информацию. Владея, разными по адекватности методами, они получают разную информацию.
Поэтому, определяя информацию как продукт взаимодействия данных
и адекватных им методов, четко разделяя понятия, данные и информация, а, также вводя понятие информационный процесс, процесс, в ходе которого данные преобразуются в информацию, мы приближаемся к наиболее корректному определению информации с точки зрения такой науки как информатика.
Рассматривая информацию с этой точки зрения, безусловно, необходимо обратить внимание на следующие обстоятельства. Во-первых, дать четкое определение данным. А во-вторых, обусловить диалектическое единство данных и методов в информационном процессе.
Определяя данные, обратимся к такой науке как физика. Все то, что нас окружает, с точки зрения физики, относиться либо к физическим телам, либо к физическим полям. Из курса физики известно, что состояния абсолютного покоя не существует. Все физические объекты находятся в состоянии непрерывного движения и изменения, которое сопровождается изменением энергии (переходом энергии из одного вида в другой). Все виды энергообмена сопровождаются появлением сигнала.
1>
1   ...   19   20   21   22   23   24   25   26   27

Сигнал
(от лат. signum — знак) - знак, физический процесс (или явление), несущий информацию о каком-либо событии, состоянии объекта наблюдения либо передающий команды управления, указания, оповещения.
Сигнал
является материальным носителем информации, которая передается от источника к потребителю.

5
Сигнал
– это изменяющийся во времени физический процесс.
Такой процесс может содержать различные характеристики.
При взаимодействии сигнала с физическими телами возникают определенные изменения свойств этих тел, которые можно зарегистрировать.
Таким образом, будем считать, что данные – это зарегистрированные
сигналы
.
Характеристика, которая используется для представления данных, называется параметром сигнала.
Если параметр сигнала принимает ряд последовательных значений и их конечное число, сигнал называется дискретным.
Если параметр сигнала непрерывная функция, то сигнал называется
непрерывным
Квантование
сигнала - преобразование сигнала в последовательность импульсов (квантование сигнала по времени) или в сигнал со ступенчатым изменением амплитуды (квантование сигнала по уровню), а также одновременно и по времени, и по уровню. Применяется при преобразовании непрерывной величины в код в вычислительных устройствах, цифровых измерительных приборах и др.
Данные, безусловно, несут в себе информацию, но они ей не тождественны. Для того чтобы данные стали информацией необходимо наличие методов пересчета одной величины в другую. Данные – диалектическая составная часть информации. В соответствии с методом регистрации данные могут храниться и транспортироваться на носителях различных видов.
Самым распространенным носителем данных в настоящее время является бумага. На бумаге данные регистрируются путем изменения оптических характеристик ее поверхности. В то же время изменение коэффициента отражения поверхности в определенном диапазоне длин волн используется в устройствах, осуществляющих запись лазерным лучом на пластмассовых носителях с отражающим покрытием (CD ROM). Магнитные

6 ленты и магнитные диски, служащие в современных компьютерах главными носителями информации, используют изменение магнитных свойств тела.
Свойства информации получаемой пользователем, тесно связаны со свойствами носителей данных, с которых эта информация будет получена.
Любой носитель можно характеризовать параметром разрешающей
способности, т.е. количеством данных записанных в принятой на носителе единице измерения, и динамическим диапазоном – логарифмическим отношением интенсивности амплитуд максимального и минимального регистрируемого сигнала. От этих свойств носителя зависят такие свойства информации, как полнота, доступность и достоверность.
Задача преобразования данных с целью смены носителя относится к одной из важнейших задач информатики. В стоимости вычислительных систем устройства для ввода и вывода данных, работающие с носителями информации, составляют не меньше половины стоимости аппаратных средств.
Обуславливая диалектическое единство данных и методов в информационном процессе, определяют следующие понятия.
Динамический характер информации. Данные имеют статичный характер. Информация динамически меняется и существует только в момент времени взаимодействия данных и методов. Таким образом, информация существует только в момент протекания информационного процесса. Все остальное время она содержится в виде данных.
Требования адекватности методов. Одни и те же данные могут в момент потребления поставлять разную информацию, в зависимости от степени адекватности взаимодействующих с ними методов. Использование более адекватных методов даст более полную информацию.
Диалектический характер взаимодействия данных и методов. Данные являются объективными, это результат регистрации объективно существовавших сигналов, вызванных изменениями в материальных полях или телах. В тоже время методы являются субъективными. В основе


7 искусственных методов лежит алгоритм, т.е. упорядоченная последовательность команд, составленная и подготовленная человеком
(субъектом). В основе естественных методов лежат биологические свойства субъектов информационного процесса.
Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.
Информация
– это результат взаимодействия данных и адекватных
им
методов.
1.2 Количество и качество информации
Для того чтобы унифицировать форму представления данных используют прием кодирование.
Кодирование
выражение данных одного типа через данные другого типа.
Информационный
процесс - процесс, в ходе которого данные преобразуются в информацию.
Количество
информации – это числовая характеристика сигнала, которая не зависит от его формы и содержания и характеризует степень неопределенности, которая исчезает после выбора (получения) сообщения в виде данного сигнала.
В информатике используются различные подходы к измерению информации:
Содержательный
подход. Сообщение – это информативный поток, который в процессе передачи информации поступает к приемнику.
Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными Информация дает знания человеку, а это значит, что сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0.

8
Алфавитный
подход. Не связывает количество информации с содержанием сообщения. Алфавитный подход – это объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения.
Количество информации зависит от объема текста и мощности алфавита
Вероятностный
подход
Учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Применяется при оценке значимости получаемой информации.
Для измерения информации вводятся два параметра: количество информации I и объем данных Vд.
Меры информации бывают следующие:
Синтаксическая
мера информации – оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Объем данных Vд в сообщении измеряется количеством символов
(разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных.
Предположим, что до получения информации пользователь имеет предварительные сведения о системе
α
, и хочет получить сообщение
β
. Мера неосведомленности пользователя выражена функцией
Н
(
α
), а дополнительная информация, которую он приобрел I
β
(
α
). Тогда количество информации I
β
(
α
) определится по формуле:
I
β
(
α
)= Н(
α
) - Н
β
(
α
),
т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. А Н
β
(
α
) – конечная неопределенность.
Если конечная неопределенность обратится в ноль, то количество информации:
I
β
(
α
)= Н(
α
)
Энтропия
системы Н(
α
) – это мера недостающей информации.


9
Энтропия системы Н(), имеющая N возможных состояний, согласно формуле Шеннона, равна:
( )
i
N
i
i
P
P
H
log
1

=

=
α
где Pi – вероятность того, что система находится в i-м состоянии.
Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны
,
1
N
P
i
=
ее энтропия определяется соотношением
( )
N
N
H
N
i
1
log
1
1

=

=
α
Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере.
N=m
n
N – число всевозможных отображаемых состояний; m – основание системы счисления; n – число разрядов в сообщении.
Пример. По каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N=m
n
, то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет:
I = log N= n log m
– формула Хартли
Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации будет равно объему данных I = Vд, полученных по каналу связи. Для неравновероятных состояний системы всегда I< Vд = n.

10
При использовании двоичного логарифма единицей информации будет
бит
Бит
– (Binary digit) - это количество информации, которое содержится в одном двоичном разряде.
В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутри машинного представления данных и команд.
Используются следующие единицы измерения информации:
1 байт = 8 бит (именно восемь бит требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера);
1 Килобайт = 1024 байт (2
10
байт);
1 Мегабайт = 1024 Килобайт (2
20
байт);
1 Гигабайт = 1024 Мегабайт (2
30
байт);
Коэффициент
(степень)
информативности
(лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.
,
Д
V
I
Y
=
причем 0С увеличение Y уменьшаются объемы работы по преобразованию информации в системе. Поэтому стремятся к повышению информативности.
Семантическая
мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне. Самая распространенная тезаурусная мера. Она связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение.
Тезаурус
– это совокупность сведений, которыми располагает пользователь или система.
Прагматическая
мера
информации
.
Определяет полезность информации (ценность) для достижения пользователем поставленной цели.