Файл: 1. Предмет и задачи информатики Информатика это техническая наука.doc
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 09.11.2023
Просмотров: 65
Скачиваний: 2
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
1. Предмет и задачи информатики
Информатика – это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.
Предмет информатики составляют следующие понятия:
- аппаратное обеспечение средств вычислительной техники (ВТ);
- программное обеспечение средств ВТ;
- средства взаимодействия аппаратного и программного обеспечения;
- средства взаимодействия человека с аппаратными и программными средствами.
Основная задача информатики – систематизация приемов и методов работы с аппаратными и программными средствами ВТ. Цель систематизации – выделение, внедрение и развитие передовых, наиболее эффективных технологий, в автоматизации этапов работы с данными, а также в методическом обеспечении новых технологических исследований.
Информатика – это практическая наука. Ее достижения должны находить подтверждение практикой. Здесь выделяют следующие направления для практических приложений:
- архитектура вычислительных систем;
- интерфейсы вычислительных систем;
- программирование;
- преобразование данных;
- защита информации;
- автоматизация;
- стандартизация.
Историческая справка: Слово информатика происходит от французского слова Informatique, что означает – науку об автоматической обработке информации. Другой перевод (зап. Европа и США) – Computer Science – наука о средствах вычислительной техники. Появился в 60–х годах прошлого столетия.
Источники информатики: две науки – документалистика и кибернетика.
Документалистика связана с изучением рациональных средств и методов повышения эффективности документооборота.
Кибернетика – наука об общих принципах управления в различных системах: технических, биологических, социальных и…..
Сейчас – информатика – это научная дисциплина, связанная с обработкой с помощью ЭВМ информации любой природы.
Информатика – научный фундамент процесса информатизации. Информатизация – процесс перехода от индустриального общества к информационному. Уровень развития информационного пространства общества влияет на экономику, обороноспособность, политику и на многие элементы государственности.
Информационное пространство определяется следующими компонентами:
- информационными ресурсами;
- информационно-телекоммуникационной инфраструктурой;
- системой массовой информации;
- рынком информационных технологий, средств связи, информатизации и телекоммуникации и услуг;
- сопряженностью с мировыми открытыми сетями;
- системой информационного законодательства.
Информатизация ведет к созданию единого информационного пространства, в рамках которого производится накопление, обработка, хранение и обмен информацией между субъектами этого пространства – людьми, организациями, государствами.
2. Понятие, виды и свойства информации.
Информация – это
- сведения, передаваемые людьми устным, письменным или другим способом;
- обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире;
- отражение реального мира (в философии);
- сведения, являющиеся объектом хранения , передачи и преобразования ( в технике);
В информатике: информация – это продукт взаимодействия данных и адекватных им методов. Особенности этого определения:
1) динамический характер информации. ( Информация существует только в момент взаимодействия данных и методов, т.е. в момент протекания информационного процесса.)
2) требование адекватности методов. (Одни и те же данные могут поставлять разную информацию в зависимости от степени адекватности методов. Например, журнал для ребенка, не умеющего читать дает только ту информацию, которую можно только наблюдать. Но это не вся информация)
3) динамический характер взаимодействия данных и методов. ( Данные – объективные, т.к. это результат объективно существовавших сигналов. Методы – субъективные. Т.о., информация возникает существует в момент диалектического взаимодействия объективных данных и субъективных методов.)
С понятием информации связаны следующие понятия: сигнал, сообщение, данные.
Сигнал – представляет собой любой процесс, несущий в себе информацию.
Сообщение - информация, представленная в определенной форме и предназначенная для передачи.
Данные – информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами.
Классификация информации:
- по области применения:
1. элементарная – отражает процессы и явления неодушевленной природы;
2. биологическая – отражает процессы животного и растительного мира;
3. социальная - отражает процессы человеческого общества.
- по способу восприятия:
1. визуальная – передаваемая видимыми образами и символами;
2. аудиальная – передаваемая звуками;
3. тактильная – передаваемая ощущениями;
4. органолептическая – передаваемая вкусом и запахом;
5. машинная – выдаваемая и воспринимаемая средствами ВТ.
Свойства информации:
1) Объективность.
Более объективной считается информация, в которую методы вносят меньший субъективный элемент. Например, в результате наблюдения снимка объекта образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком.
2) Полнота информации.
Характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых на основе имеющихся. Чем полнее данные, тем шире диапазон методов, которые можно использовать.
3) Достоверность информации.
При передаче информации по каналам связи присутствуют помехи. Если полезный сигнал зарегистрирован более четко, достоверность информации будет более высокой.
4) Адекватность информации.
Это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако и полные и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов.
5) Доступность информации.
Это мера возможности получить ту или иную информацию. Отсутствие доступа к данным или отсутствие адекватных методов приводят к одинаковому результату: информация недоступна.
6) Актуальность информации.
Это степень соответствия информации текущему моменту времени. ( По сути она показывает коммерческую ценность информации.)
Достоверная и адекватная, но устаревшая информация может привести к ошибочным действиям.
3. Меры информации.
Важный вопрос теории передачи и преобразования информации – установление меры количества и качества информации.
Информационные меры рассматриваются в трех аспектах: структурном, статистическом и семантическом.
В структурном аспекте рассматривается строение массивов информации и их измерение простым подсчетом информационных элементов или комбинаторным методом. Структурный подход применяется для оценки возможностей информационных систем вне зависимости от условий их применения.
При статистическом подходе учитывается вероятность появления того или иного сообщения. Статистический подход учитывает конкретные условия применения информационных систем.
Семантический подход позволяет выделить полезность или ценность информационного сообщения. При этом подходе осуществляется оценка содержания разнохарактерной информации.
Структурная мера информации
При использовании структурных мер информации учитывается только дискретное строение сообщения, количество содержащихся в нем информационных элементов, связей между ними.
При структурном подходе различаются:
-
Геометрическая мера - предполагает измерение параметра геометрической модели информационного сообщения (длины, площади, объема…) в дискретных единицах.
Информационная емкость модели – максимально возможное количество информации – определяется как сумма дискретных значений по всем измерениям (координатам).
-
Комбинаторная мера – количество информации определяемое как число комбинаций элементов. -
Аддитивная мера – (мера Хартли) – количество информации измеряется в двоичных единицах – битах.
Используются понятия:
Глубина qчисла – количество символов, принятых для представления информации. В каждый момент времени реализуется только один какой-либо символ.
Длина nчисла – количество позиций, необходимых и достаточных для представления чисел заданной величины.
При заданных глубине и длине числа количество чисел, которые можно представить N = qn.
Логарифмическая величина: I = log2N =nlog2g (бит) - мера Хартли.
Таким образом, количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Это бит.
Статистическая мера информации.
Здесь используется вероятностный подход к определению количества информации.
Так как существует множество ситуаций, когда возможные события имеют различные варианты реализации.
Формулу для вычисления количества информации в случае разных вероятностей событий предложил в 1948 г. Клод Шеннон.
При следующих обозначениях:
N – проводилось всего опытов
k – типов исходов опытов
j – ый исход
nj – число повторений j – ого исхода
Ij – количество информации, вносимой опытом с j – ым исходом
pj – вероятность опыта с j – ым исходом.
Средняя информация в битах
I = - Σ pj log2 pj = H - энтропия
В статистической теории информации предполагается, что менее вероятное сообщение несет больше информации.
Свойства энтропии:
-
Энтропия всегда неотрицательна. -
Энтропия равна нулю, когда об опыте все известно заранее и результат не дает новую информацию. -
Энтропия имеет наибольшее значение, когда все вероятности равны между собой. -
Энтропия объекта АВ, состояния которого образуются совместной реализацией А и В, равна сумме энтропий исходных объектов А и В.
В общем случае – количество информации – это есть уменьшение энтропии вследствие опыта или какого-либо другого акта познания.
Если события равновероятны и статистически независимы, то оценки количества информации по Хартли и Шеннону совпадают.
Избыточность информации определяется коэффициентом избыточности:
R=1-H/Hmax
где Н – энтропия сообщения,
Hmax – максимально возможная энтропия для сообщения данной длины.
Достоверность информации связана с вероятностью ошибки соотношением:
D = (1-Pош)*100%
Т.о., если вероятность ошибки равна нулю, то информация на 100% достоверна.
Решить задачи:
-
Проводятся три опыта: вытягивание карты из колоды, метание игральной кости, подбрасывание монеты. Определить сколько информации содержится в сообщениях о результатах каждого из них. -
Определить информационную емкость экрана монитора в текстовом режиме, если известно, что количество символов в используемом алфавите (N) равно 256. -
Компьютер работает в графическом режиме с разрешением 640*480 точек или пикселей и способен воспроизводить 256 цветов. Требуется определить максимальное количество информации, которое можно вывести на экран. -
Имеется некоторое сообщение, переданное с помощью алфавита состоящего из трех букв ( например: точка, тире, пауза). Пусть относительные частоты появления этих букв в тексте соответственно равны: 0.5, 0.25, 0.25. Требуется определить среднее количество информации, приходящееся на одну букву в этом сообщении. -
Сообщение, скопированное с экрана компьютера, содержит 200 знаков. При их кодировании была использована таблица ASCII кодов, содержащая 256 символов. Требуется определить избыточность информации.