Файл: Предмет и основные понятия информатики.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 30.11.2023

Просмотров: 85

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Барвенов С.А. _____________________________________________________________________________ 1
" Предмет и основные понятия информатики"
Информатика — это комплексная, техническая наука, которая изучает и систематизирует законы и приемы создания, сохранения, воспроизведения, получения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ними.
Термин "информатика" происходит от французского слова Informatique и образован из двух слов: информация и автоматика. Термин информация произошел от латинского слова informatio — разъяснение, осведомление. Этот термин введен во Франции в середине 60—х лет XX ст., когда началось широкое использование вычислительной техники. Тогда в англоязычных странах вошел в употребление термин "Computer Science" для обозначения науки о преобразовании информации, которая базируется на использовании вычислительной техники. Теперь эти термины являются синонимами.
Появление информатики обусловлено возникновением и распространением новой технологии сбора, обработки и передачи информации, связанной с фиксацией данных на машинных носителях.
Предмет информатики как науки составляют:
• аппаратное обеспечение средств вычислительной техники;
• программное обеспечение средств вычислительной техники;
• средства взаимодействия аппаратного и программного обеспечения;
• средства взаимодействия человека с аппаратными и программными средствами.
Средства взаимодействия в информатике принято называть интерфейсом. Поэтому средства взаимодействия аппаратного и программного обеспечения иногда называют также программно-
аппаратным интерфейсом, а средства взаимодействия человека с аппаратными и программными средствами — интерфейсом пользователя.
Задачи информатики как науки составляют:
• изучить структуру, общие свойства информации, исследовать законы и методы создания, преобразования, накопления, передачи и использования информации.
• систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники. Цель систематизации состоит в том, чтобы выделять, внедрять и развивать передовые, более эффективные технологии автоматизации этапов работы с данными, а также методически обеспечивать новые технологические исследования.
В составе основной задачи сегодня можно выделить такие основные направления информатики для практического применения :
• архитектура вычислительных систем (приемы и методы построения систем, предназначенных для автоматической обработки данных);
• интерфейсы вычислительных систем (приемы и методы управления аппаратным и программным обеспечением);
• программирование (приемы, методы и средства разработки комплексных задач);
• преобразование данных (приемы и методы преобразования структур данных);
• защита информации (обобщение приемов, разработка методов и средств защиты данных);
• автоматизация (функционирование программно—аппаратных средств без участия человека);
• стандартизация (обеспечение совместимости между аппаратными и программными средствами, между форматами представления данных, относящихся к разным типам вычислительных систем).
На всех этапах технического обеспечения информационных процессов для информатики ключевым вопросом есть эффективность. Для аппаратных средств под эффективностью понимают соотношение производительности оснащение к его стоимости. Для программного обеспечения под эффективностью принято понимать производительность работающих с ним пользователей. В программировании под эффективностью понимают объем программного кода, созданного программистами за единицу времени. В информатике все жестко ориентированно на эффективность. Вопрос как осуществить ту или другую операцию, для информатики важный, но не основной. Основным есть вопрос — как совершить данную операцию эффективно.
В рамках информатики, как технической науки можно сформулировать понятия информации, информационной системы и информационной технологии.
Данные
Данные (data)— это такое же первоначальное понятие, как, скажем, в математике "точка": попытка дать определение начальным понятиям приводит к необходимости дополнительно определять


Барвенов С.А. _____________________________________________________________________________ 2 использованные термины. Итак, будем считать, что данные — это те или иные сведения (необязательно несущие смысловую нагрузку).
Пример данных:
812, 930, 944.
(
для человека это ничего не значит, если нет объяснения, что обозначают эти цифры).
01000001 01101100 01101100 01100001
(
для человека это ничего не значит, но в ASCII – это слово Alla).
Во время информационного процесса данные преобразовываются из одного вида в другого с помощью методов. Обработка данных включает в себя множество разных операций. Основными операциями есть:
• сбор данных — накопление информации с целью обеспечения достаточной полноты для принятия решения;
• формализация данных — приведение данных, которые поступают из разных источников к единой форме;
• фильтрация данных — устранение лишних данных, которые не нужны для принятия решений;
• сортировка данных — приведение в порядок данных за заданным признаком с целью удобства использования;
• архивация данных — сохранение данных в удобной и доступной форме;
• защита данных — комплекс мер, направленных на предотвращение потерь, воспроизведения и модификации данных;
• транспортирование данных — прием и передача данных между отдаленными пользователями информационного процесса. Источник данных принят называть сервером, а потребителя — клиентом;
• преобразование данных — преобразование данных с одной формы в другую, или с одной структуры в другую, или изменение типа носителя.
Информация
Информация (information)— это данные, сопровождающиеся смысловой нагрузкой.
При этом, очевидно, то, что для одних является данными, для других вполне может быть информацией. Но всегда можно точно сказать, что нужно предпринять для того, чтобы те или иные данные стали информативными для наибольшей аудитории: их нужно снабдить смысловым содержанием. Чем более полным будет это содержание, тем более информативной будет соответствующее сообщение.
Информация которая: воспринимается из окружающей среды называется входной информацией, выдается в окружающую среду называется
исходная
информацией.
Информация существует в виде документов, чертежей, рисунков, текстов, звуковых и световых сигналов, электрических и нервных импульсов и т.п..
Важнейшие свойства информации:
• объективность и субъективность;
• полнота;
• достоверность;
• адекватность;
• доступность;
• актуальность.
Пример информации: 812 рублей, 930 рублей, 944 рубля.
Более информативное сообщение: 812 рублей, 930 рублей, 944 рубля — цены на бальзам после бритья.
Ещё более информативное: 812 рублей, 930 рублей, 944 рубля — цены на бальзам после бритья "Dune", 100 мл. в Москве.
В итоге мы имеем следующую простую формулу:
информация = данные + смысл
Знание
Знание — есть переживание, сравнённое с другими переживаниями это определение, которое дал
Лосский Н. О. в своей работе "Обоснование интуитивизма", является наиболее точным.


Барвенов С.А. _____________________________________________________________________________ 3
Пример знания:
Цены на бальзам после бритья "Dune", 100 мл. 8 апреля 2000 г. (по Москве)
-------------------------------------------------------------------------
В салоне Christian Dior (Тверская ул.): 812 рублей;
В салоне Rivoli (Торговый комплекс на Манежной площади): 930 рублей;
В салоне Л'Этуаль (Рамстор на Молодёжной): 944 рубля.
Я думаю, что теперь без труда можно понять, какие знания будут более полными (более качественными) по сравнению с приведёнными: можно расширить список сравнения по другим торговым точкам, по другим товарам, ввести динамику цен по датам, привести данные не только в рублях, но и в валюте и т. д.
Сравнительная информация (знание) обладает теми качествами, на которые как раз указывали процитированные мною авторы. В частности, она позволяет принимать решения. Причём, если это покупатель, то он может принять решение о покупке товара по более подходящей для него цене (при этом могут подключаться знания о качестве сервиса — сравнение информации; знания о надёжности торговой компании — сравнение информации о том, где могут продавать качественную, а где — поддельную продукцию и т. д.). Если решение принимает представитель торговой компании, то знания о конкурентах могут ему позволить более выгодно вести бизнес. Важно подчеркнуть, что каждый раз знание получается именно на основе сравнения информации.
В итоге мы имеем следующую простую формулу:
знание = информация + сравнение
Информационная система
В информатике понятие "система" чаще используют относительно набора технических средств и программ. Системой называют также аппаратную часть компьютера. Дополнение понятия "система" словом "информационная" отображает цель ее создания и функционирования.
Информационная система — взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.
Современное понимание информационной системы предусматривает использование компьютера как основного технического средства обработки информации. Компьютеры, оснащенные специализированными программными средствами, являются технической базой и инструментом информационной системы.
В работе информационной системы можно выделить слудующие этапы:
1. Зарождение данных — формирование первичных сообщений, которые фиксируют результаты определенных операций, свойства объектов и субъектов управления, параметры процессов, содержание нормативных и юридических актов и т.п..
2. Накопление и систематизация данных — организация такого их размещения, которое обеспечивало бы быстрый поиск и отбор нужных сведений, методическое обновление данных, защита их от искажений, потери, деформирование целостности и др.
3. Обработка данных — процессы, вследствие которых на основании прежде накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные.
Производные данные тоже можно обрабатывать, получая более обобщенные сведения.
4. Отображение данных — представление их в форме, пригодной для восприятия человеком. Прежде всего — это вывод на печать, то есть создание документов на так называемых твердых (бумажных) носителях. Широко используют построение графических иллюстративных материалов (графиков, диаграмм) и формирование звуковых сигналов.
Сообщения, которые формируются на первом этапе, могут быть обычным бумажным документом, сообщением в "машинном виде" или тем и другим одновременно. В современных информационных системах сообщения массового характера большей частью имеют "машинный вид". Аппаратура, которая используется при этом, имеет название средства регистрации первичной информации.
Потребности второго и третьего этапов удовлетворяются в современных информационных системах в основном средствами вычислительной техники. Средства, которые обеспечивают доступность информации для человека, то есть средства отображения данных, являются компонентами вычислительной техники.
Подавляющее большинство информационных систем работает в режиме диалога с пользователем.
Типичные программные компоненты информационных систем включают: диалоговую подсистему ввода—
вывода, подсистему, которая реализует логику диалога, подсистему прикладной логики обработки данных, подсистему логики управления данными. Для сетевых информационных систем важным элементом является коммуникационный сервис, обеспечивающий взаимодействие узлов сети при общем решении задачи. Значительная часть функциональных возможностей информационных систем закладывается в


Барвенов С.А. _____________________________________________________________________________ 4 системном программном обеспечении: операционных системах, системных библиотеках и конструкциях инструментальных средств разработки. Кроме программной составной информационных систем важную роль играет информационная составная, которая задает структуру, атрибутику и типы данных, а также тесно связана с логикой управления данными.
Информационные технологии
В широком смысле слово технология — это способ освоения человеком материального мира с помощью социально организованной деятельности, которая включает три компоненты: информационную
(научные принципы и обоснование), материальную (орудие работы) и социальную (специалисты, имеющие профессиональные навыки). Эта триада составляет сущность современного понимания понятия технологии.
Понятие информационной технологии появилось с возникновением информационного общества, основой социальной динамики в котором являются не традиционные материальные, а информационные ресурсы: знания, наука, организационные факторы, интеллектуальные способности, инициатива, творчество и т.д. К сожалению, это понятие настолько общее и всеохватывающее, что до сих пор специалисты не пришли к четкой, формализованной формулировке. Наиболее удачным определением понятия информационной технологии дано академиком Глушковым В.М., который трактовал ее как
человеко-машинную технологию сбора, обработки и передачи информации, которая основывается на
использовании вычислительной техники.
Эта технология быстро развивается, охватывая все виды общественной деятельности: производство, управление, науку, образование, финансово—банковские операции, медицину, быт и др.
Основные представления теории информации
Понятие об информации и ее свойствах
Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Рассмотрим смысл понятия информация на примере двух подходов к измерению количества информации: подходов Хартли и Шеннона. Первый базируется на принципах теории множеств и комбинаторики, а для второго фундаментом служит теория вероятностей.
В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку. К. Шеннон в 1948 году придал этой теории завершенность. Большой вклад в дальнейшее развитие и обобщение теории информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, Р.Л. Стратанович. Сравнительно недавно исследователи советских архивов сообщили о том, что теория, известная сегодня как теория Шеннона, была создана А.Н. Колмогоровым еще в 1938 году, но была засекречена, так как использовалась в военных разработках.
Подход Р. Хартли
Подход Р. Хартли базируется на фундаментальных теоретико-множественных, по существу комбинаторных основаниях, а также некоторых интуитивно очевидных предположениях.
Итак, будем считать, что если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным.
Найдем вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, иначе говоря — с мощностью множества.
Если множество элементов, из которых осуществляется выбор, состоит из одного единственного элемента, то его выбор предопределен, т.е. никакой неопределенности выбора нет. Таким образом, если мы узнаем, что выбран этот единственный элемент, то, очевидно, при этом мы не получаем никакой новой информации, т.е. получаем нулевое количество информации.
Если множество состоит из двух элементов, то неопределенность выбора существует, но ее значение минимально. В этом случае минимально и количество информации, которое мы получаем, узнав, что совершен выбор одного из элементов.
Чем больше элементов содержит множество, тем больше неопределенность выбора, т.е. тем больше информации мы получаем, узнав о том, какой выбран элемент.
Из этих очевидных соображений следует первое требование: информация есть монотонная функция мощности исходного множества — чем больше элементов содержит множество, тем больше заключено в нем информации.
Обычно мы представляем числа в десятичной системе счисления, или системе счисления с основанием 10.


Барвенов С.А. _____________________________________________________________________________ 5
Например, целое число представляется как сумма степеней (от нулевой и выше) числа 10 с соответствующими коэффициентами от 0 до 9:
1365=1·103+3·102+6·101+5·100
В компьютерных технологиях опираются на представления чисел в двоичной (цифры 0 и 1) и шестнадцатеричной системах, в последней к цифрам 0123456789 добавлены "цифры" ABCDEF (10 11 12 13 14 15)
В двоичной системе целое число представляется как сумма степеней числа 2 с соответствующими коэффициентами от 0 до 1, а в шестнадцатеричной — как сумма степеней числа 16 с соответствующими коэффициентами от 0 до 15 (но вместо чисел от 10 до 15 используются буквы A — F).
Например:
Десятичное 13=1·2 3
+1·2 2
+0·2 1
+1·2 0
=1101 в двоичной системе.
Десятичное 65=4·16 1
+1·16 0
=41 в шестнадцатеричной системе.
Шестнадцатеричное 15AF=1·16 3
+5·16 2
+A·16 1
+F·16 0
=4096+1280+160+15=5551 в десятичной системе.
Рассмотрим множество, состоящее из чисел в двоичной системе счисления длиной i двоичных разрядов. При этом каждый из разрядов может принимать значения только 0 и 1:
Кол-во
двоичных
разрядов (i)
Кол-во состояний, которое можно пронумеровать i-разрядными двоичными числами
(N)
1 2 (0 1)
2 4 (00 01 10 11)
3 8 (000 001 010 011 100 101 110 111)
4 16 (0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111)
i
2
i
(000…00 000…01 …… 111…11)
Рассмотрим процесс выбора чисел из рассмотренного множества. До выбора вероятность выбрать любое число одинакова. Существует объективная неопределенность в вопросе о том, какое число будет выбрано. Эта неопределенность тем больше, чем больше N — количество чисел, а чисел тем больше — чем больше разрядность i этих чисел.
Примем, что выбор одного числа дает нам следующее количество информации:
i = Log
2
(N).
Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.
Это выражение и представляет собой формулу Хартли для количества информации.
При увеличении длины числа в два раза количество информации в нем также должно возрасти в два раза, несмотря на то, что количество чисел во множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), т.е. если
N2=(N1)
2
,
то
I2 = 2 * I1,
F(N1*N1)= F(N1) + F(N1).
Это невозможно, если количество информации выражается линейной функцией от количества элементов во множестве. Но известна функция, обладающая именно таким свойством: это Log:
Log
2
(N2) = Log
2
(N1)
2
= 2 * Log
2
(N1).
Это второе требование называется требованием аддитивности.
Таким образом, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к такому представлению меры информации на основе эвристических соображений, подобных только что изложенным. Но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий.
Минимальное количество информации получается при выборе одного из двух равновероятных вариантов. Это количество информации принято за единицу измерения и называется бит (от англ. binary digit — двоичная цифра, то есть два возможных значения).