ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 18.11.2021
Просмотров: 119
Скачиваний: 2
1
Тема №1: Введение в информатику
Цель
: Сформировать представление об информационном обществе, показать структуру рынка информационных продуктов
и услуг, объяснить роль и назначение информатики. Ознакомиться с общими принципами работы персональных
компьютеров.
Задачи обучения:
формирование понятий о предмете, объектах и составных частях информатики, физических и
математических аспектах информации, математических основах информатики.
Основные вопросы темы:
1.
Предмет, объекты и составные части информатики.
2.
Физические и математические аспекты информации.
3.
Математические основы информатики.
Методы обучения и преподавания:
семинар
Литература:
1.
В.Я.Гельман. «Медицинская информатика». Санкт-Петербург, 2002 г.
2.
С.В.Симонович. «Информатика. Базовый курс. 2-издание».Санкт-Петербург, 2003г.
3.
С.В.Глушаков, А.С.Сурядный.
Персональный компьютер. М.Фолио.2004 г.
4.
А.Н. Степанов Информатика 4-е издание. Питер 2005 г.
5.
Под. редакцией проф. Н. В. Макаровой. «Информатика». М., 2006г.
Теоретический блок
Предмет, объекты и составные части информатики.
Термин
"информатика"
(франц. informatique) происходит от французских слов
information
(информация) и
automatique
(автоматика) и дословно означает
"информационная автоматика"
.
Широко распространён также англоязычный вариант этого термина —
"Сomputer science"
, что означает буквально
"компьютерная наука".
Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и
общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования,
передачи и применения в различных сферах человеческой деятельности.
В 1978 году международный научный конгресс официально закрепил за понятием
"информатика"
области, связанные
с
разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки
информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие,
административные и социально-политические аспекты компьютеризации — массового внедрения компьютерной
техники во все области жизни людей
.
Таким образом, информатика базируется на компьютерной технике и немыслима без нее.
Инфоpматика — комплексная научная дисциплина с широчайшим диапазоном применения. Её
приоритетные
направления
:
pазpаботка вычислительных систем и пpогpаммного обеспечения
;
теоpия инфоpмации
, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением
информации;
математическое моделирование, методы вычислительной и прикладной математики и их применение к
фундаментальным и прикладным исследованиям в различных областях знаний;
методы искусственного интеллекта
, моделирующие методы логического и аналитического мышления в
интеллектуальной деятельности человека (логический вывод, обучение, понимание речи, визуальное восприятие,
игры и др.);
системный анализ
, изучающий методологические средства, используемые для подготовки и обоснования решений
по сложным проблемам различного характера;
биоинформатика
, изучающая информационные процессы в биологических системах;
социальная информатика
, изучающая процессы информатизации общества;
методы машинной графики, анимации, средства мультимедиа
;
2
телекоммуникационные системы и сети
, в том числе,
глобальные
компьютерные сети, объединяющие всё
человечество в единое информационное сообщество;
разнообразные пpиложения
, охватывающие производство, науку, образование, медицину, торговлю, сельское
хозяйство и все другие виды хозяйственной и общественной деятельности.
Российский академик
А.А. Дородницин
выделяет в информатике три неразрывно и существенно связанные части —
технические средства, программные и алгоритмические.
Технические средства
, или аппаратура компьютеров, в английском языке обозначаются словом
Hardware
, которое
буквально переводится как "твердые изделия".
Для обозначения
программных средств
, под которыми понимается
совокупность всех программ, используемых
компьютерами, и область деятельности по их созданию и применению
, используется слово
Software
(буквально —
"мягкие изделия"), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность
программного обеспечения модифицироваться, приспосабливаться и развиваться.
Программированию задачи всегда предшествует
разработка способа ее решения в виде последовательности
действий, ведущих от исходных данных к искомому результату
, иными словами,
разработка алгоритма решения
задачи
. Для обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их
построения, применяют термин
Brainware
(англ. brain — интеллект).
Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области
накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом
и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и
интеллектуальную, духовную сферы жизни.
Прогрессивное увеличение возможностей компьютерной техники, развитие информационных сетей, создание новых
информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке,
образовании, медицине и т.д.
Что такое информация?
Термин
"информация"
происходит от латинского слова
"informatio"
, что означает
сведения, разъяснения,
изложение
. Несмотря на широкое распространение этого термина, понятие информации является одним из самых
дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие
многогранному понятию
информация
, но пока это понятие во многом остается интуитивным и получает различные
смысловые наполнения в различных отраслях человеческой деятельности:
в обиходе
информацией называют любые данные или сведения, которые кого-либо интересуют. Например,
сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.
"Информировать"
в этом смысле означает
"сообщить нечто
,
неизвестное раньше"
;
в технике
под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
в кибернетике
под информацией понимает ту часть знаний, которая используется для ориентирования, активного
действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).
Клод Шеннон
,
американский учёный, заложивший основы теории информации — науки, изучающей процессы,
связанные с передачей, приёмом, преобразованием и хранением информации, —
рассматривает информацию как снятую
неопределенность наших знаний о чем-то.
Приведем еще несколько определений:
Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии,
которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний
(Н.В. Макарова);
Информация — это отрицание энтропии
(Леон Бриллюэн);
Информация — это мера сложности структур
(Моль);
Информация — это отраженное разнообразие
(Урсул);
Информация — это содержание процесса отражения
(Тузов);
Информация — это вероятность выбора
(Яглом).
3
Современное научное представление об информации очень точно сформулировал
Норберт Винер
, "отец"
кибернетики. А именно:
Информация — это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к
нему и приспособления к нему наших чувств.
Люди обмениваются информацией в форме сообщений. Сообщение — это форма представления информации в виде
речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.
Одно и то же информационное сообщение
(статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж,
радиопередача и т.п.)
может содержать разное количество информации для разных людей — в зависимости от их
предшествующих знаний, от уровня понимания этого сообщения и интереса к нему
.
Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого
языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит
и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.
Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без
наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.
В случаях, когда говорят
об автоматизированной работе с информацией посредством каких-либо технических
устройств,
обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение
содержит.
Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность
символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую
нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности
символов увеличивает информационный объём сообщения.
В каком виде существует информация?
Информация может существовать в виде:
текстов, рисунков, чертежей, фотографий;
световых или звуковых сигналов;
радиоволн;
электрических и нервных импульсов;
магнитных записей;
жестов и мимики;
запахов и вкусовых ощущений;
хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.
Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их
информационных свойств, называются информационными объектами.
Как передаётся информация?
Информация передаётся в форме
сообщений
от некоторого
источника
информации к её
приёмнику
посредством
канала связи
между ними. Источник посылает
передаваемое сообщение
, которое
кодируется в передаваемый сигнал
.
Этот сигнал посылается по
каналу связи
. В результате в приёмнике появляется
принимаемый сигнал
, который
декодируется
и
становится
принимаемым
сообщением
.
канал связи
4
ИСТОЧНИК
-----------
ПРИЁМНИК
Примеры:
1.
Cообщение
,
содержащее информацию о прогнозе погоды, передаётся приёмнику
(телезрителю)
от источника
—
специалиста-метеоролога
посредством канала связи
— телевизионной передающей аппаратуры и телевизора.
2.
Живое существо своими органами чувств
(глаз, ухо, кожа, язык и т.д.)
воспринимает информацию из внешнего
мира
,
перерабатывает её
в определенную последовательность нервных импульсов,
передает
импульсы по
нервным волокнам,
хранит
в памяти в виде состояния нейронных структур мозга,
воспроизводит
в виде звуковых
сигналов, движений и т.п.,
использует
в процессе своей жизнедеятельности.
Передача информации по каналам связи часто сопровождается воздействием
помех
, вызывающих
искажение и
потерю информации
.
Как измеряется количество информации?
Какое количество информации содержится, к примеру, в тексте романа "Война и мир", во фресках Рафаэля или в
генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.
А возможно ли
объективно измерить количество информации
? Важнейшим результатом теории информации является следующий
вывод:
В определенных, весьма широких условиях можно пренебречь качественными особенностями информации,
выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах
данных.
В настоящее время получили распространение подходы к определению понятия "количество информации",
основанные на том,
что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны
или, иначе, уменьшения неопределённости наших знаний об объекте
. Эти подходы используют математические
понятия
вероятности
и
логарифма.
Подходы к определению количества информации. Формулы Хартли и Шеннона.
Американский инженер
Р. Хартли
в 1928 г.
процесс получения информации рассматривал как выбор одного
сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I,
содержащееся в выбранном сообщении, определял как двоичный логарифм N
.
Формула Хартли: I = log
2
N
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое
количество информации для этого требуется: I = log
2
100
6,644. Таким образом, сообщение о верно угаданном числе
содержит количество информации, приблизительно равное 6,644 единицы информации.
Приведем другие
примеры равновероятных сообщений
:
1.
при бросании монеты:
"выпала решка"
,
"выпал орел"
;
2.
на странице книги:
"количество букв чётное"
,
"количество букв нечётное"
.
Определим теперь,
являются ли равновероятными сообщения
"первой выйдет из дверей здания женщина"
и
"первым выйдет из дверей здания мужчина"
.
Однозначно ответить на этот вопрос нельзя
. Все зависит от того, о каком
именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для
мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.
Для задач такого рода американский учёный
Клод Шеннон
предложил в 1948 г. другую
формулу определения
5
количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе
.
Формула Шеннона: I = — ( p
1
log
2
p
1
+ p
2
log
2
p
2
+ . . . + p
N
log
2
p
N
),
где p
i
— вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Легко заметить, что если вероятности
p
1
, ..., p
N
равны, то каждая из них равна
1 / N
, и формула Шеннона превращается
в формулу Хартли.
Помимо двух рассмотренных подходов к определению количества информации, существуют и другие.
Важно
помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному
первоначальными допущениями
.
В качестве единицы информации Клод Шеннон предложил принять один
бит
(
англ
.
bit
—
binary
digit
— двоичная
цифра).
Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений
(типа
"орел"—"решка",
"чет"—"нечет"
и
т.п.).
В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения
одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица —
байт
, равная
восьми битам.
Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры
компьютера (256=2
8
).
Широко используются также ещё
более крупные производные единицы информации
:
1 Килобайт (Кбайт) = 1024 байт = 2
10
байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 2
20
байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 2
30
байт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие
производные единицы, как:
1 Терабайт (Тбайт) = 1024 Гбайт = 2
40
байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 2
50
байт.
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например,
десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (
дит
) единица информации.
Какими свойствами обладает информация?
Свойства информации:
достоверность;
полнота;
ценность;
своевременность;
понятность;
доступность;
краткость;
и др.
Информация достоверна, если она отражает истинное положение дел
. Недостоверная информация может привести
к неправильному пониманию или принятию неправильных решений.