Файл: практика введение в инфор.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.11.2021

Просмотров: 119

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
background image

 

Тема №1: Введение в информатику  

 
Цель

: Сформировать представление об информационном обществе, показать структуру рынка информационных продуктов 

и  услуг,  объяснить  роль  и  назначение  информатики.  Ознакомиться  с  общими  принципами  работы    персональных 
компьютеров. 

  

 
Задачи  обучения: 

формирование  понятий  о  предмете,  объектах  и  составных  частях  информатики,  физических  и 

математических аспектах информации, математических основах информатики. 

 
Основные вопросы темы: 
 

1.

 

Предмет, объекты и составные части информатики.  

2.

 

Физические и математические аспекты информации.  

3.

 

Математические основы информатики.  

 

Методы обучения и преподавания: 

семинар 

Литература: 

1.

 

В.Я.Гельман. «Медицинская информатика». Санкт-Петербург, 2002 г.  

2.

 

С.В.Симонович. «Информатика. Базовый курс. 2-издание».Санкт-Петербург, 2003г.   

3.

 

С.В.Глушаков, А.С.Сурядный.

 

Персональный компьютер. М.Фолио.2004 г.  

4.

 

А.Н. Степанов Информатика 4-е издание. Питер 2005 г. 

5.

 

Под. редакцией проф. Н. В. Макаровой. «Информатика». М., 2006г.  

 

Теоретический блок 

 

Предмет, объекты и составные части информатики. 

Термин 

"информатика"

  (франц.  informatique)  происходит  от  французских  слов 

information

  (информация)  и 

automatique

 (автоматика) и дословно означает 

"информационная автоматика"

.  

Широко  распространён  также  англоязычный  вариант  этого  термина  — 

"Сomputer  science"

,  что  означает  буквально 

"компьютерная наука".

 

Инфоpматика  —  это  основанная  на  использовании  компьютерной  техники  дисциплина,  изучающая  структуру  и 
общие  свойства  информации,  а  также  закономерности  и  методы  её  создания,  хранения,  поиска,  преобразования, 
передачи и применения в различных сферах человеческой деятельности.  

В 1978 году международный научный конгресс официально закрепил за понятием 

"информатика"

 области, связанные 

с 

разработкой,  созданием,  использованием  и  материально-техническим  обслуживанием  систем  обработки 

информации,  включая  компьютеры  и  их  программное  обеспечение,  а  также  организационные,  коммерческие, 
административные  и  социально-политические  аспекты  компьютеризации  —  массового  внедрения  компьютерной 
техники во все области жизни людей

.  

Таким образом, информатика базируется на компьютерной технике и немыслима без нее.  

Инфоpматика  —  комплексная  научная  дисциплина  с  широчайшим  диапазоном  применения.  Её 

приоритетные 

направления

:  

 

pазpаботка вычислительных систем и пpогpаммного обеспечения

;  

 

теоpия  инфоpмации

,  изучающая  процессы,  связанные  с  передачей,  приёмом,  преобразованием  и  хранением 

информации;  

 

математическое  моделирование,  методы  вычислительной  и  прикладной  математики  и  их  применение  к 
фундаментальным и прикладным исследованиям в различных областях знаний;

  

 

методы  искусственного  интеллекта

,  моделирующие  методы  логического  и  аналитического  мышления  в 

интеллектуальной  деятельности  человека  (логический  вывод,  обучение,  понимание  речи,  визуальное  восприятие, 
игры и др.);  

 

системный анализ

, изучающий методологические средства, используемые для подготовки и обоснования решений 

по сложным проблемам различного характера;  

 

биоинформатика

, изучающая информационные процессы в биологических системах;  

 

социальная информатика

, изучающая процессы информатизации общества;  

 

методы машинной графики, анимации, средства мультимедиа

;  


background image

 

 

телекоммуникационные  системы  и  сети

,  в  том  числе, 

глобальные

  компьютерные  сети,  объединяющие  всё 

человечество в единое информационное сообщество;  

 

разнообразные  пpиложения

,  охватывающие  производство,  науку,  образование,  медицину,  торговлю,  сельское 

хозяйство и все другие виды хозяйственной и общественной деятельности.  

Российский  академик 

А.А.  Дородницин

  выделяет  в  информатике  три  неразрывно  и  существенно  связанные  части  — 

технические средства, программные и алгоритмические.

 

Технические  средства

,  или  аппаратура  компьютеров,  в  английском  языке  обозначаются  словом 

Hardware

,  которое 

буквально переводится как "твердые изделия".  

Для  обозначения 

программных  средств

,  под  которыми  понимается 

совокупность  всех  программ,  используемых 

компьютерами,  и  область  деятельности  по  их  созданию  и  применению

,  используется  слово 

Software

  (буквально  — 

"мягкие изделия"), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность 
программного обеспечения модифицироваться, приспосабливаться и развиваться.  

Программированию  задачи  всегда  предшествует 

разработка  способа  ее  решения  в  виде  последовательности 

действий,  ведущих  от  исходных  данных  к  искомому  результату

,  иными  словами, 

разработка  алгоритма  решения 

задачи

.  Для  обозначения  части  информатики,  связанной  с  разработкой  алгоритмов  и  изучением  методов  и  приемов  их 

построения, применяют термин 

Brainware

 (англ. brain — интеллект).  

Роль  информатики  в  развитии  общества  чрезвычайно  велика.  С  ней  связано  начало  революции  в  области 

накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом 
и  энергией,  затрагивает  и  коренным  образом  преобразует  не  только  сферу  материального  производства,  но  и 
интеллектуальную, духовную сферы жизни.

  

Прогрессивное  увеличение  возможностей  компьютерной  техники,  развитие  информационных  сетей,  создание  новых 

информационных  технологий  приводят  к  значительным  изменениям  во  всех  сферах  общества:  в  производстве,  науке, 
образовании, медицине и т.д. 

 
 

Что такое информация? 

Термин   

"информация"

   происходит  от  латинского  слова   

"informatio"

,   что  означает   

сведения,   разъяснения, 

 изложение

.  Несмотря  на  широкое  распространение  этого  термина,  понятие  информации  является  одним  из  самых 

дискуссионных  в  науке.  В  настоящее  время  наука  пытается  найти  общие  свойства  и  закономерности,  присущие 
многогранному  понятию 

информация

,  но  пока  это  понятие  во  многом  остается  интуитивным  и  получает  различные 

смысловые наполнения в различных отраслях человеческой деятельности:  

 

в  обиходе

  информацией  называют  любые  данные  или  сведения,  которые  кого-либо  интересуют.  Например, 

сообщение  о  каких-либо  событиях,  о  чьей-либо  деятельности  и  т.п.    

"Информировать"

  в  этом  смысле  означает    

"сообщить нечто

,

 неизвестное раньше"

;  

 

в технике

 под информацией понимают сообщения, передаваемые в форме знаков или сигналов;  

 

в кибернетике

 под информацией  понимает ту часть знаний, которая используется для  ориентирования, активного 

действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).  

Клод  Шеннон

,

  американский  учёный,  заложивший  основы  теории  информации  —  науки,  изучающей  процессы, 

связанные с передачей, приёмом, преобразованием и хранением информации, — 

рассматривает информацию как снятую 

неопределенность наших знаний о чем-то.

  

Приведем еще несколько определений:  

 

Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, 
которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний

 (Н.В. Макарова);  

 

Информация — это отрицание энтропии

 (Леон Бриллюэн);  

 

Информация — это мера сложности структур

 (Моль);  

 

Информация — это отраженное разнообразие

 (Урсул);  

 

Информация — это содержание процесса отражения

 (Тузов);  

 

Информация — это вероятность выбора

 (Яглом).  


background image

 

Современное  научное  представление  об  информации  очень  точно  сформулировал 

  

Норберт  Винер

,  "отец" 

кибернетики. А именно:  

Информация  —  это  обозначение  содержания,  полученного  из  внешнего  мира  в  процессе  нашего  приспособления  к 
нему и приспособления к нему наших чувств.  

Люди  обмениваются  информацией  в  форме  сообщений.  Сообщение  —  это  форма  представления  информации  в  виде 

речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.  

Одно и то же информационное сообщение

 (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, 

радиопередача  и  т.п.) 

может  содержать  разное  количество  информации  для  разных  людей  —  в  зависимости  от  их 

предшествующих знаний, от уровня понимания этого сообщения и интереса к нему

.  

Так, сообщение, составленное  на японском языке, не несёт никакой новой информации человеку,  не знающему этого 

языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит 
и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.  

Информация  есть  характеристика  не  сообщения,  а  соотношения  между  сообщением  и  его  потребителем.  Без 
наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.  

В  случаях,  когда  говорят 

об  автоматизированной  работе  с  информацией  посредством  каких-либо  технических 

устройств,

  обычно  в  первую  очередь  интересуются  не  содержанием  сообщения,  а  тем,  сколько  символов  это  сообщение 

содержит.  

Применительно  к  компьютерной  обработке  данных  под  информацией  понимают  некоторую  последовательность 
символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую 
нагрузку  и  представленную  в  понятном  компьютеру  виде.  Каждый  новый  символ  в  такой  последовательности 
символов увеличивает информационный объём сообщения.  

 

В каком виде существует информация? 

Информация может существовать в виде:  

 

текстов, рисунков, чертежей, фотографий;  

 

световых или звуковых сигналов;  

 

радиоволн;  

 

электрических и нервных импульсов;  

 

магнитных записей;  

 

жестов и мимики;  

 

запахов и вкусовых ощущений;  

 

хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.  

Предметы,  процессы,  явления  материального  или  нематериального  свойства,  рассматриваемые  с  точки  зрения  их 

информационных свойств, называются информационными объектами. 

Как передаётся информация? 

Информация  передаётся  в  форме 

сообщений

  от  некоторого 

источника

  информации  к  её 

приёмнику

  посредством 

канала  связи

  между  ними.  Источник  посылает 

передаваемое  сообщение

,  которое 

кодируется  в  передаваемый  сигнал

Этот  сигнал  посылается  по 

каналу  связи

.  В  результате  в  приёмнике  появляется 

принимаемый  сигнал

,  который 

декодируется

 

и 

становится 

принимаемым 

сообщением

.  

   

  

канал связи 

  


background image

 

                    

 ИСТОЧНИК

 

-----------

 

ПРИЁМНИК              
       

 

Примеры:  

1.

 

Cообщение

содержащее  информацию  о  прогнозе  погоды,  передаётся  приёмнику

  (телезрителю) 

от  источника

  — 

специалиста-метеоролога 

посредством канала связи

 — телевизионной передающей аппаратуры и телевизора.  

2.

 

Живое  существо  своими  органами  чувств

  (глаз,  ухо,  кожа,  язык  и  т.д.) 

воспринимает  информацию  из  внешнего 

мира

перерабатывает  её

  в  определенную  последовательность  нервных  импульсов, 

передает

  импульсы  по 

нервным волокнам, 

хранит

 в памяти в виде состояния нейронных  структур мозга, 

воспроизводит

 в виде звуковых 

сигналов, движений и т.п., 

использует

 в процессе своей жизнедеятельности.  

Передача  информации  по  каналам  связи  часто  сопровождается  воздействием 

помех

,  вызывающих 

искажение  и 

потерю информации

Как измеряется количество информации? 

Какое  количество  информации  содержится,  к  примеру,  в  тексте  романа  "Война  и  мир",  во  фресках  Рафаэля  или  в 

генетическом  коде  человека?  Ответа  на  эти  вопросы  наука  не  даёт  и,  по  всей  вероятности,  даст  не  скоро. 

А  возможно  ли 

объективно  измерить  количество  информации

?  Важнейшим  результатом  теории  информации  является  следующий 

вывод:  

В  определенных,  весьма  широких  условиях  можно  пренебречь  качественными  особенностями  информации, 
выразить  её  количество  числом,  а  также  сравнить  количество  информации,  содержащейся  в  различных  группах 
данных.  

В  настоящее  время  получили  распространение  подходы  к  определению  понятия  "количество  информации", 

основанные на том, 

что информацию, содержащуюся в сообщении, можно нестрого  трактовать в смысле её новизны 

или,  иначе,  уменьшения  неопределённости  наших  знаний  об  объекте

.     Эти  подходы  используют  математические 

понятия 

вероятности

 

и 

логарифма.

 

   

     

        Подходы к определению количества информации.   Формулы Хартли и Шеннона.

  

Американский  инженер 

Р.  Хартли

  в  1928  г. 

процесс  получения  информации  рассматривал  как  выбор  одного 

сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, 
содержащееся в выбранном сообщении, определял как двоичный логарифм N

.  

            Формула Хартли:   I = log

2

N

  

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое 

количество  информации  для  этого  требуется:  I  =  log

2

100 

  6,644.  Таким  образом,  сообщение  о  верно  угаданном  числе 

содержит количество информации, приблизительно равное 6,644 единицы информации.  

Приведем другие 

примеры равновероятных сообщений

:  

1.

 

при бросании монеты: 

"выпала решка"

"выпал орел"

;  

2.

 

на странице книги: 

"количество букв чётное"

"количество букв нечётное"

.  

Определим  теперь, 

являются  ли  равновероятными  сообщения

 

"первой  выйдет  из  дверей  здания  женщина"

  и 

"первым выйдет из дверей здания мужчина"

Однозначно  ответить на этот вопрос нельзя

. Все зависит от того, о каком 

именно  здании  идет  речь.  Если  это,  например,  станция  метро,  то  вероятность  выйти  из  дверей  первым  одинакова  для 
мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.  

Для  задач  такого  рода  американский  учёный 

Клод  Шеннон

  предложил  в  1948  г.  другую 

формулу  определения 


background image

 

количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе

.  

                                 Формула  Шеннона:  I  =  —  (  p

1

log

2

  p

1

  +  p

2

  log

2

  p

2

  +  .  .  .  +  p

N

  log

2

  p

N

), 

где p

i

 — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

  

Легко заметить, что если вероятности 

p

1

, ..., p

N

 равны, то каждая из них равна 

1 / N

, и формула Шеннона превращается 

в формулу Хартли.  

Помимо  двух  рассмотренных  подходов  к  определению  количества  информации,  существуют  и  другие. 

Важно 

помнить,  что  любые  теоретические  результаты  применимы  лишь  к  определённому  кругу  случаев,  очерченному 
первоначальными допущениями

.  

  

В качестве единицы информации Клод Шеннон предложил принять  один  

бит

    (

англ

bit

 — 

binary

 

digit

 — двоичная 

цифра).  

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений 
  

(типа 

"орел"—"решка", 

"чет"—"нечет" 

и 

т.п.).  

 
В вычислительной технике
 битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения 
одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.  

Бит — слишком мелкая единица измерения.  На практике чаще  применяется более крупная единица —  

байт

,  равная 

 

восьми битам.

 Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры 

компьютера (256=2

8

).  

Широко используются также ещё 

более крупные производные единицы информации

:  

 

1 Килобайт (Кбайт) = 1024 байт = 2

10

 байт,

  

 

1 Мегабайт (Мбайт) = 1024 Кбайт = 2

20

 байт,

  

 

1 Гигабайт (Гбайт) = 1024 Мбайт = 2

30

 байт.

  

В  последнее  время  в  связи  с  увеличением  объёмов  обрабатываемой  информации  входят  в  употребление  такие 

производные единицы, как:  

 

1 Терабайт (Тбайт) = 1024 Гбайт = 2

40

 байт,

  

 

1 Петабайт (Пбайт) = 1024 Тбайт = 2

50

 байт.

  

За  единицу  информации  можно  было  бы  выбрать  количество  информации,  необходимое  для  различения,  например, 

десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (

дит

) единица информации. 

Какими свойствами обладает информация? 

Свойства информации:  

 

достоверность;

  

 

полнота;

  

 

ценность;

  

 

своевременность;

  

 

понятность;

  

 

доступность;

  

 

краткость;

  

 

и др.  

Информация достоверна, если она отражает истинное положение дел

. Недостоверная информация может привести 

к неправильному пониманию или принятию неправильных решений.