Файл: Рассказ о дисциплине Информация.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 12.01.2024

Просмотров: 87

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Лекция.1

Основные понятия информации.

Представление информации.

Системы счисления.

Приветствие

Знакомство

Рассказ о дисциплине

Информация

Все, что делает человек, так или иначе связано с получением и использованием информации. Читая книгу, разглядывая фотографию, мы запоминаем и накапливаем информацию. Пишем ли мы письмо, разговариваем ли по телефону - мы передаем информацию адресату или собеседнику. Решая любую задачу, мы обрабатываем информацию: начиная с информации, заключенной в условии задачи, приходим к ее решению.

Информация - это настолько общее и глубокое понятие, что ему нельзя дать краткое определение или объяснить одной фразой. Вы будете знакомиться с этим понятием постепенно в течение всего курса, на первых порах используя интуитивное представление об информации, которое у вас уже есть. Говоря об информации, часто употребляют выражения "передавать информацию", "хранить информацию", "обрабатывать информацию". Передача, накопление и обработка информации - это важнейшие процессы и явления, связанные с информацией.

Информация является первичным и неопределяемым в рамках науки понятием. Особенность этого понятия в том, что оно используется во всех сферах: в философии, в естественных и гуманитарных науках, в технике и экономике, и, конечно, в повседневной жизни. Поэтому конкретное толкование элементов, связанных с понятием "информация", зависит от метода конкретной науки.

Понятие "информация" первоначально было связано исключительно с социальной сферой, с коммуникативной деятельностью людей. Этот вывод опирается на результаты исследования значений слова "информация", которое впервые зародилось в латинском языке; в русском языке, точнее древнерусском, его ранее не было. В России оно впервые появляется, по-видимому, в петровскую эпоху.

Ученые считают, что это слово перешло в русский язык от польского "informacia". В то время слово информация в русском языке употреблялось в смысле "идея, наука".

Вплоть до начала XX в. слово "информация" не встречается практически ни в одном словаре. И только в "Толковом словаре русского языка" (ред. Д.Н. Ушакова), изданном в 1935 г., оно определяется как сообщение, осведомление о положении дел или чьей-либо деятельности, как сведения о чем-либо.

Наука второй половины XX в. внесла существенные коррективы в понимание информации. Начиная с 20-х гг, делаются первые попытки изучения понятия "информация" вначале в русле социально-гуманитарных наук.


Однако бурное развитие коммуникаций привело к тому, что возникла потребность к изучению не только в содержательных, но и количественных характеристик информации. Логическое и математическое уточнение понятия информации произошло в конце 40-х гг главным образом в теории передачи информации и кибернетики.

История теории информации начинается с 1948 г, когда была опубликована основополагающая статья К.Э. Шеннона "Математическая теория связи", в которой было дано вероятностно статистическое определение понятия количества информации.

В теории Шеннона под информацией понимались не любые сообщения, которыми обмениваются между собой люди, а только те, которые уменьшают неопределенность у получателя информации. Неопределенность же существует лишь тогда, когда происходит выбор одной из нескольких возможностей.

Например, выбор и соответственно уменьшение неопределенности существует при розыгрыше лотереи. Если вам сообщают, что интересующий вас абитуриент поступил в вуз, то тем самым такое сведение снимет неопределенность, ибо из двух возможных исходов (поступил, не поступил) реализуется один.

Существует классическое определение информации Шеннона: информация - это то, что сокращает степень неопределенности у ее адресата о каком-либо объекте.

Тем самым в теории Шеннона информация выступает в качестве снимаемой, уменьшаемой неопределенности, а количество информации измеряется посредством вероятности как отношение выбираемых элементов ко всей их совокупности.

Однако помимо вероятностно-статистической появились и другие варианты определения количества информации.

Широкий распространение получил комбинаторный подход к определению количества информации. Наиболее развитым в математическом отношении является такой вариант комбинаторного подхода в теории информации, как эпсилон-энтропия (А.Н. Колмогоров, В.М. Тихомиров, А.Г. Витушкин и др.)

Информация — осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека в мире окружает море информации различных видов.

'Информация (informatio — осведомление, разъяснение, изложение) — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков.



Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве.

Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.

Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. (Научно-техническая и газетная информации, средства массовой информации — печать, радио, телевидение, кино).

Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств массовой информации и их влияния на общество), информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки), информодинамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т. д.

Информация содержится везде. Дерево содержит собственную генетическую информацию, и только благодаря этой информации от семечки берёзы вырастает только берёза. Для деревьев источником информации является воздух, именно по состоянию воздуха дерево может определить время распускания почек. Перелётные птицы знают свой маршрут перелёта, и каждая стая идёт только своим заданным в генах маршрутом.

Стремление зафиксировать, сохранить надолго свое восприятие информации было всегда свойственно человеку. Мозг человека хранит множество информации и использует для хранения её свои способы, основа которых — двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей информацией с другими людьми и найти надёжные средства для её передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и её передачи на огромные расстояния.

Основные виды информации по её форме представления, способам её кодирования и хранения, что имеет наибольшее значение для информатики, это:

графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;


звуковая (акустическая) — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г. её разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение её аналогично графической информации;

текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;

числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для её отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными;

видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.

Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества — передача закодированного определенным образом сигнала по проводам, позднее — с использованием радиоволн.

Создателем общей теории информации и основоположником цифровой связи считается Клод Шеннон (Claude Shannon). Всемирную известность ему принес фундаментальный труд 1948 года — «Математическая теория связи» (A Mathematical Theory of Communication), в котором впервые обосновывается возможность применения двоичного кода для передачи информации.

С появлением компьютеров (или, как их вначале называли в нашей стране, ЭВМ — электронные вычислительные машины) вначале появилось средство для обработки числовой информации. Однако в дальнейшем, особенно после широкого распространения персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и видеоинформации. С момента появления первых персональных компьютеров — ПК (80-е годы 20 века) — до 80 % их рабочего времени посвящено работе с текстовой информацией.


Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Обработку информации (воспроизведение, преобразование, передача, запись на внешние носители) выполняет процессор компьютера. С помощью компьютера возможно создание и хранение новой информации любых видов, для чего служат специальные программы, используемые на компьютерах, и устройства ввода информации.

Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, обеспечивающее коллективную работу с информацией всех видов.

Свойства информации

С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

Объективность информации. Информация в любом своём проявлении объективна, она отображает объективную действительность. Например фраза "На улице тёплая погода" означает, что человек её произнесший считает погоду на улице тёплой, т.е. информацией в данном случае будет являться то, что определённый человек произнёс фразу следующего содержания.

Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.