Добавлен: 25.04.2023
Просмотров: 187
Скачиваний: 2
СОДЕРЖАНИЕ
1. История понятия «Информация»
2. Виды, свойства и характеристики информации
2.1. Определение понятия «Информация»
2.4. Количественные характеристики информации
3. Значение информации в материальном мире
4. Значение информации в программировании
Введение
Любой процесс в материальном мире несет в себе какую-либо информацию. Научившись обрабатывать, анализировать информацию, можно понять, предсказывать и даже управлять многими процессами. Этим обусловлена актуальность темы данной работы.
Целью данной работы является изучение понятия информации в материальном мире. Для этого необходимо выполнить следующие основные задачи:
- Изучить историю понятия «Информация»
- Изучить свойства и виды информации
- Изучить значение информации в материальном мире
- Изучить значение информации применительно к программированию
Объектом исследования в данной работе является информация, предметом – значение информации в материальном мире.
Основной метод исследования в данной работе – анализ литературы по заданной теме.
Структура работы включает:
Содержание
Введение
Заключение
Список литературы
- Титульный лист
- Основную часть
1. История понятия «Информация»
Этимология слова информация ведет нас к древнегреческим временам. Слово μορφή (morphe) означало форму (идеи, мысли), а слово εἶδος (eidos) означало идею, хорошее, обрамляющее. Именно в этих значениях эти слова использовались в трудах Платона, а затем Аристотеля, под названием «Теория форм». Позже в латинском языке возникло слово in-formatio, означающее формирование, формирование мысли, а также наставление. Далее, уже на европейских языках - английском, французском - слово «информация» стало более четким обозначением сообщения, сведений; оно не имело другого значения и до двадцатого века не входило в число часто используемых слов. Согласно этимологическому словарю Семенова, в русском языке слово распространилось в эпоху Петра I. Оно пришло из польского языка, который, в свою очередь, заимствовал его из латинского, со значением «сведения о ком или чем-либо» [1].
Понятие идеи использовалось со времен Платона для обозначения реальности, а также идеала, созданного идеей. Платон породил особое направление в философии под названием идеализм. Философы-идеалисты использовали это слово для обозначения идеи, которую имел в виду Платон, и со временем и с развитием философии слово идея стало обозначать информацию, сообщения, полученные с помощью некоторой нематериальной субстанции - духа. В том же значении «дух» использовали английский философ-епископ Джордж Беркли и немецкий философ-идеалист Иммануил Кант [2], они не использовали слово «информация».
Впервые слово «информация», в дополнение к обычному первоначальному значению: сведения, сообщения, получило несколько иное значение, а именно статистические данные, от английского математика и биолога Рональда Фишера во время разработки методов математической статистики (1921). А американский ученый-электрик Ральф Хартли представил концепцию информации как математическую переменную и первым попытался определить «меру информации», введя в 1928 году логарифмическую меру информации, которая называется количество информации Хартли.
Хартли разработал концепцию информации, основанную на «физической оппозиции психологическим соображениям» для изучения электрических коммуникаций. Он рассматривал информацию как средство связи между передатчиком и приемником информации по электрическим проводам. Работа Хартли положила начало теории информации, которая получила свое основное заключение в работе Клода Шеннона в конце сороковых годов XX века.
Клод Шеннон суммировал идеи Хартли и представил концепцию информации как меры, которая устраняет неопределенность в приемнике информации. Сначала он начал рассматривать передаваемую информацию и шум в каналах связи с точки зрения статистики, рассматривая как конечные, так и непрерывные наборы сообщений. Теория информации, разработанная Шенноном, помогла решить проблемы, связанные с передачей сообщений, а именно: устранить избыточность передаваемых сообщений, кодировать и передавать сообщения по каналам связи с помехами. Клод Шеннон дал следующее определение информации: «Сигнал, коммуникация и связь, в процессе которой устраняется неопределённость».
Примерно в те же годы математик Норберт Винер пришел к выводу, что информация - это инструмент, который делает поведение живых организмов и электронных компьютеров сходным. Он опубликовал в 1948 г. книгу «Кибернетика, или управление и связь в животном и в машине», в которой он дал несколько принципиально новых определений понятия информации, которые стали отправной точкой для изучения информации как самостоятельного физического явления.
Вот эти определения:
• «Информация - это обозначение содержания, которое мы получаем от внешнего мира в процессе адаптации нас и наших чувств к нему».
• «Информация - это то, что управляет».
• «Информация не материя и не энергия».
Винер, по сути, осуществил объединение различных концепций, существующих в философии, физике, коммуникации, биологии и компьютерных технологиях, в одну общую концепцию - информацию. После этого информация стала общенаучным термином, охватывающим все частные понятия в определенных отраслях знаний. В то же время начались попытки дать самому понятию информации свое собственное определение, которое оказалось бы для него основополагающим и было бы своего рода базовым определением для всех его конкретных синонимов.
Вслед за Винером философы и ученые стали давать другие определения информации: «Отрицание энтропии». - Леон Николя - французский и американский физик, основатель современной физики твердого тела. «Передача разнообразия». - Уильям Росс Эшби (William Ross Ashby) - английский психиатр, специалист по кибернетике, пионер в изучении сложных систем. «Вероятность выбора». - Акива Моисеевич Яглом, советский и американский физик, математик; доктор физико-математических наук.
Академик Виктор Михайлович Глушков дал очень значимое определение:: «Информация - это совокупность сведений, которые циркулируют в природе и обществе, в том числе и в созданных человеком технических системах. … мерой информации является степень неопределенности или неоднородности в распределении энергии или вещества в пространстве и во времени. Информация и существует постольку, поскольку существуют сами материальные тела и созданные ими неоднородности. Ведь всякая неоднородность, по сути дела, несет в себе какую-то информацию» [3].
Наряду с вышеприведенными определениями были и те, кто неверно истолковал информацию. Например, доктор медицинских наук Урсул А.Д. в области компьютерных наук и кибернетики дал следующее определение: «Информация - это свойства материальных объектов, полученные в результате процесса отражения [4]. В своей работе А. Д. Урсул опирался на работу В. И. Ленина "Материализм и эмпириокритицизм" и Теорию отражения, представленную в этой книге. Сторонники этой точки зрения, в отличие от мнения В.М. Глушкова считают, что информация возникает в момент взаимодействия одного материального объекта, первичного источника информации, с другим материальным объектом, в котором формируется отражение свойств первого объекта. Наличие исходного источника (первый объект) и носителя информации (второй объект) является обязательным условием для появления информации. В связи с этим до сих пор существует такое определение информации: «Информация - это отражение одного объекта в другом».
Такое понимание было закреплено за информацией в советское время и остается в русской философии до сих пор. Об этом свидетельствует, например, заявление доктора технических наук К.К. Колина: «Философия информации в России развивается уже более 40 лет. Здесь, прежде всего, следует отметить фундаментальные исследования этой проблемы, которые были проведены академиком А.Д. Урсулом. Его монографии, опубликованные более 30 лет назад, являются классическими работами в этой области и хорошо известны специалистам. Они остаются актуальными и сегодня, когда философские проблемы информатики и информатики все активнее обсуждаются на страницах научных журналов и конференций» [5].
И далее в той же работе: «По мнению многих авторитетных исследователей, информация является одним из наиболее значительных и в то же время загадочных явлений окружающего нас мира. Попытки понять суть этого явления предпринимались многими учеными в течение нескольких десятилетий, начиная с середины 20-го века. Тем не менее, общепринятое понимание концептуальной природы информации в научном сообществе еще не выработано». То же самое сказано в сравнительно недавней работе, в 2009 году. «Сложность определения понятия информации, связанная с его неоднозначностью» [6], академика Российской академии естественных наук, АИО Владимира Романенко и профессора Галина Никитиной.
АД. Урсул опирался, как уже было сказано, на ленинскую работу «Материализм и эмпириокритицизм», которая отвергает «всякий дуализм и кантианство». Те. фактически было отвергнуто, что неживые материальные объекты являются первичными источниками информации, как В.М. Глушков и живые организмы, воспринимая эту информацию, могут адекватно реагировать на нее.
Поскольку информация участвует в качестве контролирующего средства во всех процессах, происходящих в мире, она, информация, является фундаментальным и универсальным свойством нашей вселенной. Наиболее распространенной информационной характеристикой мира является разнообразие и разнообразие. Следовательно, наиболее распространенным, философским и абстрактным определением информации является разнообразие [7]. Понятие - разнообразие - охватывает любые конкретные информационные понятия, будь то просто информация и любые описания, будь то идеи и мысли в голове человека. Разнообразие охватывает информацию, описания, коды, алфавиты и программы, изобразительное искусство и музыку. Одним словом - все, что существует в мире и даже в воображении. В отличие от универсального разнообразия и разнообразия, информация - это конкретно выбранное разнообразие, иными словами, определенное разнообразие. В этой конкретизации существует различие между информационным разнообразием и универсальным разнообразием. В этом заключается единство всех его возможных частных определений, представляющих различные проявления информации.
Что касается современного понятия информации, толковый словарь русского языка Ожегова приводит два определения:
- Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.
- Сообщения, осведомляющие о положении дел, о состоянии чего- нибудь. (Научно-техническая и газетная информации, средства мас- совой информации – печать, радио, телевидение, кино) [8].
Таким образом, мы выяснили, что история понятия «Информация» имеет долгую историю развития. Наибольшее развитие понятие получило в XX веке с активным развитием информационных технологий.
2. Виды, свойства и характеристики информации
2.1. Определение понятия «Информация»
В литературе можно найти достаточно много определений термина информация, отражающих различные подходы к толкованию этого понятия.
В Федеральном законе Российской Федерации «Об информации, информатизации и защите информации» [9] дается следующее определение этого термина: «информация – сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления».
В информатике наиболее часто используется следующее определение этого термина:
Информация – это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения – это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.
Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств массовой информации и их влияния на общество), информатика, соционика (теория информационного метаболизма индивидуальной и социальной психики), информодинамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т.д.
Каждого человека в мире окружает море информации различных видов. Стремление зафиксировать, сохранить надолго свое восприятие информации было всегда свойственно человеку. Мозг человека хранит множество информации, и использует для хранения ее свои способы, основа которых – двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей информацией с другими людьми и найти надежные средства для ее передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и ее передачи на огромные расстояния [10].