Файл: Контрольная работа по дисциплине Информатика иэиМ .docx
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 10.11.2023
Просмотров: 165
Скачиваний: 6
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
Министерство науки и высшего образования Российской Федерации
Федеральное государственное бюджетное образовательное учреждение
высшего образования
Владимирский государственный университет
им. А.Г. и Н.Г. Столетовых
Кафедра "экономическая безопасность"
Контрольная работа по дисциплине
Информатика [ ИЭиМ ]
| | | |
| | | |
| | Выполнил: | студент группы ЗЭБд-122 |
| | | группа |
| | | Мишкин |
| | | Фамилия |
| | | Кирилл Александрович |
| | | Имя Отчество |
| | | |
| | | |
| | | |
| | | |
| | | |
Владимир 2023
Лекция 1. Понятие информации. Информационные
процессы.
Ответы на вопросы:
Вопрос 1: Как вы понимаете термин «информация»? Что общего и каковы различия между бытовым понятием этого термина и его научными трактовками?
Ответ: В широком смысле информация – это отражение реального мира, в узком смысле – это любые сведения, являющиеся объектом хранения, передачи и преобразования. Понятие «информация» вместе с понятиями «вещество» и «энергия» относятся к основным понятиям науки, поэтому строгого и точного научного определения этому понятию дать невозможно.
В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. В «Энциклопедии кибернетики» информация определяется как «одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, знаний и т.п.».
Вопрос 2: Зависит ли информативность сообщения от того, кто и как фиксирует неопределенность соответствующей информации?
Ответ: Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией, т.е. той частью сообщения, которая снимает полностью или уменьшает существовавшую до ее получения неопределенность какой либо ситуации. Величина неопределенности некоторого события – это количество возможных результатов (исходов) данного события. Такой подход к определению информации называют содержательным. Так, например, неопределенность погоды на завтра обычно заключается в диапазоне температуры воздуха и возможности выпадения осадков. Причем в разное время года диапазон возможных исходов данного события различен и колеблется в районе 16 ожидаемых результатов для значения дневной температуры и трех-четырех – для осадков (без осадков, кратковременные дожди ливневые дожди с градом и т.п.).
Вопрос 3: При игре в кости используются два игральных кубика, грани которых помечены цифрами от одного до шести. В чем заключается неопределенность знания о бросании одного кубика? А двух кубиков одновременно?
Ответ: Если число возможных исходов события не зависит от суждений различных людей, то получаемая информация о наступлении одного из возможных исходов является объективной. Примером такой информации является сообщение о результате падения подброшенного игрального кубика или двух кубиков.
Вопрос 4: Сколько гигабайт содержится в 216 килобайтах? Сколько мегабайт содержится в 230 килобайтах?
Отверт: 216 килобайт = 65 536 килобайт = 0.0625 гигабайта
230 килобайт = 1 073 741 824 килобайт = 1 048 576 мегабайта
Вопрос 5: Приведите примеры жизненных ситуаций, при которых мы получаем ровно 1 бит информации.
Вернулся ли человек домой после работы? «Вернулся» - это сообщение содержит один бит информации.
Вопрос 6: Для того, чтобы путешествовать по населенным пунктам Владимирской области, автомобилист приобрел книгу автомобильных дорог 1980 года издания. Будут ли сведения, полученные из этой книги информативными? Почему?
Ответ: Сведения, полученные из этой книги информативными не будут потому что, по всем 5 свойствам информации, карты будут не объективными, не достоверными, не полными, не актуальными и не адекватными.
Вопрос 7: Приведите примеры информации, отвечающей всем необходимым свойствам информации.
Ответ: Монета упала решкой.
Вопрос 8: Изобразите схему процесса передачи информации.
Ответ:
Вопрос 9: Представьте в виде схемы взаимосвязь данных, информации и знаний в процессе принятия решений.
Ответ:
Вопрос 10: Как вы понимаете термин «информационная культура»? Какими ключевыми словами вы определили бы это понятие?
Ответ: Информационно культурный человек, это человек, умеющий получать, обрабатывать и использовать в необходимых целях информацию, по средством современных инструментов–технологий.
Ключевые слова: умение получать, обрабатывать и использовать информацию.
Вопрос 11: Заполните таблицу
Ответ:
Информационная революция | С чем связана | Какие возможности появились |
Первая информационная революция | изобретение письменности | распространения знаний и сохранения их для передачи последующим поколениям |
Вторая информационная революция (середина XVI века) | изобретение книгопечатания | паспространение и хранение большого кол-ва информации. |
Третья информационная революция (конец XIX века) | изобретение электричества | появились телеграф, телефон, радио, позволяющие оперативно передавать информацию |
Четвертая информационная революция (70-е годы XX века) | изобретение персонального компьютера | активное внедрение компьютерной техники и новых информационных технологий в различные сферы производства, общественной и личной жизни людей |
Вопрос 12: Выразите свое отношение к информационному кризису, заполнив таблицу.
Ответ:
+ | - | ! |
Доступность информации | Информационный шум – нужно фильтровать информацию | Как фильтровать информацию из всех источников |
Модуль 1. Измерение информации. Количество информации.
Тема 2.1 Определение количества информации. Формула Хартли.
Задания:
Задача 1: В корзине лежат 16 шаров. Все шары разного цвета и среди них есть красный. Сколько информации несет сообщение о том, что из корзины достали красный шар?
Решение: Поскольку все шары разного цвета, то вытаскивание одного шара из 16 ти равновероятно. Количество информации определяется по формуле: 2^I=N, где I – количество информации, а N=16 – количество шаров. Тогда 2^I=16, отсюда I=4 бита.
Задача 2: В корзине лежат 8 черных и 8 белых шаров. Сколько информации несет сообщение о том, что из корзины достали белый шар?
Решение: Найдем вероятность того, что достанут белый шар:
P(Б) = 8/16 = 1/2.
Далее воспользуемся формулой Шеннона:
1/p = 2i. Здесь i и есть количество информации, которое мы ищем. Выведем его отсюда:
i = log2(1/p) = log2(2) = 1. - 1 бит информации принесет сообщение о том, что белый шар достали из корзины.
Задача 3: В корзине лежат 16 шаров. Среди них 4 белых, 4 черных, 4 красных и 4 зеленых. Сколько информации несет сообщение о том, что из корзины достали красный шар?
Решение: Сначала считаем вероятность вытаскивания красного шара она равна 1/4. Количество информации 2^i = обратной величине вероятности. Т.е.2^i=4, т.е.i=2 бит
Задача 4: При угадывании целого числа в диапазоне от 1 до N было получено 7 бит информации. Чему равно N?
Решение: Поскольку выбор числа равновероятен из заданного диапазона, то количество информации определяется по формуле 2I=N, где I=7 бит, а N – количество чисел в искомом интервале. Отсюда 27=N, N=128
Ответ: N=128
Задача 5: Какое количество информации содержит один символ алфавита, состоящего из 1024 символов?
Решение: N = 2i
1024 = 210 => i = 10
Задача 6: Сколько бит несет слово «ИНФОРМАЦИЯ»?
Решение: Каждая буква весит 1 байт или 8 бит. Значит слово «ИНФОРМАЦИЯ» несёт в себе 80 бит, поскольку состоит из 10 букв.
Задача 7: В алфавите некоторого языка две буквы «А» и «Б». Все слова на этом языке состоят из 11 букв. Каков словарный запас этого языка, т.е. сколько слов он содержит?
Решение: A = Ni
N = 2 (А,Б — две буквы) i = 11 A = 211 = 2048 слов в словарном запасе этого языка.
Задача 8: Информационное сообщение объемом 1,5 килобайта содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого было записано это сообщение?
Решение: I = 1,5 Кб, К = 3072 символа. N — ? I= 1,5 Кб = 1,5 • 1024 • 8 = 12 288 бит. I = I/K = 12288/3072 = 4 бита N=2i = 24 =16 символов содержит алфавит, при помощи которого было записано это сообщение.
Задача 9: Алфавит первого племени содержит N символов, алфавит второго – в два раза больше. Племена обменялись приветствиями, каждое по 100 символов. Приветствие какого племени содержит больше информации (в битах) и на сколько?
Решение: На кодирование символов алфавита первого племени понадобится 100 * Log(N)/Log(2) бит информации На кодирование символов алфавита второго племени понадобится 100 * Log(2N)/Log(2) = 100 + 100 * Log(N)/Log(2) бит информации А разность между этими величинами — ровно 100 бит
Задача 10: В процессе преобразования растрового графического файла количество всех возможных цветов было уменьшено с 1024 до 32. Как и во сколько раз изменился размер файла?
Решение: Информационный объем графического файла (то есть объем памяти, который он занимает) определяется, как произведение числа пикселей в изображении на количество бит/байт, которые отводятся для хранения информации о цвете данного пикселя.
Для хранения информации о 1024 цветах необходимо 10 бит (210 = 1024), а для хранения информации о 32 цветах требуется всего 5 бит. То есть при уменьшении количества цветов с 1024 до 32, количество бит, отведенных для хранения цвета каждого пикселя, будет занимать в 10: 5 = 2 раза меньше места. Следовательно, информационный объем файла также уменьшится в 2 раза.
Модуль 2. Измерение информации. Количество информации.
Тема 2.2 Формула Шеннона.
Задача 1: В ящике лежат 36 красных и несколько зеленых яблок. Сообщение «Из ящика достали зеленое яблоко» несет 2 бита информации. Сколько яблок в ящике?
Решение: По фоpмуле Хаpтли количество информации в битах = -log_2 p, где p - вероятность события. Стало быть, в данном случае вероятность вытащить зеленое яблоко ровна 1/4. То есть 1/4 всех яблок - зеленые (а оставшиеся 3/4 - красные). Следовательно, всего яблок - 48.