ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 30.03.2024
Просмотров: 84
Скачиваний: 0
1 Вопрос
Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний..
Информатика как технология включает в себя систему процедур компьютерного преобразования информации с целью ее формирования, хранения, обработки, распространения и использования.
Основными чертами современной (новой) информационной технологии являются:
дружественный программный и аппаратный интерфейс;
интерактивный (диалоговый) режим решения задач;
сквозная информационная поддержка всех этапов решения задачи на основе интегрированной базы данных;
возможность коллективного решения задач на основе информационных сетей и систем телекоммуникаций;
безбумажная технология, при которой основным носителем информации является не бумажный, а электронный документ.
Информационный процесс — процесс получения, создания, сбора, обработки, накопления, хранения, поиска, распространения и использования информации
Деятельность человека, связанную с процессами получения, преобразования, накопления и передачи информации, называют информационной деятельностью.
Информационный шум – избыток информации(лишней)
2 Вопрос
Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации(письменность). Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни. Прогрессивное увеличение возможностей компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т.д.
3 Порос
4 вопрос
Представление (кодирование) чисел
Для представления чисел в компьютере обычно используют битовые наборы —
последовательности нулей и единиц фиксированной длины. Организовать обработку
наборов фиксированной длины технически легче, чем наборов переменной длины.
Позиция в битовом наборе называется разрядом. В ЭВМ разрядом называют также
часть регистра (или ячейки памяти), хранящую один бит.
5 вопрос
Кодирование информации – это процесс формирования определенного представления информации.
В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.
Единицы измерения информации. Бит. Байт. Бит – наименьшая единица представления информации. Байт – наименьшая единица обработки и передачи информации.
6 вопрос
Графическая информация может храниться в растворных и векторных изображениях
Векторное изображении – это набор геометрических фигур, которые можно описать математическими зависимостями
Растровое изображение хранится в виде набора пикселей, для каждого из которых задается свой цвет, независимо от других.
Пиксель – минимальный участок изображения
Глубина цвета – количество бит на пиксель
Каждая RGB-составляющая может принимать значение в диапазоне от 0 до 255 (всего 28=256 значений), а каждая точка изображения при такой системе кодирования может быть окрашена в один из 16 777 216 цветов. Такой набор цветов принято называть True Color (правдивые цвета).
7 Вопрос
Система счисления – способ записи чисел с помощью набора специальных знаков, называемых цифрами.
Системы счисления подразделяются на позиционные и непозиционные.
В позиционных системах счисления величина, обозначаемая цифрой в записи числа, зависит от её положения в числе (позиции). Количество используемых цифр называется основанием системы счисления.
В непозиционных системах счисления величина, которую обозначает цифра, не зависит от положения в числе. Примером непозиционной системы счисления является римская, в которой в качестве цифр используются латинские буквы: I обозначает 1, V – 5, X – 10, L – 50, C – 100, D – 500, M -1000.
В настоящее время наиболее распространены десятичная, двоичная, восьмеричная и шестнадцатеричная системы счисления. Двоичная, восьмеричная и шестнадцатеричная системы часто используются в областях, связанных с цифровыми устройствами, в программировании и вообще в компьютерной документации. Современные компьютерные системы оперируют информацией представленной в цифровой форме. Числовые данные преобразуются в двоичную систему счисления.
Система счисления |
Основание |
Алфавит цифр |
Десятичная |
10 |
0, 1, 2, 3, 4, 5, 6, 7, 8, 9 |
Двоичная |
2 |
0, 1 |
Восьмеричная |
8 |
0, 1, 2, 3, 4, 5, 6, 7 |
Шестнадцатеричная |
16 |
0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F |
Десятичная система счисления – позиционная система счисления по основанию 10.
Двоичная система счисления – позиционная система счисления с основанием 2. Используются цифры 0 и 1. Двоичная система используется в цифровых устройствах, поскольку является наиболее простой.
8 Вопрос
Перевод из десятичной системы счисления в систему счисления с основанием p осуществляется последовательным делением десятичного числа и его десятичных частных на p, а затем выписыванием последнего частного и остатков в обратном порядке.
9 Aвопрос
Информация это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. (Н.В. Макарова);
Информация — это отрицание энтропии (Леон Бриллюэн);
Информация — это мера сложности структур (Моль);
Информация — это отраженное разнообразие (Урсул);
Информация — это содержание процесса отражения (Тузов);
Информация — это вероятность выбора (Яглом).
:D пиши первый
Количество информации
Объемный подход
В компьютерах используется 2 символа 0 и 1 Объем информации, необходимый для запоминания одного из двух символов-0 или 1, называется 1 бит (англ. binary digit- двоичная единица). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается по количеству требуемых для такой записи двоичных символов
Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации (1байт=8битам), 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт).
Чтобы вычислить информационный объем сообщения надо количество символов умножить на число бит, которое требуется для хранения одного символа
Например: двоичный текст 01010111 занимает в памяти 8 бит
Этот же текст в кодировке ASCII занимает 8 байт или 64 бита
Этот же текст в кодировке UNICODE занимает 16 байт или 128 бит.
(Далее лучше выучить и рассказать)
Вероятностный подход Синтаксическая мера информации
Эта мера количества информации, не выражающей смыслового отношения к объекту. Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении.
Получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Численная величина, измеряющая неопределенность – энтропия (Н).
Сообщения обычно содержат информацию о каких-либо событиях.
Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
Формула Хартли:
I = log2N
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.
Приведем другие примеры равновероятных сообщений:
при бросании монеты: "выпала решка", "выпал орел";
на странице книги: "количество букв чётное", "количество букв нечётное".
Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины
Для задач такого рода американский учёный Клод Шеннонпредложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Формула Шеннона:
I = ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN),
где pi вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.