ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 30.03.2024

Просмотров: 91

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

1 Вопрос

Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний..

Информатика как технология включает в себя систему процедур компьютерного преобразования информации с целью ее формирования, хранения, обработки, распространения и использования.

Основными чертами современной (новой) информационной технологии являются:

  • дружественный программный и аппаратный интерфейс;

  • интерактивный (диалоговый) режим решения задач;

  • сквозная информационная поддержка всех этапов решения задачи на основе интегрированной базы данных;

  • возможность коллективного решения задач на основе информационных сетей и систем телекоммуникаций;

  • безбумажная технология, при которой основным носителем информации является не бумажный, а электронный документ.

Информационный процесс — процесс получения, создания, сбора, обработки, накопления, хранения, поиска, распространения и использования информации

Деятельность человека, связанную с процессами получения, преобразования, накопления и передачи информации, называют информационной деятельностью. 

Информационный шум – избыток информации(лишней)

2 Вопрос

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации(письменность). Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни. Прогрессивное увеличение возможностей компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т.д.

3 Порос

4 вопрос

Представление (кодирование) чисел

Для представления чисел в компьютере обычно используют битовые наборы —


последовательности нулей и единиц фиксированной длины. Организовать обработку

наборов фиксированной длины технически легче, чем наборов переменной длины.

Позиция в битовом наборе называется разрядом. В ЭВМ разрядом называют также

часть регистра (или ячейки памяти), хранящую один бит.

5 вопрос

Кодирование информации – это процесс формирования определенного представления информации.

В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Единицы измерения информации. Бит. Байт. Бит – наименьшая единица представления информации. Байт – наименьшая единица обработки и передачи информации.

6 вопрос

Графическая информация может храниться в растворных и векторных изображениях

Векторное изображении – это набор геометрических фигур, которые можно описать математическими зависимостями

Растровое изображение хранится в виде набора пикселей, для каждого из которых задается свой цвет, независимо от других.

Пиксель – минимальный участок изображения

Глубина цвета – количество бит на пиксель

Каждая RGB-составляющая может принимать значение в диапазоне от 0 до 255 (всего 28=256 значений), а каждая точка изображения при такой системе кодирования может быть окрашена в один из 16 777 216 цветов. Такой набор цветов принято называть True Color (правдивые цвета).


7 Вопрос

Система счисления – способ записи чисел с помощью набора специальных знаков, называемых цифрами.

Системы счисления подразделяются на позиционные и непозиционные.

В позиционных системах счисления величина, обозначаемая цифрой в записи числа, зависит от её положения в числе (позиции). Количество используемых цифр называется основанием системы счисления.

В непозиционных системах счисления величина, которую обозначает цифра, не зависит от положения в числе. Примером непозиционной системы счисления является римская, в которой в качестве цифр используются латинские буквы: I обозначает 1, V – 5, X – 10, L – 50, C – 100, D – 500, M -1000.

В настоящее время наиболее распространены десятичная, двоичная, восьмеричная и шестнадцатеричная системы счисления. Двоичная, восьмеричная и шестнадцатеричная системы часто используются в областях, связанных с цифровыми устройствами, в программировании и вообще в компьютерной документации. Современные компьютерные системы оперируют информацией представленной в цифровой форме. Числовые данные преобразуются в двоичную систему счисления.

Система счисления

Основание

Алфавит цифр

Десятичная

10

0, 1, 2, 3, 4, 5, 6, 7, 8, 9

Двоичная

2

0, 1

Восьмеричная

8

0, 1, 2, 3, 4, 5, 6, 7

Шестнадцатеричная

16

0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F

Десятичная система счисления – позиционная система счисления по основанию 10.

Двоичная система счисления – позиционная система счисления с основанием 2. Используются цифры 0 и 1. Двоичная система используется в цифровых устройствах, поскольку является наиболее простой.

8 Вопрос

Перевод из десятичной системы счисления в систему счисления с основанием p осуществляется последовательным делением десятичного числа и его десятичных частных на p, а затем выписыванием последнего частного и остатков в обратном порядке.


9 Aвопрос

Информация  это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. (Н.В. Макарова);

Информация — это отрицание энтропии (Леон Бриллюэн);

Информация — это мера сложности структур (Моль);

Информация — это отраженное разнообразие (Урсул);

Информация — это содержание процесса отражения (Тузов);

Информация — это вероятность выбора (Яглом).

:D пиши первый

Количество информации

Объемный подход

В компьютерах используется 2 символа 0 и 1 Объем информации, необходимый для запоминания одного из двух символов-0 или 1, называется 1 бит (англ. binary digit- двоичная единица). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается по количеству требуемых для такой записи двоичных символов

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации (1байт=8битам), 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт).

Чтобы вычислить информационный объем сообщения надо количество символов умножить на число бит, которое требуется для хранения одного символа

Например: двоичный текст 01010111 занимает в памяти 8 бит

Этот же текст в кодировке ASCII занимает 8 байт или 64 бита

Этот же текст в кодировке UNICODE занимает 16 байт или 128 бит.

(Далее лучше выучить и рассказать)


Вероятностный подход Синтаксическая мера информации

Эта мера количества информации, не выражающей смыслового отношения к объекту. Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении.

Получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Численная величина, измеряющая неопределенность – энтропия (Н).

Сообщения обычно содержат информацию о каких-либо событиях.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула Хартли:

I = log2N

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений:

  1. при бросании монеты: "выпала решка", "выпал орел";

  2. на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины

Для задач такого рода американский учёный Клод Шеннонпредложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I =  ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN),

где pi  вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.