Файл: В юридической деятельности.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 10.01.2024

Просмотров: 1151

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

1. Понятие информационных технологий. Терминология и объект информатики.

2. Количественная мера информации.

3. Понятие энтропии.

4. Современные информационные технологии в деятельности МВД России.

ОСНОВНЫЕ ВОПРОСЫ:

1. Информационные процессы и их особенности.

2. Кодирование информации.

Преимущества цифровой передачи видеоданныхКроме очевидных преимуществ формата, сам способ формирования цифрового изображения также несет в себе существенные преимущества. Цифровой сигнал не ослабляется при передаче на расстояние, как аналоговый сигнал. Поэтому если он принимается вообще, то принимается без искажений. Цифровой сигнал не подвержен помехам, характерным для работы нецифрового оборудования, таким как тени, «туман» или «снег». Передается же цифровой сигнал в компрессированном виде, что намного сужает требуемую полосу пропускания канала. В цифровом телевидении применяется схема компрессии MPEG-2 – та же, что и на DVD.Любая компрессия – это компромисс. Самое высокое качество у некомпрессированного цифрового видео, но для этого необходимо передавать невероятное количество данных. Такую пропускную способность можно обеспечить только в локальной сети. Чтобы передавать цифровой сигнал по существующим каналам, изображение с разрешением примерно вчетверо выше по сравнению с обычным нецифровым компрессируется в соотношении 77:1. «Чудо компрессии» позволяет не только передавать в эфир превосходное изображение. Благодаря запасу полосы пропускания, появляется возможность передавать цифровое аудио 7.1, то есть настоящий окутывающий звук (surround sound).Важнейшим компонентом HDTV служит совсем крошечная деталь – скромный пиксель. В аналоговом телевидении элементы изображения, из которых состоит красная, зеленая и синяя компоненты, представляют собой вертикальные прямоугольники. В HDTV они квадратные, как на компьютерных мониторах, и более, чем в четверо меньше пикселов аналогового ТВ, так что мелкие детали получаются намного четче, что позволяет разглядеть каждую пору на коже кинозвезды. 2. Информационные кросс - технологииК данному классу отнесены технологии пользователя, ориентированные на следующие (или аналогичные) виды преобразования информации:• распознавания символов;• звук-текст;• текст-звук;• автоматический перевод. Оптическое распознавание символов (OCR)Когда страница текста отсканирована в ПК, она представлена в виде состоящего из пикселей растрового изображения. Такой формат не воспринимается компьютером как текст, а как изображение текста и текстовые редакторы не способны к обработке подобных изображений. Чтобы превра­тить группы пикселей в доступные для редактирования символы и слова, изображение должно пройти сложный процесс, известный как оптическое распознавание символов (optical character recognition – OCR).В то время как переход от символьной информации к графической (растровой) достаточно элементарен и без труда осуществляется, например при выводе текста на экран или печать, обратный переход (от печатного текста к текстовому файлу в машинном коде) весьма затруднителен. Именно в связи с этим для ввода информации в ЭВМ исстари использовались перфоленты, перфокарты и др. промежуточные носители, а не исходные «бумажные» документы, что было бы гораздо удобнее. «В защиту» перфокарт скажем здесь, что наиболее «продвинутые» устройства перфорации делали надпечатку на карте для проверки ее содержания.Первые шаги в области оптического распознавания символов были предприняты в конце 50-х гг. XX в. Принципы распознавания, заложенные в то время, используются в большинстве систем OCR: сравнить изображение с имеющимися эталонами и выбрать наиболее подходящий.В середине 70-х гг. была предложена технология для ввода информации в ЭВМ, заключающаяся в следующем: исходный документ печатается на бланке с помощью пишущей машинки, оборудованной стилизованнымшрифтом (каждый символ комбинируется из ограниченного числа вертикальных, горизонтальных, наклонных черточек, подобно тому, как это делаем мы и сейчас, нанося на почтовый конверт цифры индекса); полученный «машинный документ» считывается оптоэлектрическим устройством (собственно OCR), которое кодирует каждый символ и определяет его позицию на листе; информация переносится в память ЭВМ, образуя электронный образ документа или документ во внутреннем представлении. Очевидно, что по сравнению с перфолентами (перфокартами) OCR-документ лучше хотя бы тем, что он без особого труда может быть прочитан и проверен человеком и, вообще, представляет собой «твердую копию» соответствующего введенного документа. Было разработано несколько модификаций подобных шрифтов, разной степени «удобочитаемости» (OCR A (рис 1), OCR В (рис 2) и пр.). Рис. 1. OCR – A Рис. 2. OCR – BОчевидно также, что считывающее устройство представляет собой сканер, хотя и специализированный(считывание стилизованных символов), но интеллектуальный(распознавание их).OCR – технология в данном виде просуществовала недолго и в настоящее время приобрела следующий вид: считывание исходного документа осуществляется универсальным сканером, осуществляющим создание растрового образа и запись его в оперативную память и/или в файл; функции распознавания полностью возлагаются на программные продукты, которые, естественно, получили название OCR-software. Исследования в этом направлении начались в конце 1950–х гг., и с тех пор технологии непрерывно совершенствовались. В 1970-х гг. и в начале 1980-х гг. программное обеспечение оптического распознавания символов все еще обладало очень ограниченными возможностями и могло работать только с некоторыми типами и размерами шрифтов. В настоящее время программное обеспечение оптического распознавания символов намного более интеллектуально и может распознать фактически все шрифты, даже при невысоком качестве изображения документа.Основные методы оптического распознаванияОдин из самых ранних методов оптического распознавания символов базировался на сопоставлении матриц или сравнении с образцом букв. Большинство шрифтов имеют формат Times, Courier или Helvetica и размер от 10 до 14 пунктов (точек). Программы оптического распознавания символов, которые используют метод сопоставления с образцом, имеют точечные рисунки для каждого символа каждого размера и шрифта.Сравнивая базу данных точечных рисунков с рисунками отсканированных символов, программа пытается их распознавать. Эта ранняя система успешно работала только с непропорциональными шрифтами (подобно Courier), где символы в тексте хорошо отделены друг от друга. Сложные документы с различными шрифтами оказываются уже вне возможностей таких программ. Рис. 3. Разные подходы к распознаваниюВыделение признаков было следующим шагом в развитии оптического распознавания символов. При этом распознавание символов основывается на идентификации их универсальных особенностей, чтобы сделать распознавание символов независимым от шрифтов. Если бы все символы могли быть идентифицированы, используя правила, по которым элементы букв (например, окружности и линии) присоединяются друг к другу, то индивидуальные символы могли быть описаны незави­симо от их шрифта. Например: символ «а» может быть представлен как состоящий из окружности в центре снизу, прямой линии справа и дуги окружности сверху в центре (рис. 3).Если отсканированный символ имеет эти особенности, он может быть правильно идентифицирован как символ «а» программой оптического распознавания.Выделение признаков было шагом вперед сравнительно с соответствием матриц, но практические результаты оказались весьма чувствительными к качеству печати. Дополнительные пометки на странице или пятна на бумаге существенно снижали точность обработки. Устранение такого «шума» само по себе стало целой областью исследований, пытающейся определить, какие биты печати не являются частью индивидуальных символов. Если шум идентифицирован, достоверные символьные фрагменты могут тогда быть объединены в наиболее вероятные формы символа.Некоторые программы сначала используют сопоставление с образцом и/или метод выделения признаков для того, чтобы распознать столько символов, сколько возможно, а затем уточняют результат, используя грамматическую проверку правильности написания для восстановления нераспознанных символов. Например, если программа оптического распознавания символов неспособна распознать символ «е» в слове «th


Первым электронным компьютером (рис.8) можно назвать систему, созданную в 1942 году Джоном В. Атанасовым в колледже штата Айова. Эта машина была специализированной и предназначалась для решения задач математической физики.
В ходе разработок Атанасов создал и запатентовал первые электронные устройства, которые впоследствии применялись довольно широко в первых компьютерах. Атанасов сформулировал, а в 1939 году опубликовал окончательный вариант своей концепции современной вычислительной машины.

Для военных целей требовались более совершенные вычислительные системы. В 1943 г американец Говард Эйкен с помощью работ Бэббиджа на основе техники XX в – электромеханических реле – смог построить на одном из предприятий фирмы IBM такую машину под названием “Марк-1” (рис. 9). «Марк-1» имел в длину 15 метров и в высоту 2,5 метра, содержал 800 тысяч деталей, располагал 60 регистрами для констант, 72 запоминающими регистрами для сложения, центральным блоком умножения и деления, мог вычислять элементарные трансцендентные функции.
Еще раньше идеи Бэббиджа были переоткрыты немецким инженером Конрадом Цузе, который в 1941 г. построил аналогичную машину. К этому времени потребность в автоматизации вычислений (в томчисле для военных нужд – баллистики, криптографии и т.д.) стала настолько велика, что над созданием машин типа построенных Эйкеном и Цузе одновременно работало несколько групп исследователей. Начиная с 1943 г., группа специалистов под руководством Джона Моучли и Преспера Экерта в США начала конструировать подобную машину уже на основе электронных ламп, а не реле. Их машина, названная ENIAC, работала в тысячу раз быстрее, чем Марк-1. ENIAC содержал 18 тысяч вакуумных ламп, занимал площадь 9x15 метров, весил 30 тонн и потреблял мощность 150 киловатт. ENIAC имел и существенный недостаток – управление им осуществлялось с помощью коммутационной панели, у него отсутствовала память, и для того чтобы задать программу приходилось в течение нескольких часов или даже дней подсоединять нужным образом провода. Худшим из всех недостатков была ужасающая ненадежность компьютера, так как за день работы успевало выйти из строя около десятка вакуумных ламп. Чтобы упростить процесс задания программ, Моучли и Экерт стали конструировав новую машину, которая могла бы хранить программу в своей памяти. В 1945 г к работе был привлечен знаменитый математик Джон фон Нейман, который подготовил доклад об этой машине. Доклад был разослан многим ученым и получил широкую известность, поскольку в нем фон Нейман ясно и просто сформулировал общие принципы функционирования универсальных вычислительных устройств.


1. Принцип программного управления. Из него следует, что программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.

Выборка программы из памяти осуществляется с помощью счетчика команд. Этот регистр процессора последовательно увеличивает хранимый в нем адрес очередной команды на длину команды.

Так как команды программы расположены в памяти друг за другом, то тем самым организуется выборка цепочки команд из последовательно расположенных ячеек памяти.

Если же нужно после выполнения команды перейти не к следующей, а к какой-либо другой, используются команды условного или безусловного переходов, которые заносят в счетчик команд номер ячейки памяти, содержащей следующую команду. Выборка команд из памяти прекращается после достижения и выполнения команды “стоп”.

Таким образом, процессор исполняет программу автоматически, без вмешательства человека.

2. Принцип однородности памяти. Программы и данные хранятся в одной и той же памяти. Поэтому компьютер не различает, что хранится в данной ячейке памяти – число, текст или команда. Над командами можно выполнять такие же действия, как и над данными. Это открывает целый ряд возможностей. Например, программа в процессе своего выполнения также может подвергаться переработке, что позволяет задавать в самой программе правила получения некоторых ее частей. Более того, команды одной программы могут быть получены как результаты исполнения другой программы.

3. Принцип адресности. Структурно основная память состоит из перенумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка. Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было впоследствии обращаться или менять их в процессе выполнения программ с использованием присвоенных имен.

ENIAC стал первым представителем 1-го поколения компьютеров. Любая классификация условна, но большинство специалистов согласилось с тем, что различать поколения следует исходя из той элементной базы, на основе которой строятся машины. Таким образом, первое поколение представлено ламповыми машинами.

В 1946 г. фон Нейман начинает разработку новой машины, и в 1949 г. была построена электронная машина по обработке дискретных переменных «EDVAC» (рис. 10), которая впоследствии была признана первым компьютером.

Машина на электронных лампах работала значительно быстрее, чем на электромеханических реле, но сами электронные лампы были ненадежны. Они часто выходили из строя. Для их замены в 1947 году Джон Бардин, Уолтер Браттейн и Уильям Шокли предложили использовать изобретенные ими переключающие полупроводниковые элементы – транзисторы.

Совершенствование первых образцов вычислительных машин привело в 1951 году к созданию компьютера UNIVAC (рис. 11), предназначенного для коммерческого использования. Он стал первым серийно выпускаемым компьютером.
В 1950-х годах было создано второе поколение компьютеров, выполненных на транзисторах. В результате быстродействие машин возросло в 10 раз, а размеры и вес значительно уменьшились. Стали применять запоминающие устройства на магнитных ферритовых сердечниках, способные хранить информацию неограниченное время даже при отключении компьютеров. Их разработал Джой Форрестер в 1951-1953 годах. Большие объемы информации хранились на внешнем носителе, например на магнитной ленте или на магнитном барабане.

Рейнольд Б. Джонсон, сотрудник IBM, разработал устройство IBM 305 RAMAC (контрольно-считывающее устройство по методу случайного доступа) (рис. 12).

Устройство состояло из 50 вращающихся магнитных дисков диаметром 60 см, которые были расположены один над другим. Механизм считывания и записи перемещался между дисками, обеспечивая более быстрый доступ к данным, чем магнитная лента. После того как возможности устройства были продемонстрированы на Всемирной ярмарке в Брюсселе в 1958-м, от носителей на магнитных лентах отказались.
В 1959 году Д. Килби, Д. Херни, К. Леховец и Р. Нойс изобрели интегральные микросхемы (чипы), ставшие элементной базой ЭВМ третьего поколения, в которых все электронные компоненты вместе с проводниками помещались внутри кремниевой пластинки. Применение чипов в компьютерах позволило сократить пути прохождения тока при переключениях. Скорость вычислений при этом увеличилась в десятки раз. Существенно уменьшились и габариты машин. Появление чипа позволило создать третье поколение компьютеров. И в 1964 году фирма IBM начинает выпуск компьютеров IBM-360 (рис. 13) на интегральных микросхемах.
Начало 70-х годов знаменует переход к компьютерам четвертого поколения – на сверхбольших интегральных схемах (СБИС). Другим признаком ЭВМ нового поколения являются резкие изменения в архитектуре.

Техника четвертого поколения породила качественно новый элемент ЭВМ – микропроцессор или чип. В 1971 году пришли к идее ограничить возможности процессора, заложив в него небольшой набор операций, микропрограммы которых должны быть заранее введены в постоянную память. Оценки показали, что применение постоянного запоминающего устройства в 16 килобит позволит исключить 100-200 обычных интегральных схем. Так возникла идея микропроцессора, который можно реализовать даже на одном кристалле, а программу в его память записать навсегда.


В 1965 году Дуглас Энгелбарт создал первую «мышь» (рис. 14) – компьютерный ручной манипулятор. Впервые она была применена в персональном компьютере Apple фирмы Macintosh, выпущенном позднее, в 1976 году.
В 1967 году компания IBM начала производить дискету для компьютера, изобретенную Йосиро Накамацу – съемный гибкий магнитный диск («флоппи-диск») для постоянного хранения информации. Первоначально дискета была гибкой, имела диаметр 8 дюймов и емкость 80 Кбайт, затем – 5 дюймов. Современная дискета емкостью 1,44 Мбайта, впервые выпущенная фирмой Sony в 1982 году, заключена в жесткий пластмассовый корпус и имеет диаметр 3,5 дюйма.

В 1969 году в США началось создание оборонной компьютерной сети – прародителя современной всемирной сети Internet.

В 1970-е годы были разработаны матричные принтеры, предназначенные для распечатки информации на выходе из компьютеров.

К середине 70-х годов положение на компьютерном рынке резко и непредвиденно стало изменяться. Четко выделились две концепции развития ЭВМ. Воплощением первой концепции стали суперкомпьютеры, а второй – персональные ЭВМ. Из больших компьютеров четвертого поколения на сверхбольших интегральных схемах особенно выделялись американские машины «Крей-1» (рис. 15) и «Крей-2» (рис. 16), а также советские модели «Эльбрус-1» (рис. 17) и «Эльбрус-2» (рис. 18). Первые их образцы появились примерно в одно и то же время – в 1976 году. Все они относятся к категории суперкомпьютеров, так как имеют предельно достижимые для своего времени характеристики и очень высокую стоимость.

Величиной, используемой для измерения производительности компьютеров, показывающей, какое количество операций с плавающей запятой в секунду выполняет данная вычислительная система является флопс (акроним от англ. Floating point Operations Per Second). Как и большинство других показателей производительности, данная величина определяется путем запуска на испытуемом компьютере тестовой программы, которая решает задачу с известным количеством операций и подсчитывает время, за которое она была решена. Одним из важнейших достоинств показателя флопс является то, что он до некоторых пределов может быть интерпретирован как абсолютная величина и вычислен теоретически, в то время как большинство других популярных мер являются относительными и позволяют оценить испытуемую систему лишь в сравнении с рядом других. Эта особенность дает возможность использовать для оценки результаты работы различных алгоритмов, а также оценить производительность вычислительных систем, которые еще не существуют или находятся в разработке. Следующие по возрастанию единицы измерения: килофлопсы, мегафлопсы, гигафлопсы, терафлопсы, петафлопсы. Терафлопс (TFLOPS, Тфлопс) – величина, используемая для измерения производительности суперкомпьютеров.  1 терафлопс = 1 триллион операций в секунду = 1000 миллиардов операций в секунду.


Примеры: компьютер ЭНИАК, построенный в 1946 году, при массе 27 т и энергопотреблении 150 кВт, обеспечивал производительность в 300 флопс.  БЭСМ-6 (1968) – 1 Мфлопс, Cray-1 (1974) – 160 Мфлопс, Эльбрус-2 (1984) – 125 Мфлопс, Cray Y-MP (1988) – 2,3 Гфлопс, суперкомпьютер СКИФ МГУ (2008) – 60 Тфлопс, суперкомпьютер Blue Gene/L (2006) – 478,2 Тфлопс, суперкомпьютер IBM Roadrunner (2008) – 1,105 Пфлопс, суперкомпьютер Jaguar (2008) – 1,64 Пфлопс.

В 1971 году сотрудник компании Intel Эдвард Хофф создал первый микропроцессор 4004 (рис. 19), разместив несколько интегральных микросхем на одном кремниевом кристалле. Хотя первоначально он предназначался для использования в калькуляторах, по существу он представлял собой законченный микрокомпьютер. Это революционное изобретение кардинально перевернуло представление о компьютерах как о громоздких, тяжеловесных монстрах. Микропроцессор дал возможность создать компьютеры четвертого поколения, которые помещались на письменном столе пользователя.
19 апреля 1965 года, в журнале Electronics вышла знаменитая статья Гордона Мура «Переполнение числа элементов на интегральных схемах», в которой будущий сооснователь корпорации Intel дал прогноз развития микроэлектроники на ближайшие десять лет, предсказав, что количество элементов на кристаллах электронных микросхем будет и далее удваиваться каждый год.

Вскоре после выхода статьи эта эмпирически подмеченная закономерность получила название закона Мура (рис. 20) и стала, пожалуй, самым знаменитым законом в компьютерной области и полупроводниковой индустрии, задав некий фундаментальный вектор развития технологии. И хотя закон Мура не принадлежит к числу «научных» – физических или математических – законов, на базе которых строятся современные представления о природе и протекающих в ней процессах, а является просто метко подмеченным эмпирическим правилом, отражающим экспоненциальный характер развития одной из многочисленных тенденций в современном человеческом обществе, он оказался очень удобным для описания определенных вещей и весьма полезным для прогнозирования деятельности компаний в этой области.

Закон Мура стал синонимом технологической эволюции. «Закон Мура – основной лейтмотив нашей деятельности в области конвергенции вычислительных и коммуникационных возможностей, – заявил глава корпорации Intel Крейг Барретт на открытии одного из форумов Intel для разработчиков. – Приверженность корпорации Intel закону Мура позволяет нам создавать интегрированные платформы