Файл: Контрольная работа по дисциплине Иностранный язык (английский язык) Выполнила студентка Драчева Кристина.docx
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 30.11.2023
Просмотров: 20
Скачиваний: 1
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
МИНОБРНАУКИ РОССИИ
Федеральное государственное бюджетное образовательное
учреждение высшего образования
«Тульский государственный университет»
КОНТРОЛЬНАя РАБОТА
по дисциплине
Иностранный язык (английский язык)
Выполнила студентка: Драчева Кристина
Научный руководитель: Исаева Анастасия Юрьевна
Тула, 2022 г.
I want to talk a little bit about computers.
The computer, device capable of performing a series of arithmetic or logical operations. A computer is distinguished from a calculating machine, such as an electroniccalculator, by being able to store acomputer program(so that it can repeat its operations and make logical decisions), by the number and complexity of the operations it can perform, and by its ability to process, store, and retrieve data without human intervention. Computers developed along two separate engineering paths, producing two distinct types of computer—analog and digital. An analog computer operates on continuously varying data; a digital computer performs operations on discrete data.
Computers are categorized by both size and the number of people who can use them concurrently. Supercomputers are sophisticated machines designed to perform complex calculations at maximum speed; they are used to model very large dynamic systems, such as weather patterns. Mainframes, the largest and most powerful general-purpose systems, are designed to meet the computing needs of a large organization by serving hundreds of computer terminals at the same time. Minicomputers, though somewhat smaller, also are multiuser computers, intended to meet the needs of a small company by serving up to a hundred terminals. Microcomputers, computers powered by a microprocessor, are subdivided into personal computers and workstations, the latter typically incorporating RISC processors. Although microcomputers were originally single-user computers, the distinction between them and minicomputers has blurred as microprocessors have become more powerful. Linking multiple microcomputers together through a local area network or by joining multiple microprocessors together in a parallel-processing system has enabled smaller systems to perform tasks once reserved for mainframes, and the techniques of grid computing have enabled computer scientists to utilize the unemployed processing power of connected computers.
Advances in the technology of integrated circuits have spurred the development of smaller and more powerful general-purpose digital computers. Not only has this reduced the size of the large, multi-user mainframe computers—which in their early years were large enough to walk through—to that of large pieces of furniture, but it has also made possible powerful, single-user personal computers and workstations that can sit on a desktop. These, because of their relatively low cost and versatility, have largely replaced typewriters in the workplace and rendered the analog computer inefficient.
Analog Computers
An analog computer represents data as physical quantities and operates on the data by manipulating the quantities. It is designed to process data in which the variable quantities vary continuously; it translates the relationships between the variables of a problem into analogous relationships between electrical quantities, such as current and voltage, and solves the original problem by solving the equivalent problem, or analog, that is set up in its electrical circuits. Because of this feature, analog computers were especially useful in the simulation and evaluation of dynamic situations, such as the flight of a space capsule or the changing weather patterns over a certain area. The key component of the analog computer is the operational amplifier, and the computer's capacity is determined by the number of amplifiers it contains (often over 100). Although analog computers are commonly found in such forms as speedometers and watt-hour meters, they largely have been made obsolete for general-purpose mathematical computations and data storage by digital computers.
Digital Computers
A digital computer is designed to process data in numerical form; its circuits perform directly the mathematical operations of addition, subtraction, multiplication, and division. The numbers operated on by a digital computer are expressed in the binary system; binary digits, or bits, are 0 and 1, so that 0, 1, 10, 11, 100, 101, etc., correspond to 0, 1, 2, 3, 4, 5, etc. Binary digits are easily expressed in the computer circuitry by the presence (1) or absence (0) of a current or voltage. A series of eight consecutive bits is called a “byte”; the eight-bit byte permits 256 different “on-off” combinations. Each byte can thus represent one of up to 256 alphanumeric characters, and such an arrangement is called a “single-byte character set” (SBCS); the de facto standard for this representation is the extended ASCII character set. Some languages, such as Japanese, Chinese, and Korean, require more than 256 unique symbols. The use of two bytes, or 16 bits, for each symbol, however, permits the representation of up to 65,536 characters or ideographs. Such an arrangement is called a “double-byte character set” (DBCS); Unicode is the international standard for such a character set. One or more bytes, depending on the computer's architecture, is sometimes called a digital word; it may specify not only the magnitude of the number in question, but also its sign (positive or negative), and may also contain redundant bits that allow automatic detection, and in some cases correction, of certain errors. A digital computer can store the results of its calculations for later use, can compare results with other data, and on the basis of such comparisons can change the series of operations it performs. Digital computers are used for reservations systems, scientific investigation, data-processing and word-processing applications, desktop publishing, electronic games, and many other purposes.
Computer Programs and Programming Languages
Before a computer can be used to solve a given problem, it must first be programmed, that is, prepared for solving the problem by being given a set of instructions, or program. The various programs by which a computer controls aspects of its operations, such as those for translating data from one form to another, are known as software, as contrasted with hardware, which is the physical equipment comprising the installation. In most computers control of the machine resides in a special software program called an operating system, or supervisor. Other forms of software include assemblers and compilers for programming languages and applications for business and home use. Software is of great importance; the usefulness of a highly sophisticated array of hardware can be severely compromised by the lack of adequate software.
Each instruction in the program may be a simple, single step, telling the computer to perform some arithmetic operation, to read the data from some given location in the memory, to compare two numbers, or to take some other action. The program is entered into the computer's memory exactly as if it were data, and on activation, the machine is directed to treat this material in the memory as instructions. Other data may then be read in and the computer can carry out the program to solve the particular problem.
Since computers are designed to operate with binary numbers, all data and instructions must be represented in this form; the machine language, in which the computer operates internally, consists of the various binary codes that define instructions together with the formats in which the instructions are written. Since it is time-consuming and tedious for a programmer to work in actual machine language, a programming language, or high-level language, designed for the programmer's convenience, is used for the writing of most programs. The computer is programmed to translate this high-level language into machine language and then solve the original problem for which the program was written. Certain high-level programming languages are universal, varying little from machine to machine.
Development of Computers
Although the development of digital computers is rooted in the abacus and early mechanical calculating devices, Charles Babbage is credited with the design of the first modern computer, the “analytical engine,” during the 1830s. American scientist Vannevar Bush built a mechanically operated device, called a differential analyzer, in 1930; it was the first general-purpose analog computer. John Atanassoff constructed the first semielectronic digital computing device in 1939.
The first fully automatic calculator was the Mark I, or Automatic Sequence Controlled Calculator, begun in 1939 at Harvard by Howard Aiken, while the first all-purpose electronic digital computer, ENIAC (Electronic Numerical Integrator And Calculator), which used thousands of vacuum tubes, was completed in 1946 at the Univ. of Pennsylvania. UNIVAC (UNIVersal Automatic Computer) became (1951) the first computer to handle both numeric and alphabetic data with equal facility; this was the first commercially available computer.
First-generation computers were supplanted by the transistorized computers (see transistor) of the late 1950s and early 60s, second-generation machines that were smaller, used less power, and could perform a million operations per second. They, in turn, were replaced by the third-generation integrated-circuit machines of the mid-1960s and 1970s that were even smaller and were far more reliable. The 1980s and 90s were characterized by the development of the microprocessor and the evolution of increasingly smaller but powerful computers, such as the personal computer and personal digital assistant, which ushered in a period of rapid growth in the computer industry.
Sharing the Computer's Resources
Generally, the slowest operations that a computer must perform are those of transferring data, particularly when data is received from or delivered to a human being. The computer's central processor is idle for much of this period, and so two similar techniques are used to use its power more fully.
Time sharing, used on large computers, allows several users at different terminals to use a single computer at the same time. The computer performs part of a task for one user, then suspends that task to do part of another for another user, and so on. Each user only has the computer's use for a fraction of the time, but the task switching is so rapid that most users are not aware of it. Most of the tens of millions of computers in the world are stand-alone, single-user devices known variously as personal computers or workstations. For them, multitasking involves the same type of switching, but for a single user. This permits a user, for example, to have one file printed and another sorted while editing a third in a word-processing session. Such personal computers can also be linked together in a network, where each computer is connected to others, usually by wires or coaxial cables, permitting all to share resources such as printers, modems, and hard-disk storage devices.
In fact, we can talk about computers for a long time, because the 21st century is an active age of computer development. Every day humanity changes them to make the greatest discoveries. The computer is a breakthrough of the future.
Перевод
Компьютер — это устройство способное выполнять серию арифметических и логических задач. Компьютер отличается от вычислительной машины, например, электронный калькулятор, благодаря тому, что может хранить компьютерные программы (для того, чтобы она могла повторять свои операции и осуществлять логические действия), по количеству и сложности операций, которые он может совершать, своей способностью обрабатывать, хранить, извлекать данные без человеческого вмешательства. Компьютеры развивались по двум отдельным инженерным путям, создавая два определённых типа компьютеров-аналоговый и цифровой. Аналоговый компьютер работает на постоянно меняющихся данных; цифровой компьютер проводит операции на дискретных данных.
Компьютеры классифицируются по размеру и количеству людей, которые могут использовать их параллельно. Суперкомпьютеры-это сложные машины, созданные для выполнения комплекса расчетов на максимальной скорости; они используются для моделирования очень больших динамических систем, как например, погодные условия. Мэйнфреймы, самые большие и самые мощные универсальные системы, спроектированные соответствовать вычислительным потребностям большой организации, обслуживая сотни компьютерных терминалов одновременно. Миникомпьютеры, хотя слегла меньше, также являются многопользовательскими компьютерами, направление для
удовлетворения нужд небольшой компании, обслуживая до ста терминалов. Микрокомпьютеров, компьютеров работает с помощью микропроцессора, разделенные на персональные компьютеры и рабочие станции, последние обычно включающие процессоры RISC. Хотя микрокомпьютеры изначально были однопользовательскими компьютерами, различие между ними и миникомпьютерами стерлись, так как микропроцессоры стали более мощными. Объединение различных микрокомпьютеров между собой через локальную сеть или путем объединения различных микропроцессоров в параллельно-вычислительную систему позволило более меньшим системам выполнять задачи, когда-то зарезервированные для мэйнфреймов, а методы григ-вычисления позволили ученым-компьютерщикам использовать незанятую вычислительную мощность подключенных компьютеров.
Достижения в области технологии интегральных микросхем подтолкнуло развитие небольших и более мощных универсальных цифровых компьютеров. Это не только сократило размер больших, многопользовательских мейнфреймов компьютеров—которые в их первые годы были достаточно большими, чтобы пройти через них, до больших предметов мебели, но также сделало допустимо мощными, однопользовательские персональные компьютеры и рабочие, которые могут сидеть на рабочем столе. Они, из-за их относительно низкой стоимости и универсальности, во многом заменили пишущие машинки на рабочем месте и сделали аналоговый компьютер неэффективным.
Аналоговый компьютер
Аналоговый компьютер представляет данные в виде физических величин и воздействует на данные, манипулируя величинами. Он рассчитан для обработки данных, в которых переменные величины постоянно изменяются, он переводит отношения между переменными проблемами в аналогичные отношения между электрическими величинами, такими как ток и напряжение, и решает изначальную проблему путем решения эквивалентной проблемы или аналога, который настроен в его электрических цепях. Благодаря этой функции аналоговые компьютеры были особенно полезны при моделировании и анализе динамических ситуаций, как например, полет космической капсулы или изменение погодных условий над определенным районом. Ключевым компонентом аналогового компьютера является рабочий усилитель, а компьютерная производительность определяется количеством содержащихся в нем усилителей (чаще всего более 100). Хотя аналоговые компьютеры, обычно, находятся в таких формах, как спидометры и ватт-час метров, они в значительной степени устарели общего назначения для общецелевых математических вычислений и хранения данных цифровыми компьютерами.
Цифровые компьютеры
Цифровой компьютер рассчитан для обработки данных в числовом виде; его схемы совершают непосредственно математические операции - сложения, вычитания, умножения и деления. Числа, используемые цифровым компьютером, выражаются в двоичной системе; двоичные цифры или биты равны 0 и 1, так что 0, 1, 10, 11, 100, 101 и так далее, соответствуют 0, 1, 2, 3, 4, 5, и так далее. Двоичные цифры легко выражаются в компьютерной схеме наличием (1) или отсутствием (0) тока или напряжения. Ряд из восьми последовательных битов называется " байт”; восьмибитный байт допускает 256 различных “включеный-выключеный” комбинаций. Таким образом, каждый байт может представлять один из до 256 буквенно-цифровых символов, и такое расположение называется “однобайтовым набором символов”; стандартом де-факто для этого представления является расширенный набор символов ASCII. Для некоторых языков, как например, японский, китайский и корейский, требуется более 256 уникальных символов. Тем не менее использование двух байтов или 16 битов для каждого символа разрешает представление до 65 536 символов или идеографов. Такое расположение называется "двухбайтовым набором символов"; кодировка Юникод является международным стандартом для такого набора символов. Один или более байтов, в зависимости от архитектуры компьютера, иногда называют цифровым словом; он может задавать не только величину рассматриваемого числа, но также его знак (положительный или отрицательный), а может также содержать резервные биты, которые позволяют автоматически обнаруживать, а в некоторых случаях исправлять определенные ошибки. Цифровой компьютер может хранить результаты своих вычислений для последующего использования, может сопоставить результаты с другими данными, и на основе таких сравнений может изменить ряд операций, которые он совершает. Цифровые компьютеры используются для систем бронирования, научных исследований, обработки данных и текстовых приложений, настольных издательств, электронных игр и многих других целей.
Компьютерные программы и языки программирования
Перед тем как компьютер может быть использован для решения данной проблемы, его необходимо сперва запрограммировать, то есть подготовить для решения проблемы, получив комплекс инструкций, или программу. Различные программы, с помощью которых компьютер контролирует аспектами своих операций, например, для перевода данных из одной формы в другую, известны как программное обеспечение, в