Файл: Обеспечения Базовый курс (3е издание) Версия книги 2 от 17. 04. 2023.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 07.11.2023

Просмотров: 891

Скачиваний: 31

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

Раздел 2: основные знания и умения 2.1. Процессы тестирования и разработки ПО 2.1.1. Модели разработки ПО Чтобы лучше разобраться в том, как тестирование соотносится с программи- рованием и иными видами проектной деятельности, для начала рассмотрим самые основы — модели разработки (lifecycle model16) ПО (как часть жизненного цикла (software lifecycle17) ПО). При этом сразу подчеркнём, что разработка ПО является лишь частью жизненного цикла ПО, и здесь мы говорим именно о разработке. Материал данной главы относится скорее к дисциплине «управление проек- тами», потому здесь рассмотрен крайне сжато: пожалуйста, не воспринимайте его как исчерпывающее руководство — здесь едва ли рассмотрена и сотая доля про- цента соответствующей предметной области. Модель разработки ПО (Software Development Model, SDM) — структура, систематизирующая различные виды проектной деятельности, их взаимо- действие и последовательность в процессе разработки ПО. Выбор той или иной модели зависит от масштаба и сложности проекта, предметной области, доступных ресурсов и множества других факторов. Выбор модели разработки ПО серьёзно влияет на процесс тестирования, определяя выбор стратегии, расписание, необходимые ресурсы и т.д. Моделей разработки ПО много, но в общем случае классическими можно считать водопадную, v-образную, итерационную инкрементальную, спиральную и гибкую. Перечень моделей разработки ПО (с кратким описанием), рекомендуе- мых к изучению тестировщиками, можно найти в статье «What are the Software Development Models?»18Знать и понимать модели разработки ПО нужно затем, чтобы уже с первых дней работы осознавать, что происходит вокруг, что, зачем и почему вы делаете. Многие начинающие тестировщики отмечают, что ощущение бессмысленности происходящего посещает их, даже если текущие задания интересны. Чем полнее вы будете представлять картину происходящего на проекте, тем яснее вам будет виден ваш собственный вклад в общее дело и смысл того, чем вы занимаетесь. Ещё одна важная вещь, которую следует понимать, состоит в том, что ника- кая модель не является догмой или универсальным решением. Нет идеальной мо- дели. Есть та, которая хуже или лучше подходит для конкретного проекта, конкрет- ной команды, конкретных условий. Частая ошибка! Единственное, от чего стоит предостеречь уже сейчас, так это от фривольной трактовки модели и перекраивания её «на свой вкус» без кристально чёткого понимания, что и зачем вы делаете. О том, что бывает при нарушении логики модели, прекрасно сказал в своём слайдка- сте «Scrum Tailoring»19Максим Дорофеев. 16 Lifecycle model. A partitioning of the life of a product or project into phases. [ISTQB Glossary] 17 Software lifecycle. The period of time that begins when a software product is conceived and ends when the software is no longer available for use. The software lifecycle typically includes a concept phase, requirements phase, design phase, implementation phase, test phase, installation and checkout phase, operation and maintenance phase, and sometimes, retirement phase. Note these phases may overlap or be performed iteratively. [ISTQB Glossary] 18«What are the Software Development Models?» [http://istqbexamcertification.com/what-are-the-software-development-models/] 19«Scrum Tailoring», Максим Дорофеев [http://cartmendum.livejournal.com/10862.html] Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 19/301 Водопадная модель (waterfall model20) сейчас представляет скорее истори- ческий интерес, т.к. в современных проектах практически неприменима. Она пред- полагает однократное выполнение каждой из фаз проекта, которые, в свою оче- редь, строго следуют друг за другом (рисунок 2.1.a). Очень упрощённо можно ска- зать, что в рамках этой модели в любой момент времени команде «видна» лишь предыдущая и следующая фаза. В реальной же разработке ПО приходится «видеть весь проект целиком» и возвращаться к предыдущим фазам, чтобы исправить недоработки или что-то уточнить. Рисунок 2.1.a — Водопадная модель разработки ПО К недостаткам водопадной модели принято относить тот факт, что участие пользователей ПО в ней либо не предусмотрено вообще, либо предусмотрено лишь косвенно на стадии однократного сбора требований. С точки зрения же тести- рования эта модель плоха тем, что тестирование в явном виде появляется здесь лишь с середины развития проекта, достигая своего максимума в самом конце. 20 In a waterfall model, each phase must be completed fully before the next phase can begin. This type of model is basically used for the project which is small and there are no uncertain requirements. At the end of each phase, a review takes place to deter- mine if the project is on the right path and whether or not to continue or discard the project. [http://istqbexamcertifica- tion.com/what-is-waterfall-model-advantages-disadvantages-and-when-to-use-it/] Общее планированиеТестирование в явном виде появляется лишь с середины развития проекта, достигая своего максимума в самом конце.Пользовательские требованияСистемные требованияТехническая архитектураДетализированный дизайнРазработка и отладкаИнтеграция и модульные тестыИнсталляционное тестированиеСистемное тестированиеПриёмочное тестированиеИтоговая отчётность Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 20/301 Тем не менее водопадная модель часто интуитивно применяется при выпол- нении относительно простых задач, а её недостатки послужили прекрасным отправ- ным пунктом для создания новых моделей. Также эта модель в несколько усовер- шенствованном виде используется на крупных проектах, в которых требования очень стабильны и могут быть хорошо сформулированы в начале проекта (аэро- космическая область, медицинское ПО и т.д.). Относительно краткое и притом хорошее описание водопадной модели можно найти в статье «What is Waterfall model advantages, disadvantages and when to use it?»21Великолепное описание истории развития и заката водопадной модели было создано Максимом Дорофеевым в виде слайдкаста «The Rise And Fall Of Waterfall», который можно посмотреть22в его ЖЖ.V-образная модель (V-model23) является логическим развитием водопад- ной. Можно заметить (рисунок 2.1.b), что в общем случае как водопадная, так и v- образная модели жизненного цикла ПО могут содержать один и тот же набор ста- дий, но принципиальное отличие заключается в том, как эта информация исполь- зуется в процессе реализации проекта. Очень упрощённо можно сказать, что при использовании v-образной модели на каждой стадии «на спуске» нужно думать о том, что и как будет происходить на соответствующей стадии «на подъёме». Тестирование здесь появляется уже на са- мых ранних стадиях развития проекта, что позволяет минимизировать риски, а также обнаружить и устранить множество потенциальных проблем до того, как они станут проблемами реальными. Рисунок 2.1.b — V-образная модель разработки ПО 21«What is Waterfall model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-waterfall- model-advantages-disadvantages-and-when-to-use-it/] 22ЖЖ Максима Дорофеева. [http://cartmendum.livejournal.com/44064.html] 23 V-model. A framework to describe the software development lifecycle activities from requirements specification to maintenance. The V-model illustrates how testing activities can be integrated into each phase of the software development lifecycle. [ISTQB Glossary] Общее планированиеПользовательские требованияСистемные требованияТехническая архитектураДетализированный дизайнРазработка и отладкаИнтеграция и модульные тестыИнсталляционное тестированиеСистемное тестированиеПриёмочное тестированиеИтоговая отчётностьТестирование появляется с самого начала проекта. Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 21/301 Краткое описание v-образной модели можно найти в статье «What is V- model advantages, disadvantages and when to use it?»24Пояснение по ис- пользованию v-образной модели в тестировании можно найти в статье «Using V Models for Testing»25Итерационная инкрементальная модель (iterative model26, incremental model27) является фундаментальной основой современного подхода к разработке ПО. Как следует из названия модели, ей свойственна определённая двойствен- ность (а ISTQB-глоссарий даже не приводит единого определения, разбивая его на отдельные части): • с точки зрения жизненного цикла модель является итерационной, т.к. под- разумевает многократное повторение одних и тех же стадий; • с точки зрения развития продукта (приращения его полезных функций) мо- дель является инкрементальной. Ключевой особенностью данной модели является разбиение проекта на от- носительно небольшие промежутки (итерации), каждый из которых в общем случае может включать в себя все классические стадии, присущие водопадной и v- образной моделям (рисунок 2.1.c). Итогом итерации является приращение (инкре- мент) функциональности продукта, выраженное в промежуточном билде (build28). Рисунок 2.1.c — Итерационная инкрементальная модель разработки ПО 24«What is V-model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-v-model-advantages- disadvantages-and-when-to-use-it/] 25«Using V Models for Testing», Donald Firesmith [https://insights.sei.cmu.edu/sei_blog/2013/11/using-v-models-for-testing.html] 26 Iterative development model. A development lifecycle where a project is broken into a usually large number of iterations. An iteration is a complete development loop resulting in a release (internal or external) of an executable product, a subset of the final product under development, which grows from iteration to iteration to become the final product. [ISTQB Glossary] 27 Incremental development model. A development lifecycle where a project is broken into a series of increments, each of which delivers a portion of the functionality in the overall project requirements. The requirements are prioritized and delivered in priority order in the appropriate increment. In some (but not all) versions of this lifecycle model, each subproject follows a 'mini V-model' with its own design, coding and testing phases. [ISTQB Glossary] 28 Build. A development activity whereby a complete system is compiled and linked, so that a consistent system is available including all latest changes. [На основе определения термина «daily build» из ISTQB Glossary] Общее планированиеПланирование + требованияАрхитектура и дизайнРазработка и отладкаИнтеграция и модульные тестыУстановка билдаТестированиеОценка результатовИтоговая отчётностьОтчётность Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 22/301 Длина итераций может меняться в зависимости от множества факторов, од- нако сам принцип многократного повторения позволяет гарантировать, что и тести- рование, и демонстрация продукта конечному заказчику (с получением обратной связи) будет активно применяться с самого начала и на протяжении всего времени разработки проекта. Во многих случаях допускается распараллеливание отдельных стадий внутри итерации и активная доработка с целью устранения недостатков, обнару- женных на любой из (предыдущих) стадий. Итерационная инкрементальная модель очень хорошо зарекомендовала себя на объёмных и сложных проектах, выполняемых большими командами на про- тяжении длительных сроков. Однако к основным недостаткам этой модели часто относят высокие накладные расходы, вызванные высокой «бюрократизированно- стью» и общей громоздкостью модели. Относительно краткие и очень хорошие описания итерационной инкре- ментальной модели можно найти в статьях «What is Iterative model ad- vantages, disadvantages and when to use it?»29и «What is Incremental model advantages, disadvantages and when to use it?»30Спиральная модель (spiral model31) представляет собой частный случай итерационной инкрементальной модели, в котором особое внимание уделяется управлению рисками, в особенности влияющими на организацию процесса разра- ботки проекта и контрольные точки. Схематично суть спиральной модели представлена на рисунке 2.1.d. Обра- тите внимание на то, что здесь явно выделены четыре ключевые фазы: • проработка целей, альтернатив и ограничений; • анализ рисков и прототипирование; • разработка (промежуточной версии) продукта; • планирование следующего цикла. С точки зрения тестирования и управления качеством повышенное внимание рискам является ощутимым преимуществом при использовании спиральной мо- дели для разработки концептуальных проектов, в которых требования естествен- ным образом являются сложными и нестабильными (могут многократно меняться по ходу выполнения проекта). Автор модели Barry Boehm в своих публикациях32,33подробно раскрывает эти вопросы и приводит множество рассуждений и рекомендаций о том, как применять спиральную модель с максимальным эффектом. Относительно краткие и очень хорошие описания спиральной модели можно найти в статьях «What is Spiral model - advantages, disadvantages and when to use it?»34и «Spiral Model»35 29«What is Iterative model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-iterative- model-advantages-disadvantages-and-when-to-use-it/] 30«What is Incremental model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-incremen- tal-model-advantages-disadvantages-and-when-to-use-it/] 31 Spiral model. A software lifecycle model which supposes incremental development, using the waterfall model for each step, with the aim of managing risk. In the spiral model, developers define and implement features in order of decreasing priority. [https://www.geeksforgeeks.org/software-engineering-spiral-model/] 32«A Spiral Model of Software Development and Enhancement», Barry Boehm [http://www-scf.usc.edu/csci201/lectures/Lec- ture11/boehm1988.pdf] 33«Spiral Development: Experience, Principles, and Refinements», Barry Boehm. [http://www.sei.cmu.edu/reports/00sr008.pdf] 34«What is Spiral model- advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-spiral-model- advantages-disadvantages-and-when-to-use-it/] 35«Spiral Model» [https://searchsoftwarequality.techtarget.com/definition/spiral-model] Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 23/301 Рисунок 2.1.d — Спиральная модель разработки ПО Гибкая модель (agile model36) представляет собой совокупность различных подходов к разработке ПО и базируется на т.н. «agile-манифесте»37: • Люди и взаимодействие важнее процессов и инструментов. • Работающий продукт важнее исчерпывающей документации. • Сотрудничество с заказчиком важнее согласования условий контракта. • Готовность к изменениям важнее следования первоначальному плану. Данная тема является настолько большой, что ссылок на статьи недоста- точно, а потому стоит почитать эти книги: • «Agile Testing» (Lisa Crispin, Janet Gregory). • «Essential Scrum» (Kenneth S. Rubin). 36 Agile software development. A group of software development methodologies based on EITP iterative incremental development, where requirements and solutions evolve through collaboration between self-organizing cross-functional teams. [ISTQB Glos- sary] 37«Agile-манифест» [http://agilemanifesto.org/iso/ru/manifesto.html] Проработка целей, альтернатив и ограниченийПроектныхПродуктныхЖизненного цикла проектаПроцесса разработки проектаЭксплуа- тации продуктаАнализ рисков и прототипированиеРазработка (промежуточной версии) продуктаПланирование следующего циклаПроекта и продуктаЖизненного циклаРазработки, интеграции и тестированияВнедрения и сопровожденияОбщей концепцииУточнённых требованийАрхитектурыДизайнаДетализацияКодированиеИнтеграцияТестированиеДетализацияКодированиеИнтеграцияТестированиеОценка промежуточных результатовНа ра ст ани е об щей цен но ст и пр од ук та Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 24/301 Как несложно догадаться, положенные в основу гибкой модели подходы яв- ляются логическим развитием и продолжением всего того, что было за десятилетия создано и опробовано в водопадной, v-образной, итерационной инкрементальной, спиральной и иных моделях. Причём здесь впервые был достигнут ощутимый ре- зультат в снижении бюрократической составляющей и максимальной адаптации процесса разработки ПО к мгновенным изменениям рынка и требований заказчика. Рисунок 2.1.e — Суть гибкой модели разработки ПО Очень упрощённо (почти на грани допустимого) можно сказать, что гибкая модель представляет собой облегчённую с точки зрения документации смесь ите- рационной инкрементальной и спиральной моделей (рисунки 2.1.c и 2.1.d); при этом следует помнить об «agile-манифесте» и всех вытекающих из него преимуществах и недостатках. ЦенностиСТРАТЕГИЯВЫПУСКИТЕРАЦИЯЕЖЕДНЕВНОНЕПРЕРЫВНОTDDБилдРефакторингИнтеграцияСотрудничествоБилд«Стендап» собраниеТестированиеПланированиеОценкаРетроспектива«Бэклог»План выпускаОценкаВидениеЦелиСоглашенияБюджетАдаптивностьПрозрачностьПростотаЕдинствоНаглядностьОсталось сделатьПроизводительностьСделаноТесты Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 25/301 Рисунок 2.1.f — Итерационный подход в рамках гибкой модели и scrum Главным недостатком гибкой модели считается сложность её применения к крупным проектам, а также частое ошибочное внедрение её подходов, вызванное недопониманием фундаментальных принципов модели. Тем не менее можно утверждать, что всё больше и больше проектов начи- нают использовать гибкую модель разработки. Очень подробное и элегантное изложение принципов применения гибкой модели разработки ПО можно найти в статье «The Agile System Develop- ment Life Cycle»381   2   3   4   5   6   7   8   9   ...   38

№ Имя Кодировка Размер 1 «Мелкий» файл в WIN1251.txt WIN1251 100 КБ 2 «Средний» файл в CP866.txt CP866 10 МБ 3 «Крупный» файл в KOI8R.txt KOI8R 50 МБ 4 «Крупный» файл в win-1251.html WIN1251 50 МБ 5 «Мелкий» файл в cp-866.html CP866 100 КБ 6 «Средний» файл в koi8-r.html KOI8R 10 МБ 7 «Средний» файл в WIN_1251.md WIN1251 10 МБ 8 «Крупный» файл в CP_866.md CP866 50 МБ 9 «Мелкий» файл в KOI8_R.md KOI8R 100 КБ 10 «Мелкий» эталон WIN1251.txt UTF8 100 КБ 11 «Средний» эталон CP866.txt UTF8 10 МБ 12 «Крупный» эталон KOI8R.txt UTF8 50 МБ 13 «Крупный» эталон в win-1251.html UTF8 50 МБ 14 «Мелкий» эталон в cp-866.html UTF8 100 КБ 15 «Средний» эталон в koi8-r.html UTF8 10 МБ 16 «Средний» эталон в WIN_1251.md UTF8 10 МБ 17 «Крупный» эталон в CP_866.md UTF8 50 МБ 18 «Мелкий» эталон в KOI8_R.md UTF8 100 КБ 19 Пустой файл.md - 0 Б 20 Слишком большой файл.txt - 52’428’801 Б 21 Картинка.jpg - 1 МБ 22 Картинка в виде TXT.txt -

Описание действий в качестве наименований модуля/подмодуля. Например, «запуск приложения» — это НЕ модуль или подмодуль. Модуль или под- модуль{125}— это всегда некие части приложения, а не его поведение. Сравните: «дыхательная система» — это модуль человека, но «дыхание» — нет. Описание событий или процессов в качестве шагов или ожидаемых ре-зультатов. Например, в качестве шага сказано: «Ввод спецсимволов в поле X». Это было бы сносным заглавием тест-кейса, но не годится в качестве шага, который должен быть сформулирован как «Ввести спецсимволы (перечень) в поле X». Куда страшнее, если подобное встречается в ожидаемых результатах. Например, там написано: «Отображение скорости чтения в панели X». И что? Оно должно начаться, продолжиться, завершиться, не начинаться, неким образом из- мениться (например, измениться должна размерность данных), как-то на что-то по- влиять? Тест-кейс становится полностью бессмысленным, т.к. такой ожидаемый результат невозможно сравнить с фактическим поведением приложения. «Выдумывание» особенностей поведения приложения. Да, часто в тре- бованиях отсутствуют самоочевидные (без кавычек, они на самом деле самооче- видные) вещи, но нередко встречаются и некачественные (например, неполные) требования, которые нужно улучшать, а не «телепатически компенсировать». Например, в требованиях сказано, что «приложение должно отображать диа- логовое окно сохранения с указанным по умолчанию каталогом». Если из контекста (соседних требований, иных документов) ничего не удаётся узнать об этом таин- ственном «каталоге по умолчанию», нужно задать вопрос. Нельзя просто записать в ожидаемых результатах «отображается диалоговое окно сохранения с указанным по умолчанию каталогом» (как мы проверим, что выбран именно указанный по умолчанию каталог, а не какой-то иной?). И уж тем более нельзя в ожидаемых ре- зультатах писать «отображается диалоговое окно сохранения с выбранным ката- логом “C:/SavedDocuments”» (откуда взялось это «C:/SavedDocuments», — не ясно, т.е. оно явно выдумано из головы и, скорее всего, выдумано неправильно). Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 163/301 Отсутствие описания приготовления к выполнению тест-кейса. Часто для корректного выполнения тест-кейса необходимо каким-то особым образом настроить окружение. Предположим, что мы проверяем приложение, выполняющее резервное копирование файлов. Если тест выглядит примерно так, то выполняю- щий его сотрудник будет в замешательстве, т.к. ожидаемый результат кажется про- сто бредом. Откуда взялось «200»? Что это вообще такое? Шаги выполнения Ожидаемые результаты 1. Нажать на панели «Главная» кнопку «Быст- рая дедубликация». 2. Выбрать каталог «C:/MyData». 1. Кнопка «Быстрая дедубликация» переходит в утопленное состояние и меняет цвет с се- рого на зелёный. 2. На панели «Состояние» в поле «Дубли- каты» отображается «200». И совсем иначе этот тест-кейс воспринимался бы, если бы в приготовлениях было сказано: «Создать каталог “C:/MyData” с произвольным набором подкаталогов (глубина вложенности не менее пяти). В полученном дереве каталогов разместить 1000 файлов, из которых 200 имеют одинаковые имена и размеры, но НЕ внутрен- нее содержимое». Полное дублирование (копирование) одного и того же тест-кейса на уровнях дымового тестирования, тестирования критического пути, расши-ренного тестирования. Многие идеи естественным образом развиваются от уровня к уровню{79}, но они должны именно развиваться, а не дублироваться. Срав- ните: Дымовое тестиро-вание Тестирование критиче-ского пути Расширенное тестирование Плохо Запуск приложения. Запуск приложения. Запуск приложения. Хорошо Запуск приложения. Запуск приложения из ко- мандной строки. Запуск приложения через ярлык на рабочем столе. Запуск приложения через меню «Пуск». Запуск приложения из команд- ной строки в активном режиме. Запуск приложения из команд- ной строки в фоновом режиме. Запуск приложения через ярлык на рабочем столе от имени ад- министратора. Запуск приложения через меню «Пуск» из списка часто запуска- емых приложений. Слишком длинный перечень шагов, не относящихся к сути (цели) тест-кейса. Например, мы хотим проверить корректность одностороннего режима пе- чати из нашего приложения на дуплексном принтере. Сравните: Плохо Хорошо Односторонняя печать 1. Запустить приложение. 2. В меню выбрать «Файл» -> «Открыть». 3. Выбрать любой DOCX-файл, состоящий из нескольких страниц. 4. Нажать кнопку «Открыть». 5. В меню выбрать «Файл» -> «Печать». 6. В списке «Двусторонняя печать» выбрать пункт «Нет». 7. Нажать кнопку «Печать». 8. Закрыть файл. 9. Закрыть приложение. Односторонняя печать 1. Открыть любой DOCX-файл, содержащий три и более непустых страницы. 2. В диалоговом окне «Настройка печати» в списке «Двусторонняя печать» выбрать «Нет». 3. Произвести печать документа на принтере, поддерживающем двустороннюю печать. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 164/301 Слева мы видим огромное количество действий, не относящихся непосред- ственно к тому, что проверяет тест-кейс. Тем более что запуск и закрытие прило- жения, открытие файла, работа меню и прочее или будут покрыты другими тест- кейсами (со своими соответствующими целями), или на самом деле являются са- моочевидными (логично ведь, что нельзя открыть приложением файл, если прило- жение не запущено) и не нуждаются в описании шагов, которые только создают информационный шум и занимают время на написание и прочтение. Некорректное наименование элементов интерфейса или их свойств. Иногда из контекста понятно, что автор тест-кейса имел в виду, но иногда это ста- новится реальной проблемой. Например, мы видим тест-кейс с заглавием «Закры- тие приложения кнопками "Close" и "Close window"». Уже тут возникает недоумение по поводу того, в чём же различие этих кнопок, да и о чём вообще идёт речь. Ниже (в шагах тест-кейса) автор поясняет: «В рабочей панели внизу экрана нажать "Close window"». Ага! Ясно. Но «Close window» — это НЕ кнопка, это пункт системного кон- текстного меню приложения в панели задач. Ещё один отличный пример: «Окно приложения свернётся в окно меньшего диаметра». Хм. Окно круглое? Или должно стать круглым? А, может, тут и вовсе речь про два разных окна, и одно должно будет оказаться внутри второго? Или, всё же «размер окна уменьшается» (кстати, насколько?), а его геометрическая форма остаётся прямоугольной? И, наконец, пример, из-за которого вполне можно написать отчёт о дефекте на вполне корректно работающее приложение: «В системном меню выбрать “Фик- сация расположения”». Казалось бы, что ж тут плохого? Но потом выясняется, что имелось в виду главное меню приложения, а вовсе не системное меню. Непонимание принципов работы приложения и вызванная этим некор-ректность тест-кейсов. Классикой жанра является закрытие приложения: тот факт, что окно приложения «исчезло» (сюрприз: например, оно свернулось в об- ласть уведомления панели задач (system tray, taskbar notification area)), или прило- жение отключило интерфейс пользователя, продолжив функционировать в фоно- вом режиме, вовсе не является признаком того, что оно завершило работу. Проверка типичной «системной» функциональности. Если только ваше приложение не написано с использованием каких-то особенных библиотек и техно- логий и не реализует какое-то нетипичное поведение, нет необходимости прове- рять системные кнопки, системные меню, сворачивание-разворачивание окна и т.д. Вероятность встретить здесь ошибку стремится к нулю. Если всё же очень хочется, можно вписать эти проверки как уточнения некоторых действий на уровне тестиро- вания критического пути{80}, но создавать для них отдельные тест-кейсы не нужно. Неверное поведение приложения как ожидаемый результат. Такое не допускается по определению. Не может быть тест-кейса с шагом в стиле «поделить на ноль» с ожидаемым результатом «крах приложения с потерей пользовательских данных». Ожидаемые результаты всегда описывают правильное поведение прило- жения — даже в самых страшных стрессовых тест-кейсах. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 165/301 Общая некорректность тест-кейсов. Может быть вызвана множеством при- чин и выражаться множеством образов, но вот классический пример: Шаги выполнения Ожидаемые результаты … 4. Закрыть приложение нажатием Alt+F4. 5. Выбрать в меню «Текущее состояние». … 4. Приложение завершает работу. 5. Отображается окно с заголовком «Текущее состояние» и содержимым, соответствую- щим рисунку 999.99. Здесь или не указано, что вызов окна «Текущее состояние» происходит где- то в другом приложении, или остаётся загадкой, как вызвать это окно у завершив- шего работу приложения. Запустить заново? Возможно, но в тест-кейсе этого не сказано. Неверное разбиение наборов данных на классы эквивалентности. Дей- ствительно, иногда классы эквивалентности{94}могут быть очень неочевидными. Но ошибки встречаются и в довольно простых случаях. Допустим, в требованиях ска- зано, что размер некоего файла может быть от 10 до 100 КБ (включительно). Раз- биение по размеру 0–9 КБ, 10–100 КБ, 101+ КБ ошибочно, т.к. килобайт не явля- ется неделимой единицей. Такое ошибочное разбиение не учитывает, например, размеры в 9.5 КБ, 100.1 КБ, 100.7 КБ и т.д. Потому здесь стоит применять неравен- ства: 0 КБ ≤ размер < 10 КБ, 10 КБ ≤ размер ≤ 100 КБ, 100 КБ < размер. Также можно писать с использованием синтаксиса скобок: [0, 10) КБ, [10, 100] КБ, (100, ∞) КБ, но вариант с неравенствами более привычен большинству людей. Тест-кейсы, не относящиеся к тестируемому приложению. Например, нам нужно протестировать фотогалерею на сайте. Соответственно, следующие тест-кейсы никак не относятся к фотогалерее (они тестируют браузер, операцион- ную систему пользователя, файловый менеджер и т.д. — но НЕ наше приложение, ни его серверную, ни даже клиентскую часть): • Файл с сетевого диска. • Файл со съёмного носителя. • Файл, заблокированный другим приложением. • Файл, открытый другим приложением. • Файл, к которому у пользователя нет прав доступа. • Вручную указать путь к файлу. • Файл из глубоко расположенной поддиректории. Формальные и/или субъективные проверки. Чаще всего данную ошибку можно встретить в пунктах чек-листа. Возможно, у автора в голове и был чёткий и подробный план, но из следующих примеров совершенно невозможно понять, что будет сделано с приложением, и какой результат мы должны ожидать: • «Сконвертировать». • «Проверить метод getMessage()». • «Некорректная работа в корректных условиях». • «Скорость». • «Объём данных». • «Должно работать быстро». В отдельных исключительных ситуациях можно возразить, что из контекста и дальнейшей детализации становится понятно, что имелось в виду. Но чаще всего никакого контекста и никакой дальнейшей детализации нет, т.е. приведённые при- меры оформлены как отдельные полноправные пункты чек-листа. Так — нельзя. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 166/301 Как можно и нужно – см. в примере чек-листа{116}и всём соответствующем раз- деле{115}Теперь для лучшего закрепления рекомендуется заново прочитать про оформление атрибутов тест-кейсов{124}, свойства качественных тест-кейсов{136}и ло- гику построения{152}качественных тест-кейсов и качественных наборов тест-кейсов. Отчёты о дефектах Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 167/301 2.5. Отчёты о дефектах 2.5.1. Ошибки, дефекты, сбои, отказы и т.д. Упрощённый взгляд на понятие дефекта Далее в этой главе мы глубоко погрузимся в терминологию (она действи- тельно важна!), а потому начнём с очень простого: дефектом упрощённо можно счи- тать любое расхождение ожидаемого (свойства, результата, поведения и т.д., ко- торое мы ожидали увидеть) и фактического (свойства, результата, поведения и т.д., которое мы на самом деле увидели). При обнаружении дефекта создаётся отчёт о дефекте. Дефект — расхождение ожидаемого и фактического результата. Ожидаемый результат — поведение системы, описанное в требованиях. Фактический результат — поведение системы, наблюдаемое в процессе тестирования. ВАЖНО! Эти три определения приведены в предельно упрощённой (и даже искажённой) форме с целью первичного ознакомления. Полноцен- ные формулировки см. далее в этой же главе. Поскольку столь простая трактовка не покрывает все возможные формы про- явления проблем с программными продуктами, мы сразу же переходим к более по- дробному рассмотрению соответствующей терминологии. Расширенный взгляд на терминологию, описывающую проблемы Разберёмся с широким спектром синонимов, которыми обозначают про- блемы с программными продуктами и иными артефактами и процессами, сопут- ствующими их разработке. В силлабусе ISTQB написано308, что человек совершает ошибки, которые при- водят к возникновению дефектов в коде, которые, в свою очередь, приводят к сбоям и отказам приложения (однако сбои и отказы могут возникать и из-за внешних усло- вий, таких как электромагнитное воздействие на оборудование и т.д.). Таким образом, упрощённо можно изобразить следующую схему: Рисунок 2.5.a — Ошибки, дефекты, сбои и отказы 308 A human being can make an error (mistake), which produces a defect (fault, bug) in the program code, or in a document. If a defect in code is executed, the system may fail to do what it should do (or do something it shouldn't), causing a failure. Defects in software, systems or documents may result in failures, but not all defects do so. Defects occur because human beings are fallible and because there is time pressure, complex code, complexity of infrastructure, changing technologies, and/or many system interactions. Failures can be caused by environmental conditions as well. For example, radiation, magnetism, electronic fields, and pollution can cause faults in firmware or influence the execution of software by changing the hardware conditions. [ISTQB Syllabus] ОшибкаДефектСбой или отказ Ошибки, дефекты, сбои, отказы и т.д. Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 168/301 Если же посмотреть на англоязычную терминологию, представленную в глоссарии ISTQB и иных источниках, можно построить чуть более сложную схему: Рисунок 2.5.b — Взаимосвязь проблем в разработке программных продуктов Рассмотрим все соответствующие термины. Ошибка (error309, mistake) — действие человека, приводящее к некоррект- ным результатам. Этот термин очень часто используют как наиболее универсальный, описыва- ющий любые проблемы («ошибка человека», «ошибка в коде», «ошибка в докумен- тации», «ошибка выполнения операции», «ошибка передачи данных», «ошибочный результат» и т.п.) Более того, куда чаще вы сможете услышать «отчёт об ошибке», чем «отчёт о дефекте». И это нормально, так сложилось исторически, к тому же термин «ошибка» на самом деле очень широкий. Дефект (defect310, bug, problem, fault) — недостаток в компоненте или си- стеме, способный привести к ситуации сбоя или отказа. Этот термин также понимают достаточно широко, говоря о дефектах в доку- ментации, настройках, входных данных и т.д. Почему глава называется именно «от- чёты о дефектах»? Потому что этот термин как раз стоит посередине — бессмыс- ленно писать отчёты о человеческих ошибках, равно как и почти бесполезно просто описывать проявления сбоев и отказов — нужно докопаться до их причины, и пер- вым шагом в этом направлении является именно описание дефекта. Сбой (interruption311) или отказ (failure312) — отклонение поведения си- стемы от ожидаемого. В ГОСТ 27.002-89 даны хорошие и краткие определения сбоя и отказа: Сбой — самоустраняющийся отказ или однократный отказ, устраняемый незначительным вмешательством оператора. Отказ — событие, заключающееся в нарушении работоспособного состо- яния объекта. Эти термины скорее относятся к теории надёжности и нечасто встречаются в повседневной работе тестировщика, но именно сбои и отказы являются тем, что тестировщик замечает в процессе тестирования (и отталкиваясь от чего, проводит исследование с целью выявить дефект и его причины). 309 Error, Mistake. A human action that produces an incorrect result. [ISTQB Glossary] 310 Defect, Bug, Problem, Fault. A flaw in a component or system that can cause the component or system to fail to perform its required function, e.g. an incorrect statement or data definition. A defect, if encountered during execution, may cause a failure of the component or system. [ISTQB Glossary] 311 Interruption. A suspension of a process, such as the execution of a computer program, caused by an event external to that process and performed in such a way that the process can be resumed. [http://www.electropedia.org/iev/iev.nsf/display?open- form&ievref=714-22-10] 312 Failure. Deviation of the component or system from its expected delivery, service or result. [ISTQB Glossary] Error (Mistake)Defect(Problem, Bug, Fault)Failure, InterruptionAnomaly, Incident (Deviation) Ошибки, дефекты, сбои, отказы и т.д. Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 169/301 1   ...   20   21   22   23   24   25   26   27   ...   38


Альтернативные и дополнительные классификации тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 103/301
2.3.3.
Альтернативные и дополнительные классификации тестиро-
вания
Для полноты картины остаётся лишь показать альтернативные взгляды на классификацию тестирования. Одна из них (рисунки 2.3.i и 2.3.j) представляет не более чем иную комбинацию ранее рассмотренных видов и техник. Вторая (рисунки
2.3.k и 2.3.l) содержит много новых определений, но их подробное изучение выхо- дит за рамки данной книги, и потому будут даны лишь краткие пояснения (при необ- ходимости вы можете ознакомиться с первоисточниками, которые указаны для каж- дого определения в сноске).
Ещё раз подчеркнём: здесь приведены лишь определения. Соответству- ющим видам и техникам тестирования в первоисточниках посвящены де- сятки и сотни страниц. Пожалуйста, не ожидайте от этого раздела подроб- ных пояснений, их не будет, т.к. это — «очень дополнительный» материал.
Рисунок 2.3.i — Классификация тестирования согласно книге «Foundations of Soft- ware Testing: ISTQB Certification
» (Erik Van Veenendaal, Isabel Evans) (русскоязыч- ный вариант)
Тестирование
Статическое
Динамическое
Неформальный просмотр
Беглый просмотр
Технический просмотр
Формальная инспекция
Статический анализ
По потоку управления
По потоку данных
На основе опыта
тестировщика
Предугадывание ошибок
Исследователь- ское тестирование
На основе структур
кода
Выражений
Переходов
Условий
Комбинаций условий
На основе
спецификаций
На основе классов эквивалентности
На основе граничных условий
По вариантам использования
По таблице принятия решений
По диаграмме состояний

Альтернативные и дополнительные классификации тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 104/301
Рисунок 2.3.j — Классификация тестирования согласно книге «Foundations of Soft- ware Testing: ISTQB Certification
» (Erik Van Veenendaal, Isabel Evans) (англоязыч- ный вариант)
В следующей классификации встречаются как уже рассмотренные пункты, так и ранее не рассмотренные (отмечены пунктирной линией). Краткие определе- ния не рассмотренных ранее видов тестирования представлены после рисунков
2.3.k и 2.3.l.
Testing Techniques
Static
Dynamic
Informal Review
Walkthrough
Technical Review
Inspection
Static Analysis
Control Flow
Data Flow
Experience-based
Error Guessing
Exploratory Testing
Structure-based
Statement
Decision
Condition
Multiple Condition
Specification-based
Equivalence
Partitioning
Boundary Value
Analisys
Use Case Testing
Decision Tables
State Transition


Альтернативные и дополнительные классификации тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 105/301
Рисунок 2.3.k — Классификация тестирования согласно ISO/IEC/IEEE 29119-4
(русскоязычный вариант)
Техники тестирования
На основе опыта
тестировщика
На основе структур кода
На основе дерева классификаций
Проверка использования всех объявлений
На основе синтаксиса
Комбинаторные техники
Всех комбинаций
Попарное
Предугадывание ошибок
На основе условий
На основе выражений
На основе решений
На основе спецификаций
На основе классов эквивалентности
На основе граничных условий
На основе вариантов использования
По таблице принятия решений
По диаграмме состояний
С выбором значений- представителей
С выбором базового набора значений
По графу причинно- следственных связей
На основе сценариев
На основе случайных данных
На основе ветвей
На основе комбинаций условий
На основе отдельных условий, порождающих ветвление
По потоку данных
Проверка всех вычислений на основе всех объявлений
См. в основной классификации «На основе опыта тестировщика, сценариев, чек-листов» и
«На основе (моделей) поведения приложения»
Проверка всех ветвлений на основе всех объявлений
Проверка всех вычислений и ветвлений на основе всех объявлений
Проверка использования всех объявлений и всех путей без переобъявлений (без циклов или с однократными повторениями циклов)

Альтернативные и дополнительные классификации тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 106/301
Рисунок 2.3.l — Классификация тестирования согласно ISO/IEC/IEEE 29119-4 (ан- глоязычный вариант)

Альтернативные и дополнительные классификации тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 107/301
Тестирование на основе дерева классификаций (classification tree
268
method
269
)
— техника тестирования (по методу чёрного ящика), в которой тест-кейсы создаются на основе иерархически организованных наборов эк- вивалентных входных и выходных данных.
Тестирование на основе синтаксиса (syntax testing
270
)
— техника тестиро- вания (по методу чёрного ящика), в которой тест-кейсы создаются на основе определения наборов входных и выходных данных.
Комбинаторные техники или комбинаторное тестирование (combinatorial testing
271
)
— способ выбрать подходящий набор комбинаций тестовых данных для достижения установленного уровня тестового покрытия в случае, когда проверка всех возможных наборов значений тестовых данных невозможна за имеющееся время. Существуют следующие комбинаторные техники: o
Тестирование всех комбинаций (all combinations testing
272
)
— тести- рование всех возможных комбинаций всех значений всех тестовых данных (например, всех параметров функции). o
Попарное тестирование (рассмотрено ранее
{95}
). o
Тестирование с выбором значений-представителей (each choice testing
273
)
— тестирование, при котором по одному значению из каждого набора тестовых данных должно быть использовано хотя бы в одном тест-кейсе. o
Тестирование с выбором базового набора значений (base choice testing
274
)
— тестирование, при котором выделяется набор значений
(базовый набор), который используется для проведения тестирования в первую очередь, а далее тест-кейсы строятся на основе выбора всех базовых значений, кроме одного, которое заменяется значением, не входящим в базовый набор.
Также см. классификацию тестирования на основе выбора входных данных
{94}
, которая расширяет и дополняет данный список.
Тестирование по графу причинно-следственных связей (cause-effect gra- phing
275
)
— техника тестирования (по методу чёрного ящика), в которой тест- кейсы разрабатываются на основе графа причинно-следственных связей
(графического представления входных данных и воздействий со связанными с ними выходными данными и эффектами).
268
Classification tree. A tree showing equivalence partitions hierarchically ordered, which is used to design test cases in the classi- fication tree method. [ISTQB Glossary]
269
Classification tree method. A black box test design technique in which test cases, described by means of a classification tree, are designed to execute combinations of representatives of input and/or output domains. [ISTQB Glossary]
270
Syntax testing. A black box test design technique in which test cases are designed based upon the definition of the input domain and/or output domain. [ISTQB Glossary]
271
Combinatorial testing. A means to identify a suitable subset of test combinations to achieve a predetermined level of coverage when testing an object with multiple parameters and where those parameters themselves each have several values, which gives rise to more combinations than are feasible to test in the time allowed. [ISTQB Glossary]
272
All combinations testing. Testing of all possible combinations of all values for all parameters. [
«Guide to advanced software testing, 2nd edition
», Anne Matte Hass].
273
Each choice testing. One value from each block for each partition must be used in at least one test case. [
«Introduction to
Software Testing. Chapter 4. Input Space Partition Testing
», Paul Ammann & Jeff Offutt]
274
Base choice testing. A base choice block is chosen for each partition, and a base test is formed by using the base choice for each partition. Subsequent tests are chosen by holding all but one base choice constant and using each non-base choice in each other parameter. [
«Introduction to Software Testing. Chapter 4. Input Space Partition Testing», Paul Ammann & Jeff Offutt]
275
Cause-effect graphing. A black box test design technique in which test cases are designed from cause-effect graphs (a graphical representation of inputs and/or stimuli (causes) with their associated outputs (effects), which can be used to design test cases).
[ISTQB Glossary]


Альтернативные и дополнительные классификации тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 108/301
Тестирование по потоку данных (data-flow testing
276
)
— семейство техник тестирования, основанных на выборе отдельных путей из потока управления с целью исследования событий, связанных с изменением состояния пере- менных. Эти техники позволяют обнаружить такие ситуации, как: переменная определена, но нигде не используется; переменная используется, но не определена; переменная определена несколько раз до того, как она исполь- зуется; переменная удалена до последнего случая использования.
Здесь придётся немного погрузиться в теорию. Над переменной в общем слу- чае может выполняться несколько действий (покажем на примере перемен- ной x):
• объявление (declaration): int x;
• определение (definition, d-use): x = 99;
• использование в вычислениях (computation use, c-use): z = x + 1;
• использование в условиях (predicate use, p-use): if (x > 17) { … };
• удаление (kill, k-use): x = null;
Теперь можно рассмотреть техники тестирования на основе потока данных.
Они крайне подробно описаны в разделе 3.3 главы 5 книги Бориса Бейзера
«Техники тестирования ПО» («Software Testing Techniques, Second Edition»,
Boris Beizer
), мы же приведём очень краткие пояснения: o
Проверка использования всех объявлений (all-definitions testing
277
)
— тестовым набором проверяется, что для каждой переменной суще- ствует путь от её определения к её использованию в вычислениях или условиях. o
Проверка всех вычислений на основе всех объявлений (all-c-uses testing
278
)
— тестовым набором проверяется, что для каждой перемен- ной существует путь от каждого её определения к её использованию в вычислениях. o
Проверка всех ветвлений на основе всех объявлений (all-p-uses testing
279
)
— тестовым набором проверяется, что для каждой перемен- ной существует путь от каждого её определения к её использованию в условиях. o
Проверка всех вычислений и ветвлений на основе всех объявле-
ний (all-uses testing
280
)
— тестовым набором проверяется, что для каж- дой переменной существует хотя бы один путь от каждого её опреде- ления к каждому её использованию в вычислениях и в условиях. o
Проверка использования всех объявлений и всех путей без пере-
объявлений (без циклов или с однократными повторениями цик-
лов) (all-du-paths testing
281
)
— тестовым набором для каждой перемен- ной проверяются все пути от каждого её определения к каждому её использованию в вычислениях и в условиях (самая мощная стратегия, которая в то же время требует наибольшего количества тест-кейсов).
276
Data flow testing. A white box test design technique in which test cases are designed to execute definition-use pairs of variables.
[ISTQB Glossary]
277
All-definitions strategy. Test set requires that every definition of every variable is covered by at least one use of that variable (c- use or p-use). [
«Software Testing Techniques, Second Edition», Boris Beizer]
278
All-computation-uses strategy. For every variable and every definition of that variable, include at least one definition-free path from the definition to every computation use. [
«Software Testing Techniques, Second Edition», Boris Beizer]
279
All-predicate-uses strategy. For every variable and every definition of that variable, include at least one definition-free path from the definition to every predicate use. [
«Software Testing Techniques, Second Edition», Boris Beizer]
280
All-uses strategy. Test set includes at least one path segment from every definition to every use that can be reached by that definition. [
«Software Testing Techniques, Second Edition», Boris Beizer]
281
All-DU-path strategy. Test set includes every du path from every definition of every variable to every use of that definition.
[«Software Testing Techniques, Second Edition», Boris Beizer]


Альтернативные и дополнительные классификации тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 109/301
Для лучшего понимания и запоминания приведём оригинальную схему из книги Бориса Бейзера (там она фигурирует под именем «Figure 5.7. Relative
Strength of Structural Test Strategies
»), показывающую взаимосвязь стратегий тестирования на основе потока данных (рисунок 2.3.m).
Рисунок 2.3.m — Взаимосвязь и относительная мощность стратегий тестирования на основе потока данных (по книге Бориса Бейзера «Техники тестирования ПО»)
All-Paths
All-DU-Paths
All-Uses
All-C-Uses/Some-P-Uses
All-P-Uses/Some-C-Uses
All-C-Uses
All-Defs
All-P-Uses
Branch
Statement

Классификация по принадлежности к тестированию по методу белого и чёрного ящиков
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 110/301
1   ...   12   13   14   15   16   17   18   19   ...   38

2.3.4.
Классификация по принадлежности к тестированию по ме-
тоду белого и чёрного ящиков
Типичнейшим вопросом на собеседовании для начинающих тестировщиков является просьба перечислить техники тестирования по методу белого и чёрного ящиков. Ниже представлена таблица 2.3.d, в которой все вышерассмотренные виды тестирования соотнесены с соответствующим методом. Эту таблицу можно использовать также как справочник по видам тестирования (они представлены в той же последовательности, в какой описаны в данной главе).
Важно! В источниках наподобие ISTQB-глоссария многие виды и техники тестирования жёстко соотнесены с методами белого или чёрного ящика.
Но это не значит, что их невозможно применить в другом, не отмеченном методе. Так, например, тестирование на основе классов эквивалентности отнесено к методу чёрного ящика, но оно прекрасно подходит и для напи- сания модульных тест-кейсов, являющихся ярчайшими представителями тестирования по методу белого ящика.
Воспринимайте данные из представленной ниже таблицы не как «этот вид тестирования может применяться только для…», а как «чаще всего этот вид тестирования применяется для…»
Таблица 2.3.d — Виды и техники тестирования в контексте методов белого и чёр- ного ящиков
Вид тестирования
(русскоязычное название)
Вид тестирования (англо-
язычное название)
Белый ящик
Чёрный ящик
Статическое тестирование
{73}
Static testing
Да
Нет
Динамическое тестирова- ние
{73}
Dynamic testing
Изредка
Да
Ручное тестирование
{75}
Manual testing
Мало
Да
Автоматизированное тести- рование
{76}
Automated testing
Да
Да
Модульное (компонентное) тестирование
{77}
Unit testing, Module testing,
Component testing
Да
Нет
Интеграционное тестирова- ние
{77}
Integration testing
Да
Да
Системное тестирование
{78}
System testing
Мало
Да
Дымовое тестирование
{79}
Smoke test, Intake test, Build verification test
Мало
Да
Тестирование критического пути
{80}
Critical path test
Мало
Да
Расширенное тестирова- ние
{81}
Extended test
Мало
Да
Позитивное тестирование
{82}
Positive testing
Да
Да
Негативное тестирование
{82}
Negative testing, Invalid testing
Да
Да
Тестирование веб-приложе- ний
{83}
Web-applications testing
Да
Да
Тестирование мобильных приложений