Файл: Обеспечения Базовый курс (3е издание) Версия книги 2 от 17. 04. 2023.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 07.11.2023

Просмотров: 893

Скачиваний: 31

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

Раздел 2: основные знания и умения 2.1. Процессы тестирования и разработки ПО 2.1.1. Модели разработки ПО Чтобы лучше разобраться в том, как тестирование соотносится с программи- рованием и иными видами проектной деятельности, для начала рассмотрим самые основы — модели разработки (lifecycle model16) ПО (как часть жизненного цикла (software lifecycle17) ПО). При этом сразу подчеркнём, что разработка ПО является лишь частью жизненного цикла ПО, и здесь мы говорим именно о разработке. Материал данной главы относится скорее к дисциплине «управление проек- тами», потому здесь рассмотрен крайне сжато: пожалуйста, не воспринимайте его как исчерпывающее руководство — здесь едва ли рассмотрена и сотая доля про- цента соответствующей предметной области. Модель разработки ПО (Software Development Model, SDM) — структура, систематизирующая различные виды проектной деятельности, их взаимо- действие и последовательность в процессе разработки ПО. Выбор той или иной модели зависит от масштаба и сложности проекта, предметной области, доступных ресурсов и множества других факторов. Выбор модели разработки ПО серьёзно влияет на процесс тестирования, определяя выбор стратегии, расписание, необходимые ресурсы и т.д. Моделей разработки ПО много, но в общем случае классическими можно считать водопадную, v-образную, итерационную инкрементальную, спиральную и гибкую. Перечень моделей разработки ПО (с кратким описанием), рекомендуе- мых к изучению тестировщиками, можно найти в статье «What are the Software Development Models?»18Знать и понимать модели разработки ПО нужно затем, чтобы уже с первых дней работы осознавать, что происходит вокруг, что, зачем и почему вы делаете. Многие начинающие тестировщики отмечают, что ощущение бессмысленности происходящего посещает их, даже если текущие задания интересны. Чем полнее вы будете представлять картину происходящего на проекте, тем яснее вам будет виден ваш собственный вклад в общее дело и смысл того, чем вы занимаетесь. Ещё одна важная вещь, которую следует понимать, состоит в том, что ника- кая модель не является догмой или универсальным решением. Нет идеальной мо- дели. Есть та, которая хуже или лучше подходит для конкретного проекта, конкрет- ной команды, конкретных условий. Частая ошибка! Единственное, от чего стоит предостеречь уже сейчас, так это от фривольной трактовки модели и перекраивания её «на свой вкус» без кристально чёткого понимания, что и зачем вы делаете. О том, что бывает при нарушении логики модели, прекрасно сказал в своём слайдка- сте «Scrum Tailoring»19Максим Дорофеев. 16 Lifecycle model. A partitioning of the life of a product or project into phases. [ISTQB Glossary] 17 Software lifecycle. The period of time that begins when a software product is conceived and ends when the software is no longer available for use. The software lifecycle typically includes a concept phase, requirements phase, design phase, implementation phase, test phase, installation and checkout phase, operation and maintenance phase, and sometimes, retirement phase. Note these phases may overlap or be performed iteratively. [ISTQB Glossary] 18«What are the Software Development Models?» [http://istqbexamcertification.com/what-are-the-software-development-models/] 19«Scrum Tailoring», Максим Дорофеев [http://cartmendum.livejournal.com/10862.html] Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 19/301 Водопадная модель (waterfall model20) сейчас представляет скорее истори- ческий интерес, т.к. в современных проектах практически неприменима. Она пред- полагает однократное выполнение каждой из фаз проекта, которые, в свою оче- редь, строго следуют друг за другом (рисунок 2.1.a). Очень упрощённо можно ска- зать, что в рамках этой модели в любой момент времени команде «видна» лишь предыдущая и следующая фаза. В реальной же разработке ПО приходится «видеть весь проект целиком» и возвращаться к предыдущим фазам, чтобы исправить недоработки или что-то уточнить. Рисунок 2.1.a — Водопадная модель разработки ПО К недостаткам водопадной модели принято относить тот факт, что участие пользователей ПО в ней либо не предусмотрено вообще, либо предусмотрено лишь косвенно на стадии однократного сбора требований. С точки зрения же тести- рования эта модель плоха тем, что тестирование в явном виде появляется здесь лишь с середины развития проекта, достигая своего максимума в самом конце. 20 In a waterfall model, each phase must be completed fully before the next phase can begin. This type of model is basically used for the project which is small and there are no uncertain requirements. At the end of each phase, a review takes place to deter- mine if the project is on the right path and whether or not to continue or discard the project. [http://istqbexamcertifica- tion.com/what-is-waterfall-model-advantages-disadvantages-and-when-to-use-it/] Общее планированиеТестирование в явном виде появляется лишь с середины развития проекта, достигая своего максимума в самом конце.Пользовательские требованияСистемные требованияТехническая архитектураДетализированный дизайнРазработка и отладкаИнтеграция и модульные тестыИнсталляционное тестированиеСистемное тестированиеПриёмочное тестированиеИтоговая отчётность Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 20/301 Тем не менее водопадная модель часто интуитивно применяется при выпол- нении относительно простых задач, а её недостатки послужили прекрасным отправ- ным пунктом для создания новых моделей. Также эта модель в несколько усовер- шенствованном виде используется на крупных проектах, в которых требования очень стабильны и могут быть хорошо сформулированы в начале проекта (аэро- космическая область, медицинское ПО и т.д.). Относительно краткое и притом хорошее описание водопадной модели можно найти в статье «What is Waterfall model advantages, disadvantages and when to use it?»21Великолепное описание истории развития и заката водопадной модели было создано Максимом Дорофеевым в виде слайдкаста «The Rise And Fall Of Waterfall», который можно посмотреть22в его ЖЖ.V-образная модель (V-model23) является логическим развитием водопад- ной. Можно заметить (рисунок 2.1.b), что в общем случае как водопадная, так и v- образная модели жизненного цикла ПО могут содержать один и тот же набор ста- дий, но принципиальное отличие заключается в том, как эта информация исполь- зуется в процессе реализации проекта. Очень упрощённо можно сказать, что при использовании v-образной модели на каждой стадии «на спуске» нужно думать о том, что и как будет происходить на соответствующей стадии «на подъёме». Тестирование здесь появляется уже на са- мых ранних стадиях развития проекта, что позволяет минимизировать риски, а также обнаружить и устранить множество потенциальных проблем до того, как они станут проблемами реальными. Рисунок 2.1.b — V-образная модель разработки ПО 21«What is Waterfall model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-waterfall- model-advantages-disadvantages-and-when-to-use-it/] 22ЖЖ Максима Дорофеева. [http://cartmendum.livejournal.com/44064.html] 23 V-model. A framework to describe the software development lifecycle activities from requirements specification to maintenance. The V-model illustrates how testing activities can be integrated into each phase of the software development lifecycle. [ISTQB Glossary] Общее планированиеПользовательские требованияСистемные требованияТехническая архитектураДетализированный дизайнРазработка и отладкаИнтеграция и модульные тестыИнсталляционное тестированиеСистемное тестированиеПриёмочное тестированиеИтоговая отчётностьТестирование появляется с самого начала проекта. Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 21/301 Краткое описание v-образной модели можно найти в статье «What is V- model advantages, disadvantages and when to use it?»24Пояснение по ис- пользованию v-образной модели в тестировании можно найти в статье «Using V Models for Testing»25Итерационная инкрементальная модель (iterative model26, incremental model27) является фундаментальной основой современного подхода к разработке ПО. Как следует из названия модели, ей свойственна определённая двойствен- ность (а ISTQB-глоссарий даже не приводит единого определения, разбивая его на отдельные части): • с точки зрения жизненного цикла модель является итерационной, т.к. под- разумевает многократное повторение одних и тех же стадий; • с точки зрения развития продукта (приращения его полезных функций) мо- дель является инкрементальной. Ключевой особенностью данной модели является разбиение проекта на от- носительно небольшие промежутки (итерации), каждый из которых в общем случае может включать в себя все классические стадии, присущие водопадной и v- образной моделям (рисунок 2.1.c). Итогом итерации является приращение (инкре- мент) функциональности продукта, выраженное в промежуточном билде (build28). Рисунок 2.1.c — Итерационная инкрементальная модель разработки ПО 24«What is V-model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-v-model-advantages- disadvantages-and-when-to-use-it/] 25«Using V Models for Testing», Donald Firesmith [https://insights.sei.cmu.edu/sei_blog/2013/11/using-v-models-for-testing.html] 26 Iterative development model. A development lifecycle where a project is broken into a usually large number of iterations. An iteration is a complete development loop resulting in a release (internal or external) of an executable product, a subset of the final product under development, which grows from iteration to iteration to become the final product. [ISTQB Glossary] 27 Incremental development model. A development lifecycle where a project is broken into a series of increments, each of which delivers a portion of the functionality in the overall project requirements. The requirements are prioritized and delivered in priority order in the appropriate increment. In some (but not all) versions of this lifecycle model, each subproject follows a 'mini V-model' with its own design, coding and testing phases. [ISTQB Glossary] 28 Build. A development activity whereby a complete system is compiled and linked, so that a consistent system is available including all latest changes. [На основе определения термина «daily build» из ISTQB Glossary] Общее планированиеПланирование + требованияАрхитектура и дизайнРазработка и отладкаИнтеграция и модульные тестыУстановка билдаТестированиеОценка результатовИтоговая отчётностьОтчётность Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 22/301 Длина итераций может меняться в зависимости от множества факторов, од- нако сам принцип многократного повторения позволяет гарантировать, что и тести- рование, и демонстрация продукта конечному заказчику (с получением обратной связи) будет активно применяться с самого начала и на протяжении всего времени разработки проекта. Во многих случаях допускается распараллеливание отдельных стадий внутри итерации и активная доработка с целью устранения недостатков, обнару- женных на любой из (предыдущих) стадий. Итерационная инкрементальная модель очень хорошо зарекомендовала себя на объёмных и сложных проектах, выполняемых большими командами на про- тяжении длительных сроков. Однако к основным недостаткам этой модели часто относят высокие накладные расходы, вызванные высокой «бюрократизированно- стью» и общей громоздкостью модели. Относительно краткие и очень хорошие описания итерационной инкре- ментальной модели можно найти в статьях «What is Iterative model ad- vantages, disadvantages and when to use it?»29и «What is Incremental model advantages, disadvantages and when to use it?»30Спиральная модель (spiral model31) представляет собой частный случай итерационной инкрементальной модели, в котором особое внимание уделяется управлению рисками, в особенности влияющими на организацию процесса разра- ботки проекта и контрольные точки. Схематично суть спиральной модели представлена на рисунке 2.1.d. Обра- тите внимание на то, что здесь явно выделены четыре ключевые фазы: • проработка целей, альтернатив и ограничений; • анализ рисков и прототипирование; • разработка (промежуточной версии) продукта; • планирование следующего цикла. С точки зрения тестирования и управления качеством повышенное внимание рискам является ощутимым преимуществом при использовании спиральной мо- дели для разработки концептуальных проектов, в которых требования естествен- ным образом являются сложными и нестабильными (могут многократно меняться по ходу выполнения проекта). Автор модели Barry Boehm в своих публикациях32,33подробно раскрывает эти вопросы и приводит множество рассуждений и рекомендаций о том, как применять спиральную модель с максимальным эффектом. Относительно краткие и очень хорошие описания спиральной модели можно найти в статьях «What is Spiral model - advantages, disadvantages and when to use it?»34и «Spiral Model»35 29«What is Iterative model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-iterative- model-advantages-disadvantages-and-when-to-use-it/] 30«What is Incremental model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-incremen- tal-model-advantages-disadvantages-and-when-to-use-it/] 31 Spiral model. A software lifecycle model which supposes incremental development, using the waterfall model for each step, with the aim of managing risk. In the spiral model, developers define and implement features in order of decreasing priority. [https://www.geeksforgeeks.org/software-engineering-spiral-model/] 32«A Spiral Model of Software Development and Enhancement», Barry Boehm [http://www-scf.usc.edu/csci201/lectures/Lec- ture11/boehm1988.pdf] 33«Spiral Development: Experience, Principles, and Refinements», Barry Boehm. [http://www.sei.cmu.edu/reports/00sr008.pdf] 34«What is Spiral model- advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-spiral-model- advantages-disadvantages-and-when-to-use-it/] 35«Spiral Model» [https://searchsoftwarequality.techtarget.com/definition/spiral-model] Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 23/301 Рисунок 2.1.d — Спиральная модель разработки ПО Гибкая модель (agile model36) представляет собой совокупность различных подходов к разработке ПО и базируется на т.н. «agile-манифесте»37: • Люди и взаимодействие важнее процессов и инструментов. • Работающий продукт важнее исчерпывающей документации. • Сотрудничество с заказчиком важнее согласования условий контракта. • Готовность к изменениям важнее следования первоначальному плану. Данная тема является настолько большой, что ссылок на статьи недоста- точно, а потому стоит почитать эти книги: • «Agile Testing» (Lisa Crispin, Janet Gregory). • «Essential Scrum» (Kenneth S. Rubin). 36 Agile software development. A group of software development methodologies based on EITP iterative incremental development, where requirements and solutions evolve through collaboration between self-organizing cross-functional teams. [ISTQB Glos- sary] 37«Agile-манифест» [http://agilemanifesto.org/iso/ru/manifesto.html] Проработка целей, альтернатив и ограниченийПроектныхПродуктныхЖизненного цикла проектаПроцесса разработки проектаЭксплуа- тации продуктаАнализ рисков и прототипированиеРазработка (промежуточной версии) продуктаПланирование следующего циклаПроекта и продуктаЖизненного циклаРазработки, интеграции и тестированияВнедрения и сопровожденияОбщей концепцииУточнённых требованийАрхитектурыДизайнаДетализацияКодированиеИнтеграцияТестированиеДетализацияКодированиеИнтеграцияТестированиеОценка промежуточных результатовНа ра ст ани е об щей цен но ст и пр од ук та Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 24/301 Как несложно догадаться, положенные в основу гибкой модели подходы яв- ляются логическим развитием и продолжением всего того, что было за десятилетия создано и опробовано в водопадной, v-образной, итерационной инкрементальной, спиральной и иных моделях. Причём здесь впервые был достигнут ощутимый ре- зультат в снижении бюрократической составляющей и максимальной адаптации процесса разработки ПО к мгновенным изменениям рынка и требований заказчика. Рисунок 2.1.e — Суть гибкой модели разработки ПО Очень упрощённо (почти на грани допустимого) можно сказать, что гибкая модель представляет собой облегчённую с точки зрения документации смесь ите- рационной инкрементальной и спиральной моделей (рисунки 2.1.c и 2.1.d); при этом следует помнить об «agile-манифесте» и всех вытекающих из него преимуществах и недостатках. ЦенностиСТРАТЕГИЯВЫПУСКИТЕРАЦИЯЕЖЕДНЕВНОНЕПРЕРЫВНОTDDБилдРефакторингИнтеграцияСотрудничествоБилд«Стендап» собраниеТестированиеПланированиеОценкаРетроспектива«Бэклог»План выпускаОценкаВидениеЦелиСоглашенияБюджетАдаптивностьПрозрачностьПростотаЕдинствоНаглядностьОсталось сделатьПроизводительностьСделаноТесты Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 25/301 Рисунок 2.1.f — Итерационный подход в рамках гибкой модели и scrum Главным недостатком гибкой модели считается сложность её применения к крупным проектам, а также частое ошибочное внедрение её подходов, вызванное недопониманием фундаментальных принципов модели. Тем не менее можно утверждать, что всё больше и больше проектов начи- нают использовать гибкую модель разработки. Очень подробное и элегантное изложение принципов применения гибкой модели разработки ПО можно найти в статье «The Agile System Develop- ment Life Cycle»381   2   3   4   5   6   7   8   9   ...   38

№ Имя Кодировка Размер 1 «Мелкий» файл в WIN1251.txt WIN1251 100 КБ 2 «Средний» файл в CP866.txt CP866 10 МБ 3 «Крупный» файл в KOI8R.txt KOI8R 50 МБ 4 «Крупный» файл в win-1251.html WIN1251 50 МБ 5 «Мелкий» файл в cp-866.html CP866 100 КБ 6 «Средний» файл в koi8-r.html KOI8R 10 МБ 7 «Средний» файл в WIN_1251.md WIN1251 10 МБ 8 «Крупный» файл в CP_866.md CP866 50 МБ 9 «Мелкий» файл в KOI8_R.md KOI8R 100 КБ 10 «Мелкий» эталон WIN1251.txt UTF8 100 КБ 11 «Средний» эталон CP866.txt UTF8 10 МБ 12 «Крупный» эталон KOI8R.txt UTF8 50 МБ 13 «Крупный» эталон в win-1251.html UTF8 50 МБ 14 «Мелкий» эталон в cp-866.html UTF8 100 КБ 15 «Средний» эталон в koi8-r.html UTF8 10 МБ 16 «Средний» эталон в WIN_1251.md UTF8 10 МБ 17 «Крупный» эталон в CP_866.md UTF8 50 МБ 18 «Мелкий» эталон в KOI8_R.md UTF8 100 КБ 19 Пустой файл.md - 0 Б 20 Слишком большой файл.txt - 52’428’801 Б 21 Картинка.jpg - 1 МБ 22 Картинка в виде TXT.txt -

Описание действий в качестве наименований модуля/подмодуля. Например, «запуск приложения» — это НЕ модуль или подмодуль. Модуль или под- модуль{125}— это всегда некие части приложения, а не его поведение. Сравните: «дыхательная система» — это модуль человека, но «дыхание» — нет. Описание событий или процессов в качестве шагов или ожидаемых ре-зультатов. Например, в качестве шага сказано: «Ввод спецсимволов в поле X». Это было бы сносным заглавием тест-кейса, но не годится в качестве шага, который должен быть сформулирован как «Ввести спецсимволы (перечень) в поле X». Куда страшнее, если подобное встречается в ожидаемых результатах. Например, там написано: «Отображение скорости чтения в панели X». И что? Оно должно начаться, продолжиться, завершиться, не начинаться, неким образом из- мениться (например, измениться должна размерность данных), как-то на что-то по- влиять? Тест-кейс становится полностью бессмысленным, т.к. такой ожидаемый результат невозможно сравнить с фактическим поведением приложения. «Выдумывание» особенностей поведения приложения. Да, часто в тре- бованиях отсутствуют самоочевидные (без кавычек, они на самом деле самооче- видные) вещи, но нередко встречаются и некачественные (например, неполные) требования, которые нужно улучшать, а не «телепатически компенсировать». Например, в требованиях сказано, что «приложение должно отображать диа- логовое окно сохранения с указанным по умолчанию каталогом». Если из контекста (соседних требований, иных документов) ничего не удаётся узнать об этом таин- ственном «каталоге по умолчанию», нужно задать вопрос. Нельзя просто записать в ожидаемых результатах «отображается диалоговое окно сохранения с указанным по умолчанию каталогом» (как мы проверим, что выбран именно указанный по умолчанию каталог, а не какой-то иной?). И уж тем более нельзя в ожидаемых ре- зультатах писать «отображается диалоговое окно сохранения с выбранным ката- логом “C:/SavedDocuments”» (откуда взялось это «C:/SavedDocuments», — не ясно, т.е. оно явно выдумано из головы и, скорее всего, выдумано неправильно). Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 163/301 Отсутствие описания приготовления к выполнению тест-кейса. Часто для корректного выполнения тест-кейса необходимо каким-то особым образом настроить окружение. Предположим, что мы проверяем приложение, выполняющее резервное копирование файлов. Если тест выглядит примерно так, то выполняю- щий его сотрудник будет в замешательстве, т.к. ожидаемый результат кажется про- сто бредом. Откуда взялось «200»? Что это вообще такое? Шаги выполнения Ожидаемые результаты 1. Нажать на панели «Главная» кнопку «Быст- рая дедубликация». 2. Выбрать каталог «C:/MyData». 1. Кнопка «Быстрая дедубликация» переходит в утопленное состояние и меняет цвет с се- рого на зелёный. 2. На панели «Состояние» в поле «Дубли- каты» отображается «200». И совсем иначе этот тест-кейс воспринимался бы, если бы в приготовлениях было сказано: «Создать каталог “C:/MyData” с произвольным набором подкаталогов (глубина вложенности не менее пяти). В полученном дереве каталогов разместить 1000 файлов, из которых 200 имеют одинаковые имена и размеры, но НЕ внутрен- нее содержимое». Полное дублирование (копирование) одного и того же тест-кейса на уровнях дымового тестирования, тестирования критического пути, расши-ренного тестирования. Многие идеи естественным образом развиваются от уровня к уровню{79}, но они должны именно развиваться, а не дублироваться. Срав- ните: Дымовое тестиро-вание Тестирование критиче-ского пути Расширенное тестирование Плохо Запуск приложения. Запуск приложения. Запуск приложения. Хорошо Запуск приложения. Запуск приложения из ко- мандной строки. Запуск приложения через ярлык на рабочем столе. Запуск приложения через меню «Пуск». Запуск приложения из команд- ной строки в активном режиме. Запуск приложения из команд- ной строки в фоновом режиме. Запуск приложения через ярлык на рабочем столе от имени ад- министратора. Запуск приложения через меню «Пуск» из списка часто запуска- емых приложений. Слишком длинный перечень шагов, не относящихся к сути (цели) тест-кейса. Например, мы хотим проверить корректность одностороннего режима пе- чати из нашего приложения на дуплексном принтере. Сравните: Плохо Хорошо Односторонняя печать 1. Запустить приложение. 2. В меню выбрать «Файл» -> «Открыть». 3. Выбрать любой DOCX-файл, состоящий из нескольких страниц. 4. Нажать кнопку «Открыть». 5. В меню выбрать «Файл» -> «Печать». 6. В списке «Двусторонняя печать» выбрать пункт «Нет». 7. Нажать кнопку «Печать». 8. Закрыть файл. 9. Закрыть приложение. Односторонняя печать 1. Открыть любой DOCX-файл, содержащий три и более непустых страницы. 2. В диалоговом окне «Настройка печати» в списке «Двусторонняя печать» выбрать «Нет». 3. Произвести печать документа на принтере, поддерживающем двустороннюю печать. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 164/301 Слева мы видим огромное количество действий, не относящихся непосред- ственно к тому, что проверяет тест-кейс. Тем более что запуск и закрытие прило- жения, открытие файла, работа меню и прочее или будут покрыты другими тест- кейсами (со своими соответствующими целями), или на самом деле являются са- моочевидными (логично ведь, что нельзя открыть приложением файл, если прило- жение не запущено) и не нуждаются в описании шагов, которые только создают информационный шум и занимают время на написание и прочтение. Некорректное наименование элементов интерфейса или их свойств. Иногда из контекста понятно, что автор тест-кейса имел в виду, но иногда это ста- новится реальной проблемой. Например, мы видим тест-кейс с заглавием «Закры- тие приложения кнопками "Close" и "Close window"». Уже тут возникает недоумение по поводу того, в чём же различие этих кнопок, да и о чём вообще идёт речь. Ниже (в шагах тест-кейса) автор поясняет: «В рабочей панели внизу экрана нажать "Close window"». Ага! Ясно. Но «Close window» — это НЕ кнопка, это пункт системного кон- текстного меню приложения в панели задач. Ещё один отличный пример: «Окно приложения свернётся в окно меньшего диаметра». Хм. Окно круглое? Или должно стать круглым? А, может, тут и вовсе речь про два разных окна, и одно должно будет оказаться внутри второго? Или, всё же «размер окна уменьшается» (кстати, насколько?), а его геометрическая форма остаётся прямоугольной? И, наконец, пример, из-за которого вполне можно написать отчёт о дефекте на вполне корректно работающее приложение: «В системном меню выбрать “Фик- сация расположения”». Казалось бы, что ж тут плохого? Но потом выясняется, что имелось в виду главное меню приложения, а вовсе не системное меню. Непонимание принципов работы приложения и вызванная этим некор-ректность тест-кейсов. Классикой жанра является закрытие приложения: тот факт, что окно приложения «исчезло» (сюрприз: например, оно свернулось в об- ласть уведомления панели задач (system tray, taskbar notification area)), или прило- жение отключило интерфейс пользователя, продолжив функционировать в фоно- вом режиме, вовсе не является признаком того, что оно завершило работу. Проверка типичной «системной» функциональности. Если только ваше приложение не написано с использованием каких-то особенных библиотек и техно- логий и не реализует какое-то нетипичное поведение, нет необходимости прове- рять системные кнопки, системные меню, сворачивание-разворачивание окна и т.д. Вероятность встретить здесь ошибку стремится к нулю. Если всё же очень хочется, можно вписать эти проверки как уточнения некоторых действий на уровне тестиро- вания критического пути{80}, но создавать для них отдельные тест-кейсы не нужно. Неверное поведение приложения как ожидаемый результат. Такое не допускается по определению. Не может быть тест-кейса с шагом в стиле «поделить на ноль» с ожидаемым результатом «крах приложения с потерей пользовательских данных». Ожидаемые результаты всегда описывают правильное поведение прило- жения — даже в самых страшных стрессовых тест-кейсах. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 165/301 Общая некорректность тест-кейсов. Может быть вызвана множеством при- чин и выражаться множеством образов, но вот классический пример: Шаги выполнения Ожидаемые результаты … 4. Закрыть приложение нажатием Alt+F4. 5. Выбрать в меню «Текущее состояние». … 4. Приложение завершает работу. 5. Отображается окно с заголовком «Текущее состояние» и содержимым, соответствую- щим рисунку 999.99. Здесь или не указано, что вызов окна «Текущее состояние» происходит где- то в другом приложении, или остаётся загадкой, как вызвать это окно у завершив- шего работу приложения. Запустить заново? Возможно, но в тест-кейсе этого не сказано. Неверное разбиение наборов данных на классы эквивалентности. Дей- ствительно, иногда классы эквивалентности{94}могут быть очень неочевидными. Но ошибки встречаются и в довольно простых случаях. Допустим, в требованиях ска- зано, что размер некоего файла может быть от 10 до 100 КБ (включительно). Раз- биение по размеру 0–9 КБ, 10–100 КБ, 101+ КБ ошибочно, т.к. килобайт не явля- ется неделимой единицей. Такое ошибочное разбиение не учитывает, например, размеры в 9.5 КБ, 100.1 КБ, 100.7 КБ и т.д. Потому здесь стоит применять неравен- ства: 0 КБ ≤ размер < 10 КБ, 10 КБ ≤ размер ≤ 100 КБ, 100 КБ < размер. Также можно писать с использованием синтаксиса скобок: [0, 10) КБ, [10, 100] КБ, (100, ∞) КБ, но вариант с неравенствами более привычен большинству людей. Тест-кейсы, не относящиеся к тестируемому приложению. Например, нам нужно протестировать фотогалерею на сайте. Соответственно, следующие тест-кейсы никак не относятся к фотогалерее (они тестируют браузер, операцион- ную систему пользователя, файловый менеджер и т.д. — но НЕ наше приложение, ни его серверную, ни даже клиентскую часть): • Файл с сетевого диска. • Файл со съёмного носителя. • Файл, заблокированный другим приложением. • Файл, открытый другим приложением. • Файл, к которому у пользователя нет прав доступа. • Вручную указать путь к файлу. • Файл из глубоко расположенной поддиректории. Формальные и/или субъективные проверки. Чаще всего данную ошибку можно встретить в пунктах чек-листа. Возможно, у автора в голове и был чёткий и подробный план, но из следующих примеров совершенно невозможно понять, что будет сделано с приложением, и какой результат мы должны ожидать: • «Сконвертировать». • «Проверить метод getMessage()». • «Некорректная работа в корректных условиях». • «Скорость». • «Объём данных». • «Должно работать быстро». В отдельных исключительных ситуациях можно возразить, что из контекста и дальнейшей детализации становится понятно, что имелось в виду. Но чаще всего никакого контекста и никакой дальнейшей детализации нет, т.е. приведённые при- меры оформлены как отдельные полноправные пункты чек-листа. Так — нельзя. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 166/301 Как можно и нужно – см. в примере чек-листа{116}и всём соответствующем раз- деле{115}Теперь для лучшего закрепления рекомендуется заново прочитать про оформление атрибутов тест-кейсов{124}, свойства качественных тест-кейсов{136}и ло- гику построения{152}качественных тест-кейсов и качественных наборов тест-кейсов. Отчёты о дефектах Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 167/301 2.5. Отчёты о дефектах 2.5.1. Ошибки, дефекты, сбои, отказы и т.д. Упрощённый взгляд на понятие дефекта Далее в этой главе мы глубоко погрузимся в терминологию (она действи- тельно важна!), а потому начнём с очень простого: дефектом упрощённо можно счи- тать любое расхождение ожидаемого (свойства, результата, поведения и т.д., ко- торое мы ожидали увидеть) и фактического (свойства, результата, поведения и т.д., которое мы на самом деле увидели). При обнаружении дефекта создаётся отчёт о дефекте. Дефект — расхождение ожидаемого и фактического результата. Ожидаемый результат — поведение системы, описанное в требованиях. Фактический результат — поведение системы, наблюдаемое в процессе тестирования. ВАЖНО! Эти три определения приведены в предельно упрощённой (и даже искажённой) форме с целью первичного ознакомления. Полноцен- ные формулировки см. далее в этой же главе. Поскольку столь простая трактовка не покрывает все возможные формы про- явления проблем с программными продуктами, мы сразу же переходим к более по- дробному рассмотрению соответствующей терминологии. Расширенный взгляд на терминологию, описывающую проблемы Разберёмся с широким спектром синонимов, которыми обозначают про- блемы с программными продуктами и иными артефактами и процессами, сопут- ствующими их разработке. В силлабусе ISTQB написано308, что человек совершает ошибки, которые при- водят к возникновению дефектов в коде, которые, в свою очередь, приводят к сбоям и отказам приложения (однако сбои и отказы могут возникать и из-за внешних усло- вий, таких как электромагнитное воздействие на оборудование и т.д.). Таким образом, упрощённо можно изобразить следующую схему: Рисунок 2.5.a — Ошибки, дефекты, сбои и отказы 308 A human being can make an error (mistake), which produces a defect (fault, bug) in the program code, or in a document. If a defect in code is executed, the system may fail to do what it should do (or do something it shouldn't), causing a failure. Defects in software, systems or documents may result in failures, but not all defects do so. Defects occur because human beings are fallible and because there is time pressure, complex code, complexity of infrastructure, changing technologies, and/or many system interactions. Failures can be caused by environmental conditions as well. For example, radiation, magnetism, electronic fields, and pollution can cause faults in firmware or influence the execution of software by changing the hardware conditions. [ISTQB Syllabus] ОшибкаДефектСбой или отказ Ошибки, дефекты, сбои, отказы и т.д. Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 168/301 Если же посмотреть на англоязычную терминологию, представленную в глоссарии ISTQB и иных источниках, можно построить чуть более сложную схему: Рисунок 2.5.b — Взаимосвязь проблем в разработке программных продуктов Рассмотрим все соответствующие термины. Ошибка (error309, mistake) — действие человека, приводящее к некоррект- ным результатам. Этот термин очень часто используют как наиболее универсальный, описыва- ющий любые проблемы («ошибка человека», «ошибка в коде», «ошибка в докумен- тации», «ошибка выполнения операции», «ошибка передачи данных», «ошибочный результат» и т.п.) Более того, куда чаще вы сможете услышать «отчёт об ошибке», чем «отчёт о дефекте». И это нормально, так сложилось исторически, к тому же термин «ошибка» на самом деле очень широкий. Дефект (defect310, bug, problem, fault) — недостаток в компоненте или си- стеме, способный привести к ситуации сбоя или отказа. Этот термин также понимают достаточно широко, говоря о дефектах в доку- ментации, настройках, входных данных и т.д. Почему глава называется именно «от- чёты о дефектах»? Потому что этот термин как раз стоит посередине — бессмыс- ленно писать отчёты о человеческих ошибках, равно как и почти бесполезно просто описывать проявления сбоев и отказов — нужно докопаться до их причины, и пер- вым шагом в этом направлении является именно описание дефекта. Сбой (interruption311) или отказ (failure312) — отклонение поведения си- стемы от ожидаемого. В ГОСТ 27.002-89 даны хорошие и краткие определения сбоя и отказа: Сбой — самоустраняющийся отказ или однократный отказ, устраняемый незначительным вмешательством оператора. Отказ — событие, заключающееся в нарушении работоспособного состо- яния объекта. Эти термины скорее относятся к теории надёжности и нечасто встречаются в повседневной работе тестировщика, но именно сбои и отказы являются тем, что тестировщик замечает в процессе тестирования (и отталкиваясь от чего, проводит исследование с целью выявить дефект и его причины). 309 Error, Mistake. A human action that produces an incorrect result. [ISTQB Glossary] 310 Defect, Bug, Problem, Fault. A flaw in a component or system that can cause the component or system to fail to perform its required function, e.g. an incorrect statement or data definition. A defect, if encountered during execution, may cause a failure of the component or system. [ISTQB Glossary] 311 Interruption. A suspension of a process, such as the execution of a computer program, caused by an event external to that process and performed in such a way that the process can be resumed. [http://www.electropedia.org/iev/iev.nsf/display?open- form&ievref=714-22-10] 312 Failure. Deviation of the component or system from its expected delivery, service or result. [ISTQB Glossary] Error (Mistake)Defect(Problem, Bug, Fault)Failure, InterruptionAnomaly, Incident (Deviation) Ошибки, дефекты, сбои, отказы и т.д. Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 169/301 1   ...   20   21   22   23   24   25   26   27   ...   38

Coverage, Test coverage. The degree, expressed as a percentage, to which a specified coverage item has been exercised by a test suite. [ISTQB Glossary]

Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 77/301
Задание 2.3.a: сформируйте аналогичную таблицу с преимуществами и недостатками ручного тестирования. Подсказка: здесь недостаточно про- сто поменять заголовки колонок с преимуществами и недостатками авто- матизации.
2.3.2.5.
Классификация по уровню детализации приложения (по уровню
тестирования)
Внимание! Возможна путаница, вызванная тем, что единого общеприня- того набора классификаций не существует, и две из них имеют очень схо- жие названия:
• «По уровню детализации приложения» = «по уровню тестирования».
• «По (убыванию) степени важности тестируемых функций» = «по уровню функционального тестирования».
Модульное (компонентное) тестирование (unit testing, module testing, com- ponent testing
129
) направлено на проверку отдельных небольших частей при- ложения, которые (как правило) можно исследовать изолированно от других подобных частей. При выполнении данного тестирования могут проверяться отдельные функции или методы классов, сами классы, взаимодействие клас- сов, небольшие библиотеки, отдельные части приложения. Часто данный вид тестирования реализуется с использованием специальных технологий и инструментальных средств автоматизации тестирования
{76}
, значительно упрощающих и ускоряющих разработку соответствующих тест-кейсов.
Из-за особенностей перевода на русский язык теряются нюансы степени детализации: «юнит-тестирование», как правило, направ- лено на тестирование атомарных участков кода, «модульное» — на тестирование классов и небольших библиотек, «компонентное» — на тестирование библиотек и структурных частей приложения. Но эта классификация не стандартизирована, и у различных авторов можно встретить совершенно разные взаимоисключающие трак- товки.
Интеграционное тестирование (integration testing
130
, component integration testing
131
, pairwise integration testing
132
, system integration testing
133
, incremental testing
134
, interface testing
135
, thread testing
136
) направлено на проверку взаимо- действия между несколькими частями приложения (каждая из которых, в свою очередь, проверена отдельно на стадии модульного тестирования). К сожалению, даже если мы работаем с очень качественными отдельными
129
Module testing, Unit testing, Component testing. The testing of individual software components. [ISTQB Glossary]
130
Integration testing. Testing performed to expose defects in the interfaces and in the interactions between integrated components or systems. [ISTQB Glossary]
131
Component integration testing. Testing performed to expose defects in the interfaces and interaction between integrated com- ponents. [ISTQB Glossary]
132
Pairwise integration testing. A form of integration testing that targets pairs of components that work together, as shown in a call graph. [ISTQB Glossary]
133
System integration testing. Testing the integration of systems and packages; testing interfaces to external organizations (e.g.
Electronic Data Interchange, Internet). [ISTQB Glossary]
134
Incremental testing. Testing where components or systems are integrated and tested one or some at a time, until all the compo- nents or systems are integrated and tested. [ISTQB Glossary]
135
Interface testing. An integration test type that is concerned with testing the interfaces between components or systems. [ISTQB
Glossary]
136
Thread testing. An approach to component integration testing where the progressive integration of components follows the im- plementation of subsets of the requirements, as opposed to the integration of components by levels of a hierarchy. [ISTQB
Glossary]


Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 78/301 компонентами, «на стыке» их взаимодействия часто возникают проблемы.
Именно эти проблемы и выявляет интеграционное тестирование. (См. также техники восходящего, нисходящего и гибридного тестирования в хронологи- ческой классификации по иерархии компонентов
{101}
.)
Системное тестирование (system testing
137
) направлено на проверку всего приложения как единого целого, собранного из частей, проверенных на двух предыдущих стадиях. Здесь не только выявляются дефекты «на стыках» компонентов, но и появляется возможность полноценно взаимодействовать с приложением с точки зрения конечного пользователя, применяя множество других видов тестирования, перечисленных в данной главе.
С классификацией по уровню детализации приложения связан интересный печальный факт: если предыдущая стадия обнаружила проблемы, то на следую- щей стадии эти проблемы точно нанесут удар по качеству; если же предыдущая стадия не обнаружила проблем, это ещё никоим образом не защищает нас от про- блем на следующей стадии.
Для лучшего запоминания степень детализации в модульном, интеграцион- ном и системном тестировании показана схематично на рисунке 2.3.d.
Рисунок 2.3.d — Схематичное представление классификации тестирования по уровню детализации приложения
Если обратиться к словарю ISTQB и прочитать определение уровня тестиро- вания (test level
138
), то можно увидеть, что аналогичное разбиение на модульное, интеграционное и системное тестирование, к которым добавлено ещё и приёмоч- ное тестирование
{87}
, используется в контексте разделения областей ответственно- сти на проекте. Но такая классификация больше относится к вопросам управления проектом, чем к тестированию в чистом виде, а потому выходит за рамки рассмат- риваемых нами вопросов.
Самый полный вариант классификации тестирования по уровню тестиро- вания можно посмотреть в статье «What are Software Testing Levels?
139
».
Для улучшения запоминания отразим эту идею на рисунке 2.3.e, но отме- тим, что это скорее общий теоретический взгляд.
137
System testing. The process of testing an integrated system to verify that it meets specified requirements. [ISTQB Glossary]
138
Test level. A group of test activities that are organized and managed together. A test level is linked to the responsibilities in a project. Examples of test levels are component test, integration test, system test and acceptance test. [ISTQB Glossary]
139
«What are Software Testing Levels?» [
http://istqbexamcertification.com/what-are-software-testing-levels/
]
Модульное тестирование
Интеграционное тестирование
Системное тестирование


Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 79/301
Рисунок 2.3.e — Самый полный вариант классификации тестирования по уровню тестирования
2.3.2.6.
Классификация по (убыванию) степени важности тестируемых
функций (по уровню функционального тестирования)
В некоторых источниках эту разновидность классификации также называют
«по глубине тестирования».
Внимание! Возможна путаница, вызванная тем, что единого общеприня- того набора классификаций не существует, и две из них имеют очень схо- жие названия:
• «По уровню детализации приложения» = «по уровню тестирования».
• «По (убыванию) степени важности тестируемых функций» = «по уровню функционального тестирования».
Дымовое тестирование (smoke test
140
, intake test
141
, build verification test
142
) направлено на проверку самой главной, самой важной, самой ключевой функциональности, неработоспособность которой делает бессмысленной
140
Smoke test, Confidence test, Sanity test. A subset of all defined/planned test cases that cover the main functionality of a component or system, to ascertaining that the most crucial functions of a program work, but not bothering with finer details.
[ISTQB Glossary]
141
Intake test. A special instance of a smoke test to decide if the component or system is ready for detailed and further testing. An intake test is typically carried out at the start of the test execution phase. [ISTQB Glossary]
142
Build verification test. A set of automated tests which validates the integrity of each new build and verifies its key/core function- ality, stability and testability. It is an industry practice when a high frequency of build releases occurs (e.g., agile projects) and it is run on every new build before the build is released for further testing. [ISTQB Glossary]
Модульное тестирование
Интеграционное тестирование
Компонентное тестирование
Компонентное интеграционное тестирование
Системное интеграционное тестирование
Системное тестирование
Приёмочное тестирование
Альфа-тестирование
Бета-тестирование
У
ро ве нь т
ест ир о
ва ни я
Гамма-тестирование

Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 80/301 саму идею использования приложения (или иного объекта, подвергаемого дымовому тестированию).
Внимание! Очень распространённая проблема! Из-за особенности перевода на русский язык под термином «приёмочное тестирова- ние» часто может пониматься как «smoke test»
{79}
, так и «acceptance test
»
{87}
, которые изначально не имеют между собою ничего общего.
Возможно, в том числе поэтому многие тестировщики почти не ис- пользуют русский перевод «дымовое тестирование», а так и гово- рят — «смоук-тест».
Дымовое тестирование проводится после выхода нового билда, чтобы опре- делить общий уровень качества приложения и принять решение о (не)целе- сообразности выполнения тестирования критического пути и расширенного тестирования. Поскольку тест-кейсов на уровне дымового тестирования от- носительно немного, а сами они достаточно просты, но при этом очень часто повторяются, они являются хорошими кандидатами на автоматизацию. В связи с высокой важностью тест-кейсов на данном уровне пороговое значе- ние метрики их прохождения часто выставляется равным 100 % или близким к 100 %.
Очень часто можно услышать вопрос о том, чем «smoke test» отличается от
«sanity test». В глоссарии ISTQB сказано просто: «sanity test: See smoke test».
Но некоторые авторы утверждают
143
, что разница
144
есть и может быть выра- жена следующей схемой (рисунок 2.3.f):
Рисунок 2.3.f — Трактовка разницы между smoke test и sanity test
Тестирование критического пути (critical path
145
test) направлено на иссле- дование функциональности, используемой типичными пользователями в ти- пичной повседневной деятельности. Как видно из определения в сноске к ан- глоязычной версии термина, сама идея позаимствована из управления про- ектами и трансформирована в контексте тестирования в следующую: суще- ствует большинство пользователей, которые чаще всего используют некое
143
«Smoke Vs Sanity Testing — Introduction and Differences» [
http://www.guru99.com/smoke-sanity-testing.html
]
144
«Smoke testing and sanity testing — Quick and simple differences» [
http://www.softwaretestinghelp.com/smoke-testing-and-san- ity-testing-difference/
]
145
Critical path. Longest sequence of activities in a project plan which must be completed on time for the project to complete on due date. An activity on the critical path cannot be started until its predecessor activity is complete; if it is delayed for a day, the entire project will be delayed for a day unless the activity following the delayed activity is completed a day earlier. [
https://ever- hour.com/blog/how-to-calculate-critical-path/
]
Билд 1
Smoke Test
Билд 2
Билд 3
Билд 30
Билд 31
Билд 32
Тест пройден?
Sanity Test
Дальнейшее тестирование
Начальные, относительно нестабильные билды
Близкие к релизу, относительно стабильные билды


Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 81/301 подмножество функций приложения (см. рисунок 2.3.g). Именно эти функции и нужно проверить, как только мы убедились, что приложение «в принципе работает» (дымовой тест прошёл успешно). Если по каким-то причинам при- ложение не выполняет эти функции или выполняет их некорректно, очень многие пользователи не смогут достичь множества своих целей. Пороговое значение метрики успешного прохождения «теста критического пути» уже не- много ниже, чем в дымовом тестировании, но всё равно достаточно высоко
(как правило, порядка 70–80–90 % — в зависимости от сути проекта).
Рисунок 2.3.g — Суть тестирования критического пути
Расширенное тестирование (extended test
146
) направлено на исследование всей заявленной в требованиях функциональности — даже той, которая низко проранжирована по степени важности. При этом здесь также учитыва- ется, какая функциональность является более важной, а какая — менее важ- ной. Но при наличии достаточного количества времени и иных ресурсов тест- кейсы этого уровня могут затронуть даже самые низкоприоритетные требо- вания.
Ещё одним направлением исследования в рамках данного тестирования яв- ляются нетипичные, маловероятные, экзотические случаи и сценарии ис- пользования функций и свойств приложения, затронутых на предыдущих уровнях. Пороговое значение метрики успешного прохождения расширен- ного тестирования существенно ниже, чем в тестировании критического пути
(
иногда можно увидеть даже значения в диапазоне 30–50 %, т.к. подавляю- щее большинство найденных здесь дефектов не представляет угрозы для успешного использования приложения большинством пользователей).
К сожалению, часто можно встретить мнение, что дымовое тести- рование, тестирование критического пути и расширенное тестиро- вание напрямую связаны с позитивным
{82}
тестированием и негатив- ным
{82}
тестированием, и негативное появляется только на уровне тестирования критического пути. Это не так. Как позитивные, так и негативные тесты могут (а иногда и обязаны) встречаться на всех перечисленных уровнях. Например, деление на ноль в калькуля- торе явно должно относиться к дымовому тестированию, хотя это яркий пример негативного тест-кейса.
146
Extended test. The idea is to develop a comprehensive application system test suite by modeling essential capabilities as ex- tended use cases. [By
«Extended Use Case Test Design Pattern», Rob Kuijt]
Пользователи
Функции приложения
Время использования
Тестирование критического пути


Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 82/301
Для лучшего запоминания отразим эту классификацию графически:
Рисунок 2.3.h — Классификация тестирования по (убыванию) степени важности тестируемых функций (по уровню функционального тестирования)
2.3.2.7.
Классификация по принципам работы с приложением
Позитивное тестирование (positive testing
147
) направлено на исследование приложения в ситуации, когда все действия выполняются строго по инструк- ции без каких бы то ни было ошибок, отклонений, ввода неверных данных и т.д. Если позитивные тест-кейсы завершаются ошибками, это тревожный признак — приложение работает неверно даже в идеальных условиях (и можно предположить, что в неидеальных условиях оно работает ещё хуже).
Для ускорения тестирования несколько позитивных тест-кейсов можно объ- единять (например, перед отправкой заполнить все поля формы верными значениями) — иногда это может усложнить диагностику ошибки, но суще- ственная экономия времени компенсирует этот риск.
Негативное тестирование (negative testing
148
, invalid testing
149
)
— направлено на исследование работы приложения в ситуациях, когда с ним выполняются
(некорректные) операции и/или используются данные, потенциально приво- дящие к ошибкам (классика жанра — деление на ноль). Поскольку в реаль- ной жизни таких ситуаций значительно больше (пользователи допускают ошибки, злоумышленники осознанно «ломают» приложение, в среде работы приложения возникают проблемы и т.д.), негативных тест-кейсов оказыва- ется значительно больше, чем позитивных (иногда — в разы или даже на порядки). В отличие от позитивных негативные тест-кейсы не стоит объеди- нять, т.к. подобное решение может привести к неверной трактовке поведения приложения и пропуску (необнаружению) дефектов.
147
Positive testing is testing process where the system validated against the valid input data. In this testing tester always check for only valid set of values and check if application behaves as expected with its expected inputs. The main intention of this testing is to check whether software application not showing error when not supposed to & showing error when supposed to. Such testing is to be carried out keeping positive point of view & only execute the positive scenario. Positive Testing always tries to prove that a given product and project always meets the requirements and specifications. [
http://www.softwaretest- ingclass.com/positive-and-negative-testing-in-software-testing/
]
148
Negative testing.
Tests aimed at showing that a component or system does not work. Negative testing is related to the testers’ attitude rather than a specific test approach or test design technique, e.g. testing with invalid input values or exceptions. [ISTQB
Glossary]
149
Invalid testing. Testing using input values that should be rejected by the component or system. [ISTQB Glossary]
Дымовое тестирование
Расширенное тестирование
Тестирование критического пути
У
р
о
в
ен
ь
ф
ун
кц
и
о
н
1   ...   7   8   9   10   11   12   13   14   ...   38