Файл: Обеспечения Базовый курс (3е издание) Версия книги 2 от 17. 04. 2023.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 07.11.2023

Просмотров: 888

Скачиваний: 31

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

Раздел 2: основные знания и умения 2.1. Процессы тестирования и разработки ПО 2.1.1. Модели разработки ПО Чтобы лучше разобраться в том, как тестирование соотносится с программи- рованием и иными видами проектной деятельности, для начала рассмотрим самые основы — модели разработки (lifecycle model16) ПО (как часть жизненного цикла (software lifecycle17) ПО). При этом сразу подчеркнём, что разработка ПО является лишь частью жизненного цикла ПО, и здесь мы говорим именно о разработке. Материал данной главы относится скорее к дисциплине «управление проек- тами», потому здесь рассмотрен крайне сжато: пожалуйста, не воспринимайте его как исчерпывающее руководство — здесь едва ли рассмотрена и сотая доля про- цента соответствующей предметной области. Модель разработки ПО (Software Development Model, SDM) — структура, систематизирующая различные виды проектной деятельности, их взаимо- действие и последовательность в процессе разработки ПО. Выбор той или иной модели зависит от масштаба и сложности проекта, предметной области, доступных ресурсов и множества других факторов. Выбор модели разработки ПО серьёзно влияет на процесс тестирования, определяя выбор стратегии, расписание, необходимые ресурсы и т.д. Моделей разработки ПО много, но в общем случае классическими можно считать водопадную, v-образную, итерационную инкрементальную, спиральную и гибкую. Перечень моделей разработки ПО (с кратким описанием), рекомендуе- мых к изучению тестировщиками, можно найти в статье «What are the Software Development Models?»18Знать и понимать модели разработки ПО нужно затем, чтобы уже с первых дней работы осознавать, что происходит вокруг, что, зачем и почему вы делаете. Многие начинающие тестировщики отмечают, что ощущение бессмысленности происходящего посещает их, даже если текущие задания интересны. Чем полнее вы будете представлять картину происходящего на проекте, тем яснее вам будет виден ваш собственный вклад в общее дело и смысл того, чем вы занимаетесь. Ещё одна важная вещь, которую следует понимать, состоит в том, что ника- кая модель не является догмой или универсальным решением. Нет идеальной мо- дели. Есть та, которая хуже или лучше подходит для конкретного проекта, конкрет- ной команды, конкретных условий. Частая ошибка! Единственное, от чего стоит предостеречь уже сейчас, так это от фривольной трактовки модели и перекраивания её «на свой вкус» без кристально чёткого понимания, что и зачем вы делаете. О том, что бывает при нарушении логики модели, прекрасно сказал в своём слайдка- сте «Scrum Tailoring»19Максим Дорофеев. 16 Lifecycle model. A partitioning of the life of a product or project into phases. [ISTQB Glossary] 17 Software lifecycle. The period of time that begins when a software product is conceived and ends when the software is no longer available for use. The software lifecycle typically includes a concept phase, requirements phase, design phase, implementation phase, test phase, installation and checkout phase, operation and maintenance phase, and sometimes, retirement phase. Note these phases may overlap or be performed iteratively. [ISTQB Glossary] 18«What are the Software Development Models?» [http://istqbexamcertification.com/what-are-the-software-development-models/] 19«Scrum Tailoring», Максим Дорофеев [http://cartmendum.livejournal.com/10862.html] Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 19/301 Водопадная модель (waterfall model20) сейчас представляет скорее истори- ческий интерес, т.к. в современных проектах практически неприменима. Она пред- полагает однократное выполнение каждой из фаз проекта, которые, в свою оче- редь, строго следуют друг за другом (рисунок 2.1.a). Очень упрощённо можно ска- зать, что в рамках этой модели в любой момент времени команде «видна» лишь предыдущая и следующая фаза. В реальной же разработке ПО приходится «видеть весь проект целиком» и возвращаться к предыдущим фазам, чтобы исправить недоработки или что-то уточнить. Рисунок 2.1.a — Водопадная модель разработки ПО К недостаткам водопадной модели принято относить тот факт, что участие пользователей ПО в ней либо не предусмотрено вообще, либо предусмотрено лишь косвенно на стадии однократного сбора требований. С точки зрения же тести- рования эта модель плоха тем, что тестирование в явном виде появляется здесь лишь с середины развития проекта, достигая своего максимума в самом конце. 20 In a waterfall model, each phase must be completed fully before the next phase can begin. This type of model is basically used for the project which is small and there are no uncertain requirements. At the end of each phase, a review takes place to deter- mine if the project is on the right path and whether or not to continue or discard the project. [http://istqbexamcertifica- tion.com/what-is-waterfall-model-advantages-disadvantages-and-when-to-use-it/] Общее планированиеТестирование в явном виде появляется лишь с середины развития проекта, достигая своего максимума в самом конце.Пользовательские требованияСистемные требованияТехническая архитектураДетализированный дизайнРазработка и отладкаИнтеграция и модульные тестыИнсталляционное тестированиеСистемное тестированиеПриёмочное тестированиеИтоговая отчётность Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 20/301 Тем не менее водопадная модель часто интуитивно применяется при выпол- нении относительно простых задач, а её недостатки послужили прекрасным отправ- ным пунктом для создания новых моделей. Также эта модель в несколько усовер- шенствованном виде используется на крупных проектах, в которых требования очень стабильны и могут быть хорошо сформулированы в начале проекта (аэро- космическая область, медицинское ПО и т.д.). Относительно краткое и притом хорошее описание водопадной модели можно найти в статье «What is Waterfall model advantages, disadvantages and when to use it?»21Великолепное описание истории развития и заката водопадной модели было создано Максимом Дорофеевым в виде слайдкаста «The Rise And Fall Of Waterfall», который можно посмотреть22в его ЖЖ.V-образная модель (V-model23) является логическим развитием водопад- ной. Можно заметить (рисунок 2.1.b), что в общем случае как водопадная, так и v- образная модели жизненного цикла ПО могут содержать один и тот же набор ста- дий, но принципиальное отличие заключается в том, как эта информация исполь- зуется в процессе реализации проекта. Очень упрощённо можно сказать, что при использовании v-образной модели на каждой стадии «на спуске» нужно думать о том, что и как будет происходить на соответствующей стадии «на подъёме». Тестирование здесь появляется уже на са- мых ранних стадиях развития проекта, что позволяет минимизировать риски, а также обнаружить и устранить множество потенциальных проблем до того, как они станут проблемами реальными. Рисунок 2.1.b — V-образная модель разработки ПО 21«What is Waterfall model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-waterfall- model-advantages-disadvantages-and-when-to-use-it/] 22ЖЖ Максима Дорофеева. [http://cartmendum.livejournal.com/44064.html] 23 V-model. A framework to describe the software development lifecycle activities from requirements specification to maintenance. The V-model illustrates how testing activities can be integrated into each phase of the software development lifecycle. [ISTQB Glossary] Общее планированиеПользовательские требованияСистемные требованияТехническая архитектураДетализированный дизайнРазработка и отладкаИнтеграция и модульные тестыИнсталляционное тестированиеСистемное тестированиеПриёмочное тестированиеИтоговая отчётностьТестирование появляется с самого начала проекта. Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 21/301 Краткое описание v-образной модели можно найти в статье «What is V- model advantages, disadvantages and when to use it?»24Пояснение по ис- пользованию v-образной модели в тестировании можно найти в статье «Using V Models for Testing»25Итерационная инкрементальная модель (iterative model26, incremental model27) является фундаментальной основой современного подхода к разработке ПО. Как следует из названия модели, ей свойственна определённая двойствен- ность (а ISTQB-глоссарий даже не приводит единого определения, разбивая его на отдельные части): • с точки зрения жизненного цикла модель является итерационной, т.к. под- разумевает многократное повторение одних и тех же стадий; • с точки зрения развития продукта (приращения его полезных функций) мо- дель является инкрементальной. Ключевой особенностью данной модели является разбиение проекта на от- носительно небольшие промежутки (итерации), каждый из которых в общем случае может включать в себя все классические стадии, присущие водопадной и v- образной моделям (рисунок 2.1.c). Итогом итерации является приращение (инкре- мент) функциональности продукта, выраженное в промежуточном билде (build28). Рисунок 2.1.c — Итерационная инкрементальная модель разработки ПО 24«What is V-model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-v-model-advantages- disadvantages-and-when-to-use-it/] 25«Using V Models for Testing», Donald Firesmith [https://insights.sei.cmu.edu/sei_blog/2013/11/using-v-models-for-testing.html] 26 Iterative development model. A development lifecycle where a project is broken into a usually large number of iterations. An iteration is a complete development loop resulting in a release (internal or external) of an executable product, a subset of the final product under development, which grows from iteration to iteration to become the final product. [ISTQB Glossary] 27 Incremental development model. A development lifecycle where a project is broken into a series of increments, each of which delivers a portion of the functionality in the overall project requirements. The requirements are prioritized and delivered in priority order in the appropriate increment. In some (but not all) versions of this lifecycle model, each subproject follows a 'mini V-model' with its own design, coding and testing phases. [ISTQB Glossary] 28 Build. A development activity whereby a complete system is compiled and linked, so that a consistent system is available including all latest changes. [На основе определения термина «daily build» из ISTQB Glossary] Общее планированиеПланирование + требованияАрхитектура и дизайнРазработка и отладкаИнтеграция и модульные тестыУстановка билдаТестированиеОценка результатовИтоговая отчётностьОтчётность Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 22/301 Длина итераций может меняться в зависимости от множества факторов, од- нако сам принцип многократного повторения позволяет гарантировать, что и тести- рование, и демонстрация продукта конечному заказчику (с получением обратной связи) будет активно применяться с самого начала и на протяжении всего времени разработки проекта. Во многих случаях допускается распараллеливание отдельных стадий внутри итерации и активная доработка с целью устранения недостатков, обнару- женных на любой из (предыдущих) стадий. Итерационная инкрементальная модель очень хорошо зарекомендовала себя на объёмных и сложных проектах, выполняемых большими командами на про- тяжении длительных сроков. Однако к основным недостаткам этой модели часто относят высокие накладные расходы, вызванные высокой «бюрократизированно- стью» и общей громоздкостью модели. Относительно краткие и очень хорошие описания итерационной инкре- ментальной модели можно найти в статьях «What is Iterative model ad- vantages, disadvantages and when to use it?»29и «What is Incremental model advantages, disadvantages and when to use it?»30Спиральная модель (spiral model31) представляет собой частный случай итерационной инкрементальной модели, в котором особое внимание уделяется управлению рисками, в особенности влияющими на организацию процесса разра- ботки проекта и контрольные точки. Схематично суть спиральной модели представлена на рисунке 2.1.d. Обра- тите внимание на то, что здесь явно выделены четыре ключевые фазы: • проработка целей, альтернатив и ограничений; • анализ рисков и прототипирование; • разработка (промежуточной версии) продукта; • планирование следующего цикла. С точки зрения тестирования и управления качеством повышенное внимание рискам является ощутимым преимуществом при использовании спиральной мо- дели для разработки концептуальных проектов, в которых требования естествен- ным образом являются сложными и нестабильными (могут многократно меняться по ходу выполнения проекта). Автор модели Barry Boehm в своих публикациях32,33подробно раскрывает эти вопросы и приводит множество рассуждений и рекомендаций о том, как применять спиральную модель с максимальным эффектом. Относительно краткие и очень хорошие описания спиральной модели можно найти в статьях «What is Spiral model - advantages, disadvantages and when to use it?»34и «Spiral Model»35 29«What is Iterative model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-iterative- model-advantages-disadvantages-and-when-to-use-it/] 30«What is Incremental model advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-incremen- tal-model-advantages-disadvantages-and-when-to-use-it/] 31 Spiral model. A software lifecycle model which supposes incremental development, using the waterfall model for each step, with the aim of managing risk. In the spiral model, developers define and implement features in order of decreasing priority. [https://www.geeksforgeeks.org/software-engineering-spiral-model/] 32«A Spiral Model of Software Development and Enhancement», Barry Boehm [http://www-scf.usc.edu/csci201/lectures/Lec- ture11/boehm1988.pdf] 33«Spiral Development: Experience, Principles, and Refinements», Barry Boehm. [http://www.sei.cmu.edu/reports/00sr008.pdf] 34«What is Spiral model- advantages, disadvantages and when to use it?» [http://istqbexamcertification.com/what-is-spiral-model- advantages-disadvantages-and-when-to-use-it/] 35«Spiral Model» [https://searchsoftwarequality.techtarget.com/definition/spiral-model] Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 23/301 Рисунок 2.1.d — Спиральная модель разработки ПО Гибкая модель (agile model36) представляет собой совокупность различных подходов к разработке ПО и базируется на т.н. «agile-манифесте»37: • Люди и взаимодействие важнее процессов и инструментов. • Работающий продукт важнее исчерпывающей документации. • Сотрудничество с заказчиком важнее согласования условий контракта. • Готовность к изменениям важнее следования первоначальному плану. Данная тема является настолько большой, что ссылок на статьи недоста- точно, а потому стоит почитать эти книги: • «Agile Testing» (Lisa Crispin, Janet Gregory). • «Essential Scrum» (Kenneth S. Rubin). 36 Agile software development. A group of software development methodologies based on EITP iterative incremental development, where requirements and solutions evolve through collaboration between self-organizing cross-functional teams. [ISTQB Glos- sary] 37«Agile-манифест» [http://agilemanifesto.org/iso/ru/manifesto.html] Проработка целей, альтернатив и ограниченийПроектныхПродуктныхЖизненного цикла проектаПроцесса разработки проектаЭксплуа- тации продуктаАнализ рисков и прототипированиеРазработка (промежуточной версии) продуктаПланирование следующего циклаПроекта и продуктаЖизненного циклаРазработки, интеграции и тестированияВнедрения и сопровожденияОбщей концепцииУточнённых требованийАрхитектурыДизайнаДетализацияКодированиеИнтеграцияТестированиеДетализацияКодированиеИнтеграцияТестированиеОценка промежуточных результатовНа ра ст ани е об щей цен но ст и пр од ук та Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 24/301 Как несложно догадаться, положенные в основу гибкой модели подходы яв- ляются логическим развитием и продолжением всего того, что было за десятилетия создано и опробовано в водопадной, v-образной, итерационной инкрементальной, спиральной и иных моделях. Причём здесь впервые был достигнут ощутимый ре- зультат в снижении бюрократической составляющей и максимальной адаптации процесса разработки ПО к мгновенным изменениям рынка и требований заказчика. Рисунок 2.1.e — Суть гибкой модели разработки ПО Очень упрощённо (почти на грани допустимого) можно сказать, что гибкая модель представляет собой облегчённую с точки зрения документации смесь ите- рационной инкрементальной и спиральной моделей (рисунки 2.1.c и 2.1.d); при этом следует помнить об «agile-манифесте» и всех вытекающих из него преимуществах и недостатках. ЦенностиСТРАТЕГИЯВЫПУСКИТЕРАЦИЯЕЖЕДНЕВНОНЕПРЕРЫВНОTDDБилдРефакторингИнтеграцияСотрудничествоБилд«Стендап» собраниеТестированиеПланированиеОценкаРетроспектива«Бэклог»План выпускаОценкаВидениеЦелиСоглашенияБюджетАдаптивностьПрозрачностьПростотаЕдинствоНаглядностьОсталось сделатьПроизводительностьСделаноТесты Модели разработки ПО Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 25/301 Рисунок 2.1.f — Итерационный подход в рамках гибкой модели и scrum Главным недостатком гибкой модели считается сложность её применения к крупным проектам, а также частое ошибочное внедрение её подходов, вызванное недопониманием фундаментальных принципов модели. Тем не менее можно утверждать, что всё больше и больше проектов начи- нают использовать гибкую модель разработки. Очень подробное и элегантное изложение принципов применения гибкой модели разработки ПО можно найти в статье «The Agile System Develop- ment Life Cycle»381   2   3   4   5   6   7   8   9   ...   38

№ Имя Кодировка Размер 1 «Мелкий» файл в WIN1251.txt WIN1251 100 КБ 2 «Средний» файл в CP866.txt CP866 10 МБ 3 «Крупный» файл в KOI8R.txt KOI8R 50 МБ 4 «Крупный» файл в win-1251.html WIN1251 50 МБ 5 «Мелкий» файл в cp-866.html CP866 100 КБ 6 «Средний» файл в koi8-r.html KOI8R 10 МБ 7 «Средний» файл в WIN_1251.md WIN1251 10 МБ 8 «Крупный» файл в CP_866.md CP866 50 МБ 9 «Мелкий» файл в KOI8_R.md KOI8R 100 КБ 10 «Мелкий» эталон WIN1251.txt UTF8 100 КБ 11 «Средний» эталон CP866.txt UTF8 10 МБ 12 «Крупный» эталон KOI8R.txt UTF8 50 МБ 13 «Крупный» эталон в win-1251.html UTF8 50 МБ 14 «Мелкий» эталон в cp-866.html UTF8 100 КБ 15 «Средний» эталон в koi8-r.html UTF8 10 МБ 16 «Средний» эталон в WIN_1251.md UTF8 10 МБ 17 «Крупный» эталон в CP_866.md UTF8 50 МБ 18 «Мелкий» эталон в KOI8_R.md UTF8 100 КБ 19 Пустой файл.md - 0 Б 20 Слишком большой файл.txt - 52’428’801 Б 21 Картинка.jpg - 1 МБ 22 Картинка в виде TXT.txt -

Описание действий в качестве наименований модуля/подмодуля. Например, «запуск приложения» — это НЕ модуль или подмодуль. Модуль или под- модуль{125}— это всегда некие части приложения, а не его поведение. Сравните: «дыхательная система» — это модуль человека, но «дыхание» — нет. Описание событий или процессов в качестве шагов или ожидаемых ре-зультатов. Например, в качестве шага сказано: «Ввод спецсимволов в поле X». Это было бы сносным заглавием тест-кейса, но не годится в качестве шага, который должен быть сформулирован как «Ввести спецсимволы (перечень) в поле X». Куда страшнее, если подобное встречается в ожидаемых результатах. Например, там написано: «Отображение скорости чтения в панели X». И что? Оно должно начаться, продолжиться, завершиться, не начинаться, неким образом из- мениться (например, измениться должна размерность данных), как-то на что-то по- влиять? Тест-кейс становится полностью бессмысленным, т.к. такой ожидаемый результат невозможно сравнить с фактическим поведением приложения. «Выдумывание» особенностей поведения приложения. Да, часто в тре- бованиях отсутствуют самоочевидные (без кавычек, они на самом деле самооче- видные) вещи, но нередко встречаются и некачественные (например, неполные) требования, которые нужно улучшать, а не «телепатически компенсировать». Например, в требованиях сказано, что «приложение должно отображать диа- логовое окно сохранения с указанным по умолчанию каталогом». Если из контекста (соседних требований, иных документов) ничего не удаётся узнать об этом таин- ственном «каталоге по умолчанию», нужно задать вопрос. Нельзя просто записать в ожидаемых результатах «отображается диалоговое окно сохранения с указанным по умолчанию каталогом» (как мы проверим, что выбран именно указанный по умолчанию каталог, а не какой-то иной?). И уж тем более нельзя в ожидаемых ре- зультатах писать «отображается диалоговое окно сохранения с выбранным ката- логом “C:/SavedDocuments”» (откуда взялось это «C:/SavedDocuments», — не ясно, т.е. оно явно выдумано из головы и, скорее всего, выдумано неправильно). Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 163/301 Отсутствие описания приготовления к выполнению тест-кейса. Часто для корректного выполнения тест-кейса необходимо каким-то особым образом настроить окружение. Предположим, что мы проверяем приложение, выполняющее резервное копирование файлов. Если тест выглядит примерно так, то выполняю- щий его сотрудник будет в замешательстве, т.к. ожидаемый результат кажется про- сто бредом. Откуда взялось «200»? Что это вообще такое? Шаги выполнения Ожидаемые результаты 1. Нажать на панели «Главная» кнопку «Быст- рая дедубликация». 2. Выбрать каталог «C:/MyData». 1. Кнопка «Быстрая дедубликация» переходит в утопленное состояние и меняет цвет с се- рого на зелёный. 2. На панели «Состояние» в поле «Дубли- каты» отображается «200». И совсем иначе этот тест-кейс воспринимался бы, если бы в приготовлениях было сказано: «Создать каталог “C:/MyData” с произвольным набором подкаталогов (глубина вложенности не менее пяти). В полученном дереве каталогов разместить 1000 файлов, из которых 200 имеют одинаковые имена и размеры, но НЕ внутрен- нее содержимое». Полное дублирование (копирование) одного и того же тест-кейса на уровнях дымового тестирования, тестирования критического пути, расши-ренного тестирования. Многие идеи естественным образом развиваются от уровня к уровню{79}, но они должны именно развиваться, а не дублироваться. Срав- ните: Дымовое тестиро-вание Тестирование критиче-ского пути Расширенное тестирование Плохо Запуск приложения. Запуск приложения. Запуск приложения. Хорошо Запуск приложения. Запуск приложения из ко- мандной строки. Запуск приложения через ярлык на рабочем столе. Запуск приложения через меню «Пуск». Запуск приложения из команд- ной строки в активном режиме. Запуск приложения из команд- ной строки в фоновом режиме. Запуск приложения через ярлык на рабочем столе от имени ад- министратора. Запуск приложения через меню «Пуск» из списка часто запуска- емых приложений. Слишком длинный перечень шагов, не относящихся к сути (цели) тест-кейса. Например, мы хотим проверить корректность одностороннего режима пе- чати из нашего приложения на дуплексном принтере. Сравните: Плохо Хорошо Односторонняя печать 1. Запустить приложение. 2. В меню выбрать «Файл» -> «Открыть». 3. Выбрать любой DOCX-файл, состоящий из нескольких страниц. 4. Нажать кнопку «Открыть». 5. В меню выбрать «Файл» -> «Печать». 6. В списке «Двусторонняя печать» выбрать пункт «Нет». 7. Нажать кнопку «Печать». 8. Закрыть файл. 9. Закрыть приложение. Односторонняя печать 1. Открыть любой DOCX-файл, содержащий три и более непустых страницы. 2. В диалоговом окне «Настройка печати» в списке «Двусторонняя печать» выбрать «Нет». 3. Произвести печать документа на принтере, поддерживающем двустороннюю печать. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 164/301 Слева мы видим огромное количество действий, не относящихся непосред- ственно к тому, что проверяет тест-кейс. Тем более что запуск и закрытие прило- жения, открытие файла, работа меню и прочее или будут покрыты другими тест- кейсами (со своими соответствующими целями), или на самом деле являются са- моочевидными (логично ведь, что нельзя открыть приложением файл, если прило- жение не запущено) и не нуждаются в описании шагов, которые только создают информационный шум и занимают время на написание и прочтение. Некорректное наименование элементов интерфейса или их свойств. Иногда из контекста понятно, что автор тест-кейса имел в виду, но иногда это ста- новится реальной проблемой. Например, мы видим тест-кейс с заглавием «Закры- тие приложения кнопками "Close" и "Close window"». Уже тут возникает недоумение по поводу того, в чём же различие этих кнопок, да и о чём вообще идёт речь. Ниже (в шагах тест-кейса) автор поясняет: «В рабочей панели внизу экрана нажать "Close window"». Ага! Ясно. Но «Close window» — это НЕ кнопка, это пункт системного кон- текстного меню приложения в панели задач. Ещё один отличный пример: «Окно приложения свернётся в окно меньшего диаметра». Хм. Окно круглое? Или должно стать круглым? А, может, тут и вовсе речь про два разных окна, и одно должно будет оказаться внутри второго? Или, всё же «размер окна уменьшается» (кстати, насколько?), а его геометрическая форма остаётся прямоугольной? И, наконец, пример, из-за которого вполне можно написать отчёт о дефекте на вполне корректно работающее приложение: «В системном меню выбрать “Фик- сация расположения”». Казалось бы, что ж тут плохого? Но потом выясняется, что имелось в виду главное меню приложения, а вовсе не системное меню. Непонимание принципов работы приложения и вызванная этим некор-ректность тест-кейсов. Классикой жанра является закрытие приложения: тот факт, что окно приложения «исчезло» (сюрприз: например, оно свернулось в об- ласть уведомления панели задач (system tray, taskbar notification area)), или прило- жение отключило интерфейс пользователя, продолжив функционировать в фоно- вом режиме, вовсе не является признаком того, что оно завершило работу. Проверка типичной «системной» функциональности. Если только ваше приложение не написано с использованием каких-то особенных библиотек и техно- логий и не реализует какое-то нетипичное поведение, нет необходимости прове- рять системные кнопки, системные меню, сворачивание-разворачивание окна и т.д. Вероятность встретить здесь ошибку стремится к нулю. Если всё же очень хочется, можно вписать эти проверки как уточнения некоторых действий на уровне тестиро- вания критического пути{80}, но создавать для них отдельные тест-кейсы не нужно. Неверное поведение приложения как ожидаемый результат. Такое не допускается по определению. Не может быть тест-кейса с шагом в стиле «поделить на ноль» с ожидаемым результатом «крах приложения с потерей пользовательских данных». Ожидаемые результаты всегда описывают правильное поведение прило- жения — даже в самых страшных стрессовых тест-кейсах. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 165/301 Общая некорректность тест-кейсов. Может быть вызвана множеством при- чин и выражаться множеством образов, но вот классический пример: Шаги выполнения Ожидаемые результаты … 4. Закрыть приложение нажатием Alt+F4. 5. Выбрать в меню «Текущее состояние». … 4. Приложение завершает работу. 5. Отображается окно с заголовком «Текущее состояние» и содержимым, соответствую- щим рисунку 999.99. Здесь или не указано, что вызов окна «Текущее состояние» происходит где- то в другом приложении, или остаётся загадкой, как вызвать это окно у завершив- шего работу приложения. Запустить заново? Возможно, но в тест-кейсе этого не сказано. Неверное разбиение наборов данных на классы эквивалентности. Дей- ствительно, иногда классы эквивалентности{94}могут быть очень неочевидными. Но ошибки встречаются и в довольно простых случаях. Допустим, в требованиях ска- зано, что размер некоего файла может быть от 10 до 100 КБ (включительно). Раз- биение по размеру 0–9 КБ, 10–100 КБ, 101+ КБ ошибочно, т.к. килобайт не явля- ется неделимой единицей. Такое ошибочное разбиение не учитывает, например, размеры в 9.5 КБ, 100.1 КБ, 100.7 КБ и т.д. Потому здесь стоит применять неравен- ства: 0 КБ ≤ размер < 10 КБ, 10 КБ ≤ размер ≤ 100 КБ, 100 КБ < размер. Также можно писать с использованием синтаксиса скобок: [0, 10) КБ, [10, 100] КБ, (100, ∞) КБ, но вариант с неравенствами более привычен большинству людей. Тест-кейсы, не относящиеся к тестируемому приложению. Например, нам нужно протестировать фотогалерею на сайте. Соответственно, следующие тест-кейсы никак не относятся к фотогалерее (они тестируют браузер, операцион- ную систему пользователя, файловый менеджер и т.д. — но НЕ наше приложение, ни его серверную, ни даже клиентскую часть): • Файл с сетевого диска. • Файл со съёмного носителя. • Файл, заблокированный другим приложением. • Файл, открытый другим приложением. • Файл, к которому у пользователя нет прав доступа. • Вручную указать путь к файлу. • Файл из глубоко расположенной поддиректории. Формальные и/или субъективные проверки. Чаще всего данную ошибку можно встретить в пунктах чек-листа. Возможно, у автора в голове и был чёткий и подробный план, но из следующих примеров совершенно невозможно понять, что будет сделано с приложением, и какой результат мы должны ожидать: • «Сконвертировать». • «Проверить метод getMessage()». • «Некорректная работа в корректных условиях». • «Скорость». • «Объём данных». • «Должно работать быстро». В отдельных исключительных ситуациях можно возразить, что из контекста и дальнейшей детализации становится понятно, что имелось в виду. Но чаще всего никакого контекста и никакой дальнейшей детализации нет, т.е. приведённые при- меры оформлены как отдельные полноправные пункты чек-листа. Так — нельзя. Типичные ошибки при разработке чек-листов, тест-кейсов и наборов тест-кейсов Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 166/301 Как можно и нужно – см. в примере чек-листа{116}и всём соответствующем раз- деле{115}Теперь для лучшего закрепления рекомендуется заново прочитать про оформление атрибутов тест-кейсов{124}, свойства качественных тест-кейсов{136}и ло- гику построения{152}качественных тест-кейсов и качественных наборов тест-кейсов. Отчёты о дефектах Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 167/301 2.5. Отчёты о дефектах 2.5.1. Ошибки, дефекты, сбои, отказы и т.д. Упрощённый взгляд на понятие дефекта Далее в этой главе мы глубоко погрузимся в терминологию (она действи- тельно важна!), а потому начнём с очень простого: дефектом упрощённо можно счи- тать любое расхождение ожидаемого (свойства, результата, поведения и т.д., ко- торое мы ожидали увидеть) и фактического (свойства, результата, поведения и т.д., которое мы на самом деле увидели). При обнаружении дефекта создаётся отчёт о дефекте. Дефект — расхождение ожидаемого и фактического результата. Ожидаемый результат — поведение системы, описанное в требованиях. Фактический результат — поведение системы, наблюдаемое в процессе тестирования. ВАЖНО! Эти три определения приведены в предельно упрощённой (и даже искажённой) форме с целью первичного ознакомления. Полноцен- ные формулировки см. далее в этой же главе. Поскольку столь простая трактовка не покрывает все возможные формы про- явления проблем с программными продуктами, мы сразу же переходим к более по- дробному рассмотрению соответствующей терминологии. Расширенный взгляд на терминологию, описывающую проблемы Разберёмся с широким спектром синонимов, которыми обозначают про- блемы с программными продуктами и иными артефактами и процессами, сопут- ствующими их разработке. В силлабусе ISTQB написано308, что человек совершает ошибки, которые при- водят к возникновению дефектов в коде, которые, в свою очередь, приводят к сбоям и отказам приложения (однако сбои и отказы могут возникать и из-за внешних усло- вий, таких как электромагнитное воздействие на оборудование и т.д.). Таким образом, упрощённо можно изобразить следующую схему: Рисунок 2.5.a — Ошибки, дефекты, сбои и отказы 308 A human being can make an error (mistake), which produces a defect (fault, bug) in the program code, or in a document. If a defect in code is executed, the system may fail to do what it should do (or do something it shouldn't), causing a failure. Defects in software, systems or documents may result in failures, but not all defects do so. Defects occur because human beings are fallible and because there is time pressure, complex code, complexity of infrastructure, changing technologies, and/or many system interactions. Failures can be caused by environmental conditions as well. For example, radiation, magnetism, electronic fields, and pollution can cause faults in firmware or influence the execution of software by changing the hardware conditions. [ISTQB Syllabus] ОшибкаДефектСбой или отказ Ошибки, дефекты, сбои, отказы и т.д. Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 168/301 Если же посмотреть на англоязычную терминологию, представленную в глоссарии ISTQB и иных источниках, можно построить чуть более сложную схему: Рисунок 2.5.b — Взаимосвязь проблем в разработке программных продуктов Рассмотрим все соответствующие термины. Ошибка (error309, mistake) — действие человека, приводящее к некоррект- ным результатам. Этот термин очень часто используют как наиболее универсальный, описыва- ющий любые проблемы («ошибка человека», «ошибка в коде», «ошибка в докумен- тации», «ошибка выполнения операции», «ошибка передачи данных», «ошибочный результат» и т.п.) Более того, куда чаще вы сможете услышать «отчёт об ошибке», чем «отчёт о дефекте». И это нормально, так сложилось исторически, к тому же термин «ошибка» на самом деле очень широкий. Дефект (defect310, bug, problem, fault) — недостаток в компоненте или си- стеме, способный привести к ситуации сбоя или отказа. Этот термин также понимают достаточно широко, говоря о дефектах в доку- ментации, настройках, входных данных и т.д. Почему глава называется именно «от- чёты о дефектах»? Потому что этот термин как раз стоит посередине — бессмыс- ленно писать отчёты о человеческих ошибках, равно как и почти бесполезно просто описывать проявления сбоев и отказов — нужно докопаться до их причины, и пер- вым шагом в этом направлении является именно описание дефекта. Сбой (interruption311) или отказ (failure312) — отклонение поведения си- стемы от ожидаемого. В ГОСТ 27.002-89 даны хорошие и краткие определения сбоя и отказа: Сбой — самоустраняющийся отказ или однократный отказ, устраняемый незначительным вмешательством оператора. Отказ — событие, заключающееся в нарушении работоспособного состо- яния объекта. Эти термины скорее относятся к теории надёжности и нечасто встречаются в повседневной работе тестировщика, но именно сбои и отказы являются тем, что тестировщик замечает в процессе тестирования (и отталкиваясь от чего, проводит исследование с целью выявить дефект и его причины). 309 Error, Mistake. A human action that produces an incorrect result. [ISTQB Glossary] 310 Defect, Bug, Problem, Fault. A flaw in a component or system that can cause the component or system to fail to perform its required function, e.g. an incorrect statement or data definition. A defect, if encountered during execution, may cause a failure of the component or system. [ISTQB Glossary] 311 Interruption. A suspension of a process, such as the execution of a computer program, caused by an event external to that process and performed in such a way that the process can be resumed. [http://www.electropedia.org/iev/iev.nsf/display?open- form&ievref=714-22-10] 312 Failure. Deviation of the component or system from its expected delivery, service or result. [ISTQB Glossary] Error (Mistake)Defect(Problem, Bug, Fault)Failure, InterruptionAnomaly, Incident (Deviation) Ошибки, дефекты, сбои, отказы и т.д. Тестирование программного обеспечения. Базовый курс. © EPAM Systems, 2015–2023Стр: 169/301 1   ...   20   21   22   23   24   25   26   27   ...   38

By code execution
White box method
By access to application code and architecture
Black box method
Gray box method
Unit testing
Integration testing
By specification level
(by testing level)
System testing
Web app testing
Mobile app testing
By application nature
Desktop app testing
By architecture tier
Presentation tier testing
Business-logic tier testing
Data tier testing
By formalization level
Test case based
Exploratory
Ad hoc
Manual
Automated
(+ automatic)
By automation level
Alpha testing
Beta testing
By end users participation
By functions under test importance (decreasingly)
(by functional testing level)
Smoke testing
Critical path testing
Extended testing
By aims and goals
Regression testing
Re-testing
Acceptance testing
Positive testing
Negative testing
Functional testing
Nonfunctional testing
Installation testing
Performance testing
Load testing
(Capacity testing)
Scalability testing
Volume testing
Stress testing
Reliability testing
Accessibility testing
Interface testing
Security testing
Internationalization testing
Localization testing
Compatibility testing
Data quality testing and
Database integrity testing
By techniques and approaches
By chronology
Based on tester’s experience, scenarios,
checklists
Exploratory
Ad hoc
By input data selection techniques
Equivalence partitioning
Boundary value analysis
Domain testing
Pairwise testing
By code
Control flow testing
Data flow testing
State transition testing
By error source (knowledge)
Error guessing
Mutation testing
By operational environment
Operational testing
Decision table testing
By application behavior (models)
Specification-based testing
Model-based testing
State transition testing
Positive
(simple)
Negative
(simple)
Positive testing
Negative testing
Positive
(complex)
Negative
(complex)
Smoke testing
Critical path testing
Extended testing
Typical scenario 1
Typical scenario 2
Unit testing
Integration testing
System testing
Typical scenario 3
Software testing classification
General chronology
General typical scenarios
Orthogonal array testing
Comparison testing
Error seeding
Heuristic evaluation
Use case testing
Hybrid testing
Qualification testing
Exhaustive testing
Resource utilization testing
By intrusion to application work process
Intrusive testing
Nonintrusive testing
Code review
By code structures
Statement testing
Decision testing
Condition testing
Multiple condition testing
Parallel testing
Configuration testing
Cross-browser testing
Gamma testing
Alpha testing
Beta testing
Gamma testing
Acceptance testing
Operational testing
Branch testing
Modified condition decision testing
Path testing
Usability testing
Recoverability testing
Failover testing
Random testing
Development testing
A / B testing
Concurrency testing
By component hierarchy
Bottom-up testing
Top-down testing
Hybrid testing
By automation
techniques
Data-driven testing
Keyword-driven testing
By attention to requirements and requirements’ components

Requirements testing
Functional components testing
Nonfunctional components testing
By ways of dealing with application
Behavior-driven testing
Operational testing

Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 73/301
2.3.2.2.
Классификация по запуску кода на исполнение
Далеко не всякое тестирование предполагает взаимодействие с работаю- щим приложением. Потому в рамках данной классификации выделяют:
Статическое тестирование (static testing
117
)
— тестирование без запуска кода на исполнение. В рамках этого подхода тестированию могут подвер- гаться: o
Документы (требования, тест-кейсы, описания архитектуры приложе- ния, схемы баз данных и т.д.). o
Графические прототипы (например, эскизы пользовательского интер- фейса). o
Код приложения (что часто выполняется самими программистами в рамках аудита кода (code review
118
)
, являющегося специфической ва- риацией взаимного просмотра
{51}
в применении к исходному коду). Код приложения также можно проверять с использованием техник тести- рования на основе структур кода
{97}
o
Параметры (настройки) среды исполнения приложения. o
Подготовленные тестовые данные.
Динамическое тестирование (dynamic testing
119
)
— тестирование с запуском кода на исполнение. Запускаться на исполнение может как код всего прило- жения целиком (системное тестирование
{78}
), так и код нескольких взаимосвя- занных частей (интеграционное тестирование
{77}
), отдельных частей (модуль- ное или компонентное тестирование
{77}
) и даже отдельные участки кода. Ос- новная идея этого вида тестирования состоит в том, что проверяется реаль- ное поведение (части) приложения.
2.3.2.3.
Классификация по доступу к коду и архитектуре приложения
Метод белого ящика (white box testing
120
, open box testing, clear box testing, glass box testing)
— у тестировщика есть доступ к внутренней структуре и коду приложения, а также есть достаточно знаний для понимания увиденного. Вы- деляют даже сопутствующую тестированию по методу белого ящика гло- бальную технику — тестирование на основе дизайна (design-based testing
121
).
Для более глубокого изучения сути метода белого ящика рекомендуется ознакомиться с техниками исследования потока управления
{96}
или потока данных
{96}
, использования диаграмм состояний
{97}
Некоторые авторы склонны жёстко связывать этот метод со статическим тестированием, но ничто не ме- шает тестировщику запустить код на выполнение и при этом периодически обращаться к самому коду (а модульное тестирование
{77}
и вовсе предпола- гает запуск кода на исполнение и при этом работу именно с кодом, а не с
«приложением целиком»).
117
Static testing. Testing of a software development artifact, e.g., requirements, design or code, without execution of these artifacts, e.g., reviews or static analysis. [ISTQB Glossary]
118
Jason Cohen,
«Best Kept Secrets of Peer Code Review (Modern Approach. Practical Advice.)». Официально распространяе- мую электронную версию книги можно взять здесь: https://static1.smartbear.co/smartbear/media/pdfs/best-kept-secrets-of- peer-code-review_redirected.pdf
119
Dynamic testing. Testing that involves the execution of the software of a component or system. [ISTQB Glossary]
120
White box testing. Testing based on an analysis of the internal structure of the component or system. [ISTQB Glossary]
121
Design-based Testing. An approach to testing in which test cases are designed based on the architecture and/or detailed design of a component or system (e.g. tests of interfaces between components or systems). [ISTQB Glossary]


Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 74/301
Метод чёрного ящика (black box testing
122
, closed box testing, specification- based testing)
— у тестировщика либо нет доступа к внутренней структуре и коду приложения, либо недостаточно знаний для их понимания, либо он со- знательно не обращается к ним в процессе тестирования. При этом абсолют- ное большинство перечисленных на рисунках 2.3.b и 2.3.c видов тестирова- ния работают по методу чёрного ящика, идею которого в альтернативном определении можно сформулировать так: тестировщик оказывает на прило- жение воздействия (и проверяет реакцию) тем же способом, каким при ре- альной эксплуатации приложения на него воздействовали бы пользователи или другие приложения. В рамках тестирования по методу чёрного ящика ос- новной информацией для создания тест-кейсов выступает документация
(особенно — требования (requirements-based testing
123
)) и общий здравый смысл (для случаев, когда поведение приложения в некоторой ситуации не регламентировано явно; иногда это называют «тестированием на основе не- явных требований», но канонического определения у этого подхода нет).
Метод серого ящика (gray box testing
124
)
— комбинация методов белого ящика и чёрного ящика, состоящая в том, что к части кода и архитектуры у тестировщика доступ есть, а к части — нет. На рисунках 2.3.b и 2.3.c этот метод обозначен особым пунктиром и серым цветом потому, что его явное упоминание — крайне редкий случай: обычно говорят о методах белого или чёрного ящика в применении к тем или иным частям приложения, при этом понимая, что «приложение целиком» тестируется по методу серого ящика.
Важно! Некоторые авторы
125
определяют метод серого ящика как противопоставление методам белого и чёрного ящика, особо под- чёркивая, что при работе по методу серого ящика внутренняя струк- тура тестируемого объекта известна частично и выясняется по мере исследования. Этот подход, бесспорно, имеет право на существо- вание, но в своём предельном случае он вырождается до состояния
«часть системы мы знаем, часть — не знаем», т.е. до всё той же комбинации белого и чёрного ящиков.
Если сравнить основные преимущества и недостатки перечисленных мето- дов, получается следующая картина (см. таблицу 2.3.a).
Методы белого и чёрного ящика не являются конкурирующими или взаимо- исключающими — напротив, они гармонично дополняют друг друга, компенсируя таким образом имеющиеся недостатки.
122
Black box testing. Testing, either functional or non-functional, without reference to the internal structure of the component or system. [ISTQB Glossary]
123
Requirements-based Testing. An approach to testing in which test cases are designed based on test objectives and test condi- tions derived from requirements, e.g. tests that exercise specific functions or probe non-functional attributes such as reliability or usability. [ISTQB Glossary]
124
Gray box testing is a software testing method, which is a combination of Black Box Testing method and White Box Testing method. … In Gray Box Testing, the internal structure is partially known. This involves having access to internal data structures and algorithms for purposes of designing the test cases, but testing at the user, or black-box level. [
«Gray Box Testing Funda- mentals
», http://softwaretestingfundamentals.com/gray-box-testing
].
125
«Gray box testing (gray box) definition», Margaret Rouse [
http://searchsoftwarequality.techtarget.com/definition/gray-box
]


Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 75/301
Таблица 2.3.a — Преимущества и недостатки методов белого, чёрного и серого ящиков
Преимущества
Недостатки
Метод белого
ящика
• Показывает скрытые проблемы и упрощает их диагностику.
• Допускает достаточно простую ав- томатизацию тест-кейсов и их вы- полнение на самых ранних ста- диях развития проекта.
• Обладает развитой системой мет- рик, сбор и анализ которых легко автоматизируется.
• Стимулирует разработчиков к написанию качественного кода.
• Многие техники этого метода яв- ляются проверенными, хорошо себя зарекомендовавшими реше- ниями, базирующимися на строгом техническом подходе.
• Не может выполняться тестиров- щиками, не обладающими доста- точными знаниями в области про- граммирования.
• Тестирование сфокусировано на реализованной функционально- сти, что повышает вероятность пропуска нереализованных требо- ваний.
• Поведение приложения исследу- ется в отрыве от реальной среды выполнения и не учитывает её влияние.
• Поведение приложения исследу- ется в отрыве от реальных поль- зовательских сценариев
{146}
Метод чёрного
ящика
• Тестировщик не обязан обладать
(глубокими) знаниями в области программирования.
• Поведение приложения исследу- ется в контексте реальной среды выполнения и учитывает её влия- ние.
• Поведение приложения исследу- ется в контексте реальных пользо- вательских сценариев
{146}
• Тест-кейсы можно создавать уже на стадии появления стабильных требований.
• Процесс создания тест-кейсов поз- воляет выявить дефекты в требо- ваниях.
• Допускает создание тест-кейсов, которые можно многократно ис- пользовать на разных проектах.
• Возможно повторение части тест- кейсов, уже выполненных разра- ботчиками.
• Высока вероятность того, что часть возможных вариантов пове- дения приложения останется не- протестированной.
• Для разработки высокоэффектив- ных тест-кейсов необходима каче- ственная документация.
• Диагностика обнаруженных де- фектов более сложна в сравнении с техниками метода белого ящика.
• В связи с широким выбором тех- ник и подходов затрудняется пла- нирование и оценка трудозатрат.
• В случае автоматизации могут по- требоваться сложные дорогостоя- щие инструментальные средства.
Метод серого
ящика
Сочетает преимущества и недостатки методов белого и чёрного ящика.
2.3.2.4.
Классификация по степени автоматизации
Ручное тестирование (manual testing
126
)
— тестирование, в котором тест- кейсы выполняются человеком вручную без использования средств автома- тизации. Несмотря на то что это звучит очень просто, от тестировщика в те или иные моменты времени требуются такие качества, как терпеливость, наблюдательность, креативность, умение ставить нестандартные экспери- менты, а также умение видеть и понимать, что происходит «внутри системы», т.е. как внешние воздействия на приложение трансформируются в его внут- ренние процессы.
126
Manual testing is performed by the tester who carries out all the actions on the tested application manually, step by step and indicates whether a particular step was accomplished successfully or whether it failed. Manual testing is always a part of any testing effort. It is especially useful in the initial phase of software development, when the software and its user interface are not stable enough, and beginning the automation does not make sense. (SmartBear TestComplete user manual, https://sup- port.smartbear.com/testcomplete/docs/testing-with/deprecated/manual/index.html
)


Подробная классификация тестирования
Тестирование программного обеспечения. Базовый курс.
© EPAM Systems, 2015–2023
Стр: 76/301
Автоматизированное тестирование (automated testing, test automation
127
)
— набор техник, подходов и инструментальных средств, позволяющий исклю- чить человека из выполнения некоторых задач в процессе тестирования.
Тест-кейсы частично или полностью выполняет специальное инструменталь- ное средство, однако разработка тест-кейсов, подготовка данных, оценка ре- зультатов выполнения, написания отчётов об обнаруженных дефектах — всё это и многое другое по-прежнему делает человек.
Некоторые авторы
113
говорят отдельно о «полуавтоматизирован- ном» тестировании как варианте ручного с частичным использова- нием средств автоматизации и отдельно об «автоматизированном» тестировании (относя туда области тестирования, в которых компь- ютер выполняет ощутимо большой процент задач). Но т.к. без уча- стия человека всё равно не обходится ни один из этих видов тести- рования, не станем усложнять набор терминов и ограничимся одним понятием «автоматизированное тестирование».
У автоматизированного тестирования есть много как сильных, так и слабых сторон (см. таблицу 2.3.b).
Таблица 2.3.b — Преимущества и недостатки автоматизированного тестирования
Преимущества
Недостатки
• Скорость выполнения тест-кейсов может в разы и на порядки превосходить возможно- сти человека.
• Отсутствие влияния человеческого фактора в процессе выполнения тест-кейсов (устало- сти, невнимательности и т.д.).
• Минимизация затрат при многократном вы- полнении тест-кейсов (участие человека здесь требуется лишь эпизодически).
• Способность средств автоматизации выпол- нить тест-кейсы, в принципе непосильные для человека в силу своей сложности, скоро- сти или иных факторов.
• Способность средств автоматизации соби- рать, сохранять, анализировать, агрегиро- вать и представлять в удобной для восприя- тия человеком форме колоссальные объёмы данных.
• Способность средств автоматизации выпол- нять низкоуровневые действия с приложе- нием, операционной системой, каналами пе- редачи данных и т.д.
• Необходим высококвалифицированный пер- сонал в силу того факта, что автоматизация
— это «проект внутри проекта» (со своими требованиями, планами, кодом и т.д.)
• Высокие затраты на сложные средства авто- матизации, разработку и сопровождение кода тест-кейсов.
• Автоматизация требует более тщательного планирования и управления рисками, т.к. в противном случае проекту может быть нане- сён серьёзный ущерб.
• Средств автоматизации крайне много, что усложняет проблему выбора того или иного средства и может повлечь за собой финансо- вые затраты (и риски), необходимость обуче- ния персонала (или поиска специалистов).
• В случае ощутимого изменения требований, смены технологического домена, перера- ботки интерфейсов (как пользовательских, так и программных) многие тест-кейсы стано- вятся безнадёжно устаревшими и требуют создания заново.
Если же выразить все преимущества и недостатки автоматизации тестиро- вания одной фразой, то получается, что автоматизация позволяет ощутимо увели- чить тестовое покрытие (test coverage
128
), но при этом столь же ощутимо увеличи- вает риски.
127
Test automation is the use of software to control the execution of tests, the comparison of actual outcomes to predicted outcomes, the setting up of test preconditions, and other test control and test reporting functions. Commonly, test automation involves automating a manual process already in place that uses a f ormalized testing process. (Ravinder Veer Hooda, “An Automation of
Software Testing: A Foundation for the Future”)
128
1   ...   6   7   8   9   10   11   12   13   ...   38