Файл: Учебнометодическое пособие знакомит студентов с основными понятиями о.doc

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 12.12.2023

Просмотров: 494

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

ВВЕДЕНИЕУчебно-методическое пособие знакомит студентов с основными понятиями о теории вероятностей, случайных процессах, статистическом оценивании и проверке гипотез, статистических методах обработки экспериментальных данных, математических методах, принятых в биологических исследованиях.Пособие состоит из четырех разделов: Введение в теорию вероятностей. Основные понятия и термины статистики. Статистические методы обработки экспериментальных данных. Компьютерная обработка данных анализа в специализированной программе EasyStatistics. Введение в теорию вероятностей дает представление о случайных событиях, вероятности и ее свойствах, случайных величинах и основных теоретических распределениях случайных величин.При изучении второго раздела разбираются понятия о совокупности и выборке, классификации признаков, дается представление о схемах научного эксперимента и научных гипотезах, достоверности и надежности результатов.Третий раздел знакомит со статистическими методами описания групп, способами их сравнения в зависимости от характера распределения исходных данных. Большое внимание уделено корреляционно-регрессионному анализу, лежащему в основе многомерных методов анализа. Разбираются широко распространенные в биологических исследованиях методы оценки динамики, цикличности и классификации. При описании каждого метода описываются условия, необходимые для проведения статистической обработки, и возможные трудности в интерпретации полученных показателей. Четвертый раздел посвящен практическому применению методов статистической обработки данных с помощью специализированной программы «Статистическая обработка медико-биологических данных» (EasyStatistics). Данная программа разработана автором пособия (Роспатент №2003612171) и предназначена для статистической обработки данных биологических и медицинских исследований и, в первую очередь, нацелена на выполнение курсовых и дипломных работ студентами. В то же время это не замена уже существующим мощным статистическим пакетам, таким как Statistica, а скорее дополнение, помогающее оценить возможности манипулирования данными и принципы работы с основными статистическими методами. Каждый раздел содержит список вопросов и заданий для самопроверки.Пособие также содержит список учебно-методических материалов, рекомендуемых для самостоятельной работы студентов.РАЗДЕЛ I. ВВЕДЕНИЕ В ТЕОРИЮ ВЕРОЯТНОСТЕЙЗакономерности, которым подчиняются случайные события, изучаются в разделах математики, которые называются теорией вероятностей и математической статистикой.Понятие о случайном событииОпыт, эксперимент, на­блюдение явления называются испытанием. Испытаниями, напри­мер, являются: бросание монеты, выстрел из винтовки, бросание игральной кости (кубика с нанесенными на каждую грань числом очков — от одного до шести).Результат, исход испытания называется событием. Для обозначения событий используются большие буквы ла­тинского алфавита: А, В, С и т. д.Два события называются совместимыми, если появление одного из них не исключает появление другого в одном и том же испытании.Испытание: однократное бросание игральной кости. Событие А — появление четырех очков. Событие В— появле­ние четного числа очков. События Аи В совместимые.Два события называются несовместимы­ми, если появление одного из них исключает появление другого в одном и том же испытании.Испытание: однократное бросание монеты. Собы­тие А — выпадение герба, событие В — выпадение цифры. Эти события несовместимы, так как появление одного из них исключает появление другого.Несовместимость более чем двух событий означает их попарную несовместимостьИспытание: однократное бросание игральной кости. Пусть события А1, А2, А3, А4, А5, А6 соответственно выпа­дение одного очка, двух, трех и т. д. Эти события являются несов­местимыми..Два события А и В называются проти­воположными, если в данном испытании они несовместимы и одно из них обязательно происходит.Событие, противоположное событию А, обозначают через А.Испытание: бросание монеты. Событие А — выпадение герба, событие В — выпадение цифры. Эти события противоположны, так как исходами бросания могут быть лишь они, и появление одного из них исключает появление другого, т. е. А = В или А = В.Событие называется достоверным, если в данном испытании оно является единственно возможным его ис­ходом, и невозможным, если в данном испытании оно заведомо не может произойти.Испытание: извлечение шара из урны, в которой все шары белые. Событие А — вынут белый шар — достоверное событие; событие В — вынут черный шар — невозможное событие.Достоверное и невозможное события в данном испытании являются противоположными.Событие А называется случайным, если оно объективно может наступить или не наступить в данном испы­тании.Выпадение шести очков при броса­нии игральной кости — случайное событие. Оно может наступить, но может и не наступить в данном испытании.Прорастание девяноста восьми зерен пшеницы из ста — случайное событие. Это событие может наступить, но, может быть, прорастет зерен больше или меньше.Классическое определение вероятностиВсякое испыта­ние влечет за собой некоторую совокупность исходов — резуль­татов испытания, т. е. событий. Во многих случаях возможно пере­числить все события, которые могут быть исходами данного испы­тания.Говорят, что совокупность событий обра­зует полную группу событий для данного испытания, если его ре­зультатом обязательно становится хотя бы одно из них.События Ul, U2, ..., Un , образующие полную группу попарно несовместимых и равновозможных собы­тий, будем называть элементарными событиями.Вернемся к опыту с подбрасыванием игральной кости. Пусть Ui — событие, состоящее в том, что кость выпала гранью с цифрой i. Как уже отмечалось, события U1, U2, …, U6 образуют полную группу попарно несовместимых событий. Так как кость предполагается однородной и симметрич­ной, то события U1, U2, …, U6 являются и равновозможными, т. е. элементарными.Событие А называется благоприят­ствующим событию В, если наступление события А влечет за собой наступление события В.Пусть при бросании игральной кости события U2, U4 и U6 — появление соответственно двух, четырех и шести очков и А — событие, состоящее в появлении четного очка; собы­тия U2, U4 и U6 благоприятствуют событию А.Классическое определение вероятностиВероятностью Р (А) события А называется отношение m/n числа элементарных событий, благоприятствующих событию А, к числу всех элементарных событий, т. е. Вычислим вероятность выпадения герба при одном бросании монеты. Очевидно, событие А — выпадение герба и событие В — выпадение цифры — образуют полную группу несовместимых и равновозможных событий для данного испытания. Значит, здесь n = 2. Событию А благоприятствует лишь одно со­бытие — само А, т. е. здесь m = 1. Поэтому Р(А) = 0,5.Найти вероятность того, что при бросании иг­ральной кости выпадет число очков, делящееся на 2 (событие А). Число элементарных событий здесь 6. Число благоприятст­вующих элементарных событий 3 (выпадение 2, 4 и 6). Поэтому .Из приведенного классического определения вероятности вы­текают следующие ее свойства.1. Вероятность достоверного события равна единице.Действительно, достоверному событию должны благоприят­ствовать все n элементарных событий, т. е. m = n и, следовательно, P(A)=1.2. Вероятность невозможного события равна нулю. В самом деле, невозможному событию не может благоприят­ствовать ни одно из элементарных событий, т. е. m = 0, откуда P(A)=0.3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей.Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных событий. Поэтому в этом случае 0 < m < n , значит, 0 <= Р (А)<= 1.Относительная частота.Статистическое определение ве­роятности.Классическое определение вероятности не являет­ся пригодным для изучения произвольных случайных событий. Так, оно неприемлемо, если результаты испытания не равновозможны. Например, при бросании неправильной игральной кости выпадение ее различных граней не равновозможно.В таких случаях используется так называемое статистическое определение вероятности.Пусть произведено n испытаний, при этом некоторое событие А наступило m раз. Число m называется абсолютной часто­той (или просто частотой) события А, а отношение называется относительной частотой события А.При транспортировке из 10 000 арбузов испор­тилось 26. Здесь m= 26 — абсолютная частота испорченных ар­бузов, а P*(A)=0,0026 относительная.Результаты многочисленных опытов и наблюдений помогают заключить: при проведении серий из n испытаний, когда число n сравнительно мало, относительная частота Р*(A) принимает зна­чения, которые могут довольно сильно отличаться друг от друга. Но с увеличением n — числа испытаний в сериях — относитель­ная частота Р*(А) приближается к некоторому числу Р(А), стабилизируясь возле него и принимая все более устойчивые значения.Было проведено 10 серий бросаний монеты, по 1000 бросаний в каждой. Относительные частоты выпадения герба оказались равными 0,501; 0,485; 0,509; 0,536; 0,485; 0,488; 0,500;0,497; 0,494; 0,484. Эти частоты группируются около числа 0,5Статистическое определение вероят­ностиВероятностью события А в данном испытании называется число Р (А), около которого группируются значения относительной частоты при больших n.По официальным данным шведской статистики, относительные частоты рождения девочек по месяцам 2007 г. харак­теризуются следующими числами (расположены в порядке сле­дования месяцев, начиная с января): 0,486; 0,489; 0,490; 0,471; 0,478; 0,482; 0,462; 0,484; 0,485; 0,491; 0,482; 0,473. Эти частоты группируются около числа 0,482.Таким образом, относительная частота события приближенно совпадает с его вероятностью, если число испытаний достаточно велико. Геометрическая вероятностьДо этого мы рассматривали возможные эксперименты, в которых реализуется конечное множество событий. Однако существует большое количество задач, для которых такое предположение не является справедливым. При решении таких задач предполагается, что множество реализуемых событий может быть представлено в виде некоторой геометрической фигуры, а конкретное событие соответствует точке заданной части этой фигуры. В качестве события A можно рассмотреть любую подобласть области Ω. Например, фигуру внутри исходной фигуры на плоскости или отрезок, лежащий внутри исходного отрезка на прямой.Заметим, что элементарным событием на таком множестве может быть только точка. В самом деле, если множество содержит более одной точки, его можно разбить на два непустых подмножества. Следовательно, такое множество уже неэлементарно.Теперь определим вероятность. Тут тоже все легко: вероятность «попадания» в каждую конкретную точку равна нулю. Иначе получим бесконечную сумму одинаковых положительных слагаемых (ведь элементарные события равновероятны), которые в сумме больше P(Ω) = 1.Итак, элементарные события для бесконечных областей Ω — это отдельные точки, причем вероятность «попадания» в любую из них равна нулю. Но как искать вероятность неэлементарного события, которое, подобно Ω, содержит бесконечное множество точек? Вот мы и пришли к определению геометрической вероятности.Геометрическая вероятность события A, являющегося подмножеством множества Ω точек на прямой или плоскости — это отношение площади фигуры A к площади всего множества Ω.Мишень имеет форму окружности. Какова вероятность попадания в ее правую половину, если попадание в любую точку мишени равновероятно? При этом промахи мимо мишени исключены. Взглянем на картинку: нас устроит любая точка из правого полукруга. Очевидно, площадь S(A) этого полукруга составляет ровно половину площади всего круга, поэтому имеем P=0,5Студент и студентка договариваются о встрече на заданном промежутке времени Т. Тот, кто приходит первым ожидает другого в течение времени tВ качестве множества элементарных событий рассмотри квадрат, состоящий из точек (x,y), 0<=x<=T, 0<=y<=T, где x и у время прихода его и ее.Благоприятсвующие события образуют точки, для которых |x-y|<t, т.е. точки квадрата между прямыми y=x-t, y=x+t. Площадь получающейся фигуры равна T2-(T-t)2, а площадь всего квадрата – Т2. Отсуда искомая вероятность Свойства вероятностейСложение вероятностей несовместимых событийСуммой событий А и В называется собы­тие С = А + В, состоящее в наступлении по крайней мере одного из событий А или В.Стрельба двух стрелков (каждый де­лает по одному выстрелу). Событие А — попадание в мишень пер­вым стрелком, событие В — попадание в мишень вторым стрелком. Суммой событий А и В будет событие С = А + В, состоящее в попадании в мишень по крайней мере одним стрелком.Произведением событий А и В назы­вается событие С = АВ, состоящее в том, что в результате испыта­ния произошло и событие А, и событие В.Аналогично произведением конечного числа событий A1 А2, …, Ak называется событие А = А1 * A2 * ... * Ak, состоящее в том, что в результате испытания произошли все указанные события.В условиях предыдущего примера произведением событий А и В будет событие С = АВ, состоящее в попадании в мишень двух стрелков.Из определения непосредственно следует, что АВ = ВА.Вероятность суммы двух несовместимых событий А и В равна сумме вероятностей этих событий:Р (А + В) = Р (А) + Р (В). Следствие. Сумма вероятностей противоположных собы­тий А и А равна единице:Р(А) + Р(А

Коэффициент сопряженности Чупрова. Дальнейшим обоб-щением четырехпольных таблиц являются многопольные таблицы, для которых сопряженность наиболее часто оценивается по формуле, предложенной русским статистиком А. А. Чупровым. Прежде чем приводить ее рассмотрим несколько реальных ситуаций, когда такая оценка может потребоваться. Известно, например, что окраска тюльпанов связана с наличием определенных пигментов. Может представлять интерес вопрос о том, с какими именно пигментами преимущественно связана та или иная окраска цветка. Или другой пример. Окружающая гнездо полярной крачки обстановка может представлять собой зеленые растения, растения и гальку, пестрые камешки и т. д. При этом можно наблюдать самые разные по качеству гнезда: от его отсутствия до очень хорошо сделанного. В этом случае желательно знать, связано ли качество гнезда с какой-то одной или несколькими характеристиками окружающей среды. Общим для этих и других подобных задач является то, что в распоряжении экспериментатора оказываются данные о некотором множестве объектов, обладающих двумя признаками, причем каждый из признаков может иметь несколько градаций. В этом случае , где m - число разновидностей явления Х; k - число разновидностей явления Y, n – общее число объектов (m*k). Независимо то того, что каждый из описательных признаков, несмотря на разницу в численности его разновидностей, можно свести к альтернативному - только с двумя разновидностями, довольно часто в практике возникает необходимость работать с описательными признаками более двух разновидностей. В таких случаях необходимо при вычислении коэффициента корреляции составлять так называемую корреляционную таблицу (где X1,X2,...Xn - обозначают разновидность одного признака, а Y1, Y2... Yn - разновидности другого).При наличии такой схемы коэффициент корреляции находят по формуле: , где - коэффициент связи, m- число разновидностей явления Х; k - число разновидностей явления Y.Данный метод пригоден также и для экспрессной оценки связи между количественными (например возраст) и качествен-ными (например брак) параметрами.На практике (особенно в зоологии и ботанике) довольно часто встречаются другие меры измерения связи.



Итак, строго говоря, метод корреляциооно-регрессионного анализа не может объяснить роли факторных признаков в создании результативного признака. Это очень серьезное ограничение метода, о котором не следует забывать.

Следующий общий вопрос - это вопрос о “чистоте” измерения влияния каждого признака. Группировка совокупности по одному факторному признаку может отразить влияние именно данного признака на результативный признак при условии, что все другие факторы не связаны с изучаемым, а случайные отклонения и ошибки взаимопогасились в большой совокупности. Если же изучаемый фактор связан с другими факторами, влияющими на результативный признак, будет получена не “чистая” характеристика влияния только одного фактора, а сложный комплекс, состоящий как из непосредственного влияния фактора, так и из его косвенных влияний, через его связь с другими факторами и их влияние на результативный признак. Данное положение полностью относится и к парной корреляционной связи. Главным достоинством корреляционно-регрессионного метода заключается в возможности разделить влияние комплекса факторных признаков, анализировать различные стороны сложной системы взаимосвязей. Корреляционный метод при объеме совокупности около 100 единиц позволяет вести анализ системы с 8-10 факторами и разделить их влияние.

Необходимо сказать и о других задачах применения метода, имеющих не формально математических, а содержательный характер.

1. Задача выделения важнейших факторов, влияющих на результативный признак (т.е. на вариацию его значений в совокупности). Эта задача решается в основном на базе мер тесноты связи факторов с результативным признаком.

2. Задача прогнозирования возможных значений результативного признака при задаваемых значениях факторных признаков. Такая задача решается путем подстановки ожидаемых, или планируемых, или возможных значений факторных признаков в уравнение связи и вычисления ожидаемых значений результативного признака. Приходится решать и обратную задачу: вычисление необходимых значений факторных признаков для обеспечения планового или желаемого значения результативного признака. Эта задача обычно не имеет одного решения.

При решении каждой из названных задач нужно учитывать особенности и ограничения корреляционного метода. Всякий раз необходимо специально обосновывать возможность причинной интерпретации уравнения как объясняющего связь между вариацией фактора и результата. Трудно обеспечить раздельную оценку влияния каждого из факторов. В этом отношении корреляционные методы глубоко противоречивы. С одной стороны, их идеал - измерения чистого влияния каждого фактора. С другой стороны, такое измерение возможно при отсутствии связи между факторами и случайной вариации признаков. А тогда связь является функциональной, и корреляционные методы анализа излишни. В реальных системах связь всегда имеет статистический характер.

Множественная регрессия

Регрессионный анализ, по-видимому, наиболее широко используемый метод многомерного статистического анализа. Различные аспекты регрессионного анализа подробно рассмотрены в специальной литературе32. Термин ''множественная регрессия'' объясняется тем, что анализу подвергается зависимость одного признака (результирующего) от набора независимых (факторных) признаков. Разделение признаков на результирующий и факторные осуществляется исследователем на основе содержательных представлений об изучаемом явлении (процессе). Все признаки должны быть количественными (хотя допускается и использование дихотомических признаков, принимающих лишь два значения, например 0 и 1).

Для корректного использования регрессионного анализа требуется выполнение определенных условий. Факторные признаки должны быть некоррелированы (отсутствие мультиколлинеарности), они предполагаются замеренными точно и в их измерениях нет автокорреляции, т.е. значения признаков у одного объекта не должны зависеть от значений признаков у других объектов. Результирующий признак должен иметь постоянную дисперсию (Напомним определения основных показателей рассеяния (разброса) количественных признаков: дисперсии (D), среднеквадратического отклонения (σ) и коэффициента вариации (V).



здесь п - число объектов; xj- значение признака xn для j -го объекта; - среднее значение признака X; . Чем сильнее степень разброса значений признака X, тем больше значения D, σ и V , Коэффициент вариации V - сопоставимая величина для признаков разной природы, его значения выражаются в процентах. Мы не рассматриваем здесь известный вопрос о форме распределения. Отметим лишь, что для признаков, распределение которых близко к нормальному, некоррелированность влечет независимость. Кроме того, при изучении связей таких признаков можно корректно вычислить выборочные оценки, построить доверительные интервалы.), не зависящую от факторных признаков (наличие гомоскепастичности). Число объектов должно превосходить число признаков в несколько раз, чтобы параметры уравнения множественной регрессии были статистически надежными. Исследуемая совокупность должна быть в достаточной мере качественно однородной. Существенные нарушения этих условий приводят к некорректному использованию моделей множественной регрессии.



При построении регрессионных моделей прежде всего возникает вопрос о виде функциональной зависимости, характеризующей взаимосвязи между результирующим признаком и несколькими признаками-факторами. Выбор формы связи должен основываться на качественном, теоретическом и логическом анализе сущности изучаемых явлений.

Чаще всего ограничиваются линейной регрессией, т.е. зависимостью вида:



где Y - результирующий признак; x1, …, xm - факторные признаки; b1,…,bm- коэффициенты регрессии; а - свободный член уравнения; - ''ошибка" модели.

Уравнение является линейным по коэффициентам bj и в общем случае нелинейным по признакам Xj, где j=1,2,…(в уравнении (1) вместо Xj могут стоять Xj2 log Xj и т.д.). Вопрос о том, нужны ли преобразования исходных факторов Xj, а если нужны, то какие, подробно рассматривается в литературе33 . Наиболее распространенным на практике является логарифмическое преобразование (log X). Его используют, если наибольшее значение Х вдвое (или больше) превышает наименьшее при высокой корреляции между Х и Y (rXY>0,9). Если максимальное значение X в 20 или более раз превосходит минимальное, то это преобразование необходимо почти всегда.

В большинстве приложений регрессионной модели признаки берут в исходном виде, т.е. уравнение получается линейным и по признакам X1,...,Xm. При использовании нелинейных преобразований исходных признаков регрессионную модель нередко называют нелинейной регрессией.

Коэффициенты регрессии bj определяются таким образом, чтобы рассогласования ε, характеризующие степень приближения реальных значений результирующего признака Y с помощью линейной модели были минимальными, Это достигается на основе метода наименьших квадратов.

Если уравнение множественной регрессии (l) уже построено, то в вариации результирующего признака Y можно выделить часть, обусловленную изменениями факторных признаков, т.е. объясненную с помощью регрессионной модели, и остаточную, необъясненную часть. Очевидно, чем большую часть вариации признака
V объясняет уравнение регрессии, тем точнее по значениям факторных признаков можно восстановить значение результирующего, и, следовательно, тем теснее связь между ними. Естественной мерой тесноты этой связи служит отношение дисперсии признака Y, объясненной регрессионной моделью, к общей дисперсии признака Y :



Величина R называется коэффициентом множественной корреляции и определяет степень тесноты связи результирующего признака Y со всем набором факторных признаков X1,...,Xm. В случае парной регрессии (т.е. при наличии всего одного фактора X1) совпадает с обычным коэффициентом парной корреляции rx,y. (Коэффициент корреляции rx,y - статистическая мера тесноты линейной связи пары признаков X и Y. Значения rx,y находятся в пределах [-1;+1]; чем ближе rx,y к , тем теснее связь данной пары признаков, тем ближе она к функциональной. Значения rx,y, близкие к нулю, указывают на отсутствие линейной связи признаков.) Чем ближе R2 к единице, тем точнее описывает уравнение регрессии (1) эмпирические данные.

Укажем содержательный смысл коэффициентов bj, в уравнении множественной линейной регрессии (I): величина bj - показывает, насколько в среднем изменяется результирующий признак Y при увеличении соответствующего фактора Xj на единицу шкалы его измерения при фиксированных (постоянных) значениях других факторов, входящих в уравнение регрессии (т.е. оценивается "чистое" воздействие каждого фактора на результат).

Из этого определения следует, что коэффициенты регрессии bj непосредственно не сопоставимы между собой, так как зависят от единиц измерения факторов Xj. Чтобы сделать эти коэффициенты сопоставимыми, все признаки выражают в стандартизированном масштабе:



где и
, - средние значения признаков Y и Xj, σY и σXiсредние квадратичные отклонения признаков Y и Xi.

Уравнение множественной регрессии, построенное с использованием стандартизованных признаков, называется стандартизованным уравнением регрессии, а соответствующие коэффициенты регрессии - стандартизованными, или β (бэта) - коэффициентами. Между коэффициентами Вj и βi- существует простая связь:



Стандартизованный коэффициент регрессии βi показывает, на сколько средних квадратичных отклонений σY изменяется Y при увеличении Xj - на одно среднеквадратическое отклонение , если остальные факторы, входящие в уравнение регрессии считать неизменными.

Сопоставление факторов можно проводить и не на основе β -коэффициентов, а по их "вкладу" в объясненную дисперсию.

В том случае, когда модель множественной регрессии строится для выборочной совокупности, необходимо проверять значимость коэффициентов регрессии Вj (с этой целью используется t -критерий Стыодента), а также коэффициента множественной корреляции R (этой цели служит F-критерий Фишера). С помощью F-критерия осуществляется проверка достоверности и соблюдения условий, которым должна удовлетворять исходная информация в уравнении множественной регрессии.

Указанные критерии математической статистики используют и при изучении взаимосвязей признаков в генеральной совокупности. В этом случае проверяют, не вызвана ли выявленная статистическая закономерность стечением случайных обстоятельств, насколько она характерна для того комплекса условий, в которых находится обследуемая совокупность. Эта совокупность - не выборка из реальной генеральной совокупности, существование которой лишь предполагается. Имеющиеся данные рассматривают как выборку из некоторой гипотетической совокупности единиц, находящихся в тех же условиях. Гипотетическая совокупность является научной абстракцией. При интерпретации вероятностной оценки результатов сплошного наблюдения (оценки значимости и т.д.) надо учитывать, что в действительности никакой генеральной совокупности нет. Устанавливается не истинность полученного результата для какой-то более обширной генеральной совокупности, а степень его закономерности, свободы от случайных воздействий.