ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 26.07.2024

Просмотров: 389

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

где K x1x2 = kx1x2 σ1σ2 – взаимный корреляционный момент; kx1x2 – коэффициент

корреляции.

Следовательно, СКО суммы этих величин

σ

= σ2

+ 2k

x x

 

σ σ

2

+ σ2 .

 

1

 

2

1

2

 

 

 

 

1

 

 

 

Если случайные величины не коррелированы, то kx1 x2 = 0 и

σΣ = σ12 + σ22 ,

т. е. в подобном случае для определения оценки результирующей погрешности в виде σΣ суммируемые составляющие должны быть оценены также средними

квадратическими отклонениями σ1, σ2 и эти оценки должны суммироваться

геометрически.

Если x1 и x2 жестко и положительно коррелированы ( kx1x2 = +1), т. е. x2

принимает значения, строго пропорциональные x1, то всякое положительное отклонение x1 сопровождается также положительным отклонением x2 и отклонение

(x1 + x2 ) = (x1 ) + (x2 ) .

Это формально следует из формулы для σΣ при kx1x2 = +1, так как

 

σ

Σ

= σ2

+ 2σ σ

+ σ2

= σ + σ

2

.

 

 

1

1

2

 

2

1

 

Если при возрастании

x1 значения

x2,

наоборот,

линейно убывают, тогда

kx x

= −1 и

 

 

 

 

 

 

 

 

 

1

2

 

 

 

 

 

 

 

 

 

σΣ = σ12 2σ1σ2 + σ22 = σ1 − σ2 .

Таким образом, оценки жестко коррелированных погрешностей ( kx1x2 = ±1) должны суммироваться алгебраически с учетом их знаков.

Практические правила расчетного суммирования составляющих результирующей погрешности.

1.В качестве исходных данных задать оценки всех отдельных составляющих погрешности.

2.Для каждой составляющей погрешности найти по исходным данным ее СКО. Для этого необходимо знать вид закона распределения каждой из составляющих.

3.Разделить составляющие погрешности на аддитивные и мультипликативные. (Аддитивные и мультипликативные составляющие суммируются отдельно.)

4.Из суммируемых составляющих выделить группы сильно коррелированных между собой составляющих погрешности, и внутри этих групп выполнить алгебраическое суммирование этих оценок:

95


если величины положительно коррелированы ( kx1x2 = +1), то σΣ = σ1 + σ2 ;

если величины отрицательно коррелированы ( kx1x2 = −1), то σΣ = σ1 − σ2 .

Следует заметить, что вычислить точные значения коэффициентов взаимной корреляции составляющих погрешности, как правило, чрезвычайно трудно. Поэтому по степени коррелированности разделяют погрешности на два вида –

сильно

коррелированные

(

kx x

2

[0,7;1]),

и

слабо

коррелированные

 

 

 

1

 

 

 

 

( kx1 x2 [0; 0,7]). К первым относят погрешности, вызванные одной и той же

причиной (общим источником питания, одинаковыми изменениями температуры и т. д.), когда тесные корреляционные связи просматриваются логически. Для таких погрешностей принимают kx1x2 = ±1. Погрешности, между которыми такие

взаимосвязи не обнаруживаются, относят к некоррелированным, и для них принимают kx1 x2 = 0.

5. После п. 4 суммарные по группам и оставшиеся вне групп погрешности считают некоррелированными и их складывают геометрически

n

σΣ2 = σi2 .

i=1

Для определения СКО в начале диапазона измерений (при x = 0) суммируют только аддитивные составляющие, в конце диапазона – суммируют все аддитивные и мультипликативные составляющие.

При этом пользуются правилом пренебрежения малыми составляющими при суммировании погрешностей. Можно пренебречь: одной малой составляющей, если она в 5 раз меньше наибольшей из суммируемых составляющих; двумя составляющими, если они в 6 раз меньше; тремя составляющими, если они в 7 раз меньше; четырьмя, если они в 8 раз меньше наибольшей. Применять это правило можно только после суммирования коррелированных составляющих и приведения числовых значений погрешностей к СКО.

6. Выразить

результирующую погрешность в виде энтропийного э

или

доверительного

д интервала неопределенности. Переход к энтропийному

э

или доверительному д интервалу осуществить по формулам:

 

 

э = kΣσΣ и

д = tΣσΣ ,

 

где kΣ – энтропийный коэффициент, tΣ – квантильный множитель.

7. При определении энтропийного значения погрешности указать соответствующее приближенное значение доверительной вероятности в соответствии с формулой

~

+ 0,1818

ε ≈ 0,899 + κ

2

5,5,

(8.1)

Pд = 0,899

 

где ε – эксцесс, κ – контрэксцесс. Эксцесс ε определяется по выражению

96


ε = μ4 σ4 ,

где μ4 – четвертый центральный момент, характеризующий протяженность распределения,

μ4 = (x mx )4 p(x)dx .

−∞

Контрэксцесс равен

κ=1 ε .

8.2.Методика расчета энтропийного значения результирующей погрешности

Методика расчета энтропийного значения результирующей погрешности заключается в следующем:

1.Для каждой из составляющих результирующей погрешности найти ее СКО

σi и принять закон распределения вероятностей с известными значениями энтропийного коэффициента ki, эксцесса εi или контрэксцесса κi.

2.Выполнить процедуру суммирования СКО составляющих погрешности:

для коррелированных составляющих погрешности СКО складываются алгебраически;

для некоррелированных составляющих погрешности СКО складываются геометрически.

3.Определить энтропийный коэффициент результирующего закона распределения:

Для жестко коррелированных погрешностей законы распределения каждой из этих погрешностей повторяют форму закона распределения вероятностей вызывающей их общей величины. Сумма жестко коррелированных погрешностей распределена по тому же самому закону, так как мгновенные значения всех ее составляющих совпадают по знаку и пропорциональны друг другу.

Таким образом, при суммировании жестко коррелированных погрешностей деформации законов распределения не происходит, и энтропийный коэффициент распределения суммы равен энтропийному коэффициенту составляющих.

Задача определения энтропийного коэффициента композиции некоррелированных погрешностей по энтропийным коэффициентам и относительным весам дисперсий каждого из законов распределения в суммарной погрешности достаточно сложна. Ее аналитическое решение известно только для частных случаев суммирования двух нормальных, двух равномерных, и равномерного и нормального распределения.

– При суммировании двух случайных величин, распределенных нормально, их композиция представляет собой также нормальное

97


распределение. Поэтому энропийный коэффициент композиции равен энтропийным коэффициентам суммируемых составляющих.

– При суммировании двух равномерно распределенных случайных величин энтропийный коэффициент результирующего распределения

kΣ = 3eC (1 + C2 ) ,

где C = σ1 σ2 при σ1 ≤ σ2 или C = σ2 σ1 при σ2 ≤ σ1 .

– Если одна составляющая погрешности распределена равномерно, а другая – нормально, то строгое решение задачи существенно осложняется. Аппроксимирующее выражение для энтропийного коэффициента такой композиции

kΣ = 3(πe3) pн (1 + pн) ,

где pн = σ2н(σ2р + σ2н ), σр и σн – СКО суммируемых, соответственно,

равномерной и нормальной составляющих.

4. Вычислить энтропийное значение результирующей погрешности по формуле

э = kΣσΣ .

Сводка зависимостей энтропийного коэффициента от соотношения суммируемых составляющих и их энтропийных коэффициентов может быть представлена в виде семейства графиков. Эти зависимости не выражаются аналитическими соотношениями, они получены численным решением для композиций многих видов законов распределений. Результаты решений представлены на рис. 8.1а, б, где по оси абсцисс отложены значения

относительного веса дисперсии второго σ22 из суммируемых распределений в полной дисперсии p = σ22 (σ12 + σ22 ), по оси ординат kΣ – значение энтропийного коэффициента образующейся при этом композиции.

На рис. 8.1а изображены графики значений энтропийных коэффициентов для различных композиций законов распределений:

горизонтальная прямая 1 соответствует композиции двух нормальных распределений, значение kΣ = 2,066 при любых значениях веса p;

при суммировании равномерно распределенной погрешности (k = 1,73) с нормально распределенной (k = 2,066) изменение kΣ соответствует кривой 2;

98


а)

б)

Рис. 8.1. Сводка зависимостей энтропийного коэффициента от соотношения суммируемых составляющих

– если суммируемые погрешности распределены равномерно, то изменение kΣ соответствует кривой 3, которая начинается при p = 0 и kΣ =1,73 , достигает

максимума при p = 0,5 и kΣ = 2,02 , заканчивается при p = 1 и kΣ =1,73 ;

– при суммировании арксинусоидально распределенной составляющей и равномерно распределенной составляющей погрешностей изменение kΣ

99

соответствует кривой 4, которая начинается при p = 0 и kΣ =1,11, достигает максимума kΣ =1,98 и заканчивается при p = 1 и kΣ =1,73 ;

– при суммировании двух арксинусоидально распределенных погрешностей kΣ изменяется согласно кривой 5 от kΣ =1,11 при p = 0 до kΣ =1,88 при p = 0,5 и

далее вновь убывает до kΣ =1,11 при p = 1. На рис. 8.1б:

кривая 1 соответствует суммированию равномерного с дискретным двузначным распределением;

кривая 2 – суммированию треугольного с дискретным двузначным распределением;

кривая 3 – суммированию нормального с дискретным двузначным распределением;

кривая 4 – суммированию нормального с арксинусоидальным распределением;

кривая 5 – суммированию нормального с равномерным распределением;

кривая 6 – суммированию нормального с экспоненциальным распределением.

Несмотря на то, что кривые рис. 8.1а, б построены только для нескольких видов законов распределения, их сетка настолько густа, что позволяет на глаз интерполировать значения kΣ для композиций любых законов распределения с

известными энтропийными коэффициентами.

Однако при расчете суммарной погрешности на компьютере предпочтительнее использовать вместо значений, взятых с рис. 8.1а, б, приближенные формулы, аппроксимирующие эти кривые. Так семейство симметричных кривых 1, 3, 5 (см. рис. 8.1а) с погрешностью 1,5 % при k 1,8 и с погрешностью 2,5 % при

1,11 k <1,8 описывается соотношением

kΣ = k +1,15(kн k)0,75[p(1 p)]0,21k1,15 ,

где k – энтропийный коэффициент суммируемых составляющих; p и (1 – p) – веса суммируемых составляющих; kн = πe2 = 2,066 – энтропийный коэффициент

нормального распределения.

Несимметричные кривые вида кривой 4 (см. рис. 8.1а), начинающиеся при k = k1 и оканчивающиеся при k = k2 , где k1 < k2 , с погрешностью 2 %

описываются соотношением

 

 

 

 

 

k

Σ

= k + (k

2

k )[p + a

0

pa1 (1 p)a2 ],

 

 

 

 

 

 

 

 

 

 

1

 

 

1

 

 

 

 

 

 

 

 

 

 

 

где p – вес составляющей с k = k1 ; (1 – p) – вес составляющей с k = k2 ;

a

0

= 0,817(1 + k

k

2

) ;

a

= 0,75(k

k

2

)4,5

;

 

a

2

=1,23(k

k

2

)2 .

 

1

 

 

 

1

 

 

 

1

 

 

 

 

 

 

1

 

 

Несимметричные

кривые

вида

кривой

2

(см. рис. 8.1а) и кривых 4–6

(см. рис. 8.1б) для

суммирования

 

нормально

распределенных погрешностей

с погрешностями,

распределенными

 

с

энтропийным

коэффициентом k,

100