ВУЗ: Омский государственный технический университет
Категория: Книга
Дисциплина: Методы оптимальных решений
Добавлен: 12.02.2019
Просмотров: 13042
Скачиваний: 110
216
Таблица 9.1. Четыре метода возмущений при
j
ij
ij
i
a
g
ω
ω
=
Предположения
в случае согла-
сованности
Задача
Решение
Предположения
в общем случае
Задача
Решение
Арифме-
тическое
среднее
1
ij
g
=
,
1
n
ij
j
g
n
=
=
∑
1
n
i
ij
j
j
a
n
ω
ω
=
=
∑
,
1,
,
i
n
= …
,
A
n
ω
ω
=
1
ij
i
n
ij
i
a
a
ω
=
=
∑
,
1
1
n
i
i
ω
=
=
∑
max
1
n
ij
j
g
λ
=
=
∑
,
1,
,
j
n
= …
max
1
n
i
ij
j
j
a
ω
λ
ω
=
=
∑
,
max
A
ω λ ω
=
Нормализован-
ный правый соб-
ственный вектор;
индекс согласо-
ванности
(
) (
)
max
1
n
n
λ
−
−
Средне-
геомет-
рическое
по стро-
кам
1
ij
g
=
,
1
1
n
ij
j
g
=
=
∏
1
1
n
j
ij
j
i
a
ω
ω
=
=
∏
,
1,
,
i
n
= …
( )
1/ n
i
ij
na
ω
=
1
n
ij
j
g
µ
=
=
∏
1
n
j
ij
j
i
a
ω
µ
ω
=
=
∏
Обычно заменяется на критерий
логарифмических средних квад-
ратов:
2
,
1
min
log
log
n
i
ij
i j
j
a
ω
ω
=
−
=
∑
2
min log
µ
То же, что и в
случае согласо-
ванности; не
имеется меры
согласованности
Гармони-
ческое
среднее
1
ij
g
=
,
1
1
n
j
ij
n
g
=
=
∑
1
1
n
i
ij
j
i
n
a u u
=
=
∑
,
uA nu
=
1
n
ij
i
i
ij
a
u
a
=
=
∑
,
1
1
n
i
i
u
=
=
∑
(обратное первому
случаю наверху)
max
1
1
n
j
ij
g
λ
=
=
∑
max
uA
u
λ
=
Нормализован-
ный левый собст-
венный вектор;
индекс согласо-
ванности
(
) (
)
max
1
n
n
λ
−
−
Средне-
геомет-
рическое
по таб-
лицам
То же, что и для среднегеометрического по строчкам
217
9.6. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
ДЛЯ АППРОКСИМАЦИИ МАТРИЦЫ МАТРИЦЕЙ МЕНЬШЕГО РАНГА
Матрица
(
)
i
j
W
ω ω
=
ранга один получается после решения задачи о собствен-
ном значении. Она является приближением к матрице
( )
ij
A
a
=
. Мы используем тот
факт, что любая матрица может быть аппроксимирована другой матрицей меньшего
ранга. Это делается следующим образом. Во-первых, отметим, что
( )
2
, 1
n
T
ij
i j
tr AA
a
=
=
∑
,
(
)(
)
2
, 1
n
T
ij
i
j
i j
tr A W
A W
a
ω ω
=
−
−
=
−
∑
,
(
)(
)
1
min
min
n
T
i
i
tr A W
A W
α
=
−
−
=
∑
,
где
i
α
– собственные значения матрицы
(
)(
)
T
A W
A W
−
−
.
Теперь для любой матрицы
X
матрица
T
XX
симметрична, и все ее собственные
значения действительны. Кроме того,
X
и
T
X
положительны. Поэтому
T
XX
поло-
жительна и имеет единственное действительное положительное наибольшее собст-
венное значение.
Согласно Джонсону [72]
T
T
AA
P P
≡ Λ
,
T
T
A
Q Q
≡ Λ
где
Λ
– диагональная матрица, элементами которой являются собственные зна-
чения
A
в порядке убывания величины; собственные векторы матрицы
T
AA
явля-
ются соответствующими столбцами матрицы
P
, а собственные векторы матрицы
T
A A
– соответствующими строками матрицы
T
Q
. Наконец, отметим, что наилучшее
приближение методом наименьших квадратов матрицы
A
матрицей ранга
r
может
быть задано выражением
1/ 2
T
r
r
P
Q
Λ
где
r
P
и
T
r
Q
– части
P
и
T
Q
, соответственно связанные с первыми
r
столбцами
Λ
.
Пусть
1
r
=
, тогда
1
P
– собственный вектор матрицы
T
AA
, ассоциируемый с мак-
симальным собственным значением;
1
Q
– собственный вектор матрицы
T
A A
, ассо-
циируемый с максимальным собственным значением. Если, как в согласованном
случае,
1
11
12
1
1
1
1
,
,
,
n
Q
p
p
p
=
…
,
где
(
)
1
11
12
1
,
,
,
n
P
p
p
p
=
…
,
то наше решение в согласованном случае будет наилучшим приближением мето-
дом наименьших квадратов. Это может быть не так в несогласованном случае.
Проиллюстрируем идею наилучшего приближения методом наименьших квадра-
тов на одной из матриц
A
примера из оптики, сформировав
T
AA
,
T
A A
и получим
их собственные значения и собственные векторы. Собственные значения, одинако-
218
вые для обеих матриц, являются диагональными элементами матрицы
Λ
, располо-
женными в порядке убывания. Собственные векторы матрицы
T
AA
совпадают с со-
ответствующими столбцами матрицы
P
, а матрицы
T
A A
– со строками матрицы
T
Q
.
Имеем
1
4
6
7
1/ 4
1
3
4
1/ 6 1/ 3
1
2
1/ 7 1/ 4 1/ 2 1
A
=
;
132,9000
0
1, 4710
0
0,1283
0,0007
Λ =
;
1/ 2
11,528
0
1, 213
0
0,358
0,027
Λ =
;
0,875
0, 475
0,087
0,041
0, 436
0,690
0,568
0,109
0,188
0,512
0, 669
0,505
0,097
0,192
0, 471
0,855
P
−
−
−
=
;
0,089
0,349
0,589
0,723
0,158
0,819
0,146
0,533
0,347
0,341 0,767
0, 418
0,920
0,303 0, 207
0,136
T
Q
−
=
−
−
−
−
−
;
1/ 2
0,796 3,034 5,879 7,586
0,655 2,508 2,931 3, 279
0, 221 1,178 1,554 1,136
0,099 0,516 0,827 0,611
T
P
Q
Λ
=
.
Используя подход, при котором находится максимальное собственное значение,
получаем вектор в качестве оценки основной шкалы отношений. Основываясь на
методе наименьших квадратов, можно получить матрицу
1/ 2
r
r
r
P
Q
Λ
пониженного ран-
га (в нашем случае единичного), которая является наилучшим приближением в
смысле наименьших квадратов к заданной матрице суждения. Естественно, что эта
матрица является лучшим приближением в смысле наименьших квадратов, чем мат-
рица
(
)
i
j
W
ω ω
=
, т. е. если определить
1/ 2
T
r
r
r
F
A P
Q
= − Λ
и
G
A W
= −
и просумми-
ровать квадраты их элементов, то можно легко показать, что первая сумма равна
(
)
s
tr FF
tr
′ = Λ
, где
s
Λ
– диагональная матрица собственных значений, не включен-
ных в
r
Λ
(в нашем случае
r
Λ
– наибольшее собственное значение матрицы
T
A A
и
219
s
tr
Λ
– сумма остальных собственных значений). Можно показать, что
(
) (
)
(
)
T
tr A W
A W
tr FF
′
−
−
≥
, как и должно быть на самом деле. Однако задача за-
ключается в получении вектора шкалы из аппроксимированной методом наимень-
ших квадратов матрицы
1/ 2
T
r
r
r
P
Q
Λ
. Если предположить, что эта матрица почти согла-
сованна, то можно использовать любой из ее столбцов (нормализованных) как при-
ближение к основной шкале. Но теперь возникает вопрос, насколько хорош этот
вектор по сравнению с максимальным собственным вектором. В нашем примере ис-
пользовалось среднеквадратичное отклонение от известных основных шкал в зада-
чах, где желательно было провести сравнение. Как будет показано в приведенном
ниже примере, максимальный собственный вектор явно превосходит вектор, полу-
ченный методом наименьших квадратов (как мы его интерпретировали), если его
рассматривать как приближение к реальности.
Если образовать
r
Λ
, полагая, что все диагональные элементы, кроме первого,
наибольшего из них, равны нулю в
Λ
, то будем иметь
1/ 2
0,90 3,52 5,94 7, 29
0, 45 0,76 2,97 3,64
0,19 0,76 1, 28 1,57
0,10 0,39 0, 66 0,81
T
r
r
r
P
Q
Λ
=
.
Если сформировать
1/ 2
T
r
r
r
r
F
A P
Q
= − Λ
и просуммировать квадраты ее элементов,
получается 1,6, но сумма остальных собственных значений
s
tr
Λ
также равна 1,6.
Полагая сформированную выше матрицу согласованной, для получения вектора
шкалы нормализуем первый столбец и получаем
(
)
0,548; 0, 274; 0,118; 0,061
s
=
. Ин-
тересно отметить, что все другие столбцы дают один и тот же результат, так как
матрица единичного ранга.
Хотя этот вектор не является таким хорошим приближением, как собственный
вектор, находим, что его среднеквадратичное отклонение от фактического вектора
(
)
0,61; 0, 22; 0,11; 0,06
равно 0,00155, по сравнению с 0,00005 для максимального
собственного вектора
(
)
0,62; 0, 22; 0,10; 0,06
ω
=
, соответствующего
max
4,1
λ
=
. Это
показывает, что для данного примера решение, полученное с помощью собственного
вектора, лучше решения методом наименьших квадратов.
Теперь используем элементы
ω
и
s
для формирования матрицы отношений
(
)
i
j
W
ω ω
=
и
(
)
i
j
S
s s
=
. Затем вычислим
A W
−
и, просуммировав квадраты ее
элементов, получим 13,42. Проделав то же самое для
A S
−
, получим 11,45, что
близко к первому результату, однако несколько лучше. Это означает, что аппрокси-
мация методом наименьших квадратов лучше для минимизации суммы квадратов
разностей. Для этого примера можно сделать вывод: так как нас интересует шкала,
а не матрица отношений, ответ, полученный с помощью собственного вектора –
лучше; и это несмотря на то, что он не удовлетворяет критерию минимума квадра-
тов.
220
9.7. МНОГОКРИТЕРИАЛЬНЫЕ МЕТОДЫ
Существуют разнообразные методы для анализа решений при многих целях. Не-
которые из них разработаны для прогнозирования действий и выборов в ситуациях
принятия решений. Другие разработаны для помощи лицу, принимающему решения,
в виде практической техники, которая может быть использована для усовершенст-
вования процедуры принятия решений.
Методы взвешивания
В [152] рассмотрены ранние обзоры по следующим методам оценки весов, при-
веденным в [151, 13];
1. Взвешивание частных критериев на основе их предсказуемости (с использо-
ванием канонической корреляции).
2. Взвешивание частных критериев пропорционально их средней корреляции с
другими частными критериями.
3. Взвешивание частных критериев с целью максимизации разности стимулов в
величине общего критерия.
4. Взвешивание частных критериев с целью максимизации объясненной диспер-
сии (с помощью факторного анализа).
5. Взвешивание частных критериев пропорционально их надежности.
6. Равновесное взвешивание частных критериев.
7. Взвешивание частных критериев с целью уравновешивания «эффективных ве-
сов» (т. е. долей дисперсии общего критерия).
8. Взвешивание на основе денежного критерия.
9. Взвешивание частных критериев по суждениям экспертов.
10. Взвешивание частных критериев посредством множественной регрессии по
построенному в шкале интервалов глобальному критерию.
Эти методы исследуются или критикуются с точки зрения трех основных крите-
риев: релевантности, многомерности и измеримости. Методы 1–7 имеют недостаточ-
ную релевантность. Она игнорируется, используются произвольные статистические
цели, или релевантность учитывается непрямым и несовершенным образом через
другие частные критерии, а не через глобальный критерий. Методы 5–9 содержат
смешенную оценку, так как выносится суждение относительно одного частного кри-
терия, а затем независимо относительно другого. Поэтому результирующий много-
мерный вектор имеет смешение между компонентами, выражающееся подчас в
двойном подсчете важности частного критерия. Методы 8–10 страдают сложностью
получения мер, которые имеют смысл при взвешивании относительно глобального
критерия. Ниже представлены примеры методов взвешивания.
Сопоставление исходов с целями. Допустим, имеются исходы
1
2
,
,
,
m
O O
O
…
.
Этапы процедуры следующие [1, 54]:
1 Ранжировать цели по порядку значений.
2. Присвоить значение 1,00 первой цели и присвоить приемлемые значения дру-
гим целям:
цель
1
2
m
O O
O
…
значение
1
2
1, 00
m
υ
υ
υ
=
…
.
3. Сравнить наиболее важную цель с совокупностью остальных целей. Короче,
сравнить
1
O
с
2
m
O
O
+ +
…
. Если
2
1
m
υ
υ
≥
+ +
…
, то сравнить
2
O
с
3
m
O
O
+ +
…
. Если
2
3
m
υ
υ
υ
≥
+ +
…
, то сравнить
3
O
с
4
m
O
O
+ +
…
. и т. д., пока не завершится сравнение
2
m
O
−
с
1
m
m
O
O
−
+
.