Файл: Саати Принятие решений Метод анализа иерархий.pdf

Добавлен: 12.02.2019

Просмотров: 13042

Скачиваний: 110

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
background image

216 

Таблица 9.1. Четыре метода возмущений при 

j

ij

ij

i

a

g

ω

ω

=

 

 

Предположения 

в случае согла-

сованности 

Задача 

Решение 

Предположения 

в общем случае 

Задача 

Решение 

Арифме-
тическое 
среднее 

1

ij

g

=

1

n

ij

j

g

n

=

=

 

1

n

i

ij

j

j

a

n

ω

ω

=

=

1,

,

i

n

= …

A

n

ω

ω

=

 

1

ij

i

n

ij

i

a

a

ω

=

=

1

1

n

i

i

ω

=

=

 

max

1

n

ij

j

g

λ

=

=

1,

,

j

n

= …

 

max

1

n

i

ij

j

j

a

ω

λ

ω

=

=

max

A

ω λ ω

=

 

Нормализован-
ный правый соб-
ственный вектор; 

индекс согласо-
ванности 

(

) (

)

max

1

n

n

λ

 

Средне-
геомет-
рическое 

по стро-
кам 

1

ij

g

=

1

1

n

ij

j

g

=

=

 

1

1

n

j

ij

j

i

a

ω

ω

=

=

1,

,

i

n

= …

 

( )

1/ n

i

ij

na

ω

=

 

1

n

ij

j

g

µ

=

=

 

1

n

j

ij

j

i

a

ω

µ

ω

=

=

 

Обычно заменяется на критерий 
логарифмических средних квад-
ратов: 

2

,

1

min

log

log

n

i

ij

i j

j

a

ω

ω

=

=

 

2

min log

µ

 

То же, что и в 
случае согласо-
ванности; не 

имеется меры 
согласованности 

Гармони-
ческое 

среднее 

1

ij

g

=

1

1

n

j

ij

n

g

=

=

 

1

1

n

i

ij

j

i

n

a u u

=

=

uA nu

=

 

1

n

ij

i

i

ij

a

u

a

=

=

1

1

n

i

i

u

=

=

 

(обратное первому 

случаю наверху) 

max

1

1

n

j

ij

g

λ

=

=

 

max

uA

u

λ

=

 

Нормализован-
ный левый собст-

венный вектор; 
индекс согласо-

ванности 

(

) (

)

max

1

n

n

λ

 

Средне-

геомет-
рическое 
по таб-

лицам 

 

То же, что и для среднегеометрического по строчкам 

 


background image

217 

9.6. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ 

ДЛЯ АППРОКСИМАЦИИ МАТРИЦЫ МАТРИЦЕЙ МЕНЬШЕГО РАНГА 

Матрица 

(

)

i

j

W

ω ω

=

 ранга один получается после решения задачи о собствен-

ном значении. Она является приближением к матрице 

( )

ij

A

a

=

. Мы используем тот 

факт, что любая матрица может быть аппроксимирована другой матрицей меньшего 
ранга. Это делается следующим образом. Во-первых, отметим, что 

( )

2

, 1

n

T

ij

i j

tr AA

a

=

=

(

)(

)

2

, 1

n

T

ij

i

j

i j

tr A W

A W

a

ω ω

=

=

(

)(

)

1

min

min

n

T

i

i

tr A W

A W

α

=

=

где 

i

α

 – собственные значения матрицы 

(

)(

)

T

A W

A W

Теперь для любой матрицы 

X

 матрица 

T

XX

 симметрична, и все ее собственные 

значения действительны. Кроме того, 

X

 и 

T

X

 положительны. Поэтому 

T

XX

 поло-

жительна  и  имеет  единственное  действительное  положительное  наибольшее  собст-
венное значение. 

Согласно Джонсону [72] 

T

T

AA

P P

≡ Λ

T

T

A

Q Q

≡ Λ

 

где 

Λ

 – диагональная матрица, элементами которой являются собственные зна-

чения 

A

 в порядке убывания величины; собственные векторы матрицы 

T

AA

 явля-

ются  соответствующими  столбцами  матрицы 

P

,  а  собственные  векторы  матрицы 

T

A A

 – соответствующими строками матрицы 

T

Q

. Наконец, отметим, что наилучшее 

приближение методом наименьших  квадратов матрицы 

A

 матрицей  ранга 

r

 может 

быть задано выражением 

1/ 2

T

r

r

P

Q

Λ

 

где 

r

P

 и 

T

r

Q

 – части 

P

 и 

T

Q

, соответственно связанные с первыми 

r

 столбцами 

Λ

Пусть 

1

r

=

, тогда 

1

P

 – собственный вектор матрицы 

T

AA

, ассоциируемый с мак-

симальным собственным значением; 

1

Q

 – собственный вектор матрицы 

T

A A

, ассо-

циируемый  с  максимальным  собственным  значением.  Если,  как  в  согласованном 
случае, 

1

11

12

1

1

1

1

,

,

,

n

Q

p

p

p

= 

где 

(

)

1

11

12

1

,

,

,

n

P

p

p

p

=

то наше решение в согласованном случае будет наилучшим приближением мето-

дом наименьших квадратов. Это может быть не так в несогласованном случае. 

Проиллюстрируем  идею  наилучшего  приближения  методом  наименьших  квадра-

тов на одной из матриц 

A

 примера из  оптики, сформировав 

T

AA

T

A A

 и получим 

их собственные значения и собственные векторы. Собственные значения, одинако-


background image

218 

вые  для  обеих  матриц,  являются  диагональными  элементами  матрицы 

Λ

,  располо-

женными в порядке убывания. Собственные векторы матрицы 

T

AA

 совпадают с со-

ответствующими столбцами матрицы 

P

, а матрицы 

T

A A

 – со строками матрицы 

T

Q

Имеем 

1

4

6

7

1/ 4

1

3

4

1/ 6 1/ 3

1

2

1/ 7 1/ 4 1/ 2 1

A

=

132,9000

0

1, 4710

0

0,1283

0,0007

Λ =

1/ 2

11,528

0

1, 213

0

0,358

0,027

Λ =

0,875

0, 475

0,087

0,041

0, 436

0,690

0,568

0,109

0,188

0,512

0, 669

0,505

0,097

0,192

0, 471

0,855

P

=

0,089

0,349

0,589

0,723

0,158

0,819

0,146

0,533

0,347

0,341 0,767

0, 418

0,920

0,303 0, 207

0,136

T

Q

=

1/ 2

0,796 3,034 5,879 7,586
0,655 2,508 2,931 3, 279

0, 221 1,178 1,554 1,136

0,099 0,516 0,827 0,611

T

P

Q

Λ

=

Используя  подход, при  котором  находится  максимальное  собственное  значение, 

получаем  вектор  в  качестве  оценки  основной  шкалы  отношений.  Основываясь  на 
методе наименьших квадратов, можно получить матрицу 

1/ 2

r

r

r

P

Q

Λ

 пониженного ран-

га  (в  нашем  случае  единичного),  которая  является  наилучшим  приближением  в 
смысле  наименьших  квадратов  к  заданной  матрице  суждения.  Естественно,  что  эта 

матрица является лучшим приближением в смысле наименьших квадратов, чем мат-
рица 

(

)

i

j

W

ω ω

=

, т. е. если определить 

1/ 2

T

r

r

r

F

A P

Q

= − Λ

 и 

G

A W

= −

 и просумми-

ровать  квадраты  их  элементов,  то  можно  легко  показать,  что  первая  сумма  равна 

(

)

s

tr FF

tr

′ = Λ

, где 

s

Λ

 – диагональная матрица собственных значений, не включен-

ных в 

r

Λ

 (в нашем случае 

r

Λ

 – наибольшее собственное значение матрицы 

T

A A

 и 


background image

219 

s

tr

Λ

 – сумма  остальных  собственных  значений).  Можно  показать,  что 

(

) (

)

(

)

T

tr A W

A W

tr FF

, как и должно быть на самом деле. Однако задача за-

ключается  в  получении  вектора  шкалы  из  аппроксимированной  методом  наимень-
ших квадратов матрицы 

1/ 2

T

r

r

r

P

Q

Λ

. Если предположить, что эта матрица почти согла-

сованна, то можно использовать любой из ее столбцов (нормализованных) как при-
ближение  к  основной  шкале.  Но  теперь  возникает  вопрос,  насколько  хорош  этот 

вектор по сравнению с максимальным собственным вектором. В нашем примере ис-
пользовалось среднеквадратичное отклонение от известных основных шкал в зада-
чах,  где  желательно  было  провести  сравнение.  Как  будет  показано  в  приведенном 
ниже  примере,  максимальный  собственный  вектор  явно  превосходит  вектор,  полу-
ченный  методом  наименьших  квадратов  (как  мы  его  интерпретировали),  если  его 

рассматривать как приближение к реальности. 

Если  образовать 

r

Λ

,  полагая,  что  все  диагональные  элементы,  кроме  первого, 

наибольшего из них, равны нулю в 

Λ

, то будем иметь 

1/ 2

0,90 3,52 5,94 7, 29
0, 45 0,76 2,97 3,64

0,19 0,76 1, 28 1,57
0,10 0,39 0, 66 0,81

T

r

r

r

P

Q

Λ

=

Если  сформировать 

1/ 2

T

r

r

r

r

F

A P

Q

= − Λ

и  просуммировать  квадраты  ее  элементов, 

получается 1,6, но  сумма  остальных  собственных  значений 

s

tr

Λ

  также  равна 1,6. 

Полагая  сформированную  выше  матрицу  согласованной,  для  получения  вектора 
шкалы нормализуем первый столбец и получаем 

(

)

0,548; 0, 274; 0,118; 0,061

s

=

. Ин-

тересно  отметить,  что  все  другие  столбцы  дают  один  и  тот  же  результат,  так  как 
матрица единичного ранга. 

Хотя  этот  вектор  не  является  таким  хорошим  приближением,  как  собственный 

вектор,  находим,  что  его  среднеквадратичное  отклонение  от  фактического  вектора 

(

)

0,61; 0, 22; 0,11; 0,06

  равно 0,00155, по  сравнению  с 0,00005 для  максимального 

собственного  вектора 

(

)

0,62; 0, 22; 0,10; 0,06

ω

=

,  соответствующего 

max

4,1

λ

=

.  Это 

показывает, что для данного примера решение, полученное с помощью собственного 
вектора, лучше решения методом наименьших квадратов. 

Теперь  используем  элементы 

ω

  и 

s

  для  формирования  матрицы  отношений 

(

)

i

j

W

ω ω

=

  и 

(

)

i

j

S

s s

=

.  Затем  вычислим 

A W

  и,  просуммировав  квадраты  ее 

элементов,  получим 13,42. Проделав  то  же  самое  для 

A S

,  получим 11,45, что 

близко к первому результату, однако несколько лучше. Это означает, что аппрокси-
мация  методом  наименьших  квадратов  лучше  для  минимизации  суммы  квадратов 
разностей. Для этого примера можно сделать вывод: так как нас интересует шкала, 
а  не  матрица  отношений,  ответ,  полученный  с  помощью  собственного  вектора – 

лучше; и это несмотря на то, что он не удовлетворяет критерию минимума квадра-
тов. 

 
 
 


background image

220 

9.7. МНОГОКРИТЕРИАЛЬНЫЕ МЕТОДЫ 

Существуют разнообразные методы для анализа решений при многих целях. Не-

которые из них разработаны для прогнозирования действий и выборов в ситуациях 
принятия решений. Другие разработаны для помощи лицу, принимающему решения, 
в  виде  практической  техники,  которая  может  быть  использована  для  усовершенст-
вования процедуры принятия решений. 

 

Методы взвешивания 

 
В [152] рассмотрены ранние обзоры по следующим методам оценки весов, при-

веденным в [151, 13]; 

1. Взвешивание  частных  критериев  на  основе  их  предсказуемости  (с  использо-

ванием канонической корреляции). 

2. Взвешивание  частных  критериев  пропорционально  их  средней  корреляции  с 

другими частными критериями. 

3. Взвешивание  частных  критериев  с  целью  максимизации  разности  стимулов  в 

величине общего критерия. 

4. Взвешивание частных критериев с целью максимизации объясненной диспер-

сии (с помощью факторного анализа). 

5. Взвешивание частных критериев пропорционально их надежности. 
6. Равновесное взвешивание частных критериев. 
7. Взвешивание частных критериев с целью уравновешивания «эффективных ве-

сов» (т. е. долей дисперсии общего критерия). 

8. Взвешивание на основе денежного критерия. 
9. Взвешивание частных критериев по суждениям экспертов. 
10. Взвешивание  частных  критериев  посредством  множественной  регрессии  по 

построенному в шкале интервалов глобальному критерию. 

Эти методы исследуются или критикуются с точки зрения трех основных крите-

риев: релевантности, многомерности и измеримости. Методы 1–7 имеют недостаточ-
ную  релевантность.  Она  игнорируется,  используются  произвольные  статистические 
цели,  или  релевантность  учитывается  непрямым  и  несовершенным  образом  через 
другие  частные  критерии,  а  не  через  глобальный  критерий.  Методы 5–9 содержат 
смешенную оценку, так как выносится суждение относительно одного частного кри-
терия,  а  затем  независимо  относительно  другого.  Поэтому  результирующий  много-

мерный  вектор  имеет  смешение  между  компонентами,  выражающееся  подчас  в 
двойном  подсчете  важности  частного  критерия.  Методы 8–10 страдают  сложностью 
получения  мер,  которые  имеют  смысл  при  взвешивании  относительно  глобального 
критерия. Ниже представлены примеры методов взвешивания. 

Сопоставление  исходов  с  целями.  Допустим,  имеются  исходы 

1

2

,

,

,

m

O O

O

Этапы процедуры следующие [1, 54]: 

1 Ранжировать цели по порядку значений. 

2. Присвоить значение 1,00 первой цели и присвоить приемлемые значения дру-

гим целям: 

цель 

1

2

m

O O

O

 

значение 

1

2

1, 00

m

υ

υ

υ

=

3. Сравнить  наиболее  важную  цель  с  совокупностью  остальных  целей.  Короче, 

сравнить 

1

O

 с 

2

m

O

O

+ +

. Если 

2

1

m

υ

υ

+ +

, то сравнить 

2

O

 с 

3

m

O

O

+ +

. Если 

2

3

m

υ

υ

υ

+ +

, то сравнить 

3

O

 с 

4

m

O

O

+ +

. и т. д., пока не завершится сравнение 

2

m

O

 с 

1

m

m

O

O

+