Файл: Бодалев А.А. - Общая психодиагностика.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 10.10.2020

Просмотров: 8447

Скачиваний: 53

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
background image

151

кими  факторами: во-первых, это  соответствие  допущений, положен-

ных  в  основу алгоритма, содержательным представлениям  о психоло-

гической  типологии  индивидов  в  рамках  рассматриваемой  системы
психодиагностических  параметров; во-вторых, это  степень  полноты

имеющейся  информации  для  эффективной «остановки» алгоритма,
обеспечивающей оптимальное решение задачи за приемлемое время.

Под полнотой информации здесь, имеется в виду наличие доста-

точно  многочисленных  групп  индивидов, четко  и  однозначно  класси-

фицированных  по  заданной  системе  критериев. В  этом  случае  пост-
роение  решающего  правила  сводится  к  применению  какого-либо  ал-

горитма автоматической классификации, приспособленного к работе с

заданными  классами. Если  же  критериальные  классы  представлены
неполно - всего несколькими представителями, для которых при этом

не  всегда  известны  все  значения  необходимых  параметров, - то  воз-
никает  ситуация, требующая  применения  так  называемых  эвристи-

ческих  алгоритмов (более  подробно  о  применяемых  алгоритмах  клас-
сификации см. кн.: Типология и классификация в социологических ис-

следованиях. М., 1982).

Остановимся  на  одном  из  методов  распознавания, получившем

применение  в  психодиагностике, — на  семействе  алгоритмов  вычис-
ления  оценок (АВО), предложенном  Ю. И. Журавлевым  и  его  учени-

ками (1978).

Основную  задачу  распознавания  образов  можно  сформулиро-

вать как задачу отнесения объекта 5 к одному или нескольким классам

К

1

К

2

,..., К

i

 на основе информации о классах

I

 (K

1

), (К

2

),...,

I

 (К

i

), ин-

формации  об  объекте

I

(S) и  предположения  о  близости  объекта  к

классу. Другими  словами, задачу  распознавания  можно  сформулиро-
вать как задачу определения того, обладает ли объект определенными

свойствами.

В  основе  АВО  лежит  принцип  частичной  прецедентности: бли-

зость объекта к классу тем больше, чем больше частей в его описании

«похожи» на  соответствующие  части  в  описаниях' объектов, чья  при-
надлежность  классу  известна. Например, в  одном  из  вариантов  АВО

(Зеличенко А. И., 1982) функция близости объекта S к классу К опре-
деляется так:


background image

152

å å

= =

=

n

i

K

i

S

j

a

B

m

j

j

P

K

S

Г

1

)),

(

(

1

)

,

(

(3.5.3)

ïî

ï

í

ì

£

=

случе

противном

в

-

0

)

(

,

1

))

(

),

(

(

j

K

i

S

j

a

если

K

i

S

j

a

S

j

a

B

e

где

K

i

S

  -

i

-й  объект, принадлежность  которого  к  классу  К  уже

известна;

a

i

 (S) -

i

-й элемент (параметр) в описании объекта;

P

1

 - его вес;

ε

j

  -

i

-й порог.

После того как вычислены Г(S

1

 K

1

,), ... , Г(S

1

 K

1

,) на основании

некоторого  решающего  правила (зависящего  от  вектора  параметров

B

, принимается решение о принадлежности объекта к одному или не-

скольким классам К

1

, ..., К

1

 В задачах психодиагностики S- это испы-

туемый.

Таким образом, каждый вариант АВО определяется набором зна-

чений  параметров. В  нашем  случае- это  векторы

)

1

(

m

p

p

p

-

=

,

)

,...,

1

(

m

e

e

e

=

. Если информация об объекте S представлена в виде I(S)

= (а

1,

..., а

2

), то элемент вектора опорных множеств ω

j

(S) = а

i

, a ε

j

-

j

порог.

В качестве примера решающего правила можно привести следу-

ющее (линейное пороговое решающее правило):

объект S принадлежит к классу K

t

 если

å

=

>

i

j

t

C

i

K

S

Г

t

i

b

1

1

)

,

(

  (3.5.4)

объект S не принадлежит к классу K

t

 если

å

=

>

i

j

t

C

i

K

S

Г

t

i

b

1

2

)

,

(

                                          (3.5.5)

в  остальных  случаях -отказ  от  распознавания  принадлежности

объекта S к классу K

t

.


background image

153

В  работе  алгоритмов  распознавания  вообще  и  АВО  в  частности

можно выделить два этапа: обучение и собственно распознавание. На

этапе обучения, как уже говорилось, происходит настройка алгоритма,
т. е. выбор таких его параметров, которые обеспечивают оптимальное

в  нег  котором  смысле  распознавание  объектов  обучающей  выборки
(объектов, принадлежность которых к классам К

1

, ... ,K

i

, известна). На

этапе  собственно  распознавания  происходит  отнесение  к  классам
K

1

,..., К

i

, тех  объектов, принадлежность  которых  к  классам  априорно

неизвестна.

Точность распознавания на этапе обучения измеряется полнотой

и  адекватностью  распознавания  эталонных  объектов. Наряду  с  поня-

тием «точность» (абсолютная  отделимость) иногда  удобно  использо-
вать понятие относительной отделимости объектов обучающей выбор-

ки,  принадлежащих  к  различным  классам.  В  случае,  когда  распозна-
вание  ведется  для  двух  классов (например, в  профориентации - для

дифференциального  прогноза  успешности  оптанта  в  одной  из  двух
профессиональных  областей), относительную  отделимость  можно  оп-

ределить как

min

100

min

X

X

X

-

-

(3.5.6)

где

X

 - точность  при  обучении (выраженная  в  процентах), a

min

X

 -минимальная возможная точность обучения (совпадает с долей

объектов  в  наибольшем  классе  от  общего  объема  обучающей  выбор-

ки). На этапе собственно распознавания точность характеризует глав-
ным образом репрезентативность обучающей выборки (выборки вали-

дизации). Чем выше репрезентативность, тем больше совпадают пока-
зателе точности на этапах обучения и собственно распознавания.

Использование  АВО  кроме  решения  задачи  распознавания  по-

зволяет получить следующую информацию:

1. Информационные  веса  отдельных  элементов (параметров)

описания  объектов. Эти  веса  измеряются  через  изменение  точности
распознавания  при  исключении  соответствующих  параметров  из  опи-

сания эталонных объектов:


background image

154

a

j

a

j

a

))

(

(

)

(

c

c

e

-

=

=

(3.5.7)

где

X

 - точность распознавания при Р

j

= 1;

X

(

j

a

) - точность рас-

познавания при Р. = 0, а а - нормирующий множитель. Информацион-
ные веса интерпретируются как мера прогностической важности пара-

метров.

2. Оптимальные значения порогов

e

 , т. е. значения

e

 , обеспе-

чивающие наивысшую точность распознавания. Эти значения порогов
в нашем случае можно .интерпретировать как чувствительность мето-

дики; ε

j

 - своего  рода  дифференциальный  порог  на  шкале  тестового

показателя

a

j

  определяющий  переход  индивида  из  одной  диагности-

ческой категории в другую. Пусть на этапе разработки теста (тестовой
батареи) была  обследована  группа  из  К  человек, про  которых  из-

вестно, что

K

1

из них относится к одному классу, а К

2

 - к другому, К =

К

1

 + К

2

. Выбрав случайным образом из этой группы М (М<<К) много-

мерных  описаний, проводим  на  них  процедуру  обучения  алгоритма.

Точность  обучения  характеризует  валидность  теста. После  этого  при-
меняем  процедуру  собственно  распознавания (по  выработанному  ре-

шающему  правилу) для  остальных  К-М  описаний. В  результате  этой
процедуры  мы  определяем  принадлежность  респондентов (испытуе-

мых) к этим классам. Сравнивая полученные результаты с эталонными
данными  о  принадлежности  испытуемых  к  классам, мы  определяем

точность  самого  распознавания. Если  эта  точность  близка  к  точности

обучения,  то  наша  пилотажная  выборка  объемом  М  может  быть  при-
знана репрезентативной для обучения. Теперь можно переходить к за-

даче определения информационных весов.

*  *  *

Для эффективного использования алгоритмов распознавания по

отношению  к  многомерным  тестовым  системам (при

K

>3), как  пра-

вило, требуется использование компьютера.

При решении задач небольших размерностей (по количеству па-

раметров) иногда  психолог  может  быстрее  найти  решающее  правило,
применяя  собственные  способности  зрительной  системы (очень  мощ-


background image

155

ные) к  визуально-геометрической  группировке  объектов. В  про-

странстве  параметров  диагностические, классы  выглядят  как «сгуще-

ния», некие «облака» из  точек, изображающих  испытуемых. В  этом
случае  при  наличии  априорной  информации  о  принадлежности  ин-

дивидов  к  классам  удобно  изображать  точки  из  различных  классов
разными цветами (хуже - квадратиками, кружками, треугольниками). В

этом  случае «решающее  правило» легко «увидеть» как  некую  вооб-
ражаемую  линию (прямую  или  кривую), разделяющую  точки  разного

цвета (рис. 17). Точность диагностики в данном случае можно оценить
по количеству точек, попавших при данном решающем правиле в «чу-

жую» половину пространства параметров.

Рис.17. Разделение  двух  классов  объектов (изображены

кружками  и  треугольниками) в  пространстве  двух  параметров
X

1

, и Х

2

Точность правила, изображенного на рис. 17, равна:

А

В

  A

B

63

,

0

15

12

14

13

3

2

12

10

»

´

´

´

´

+

´

=

j

Здесь  в  четырехклеточной  матрице  сопряженности  по  строкам

задано попадание объекта в один из априорных классов А (треуголь-
ники на рис. 17) или В (кружочки на рис. 17), а по столбцам - попада-

ние объектов в один из апостериорных классов, образованных приме-

нением решающего правила, -

А

 (слева от критериальной линии) или

В

 (справа  от  критериальной  линии). Как  указано  выше, для  статис-

тической  оценки  точности  может  быть  использован  фи-коэффициент,
связанный по известной формуле с критерием хи-квадрат.

10

2

3

12