ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 10.10.2020
Просмотров: 8447
Скачиваний: 53
151
кими факторами: во-первых, это соответствие допущений, положен-
ных в основу алгоритма, содержательным представлениям о психоло-
гической типологии индивидов в рамках рассматриваемой системы
психодиагностических параметров; во-вторых, это степень полноты
имеющейся информации для эффективной «остановки» алгоритма,
обеспечивающей оптимальное решение задачи за приемлемое время.
Под полнотой информации здесь, имеется в виду наличие доста-
точно многочисленных групп индивидов, четко и однозначно класси-
фицированных по заданной системе критериев. В этом случае пост-
роение решающего правила сводится к применению какого-либо ал-
горитма автоматической классификации, приспособленного к работе с
заданными классами. Если же критериальные классы представлены
неполно - всего несколькими представителями, для которых при этом
не всегда известны все значения необходимых параметров, - то воз-
никает ситуация, требующая применения так называемых эвристи-
ческих алгоритмов (более подробно о применяемых алгоритмах клас-
сификации см. кн.: Типология и классификация в социологических ис-
следованиях. М., 1982).
Остановимся на одном из методов распознавания, получившем
применение в психодиагностике, — на семействе алгоритмов вычис-
ления оценок (АВО), предложенном Ю. И. Журавлевым и его учени-
ками (1978).
Основную задачу распознавания образов можно сформулиро-
вать как задачу отнесения объекта 5 к одному или нескольким классам
К
1
К
2
,..., К
i
на основе информации о классах
I
(K
1
), (К
2
),...,
I
(К
i
), ин-
формации об объекте
I
(S) и предположения о близости объекта к
классу. Другими словами, задачу распознавания можно сформулиро-
вать как задачу определения того, обладает ли объект определенными
свойствами.
В основе АВО лежит принцип частичной прецедентности: бли-
зость объекта к классу тем больше, чем больше частей в его описании
«похожи» на соответствующие части в описаниях' объектов, чья при-
надлежность классу известна. Например, в одном из вариантов АВО
(Зеличенко А. И., 1982) функция близости объекта S к классу К опре-
деляется так:
152
å å
= =
=
n
i
K
i
S
j
a
B
m
j
j
P
K
S
Г
1
)),
(
(
1
)
,
(
(3.5.3)
ïî
ï
í
ì
£
=
случе
противном
в
-
0
)
(
,
1
))
(
),
(
(
j
K
i
S
j
a
если
K
i
S
j
a
S
j
a
B
e
где
K
i
S
-
i
-й объект, принадлежность которого к классу К уже
известна;
a
i
(S) -
i
-й элемент (параметр) в описании объекта;
P
1
- его вес;
ε
j
-
i
-й порог.
После того как вычислены Г(S
1
K
1
,), ... , Г(S
1
K
1
,) на основании
некоторого решающего правила (зависящего от вектора параметров
B
, принимается решение о принадлежности объекта к одному или не-
скольким классам К
1
, ..., К
1
В задачах психодиагностики S- это испы-
туемый.
Таким образом, каждый вариант АВО определяется набором зна-
чений параметров. В нашем случае- это векторы
)
1
(
m
p
p
p
-
=
,
)
,...,
1
(
m
e
e
e
=
. Если информация об объекте S представлена в виде I(S)
= (а
1,
..., а
2
), то элемент вектора опорных множеств ω
j
(S) = а
i
, a ε
j
-
j
-й
порог.
В качестве примера решающего правила можно привести следу-
ющее (линейное пороговое решающее правило):
объект S принадлежит к классу K
t
если
å
=
>
i
j
t
C
i
K
S
Г
t
i
b
1
1
)
,
(
(3.5.4)
объект S не принадлежит к классу K
t
если
å
=
>
i
j
t
C
i
K
S
Г
t
i
b
1
2
)
,
(
(3.5.5)
в остальных случаях -отказ от распознавания принадлежности
объекта S к классу K
t
.
153
В работе алгоритмов распознавания вообще и АВО в частности
можно выделить два этапа: обучение и собственно распознавание. На
этапе обучения, как уже говорилось, происходит настройка алгоритма,
т. е. выбор таких его параметров, которые обеспечивают оптимальное
в нег котором смысле распознавание объектов обучающей выборки
(объектов, принадлежность которых к классам К
1
, ... ,K
i
, известна). На
этапе собственно распознавания происходит отнесение к классам
K
1
,..., К
i
, тех объектов, принадлежность которых к классам априорно
неизвестна.
Точность распознавания на этапе обучения измеряется полнотой
и адекватностью распознавания эталонных объектов. Наряду с поня-
тием «точность» (абсолютная отделимость) иногда удобно использо-
вать понятие относительной отделимости объектов обучающей выбор-
ки, принадлежащих к различным классам. В случае, когда распозна-
вание ведется для двух классов (например, в профориентации - для
дифференциального прогноза успешности оптанта в одной из двух
профессиональных областей), относительную отделимость можно оп-
ределить как
min
100
min
X
X
X
-
-
(3.5.6)
где
X
- точность при обучении (выраженная в процентах), a
min
X
-минимальная возможная точность обучения (совпадает с долей
объектов в наибольшем классе от общего объема обучающей выбор-
ки). На этапе собственно распознавания точность характеризует глав-
ным образом репрезентативность обучающей выборки (выборки вали-
дизации). Чем выше репрезентативность, тем больше совпадают пока-
зателе точности на этапах обучения и собственно распознавания.
Использование АВО кроме решения задачи распознавания по-
зволяет получить следующую информацию:
1. Информационные веса отдельных элементов (параметров)
описания объектов. Эти веса измеряются через изменение точности
распознавания при исключении соответствующих параметров из опи-
сания эталонных объектов:
154
a
j
a
j
a
))
(
(
)
(
c
c
e
-
=
=
(3.5.7)
где
X
- точность распознавания при Р
j
= 1;
X
(
j
a
) - точность рас-
познавания при Р. = 0, а а - нормирующий множитель. Информацион-
ные веса интерпретируются как мера прогностической важности пара-
метров.
2. Оптимальные значения порогов
e
, т. е. значения
e
, обеспе-
чивающие наивысшую точность распознавания. Эти значения порогов
в нашем случае можно .интерпретировать как чувствительность мето-
дики; ε
j
- своего рода дифференциальный порог на шкале тестового
показателя
a
j
определяющий переход индивида из одной диагности-
ческой категории в другую. Пусть на этапе разработки теста (тестовой
батареи) была обследована группа из К человек, про которых из-
вестно, что
K
1
из них относится к одному классу, а К
2
- к другому, К =
К
1
+ К
2
. Выбрав случайным образом из этой группы М (М<<К) много-
мерных описаний, проводим на них процедуру обучения алгоритма.
Точность обучения характеризует валидность теста. После этого при-
меняем процедуру собственно распознавания (по выработанному ре-
шающему правилу) для остальных К-М описаний. В результате этой
процедуры мы определяем принадлежность респондентов (испытуе-
мых) к этим классам. Сравнивая полученные результаты с эталонными
данными о принадлежности испытуемых к классам, мы определяем
точность самого распознавания. Если эта точность близка к точности
обучения, то наша пилотажная выборка объемом М может быть при-
знана репрезентативной для обучения. Теперь можно переходить к за-
даче определения информационных весов.
* * *
Для эффективного использования алгоритмов распознавания по
отношению к многомерным тестовым системам (при
K
>3), как пра-
вило, требуется использование компьютера.
При решении задач небольших размерностей (по количеству па-
раметров) иногда психолог может быстрее найти решающее правило,
применяя собственные способности зрительной системы (очень мощ-
155
ные) к визуально-геометрической группировке объектов. В про-
странстве параметров диагностические, классы выглядят как «сгуще-
ния», некие «облака» из точек, изображающих испытуемых. В этом
случае при наличии априорной информации о принадлежности ин-
дивидов к классам удобно изображать точки из различных классов
разными цветами (хуже - квадратиками, кружками, треугольниками). В
этом случае «решающее правило» легко «увидеть» как некую вооб-
ражаемую линию (прямую или кривую), разделяющую точки разного
цвета (рис. 17). Точность диагностики в данном случае можно оценить
по количеству точек, попавших при данном решающем правиле в «чу-
жую» половину пространства параметров.
Рис.17. Разделение двух классов объектов (изображены
кружками и треугольниками) в пространстве двух параметров
X
1
, и Х
2
Точность правила, изображенного на рис. 17, равна:
А
В
A
B
63
,
0
15
12
14
13
3
2
12
10
»
´
´
´
´
+
´
=
j
Здесь в четырехклеточной матрице сопряженности по строкам
задано попадание объекта в один из априорных классов А (треуголь-
ники на рис. 17) или В (кружочки на рис. 17), а по столбцам - попада-
ние объектов в один из апостериорных классов, образованных приме-
нением решающего правила, -
А
(слева от критериальной линии) или
В
(справа от критериальной линии). Как указано выше, для статис-
тической оценки точности может быть использован фи-коэффициент,
связанный по известной формуле с критерием хи-квадрат.
10
2
3
12