книги из ГПНТБ / Галушкин, А. И. Синтез многослойных систем распознавания образов
.pdfВ частном случае ограничений типа неравенств, зада ваемых соотношениями (6-13а), qi(a 0;
а —а
Ча(а): ,— а < 0 ; q (а) =
|
|
|
|
1 |
0 |
0 |
. |
• |
° |
- |
i |
-l |
0 |
0. |
0 . |
' |
|
|
|
|
0 |
1 |
|
|
0 |
о |
. |
0 |
j |
0 — |
. |
l |
|
Q |
( |
a |
) |
0 |
=0 |
0 |
. |
• |
i |
0 |
0 |
0 |
. |
|
||
• |
|
i |
|
6-5. Алгоритм случайного поиска локальных и глобального экстремумов функций многих переменных
Пожалуй, единственной причиной введения случайно сти в процедуру поиска экстремума функционала вторич ной оптимизации СР является многомодальность распреде лений входного сигнала, которая при заданной структуре разомкнутой СР приводит к многоэкстремальности функ ции качества СР. Наиболее полное освещение методы слу чайного поиска нашли в работах Л. А. Растригина, в ча стности в его монографии [Л. 28].
Нашей задачей является поиск всех локальных мини мумов многоэкстремального функционала ошибки СР, и, если это необходимо, выбор из них глобального минимума. Именно поэтому применительно к СР был разработан ме тод случайного поиска локальных и глобального экстрему мов функций многих переменных. Опишем один цикл ра боты данного алгоритма:
а) случайным образом выбирается значение вектора переменных функции, экстремум которой ищется. Само собой разумеется, что данный вектор располагается в об ласти одного из локальных экстремумов;
б) одним из изложенных выше методов неслучайного поиска находится локальный экстремум, в области которого расположен вектор переменных, выбранный на первом этапе;
в) величина экстремума и соответствующее ему значе ние вектора переменных, найденных на втором этапе, срав ниваются с содержимым памяти. При отсутствии в памяти указанных характеристик локального экстремума послед ние запоминаются;
г) производится переход к первому этапу (п. «а»). Результаты экспериментального исследования данного
алгоритма при многомодальных распределениях входного
160
сигнала и СР типа одномерного и многомерного ЛПЭ при водятся в гл. 8. Ниже рассматривается задача анализа схо димости данного алгоритма случайного поиска по числу экстремумов функции. В принципе можно рассмотреть ал горитм случайного поиска, исключающий из области слу чайного задания вектора начальных условий те подобласти, которые соответствуют уже найденным локальным экстре мумам. Это, несомненно, ускорит сходимость алгоритма случайного поиска по числу экстремумов.
Произведем анализ сходимости алгоритма случайного поиска локальных и глобального экстремумов функций. Пусть найдено i мод (0 — 1). Вероятность того, что на следующем шаге мы попадаем в область этих i мод, равна UU при равномерном распределении мод в простран стве поиска. Распределение случайной величины равной числу шагов случайной процедуры поиска от нахождения i-й моды до нахождения (i -\- 1)-й моды включительно, имеет
вид |
= k с вероятностью |
i |
|
|
t \*-i |
(6-15) |
|
|
U |
|
|
|
|
|
Процедура случайного поиска производится независимо на каждом шаге. Введем в рассмотрение новую случайную
величину |
т]j = |
2 |
% |
(1 < / < i U), характеризующую |
число |
|||||||
|
|
|
1=0 |
|
|
|
|
|
|
|
|
|
шагов случайной процедуры до нахождения / мод из U. |
||||||||||||
Независимые |
события |
= ku |
. . . , |
%k-i = |
&/—i , |
где |
||||||
1 |
k -sjCs — 1, |
. . . , |
1 ^ k j — 1 ^ s —П 1 |
и |
k ± + k 2 |
+ |
■ ■ ■ + |
|||||
-f |
kj-i = |
s + j — 1 |
в |
объединении дают |
событие |
такое, |
||||||
что |
т]/ = |
£ „ + • • • |
+ |
i/-i = s + |
/, |
причем l Q= 1 |
с |
ве |
роятностью, равной единице. Вероятность такого события
в силу независимости |
равна: |
|
|
|
P |
( l i = *i) |
• • • P ( l i -1 |
= * /_ ,). |
|
По формуле |
полной |
вероятности |
|
|
^>(Tl/ = s + |
/) = |
2 |
P(%i = ki) .. |
|
|
k^-\- ■ ■ • \-ftj_j=S+/—1 |
|
||
. . . P (£,•_! - |
*/_,) = Ul4 ~s(7; " n- |
X |
||
|
y 1 |
1 1 |
(U — i)\ |
|
|
|
kr>X |
/— 1 k, |
(6-16) |
X |
2 |
n i . |
||
|
k[+ . . . |
+ * ) _ ,= * |
|
|
6 Заказ № 975 |
161 |
В частности, при / |
= U |
|
|
|
Р (Ци = s + |
U) - |
Ul~u~s (U — 1)! х |
||
|
|
|
и-\ |
fe' |
|
2 |
, |
П |
i r , |
krr ■■■+ки—l=s |
1—1 |
|
||
|
........v-i) |
|
|
где P (rjy = s + U) — вероятность того, что U мод будут найдены за (s + U) шагов случайной процедуры поиска. Можно показать, что среднее значение и дисперсия числа шагов случайной процедуры поиска, необходимых для нахождения £/_мод, могут быть представлены следующими выражениями:
U— 1
1 + U [In (I/ — 1) + 0,577];
Г=1
\ (6-16а)
2U2— U [1п(£/—1) +
г=1 + 0,577 . . .].
Анализ данных выражений показывает достаточную скорость сходимости рассматриваемой процедуры поиска для задач распознавания образов. В принципе, как пока зано выше, процедура может быть обобщена на случай, когда область найденной моды исключается из области случайного поиска, что еще более ускорит сходимость случайной процедуры поиска. Приведенные" выше соотно шения верны и для многомерного случая.
6-6. Построение алгоритмов адаптации в многослойных СР с использованием оценок
производных второго порядка функционала вторичной оптимизации
В этой главе рассматривается построение алгоритмов адапта ции в многослойных СР с использованием оценок производных одновременно и первого и второго порядка функционала вторичной оптимизации. Основное внимание уделяется алгоритмам поиска экстремума функционала с учетом вторых производных и выводу выражений для оценок вторых производных функционала через теку щие сигналы в системе.
162
а) Построение алгоритмов поиска
Рассмотрим задачу поиска экстремума в виде эквивалентной задачи нахождения корня следующей системы уравнений:
D 1 ( * V |
■■■’ x n ) = 0 ; |
|
(6-17) |
D n |
• • • . x N) — О- |
При рассмотрении системы, заданной неявно
y i ~ Di(xi......... |
V> = °- |
|
(6-18) |
Un Dn (Xv |
• ' • ’ xn) 0 - |
и удовлетворяющей второй теореме Юнга, существуют такие
x i (yv |
■■■, |
y N) = F i (yv |
• • • . VN)'i |
|
|
|
(6-19) |
x N (yv |
■■■, |
y N) —F N (yv |
, y N), |
что при их подстановке в (6-18) получаются тождества. Разложим
функции {уъ . . . . уц), . . ., Fn (г/!,. . . , ys) в РЯД Тэй" лора, ограничившись двумя членами
N
F1 (Q) = F1 ( y ) - ^ F ' lyi(y)yl +
|
|
1=1 |
|
+ |
21 |
S |
dytdyt Уа‘ + |
|
|
|
( 6- 20) |
|
|
|
N |
Fn (0) = |
Fn ( y ) - y i FNy. (y)yi |
||
|
|
t—l |
|
|
1 |
N N Д2С |
|
|
1 |
-yi ^ |
o2Fн |
|
21 |
V |
FiVi + Fzn- |
|
S |
d^ dyi |
Дифференцированием (6-18) с учетом (6-19) получаем следую щую систему уравнений:
N |
|
|
N |
dxi = i; |
dDy |
dxi |
■ 0; |
dDk |
|
dxi |
dyk |
|
dxi |
dyk |
T=l |
|
|
i=i |
• ( 6-21) |
|
N |
|
|
|
|
дРн |
dxi _ 0. |
|
|
|
|
|
||
|
i=1 |
dxi |
dyh |
|
5* |
163 |
" дF, |
|
|
<3F, |
~ |
|
” 3D, |
|
|
|
дР, |
- -1 |
||
dl/l |
|
|
|
|
|
с?*! |
|
|
|
dxN |
|||
d F N |
|
|
d F N |
|
3 P n |
|
|
|
dDN |
|
|||
dyi |
|
|
dFN |
_ |
|
dxt |
|
|
|
dxN _ |
|||
После дифференцирования (G-21) получаем: |
|
||||||||||||
y |
N |
|
|
|
N |
N |
|
|
|
dxi ()Xi — |
|
||
i |
д-хс |
dDj |
; у |
|
^ |
d 2D , |
о- |
||||||
|
' |
dtjkdyi |
0xt |
‘ |
|
Zmi dxidxj |
dyi |
dyk |
|
||||
i=i |
|
|
|
i= 1 |
/=1 |
|
|
|
|
|
|
||
N |
|
|
|
N |
N |
|
|
|
|
|
|
||
|
|
d*-Xj d P N |
y , |
y i |
d W |
N |
|
dxi_ |
>0. |
||||
|
I dykdyi |
дх^ |
.=1 |
/=l |
| dxidxj |
dyi dyk |
|
||||||
i= 1 |
|
|
|
|
|
|
|
|
|
||||
Умножая обе части уравнений на УкУ1 |
и |
суммируя по k и /, |
|||||||||||
получаем: |
|
|
N |
|
N |
N |
|
|
|
|
|
|
|
|
|
|
дРг |
d*Xi |
|
|
|
|
|
||||
|
|
|
\ Л |
\ Л |
V I |
|
|
|
|
|
|||
|
|
|
jmJ |
дх{ |
k—\ |
J . U dykdyi УкУ‘ ~ |
|
|
|||||
|
|
|
(=1 |
|
1=1 |
|
|
|
|
|
|
||
|
|
N |
N |
|
|
|
N |
N |
|
|
|
|
|
|
jm A j—A dxidxi |
|
fe=i |
/=1 |
|
dyi dyk |
|
||||||
|
|
£=i |
j=i |
|
|
|
|
|
|
|
|||
|
|
|
|
|
N |
|
N |
|
|
|
|
|
|
|
|
|
|
д % |
y |
v |
|
д*Х{ |
|
УкУ1 = |
|
||
|
|
|
1=1 |
d X i |
*=1 |
jm t4 d y k d y i |
|
|
|
|
|||
|
|
|
|
1=1 |
|
|
|
|
|
|
|||
|
|
N |
N |
д'ЮN |
|
ЛГ |
Л1 |
dxj dxi |
|
= CЛГ |
|||
|
v |
|
v |
| dxidxj X |
ft=l |
1=1 |
dyi dyk y Ly k |
||||||
|
1=1 |
/=1 |
|
|
|
|
|
|
|
||||
Иначе |
эту |
систему уравнений |
можно |
переписать: |
|||||||||
~ N ' |
N |
d2x, |
|
~ |
|
|
dPt |
|
|
dPt |
|
||
V 4 |
V I |
|
|
|
|
|
|
|
|||||
fc-i |
/=i |
|
|
|
|
|
dxx |
|
' |
^ |
|
||
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|||
N |
N |
|
|
|
|
|
|
|
|
|
|
|
С. |
|
|
|
|
|
|
|
|
|
|
|
|
||
V V d 4 N |
УМ |
|
|
|
|
|
|
аод, |
|||||
Z j |
|
|
a |
|
|
dxx |
|
|
' dxN |
||||
Н 1 ^дукдУ1 |
|
|
|
|
|
164
С учетом того, что вектор |
|
«1 |
Fi (0) - |
а = |
|
_ “yv_ |
|
есть корень системы (6-17), |
|
~ < 3 Z ),
dxx
U7-
d D N
dxx
Ci
С =
_ Cn .
|
dD, |
- |
|
|
x i |
_ |
|
|
|
|
|
|
|
|
|
|
|
||
|
d x N |
; x = |
|
|
|
|
I |
Ук = ®к(х); |
|
|
|
|
|
|
|
||||
|
d D N |
|
|
L xN J |
|
|
|||
|
d X N |
_ |
|
|
|
||||
|
|
|
|
|
|
|
|
||
N |
N |
|
|
N |
|
N |
|
dxj |
dxi |
|
|
|
|
|
|
|
|
||
1=1 |
/'=1 |
|
ft.- |
1 /=1 |
dyi |
дуй УкУ1 |
|||
N |
N |
|
|
N |
|
N |
|
|
|
К Г * х г \ |
d D N v |
|
v |
|
|
d x i |
d x i |
||
yv |
dxidXj |
, |
|
, |
|
- |
dyi |
dyk УкУ1 |
|
_ i = i |
/ = i |
|
f ts= i |
s/ = 1 |
|
|
Из (6-20) следует:
a = x - W ~ ' D + — W ~ lC.
2!
Отсюда следует общее выражение для алгоритма поиска экс тремума функции многих переменных при наличии матрицы произ водных второго порядка
x ( n + \ ) = x ( n ) — W ~ x[х (л)] D [х (л)] + |
w ~ l Iх (л)1 С [х (л)]. |
|||
|
|
|
|
(6-22) |
б) Одномерный |
случай |
|
|
|
В |
этом |
случае D (х) = |
0; F(y) = |
D ~ x(x)\ х = F [D (х)], |
(х^[а, |
ft]); у = D [F (у)]. Если а |
— корень уравнения, то а = F (0). |
||
Разложим F (у) в ряд |
|
|
F (0) - F (у) = V ( - \)k |
ft! |
ук + RrM |
^шт |
|
|
ft=l |
|
|
165
или* |
иначе, |
|
|
|
|
|
|
|
|
а = |
* + |
^ |
( - l ) k |
[D (x)]k + |
Я ,и . |
|
|
|
|
|
k=\ |
|
|
|
|
|
|
Из исходных-уравнений дифференцированием получаем: |
|
||||||
|
|
|
|
F'[D(x)]D' (*) = 1; |
|
|
|
|
|
|
F" [D (л:)) D %(х) + F' [D (*)] D" (х) = |
0; |
|
||||
F'" [D (х)] D 3 (х) + |
3F" [D {х)} D' (х) D" (х) + |
Ff [D (*)] Dm (х) = 0. |
||||||
|
В случае |
г = |
2 получаем окончательно |
|
|
|
||
|
х ( п + \ ) |
= х ( п ) - ^ ^ - + |
^ - ^ |
- D’’’ (хп), |
(6-23) |
|||
|
|
|
|
D" (хп) |
2D’'3 (хп) |
|
|
|
где |
D'" (хп) = |
К* (п). |
|
|
|
|
Г л а в а с е д ь м а я
ПОСТРОЕНИЕ ЗАМКНУТЫХ СР
7-1. Постановка задачи
Как указывалось в гл. 5, выбор функционала вторичной оптимизации производится на основании заданных в общем виде характеристик входного сигнала, критерия первичной оптимизации и структуры разомкнутой СР. В процессе выбора функционала в системе распознавания были сфор мированы сигналы, моменты распределения которых со ответствуют или равны некоторым функционалам первичной оптимизации.
Замкнутая СР представляет собой разомкнутую СР с включенным блоком настройки. Построение замкнутых СР производится на основании выбранного критерия вто ричной оптимизации и метода поиска экстремума данного функционала. В качестве функционалов вторичной опти мизации были рассмотрены функционалы, связанные с мо ментами аналоговой и дискретной ошибок СР. В процессе построения замкнутых систем производится синтез блока вычисления параметров функционала качества СР, необ ходимых для организации процесса итерационного поиска. При этом основная задача заключается в том, чтобы оце нить вектор градиентов функционала вторичной оптимиза ции. Решить эту задачу можно двумя путями: поисковым, когда для организации итерационного процесса движения
166
к экстремуму функционала качества значения или знаки производных определяются в результате воздействия на систему и обработки результатов воздействия поисковых колебаний; нахождением оценки вектора градиентов в виде аналитического выражения через промежуточные и выход ные сигналы СР.
Впервом случае имеют дело с поисковой СР, во втором—
саналитической. Естественно, предпочтительнее построе
ние СР в виде аналитических систем, настраивающихся по замкнутому циклу, так как введение поисковых коле баний вносит дополнительные шумы в систему. Однако построение СР в виде аналитической системы не всегда воз можно. Если в системе нельзя выделить сигнал, характе ризующий градиент функционала оптимизации, то необхо димо использование поисковых колебаний.
Ниже рассматриваются системы распознавания раз личных типов: ЛПЭ с двумя решениями на два класса обра зов, ЛПЭ с /Ср решениями на К классов образов, ЛПЭ с кон тинуумом решений и континуумом классов образов, много слойные СР из ЛПЭ с континуумом решений при наличии и отсутствии ограничения на настраиваемые коэффициенты, многослойные СР с М*-мерными сигналами е (п) и xk (п), многослойные СР с перекрестными и обратными связями.
Методика построения методологически просто обоб щается на случай нестационарных образов, когда функ ционал вторичной оптимизации зависит от времени, а реа лизация вектора градиентов есть реализация нестационар ного многомерного случайного процесса. Это свойство гра диента определяет методику построения многомерного фильтра в блоке настройки СР.
Отдельного внимания требует вопрос построения много слойных СР в режимах самообучения и произвольной ква лификации учителя. Методология построения замкнутых СР здесь та же, что и в режиме обучения.
Построение алгоритма настройки СР по замкнутому циклу производится подстановкой выражения для оценки вектора градиента функционала в соответствующую фор мулу для поисковой процедуры.
7-2. ЛПЭ с двумя и континуумом решений
Для ЛПЭ с двумя решениями ниже рассматриваются четыре функционала вторичной оптимизации | а 1о|, а 2а, l a lg | , a 2g. Выражение для модуля оценки первого момента
167
аналоговой ошибки имеет следующий вид
|
----- тп |
N |
------ тп |
|
I (Л) |
X.'l |
, (х0= — 1). |
||
I = е (п) — \а ,- * ,- ( л) |
||||
|
|
1=0 |
|
|
Отсюда |
|
|
|
|
---------- тп |
|
|
|
|
х а (я) |
— — sign [ха(п) ”| |
х((п) ", |
г = 0, . . . , N. |
|
даI |
|
|
|
|
Рекуррентное выражение, являющееся основой по строения ЛПЭ, настраивающегося по замкнутому циклу, имеет следующий вид:
Г----------- т* 1 ------------тп |
. |
(7-1) |
a (n + 1) = а(п )— К* sign [ха (п) ]х(л) |
Выбор параметров матрицы К* является в конечном итоге задачей анализа и синтеза замкнутых СР. Однако уже на данном этапе можно наложить на ее вид определен ные ограничения. Эти ограничения могут определяться, исходя из задания конкретного вида градиентной итера ционной процедуры (Ньютона, Гаусса—Зейделя, Саусвелла и пр.). В [Л. 40, 41 ] эти ограничения определяются для метода стохастической аппроксимации. Можно потре бовать сходимости итерационной процедуры к экстремуму
| а 1а| на каждом шаге, т. |
е. соблюдения следующего усло |
|
вия (в одномерном случае): |
||
---------- т |
-----------т |
1) + а0( я + 1) = 0. |
е(п) —х(п) |
||
В данном случае одними из возможных значений элемен- |
||
тов матрицы к* |
будут: |
/Сц = — \ха(п) |, /C2i='K 'i2 = |
= /<2*2 = 0.
Выбор величины тп в выражении
-------------m |
1 |
- т |
х ^ п ) |
=1гп |
2 |
i= n—т„
п
также является задачей анализа и синтеза замкнутых СР. Здесь необходимо отметить следующее. Уменьшение тп, с одной стороны, приводит к повышению уровня шумов измерения градиента функционала вторичной оптимизации с другой стороны, уменьшает запаздывание в контуре на
168
стройки по замкнутому циклу.
В случае минимизации второго момента аналоговой ошибки
|
N |
ы |
хК п) |
2 a iXi (п) |
— 2е (л )2 alxi (л). |
|
i = 0 |
i= О |
Отсюда |
|
|
дХд (п) |
—2Xa(n)-Xi(n) |
, i = 0, . . . , N\ |
|
даI
а (л + 1) = а (л)— 2ЛД ха(л) х (л)
При минимизации модуля первого момента дискретной ошибки СР
|
|
|
---------------------N |
т „ |
\хЛп) | = |
е(п) |
-sign |
|
|
2 |
аЛ (« ) |
|||
|
|
|
i=0 |
|
*g (я) |
-sign [X л] |
— |
sign g (л) . |
|
За/ |
|
|
За/ |
|
Для поиска экстремума можно использовать информа цию о знаке первой производной, о величине первой произ водной, о величине первой производной и знаке второй,
овеличинах первой и второй производной и т. д.
Вданном случае величину первой производной опреде
лить нельзя |
и необходимо |
использовать |
|
информацию о |
||||
ее знаке; так |
как |
|
|
|
|
N |
||
|
|
|
|
|
|
|
||
j - |
sign У аМ п ) = П т — |
arctg В |
2 |
atXi (л) = |
||||
За/ |
£ “0 |
В~*оо |
|
л |
За,- |
1=0 |
||
|
|
= |
lim |
_2 |
Bxj (п) |
|
|
|
|
|
|
В->оо |
л |
1 |
+ B‘zg3n ’ |
|
|
ТО |
|
|
|
|
|
|
|
_8____ |
sign |
signg(n) |
sign |
|
•хДл) lim |
|
|||
|
|
S2g2 (а) |
||||||
|
За/ |
|
|
|
|
В-*-оо |
|
|
Отсюда |
|
= signx; (л). |
|
|
||||
|
|
|
|
|
|
|
||
|
= |
sign [*„ (л)] sign xt (л), t = 0, |
. . . , N. (7-2) |
|||||
За,- |
|
|
|
|
|
|
|
169