Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Галушкин, А. И. Синтез многослойных систем распознавания образов

.pdf
Скачиваний:
11
Добавлен:
22.10.2023
Размер:
12.65 Mб
Скачать

В частном случае ограничений типа неравенств, зада­ ваемых соотношениями (6-13а), qi(a 0;

а —а

Ча(а): ,— а < 0 ; q (а) =

 

 

 

 

1

0

0

.

°

-

i

-l

0

0.

0 .

'

 

 

 

 

0

1

 

 

0

о

.

0

j

0 —

.

l

 

Q

(

a

)

0

=0

0

.

i

0

0

0

.

 

 

i

 

6-5. Алгоритм случайного поиска локальных и глобального экстремумов функций многих переменных

Пожалуй, единственной причиной введения случайно­ сти в процедуру поиска экстремума функционала вторич­ ной оптимизации СР является многомодальность распреде­ лений входного сигнала, которая при заданной структуре разомкнутой СР приводит к многоэкстремальности функ­ ции качества СР. Наиболее полное освещение методы слу­ чайного поиска нашли в работах Л. А. Растригина, в ча­ стности в его монографии [Л. 28].

Нашей задачей является поиск всех локальных мини­ мумов многоэкстремального функционала ошибки СР, и, если это необходимо, выбор из них глобального минимума. Именно поэтому применительно к СР был разработан ме­ тод случайного поиска локальных и глобального экстрему­ мов функций многих переменных. Опишем один цикл ра­ боты данного алгоритма:

а) случайным образом выбирается значение вектора переменных функции, экстремум которой ищется. Само собой разумеется, что данный вектор располагается в об­ ласти одного из локальных экстремумов;

б) одним из изложенных выше методов неслучайного поиска находится локальный экстремум, в области которого расположен вектор переменных, выбранный на первом этапе;

в) величина экстремума и соответствующее ему значе­ ние вектора переменных, найденных на втором этапе, срав­ ниваются с содержимым памяти. При отсутствии в памяти указанных характеристик локального экстремума послед­ ние запоминаются;

г) производится переход к первому этапу (п. «а»). Результаты экспериментального исследования данного

алгоритма при многомодальных распределениях входного

160

сигнала и СР типа одномерного и многомерного ЛПЭ при­ водятся в гл. 8. Ниже рассматривается задача анализа схо­ димости данного алгоритма случайного поиска по числу экстремумов функции. В принципе можно рассмотреть ал­ горитм случайного поиска, исключающий из области слу­ чайного задания вектора начальных условий те подобласти, которые соответствуют уже найденным локальным экстре­ мумам. Это, несомненно, ускорит сходимость алгоритма случайного поиска по числу экстремумов.

Произведем анализ сходимости алгоритма случайного поиска локальных и глобального экстремумов функций. Пусть найдено i мод (0 — 1). Вероятность того, что на следующем шаге мы попадаем в область этих i мод, равна UU при равномерном распределении мод в простран­ стве поиска. Распределение случайной величины равной числу шагов случайной процедуры поиска от нахождения i-й моды до нахождения (i -\- 1)-й моды включительно, имеет

вид

= k с вероятностью

i

 

 

t \*-i

(6-15)

 

U

 

 

 

 

Процедура случайного поиска производится независимо на каждом шаге. Введем в рассмотрение новую случайную

величину

т]j =

2

%

(1 < / < i U), характеризующую

число

 

 

 

1=0

 

 

 

 

 

 

 

 

 

шагов случайной процедуры до нахождения / мод из U.

Независимые

события

= ku

. . . ,

%k-i =

&/—i ,

где

1

k -sjCs — 1,

. . . ,

1 ^ k j — 1 ^ s —П 1

и

k ± + k 2

+

■ ■ ■ +

-f

kj-i =

s + j 1

в

объединении дают

событие

такое,

что

т]/ =

£ „ + • • •

+

i/-i = s +

/,

причем l Q= 1

с

ве­

роятностью, равной единице. Вероятность такого события

в силу независимости

равна:

 

 

P

( l i = *i)

• • • P ( l i -1

= * /_ ,).

 

По формуле

полной

вероятности

 

 

^>(Tl/ = s +

/) =

2

P(%i = ki) ..

 

k^-\- ■ ■ • \-ftj_j=S+/—1

 

. . . P (£,•_! -

*/_,) = Ul4 ~s(7; " n-

X

 

y 1

1 1

(U — i)\

 

 

 

kr>X

/— 1 k,

(6-16)

X

2

n i .

 

k[+ . . .

+ * ) _ ,= *

 

 

6 Заказ № 975

161

В частности, при /

= U

 

 

 

Р (Ци = s +

U) -

Ul~u~s (U — 1)! х

 

 

 

и-\

fe'

 

2

,

П

i r ,

krr ■■■+ки—l=s

1—1

 

 

........v-i)

 

 

где P (rjy = s + U) — вероятность того, что U мод будут найдены за (s + U) шагов случайной процедуры поиска. Можно показать, что среднее значение и дисперсия числа шагов случайной процедуры поиска, необходимых для нахождения £/_мод, могут быть представлены следующими выражениями:

U— 1

1 + U [In (I/ — 1) + 0,577];

Г=1

\ (6-16а)

2U2— U [1п(£/—1) +

г=1 + 0,577 . . .].

Анализ данных выражений показывает достаточную скорость сходимости рассматриваемой процедуры поиска для задач распознавания образов. В принципе, как пока­ зано выше, процедура может быть обобщена на случай, когда область найденной моды исключается из области случайного поиска, что еще более ускорит сходимость случайной процедуры поиска. Приведенные" выше соотно­ шения верны и для многомерного случая.

6-6. Построение алгоритмов адаптации в многослойных СР с использованием оценок

производных второго порядка функционала вторичной оптимизации

В этой главе рассматривается построение алгоритмов адапта­ ции в многослойных СР с использованием оценок производных одновременно и первого и второго порядка функционала вторичной оптимизации. Основное внимание уделяется алгоритмам поиска экстремума функционала с учетом вторых производных и выводу выражений для оценок вторых производных функционала через теку­ щие сигналы в системе.

162

а) Построение алгоритмов поиска

Рассмотрим задачу поиска экстремума в виде эквивалентной задачи нахождения корня следующей системы уравнений:

D 1 ( * V

■■■x n ) = 0 ;

 

(6-17)

D n

• • • . x N) — О-

При рассмотрении системы, заданной неявно

y i ~ Di(xi.........

V> = °-

 

(6-18)

Un Dn (Xv

• ' • ’ xn) 0 -

и удовлетворяющей второй теореме Юнга, существуют такие

x i (yv

■■■,

y N) = F i (yv

• • • . VN)'i

 

 

 

(6-19)

x N (yv

■■■,

y N) F N (yv

, y N),

что при их подстановке в (6-18) получаются тождества. Разложим

функции {уъ . . . . уц), . . ., Fn (г/!,. . . , ys) в РЯД Тэй" лора, ограничившись двумя членами

N

F1 (Q) = F1 ( y ) - ^ F ' lyi(y)yl +

 

 

1=1

+

21

S

dytdyt Уа‘ +

 

 

 

( 6- 20)

 

 

 

N

Fn (0) =

Fn ( y ) - y i FNy. (y)yi

 

 

t—l

 

1

N N Д2С

 

1

-yi ^

o2Fн

 

21

V

FiVi + Fzn-

 

S

d^ dyi

Дифференцированием (6-18) с учетом (6-19) получаем следую­ щую систему уравнений:

N

 

 

N

dxi = i;

dDy

dxi

0;

dDk

dxi

dyk

 

dxi

dyk

T=l

 

 

i=i

• ( 6-21)

 

N

 

 

 

дРн

dxi _ 0.

 

 

 

 

 

i=1

dxi

dyh

 

5*

163

" дF,

 

 

<3F,

~

 

” 3D,

 

 

 

дР,

- -1

dl/l

 

 

 

 

 

с?*!

 

 

 

dxN

d F N

 

 

d F N

 

3 P n

 

 

 

dDN

 

dyi

 

 

dFN

_

 

dxt

 

 

 

dxN _

После дифференцирования (G-21) получаем:

 

y

N

 

 

 

N

N

 

 

 

dxi ()Xi

 

i

д-хс

dDj

; у

 

^

d 2D ,

о-

 

'

dtjkdyi

0xt

 

Zmi dxidxj

dyi

dyk

 

i=i

 

 

 

i= 1

/=1

 

 

 

 

 

 

N

 

 

 

N

N

 

 

 

 

 

 

 

 

d*-Xj d P N

y ,

y i

d W

N

 

dxi_

>0.

 

I dykdyi

дх^

.=1

/=l

| dxidxj

dyi dyk

 

i= 1

 

 

 

 

 

 

 

 

 

Умножая обе части уравнений на УкУ1

и

суммируя по k и /,

получаем:

 

 

N

 

N

N

 

 

 

 

 

 

 

 

 

дРг

d*Xi

 

 

 

 

 

 

 

 

\ Л

\ Л

V I

 

 

 

 

 

 

 

 

jmJ

дх{

k—\

J . U dykdyi УкУ‘ ~

 

 

 

 

 

(=1

 

1=1

 

 

 

 

 

 

 

 

N

N

 

 

 

N

N

 

 

 

 

 

 

jm A j—A dxidxi

 

fe=i

/=1

 

dyi dyk

 

 

 

£=i

j=i

 

 

 

 

 

 

 

 

 

 

 

 

N

 

N

 

 

 

 

 

 

 

 

 

 

д %

y

v

 

д*Х{

 

УкУ1 =

 

 

 

 

1=1

d X i

*=1

jm t4 d y k d y i

 

 

 

 

 

 

 

 

1=1

 

 

 

 

 

 

 

 

N

N

д'ЮN

 

ЛГ

Л1

dxj dxi

 

= CЛГ

 

v

 

v

| dxidxj X

ft=l

1=1

dyi dyk y Ly k

 

1=1

/=1

 

 

 

 

 

 

 

Иначе

эту

систему уравнений

можно

переписать:

~ N '

N

d2x,

 

~

 

 

dPt

 

 

dPt

 

V 4

V I

 

 

 

 

 

 

 

fc-i

/=i

 

 

 

 

 

dxx

 

'

^

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

N

 

 

 

 

 

 

 

 

 

 

 

С.

 

 

 

 

 

 

 

 

 

 

 

 

V V d 4 N

УМ

 

 

 

 

 

 

аод,

Z j

 

 

a

 

 

dxx

 

 

' dxN

Н 1 ^дукдУ1

 

 

 

 

 

164

С учетом того, что вектор

 

«1

Fi (0) -

а =

 

_ “yv_

 

есть корень системы (6-17),

 

~ < 3 Z ),

dxx

U7-

d D N

dxx

Ci

С =

_ Cn .

 

dD,

-

 

 

x i

_

 

 

 

 

 

 

 

 

 

 

 

d x N

; x =

 

 

 

 

I

Ук = ®к(х);

 

 

 

 

 

 

 

d D N

 

 

L xN J

 

 

 

d X N

_

 

 

 

 

 

 

 

 

 

 

 

N

N

 

 

N

 

N

 

dxj

dxi

 

 

 

 

 

 

 

 

1=1

/'=1

 

ft.-

1 /=1

dyi

дуй УкУ1

N

N

 

 

N

 

N

 

 

 

К Г * х г \

d D N v

 

v

 

 

d x i

d x i

yv

dxidXj

,

 

,

 

-

dyi

dyk УкУ1

_ i = i

/ = i

 

f ts= i

s/ = 1

 

 

Из (6-20) следует:

a = x - W ~ ' D + — W ~ lC.

2!

Отсюда следует общее выражение для алгоритма поиска экс­ тремума функции многих переменных при наличии матрицы произ­ водных второго порядка

x ( n + \ ) = x ( n ) — W ~ x[х (л)] D [х (л)] +

w ~ l Iх (л)1 С (л)].

 

 

 

 

(6-22)

б) Одномерный

случай

 

 

В

этом

случае D (х) =

0; F(y) =

D ~ x(x)\ х = F [D (х)],

(х^[а,

ft]); у = D [F (у)]. Если а

— корень уравнения, то а = F (0).

Разложим F (у) в ряд

 

 

F (0) - F (у) = V ( - \)k

ft!

ук + RrM

^шт

 

ft=l

 

 

165

или*

иначе,

 

 

 

 

 

 

 

 

а =

* +

^

( - l ) k

[D (x)]k +

Я ,и .

 

 

 

 

k=\

 

 

 

 

 

Из исходных-уравнений дифференцированием получаем:

 

 

 

 

 

F'[D(x)]D' (*) = 1;

 

 

 

 

 

F" [D (л:)) D %(х) + F' [D (*)] D" (х) =

0;

 

F'" [D (х)] D 3 (х) +

3F" [D {х)} D' (х) D" (х) +

Ff [D (*)] Dm (х) = 0.

 

В случае

г =

2 получаем окончательно

 

 

 

 

х ( п + \ )

= х ( п ) - ^ ^ - +

^ - ^

- D’’’ (хп),

(6-23)

 

 

 

 

D" (хп)

2D’'3 (хп)

 

 

где

D'" (хп) =

К* (п).

 

 

 

 

Г л а в а с е д ь м а я

ПОСТРОЕНИЕ ЗАМКНУТЫХ СР

7-1. Постановка задачи

Как указывалось в гл. 5, выбор функционала вторичной оптимизации производится на основании заданных в общем виде характеристик входного сигнала, критерия первичной оптимизации и структуры разомкнутой СР. В процессе выбора функционала в системе распознавания были сфор­ мированы сигналы, моменты распределения которых со­ ответствуют или равны некоторым функционалам первичной оптимизации.

Замкнутая СР представляет собой разомкнутую СР с включенным блоком настройки. Построение замкнутых СР производится на основании выбранного критерия вто­ ричной оптимизации и метода поиска экстремума данного функционала. В качестве функционалов вторичной опти­ мизации были рассмотрены функционалы, связанные с мо­ ментами аналоговой и дискретной ошибок СР. В процессе построения замкнутых систем производится синтез блока вычисления параметров функционала качества СР, необ­ ходимых для организации процесса итерационного поиска. При этом основная задача заключается в том, чтобы оце­ нить вектор градиентов функционала вторичной оптимиза­ ции. Решить эту задачу можно двумя путями: поисковым, когда для организации итерационного процесса движения

166

к экстремуму функционала качества значения или знаки производных определяются в результате воздействия на систему и обработки результатов воздействия поисковых колебаний; нахождением оценки вектора градиентов в виде аналитического выражения через промежуточные и выход­ ные сигналы СР.

Впервом случае имеют дело с поисковой СР, во втором—

саналитической. Естественно, предпочтительнее построе­

ние СР в виде аналитических систем, настраивающихся по замкнутому циклу, так как введение поисковых коле­ баний вносит дополнительные шумы в систему. Однако построение СР в виде аналитической системы не всегда воз­ можно. Если в системе нельзя выделить сигнал, характе­ ризующий градиент функционала оптимизации, то необхо­ димо использование поисковых колебаний.

Ниже рассматриваются системы распознавания раз­ личных типов: ЛПЭ с двумя решениями на два класса обра­ зов, ЛПЭ с /Ср решениями на К классов образов, ЛПЭ с кон­ тинуумом решений и континуумом классов образов, много­ слойные СР из ЛПЭ с континуумом решений при наличии и отсутствии ограничения на настраиваемые коэффициенты, многослойные СР с М*-мерными сигналами е (п) и xk (п), многослойные СР с перекрестными и обратными связями.

Методика построения методологически просто обоб­ щается на случай нестационарных образов, когда функ­ ционал вторичной оптимизации зависит от времени, а реа­ лизация вектора градиентов есть реализация нестационар­ ного многомерного случайного процесса. Это свойство гра­ диента определяет методику построения многомерного фильтра в блоке настройки СР.

Отдельного внимания требует вопрос построения много­ слойных СР в режимах самообучения и произвольной ква­ лификации учителя. Методология построения замкнутых СР здесь та же, что и в режиме обучения.

Построение алгоритма настройки СР по замкнутому циклу производится подстановкой выражения для оценки вектора градиента функционала в соответствующую фор­ мулу для поисковой процедуры.

7-2. ЛПЭ с двумя и континуумом решений

Для ЛПЭ с двумя решениями ниже рассматриваются четыре функционала вторичной оптимизации | а 1о|, а 2а, l a lg | , a 2g. Выражение для модуля оценки первого момента

167

аналоговой ошибки имеет следующий вид

 

----- тп

N

------ тп

 

I (Л)

X.'l

, (х0= — 1).

I = е (п) — \а ,- * ,- ( л)

 

 

1=0

 

 

Отсюда

 

 

 

 

---------- тп

 

 

 

 

х а (я)

— — sign [ха(п) ”|

х((п) ",

г = 0, . . . , N.

даI

 

 

 

 

Рекуррентное выражение, являющееся основой по­ строения ЛПЭ, настраивающегося по замкнутому циклу, имеет следующий вид:

Г----------- т* 1 ------------тп

.

(7-1)

a (n + 1) = а(п )— К* sign [ха (п) ]х(л)

Выбор параметров матрицы К* является в конечном итоге задачей анализа и синтеза замкнутых СР. Однако уже на данном этапе можно наложить на ее вид определен­ ные ограничения. Эти ограничения могут определяться, исходя из задания конкретного вида градиентной итера­ ционной процедуры (Ньютона, Гаусса—Зейделя, Саусвелла и пр.). В [Л. 40, 41 ] эти ограничения определяются для метода стохастической аппроксимации. Можно потре­ бовать сходимости итерационной процедуры к экстремуму

| а 1а| на каждом шаге, т.

е. соблюдения следующего усло­

вия (в одномерном случае):

---------- т

-----------т

1) + а0( я + 1) = 0.

е(п) х(п)

В данном случае одними из возможных значений элемен-

тов матрицы к*

будут:

/Сц = — \ха(п) |, /C2i='K 'i2 =

= /<2*2 = 0.

Выбор величины тп в выражении

-------------m

1

- т

х ^ п )

=1гп

2

i= nт„

п

также является задачей анализа и синтеза замкнутых СР. Здесь необходимо отметить следующее. Уменьшение тп, с одной стороны, приводит к повышению уровня шумов измерения градиента функционала вторичной оптимизации с другой стороны, уменьшает запаздывание в контуре на­

168

стройки по замкнутому циклу.

В случае минимизации второго момента аналоговой ошибки

 

N

ы

хК п)

2 a iXi (п)

— 2е (л )2 alxi (л).

 

i = 0

i= О

Отсюда

 

 

дХд (п)

—2Xa(n)-Xi(n)

, i = 0, . . . , N\

 

даI

а (л + 1) = а (л)— 2ЛД ха(л) х (л)

При минимизации модуля первого момента дискретной ошибки СР

 

 

 

---------------------N

т „

\хЛп) | =

е(п)

-sign

 

2

аЛ (« )

 

 

 

i=0

 

*g (я)

-sign [X л]

sign g (л) .

За/

 

 

За/

 

Для поиска экстремума можно использовать информа­ цию о знаке первой производной, о величине первой произ­ водной, о величине первой производной и знаке второй,

овеличинах первой и второй производной и т. д.

Вданном случае величину первой производной опреде­

лить нельзя

и необходимо

использовать

 

информацию о

ее знаке; так

как

 

 

 

 

N

 

 

 

 

 

 

 

j -

sign У аМ п ) = П т —

arctg В

2

atXi (л) =

За/

£ “0

В~*оо

 

л

За,-

1=0

 

 

=

lim

_2

Bxj (п)

 

 

 

 

 

В->оо

л

1

+ B‘zg3n

 

 

ТО

 

 

 

 

 

 

 

_8____

sign

signg(n)

sign

 

•хДл) lim

 

 

 

S2g2 (а)

 

За/

 

 

 

 

В-*-оо

 

Отсюда

 

= signx; (л).

 

 

 

 

 

 

 

 

 

 

=

sign [*„ (л)] sign xt (л), t = 0,

. . . , N. (7-2)

За,-

 

 

 

 

 

 

 

169

Соседние файлы в папке книги из ГПНТБ