Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Нейронные сети для обработки информации

..pdf
Скачиваний:
9
Добавлен:
12.11.2023
Размер:
14.05 Mб
Скачать

Рис. 12.8. Процесс уточнения параметров нечетюЛ сет:

а) центры С{функции принадлежности; б) параметры (7с, о) показатели степени 6/

НеноткиО алюрити при 40нейронах- начальное состояние

0.Г.---------------.---------------<-------.---------------•-------

0,65 •

4 6 -

а5 в -

0.6

0.45

0,4

 

0.05

0.3

• •

0,25

 

<1^1

.

.

.

.

.

.

.

 

 

' 0.25

0,3

0.35

0.4

0,45

 

0.5

0.55

0,0

0.55

0) Нечетки!} алюрити при 40нейронах- конечно»состояние

0,7--------- ,--------- .--------- .------------- -------------- ■------------- .------------- г—

 

5165

 

 

 

 

 

 

 

 

 

0,0

-

 

 

 

 

 

 

 

 

0.55

-

 

 

 

 

 

 

 

 

0.5

 

 

 

 

 

 

 

 

0,45-

 

 

 

 

 

 

 

 

0,4.

 

 

 

 

 

 

 

 

0.35

 

 

 

 

 

 

 

 

 

0,3

 

 

 

 

 

 

 

 

0.25

 

 

 

 

 

 

 

 

 

°'0 ,2 5

0,3

0.35

0.4

0.45

0.5

0,65

0.6

4 6 5

Рис. 12.9. Р езул ьтат восстановления обучающих данных с рис. 9.2 нечеткой неЛронкоП сетью с самоорганизацией, состоящей из 4 0 нейронов:

л) исходное состояние после разностного группирования; 6) окончательное размещение упорядоченных нейронов

12.10, относятся к начальному состоянию процесса обучения при исполь­ зовании алгоритма разностного группирования (рис. 12.10а) и результирующего состояния (рис. 12.106). Анвлнз пехотного расположения нейронов пока­ зывает, что алгоритм разностного группирования обеспечивает весьма точное позиционирование центров нечетких функций. Алгоритм самоорганизации очень быстро приводит к их оптимальному размещению. Результаты, достигнутые с применением нечеткой сети, оказываются конкурентоспособными по отношению к наилучшим результатом, полученным на сети Кохонена. При использовании 4 0 нейронов погрешность квантования в нечеткой сети составила 0 ,0 0 0 3 5 (илилучший результат в сети Кохонена был равен 0 ,0 1 7 4 ), а при 2 0 0 нейронах

погрешность квантования не превысила 0,000172 (в сети Кохонена - 0,0070$). Различие в уровне погрешности достаточно велико; око обусловлено разными способами представления данных в классической системе и в нечеткой сети. В системе Кохонена каждую точку данных в многомерном пространстве

а) Нечеткийшлюроти при 200ивОрон»х- ммалыюе состоянии

0,7

 

-------■-------- . . .------------- ----------------------------------

0.05

 

 

 

 

 

 

 

 

0.6

 

 

 

 

 

 

 

 

0.55

 

 

 

 

 

 

 

 

0.5

•.

 

 

 

 

 

 

 

 

0.45

 

 

 

 

 

 

 

 

 

0.4 .

 

 

 

 

 

 

 

 

0.35 ■

 

 

 

 

 

 

 

 

0.3

 

 

 

 

 

 

 

 

0.25

 

 

 

 

 

 

 

 

 

рэ!

------

■-----

1---------

■-------

•-------

1____ _____ ■

 

0,25

0.3

0.35

0.4

0.45

0.5

0.55

0.5

0.05

6) Нечеткий епшоритипри 200нейронах- лонвчнов состояние

Рис. 12.10. Результаты восстановления обучающих данных с рис. 9.2 нечеткой нейронной сетью с самоорганизацией, состоящей из 200 нсГфонов:

а) исходное состояние после разностного группирования; б) окончательное размещение упорядоченных нейронов

представляют веса только одного нейрона, тогда как в нечеткой сети с самоорганизацией - множество нейронов, расположенных поблизости друг от друга. Благодаря этому становится возможным лучшее и более точное отображение использованных при обучении исходных данных.

Эта разница наиболее отчетливо заметна при представлении данных, соответствующих простой одномерной функции, например, синуса.

На рис. 12.11 демонстрируется аппроксимация этой функции с исполь­ зованием 20 нейронов. Рис. 12.11л отображает работу нечеткой сети, а рис. 12.116 - сети Кохонена. Классическая сеть Кохонена аппроксимирует функцию отрезками прямой, а нечеткая сеть - непрерывкой кривой линией. Уровни погрешности восстановления различаются при этом в среднем в 2,5 раза.

Очень хорошие результаты получены при использовании нечеткой сети Т8К для распознавания компонентов газовых смесей. Исследования проводились на тех же обучающих н тестовых выборках, которые применялись в экспериментах с гибридной сетью, описанных в разделе 9. Применялась

я) Аппрокашеция функции « т у е с применением нечеткойсети

Рис. 12.11. Иллюстрация способа аппроксимации синусоидальной функции

а) сетью с нечеткой самоорганизацией; б) сетью Кохонена

пятивходопая сеть Т8К <дпи учета показаний пяти полупроводниковых датчиков) сг пятью нечеткими правилами. Количество выходных нейронов было равно четырем (смесь состояла из четырех газовых компонентов)* Обучение проводилось по гибридному алгоритму подбора параметров ссп<, объединенному с предварительной пннциализацней цс1ггров нечетких функций, основанной на механизме самоорганизации по принципу разностного группирования. Этот принцип позволил получить практически идеальное начальное размещение центров, благодаря чему адаптированный к сети Т8К гибридный алгоритм уже после первого прохода (выполнение декомпозиции 8\Ш) перевел сеть в обученное состояние. На рис. 12.12 представлены результаты тестирования натренированной сети Т5К на тех же данных, которые применялись в экспериментах с гибридной сетью. Эти результаты представляют собой графики относительной погрешности опреде­ ления четырех газовых компонентов (1 -двуокись углерода, 2-мстан, 3-метоиол, 4 - пропаи/бутаи). Среднее значение относительной погрешности по резуль­ татам экспсримстов составило 0,23%, что свидетельствует1 о существенном прогрессе по отношению к Показателям, достигнутым с помощью гибрид­ ной сети.

Тестовые выборки

Тестовые выборки

Рис. 12.12. Распределение относительны х

погреш ностей определения четырех

компонентов газовой смеси, полученных с использованием нечеткой сети Т 8К.

12.5. Адаптивный алгоритм самоорганизации нечеткой сети

Представленный в предыдущем подразделе алгоритм самоорганизации требует априорного знания количества центров (нечетких нейронов), которые будут предоставлять данные. С этой точки зрения наиболее универсальным представляется адаптивный алгоритм, автоматически добав­ ляющий новые центры в режиме онлайн в зависимости от распредслвши входных данных х.

Адаптивный алгоритм был сформулирован только для гауссовской функции (6 = I) с использованием обобщенной модели Ванга-Менделя [160]. В результате его реализации определяются: количество центров и их расположение в части, соответствующей условиям (множество векторов х>) и заключениям (множество скалярных ожидаемых значений 4). Этот алгоритм можно

описать

следующим образом.

 

 

 

1. При

сторте

с

первой пары данных

(л*|, 4 ) создастся

первый кластер

с центром

С |=Х |. Принимается, что 1Н|=</]

и что

мощность мно­

жества 1 .|- 1 .

Пусть г обозначает

предельное

эвклидово расстояние

между вектором х и центром, при котором данные будут трактоваться как принадлежащие к созданному кластеру. Для сохранения общности решения принимается, «по в момент иачпла обучения существует М клас­

теров

с центрами С|, С2, ..., сц и соответствующие нм значения

и

/,*(/=

1,2,.... ЛЯ.

 

2.После считывания Л-й обучающей пары (х*. «/*) рассчитываются рас­ стояния между вектором дд и всеми существующими цстрвмп ||х*-су|| для / - 1, 2, ..., М. Допустим, что ближайший центр - это с/,. В таком случае в зависимости от значения ||**-с/,|| может возникнуть одна из двух

ситуаций:

 

 

 

• сели ||** —с ,,|| > г, то создается новый кластер сагм

=

**, при­

чем

Ц м(к)° I. Параметры созданных до этого кластеров нс

изменяются,

т.е. 1У/(Л)=Щ/(Л-1), 1/(&)=1/(Л-1) для I =

I,

2...... М.

Количество

кластеров М увеличивается на 1 (Л/<-Л/+1);

 

 

сели || ** - с;, || ^ г, то дпнные включаются в /*-Я кластер, параметры которого следует уточнить в соответствии с формулами [60]:

(* - !) + </* ,

(12.48)

М * )= М * -1 > + 1 «

(12.49)

 

с ,,(* -1 )^ (* -!)+ **

(12.50)

сЛк)

Ч<*)

В другой версии алгоритма фиксируется положение центров

поело

инициализации, н их координат уже ке изменяются. Во мкопех случаях такой прием улучшает результаты адаптации.

3.После уточнения параметров нечеткой системы функция, аппрокси­ мирующая входные данные системы, определяется в виде

 

 

(12.51)

тоща как остальные кластеры не изменяются, т.с. при Г*/*

1У|(Л)в и ^ Л - 1 ),

*./(*) - М * - 1) и

с,(*) = с,(к-1), для 1= I ,2,.... М.

 

При повторении

перечисленных этапов алгоритма до

к= р с уточне-

1шем каждый раз значения М пространство данных разделяется на М клас­

теров,

при этом мощность каждого нэ них определяется как 1/ = Ц(к),

центр -

как с/ = С{(к),а значение приписанной ему накопленной функции в -

как IV/ = и-/(к).

Этот алгоритм называется самоорганизующимся, поскольку разделение пространства данных на кластеры происходит самостоятельно и без участия человека, в соответствии с заданным значением порога г. При малом зна­ чении г количество кластеров возрастает, в результате чего аппроксимация данных становится более точкой, однако это достигается за счет болес сложной функции и увеличения объема необходимых вычислений при одновременном ухудшении обобщающих свойств сети. Если значение г слишком велико, то вычислительная сложность уменьшается, однако возрастает погрешность аппроксимации. При подборе оптимальной величины порога г должен соблюдаться компромисс между точностью отображения к вычислительной сложностью. Как правило, оптимальное значение г подбирается методом проб и ошибок с использованием вычислительных экспериментов.

На рис. 12.13 представлены результаты аппроксимации кривой / ( х ) = 0,1 81п(0,2ях>+ 0,2 $1п (0,3 п х ) + 0,б5Й1 (0,9 пх) +

+ 1,1$1п( 1,9л х) + 2,3 ып( 3,7л х)

нечеткой сетью с самоорганизацией при использовании адаптивного алго­ ритма обучения. Рис. 12.13 а иллюстрирует результаты, полученные при величине порога г = 0,2, а рис. 12.136 соответствует порогу г = 0,0$. Пунк­ тирная линия обозначает ожидаемые значения, а непрерывная линия — фактические значения, сгенерированные нейронной моделью. Алгоритм сам подбирал количество нейронов, отвечающее установленному значению порога г. В первом случае зафиксированное алгоритмом количество ней­ ронов было равно 12, а во втором - 19. Для обучения использовались только 500 первых реализаций сигнала. Оставшиеся 500 значений приме­ нялись исключительно для тестирования.

Адаптивныйивтодпри г= о,2

Рис. 12.13. Пример отображения данных нечеткой сетью с самоорганизацией при использовании адаптивного алгоритма обувшим: а) порог г =0,2; б) порог г = 0,05

Следует обратить внимание, что алгоритм самоорганизации нечеткой сети позволяет одновременно определять как параметры сети, так н ее структуру (количество нейронов скрытого слоя). Его реализация подобна модели Ванга-Менделя, олисывпемой формулой (12.7), в которой можно выделить центры с/, соответствующие множеству векторов дг, н коэффиЦИС1ГГЫ(V/, связанные с положением центров через последовательность заданных функций (</). В связи с накопительным характером формирования пара­ метров и»/ (формула (12.48)), в знаменателе выражения (12.51) суммирование производится с весами Ц%отражающими количество уточнений параметров конкретных групп данных (размерность кластера).

Литература

1.

Ватт А. Я. Арргохипабоп ап<) езНтаПоп Ьоипйз Гог агИПс1а1

пеига1 пе1\уогк5.

 

М асМ пс к а т ш е . - У о1.14,1994 . - Рр. 115-133.

 

2.

ВпиЬепМ К., ОхотЫ 5. Са$ апа1у$|$ $ уз(ет с о т р о зе й о Г а

зо1н1 $(а1е зспзог

вггау вш) ЬуЬп<1 пеша! псЬуоЛ з(гис(иге. Зепзогз апс! АсШ я1оге-В55,1999. - Рр. 3 8 -4 6 .

3.СагАию 3. Е, Ве!оис1\гат А., (.акеМ В. А псзу сошрозКе сгИепоп Гог 0|1ар([уе

аш1 а1сга1аус

Ъ1ш4 зоигсс зсрагаИоп И Ргос. 1СА38Р-94. - А б а к к с . Уо1. IV. -

Рр. 2 7 3 -2 7 6 .

 

4.С Ы С. К. А п ш<го<1ис1юп (о \уауе1е1з. N . V.: Асабепис Ргея, 1992.

5.СоигсП А/., СкагА В., агагА У, МиНег С.. Лоиие( Р. ОаНу е1сс(пса1 роигсг сипгс: с!аз-

8|Пса110п ап<1 ГогссазИпе изш^ а КоЬопеп шар // Р гот Ка!ига1 1о Л(||Г|С1а1 Исип11

 

Соглри(аНоп / У М йа, Р. Запбоуа!. е6$. - Ма1ава: М ЛЫ И, 1995. - Рр. 1107-1113.

 

6.

СоигсП

С.,

Мипго Р., 2\р$ег О. 1та§;е

сотргсззю п

Ьу Ьаск

ргара§аИоп:

 

ал ехатр1е оГ ех(епзюла1 р г о й г а т т т з. - ТссЬпка! Керог! 1С8 гсроП 87 0 2 ,1С 5-17С 50,

 

8 ап 01еБ0, СаИГогша, 1)8А, РеЪгиагу 1987.

 

 

 

 

 

 

 

 

 

 

 

7.

СНаиу{» У. А Ьаск ргораеаП'оп а1^оп11пл ч\а*К ор1йла1 изо оГ ЬнЫсл ип1(з ИАОуалсез

 

т № Р 82 / О. Тоиге1гку, Еб. -

Зал Мв1ео: Мог^ал КаиГтапл, 1989. • Рр. 51 9 -5 2 6 .

8.

СЛем 8., Сопгап С.Е, Огам Р.М. ОпЬоцола! 1еаз1

зциагез к а г л т е

 

а^ оп сИ т

 

Гог га<Иа1 Ьазгз ГипсЛоп пе№огк$ Н 1ЕЕЕ Тгвла. Ысига! Ыскуогкз,

1991.

Уо1. 2.

 

Рр. 3 0 2 -3 0 9 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

9 .

СНеп О.. Зат С. А

гоЬизг Ьаск

ргорвда110п (еатш |>

а^опИ ил

Гог

ГилсИоп

 

аррсохилабол // Ш ЕЕТгалз. №ига1 Ыейуогка, 1994. -

Уо1.5. -

Рр. 467 -4 7 9 .

 

10.

СНенв УН., Ип С.8

Ьеаплпз а^олОил

Гог гасНа! Ьаз1$

ГилсОол

пе№огк

«ИЬ

 

1Ье сараЪШ(у оГ аМ ш в влб ргипт^ лсиголз: Ргос. 1994 СолГ. 1С1Ч7Ч. Ог1ал<1о: 1994. -

 

Рр. 797-В 01.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

11.

СМнгш18теп& С„ 5сдтп

С.Н.

О рЛ та!

вЛарЛуе

К -т еа л з

а1&оп1Ьт

ууНЬ

 

булалЛс аб]и$1теп( оГ к ап и щ га!е // ШЕЕ Тгапз. №ига1 ЫеГиогкз,

1995. - Уо1. 6.

 

- Рр. 157 -169 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

12.

С/сА ос*/

А..

Во&пег

Я.,

Молсхумк!

1.,Роре

К.

МосНПеб

 

НсгоиН-ГиНел

 

а1^оп1Ьл15 Гот Ы Ы зерага!юл оГ зоигсез // 0!в|1а1 318ла1 Ргосеззшв,

1997. - Уо1. 7.

 

- Рр. 80-93.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

13.

СккосЫ А.. Мохгсгуткх Ь. ВЗ-рговпип оГ ЬИпб зерагаИол оГ зоигсез. -

ЭДызгахуа:

 

Ро№есНп1ка М№зга«узка, 1994. •

 

 

 

 

 

 

 

 

 

 

 

 

14.

СкЬоскх А.,

ШЬеЬаиен Я.

ЗС

пеига!

пе1жогкз

Гог

«ИЛсгспЛа! орГшлгаГюл

// ГлС. Г. С. Т. Арр!., 1991. - У о1.19. • Рр. 161-187 .

15.

С1скоск\ А.. ЦпМимеп А

№ига1 лс1\Уогк$ Гог 5о1уйц; $у$(спк оГ Нпеаг еяиаНопз

 

ап<1 гс1аЫ ргоЫсгш // 1ЕЕЕ Тгапз. С А 5 ,1992. - Уо1. 39. - Рр. 124-138.

 

 

 

16.

СмскосМ А..

1/икекаиен

Я.

№ ига!

 

пс(\Уогкз

Гог

орНпигаПоп

 

алД

$|^па1

 

ргосенш в. N. V.: М/Лсу, 1993.

 

 

 

 

 

 

 

 

 

 

 

 

17.

Сёскоскг А., ИпЬекачеп А ,

Мохгсгучик! I.,

НиттеП Е. А пе№ оп-Ипе аДаркуе

 

1саш тв а^огШип

Гог Ы тД

зсрагвДоп

оГ зоигсс $1§па1$. I5ЛNN. -

Тыкал,

1994.

 

-Р р . 421 -427 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

18.

Сёскоскг А., Атап 8 АДарНуе ЫшД 31§па1 ргосе$5Ш§ • леига I пеКУогк арргоасЬез

 

П РгосссД|пв$ оПЕПЕ, 1998. - Уо1.86. • Рр. 2026-2048.

 

 

 

 

 

 

 

19.

Сокеп М.А., СгохзЬег$ А

ЛЬзо1и(е

з1аЬНа1у оГ

§1оЪв1 р аК ет

ГогтаГюп апД

рагаНе! тсш огу

&(ога§с Ьу сошре(к‘|Ус леига! пеЬУогкз //

1ЕЕЕ

Тгапз. ЗМС, 1983. •

 

Ув1.13. - Рр. 815 -826 .

 

 

 

 

 

 

 

 

 

 

 

 

 

20.

Са\'сг Т. Ссотс1гка1 апД

5(аД$1ка! ргорсПк* оГ зуМ стз

оГ

Ппеаг

 

теяиаШ кз

 

ккк аррИсаНопа т раИ ет гссоетКоп // ШЕЕ Тгапз. Е кскопк Сотрикгз, 1965. -

 

Уо1. 14. - Рр. 326 -334 .

 

 

 

 

 

 

 

 

 

 

 

 

 

21.

Сго^а/а Е., РеАгусг 1К Е1стсп1у I тс1оДу 1сот гЫогук гогтуГусЬ. - МУагаака: Р М 4,

 

1985.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

22.

Оагкеп С ,

МооАу 1 Ьсапйпв

зсЬеДикз

Гог $1ос1|аМк орИткаДоп

И Ргос.

1990

 

1ЕЕЕ СопГ. N № 5 // №1ига1 апД 5уп1с1к, 1990. - Рр. 518-523.

 

 

 

 

 

 

23.

ОаиЬссЫез /. Теп 1ес1игсз оп чувус1с15. СВМ5- N 5? Кс$лопз1 СопГ. Зспсз т ЛррИсД

 

МаДгстаДсз, Моп(рс1кг: Сарка! Ску Гге55,1992. - УЫ. 61.

 

 

 

 

 

 

24.

ОетагНнех Р. Лпа1у$е Дс Доппсез раг гсзсаих Де пеигопсз

аыо-огвапксз,

0|$>.

 

Де ПлЫки! № 1юпа| Ро1у(ссНп1цис Де СгепоЫе. - СгепоЫе: 1994.

 

 

 

 

 

25.

ОемаШпез Р, в/ауо Р. Кокопсп $е!Г огвап1гшв тара:

к

1ке

погтаМгаНоп

 

лессззагу?// С о т р к х 5у5 к т $ , 1992. - УЫ.6. • Рр. 105-123.

 

 

 

 

 

 

26.

ОемаШпез

Р., Негаик Л

Ксргс5еп1о(1оп оГ лопНлеаг Да(а $(гис(иге5 (Нгои^Ь

 

Га$( У(}Р леига! гс!\Уогк // Ргос. Ысигопютез. • М т с з, Ргапсе, 1993. - Рр.

1-18.

 

27.

Оетигк II.. Веа1е М. Ыеига! ЫсЬуогк Тоо1Ьох Гог изс

«л»Ь Ма(1вЬ. -

№ 1кк: ТНе

 

Ма1Ь\Уогкз, 1пс., 1992.

 

 

 

 

 

 

 

 

 

 

 

 

 

28.

Оепоеиж Л . Ш$а\1е К. 1пШп1шпв Ъаск ргораваПоп

леЬУОгкз «гПЬ

ргоЮ1урсз

 

//№ и га! № 1*огкз, 1993. - Уо! 6. - Рр. 351-363.

 

 

 

 

 

 

 

 

29. Октан/апи

К.,

Кипя 8.

Рппара! сотролсп! леига! пе1\уогк$, 1кеогу апД

 

аррНса(1оп$. - N. У.: \УНеу, 1996.

 

 

 

 

 

 

 

 

 

 

 

 

30.

ОтЬ Ы&Ма Оо. ОхоткI 8. 51тре гссо§пк|оп ш т в

РРТ ргергосеззтв

апД

леига!

 

ле101к // С отрс1. 1998. - У о1.17, N 0 5/6. - Рр. 658-666.

 

 

 

 

 

 

 

31.

ОтЬ N$111(1

Оо.

3 |с с 1 псигопооте

гв1»050жвл1и

До гогрогпа\уал1а лухогсож

 

Д\уи«уут1ого\уусЬ,: Когрпмъ Док1огака. -

\Уагага\ул: 1>о1!1ссНп1кп \Уагзга\У5ка, 1999.

32. ОиЬогх О. РгаАе И. Риггу $ей апД ауМел». -

N . V.: А саД етк Рге$з, 1980.

 

 

 

33.

РаМтап 8.Е. Рлз(ег 1еагл1лв уаг1лНои&

оп

Ьаскргора&аиоп: ел сп\р1пса1

$тДу

 

// Ргос. 1988

СоплесНопк!

М оДек Зиш тег

5скоо1. -

Ьоз

Ако$,

113А: Могвал

 

КоиГталп,

1988. • Рр. 38 -51 .