Точно Не проект 2 / Не books / Источник_1
.pdfРаспознавание образов и обучение |
461 |
|
|
Существуют две основные разновидности сетей АРТ: АRТ1 и АRТ2. Сети АRТ1 работают с бинарными входными значениями (0/1), а сеть АRТ2 – с аналоговыми.
Рисунок 8.22 – Сеть, функционирующая на основе алгоритма АRТ1
На рисунке 8.22 изображена сеть АRТ1. В отличие от простейшей состязательной сети, изображенной на рисунке 8.17, в сети АRТ1 имеются прямые и обратные связи. Веса прямых связей wij представляют собой
нормализованные копии весов обратных связей t ji . На рисунке 8.22 об-
ратные связи изображены штриховыми линиями и показаны только для одного выходного НЭ. В сети АRТ1 имеются также латеральные связи, обеспечивающие реализацию принципа состязательности НЭ. Латеральные связи i-го НЭ, направленные к соседним НЭ, являются тормозящими. Благодаря латеральным связям в каждый момент времени победителем оказывается НЭ выходного слоя с максимальным значением скалярного произведения wiT x , где x – входной бинарный вектор, компоненты которого принимают значения 0 и 1. Отметим, что бинарными являются также
реакции yi выходных НЭ и веса обратных связей t ji
Векторы весов обратных связей ti (ti1,ti2,...,tim )T рассматриваются как векторы-прототипы, сохраняемые в сети. В рассматриваемой сети выполняется сопоставление векторов ti с вектором x, представляющим входной образ. Если сопоставление выполняется успешно (т.е. между вектором x и одним из векторов ti имеет место “достаточное сходство”), то соответ-
Распознавание образов и обучение |
463 |
||
|
|
||
|
Если r и в выходном слое имеются еще НЭ, отмеченные меткой |
||
“доступен”, то отметить НЭ i меткой “недоступен”, положить |
yi 1, |
||
перейти к пункту 4. |
|
||
|
Если в выходном слое все нейроны отмечены меткой “недоступен”, |
||
то |
ввести в |
выходной слой новый НЭ i с начальными |
весами |
wij |
1/(1 m) |
и tji 1. |
|
7. Обновить веса связей НЭ i , используя правило |
|
||
|
|
ti j (t 1) ti j (t) xj . |
(8.76) |
При заданном входном векторе x алгоритм АРТ1 может иметь два исхода. Если сопоставление векторов ti* и успешно, то вектор ti* об-
новляется в соответствии с правилом (8.76), и на выходе сети активным будет НЭ i , представляющий класс, к которому отнесен входной сигнал.
Если в сети не обнаруживается подходящих векторов-прототипов ti ,
то в выходной слой вводится дополнительный НЭ i , вектор весов связей которого ti* будет равен входному вектору x (см.(8.76)). Данный нейрон
будет представлять новый класс. На практике в выходной слой сети АRТ1 заранее включают определенное число НЭ, которые активизируются, если в сети не находится ни одного НЭ, вектор весов которого сопоставим с входным вектором. Если рассматривать вектор-прототип ti* как строку битов, то правило (8.76) обеспечивает только удаление единичных битов из этой строки в зависимости от значений x. Добавление единичных битов в ti* никогда не происходит. Это означает, что вектор-прототип не может
повторно получать одни и те же значения. Данное свойство гарантирует устойчивость алгоритма, так как после конечного числа предъявлений входных векторов x веса связей перестают изменяться. В то же время расширение сети АRТ1 за счет дополнительных НЭ обеспечивает ее необходимую гибкость.
В заключение отметим, что оригинальная сеть АRТ1, разработанная Гроссбергом, была аналоговой, и ее поведение описывалось дифференциальными уравнениями. Сеть хорошо выполняла классификацию бинарных входных сигналов. Однако она оказалась чувствительной к шумам, содержащимся во входных данных.
8.5.5.3. Неокогнитрон. Рассмотренные выше состязательные ИНС являются однослойными. В результате состязательного процесса, протекающего в этих сетях, для каждого входного вектора x в выходном слое выбирается только один НЭ, который считается победителем. Если допус-
Распознавание образов и обучение |
465 |
|
|
плоскостей предыдущего S-слоя, то С-нейрон может быть связан с несколькими разными S-плоскостями.
Рисунок 8.23 – Структурная схема неокогнитрона
Отметим некоторое отличие между первым S-слоем и последующими S-слоями. Нейроны первого S-слоя соединены с сетчаткой и воспринимают первичные признаки. Нейроны последующих S-слоев связаны с соответствующими группами нейронов, расположенными в разных С- плоскостях предыдущего слоя, и воспринимают некоторые обобщенные признаки.
На рисунке 8.24 изображена детальная схема связей нейронов в неокогнитроне. С каждым S-нейроном связан добавочный V-нейрон, на вход которого подаются сигналы того же рецептивного поля. Выходной сигнал V-нейрона является тормозящим для S-нейрона. В процессе обучения веса связей S-нейрона изменяются по правилу Хебба. Ранее отмечалось, что правило Хебба может приводить к неограниченному увеличению весов связей и реакции линейного НЭ. Введение дополнительного V-нейрона, оказывающего тормозящее воздействие, ограничивает реакцию связанного с ним S-нейрона.
Наличие нескольких уровней обработки позволяет неокогнитрону интегрировать простейшие локальные признаки, обнаруженные на нижних уровнях, в более сложные признаки, выделяемые на последующих уровнях. Нейроны последнего С-слоя интегрируют информационные признаки, выделяемые на нижних уровнях, и распознают конкретный образ.
Обучение неокогнитрона можно выполнять в режиме обучения с учителем или без учителя. Рассмотрим режим обучения без учителя. В
Распознавание образов и обучение |
467 |
|
|
8.5.6.ИНС с фиксированными весами связей и ассоциативная память
8.5.6.1.Ассоциативная память и сеть Хэмминга. Известны два способа доступа к информации, хранящейся в запоминающем устройстве: адресный и ассоциативный. Адресный способ характеризуется тем, что искомая информация жестко задана адресом – местом ее расположения в памяти. Ассоциативный способ доступа к информации основан на установлении соответствия (ассоциации) между хранимой в памяти информацией
ипоисковыми признаками. Содержимое ассоциативной памяти можно представить в виде множества пар
|
{(x1,y1),(x2,y2),...,(xp,yp)}, |
(8.77) |
где x1, x2 ,..., xp |
– входные векторы, задающие значения поисковых при- |
|
знаков образов; |
y1, y2 ,..., yp – выходные векторы, соответствующие извле- |
каемым образам.
Ассоциативная память, реализуемая на основе ИНС, была независимо приложена Т. Кохоненом и Дж. Эндерсоном. Выделяют два основных типа ассоциативной памяти: гетероассоциативную и автоассоциативную.
В первом случае входному вектору x , который “достаточно близок” к вектору x , хранимому в памяти, ставится в соответствие выходной век-
тор y , где 1,2,...P . Во втором случае x = y для всех пар из (8.77).
Поэтому при подаче на вход запоминающего устройства вектора x, “дос-
таточно близкого” к вектору x , на выходе формируется вектор x .
Можно сказать, что ассоциативная память выполняет отображение образов входного пространства в выходное пространство. В случае автоассоциативной памяти размерности входного и выходного пространств совпадают, в случае гетероассоциативной памяти размерности указанных пространств различные. Разработка средств ассоциативной памяти – важное направление интеллектуализации современных ЭВМ [32].
Структурная схема линейной ассоциативной памяти (ЛАП) изображена на рисунке 8.25.
ЛАП представляет собой однослойную ИНС с прямыми связями. Важно отметить, что веса связей в такой сети являются фиксированными. Они вычисляются на этапе подготовки сети к работе. Цель функционирования сети заключается в восстановлении выходного образа на основе полной или неполной входной информации. Входные и выходные значения сети могут быть либо вещественными, либо бинарными.
Распознавание образов и обучение |
469 |
|
|
Иными словами, на выходе сети будет восстановлен вектор yk , ассоциированный с входным вектором. Если предположить, что на вход сети подается вектор x xk k , соответствующий искаженному вектору xk , то
Wx |
P |
|
P |
(x |
|
|
( y xT )(xk |
k ) yk |
y |
T k ) , |
(8.78) |
||
|
1 |
|
1 |
|
|
|
где k – вектор шумов.
Исключив второе слагаемое в (8.78), получим на выходе опять вектор yk . Исключение второго слагаемого (8.78), представляющего перекрестный шум, требует введения в рассматриваемую ИНС нелинейных операций, которые будут рассмотрены ниже.
Если входные и выходные векторы являются униполярными бинарными векторами со значениями 0 и 1, то матрица весов связей определяется выражением вида [74]
P |
|
wij (2yi ( ) 1)(2xj ( ) 1) , |
(8.79) |
1
где yi( ) и xi( ) – соответственно i–ая и j–ая компоненты –го выходного и входного векторов. В этой формуле автоматически учитывается среднее значение двоичного признака, равное 0,5. Для того чтобы сформировать бинарный выходной вектор, каждый выходной НЭ сети сравнивает компоненты вектора W xk с порогом
|
|
1 |
|
|
m |
|
|
|
i |
|
wij . |
(8.80) |
|||
|
|
||||||
|
2 |
|
|
j 1 |
|
|
|
Если |
|
|
|
|
|
|
|
|
m |
|
|
|
|
||
|
wij xj |
|
i 0, |
|
|||
|
j 1 |
|
|
|
|
||
то соответствующий НЭ формирует |
|
yi 1, в ином случае |
yi 0. |
||||
Рассмотрим пример. Пусть |
|
|
|
|
|||
x1 |
[1,0,0,0], |
y1 |
[0,1,1], |
|
|||
|
[0,0,0,1], |
|
[1,0,1]. |
|
|||
x2 |
y2 |
|
Тогда матрица весов в соответствии с (8.79) будет равна