- •Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования
- •Многослойный перцептрон
- •Алгоритм решения задач с помощью мсп
- •Методы обучения
- •Общая схема обучения перцептрона
- •Обучение многослойного перцептрона методом обратного распространения ошибки
- •Практическая часть
- •Расчет:
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования
«Саратовский государственный технический университет имени Гагарина Ю. А.»
Кафедра «Информационные системы и технологии»
Курсовая работа
по дисциплине «Компьютерные методы моделирования и обработки нечеткой информации»
Тема: «ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ. АЛГОРИТМ ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ. РАСЧЕТ ОДНОСЛОЙНОЙ СЕТИ»
Выполнил: Шигаева Екатерина Павловна
Факультет: МФПИТ
Группа: ИФСТз31
Шифр: 103588
Проверил: Ивженко С.П. _____________________
Саратов 2013г.
ТЕОРЕТИЧЕСКАЯ ЧАСТЬ
Теория нейронных сетей включают широкий круг вопросов из разных областей науки: биофизики, математики, информатики, схемотехники и технологии. Поэтому понятие "нейронные сети" детально определить сложно.
Искусственные нейронные сети (НС) — совокупность моделей биологических нейронных сетей. Представляют собой сеть элементов — искусственных нейронов — связанных между собой синаптическими соединениями. Сеть обрабатывает входную информацию и в процессе изменения своего состояния во времени формирует совокупность выходных сигналов.
Работа сети состоит в преобразовании входных сигналов во времени, в результате чего меняется внутреннее состояние сети и формируются выходные воздействия. Обычно НС оперирует цифровыми, а не символьными величинами.
Большинство моделей НС требуют обучения. В общем случае, обучение — такой выбор параметров сети, при котором сеть лучше всего справляется с поставленной проблемой. Обучение — это задача многомерной оптимизации, и для ее решения существует множество алгоритмов.
Искусственные нейронные сети — набор математических и алгоритмических методов для решения широкого круга задач. Выделим характерные черты искусственных нейросетей как универсального инструмента для решения задач:
1. НС дают возможность лучше понять организацию нервной системы человека и животных на средних уровнях: память, обработка сенсорной информации, моторика.
2. НС — средство обработки информации:
а) гибкая модель для нелинейной аппроксимации многомерных функций;
б) средство прогнозирования во времени для процессов, зависящих от многих переменных;
в) классификатор по многим признакам, дающий разбиение входного пространства на области;
г) средство распознавания образов;
д) инструмент для поиска по ассоциациям;
г) модель для поиска закономерностей в массивах данных.
3. НС свободны от ограничений обычных компьютеров благодаря параллельной обработке и сильной связанности нейронов.
4. В перспективе НС должны помочь понять принципы, на которых построены высшие функции нервной системы: сознание, эмоции, мышление.
Многослойный перцептрон
Формальные нейроны могут объединяться в сети различным образом. Самым распространенным видом сети стал многослойный перцептрон(рис.1).
Рис. 1. Многослойный перцептрон.
Сеть состоит из произвольного количества слоев нейронов. Нейроны каждого слоя соединяются с нейронами предыдущего и последующего слоев по принципу "каждый с каждым". Первый слой(слева) называется сенсорным или входным, внутренние слои называются скрытыми или ассоциативными, последний (самый правый, на рисунке состоит из одного нейрона) — выходным или результативным. Количество нейронов в слоях может быть произвольным. Обычно во всех скрытых слоях одинаковое количество нейронов.
Обозначим количество слоев и нейронов в слое. Входной слой: NIнейронов; NHнейронов в каждом скрытом слое; NOвыходных нейронов.X- вектор входных сигналы сети,Y- вектор выходных сигналов.
Существует путаница с подсчетом количества слоев в сети. Входной слой не выполняет никаких вычислений, а лишь распределяет входные сигналы, поэтому иногда его считают, иногда — нет. Обозначим через NLполное количество слоев в сети, считая входной. Работа многослойного перцептрона (МСП) описывается формулами:
NETlj=∑wlijxlij (1)
i
OUTlj= F(NETlj - θlj) (2)
x(l+1)ij=OUTli (3)
где индексом i всегда будем обозначать номер входа, j — номер нейрона в слое, l — номер слоя;
xlij— i-й входной сигнал j-го нейрона в слое l;
wlij— весовой коэффициент i-го входа нейрона номер j в слое l;
NETlj— сигнал NET j-го нейрона в слое l;
OUTlj— выходной сигнал нейрона;
θlj— пороговый уровень нейрона j в слое l.