- •Оглавление
- •Введение
- •Раздел 1 информационная поддержка принятия инвестиционных решений на малом предприятии. Постановка научной задачи
- •1.1. Определение, функции и классификация инвестиций
- •1.2. Управление финансовыми инвестициями
- •1.3. Классификация общих управленческих решений
- •1.4. Классификация инвестиционных управленческих решений
- •1.5. Характеристика технологического процесса принятия управленческих решений на малом предприятии
- •1.6. Требования, предъявляемые к системе поддержки принятия инвестиционных решений
- •1.7. Определение критериев оптимизации функционирования системы поддержки принятия инвестиционных решений. Постановка научной задачи
- •1.8. Общая схема решения задачи
- •Раздел 2 оценка экономической эффективности облигаций и определение их параметров
- •2.1. Общие принципы оценки эффективности финансовых инвестиций
- •2.2. Классификация облигаций
- •2.3. Оценка эффективности облигаций
- •2.4. Определение параметров облигаций
- •Раздел 3
- •3.2. Модели оптимизации распределения финансовых инвестиций
- •3.2.1. Геометрическая интерпретация модели Марковица
- •3.2.2. Постановка задачи определения распределения финансовых ресурсов в оптимальном портфеле Марковица
- •3.2.3. Обобщенный алгоритм реализации модели Марковица
- •3.2.4. Одноиндексная модель Шарпа
- •3.2.5. Нейромодифированная одноиндексная модель Шарпа
- •Раздел 4
- •Разработка автоматизированного рабочего места
- •Поддержки принятия инвестиционных решений
- •Малого предприятия
- •4.1. Состав и структура автоматизированного рабочего места поддержки принятия инвестиционных решений малого предприятия
- •4.2. Характеристика аппаратной платформы, общего программного обеспечения, технологической среды реализации и среды разработки автоматизированного рабочего места
- •4.2.1. Выбор операционной системы
- •4.2.2. Выбор технологической среды реализации
- •4.2.3. Выбор среды разработки программного обеспечения
- •4.3. Выбор системы управления базой данных автоматизированного рабочего места
- •4.4. Алгоритм обмена данными между бд
- •4.5. Эвристическая оптимизация структуры базы данных
- •4.6. Обоснование методов и инструментов архивации данных
- •4.7. Резервное копирование данных
- •4.7.1. Требования, предъявляемые к резервному копированию данных
- •4.7.2. Классификация типов резервного копирования
- •4.7.3. Реализация резервного копирования данных
- •4.8. Типизация искусственных нейронных сетей
- •4.9. Анализ методов и алгоритмов адаптации архитектуры искусственной нейронной сети
- •4.9.1. Предварительный подбор архитектуры сети
- •4.9.2. Подбор оптимальной архитектуры сети
- •4.9.3. Алгоритм каскадной корреляции Фальмана
- •4.9.4. Методы редукции сети с учетом чувствительности
- •4.9.5. Методы редукции сети с использованием штрафной функции
- •4.10. Совершенствование технологии моделирования искусственных нейронных сетей на основе визуального контактора
- •4.11. Модификация алгоритма обратного распространения ошибки
- •4.12. Эвристическая оптимизация функционирования алгоритма обратного распространения ошибки
- •4.13. Порядок функционирования автоматизированного рабочего места
- •Заключение
- •Библиографический список
- •394006 Воронеж, ул. 20-Летия Октября, 84
4.9.5. Методы редукции сети с использованием штрафной функции
Другой метод редукции весов основан на такой организации процесса обучения, которая провоцирует самостоятельное уменьшение значений весов и в результате позволяет исключить те из них, величина которых опускается ниже установленного порога. В отличие от методов учета чувствительности в данном случае сама целевая функция модифицируется таким образом, чтобы в процессе обучения значения весов минимизировались автоматически вплоть до достижения определенного порога, при пересечении которого значения соответствующих весов приравниваются к нулю.
Простейший метод модификации целевой функции предусматривает добавление в нее слагаемого, штрафующего за большие значения весов:
. (4.13)
В этой формуле означает стандартно определенную целевую функцию, заданную, например, в виде эвклидовой нормы, а - коэффициент штрафа за достижение весами больших значений. При этом каждый цикл обучения складывается из двух этапов: минимизации величины функции стандартным методом обратного распространения и коррекции значений весов, обусловленной модифицирующим фактором. Если значение веса wij после первого этапа обозначить wij(0), то в результате коррекции этот вес будет модифицирован по градиентному методу наискорейшего спуска согласно формуле
, (4.14)
где обозначает константу обучения. Определенная таким образом штрафная функция вызывает уменьшение значений всех весов даже тогда, когда с учетом специфики решаемой задачи отдельные веса должны иметь большие значения. Уровень значений, при котором вес может быть отсечен, должен подбираться с особой тщательностью на основе многочисленных экспериментов, указывающих, при каком пороге отсечения процесс обучения сети подвергается наименьшим возмущениям.
Более приемлемые результаты, не вызывающие уменьшения значений всех весов, можно получить модификацией представления целевой функции в форме
. (4.15)
Минимизация этой функции вызывает не только редукцию межнейронных связей, но может также привести к исключению тех нейронов, для которых величина близка к нулю. Легко доказать, что правило коррекции весов в этом случае может быть задано выражением:
. (4.16)
При малых значениях весов wik, подходящих к i-му нейрону, происходит дальнейшее их уменьшение. Это ведет к ослаблению выходного сигнала до нуля и в итоге к исключению его из сети. При больших значениях весов, ведущих к i-му нейрону, их коррекционная составляющая исчезающе мала и очень слабо влияет на процесс редукции сети.
Другой этап минимизации сети основан на такой модификации целевой функции, которая позволяет исключать скрытые нейроны, в наименьшей степени изменяющие свою активность в процессе обучения. При этом учитывается, что если выходной сигнал какого-либо нейрона при любых обучающих выборках остается неизменным (на его выходе постоянно вырабатывается 1 или 0), то его присутствие в сети излишне. И напротив, при высокой активности нейрона считается, что его функционирование дает важную информацию. И. Шовен предложил следующую модификацию целевой функции [105]:
. (4.17)
В этом выражении ij означает изменение значения выходного сигнала i - го нейрона для j-й обучающей выборки, а - это корректирующий фактор целевой функции, зависящий от активности всех К скрытых нейронов для всех j(j = 1, 2, ..., р) обучающих выборок. Коэффициент m определяет степень относительного влияния корректирующего фактора на значение целевой функции. Вид корректирующей функции подбирается так, чтобы изменение целевой функции зависело от активности скрытого нейрона, причем при высокой его активности (т.е. частых изменениях значения выходного сигнала) величина Е должна быть малой, а при низкой активности - большой. Это достигается применением функции е, удовлетворяющей отношению:
. (4.18)
Индекс п позволяет управлять процессом штрафования за низкую активность.
При n = 2 функция е принимает вид . Малая активность нейронов карается сильнее, чем высокая, что в результате может привести к полному исключению пассивных нейронов из сети.
Оба подхода к редукции сети, основанные как на учете чувствительности, так и на модификациях целевой функции, ведут к минимизации количества весов и нейронов сети, уменьшая, таким образом, уровень ее сложности и улучшая соотношение между количеством обучающих выборок и мерой VCdim. В итоге возрастает способность сети к обобщению.
На основе обобщения теоретических результатов, представленных в данной главе, был разработан алгоритм формирования архитектуры нейронной сети в подсистеме нейросетевого прогнозирования временных рядов. Блок-схема данного алгоритма представлена на рис. 4.21.
Блоки 1, 12 обеспечивают пуск и остановку алгоритма формирования архитектуры нейронной сети.
В блоке 2 реализован ввод исходных данных, таких как:
- требуемая точность прогнозирования;
- количество обучающих выборок;
- количество весов сети;
- число слоев и число нейронов в слое.
В блоке 3 задается число скрытых слоев ИНС.
В блоке 4 задается число нейронов в скрытом слое.
Блок 5 обеспечивает проверку заданного числа слоев. Если условие не выполнено, то управление передается в блок 3. В противном случае управление передается в блок 6.
Блок 6 обеспечивает проверку заданного числа нейронов в слое. Если условие не выполнено, то управление передается в блок 4. В противном случае управление передается в блок 7.
Блок 7 предназначен для задания числа межнейронных связей.
Блок 8 обеспечивает проверку числа межнейронных связей. Если условие не выполнено, то управление передается в блок 7. В противном случае управление передается в блок 9.
Блок 9 предназначен для задания объема обучающей выборки.
Блок 10 обеспечивает проверку условия достаточности объема обучающей выборки. Если условие не выполнено, то управление передается в блок 9. В противном случае управление передается в блок 11.
Блок 11 обеспечивает вывод результатов.