- •Оглавление
- •Введение
- •Раздел 1 информационная поддержка принятия инвестиционных решений на малом предприятии. Постановка научной задачи
- •1.1. Определение, функции и классификация инвестиций
- •1.2. Управление финансовыми инвестициями
- •1.3. Классификация общих управленческих решений
- •1.4. Классификация инвестиционных управленческих решений
- •1.5. Характеристика технологического процесса принятия управленческих решений на малом предприятии
- •1.6. Требования, предъявляемые к системе поддержки принятия инвестиционных решений
- •1.7. Определение критериев оптимизации функционирования системы поддержки принятия инвестиционных решений. Постановка научной задачи
- •1.8. Общая схема решения задачи
- •Раздел 2 оценка экономической эффективности облигаций и определение их параметров
- •2.1. Общие принципы оценки эффективности финансовых инвестиций
- •2.2. Классификация облигаций
- •2.3. Оценка эффективности облигаций
- •2.4. Определение параметров облигаций
- •Раздел 3
- •3.2. Модели оптимизации распределения финансовых инвестиций
- •3.2.1. Геометрическая интерпретация модели Марковица
- •3.2.2. Постановка задачи определения распределения финансовых ресурсов в оптимальном портфеле Марковица
- •3.2.3. Обобщенный алгоритм реализации модели Марковица
- •3.2.4. Одноиндексная модель Шарпа
- •3.2.5. Нейромодифированная одноиндексная модель Шарпа
- •Раздел 4
- •Разработка автоматизированного рабочего места
- •Поддержки принятия инвестиционных решений
- •Малого предприятия
- •4.1. Состав и структура автоматизированного рабочего места поддержки принятия инвестиционных решений малого предприятия
- •4.2. Характеристика аппаратной платформы, общего программного обеспечения, технологической среды реализации и среды разработки автоматизированного рабочего места
- •4.2.1. Выбор операционной системы
- •4.2.2. Выбор технологической среды реализации
- •4.2.3. Выбор среды разработки программного обеспечения
- •4.3. Выбор системы управления базой данных автоматизированного рабочего места
- •4.4. Алгоритм обмена данными между бд
- •4.5. Эвристическая оптимизация структуры базы данных
- •4.6. Обоснование методов и инструментов архивации данных
- •4.7. Резервное копирование данных
- •4.7.1. Требования, предъявляемые к резервному копированию данных
- •4.7.2. Классификация типов резервного копирования
- •4.7.3. Реализация резервного копирования данных
- •4.8. Типизация искусственных нейронных сетей
- •4.9. Анализ методов и алгоритмов адаптации архитектуры искусственной нейронной сети
- •4.9.1. Предварительный подбор архитектуры сети
- •4.9.2. Подбор оптимальной архитектуры сети
- •4.9.3. Алгоритм каскадной корреляции Фальмана
- •4.9.4. Методы редукции сети с учетом чувствительности
- •4.9.5. Методы редукции сети с использованием штрафной функции
- •4.10. Совершенствование технологии моделирования искусственных нейронных сетей на основе визуального контактора
- •4.11. Модификация алгоритма обратного распространения ошибки
- •4.12. Эвристическая оптимизация функционирования алгоритма обратного распространения ошибки
- •4.13. Порядок функционирования автоматизированного рабочего места
- •Заключение
- •Библиографический список
- •394006 Воронеж, ул. 20-Летия Октября, 84
4.9.3. Алгоритм каскадной корреляции Фальмана
Адекватный выбор количества нейронов и слоев — серьезная и нерешенная проблема для нейронных сетей. Основным способом выбора остается прямой перебор различного количества слоев и определение лучшего. Для этого требуется каждый раз по-новому создавать сеть. Информация, накопленная в предыдущих сеансах обучения, теряется полностью. Начинать перебор количества нейронов можно как с заведомо избыточного, так и с недостаточного. Независимо от этого новая созданная сеть с другим количеством нейронов требует полного переобучения.
Динамическое добавление нейронов состоит во включении нейронов в действующую сеть без утраты ее параметров и частично сохраняет результаты, полученные в предыдущем обучении. Сеть начинает обучение с количеством нейронов, заведомо недостаточным для решения задачи. Для обучения используются обычные методы. Обучение происходит до тех пор, пока ошибка не перестанет убывать и не выполнится условие
, (4.8)
где t - время обучения; - пороговое значение убыли ошибки; - минимальный интервал времени обучения между добавлениями новых нейронов; t0 - момент времени последнего добавления. Когда выполняются оба условия, добавляется новый нейрон. Веса и порог нейрона инициализируются небольшими случайными числами. Обучение снова повторяется до тех пор, пока не будут выполнены условия (4.4). График типичной зависимости ошибки от времени обучения приведен на рис.4.19.
Моменты добавления новых нейронов отмечены пунктиром. После каждого добавления ошибка сначала резко возрастает, так как параметры нейрона случайны, а затем быстро сходится к меньшему значению.
Численные эксперименты показали, что погрешность обучения при увеличении количества итераций монотонно уменьшается, тогда как погрешность обобщения снижается только до определенного момента, после чего начинает расти. График типичной динамики этих показателей представлен на рис. 4.20, где погрешность обучения EL обозначена сплошной, а погрешность обобщения EG пунктирной линией.
Приведенный график показывает, что слишком долгое обучение может привести к "переобучению" сети, которое выражается в слишком детальной адаптации весов к несущественным флуктуациям обучающих данных.
Такая ситуация имеет место при использовании сети с чрезмерным (по сравнению с необходимым) количеством весов, и она тем более заметна, чем больше "лишних" весов содержит сеть. Излишние веса адаптируются к любым нерегулярностям обучающих данных, которые воспринимают их в качестве важных.
Как следствие, на этапе тестирования они становятся причиной возникновения значительных погрешностей воспроизведения.
Для предупреждения переобучения в обучающем множестве выделяется область контрольных данных (подмножество V на рис. 4.15), которые в процессе обучения применяются для оперативной проверки фактически набранного уровня обобщения.
Обучение прекращается, когда погрешность обобщения на этом подмножестве достигнет минимального значения (или начнет возрастать).