- •Основы информационных технологий
- •Оглавление
- •Предисловие
- •Современные информационные технологии
- •1.1 История, современное состояние и перспективы развития вычислительной техники
- •1.2 Элементная база, архитектура, сетевая компоновка, производительность
- •1.3 Понятие информации. Классификация и виды информационных технологий
- •Основные свойства информационных технологий.
- •1 .4 Операционные системы
- •2 Основные программные средства информационных технологий
- •2.1. Программное обеспечение. Текстовые редакторы, их возможности и назначение
- •2.2. Графические редакторы
- •2.3. Электронные таблицы
- •2.4. Сервисные инструментальные программные средства
- •2.5. Системы математических вычислений MatLab
- •2.6 Система подготовки презентаций
- •3 Сетевые технологии и интернет
- •3.1 Классификация компьютерных сетей
- •3.2 Семиуровневая модель структуры протоколов связи
- •2.3. Взаимодействие компьютеров в сети
- •3.3 Организационная структура Internet
- •3.4 Инструментальные средства создания web-сайтов. Основы web-дизайна
- •3.5 Языки разметки гипертекста html и xml
- •3.6 Скриптовые языки программирования
- •4 Системы управления базами данных
- •4.1. Классификация систем управления базами данных
- •4.2 Модели данных
- •4.3 Моделирование баз данных
- •4.4 Архитектура и функциональные возможности субд. Языковые и программные средства субд
- •4.5 Общая характеристика субд ms Access
- •4.6 Основные объекты ms Access
- •4.7 Основы языка sql
- •Контрольные вопросы
- •5 Защита информации при использовании информационных технологий
- •5.1 Основы информационной безопасности
- •5.2. Методы и средства защиты информации
- •5.3 Защита от несанкционированного доступа к данным
- •5.4 Классы безопасности компьютерных систем
- •5.5 Основные аспекты построения системы информационной безопасности
- •6 Математическое моделирование и численные методы
- •6.1 Математические модели и численные методы решения задач в различных предметных областях
- •6.2 Численное дифференцирование и интегрирование
- •6.2.1 Особенность задачи численного дифференцирования
- •6.2.2 Интерполяционная формула Лагранжа для равноотстоящих узлов
- •6.2.3 Численное дифференцирование на основе интерполяционной формулы Лагранжа
- •6.2.4 Численное дифференцирование на основе интерполяционной формулы Ньютона
- •6.2.5 Постановка задачи численного интегрирования
- •6.2.6 Квадратурные формулы Ньютона-Котеса
- •6.2.7 Формула трапеций
- •6.2.8 Формула Симпсона
- •6.2.9 Оценка точности квадратурных формул
- •6.3 Методы решения обыкновенных дифференциальных уравнений
- •6.3.1 Задача Коши и краевая задача
- •6.3.1.1 Классификация уравнений
- •6.3.1.2 Задача Коши
- •6.3.2 Одношаговые методы решения задачи Коши
- •6.3.2.1 Метод Эйлера
- •6.3.2.2 Модифицированный метод Эйлера
- •6.3.2.3 Метод Рунге-Кутта четвертого порядка
- •6.3.2.4 Погрешность решения и выбор шага
- •6.3.3 Многошаговые методы решения задачи Коши
- •6.3.3.1 Многошаговые методы
- •6.3.3.2 Метод Адамса
- •6.3.3.3 Методы прогноза и коррекции (предиктор-корректор)
- •6.3.3.4 Общая характеристика многошаговых методов
- •6.3.4 Краевая задача и метод стрельбы
- •6.3.4.1 Краевая задача
- •6.3.4.2 Метод стрельбы
- •6.3.4.3 Метод стрельбы для линейного дифференциального уравнения
- •6.4 Решение дифференциальных уравнений в чстных производных
- •6.4.1 Краткие теоретические сведения
- •6.4.2 Классификация уравнений по математической форме
- •6.4.3 Основы метода конечных разностей
- •6.4.3.1 Построение сетки
- •6.4.3.2 Аппроксимация уравнения эллиптического типа
- •6.4.3.3 Аппроксимация уравнения гиперболического типа
- •6.4.3.4 Аппроксимация уравнения параболического типа
- •6.4.3.5 Погрешность решения
- •6.4.4 Основы метода конечных элементов
- •6.4.4.1. Формирование сетки
- •6.4.4.2 Конечно-элементная аппроксимация
- •6.4.4.3 Построение решения
- •6.6 Элементы математической статистики
- •6.6.1 Генеральная совокупность. Выборка. Статистические ряды
- •6.6.2 Графическое изображение вариационных рядов. Эмпирическое распределение
- •6.6.3 Средние величины и показатели вариации
- •6.6.4 Средняя арифметическая и ее свойства
- •6.6.5 Дисперсия и ее свойства. Среднее квадратическое отклонение
- •6.6.6 Коэффициент вариации
- •6.6.7 Структурные средние
- •6.6.8 Законы распределения случайных величин
- •6.6.9 Статистические гипотезы
- •7 Методы оптимизации и системы поддержки принятия решений
- •7.1 Характеристика методов решения задач оптимизации
- •7.1.1 Численные методы безусловной оптимизации нулевого порядка
- •7.1.1.1 Основные определения
- •7.1.1.2 Классификация методов
- •7.1.1.3 Общая характеристика методов нулевого порядка
- •7.1.1.4 Метод прямого поиска (метод Хука-Дживса)
- •7.1.1.5 Метод деформируемого многогранника (метод Нелдера—Мида)
- •7.1.1.6 Метод вращающихся координат (метод Розенброка)
- •7.1.1.7 Метод параллельных касательных (метод Пауэлла)
- •7.1.2 Численные методы безусловной оптимизации первого порядка
- •7.1.2.1 Минимизация функций многих переменных. Основные положения
- •7.1.2.2 Метод наискорейшего спуска
- •7.1.2.3 Метод сопряженных градиентов
- •7.1.3 Численные методы безусловной оптимизации второго порядка
- •7.1.3.1 Особенности методов второго порядка
- •7.1.3.2 Метод Ньютона
- •7.2 Линейное программирование
- •7.2.1 Транспортная задача линейного программирования
- •7.2.1.1 Постановка задачи
- •7.2.1.2 Венгерский метод
- •7.2.1.3 Метод потенциалов
- •7.3 Прямые методы условной оптимизации
- •7.3.1 Основные определения
- •7.3.2 Метод проекции градиента
- •7.3.3 Комплексный метод Бокса
- •7.4 Методы штрафных функций
- •7.4.1 Основные определения
- •7.4.2 Методы внутренних штрафных функций
- •7.4.3 Методы внешних штрафных функций
- •7.4.4 Комбинированные алгоритмы штрафных функций
- •7.5 Информационные технологии поддержки принятия решений
- •7.6 Информационные технологии экспертных систем Характеристика и назначение
- •Список литературы
7.1.1.6 Метод вращающихся координат (метод Розенброка)
Суть метода состоит во вращении системы координат в соответствии с изменением скорости убывания целевой функции. Новые направления координатных осей определяются таким образом, чтобы одна из них соответствовала направлению наиболее быстрого убывания целевой функции, а остальные находятся из условия ортогональности. Идея метода состоит в следующем (рис. 7.6).
Рис. 7.6 ‑ Геометрическая интерпретация метода Розенброка
Из начальной точки х[0] осуществляют спуск в точкух[1] по направлениям, параллельным координатным осям. На следующей итерации одна из осей должна проходить в направленииy1=х[1] ‑х[0], а другая - в направлении, перпендикулярном ку1 .Спуск вдоль этих осей приводит в точкух[2] ,что дает возможность построить новый векторх[2] ‑х[1] и на его базе новую систему направлений поиска. В общем случае данный метод эффективен при минимизации овражных функций, так как результирующее направление поиска стремится расположиться вдоль оси оврага.
Алгоритм метода вращающихся координат состоит в следующем.
1. Обозначают через р1[k], ...,рn[k] направления координатных осей в некоторой точкех[k] (нак-й итерации). Выполняют пробный шагh1вдоль осир1[k], т. е.
x[kl] = x[k] +h1p1[k].
Если при этом f(x[kl])<f(x[k]), то шагhумножают на величину> 1;
Если f(x[kl])>f(x[k]), - то на величину (-), 0 < || < 1;
x[kl] =x[k] + h1p1[k].
Полагая ?h1=а1.получают
x[kl] =x[k] +a1p1[k].
2. Из точки х[k1] выполняют шагh2вдоль осир2[k]:
x[k2] = x[k] + a1p1[k] + h2p2[k].
Повторяют операцию п. 1, т. е.
x[k2] =x[k] +а1р1[k] +а2p2[k].
Эту процедуру выполняют для всех остальных координатных осей. На последнем шаге получают точку
х[kn] =х[k+1] =х[k] + .
3. Выбирают новые оси координат p1[k+1], …,рn[k+1]. В качестве первой оси принимается вектор
р1[k+1] =x[k+l] ‑x[k].
Остальные оси строят ортогональными к первой оси с помощью процедуры ортогонализации Грама - Шмидта. Повторяют вычисления с п. 1 до удовлетворения условий сходимости.
Коэффициенты подбираются эмпирически. Хорошие результаты дают значения= - 0,5 при неудачных пробах(f(x[ki])>f(x[k]))и= 3 при удачных пробах(f(x[ki])<f(x[k])).
В отличие от других методов нулевого порядка алгоритм Розенброка ориентирован на отыскание оптимальной точки в каждом направлении, а не просто на фиксированный сдвиг по всем направлениям. Величина шага в процессе поиска непрерывно изменяется в зависимости от рельефа поверхности уровня. Сочетание вращения координат с регулированием шага делает метод Розенброка эффективным при решении сложных задач оптимизации.
7.1.1.7 Метод параллельных касательных (метод Пауэлла)
Этот метод использует свойство квадратичной функции, заключающееся в том, что любая прямая, которая проходит через точку минимума функции х*,пересекает под равными углами касательные к поверхностям равного уровня функции в точках пересечения (рис. 7.7).
Этот метод использует свойство квадратичной функции, заключающееся в том, что любая прямая, которая проходит через точку минимума функции х*,пересекает под равными углами касательные к поверхностям равного уровня функции в точках пересечения (рис. 7.7).
Рис. 7.7 ‑ Геометрическая интерпретация метода Пауэлла
Суть метода такова. Выбирается некоторая начальная точка х[0] и выполняется одномерный поиск вдоль произвольного направления, приводящий в точкух[1] . Затем выбирается точках[2],не лежащая на прямойх[0]- х[1], и осуществляется одномерный поиск вдоль прямой, параллельнойх[0]- х[1],. Полученная в результате точках[3] вместе с точкойх[1] определяет направлениеx[1]‑ х[3] одномерного поиска, дающее точку минимумах*.В случае квадратичной функцииnпеременных оптимальное значение находится запитераций. Поиск минимума при этом в конечном счете осуществляется во взаимно сопряженных направлениях. В случае неквадратичной целевой функции направления поиска оказываются сопряженными относительно матрицы Гессе. Алгоритм метода параллельных касательных состоит в следующем.
1. Задаются начальной точкой x[0]. За начальные направления поискар[1],..., р[0] принимают направления осей координат, т. е.р[i] =е[i],i=1, ..., n (здесьe[i]= (0, ..., 0, 1, 0, … 0)T).
2. Выполняют nодномерных поисков вдоль ортогональных направленийр[i] , i =1, ...,п.При этом каждый следующий поиск производится из точки минимума, полученной на предыдущем шаге. Величина шагааkнаходится из условия
f(x[k] + аkр[k])= f(x[k] + ар[k]).
Полученный шаг определяет точку
х[k+1] =х[k] +аkр[k] .
3. Выбирают новое направление p =‑x[n] ‑х[0] и заменяют направленияр[1], ...,р[n] нар[2], ...,р [n], р.Последним присваивают обозначенияр[1], ...,р[n]
4. Осуществляют одномерный поиск вдоль направления р=р[n] =х[n] - х[0]. Заменяютх[0] нах[n+1] =х[n] + аnр[п] и принимают эту точку за начальную точкух[0] для следующей итерации. Переходят к п. 1.
Таким образом, в результате выполнения рассмотренной процедуры осуществляется поочередная замена принятых вначале направлений поиска. В итоге после nшагов они окажутся взаимно сопряженными.