- •Линейные пространства векторов. Скалярное произведение. Понятие базиса и линейной независимости элементов линейного пространства. Преобразования базиса.
- •Определение матрицы. Операции с матрицами (умножение на скаляр, сложение, умножение матриц, транспонирование матриц). Обратная матрица и методы ее получения. Функции от матриц.
- •Производные. Необходимое и достаточное условие дифференцируемости функции. Частные производные. Полный дифференциал. Производная и дифференциал сложной функции.
- •Градиент функции. Производные по направлению. Необходимые и достаточные условия экстремума функции многих переменных. Условные экстремумы. Метод множителей Лагранжа.
- •Задачи аппроксимации функций (интерполяция, экстраполяция, приближение в среднем). Способы построения интерполяционного полинома. Аппроксимации на основе ортогональных базисов. Понятие сплайна.
- •Численные методы оптимизации: методы Ньютона и секущей, методы покоординатного и градиентного спуска. Улучшение сходимости градиентных методов.
- •Численные методы оптимизации, основанные на случайных числах. Метод Монте-Карло, линейный случайный поиск, метод оптимизации отжигом.
- •Прямые и итерационные методы решения систем линейных алгебраических уравнений. Методы для систем с матрицами специального вида (ленточные, треугольные, положительно-определенные).
- •Линейные пространства функций (примеры). Скалярное произведение и норма. Операторы над линейными пространствами функций. Функционалы. Собственные числа и функции оператора в пространстве l2.
- •Определение вероятности. Вероятностная модель и вероятностное пространство. Вероятность случайного события и методы ее статистического оценивания по выборке.
- •Модель случайной величины. Закон, функция, плотность распределения. Квантили и моменты распределений, методы их статистического оценивания по выборке.
- •Вероятностные и толерантные интервалы: сходства и различия. Понятия точечного и интервального оценивания. Доверительные интервалы. Несмещенные и эффективные оценки.
- •Параметрическое оценивание распределений случайной величины. Метод моментов. Метод наибольшего правдоподобия и его численная реализация. Способы проверки качества параметрического оценивания.
- •Статистические гипотезы и статистические критерии. Односторонние и двусторонние критерии. Критерии согласия. Параметрические критерии. Ошибки первого и второго рода. Мощность критерия.
- •Модель многомерной случайной величины. Совместные и условные распределения. Условные моменты распределений и их оценивание по выборке. Многомерное распределение Гаусса и его свойства.
- •Случайные процессы и временные ряды. Понятие стационарности. Ковариационная (корреляционная функция). Теорема Карунена-Лоэва. Спектральная плотность случайных процессов.
- •Алгоритмы на графах. Алгоритмы обхода (поиска на) графах. Обнаружение кратчайшего пути и минимального цикла в графе. Построение остовного дерева.
- •Основные понятия машинного обучения. Отличие машинного обучения от статистики. Методы на обучении с учителем. Методы на обучении без учителя. Метрики качества алгоритмов машинного обучения.
- •Цикл обучения. Понятия обучающей и тестовой выборки. Отложенная выборка. Кросс-валидация. Понятия недообучения и переобучения. Дилемма смещения и разброса. Размерность Вапника-Червоненкиса.
- •Понятия классификации и кластеризации. Метрические, иерархические, вероятностные методы классификации и кластеризации. Dbscan и kNn. Оценка качества классификации и кластеризации.
- •Понятие искусственной нейронной сети. Типы нейронных сетей. Понятие стохастического градиента для обучения нейронной сети. Многослойный перцептрон. Сверточные нейронные сети.
- •Методы снижения размерности данных. Метод главных компонент. Метод канонических корреляций. Методы факторного анализа. Нелинейные методы снижения размерности.
- •Принцип повышения размерности пространства. Метод опорных векторов. Понятие и свойства ядра. Метод Kernel-Trick.
- •Построение списка решений и дерева решений. Редукция деревьев решений. Понятие бэггинга и бустинга для деревьев решений. Случайный лес и способы его построения.
- •Обучение с подкреплением. Модели агентов и отклика среды. Задачи, решаемые обучением с подкреплением.
- •Ассоциативный анализ и задача о "покупательской корзине". Алгоритмы аprior и fp-Growth.
- •Способы представления знаний. Модели графов знаний. Полнота графов знаний. Методы прямого и обратного вывода по графам знаний. Онтологическая модель и средства ее реализации.
- •Экспертные методы в принятии решений. Принятие решений при многих критериях. Множество Парето. Экспертные системы поддержки принятия решений.
- •Методы машинного обучения для анализа текстовой информации. Понятие эмбеддинга. Методы построения и использования эмбеддингов при работе с текстом.
- •Генеративные методы машинного обучения. Генеративно-состязательные сети. Вариационные автокодировщики. Байесовские сети. Принципы работы, оценка качества.
Прямые и итерационные методы решения систем линейных алгебраических уравнений. Методы для систем с матрицами специального вида (ленточные, треугольные, положительно-определенные).
Прямые и итерационные методы решения систем линейных алгебраических уравнений.
Решение исключением строк по методу Жордана-Гаусса, .
Матрица формируется из коэффициентов исходной СЛАУ:
Решение системы происходит путем последовательного умножения произвольно выбранной строки на скаляр и сложения с другой строкой до тех пор, пока слева не будет получена единичная матрица, правая часть будет решением СЛАУ:
Решение по правилу Крамера, .
Матрица формируется из коэффициентов исходной СЛАУ.
После чего вычисляется отношение определителей, полученных путем замены столбцов исходной матрицы.
Матричный подход, или .
Матричный подход в общем-то является наиболее интуитивно понятным. Если есть уравнение вида , то . Для решения подобного выражения необходимо найти обратную матрицу , которая в общем случае называется обратной функцией Мура-Пенроуза и обозначается как .
Для этого можно воспользоваться присоединённой матрицей, полученной транспонированием матрицы кофакторов . В узлах матрицы ко-факторов расположены миноры, полученные вычеркиванием строк и столбцов матрицы . Знак минора меняется, по правилу , это выражение также получило название алгебраического дополнения.
LU-разложение, .
LU-разложение1 на данный момент является наиболее дешевым с точки зрения вычислений методом. Его реализация подразумевает разложение матрицы, сформированной из коэффициентов левой части , на треугольные матрицы нижнюю L и верхнюю U:
Треугольные разложения можно выполнить уже рассмотренным ранее методом исключения по Гауссу. Затем мы делаем замену и получаем выражение: . Решив это выражение тем же Гауссом, используем полученные корни для решения и нахождения .
LU-разложение в общем-то не является самостоятельным методом, тем не менее его можно использовать в тех случаях, когда многократно выполняются вычисления, при которых левая часть уравнения остается неизменной. В таком случае, полученное LU-разложение вычисляется всего один раз и используется в дальнейших вычислениях, экономя ресурсы компьютера.
Разложение Холецкого .
Логика вычислений точь-в-точь повторяет предыдущий пункт, но само разложение выглядит иначе. Правило разложения существует для любой положительно определенной Эрмитовой2 матрицы , но также справедливо и для вещественной, следовательно симметричной положительно определенной матрицы: .
Итерационный метод Якоби.
Итерационные методы отличаются от прямых тем, что предназначены для получения приблизительного решения СЛАУ, которое с каждой итерацией приближается к действительному решению. Применяются, когда настоящее решение найти невозможно или вычислительно дорого.
Метод Якоби очень прост. Для начала необходимо выразить каждый неизвестный элемент матрицы как функцию от прочих:
Далее следует подставить в полученные уравнения любое пробное значение, например, ноль и вычислить первые приближенные результаты . Полученные значения подставляются в те же выражения еще раз, и процедура повторяется до тех пор, пока приближенные результаты не сойдутся к истинному решению.
В матричном виде метод можно переписать как:
Методы для систем с матрицами специального вида (ленточные, треугольные, положительно-определенные). Существуют специальные методы решения уравнений с определенными свойствами. Вот несколько примеров:
1. Треугольные системы. Треугольная система – это система уравнений, в которой матрица коэффициентов является верхней или нижней треугольной. Эти системы могут быть эффективно решены с помощью прямой или обратной подстановки соответственно. Обе подстановки уже знакомы нам, как промежуточные шаги в решении исключением строк по методу вычитания строк Жордана-Гаусса и в LU-разложении.
2. Положительные определенные системы. Положительно определенная система – это система уравнений, в которой матрица коэффициентов симметрична и положительно определена, т.е. все ее угловые миноры положительны согласно критерию Сильвестра. Такие системы можно решить с помощью разложения Холецкого.
3. Разреженные системы. Разреженные системы – это системы уравнений, в которых большинство записей в матрице коэффициентов равны нулю. Ленточная матрица – это вид разреженной матрица, ненулевые записи которой ограничены диагональной полосой, включающей главную диагональ и несколько побочных диагоналей по обеим сторонам от главной. Для эффективного решения таких систем можно использовать специализированные методы, такие как итерационные методы Якоби или Гаусса-Зейделя. Кроме того, популярным решением является применение параллельных вычислений для вычитания строк по методу Жордана-Гаусса.
1Разложение или факторизация, уместны оба варианта перевода.
2Эрмитова матрица может рассматриваться как комплексное расширение вещественных симметричных матрицу. Для Эрмитовой матрицы характерно: , где транспонированная комплексно-сопряженная к матрица. Иногда можно встретить обозначение .