Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Нейронные сети и большие данные.docx
Скачиваний:
48
Добавлен:
04.03.2022
Размер:
1.09 Mб
Скачать

Нейронные сети в ии

В публикациях можно встретить многочисленные варианты классификации алгоритмов машинного обучения и ИИ:

  1. По признаку решаемых математических задач – регрессия, классификация и кластеризация.

  2. По признаку решаемых практических задач, наиболее популярные – кластеризация (обучение без учителя), классификация (обучение с учителем) и игра (обучение с подкреплением).

  3. По признаку функциональных свойств.

  4. Классификации, выполненные без какого-либо выраженного критерия – наиболее популярная категория.

На рисунке 1 мы можем увидеть визуализацию классификации ИИ.

Рисунок 1 – Классификация ИИ

Мы можем заметить, что очень многое взаимосвязано и часто пересекается. На рисунке 2 представлено место глубокого обучения в машинном обучении.

Рисунок 2 – Место глубокого обучения в машинном обучении

Алгоритмы машинного обучения

Это алгоритмы, имеющие монолитную программную архитектуру – один программный модуль. Такие алгоритмы работают со своей локальной памятью, их невозможно разделить на разные вычислительные узлы и, следовательно, распараллеливание возможно только на различных ядрах центрального процессора или специализированного ускорителя. Алгоритмы машинного обучения замыкаются глубокими нейронными сетями. Таким образом, ГНС являются неким пограничным слоем, который отделает алгоритмы от ИИ-систем, потому что архитектура ГНС носит характер монолитного программного модуля, при этом размер базы данных признаков и их весов может достигать 7 и более Гб. Физическим носителем алгоритма машинного обучения является исполнимый модуль программной библиотеки, а также файл весовых коэффициентов, который формируется в результате обучения и затем, при использовании алгоритма, требуется для его инициализации.

Структура сети создается динамически. Менеджер посылает сигнал «построить сеть», построитель сети рассматривает каждый выход в отдельности. Для вычисления выбранного выхода требуется знать локальную рецептивную область для выходного нейрона. Для каждого нейрона имеется набор связей в каждом из слоев – входных (In) и выходных (Out) связей. Так как последний слой связан со всеми выходами слоя S2, то его нейроны должны знать параметры своей рецептивной области. Нейронам слоя S2 также требуются входные значения – выходы сверточного слоя C2. На рисунке 3 видно (верхняя часть), как пара С-S слоев посылают друг другу сообщения.

Рисунок 3 – Физическое представление сверточной нейронной сети

Построение связей продолжается от слоя к слою до тех пор, пока не выстраивается «дерево связей» нейронов. В результате, на входной образ поступает сигнал «вернуть выходное значение сканирующего окна» со слоя С1. Для каждого выходного нейрона строится свое такое дерево. Зная выход с входного слоя, можно вычислить выход для С1 слоя, затем S1 и так далее, до Res-слоя, используя построенное дерево связей фрагмента многослойной нейронной сети для одного нейрона выходного слоя. После окончания синтеза в памяти будет сформирована полная структура нейронной сети со всеми связями.