Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Физика / Нейросети Филатова 211.docx
Скачиваний:
33
Добавлен:
18.08.2022
Размер:
36.6 Кб
Скачать

Известные применения

Распознавание образов, классификация и принятие решений

Обнаружение и распознавание лиц выполняется с помощью ПС, представленного графическим модулем, модулем обработки и хранения данных, детектором и анализатором образов. Детектор предназначен для нахождения нужного образа на изображении, а также для его локализации. Анализатор же делает выводы о различных характеристиках найденных объектов. Оба программных модуля реализуются с помощью многослойного персептрона с обратным распространением ошибок.

Исходными данным для ПС является набор изображений. В качестве образов могут выступать различные по своей природе объекты: символы текста, изображения, образцы звуков и т. д.

При обучении сети предлагаются различные образцы образов с указанием того, к какому классу они относятся. Образец, как правило, представляется как вектор значений признаков. При этом объединение всех признаков должно определять класс объекта единственным образом. В случае недостаточности информации, сеть может отнести образ к нескольким классам, что совершенно недопустимо. Причем, если подавать на вход изображения, на которых есть только объект, процесс получится полуавтоматическим, если же использовать неподготовленные изображения, то придется вручную выделять прямоугольные области с заданным объектом, тем самым обучая сеть. По окончании обучения можно подавать на вход неизвестные ранее образы и получать ответ о принадлежности к определённому классу.

Топология такой сети характеризуется тем, что количество нейронов в выходном слое, как правило, равно количеству определяемых классов. Выход нейронной сети и класс при этом сопоставляются между собой. Когда сети предъявляется некий образ, на одном из её выходов должен появиться признак того, что образ принадлежит этому классу. В то же время на других выходах должен быть признак того, что образ данному классу не принадлежит. Если хотя бы на двух выходах отмечается принадлежность образа к классу, то нельзя с уверенностью говорить о точности ответа нейронной сети.

Применение НС позволяет решить и многие проблемы в области обработки текста. Тематика текста, как правило, определяется ключевыми словами. Часто они определяются с помощью законов Зипфа, затем слова приводятся в начальную форму, чтобы легче их было найти в словаре. Словарь - это вектор, каждой позиции которого соответствует одно ключевое слово. Размер словаря равен количеству входов в сети. Аналогично можно представить в виде вектора любой документ. Тогда если документ определяется каким-либо ключевым словом, то при составлении вектора, в закрепленную за словом позицию заносится единица, иначе – ноль.

Принятие решений близко к классификации, но эта задача не имеет определенных правил. Определению подлежат ситуации, характеристики которых поступают на вход нейронной сети. При этом в качестве входных сигналов используются различные критерии описания состояния управляемой системы. На выходе сети при этом должен появиться признак решения, которое она приняла.

Кластеризация

Кластеризация— задача группировки множества объектов на подмножества (кластеры) таким образом, чтобы объекты из одного кластера были более похожи друг на друга, чем на объекты из других кластеров по какому-либо критерию. Задача кластеризации относится к классу задач обучения без учителя.

После обучения такая сеть способна определять, к какому классу относится входной сигнал. Сеть также может сигнализировать о том, что входной сигнал не относится ни к одному из выделенных классов. Так, нейронная сеть может выявлять новые, неизвестные ранее классы сигналов.

Применение кластерного анализа представляет собой такие шаги:

  • Отбор выборки объектов.

  • Определение множества переменных, по которым будут оцениваться объекты в выборке. При необходимости – нормализация значений переменных.

  • Вычисление значений меры сходства между объектами.

  • Применение метода кластерного анализа для создания групп сходных объектов (кластеров).

  • Представление результатов анализа.

После получения и анализа результатов возможна корректировка выбранной метрики и метода кластеризации до получения оптимального результата.

Сходство объектов определяется с помощью меры расстояний. Для начала нужно составить вектор характеристик для каждого объекта — как правило, это набор числовых значений. Далее вектор нормализуется, то есть все значения приводятся к некоторому интервалу значений. А после этого для каждой пары объектов вычисляется степень их схожести по таким метрикам: евклидово расстояние, его квадрат, расстояние Чебышева, степенное расстояние и т.д. Результаты кластеризации зависят от выбора меры кластеризации, поэтому ответственность за их выбор лежит целиком и полностью на исследователе.

Кластеризацию осуществляют, например, нейронные сети Кохонена. Она представляет собой двухслойную сеть. Каждый нейрон первого слоя соединен со всеми нейронами второго слоя, которые расположены в виде двумерной решетки.

Нейроны выходного слоя называются кластерными элементами, их количество определят максимальное количество групп, на которые система может разделить входные данные. Увеличивая количество нейронов второго слоя можно увеличивать детализацию результатов процесса кластеризации.

Прогнозирование

Способность к прогнозированию напрямую следует из способности сети к выявлению закономерностей между входными и выходными данными. После обучения сеть способна предсказать будущее значение некоторой последовательности данных на основе нескольких предыдущих значений. Но прогнозирование возможно только тогда, когда предыдущие изменения в какой-то степени предопределяют будущие.

Точность прогноза оказывает огромное влияние на систему. Такое же значение имеет и выборка.

Одной из актуальных задач является прогнозирование временного ряда. При прогнозировании временного ряда обрабатываются образы, которые меняются с течением времени.

Схема решения задач прогнозирования представляется так:

  • Сведения об анализируемом процессе

  • Отбор значащих признаков

  • Предобработка

  • Построение модели

  • Результат

Для решения задач прогнозирования применяются методы аппроксимации функции. После обучения настраиваемые параметры НС, соответствующий некоторой функции, представленной выходными и входными векторами обучающего множества. Данный метод применяется в задачах, где каждому вектору, характеризующемуся входные параметры сети, соответствует конкретное значение прогнозируемого вектора, характеризующимся выходными параметрами.

Отрицательный результат обучения возможен из-за сложности аппроксимируемой функции в условиях недостаточных данных. Для избегания этой проблемы в систему вводят некоторую погрешность.

Сжатие данных и ассоциативная память

С помощью нейросетей появляется возможность выразить данные большой размерности более компактно, но при условии, что они тесно связаны друг с другом. Возможен и обратный процесс - восстановление исходного набора информации из некоторой ее доли. Он называется ассоциативной памятью. Ассоциативная память позволяет также восстанавливать исходный сигнал/образ из зашумленных/поврежденных входных данных.

Вообще существует 3 архитектуры, решающих задачу сжатия данных:

  1. Сеть Кохонена и ее вариации.

  2. Ассоциативная память

  3. Метод «Бутылочного горлышка».

Архитектура сети и алгоритм обучения по последнему методу таковы, что вектор большой размерности требуется передать со входа нейронной сети на ее выходы канал небольших размеров. Аналогично с песочными часами. Для реализации используется многослойный перспетрон такой архитектуры: количество нейронов во входном и выходном слое одинаково, между ними размещаются несколько скрытых слоев меньшего размера.

Для обучения используется алгоритм обратного распространения ошибки, а в качестве активационной функции – сигмоид.

Сеть состоит из двух частей – одна часть работает на сжатие данных, другая – на восстановление. Время, затрачиваемое на обе процедуры, примерно одинаково. При практическом использовании полученную сеть разбивают на две. Вывод первой сети передают по каналу связи и подают на вход второй, которая осуществляет декомпрессию.