Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

5335

.pdf
Скачиваний:
3
Добавлен:
13.11.2022
Размер:
1.25 Mб
Скачать

21

{а} – множество всех возможных операций; {θ} – множество всех возможных состояний;

{е} – множество всех возможных экспериментов; {х}, {у} – множества всех возможных результатов эксперимента е;

u (a, θ, e, x), u (a, θ, e, y) – функции полезности, зависящие от 4 аргументов

(операции а, состояния θ, эксперимента е и значения х или у этого эксперимента);

P(θ) – априорная вероятность состояния θ;

P(х/θ,е) – вероятность получения результата х при проведении эксперимента е для случая, когда состояние есть θ.

Компания отправляет своего сотрудника в служебную командировку:

а1 – отправить сотрудника самолётом;

а2 – отправить сотрудника поездом.

Обозначим через θ1 – преобладание значимости временных ресурсов над финансовыми, а через θ2 – преобладание значимости финансовых ресурсов над временными.

Матрица проигрыша (в рублях) (таблица 2):

Таблица 2 − Матрица проигрыша

 

θ1

θ2

a1

18300

21600

a2

19700

16800

Для общности один из элементов множества {е} будем считать «Не проводить эксперимент». Его назовём нулевым экспериментом и обозначим через е0. Неопределённый результат нулевого эксперимента обозначим через х0.

Априорные вероятности: P(θ1) = 0,35; P(θ2) = 0,65.

Некоторую информацию, касающуюся значимости командировки сотрудника, можно получить, опросив руководящий состав компании, заказав аналитику финансовый прогноз на извлечение прибыли из данной командировки.

22

Обозначим через е1 – эксперимент №1: «Проведение опроса руководящего состава компании», а его результаты через х1 и х2, где х1 – прогноз: отправить сотрудника самолетом, х2 – прогноз: отправить сотрудника поездом.

Стоимость эксперимента №1 составляет 1 000 рублей. Известны вероятности этих прогнозов (таблица 3):

Таблица 3 − Вероятности прогнозов первого эксперимента

 

X1

X2

θ1

0,58

0,42

θ2

0,414

0,586

Обозначим через е2 – эксперимент №2: Заказать проведение финансового прогноза на извлечение прибыли из служебной командировки аналитику. После этого имеем:

у1 – прогноз: отправить сотрудника самолетом; у2 – прогноз: отправить сотрудника поездом;

у3 – прогноз: из-за недостатка информации прогноз не известен. Стоимость эксперимента №2 составляет 2 000 рублей.

По мнению эксперта, вероятности этих прогнозов составляют (таблица 4):

Таблица 4 − Вероятности прогнозов второго эксперимента

 

Y1

Y2

Y3

θ1

0,52

0,312

0,168

θ2

0,224

0,5

0,276

Чтобы выбрать оптимальное решение исходя из этих данных, поступаем следующим образом:

I. По формуле Байеса:

P( / e, x) P(x / ,e) P( ),

P(x / e)

где P(x / e) – условная вероятность, определяемая по следующей формуле

P(x / e) P(x / , e) P( ),

для каждой комбинации (θ, е, х) вычисляем апостериорную вероятность P(θ/e,x):

23

P(x0 / e0 ) 1 0,35 1 0,65 1;

P(x1 / e1 ) P(x1 / 1e1 ) P(1 ) P(x1 / 2 e1 ) P(2 ) 0,58 0,35 0,42 0,65 0,475;

P(x2 / e1 ) P(x2 / 1e1 ) P(1 ) P(x2

/ 2 e1 ) P(2 )

0,414 0,35 0,586 0,65 0,525;

P(

 

/ e

 

x

 

)

1 0,35

0,35

P(

 

/ e

 

x

 

) 1 0,35 0,65;

1

0

0

 

2

0

0

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(

/ e x )

0,58 0,35

0,427

P(

 

/ e x ) 1 0,427 0,573;

 

 

2

1

1

1

0,475

 

 

 

 

 

1

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(

/ e x

)

0,414 0,35

0,276

P(

 

/ e x

) 1 0,276 0,724.

 

2

1

1

2

0,525

 

 

 

 

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

II. По формуле

U (a,e, x) P( / e, x) U (a, ,e, x)

для каждой комбинации (а, е, х) находим среднюю полезность:

U (a1 , e0 , x0 ) 0,35 18300 0,65 21600 20445; U (a2 , e0 , x0 ) 0,35 19700 0,65 16800 17815;

U (a1 , e1 , x1 ) 0,427 17300 0,573 20600 19190,9;

U (a2 , e1 , x1 ) 0,427 18700 0,573 15800 17038,3;

U (a1 , e1 , x2 ) 0,27617300 0,724 20600 19689,2;

U (a2 , e1 , x2 ) 0,27618700 0,72415800 16600,4.

III. Для каждой комбинации (е, х) определяем оптимальную операцию U* из условия:

U (e, x) U (a*,e, x) maxU (a,e, x) .

U

U (e0 , x0 ) 20445

U (e1 , x1 ) 19190,9

U (e1 , x2 ) 19689,2

Следовательно для всех этих трёх значений оптимальной является а1.

IV. По формуле

U (e) P(x / e) U (e, x)

x

для экспериментов е0 и е1 определяем среднюю полезность:

U (e0 ) 1 20445 20445;

U (e1 ) 0,475 19190,9 0,525 19689,2 19452,507.

24

V. Для определения апостериорных вероятностей при проведении второго

эксперимента из таблицы 3 и таблицы 4 находим таблицу 5:

Таблица 5 − Априорные вероятности для двух экспериментов

 

x1y1

x1y2

x1y3

x2y1

x2y2

x2y3

 

 

 

 

 

 

 

θ1

0,302

0,181

0,097

0,218

0,131

0,071

 

 

 

 

 

 

 

θ2

0,093

0,207

0,114

0,131

0,293

0,162

Таблица 5 соответствует одному, но более сложному эксперименту, объединяющему в себе оба рассмотренных простых эксперимента.

Исходя из априорных вероятностей: P(θ1) = 0,35 и P(θ2) = 0,65,

таблицы 5 и формулы Байеса

 

 

 

P'( j / x, y)

P(x, y / j ) P( j )

 

 

 

 

 

 

 

 

 

,

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

P(x, y / j ) P( j )

 

 

 

 

 

 

 

 

 

 

 

j 1

 

 

 

 

 

 

получаем:

 

 

 

 

 

 

 

 

 

 

 

 

 

P'( 1 / x1 , y1 )

 

 

0,302 0,35

 

 

0,636;

P'( 1 / x1 , y2 )

 

0,181 0,35

 

 

 

 

 

 

 

 

 

 

 

0,302 0,35 0,093

0,65

0,181 0,35 0,207

0,65

 

 

 

 

 

 

 

 

 

 

 

 

 

P'(1 / x1 , y2 ) 0,32;

 

 

P'(2 / x1 , y1 ) 1 0,636 0,364;

 

 

 

P'( 2 / x1 , y2 ) 1 0,32 0,68;

 

 

P(x1 , y1 ) 0,302 0,35 0,093 0,65 0,166;

P(x1 , y2 ) 0,181 0,35 0,207 0,65 0,198

P'( 1 / x2 , y1 )

 

 

0,218 0,35

 

 

0,473;

P'( 1 / x2 , y2 )

 

0,131 0,35

 

 

 

 

 

 

 

 

 

 

 

 

0,218 0,35 0,131

0,65

 

0,131 0,35 0,293 0,65

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P'(1 / x2 , y2 ) 0,194;

 

 

P'(2 / x2 , y1 ) 1 0,473 0,527;

 

 

 

 

P'( 2 / x2 , y2 ) 1 0,194 0,806;

 

 

P(x2 , y1 ) 0,218 0,35 0,131 0,65 0,161;

P(x2 , y2 ) 0,131 0,35 0,293 0,65 0,236;

P'( 1 / x1 , y3 )

 

 

0,097 0,35

 

 

0,314;

P'( 1 / x2 , y3 )

 

0,071 0,35

 

 

 

 

 

 

 

 

 

 

 

0,097

0,35 0,114

 

 

 

0,071 0,35 0,162

0,65

 

0,65

 

 

 

 

 

 

 

 

 

 

 

 

P'(1 / x2 , y3 ) 0,362;

 

 

P'(2 / x1 , y3 ) 1 0,314 0,686;

 

 

 

 

P'(2 / x2 , y3 ) 1 0,362 0,638;

 

 

P(x1 , y3 ) 0,097 0,35 0,114 0,65 0,108;

P(x2 , y3 ) 0,071 0,35 0,162 0,65 0,165.

VI. Для каждого результата хi, yj объединённого эксперимента определяем согласно формулам

25

Uij (a1 ) P(1 / xi , y j ) a11 P(2 / xi , y j ) a12 и

Uij (a2 ) P(1 / xi , y j ) a21 P(2 / xi , y j ) a22

средние полезности :

U11 (a1 ) 0,636 15300 0,364 18600 16501,2; U12 (a1 ) 0,32 15300 0,68 18600 17544;

U13 (a1 ) 0,314 15300 0,686 18600 17563,8; U11 (a2 ) 0,636 16700 0,364 13800 15644,4; U12 (a2 ) 0,32 16700 0,68 13800 14728;

U13 (a2 ) 0,314 16700 0,686 13800 14710,6;

.

U 21 (a1 ) 0,473 15300 0,527 18600 17039,1; U 22 (a1 ) 0,19415300 0,80618600 17959,8; U 23 (a1 ) 0,36215300 0,63818600 17405,4; U 21 (a2 ) 0,473 16700 0,527 13800 15171,7; U 22 (a2 ) 0,19416700 0,80613800 14362,6; U 23 (a2 ) 0,36216700 0,63813800 14849,8

VII. Выбираем оптимальную стратегию:

x , y a* ;

x , y

a*

;

x

, y

a* ;

x

, y

a* ;

1

1

1

1

2

1

 

2

1

1

2

2

1

x , y

a* ;

x

, y

a* .

 

 

 

 

 

 

1

3

1

2

3

1

 

 

 

 

 

 

 

При этом для соответствующей средней полезности имеем:

P(xi , y j ) max[Ui, j (a1 );U i, j (a2 )] 0,166 16501,2 0,198 17544 0,108 17563,8

i, j

0,161 17039,1 0,236 17959,8 0,165 17405,4 17963,484.

IIX. Наконец из условия

U (e*) maxU (e)

e

находим оптимальный эксперимент:

U (e*) max[20445; 19452,507 ;17936,484] 20445

e

Таким образом, е*= е0. Поскольку в исходной матрицы были заданы проигрыши,

то для данной задачи минимальные издержки будут соответствовать е2, то есть проведение эксперимента в данном случае оправдано. В примере байесовский подход уточнения априорных вероятностей используется одновременно с экономическим критерием максимальной выгоды. В данном случае выгодно проводить эксперименты.

26

2.3. Лабораторная работа 3

Тема: Изучение свойств линейного нейрона и линейной нейронной

сети

Цель работы – изучить свойства линейного нейрона.

Теоретические сведения

Элементарной ячейкой нейронной сети является нейрон. Структура нейрона с единственным скалярным входом показана на рисунке 11,а.

а б

Рисунок 11 − Простой нейрон Скалярный входной сигнал р умножается на скалярный весовой

коэффициент w, и результирующий взвешенный вход w*p является аргументом функции активации нейрона, которая порождает скалярный выход а.

Нейрон, показанный на рисунке 11,б, дополнен скалярным смещением b.

Смещение суммируется с взвешенным входом w*p и приводит к сдвигу аргумента функции на величину b. Действие смещения можно свести к схеме взвешивания,

если представить что нейрон имеет второй входной сигнал со значением, равным

1. Вход n функции активации нейрона по-прежнему остаётся скалярным и равным сумме взвешенного входа и смещения b. Эта сумма является аргументом функции активации f; выходом функции активации является сигнал а. Константы w и b

являются скалярными параметрами нейрона. Основной принцип работы нейронной сети состоит в настройке параметров нейрона с тем, чтобы функционирование сети соответствовало некоторому желаемому поведению. Регулируя веса или параметры смещения, можно “научить” сеть выполнять конкретную работу;

возможно также, что сеть сама будет корректировать свои параметры, чтобы достичь требуемого результата.

Уравнение нейрона со смещением имеет вид

27

a = f(w*p+b*l).

Как уже отмечалось, смещение b – настраиваемый скалярный параметр

нейрона, который не является входом, а константа 1, которая управляет смещением, рассматривается, как вход и может быть учтена в виде линейной

комбинации векторов входа

a [w

p

b]

.

 

 

1

 

Функции активации

(передаточные функции) нейрона могут иметь

самый разнообразный вид. Функция активации f, как правило, принадлежит классу сигмоидальных функций с аргументом n и выходом а.

Ниже рассмотрены три наиболее распространённые функции активации.

Единичная функция активации с жестким ограничениям hardlim. Эта функция описывается соотношением а = hardlim(n) = 1(n) и показана на рисунке 12. Она равна 0, если n < 0, и 1,если n >= 0.

 

Рисунок 12 − Функция активации hardlim

 

В

состав

пакета ППП Neural Network Toolbox

входит М-

функция

hardlim,

реализующая функцию активации

с жёсткими

ограничениями.

Линейная функция активации purelin. Эта функция описывается соотношением, а = purelin(n) = n и показана на рисунке 13.

28

Рисунок 13 − Линейная функция активации purelin

Логистическая функция активации logsig. Эта функция описывается соотношением а = logsig(n) = 1/(1 + ехр(-n)) и показана на рисунке 14. Она принадлежит к классу сигмоидальных функций, и её аргумент может принимать любое значение в диапазоне от до , а выход изменяется от 0 до

1. В пакете ППП Neural Network Toolbox она представлена М-функцией logsig.

Благодаря свойству дифференцируемости эта функция часто используется в сетях с обучением на основе метода обратного распространения ошибки.

Рисунок 1 4 − Функция logsig

Символ в квадрате в правом верхнем углу графика характеризует функцию активации. Это изображение используется на структурных схемах нейронных сетей.

В пакет ППП Neural Network Toolbox включены и другие функции активации. Используя язык MATLAB, пользователь может создавать и свои собственные уникальные функции.

Нейрон с одним вектором входа р с R элементами p1 , p2 ,..., pR показан на рисунке 15. Здесь каждый элемент входа умножается на веса w11 , w12 ,..., w1R

29

соответственно, и взвешенные значения передаются на сумматор. Их сумма равна скалярному произведению вектора-строки W на вектор входа р.

Вход

Нейрон с векторным входом

Рисунок 15 − Функциональная схема нейрона

Нейрон имеет смещение b, которое суммируется с взвешенной суммой входов. Результирующая сумма n определяется как

n w11 p1 w12 p2 ... w1R pR b

и служит аргументом функции активации f. В нотации языка MATLAB это выражение записывается так:

n = W*p + b.

Структура нейрона, показанная на рисунке 15, содержит много лишних деталей. При рассмотрении сетей, состоящих из большого числа нейронов, будет использоваться укрупнённая структурная схема нейрона (рисунок 16).

Вход нейрона изображается в виде темной вертикальной черты, под которой указывается количество элементов входа R. Размер вектора входа р указывается ниже символа р и равен Rxl. Вектор входа умножается на вектор-строку W длины

R. Как и прежде, константа 1 рассматривается как вход, который умножается на скалярное смещение b. Входом n функции активации нейрона служит сумма смещения b и произведения W*p. Эта сумма преобразуется функцией активации f, на выходе которой получается выходная величина нейрона а, которая в данном случае является скалярной величиной. Структурная схема, приведённая на рисунке

30

16, называется слоем сети. Слой характеризуется матрицей весов W, смещением b,

операциями умножения W*p, суммирования и функцией активации f. Вектор входов р обычно не включается в характеристики слоя.

Рисунок 16 − Структурная схема нейрона

Каждый раз, когда используется сокращённое обозначение сети, размерность матриц указывается под именами векторно-матричных переменных. Эта система обозначений поясняет строение сети и связанную с ней матричную математику.

Градиентными алгоритмами обучения являются:

GD алгоритм градиентного спуска;

GDM алгоритм градиентного спуска с возмущением;

GDA алгоритм градиентного спуска с выбором параметра скорости настройки;

Rprop пороговый алгоритм обратного распространения ошибки;

GDX алгоритм градиентного спуска с возмущением и адаптацией параметра скорости настройки.

Алгоритмами, основанными на использовании метода сопряжённых градиентов,

являются:

CGF алгоритм ФлетчераРивса; CGP алгоритм ПолакаРебейры; CGB

алгоритм БиелеПауэлла;

SCG алгоритм Молера.

Квазиньютоновскими алгоритмами являются:

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]