Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методы оптимизации эксперимента в химической технологии

..pdf
Скачиваний:
39
Добавлен:
15.11.2022
Размер:
13.27 Mб
Скачать

линеаризуются логарифмированием:

ПОЛОЖИВ

 

]g7 = 1 g 5 0 +

51 lgx;

 

(IV. 86)

 

 

 

 

 

 

 

 

 

хх

XX

H

1в*»=я!в1» lgX= <.

 

 

lg </ =

Z . lg&0= e*

 

получим линейные уравнения относительно новых переменных:

 

 

 

 

X X

 

X X

 

 

 

 

 

 

г ^ а ^ + агху

2 =*а* + М-

 

 

Коэффициенты а0, аи by определяются по методу наименьших

квадратов. По

полученным а0

и ау определяются коэффициенты

Ь0 и Ьу. Однако следует иметь в виду, что полученные таким

образом коэффициенты уравнений регрессии (IV 83)

и (IV 84)

являют­

ся смещенными оценками для соответствующих генеральных коэф­

фициентов.

 

 

 

 

 

считать,

что уравне­

8.

Оценка тесноты нелинейной связи. Если

ние регрессии найдено с достаточной точностью, то остаточная

дисперсия обусловлена только наличием дисперсии воспроизводи­

мости, т. е.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(IV .87)

Чем

меньше

доля

^ ^оспр в

общей

дисперсии

тем

сильнее

связь между Y и X, так как

меньше

доля случайности

в этой

связи. Поэтому силу связи можно характеризовать величиной

 

5 =

где

(«—о 4* >

(IV. 88)

(« —о sI

i s

( * - £ ) 4

i= 1_________

 

п— /

2 О* - * ) 2

i=i

 

 

2 *

»=1

Связь тем сильнее, чем меньше

Величина

V I — € = 6

(IV.89)

называется корреляционным отношением. Чем больше 0, тем сильнее связь

О < 0 < 1 .

(IV. 90)

Если 0=1, то существует функциональная зависимость между параметрами. Однако при 0=0 величины Y и X нельзя считать независимыми, так как связь между ними, не сказываясь на диспер­ сиях, может проявить себя в моментах более высокого порядка. И только при нормальном распределении равенство нулю корреля­ ционного отношения однозначно свидетельствует об отсутствии связи между случайными величинами. Корреляционное отношение, как и коэффициент корреляции в линейной регрессии, характеризует тесноту связи между случайными величинами. Вообще анализ силы связи по 0 называют корреляционным анализом.

При линейной регрессии корреляционное отношение равно коэф­ фициенту корреляции:

(IV .91)

9. Метод множественной корреляции. Если необходимо исследо­ вать корреляционную связь между многими величинами, то пользуются_хравнениями множественной регрессии:

 

УК + Ьгхг + Ь2х2+ • • • +

(IV.92)

Уравнение

(IV 92) представляет собой поверхность регрессии при

к = 2 и гиперповерхность

при к>2. Эту поверхность называют

поверхностью

отклика. При

построении

поверхности отклика • на

координатных осях факторного пространства откладываются числен­ ные значения параметров (факторов). Исходный статистический материал представлен в табл. 26.

Т а б л и ц а

26.

Исходный статистический материал в "Натуральном масштабе

Н о м е р о п ы т а

X1

Х7

ДСЗ

Хк

У

1

Х и

Х21

Хэ\

* * .

J'l

2

Х\ 2

Х22

Х32

*&2

У2

3

Х\ 3

Х23

х зз

* * з

Уз

п

* ./,

*2/1

*3/1

х кп

Уп

Перейдем от натурального масштаба к новому, проведя нормиров­ ку всех значений случайных величин по формулам:

(IV.93)

i 1, 2, ... , п; j 1, 2*... • &у

где yf, xfi - нормированные значения соответствующих факторов; у, X j- средние значения факторов; sy, л*, —среднеквадратичные откло­ нения факторов:

\ f

п — 1 • SX j — f

l/l/" -

V

ft 1

В табл. 27 приведен исходный статистический материал в новом масштабе:

Т а б л и ц а 27. Исходный статистический материал в безразмерном масштабе

Номер опыта

 

 

 

\

 

 

 

 

1

V 0

* 2 °,

* 3 1

* h

 

2

г°

* 2 2

* 3 2

X U

Л , 2

3

у О

* 2 3

* 3 3

Х%2

* 1 3

У?

OCN

Уз

п

у- 0

*2Л

Хэп

Хкп

Уп

 

В новом масштабе имеем:

 

*® = 0, & = О и ^ 0= 1 , ^ = 1.

(IV.94)

Выборочный коэффициент корреляции при этом равен

 

 

 

 

1

 

 

а

1

 

 

J

 

 

 

п

 

г хо о

= ----- -

V 4 0

0

Х1 х т

П 1

Z u x h W

 

 

i = \

 

У Г У 0 0

2j y ix n '

г

/, m = 1 ,

(IV. 95)

k t I > fJLm

Вычисленный по формуле (IV 95) выборочный коэффициент кор­ реляции равен коэффициенту корреляции между переменными, вы­ раженными в натуральном масштабе ry*., r*Xfn. Уравнение регрессии между нормированными переменными не имеет свободного члена и принимает вид

Л,

о

о

о

.

(IV.96)

У0 = aiX + а2х

-1-------Ь акх

k

 

1

2

 

 

 

Коэффициенты уравнения (IV 96) находятся из условия

 

П

О ^ 0\2

S =

2

( Уй — У%) = min.

Условия минимума функции S определяются так же, как для зависимости от одной переменной:

6S

(IV.97)

дах

и система нормальных уравнений имеет вид

*1

 

2 ( * « ) 2'1-------i-«k

<=i

<=i

(IV-98)

<«=

<=i

 

 

 

«1

S

+«* 2

**«*«А

^ вк 2

( *«)2=

2

 

 

i=i

i=i

 

 

t=i

i=i

 

Умножим

левую и правую части системы уравнений

(IV 98) на

1/(п—1).

В

результате

при каждом

коэффициенте

ду

получается

согласно (IV 95) выборочный коэффициент корреляции г*. Принимая во внимание, что

получаем систему нормальных уравнений в виде

a l “ b a * rx ix a ~ Ь Ч " * • • Ч " a k rx t x Ji = r y x t »

alV . +

+ *8ГХ*а Н-------

*” *Л Г = V . ’

 

 

(IV.99)

a i rxkxt +

a *rxkxt + в а г х к х . +

--------- h flfe =

В системе уравнений (IV99) rxlXm= г*тХГ Для многопараметрических процессов система (IV 99) оказывается высокого порядка и для ее решения необходимо использовать вычислительную машину. Решив систему (IV 99), рассчитывают коэффициент множественной корреля­ ции R:

R = Y axr’UXi + axryx%+ • • • + « * ^

(IV. 100)

Коэффициент множественной корреляции служит показателем силы связи для множественной регрессии:

0 < я < 1 .

(IV.101)

Для выборок небольшого объема в величину R необходимо внести коррекцию на систематическую ошибку. Чем меньше число степеней свободы выборки / = л—/, тем больше завышается сила связи, оце­

ниваемая коэффициентом множественной корреляции. Формула для коррекции

=

(IV.102)

где R' —скорректированное

значение коэффициента множественной

корреляции; / —число коэффициентов уравнения регрессии. В уравне­

нии (IV 92) / = к+ 1.

можно перейти к натуральному

масштабу

От уравнения (IV 96)

по формулам

 

 

 

bi = *i 1

, / = 1 , 2 , . . . , А;

О,

 

 

J

 

(IV. 103)

 

п

 

 

Ьп = У— S ЬМ- i=i

При наличии параллельных опытов можно рассчитать дисперсию воспроизводимости и провести статистический анализ уравнения

регрессии.

«

Пример 4. Необходимо получить зависимость степени извлечения серной кислоты (у) из травильных растворов от следующих факторов: х\ —концентрации H 2SO 4 в исходном растворе; xi —концентрации сульфата железа FeSCU; хз —объемного соотношения спирт — кислота. Исходным статистическим материалом служит выборка объемом в 105 измерений, полученная пассивным экспериментом.

Р е ш е н и е . Известно, что зависимость между степенью извлечения серной кислоты и выбранными факторами в исследуемой области носит линейный характер. В связи с этим определим эту зависимость в виде линейного уравнения регрессии

/S

У = Ь0 + b t x x + Ьг Хъ &3 Х3

методом множественной корреляции. По формулам (IV.93) все результаты эксперимента Переводим в стандартный масштаб. Затем по (IV.95) вычисляем выборочные коэффициенты корреляции:

гух%= 0,212, тух = 0,043, г*Х' = 0,903, ^ = -0,417,

-0.128, г;л = 0,046.

Полученные значения коэффициентов корреляции подставляем в систему уравнений (IV.99). В результате получим

ах —0,417а, —0,128а, = 0,212,

0,417а, + а, + 0,046а, = 0,043,

0,128aj + 0,046а, + а, = 0,903.

Решив систему, получим at —0,397, аз —0,166, аз —0,903 и уравнение регрессии в стандартном масштабе:

у®= 0,397*° + 0,166*£ + 0,903*;.

По формулам (IV. 103) перейдем к натуральному масштабу:

9 = -2 6 ,5 + 1,987*,+ 1,17*,+ 14,14*3.

2

воспр*

Дисперсию воспроизводимости определим по данным трех параллельных опытов

о2

---- -—!----------------

2

3 82

Лвоспр

где уо—среднее по параллельным опытам.

Число степеней свободы ^воснр равно 2. Остаточную дисперсию определим по формуле (IV.53):

2

(*« - * )2

 

s2

_________

36,03.

ост

105 — 4

 

Число степеней свободы sJCT равно 101; / ’-отношение равно 9,4. Табличное значение критерия Фишера для уровня значимости /7—0,05 и чисел степеней свободы /| —101 и /2 = 2 F\-p (/i, / 2 ) = 19,5. Следовательно, полученное уравнение регрессии адекватно эксперименту.

10. Регрессионный анализ в матричной форме. Регрессионный анализ в матричной форме удобен для решения задачна ЦВМ. Методом наименьших квадратов необходимо найти коэффициенты уравнения регрессии по данным табл. 26

У — Ь0х0 + Ьххх + Ь2х2 + • • • + .

где хо—фиктивная переменная, равная 1.

Представим исходный статистический материал в матричной форме. Будем называть матрицу

 

*01

*11 • - • *111

 

 

*02

*12 • «• *Ь2

{IV .104)

 

X =

 

 

 

_*оп

*1/Г- • *Лп_

 

матрицей независимых переменных, а матрицу-столбец

 

 

Ух

 

 

 

Y =

у2

 

(IV. 105)

 

 

 

 

 

Уп_

 

 

вектором наблюдений.

 

 

 

ГЬ„

 

 

 

 

Введем матрицу-столбец коэффициентов В =

и матрицу, транс-

понированную к X :

*01

*02 *• •

*011

 

 

*11

*12 • • •

(IV. 106)

 

 

 

 

хкх *Л2 • • • xhn

Система нормальных

уравнений для

определения Ьо,

Ь к

имеет вид

п

п

п

 

п 2

 

ь0 2

»+ * 1

2

 

н------н ьк

2

 

 

x»iXki =

2 х»м

1=1

 

 

i=i

 

 

i=i

 

 

 

 

i=i

п

 

 

 

п

2

П

 

 

 

П

ь0 2

 

+

bi

2

хч н--- 1- bh

2

 

хч хм = 2 *1до»

1=1

 

 

 

1=1

 

1=

1.

 

 

1=1

 

 

 

 

 

 

 

 

 

 

 

(IV .107)

л

 

 

 

л

 

 

 

л 2

 

л

fy> 2

*ы*<»1+^1

2**<*!< + •• ■+ ьк

 

 

2 * « =

2*ы ю -

<=i

 

 

 

i=i

 

 

 

i=i

 

t=i

В матричной

форме система нормальных

уравнений запишется

следующим образом:

 

 

XTXB = XT Y.

 

 

 

 

(IV. 108)

 

 

 

 

 

 

 

 

 

Действительно,

перемножив матрицу Х т

 

 

и X ,

имеем

 

 

 

Л

 

Л

 

 

Л

 

 

 

 

2 *0!

2

*Ь«*И

• • •

2

*0t*kl

 

 

 

£=1

 

1=1

 

 

 

£=1

 

 

 

 

 

Л

 

 

Л

 

 

Л

 

 

 

А'ГА' =

2

 

 

2

*ii

•••

2

*п*к«

 

 

 

<=1

 

 

i=i

 

 

i=i

 

 

 

 

_ 1=1

xkixoi

^2 *ki*li •••

1=1

хм

_

 

 

 

1=1

 

 

 

 

Х Т Х — матрица моментов. Умножив матрицу Х

т X на

столбец В , получим матрицу-столбец:

 

 

 

 

 

 

ьа 2

*oi +*i

2

*bi*u -t------ь ьк

2

*oi*ki

 

1=1

 

 

1=1

 

 

 

 

£=1

хтхв =

л

xiixot “Н^1

 

Xi I “Ь

4“ bk

п

xi i xki

Ьо 2

2

2

 

i=l

 

 

 

i=l

 

 

 

 

£ = 1

 

_

ь0 2xkixol +

 

2XMXU"i------Hbfc2Xhi

£=1

 

 

 

£=1

 

 

 

 

£=1

Умножив матрицу Агна вектор наблюдений Y, получим

 

 

 

 

 

л

 

 

 

 

 

 

 

 

 

 

2

*0

 

 

 

 

 

 

 

 

 

i=l

 

 

 

 

 

 

 

 

 

 

л

 

 

 

 

 

 

 

ХтY =

2

 

*i*w

 

 

 

 

 

 

i=l

 

 

 

 

 

(IV. 109)

матрицу-

(IV. 110)

(IV. 111)

2

_ £ = 1

Из уравнения (IV 108) матрица-столбец коэффициентов В опреде­ ляется следующим образом:

В = (Х ТХ)-*ХТ Г,

 

 

 

 

(IV. 112)

где (ХтХу-1—матрица, обратная матрице (ХТХ);

 

 

 

 

[ С00

С01 • •

cok 1

 

 

 

Cl.®

.С“

Clh

I

(IV. 113)

 

cfc0

Cft! ...

 

 

 

 

Элементы обратной матрицы определяются соотношением

 

 

AuJ

 

 

 

 

(IV .114)

Cja det (ХтX)

 

 

 

 

 

 

 

 

 

где det (X ТХ) —определитель

матрицы Х ТХ,

а

^

—алгебраическое

дополнение элемента

в матрице Х ТХ.

 

 

 

Для существования обратной матрицы РСТХ) должна быть не­ вырожденной. В связи с этим при использовании рассматриваемого вычислительного метода необходимо, чтобы переменные х и были линейно независимы. Тогда в матрице независимых перемен­

ных элементы одного столбца не будут линейной комбинацией соответствующих элементов других столбцов.

Для определения остаточной дисперсии определяют матрицустолбец У:

Л

= хв.

(IV .115)

У=

Л

U / n _

Числитель остаточной дисперсии получается умножением матриц:

[ г

- * П г - * ] _

2 ( . - А

Г

-

(IV. 116)

 

 

 

1=1

 

 

 

Обозначим через В вектор-столбец коэффициентов

И С Т И Н Н О Й

регрессии, при этом

математическое

ожидание

В равно

М(В) = й.

Тогда

 

 

 

 

 

 

 

 

Ч

covM .---

coV ft

 

м 1 ( я - р ) ( л - р г)] =

C0VM .

4 t - - - covblbh

(IV.117)

 

 

 

 

COVЬкЬ0 COVbkbi

где 0*2 —генеральная дисперсия коэффициента bj\ cov^u —ковариация, или корреляционный момент, между коэффициентами bj и Ьи.

Таким образом, диагональные члены матрицы представляют собой дисперсии коэффициентов, необходимые для проверки гипотезы

значимости, а недиагональные —ковариации соответствующих коэффи­ циентов регрессии, определяющие статистическую зависимость между коэффициентами. Выразим матрицу М [ ( В - Ъ )(В - й)т] через результаты наблюдений, имея в виду, что В = ( X T X ) ~ 'X T Y. В результате получим

М [(Д— Р) р)г ] = М {(ЛГГ Jf)'1 ХтГ>[(ХтЛГ)"1 х тг>]т) ,

где F0—случайный нормальный вектор с независимыми компонента­ ми, имеющими дисперсии о*:

У1 —т(ух)

У*- m Ы

К° = Y — M (У) =

^Уп—т(уп)_

Матрица коэффициентов нормальных уравнений симметрична и, следовательно,

[(хг дО-1]г = и г лг)~1.

Полагая aft =а£ =...=aftn =-о| и учитывая статистическую неза­ висимость ошибок, получаем

*о

Л1( у0уОГ) =

•л

(IVЛ18)

о

Уп

 

Таким образом, имеем

 

 

М [(Д- р) (В -

Р)г ] = (х тх)-1 4 .

(IVЛ19)

Отсюда

 

(IVЛ20)

°bj = ^ 4

: C0V a =C^

 

Матрица (ХТХ)~] называется матрицей ошибок или ковариацион­ ной матрицей. Так как ковариационная матрица недиагональна и, следовательно, все коэффициенты регрессии взаимно связаны, нельзя проверить значимость каждого коэффициента в отдельности. Поэтому отношения

tj = - ±I bj I

(IV. 121)

sy V C jj

 

можно рассматривать только как средство ранжировки факторов. Используется процедура последовательного исключения незначимых факторов: фактор, для которого tj оказывается наименьшим, исключает­ ся, и расчет повторяется. Исключение факторов производится до тех пор, пока уменьшается остаточная дисперсия. При этом улучшаются интерполяционные свойства уравнения регрессии, однако полученные коэффициенты оказываются смещенными оценками для соответствую­ щих генеральных коэффициентов. При большом числе факторов для расчета множественной регрессии необходимо использовать ЦВМ.

При решении линейных алгебраических систем часто приходите#

сталкиваться

с

проблемой плохой обусловленности этих систем.

Так, если для

системы ХВ = У малым изменениям

элементов

матри^

цы X или вектора У отвечают достаточно большие

изменения

реше^

ний (элементов

вектора В), то система плохо обусловлена.

В про'

тивном случае система обусловлена хорошо. Погрешности в опреде" лении экспериментальных величин х и у сказываются на определяем мых величинах коэффициентов и при плохой обусловленности влекут за собой сильные вариации в значении коэффициентов и, следовав тельно, малую достоверность полученных результатов расчета.

Хорошая или плохая обусловленность тесно связана с величинами определителя матрицы (ХТХ) и ее элементов. Введено большое число различных критериев, определяющих обусловленность.

Для плохо обусловленных систем возникает проблема выбора алгоритма решения. При проведении расчетов по рассмотренному алгоритму на каждом шаге будет возникать некоторая ошибка, на­

пример, за счет

округления или заданной

точности

на ЦВМ, а

также ощутимая

потеря значащих цифр в

результате

вычитаний.

В конечном итоге это может привести к достаточно сильному иска­ жению решения. Для таких систем требуются так называемые устой­ чивые алгоритмы, позволяющие исключить появление нежелательных ошибок, связанных, в частности, с плохой обусловленностью. Наибо­ лее общим и наиболее часто используемым подходом является метод

регуляризации, разработанный А. Н. Тихоновым.

не возникает

Проблем, связанных с плохой обусловленностью,

при обработке планированного эксперимента (см. гл. V).

 

11.

Метод группового учета аргументов (МГУА). Метод группового

учета

аргументов, предложенный А. Г. Ивахненко,

существенно

уменьшает вычислительные трудности, возникающие при применении метода наименьших квадратов в задачах большой размерности. МГУА дает возможность решение исходной многофакторной задачи свести к решению большого числа сравнительно простых задач аппроксимации экспериментальных данных функциями двух перемен­ ных —полиномами обычно невысокого порядка. Метод Ивахненко состоит в выборе иерархии частных моделей вместо одной общей модели. На каждой из стадий этого процесса производится отбор наилучших, в некотором смысле, полиномов, которые используются на следующей стадии в качестве фиктивных аргументов новых полиномов.

На рис. 27 приведена схема применения МГУА. Каждая частная модель имеет два входа и один выход. Параметры частных моде­ лей (коэффициенты частных полиномов) подбираются так, чтобы

как можно точнее аппроксимировать величину у.

В качестве частных

полиномов используют линейные уравнения для двух факторов:

v= b0 + b1x1 + b2x2,

(IV. 122)

уравнения с эффектом парного взаимодействия

 

v = b0 + Ьгхх f Ъ2х2+ Ь12хгх2