Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоры по твимс.docx
Скачиваний:
13
Добавлен:
25.04.2019
Размер:
1.09 Mб
Скачать

38.Непараметрические критерии согласия (критерии а-Колмагорова, критерии знаков)

Кроме критерия (хи) для оценки степени согласованности теоретического и статистического распределений на практик применяется еще ряд других критериев.

Критерий Колмагорова. В качестве меры расхождения между теоретическим и статистическим распределениями Колмагоров рассматривает максимальное значение модуля разности между статистической функцией распределения и соответствующей теоретической функцией распределения: . Основанием для выбора в качестве меры расхождения величины D является исключительная простота ее закона распределения. Колмагоров доказал, что, какова бы ни была функция распределения F(x) непрерывной случайной величины Х, при неограниченном возрастаний числа независимых наблюдений n вероятность неравенства стремится к пределу (1) Значения вероятности , подсчитанные по формуле (1), приведены в таблице.

Схема применения критерия Колмагорова следующая: стороятся статистическая функция распределения и предполагаемая теоретическая функция распределения F(x) и определяется максимум Dмодуля разности между ними. Далее определяется величина и по таблице находится вероятность это есть вероятность того, что(если величина Х действительно распределена по закону F(x)) за счет чисто случайных причин максимальное расхождение между и F(x) будет не меньше, чем фактически наблюденное. Если вероятность весьма мала ,гипотезу следует отвергнуть как неправдоподобную, при сравнительно больших ее можно считать совместимой с опытными.

39.Эмпирические формулы. Метод наименьших квадратов-метод сглаживание, при кот требование наилуч-го согласования кривой и экспериментальных точек сводится к тому, чтобы сумма квадратов отклонений эксперим-х точек от сглаживающей кривой обращалась в минимум. Мет наим квадратов имеет перед другими методами сглаживания сущ-ые преимущества:1)он приводит к сравнительно простому матем аппарату определения параметров a,b,с…;2)он допускает веское теоретическое обоснование с вероятностной точки зрения.

Задача. Пусть в рез-те измерений в процессе опыта получ табл некоторой зависимости .

Нужно найти формулу, выраж-ю эту зависимость аналитически.

Поставим зад так, чтобы с самого начала обязательно учит-ся характер исх ф-ции: найти ф-цию заданного вида , кот в точках приним значения, как м\о более близкие к табличным значениям .Практически вид приближ-ей ф-ции м\о опред-ть след обр-м. Строится точечный гр ф-ции,а затем провод-ся плавная кривая, по возм-ти наилуч обр-м отраж-ая хар-р расп-ия точек.По получ-й таким обр кривой уст-ся вид приближ ф-ции.

Приближ-ая ф-ция(её ещё наз-т эмпирической формулой, или уравнением регрессии у на х) интересна тем, что позв нах-ть знач ф-ции для нетабличных значений х, «сглаживая» результаты измерений величины у.

Рассм один из распр-х способов нах-ия эмпирич.формулы.Предположим, что приближ ф-ция F в точках имеет знач (*).Будем рассм-ть совокупность знач ф-ции из табл и совокупность(*) как корд-ты 2-х точек n-мерного простр-ва.Т.е.найти такую ф-цию заданного вида, чтобы расстояние м\у точками и были наименьшим.Это треб-ие равносильно след-му: чтобы была наим-ей сумма квадратов (**)Итак, зад приближения ф-ции f теперьформул-ся след обр:для ф-ции f, зад табл,найти ф-цию F опред вида,чтобы сумма квадратов(**) была наименьшей.Эта задача носит назв-ие задачи приближения ф-ции методом наименьших квадратов.В кач-ве приближ-х ф-ций в зависимости от хар-ра точечного гр ф-ции f часто исп-т след ф-ции

.Мет наименьших квадратов обосновывается исходя из нормального закона ошибок измерения и требования максимальной вероятности данной совокупности ошибок

40. уравнения прямолинейной регрессии.В практических исследованиях возникает необходимость аппроксимировать (описать приблизительно) диаграмму рассеяния математическим уравнением. То есть зависимость между переменными величинами Y и Х можно выразить аналитически с помощью формул и уравнений и графически в виде геометрического места точек в системе прямоугольных координат. График корреляционной зависимости строится по уравнениям функции и , которые называются регрессией (термин “регрессия” происходит от лат. regressio — движение назад). Здесь и — средние арифметические из числовых значений зависимых переменных Y и X. Показатели регрессии выражают корреляционную связь двусторонне, учитывая изменение средней величины признака Y при изменении значений xi признака X, и, наоборот, показывают изменение средней величины признака Х по измененным значениям yi признака Y. Исключение составляют временные ряды, или ряды динамики, показывающие изменение признаков во времени. Регрессия таких рядов является односторонней.Уравнение линейной регрессииОбычно признак Y рассматривается как функция многих аргументов — x1, x2, x3, ...— и может быть записана в виде: y = a + bx1 + cx2 + dx3 + ... ,где: а, b, с и d — параметры уравнения, определяющие соотношение между аргументами и функцией. В практике учитываются не все, а лишь некоторые аргументы, в простейшем случае, как при описании линейной регрессии, — всего один: y = a + bx .В этом уравнении параметр а — свободный член; графически он представляет отрезок ординаты (у) в системе прямоугольных координат. Параметр b называется коэффициентом регрессии. С точки зрения аналитической геометрии b— угловой коэффициент, определяющий наклон линии регрессии по отношению к осям, координат. В области регрессионного анализа этот параметр показывает, насколько в среднем величина одного признака (Y) изменяется при изменении на единицу меры другого корреляционно связанного с Y признака X. Коэффициенты уравнения парной линейной регрессии Как уже было определено выше, в случае линейной зависимости уравнение регрессии является уравнением прямой линии. Таких уравнений два:

Y = a1 + by/xX — прямое и X = a2 + bx/yY — обратное, (2.2)

где: a и b – коэффициенты, или параметры, которые надлежит определить.Значение коэффициентов регрессии вычисляется по формуле: и . (2.3)

Коэффициенты регрессии b имеют размерность, равную отношению размерностей изучаемых показателей X и Y, и тот же знак, что и коэффициент корреляции.y, x – средние квадратические ошибки Коэффициенты а определяются по формуле:

и . (2.4)Чтобы вычислить этот коэффициенты, надо просто в уравнения регрессии подставить средние значения коррелируемых переменных.

41. Коэффициент корреляции. Корреляция и регрессия. Корреляционным моментом СВ Х и У наз-ют МО произведения отклонений этих величин: * . Для вычисления корреляционного момента дискретных величин используют формулу * * , а для непрерывных величин – формулу * * . Коэффициентом корреляции СВ Х и У наз-ют отношение кор-ционного момента к произведению средних квадратических отклонений этих величин: . Коэффициент корреляции независимых СВ =0. Абсолютная величина корреляционного момента не превышает среднего геометрического их дисперсий . Абсолютная величина коэффициента корреляции не превышает единицы: . Док-во: Разделим обе части двойного неравенства на продолжение положительных чисел : => . Выборочный коэффициент корреляции , где x , y – варианты признаков X, Y; nxy – частота пары вариант (х, у); n – объём выборки; - выборочные средние квадратические отклонения; - выборочные средние. Коэффициент корреляции измеряет силу линейной связи между случайными величинами.

Условным МО дискр-ой СВ У при Х=х наз-ют произведение всевозможных значений У на их условные вероятности: .

Для непрер-х вел-н , где - условная плотность СВ У при Х=х. Условное МО есть ф-ия от х: , которую наз-ют ф-ей регрессии. Ан-но опред-ся

42. Случайные функции. Случайной функцией X(t) называют функцию неслучайного аргумента t, которая при каждом фиксированном значении аргумента является случайной величиной. Сечением случайной функции X(t) называют случайную величину, соответствующую фиксированному значению аргумента случайной функции. Реализацией случайной функции X(t) называют неслучайную функцию аргумента t, которая может оказаться равной случайная функция в результате испытания. Т.о., случайную функцию можно рассматривать как совокупность случайных величин {X(t)}, зависящих от параметра t, или как совокупность ее возможных реализаций. Характеристиками случайной функции называют ее моменты, которые являются неслучайными функциями. Матем-им ожиданием случайной функции X(t) называют неслучайную функцию m x(t), значение которой при каждом фиксированном значении аргумента равно математическому ожиданию сечения, соответствующего этому же фиксированному значению аргумента: m x(t)=M[X(t)]. Свойства математического ожидания случайной функции: 1. математическое ожидания неслучайной функции равно самой неслучайной функции: . 2. неслучайный множитель можно выносить за знак математического ожидания: . 3. математическое ожидание слагаемых двух случайных функций равно сумме математических ожиданий слагаемых: Следствие: Если X(t) – случайная функция, - неслучайная функция, то Дисперсией случайной функции X(t) называют неслучайную неотрицательную функцию Dx(t), значение которой при каждом фиксированном значении аргумента t равно дисперсии сечения, соответствующего этому же фиксированному значению аргумента: D x(t)=D[X(t)]. Средним квадратическим отклонением случайной функции называют квадратный корень из дисперсии: Свойства дисперсии случайной функции: 1. Дисперсия неслучайной функции равна 0: . 2. Дисперсия суммы случайной функции X(t) и неслучайной функции равна дисперсии случайной функции: . 3. Дисперсия произведения случайной функции X(t) на неслучайную функцию равна произведению квадрата неслучайного множителя на дисперсию случайной функции:

43.Понятие о дисперсионном анализе. Метод МонтеКарло.Для сравнения нескольких сред­них пользуются методом, к-рый основан на сравнении дисперсий и поэтому назван дисперсионным анализом (в основном развит английским статистиком Р. Фишером).

На практике дисперсионный анализ применяют, чтобы установить, оказывает ли существенное влияние некото­рый качественный фактор F, к-рый имеет р уров­ней F1,F2,..,Fp на изучаемую величину X.

Основная идея дисперсионного анализа состоит в срав­нении факторной дисперсии, порождаемой воздействием фактора и остаточной дисперсии, обусловленной слу­чайными причинами. Если различие между этими дисперсиями значимо, то фактор оказывает существенное влияние на X; в этом случае средние наблюдаемых зна­чений на каждом уровне (групповые средние) различа­ются также значимо.

Если уже установлено, что фактор существенно влияет на X, а требуется выяснить, какой из уровней оказы­вает наибольшее воздействие, то дополнительно произ­водят попарное сравнение средних. Дисперсионный анализ применяется, чтобы установить однородность нескольких совокупностей. Однородные же совокупности м/о объединить в одну и тем самым получить о ней более полную информацию и более надежные выводы.

В более сложных случаях исследуют воздействие нескольких факторов на нескольких постоянных или случайных уровнях и выясняют влияние отдельных уров­ней и их комбинаций (многофакторный анализ). Ограничимся простейшим случаем однофакторного анализа, когда на X воздействует только один фактор, который имеет р постоянных уровней.

Метод Монте-Карло создан в 1949, когда амер ученые Н. Метрополис и С. Улам опубликовали статью Метод Монте-Капло, в к-рой систематически его изложили. Этот метод исп-ся для вычисления интегралов, для реш-я сис-м алгебр-ких ур-ий высокого порядка. Сущность этого метода состоит в следующем: требуется найти значение а некоторой изучаемой величины. Для этого выбирают такую случайную

величину X, матем. ожидание к-рой равно а: М(Х)=а. Поступают так: производят n испытаний, в рез-те к-рых получают n значений X, вычисляют их сред.арифмет.

и принимают х в качестве оценки а* искомого числа а: а≈ а*= .

Метод Монте-Карло требует проведения большого числа испытаний, его часто наз-т методом, статистических испытаний. Теория этого метода указы­вает, как наиболее целесообразно выбрать случайную величину X, как найти ее возможные значения. Разрабатываются способы уменьшения дисперсии используемых случайных величин, в рез-те чего уменьшается ошибка, допускаемая при замене искомого матем ожидания а его оценкой а*.

Отыскание возможных значений случайной величины X (моделирование) называют разыгрыванием случайной ве­личины. Ограничимся отысканием лишь верхней границы δ допускаемой ошибки с заданной ве­роятностью γ:

Р(| -a|≤δ)=γ. Рассм след 3 случая:

1.Случайная величина Х распределена нормально и ее среднее квадратическое отклонение σ известно. В этом случае с надежностью γ верхняя граница ошибка: δ=tσ/ , где n-число испытаний, t-знач аргумента функции Лапласа, при к-ром Φ(t)=γ/2, σ-известное среднее квадратическое отклонение Х.2. Случайная величина Х распределена нормально, причем ее среднее квадратическое отклонение σ неизвестно. В этом случае с надежностью γ верхняя граница ошибка: δ=tγs/ , где s-исправленное среднее квадратическое отклонение, tγ-по таблице.3.Случайная величина Х распределена по закону, отличному от нормального. При достаточно большом числе испытаний (n>30) с надежностью, приближенно= γ, верхняя граница ошибки м/б вычислена δ=tσ/ и δ=tγs/ . Чем больше n, тем меньше различие м/д рез-тами, к-рые дают обе формулы. При n→∞ распределение Стьюдента стремиться к нормальному.

44.Цепью Маркова наз-ют послед-ть испытаний, в каждом из к-рых появляется только одно из k несовместных событий A1,A2,…Akполной группы, причем условная вероятность Pij(s)того, что в s-испы­тании наступит событие Aj(j=1,2,..k), при усло­вии, что в (s-1)-испытании наступило событие Ai(i=1,2,..k), не зависит от рез-тов предшест­вующих испытаний.

События наз-ют состояниями си­стемы, а испытания-изменениями ее состояний.

Цепью Маркова наз-ют послед-ть испы­таний, в каждом из к-рых с-ма принимает только одно из k состояний полной группы, причем условная вероятность Pij(s) того, что в s-испытании с-ма будет находиться в состоянии j, при условии, что после (s—1)-испытания она находилась в состоянии i, не зависит от рез-тов остальных, ранее произведенных испытаний.

Цепью Маркова с дискретным временем наз-ют цепь, изменение состояний к-рой происходит в опре­деленные фиксированные моменты времени.

Цепью Маркова с непрерывным временем наз-ют цепь, изменение состояний к-рой происходит в любые случайные возможные моменты времени.

Однородной наз-ют цепь Маркова, е/и услов­ная вероятность Pij(s) (перехода из состояния i в состоя­ние j) не зависит от номера испытания. Вместо Pij(s) пишут Pij

Переходной вероятностью pij наз-ют условную вероятность того, что из состояния i в итоге следующ испытания с-ма перейдет в состояние j.

Т.о, в обозначении pij первый индекс ука­зывает номер предшествующего, а второй — номер после­дующего состояния. Нр, р23 — вероятность перехода из второго состояния в третье.

Матрицей перехода системы называют матрицу, ко­торая содержит все переходные вероятности этой сис­темы:

Т.к в каждой строке матрицы помещены вероят­ности событий, к-рые образуют полную группу, то сумма вероятностей этих событий=1. Другими словами, сумма переходных вероятностей каждой строки матрицы перехода равна единице:

Обоз вероятность, что в результате п шагов (испытаний) с-ма перейдет из состояния i в состояние j. При п = 1 получим переходные веро­ятности

наз-ют равенством Маркова.