![](/user_photo/2706_HbeT2.jpg)
- •1.2. Основные понятия теории множеств и 1.3. Основные структуры.
- •1.4. Перестановки.
- •1.5. Размещения.
- •1.6. Сочетания.
- •2. Теория вероятности.
- •2.1. Классическое определение вероятности.
- •2.2. Теоремы сложения и умножения вероятностей.
- •2.3. Дискретные случайные величины.
- •2.4. Нормальный закон распределения вероятностей.
- •2.5. Основные понятия теории вероятности.
- •2.6. Аксиомы теории вероятности.
- •3.1. Дифференциальное исчисление функции одной переменной
- •3.2. Разрыв функции.
- •3.3. Функция. График.
- •3.4. Понятие дифференциального уравнения
- •4.1. Языки программирования высокого уровня
- •4.2. Задачи на циклы с параметром.
- •4.3. Алгоритмы
- •4.4. Работа с заданными массивами.
- •4.5. Блок – схемы. Ветвление.
- •4.6. Блок – схемы. Циклы с проверкой условия.
- •Текстовые редакторы. Таблицы
- •Электронные таблицы. Встроенные функции.
- •5.3. Компьютерная графика
- •5.4. Служебные программы.
- •5.7. Основные компоненты операционных систем.
- •5.8. Обзор программного обеспечения.
- •Двоичная система счисления.
- •Представление чисел в различных системах счисления
- •6.2 Количество информации.
- •Интернет
- •Конфигурация и топология цепей
- •Структура сообщений
- •Адресация в Интернет
- •Способы подключения к Интернету
- •Защита информации. Шифрование.
- •4. Ошибки обслуживающего персонала или пользователей.
- •5. Неправильное хранение информации.
- •Кодирование информации
1.5. Размещения.
Пусть дано некоторое конечное множество А, состоящее из п различных элементов. Выберем некоторым образом из этих п элементов т различных элементов и будем составлять из этих m элементов различные упорядоченные множества.
Конечные упорядоченные
подмножества, содержащие по т
элементов, выбранных
из n
элементов основного множества, называются
размещениями из
п элеметов
по т элементов.
Число всех возможных размещений из п
элементов по т
обозначается
Нетрудно убедиться, что
=
n,
т. е. один элемент из п можно выбрать п способами, а из одного элемента можно образовать единственное упорядоченное множество.
Последнее равенство можно записать с использованием символа факториала
;
При т = 0
получаем
= 1, т. е. из любого множества единственным
способом можно извлечь пустое множество,
которое, по определению, можно упорядочить
единственным способом.
1.6. Сочетания.
Конечные неупорядоченные множества, содержащие m различных элементов, выбранных из п элементов заданного множества, называются сочетаниями из п элементов по т. Число сочетаний
из п
элементов по т
элементов обозначается
.
Число сочетаний из п элементов по т равно
Сочетания с повторениями.
Сочетаниями из т (различных) Элементов по п элементов с повторениями называют неупорядоченные совокупности, состоящие из п элементов, каждый из которых принадлежит к одному из т типов.
Например, из трех различных элементов a1, a2, а3 можно составить следующие сочетания по два с повторениями:
{ a1; a1}, {a1; a2}, { a1; а3}, { a2; a2}, { a2; а3} { а3; а3}.
Число различных сочетаний
из m
элементов по n
с повторениями обозначается
и вычисляется по формуле
=
2. Теория вероятности.
2.1. Классическое определение вероятности.
Вероятностью Р(А) события А называется отношение числа благоприятных исходов m(А) к общему числу n несовместных равновозможных исходов
Р(А)= m(А)/ n
2.2. Теоремы сложения и умножения вероятностей.
1. Вероятность суммы несовместных событий равна сумме вероятностей.
2. Вероятность суммы совместных событий равна сумме вероятностей минус вероятность их произведения.
3. Вероятность произведения независимых событий равна произведению их вероятностей.
4. Вероятность произведения зависимых событий вычисляется по формуле
Р(А*В)= Р(А)*Р(В/А)= Р(В)*Р(А/В).
2.3. Дискретные случайные величины.
Если каждому элементарному событию w из некоторого множества событий Q можно поставить в соответствие определенную величину X=Х(w), то говорят, что задана случайная величина. Случайную величину X можно рассматривать как функцию события w с областью определения Q.
Случайная величина может принять то или иное значение из некоторого числового множества, однако заранее неизвестно, какое именно. Случайные величины принято обозначать большими буквами X, Y, ..., а принимаемые ими значения — соответствующими строчными буквами х, у.....
Если значения, которые может принимать данная случайная величина X, образуют дискретный (конечный или бесконечный) ряд чисел x1, x2, x3, ...,xn,..., то и сама случайная величина X называется дискретной.
Если же значения, которые может принимать данная случайная величина X, заполняют конечный или бесконечный промежуток (а, b) числовой оси Ох, то случайная величина называется непрерывной.
Каждому значению случайной величины дискретного типа хn отвечает определенная вероятность рn каждому промежутку (a, b) из области значений случайной величины непрерывного типа также отвечает определенная вероятность Р (а < X < b) того, что значение, принятое случайной величиной, попадет в этот промежуток.
Соотношение, устанавливающее тем или иным способом связь между возможными значениями случайной величины и их вероятностями, называется законом распределения случайной величины.
Закон распределения дискретной случайной величины обычно задается рядом распределения:
-
xi
x1
x2
x3
…
xn
pi
p1
p2
p3
…
pn
При этом
суммирование
распространяется на все (конечное или
бесконечное) множество возможных
значений данной случайной величины X.
Закон распределения
непрерывной случайной величины удобно
задавать с помощью так называемой
функции плотности
вероятности f
(х). Вероятность
Р (а < X
< b)
того, что значение,
принятое случайной величиной X,
попадет в промежуток
(а, b),
определяется равенством
Р
(а
< X
< b)=
График функции f(x) называется кривой распределения. Геометрически вероятность попадания случайной величины в промежуток (а,b) равна площади соответствующей криволинейной трапеции, ограниченной кривой распределения, осью Ох и прямыми х = а,
х
= b.
Функция плотности вероятности f(х) обладает следующими свойствами:
1.f(x)
0
2.
(если все значения случайной величины X заключены в промежутке (а, b), то последнее равенство можно записать в виде =1 '
Рассмотрим теперь функцию F(x) = P(X < х). Эта функция называется функцией распределения вероятности случайной величины X. Функция F (х) существует как для дискретных, так и для непрерывных случайных величин. Если f(x)—функция плотности распределения вероятности непрерывной случайной величины X, то
F(x)=
Иногда функцию f (х) называют дифференциальной функцией распределения вероятности, а функцию F (х) — интегральной функцией распределения вероятности.
Отметим важнейшие свойства функции распределения вероятности:
1°. F (х) — неубывающая функция.
2°. F(-∞) =0,
3°. F (+∞) = 1.
Понятие функции распределения является центральным в теории вероятностей. Используя это понятие, можно дать другое определение непрерывной случайной величины. Случайная величина называется непрерывной, если ее интегральная функция распределения F (х) непрерывна.
МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ И ДИСПЕРСИЯ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
Математическим ожиданием дискретной случайной величины называется сумма произведений значений случайной величины на вероятности этих значений.
Если случайная величина X характеризуется конечным рядом распределения:
-
xi
x1
x2
x3
…
xn
pi
p1
p2
p3
…
pn
то математическое ожидание М (X) определяется по формуле
M(X)=x1p1+x2p2+x3p3+…+xnpn,
или
M(X)=
Так как p1+p2+…+pn=1, то
M(X)=
Таким образом, М (X) является взвешенной средней арифметической значений случайной величины x1, x2, ...,xn, при весах p1,p2,…,pn
Дисперсией случайной величины называют математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:
D(X) = M[X—M(X)]2= M(X2)- (M(X))2
Среднее квадратическое отклонение
σ =