Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Учебное пособие 800461

.pdf
Скачиваний:
8
Добавлен:
01.05.2022
Размер:
3.01 Mб
Скачать

Доказательство. Применим формулу (1.1). Пусть A и B – несовместные

события, N

число всех проведенных опытов, N ( A) и N (B) – число опытов, в

которых наступили события A и B соответственно. Так как события A и B не-

совместны, то N(A B)

N(A) N(B) . Отсюда

 

 

pN (A B) (N( A) N (B))

N N (A) N

N (B) N pN (A)

pN (B) . Следо-

вательно, по формуле (1.1) , при N

,

 

 

P( A B)

lim

pN ( A B)

lim pN ( A)

lim pN (B)

P( A) P(B)

 

N

 

N

N

 

Теорема для двух слагаемых установлена.

Для трех несовместных событий A, B, C события (A+B) и C, очевидно, также несовместны. Поэтому, применяя уже доказанную формулу для двух слагаемых, имеем

P(A B C) P((A B) C) P(A B) P(C) P(A) P(B) P(C)

Доказательство для произвольного числа слагаемых проводится аналогично.

Второе утверждение теоремы может быть доказано с помощью аналогичных рассуждений. Кроме того, оно будет следовать из результатов более общей теоремы 2.2, которую мы рассмотрим чуть позже.

2.2. Понятие условной вероятности

Определение 2.1. Пусть рассматриваются два события A и B . Вероят-

ность того, что в опыте произойдет событие

A , если известно, что событие B

уже произошло, называется условной вероятностью события A при условии B

и обозначается P( A B) или PB ( A) .

 

 

 

 

 

 

Теорема 2.2. Для любых двух событий

A и B

справедливы следующие

формулы:

 

 

 

 

 

 

 

 

 

P(A

B) P(A)

P(B)

P(AB)

(2.1)

P(AB)

P(B)P(A B)

P(A)P(B A)

(2.2)

Отсюда, если P(B) 0 или P(A)

0 , то

 

 

 

 

P( A B)

 

P( AB)

P(B

A)

 

P( AB)

(2.3)

 

 

 

 

 

 

 

P(B)

 

P( A)

 

 

 

 

 

 

Для трех событий A B C справедливы формулы

11

 

 

 

P( A B C)

P( A)

P(B)

P(C) P( AB)

 

 

 

 

 

 

 

P( AC) P(BC)

P( ABC)

 

 

 

(2.4)

 

 

 

P( ABC)

P( AB)P(C AB)

 

P(A)P(B

A)P(C

AB)

(2.5)

 

Доказательство. Формула (2.1) выводится аналогично тому, как это сде-

лано в теореме 2.1. Но так как события

A и B совместны,

то теперь, как не-

трудно видеть,

N( A

B) N( A)

N(B)

N( AB) . Отсюда по формуле (1.1), при

N

, получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

P( A

B)

lim pN ( A

B)

lim(N ( A)

N (B)

N ( AB))

N

 

 

 

 

N

 

 

 

N

 

 

 

 

 

 

 

lim N ( A) N

 

lim N (B)

N

lim N ( AB)

N P( A)

P(B)

P( AB) .

N

 

 

N

 

 

N

 

 

 

 

 

 

 

 

 

 

По определению условная вероятность

 

 

 

 

 

 

 

 

 

 

P( A B) lim N ( AB)

N (B)

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

откуда, при N

,

 

 

 

 

 

 

 

 

 

 

 

 

 

P( AB)

lim N ( AB)

N

lim N ( AB)

N (B)

lim N (B)

N

P( A B)P(B)

 

 

N

 

 

 

N

 

 

 

 

N

 

 

 

 

Симметрично,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(AB)

P(A)P(B A)

 

 

 

 

 

Формулы (2.3) и (2.5) теоремы непосредственно вытекает из формулы

(2.2). Перейдем к доказательству формулы (2.4):

 

 

 

 

 

P(A B C)

P((A B) C)

P(A B) P(C) P((A B)C)

 

 

 

 

P(A) P(B) P(AB) P(C) P((A B)C)

 

 

По правилу дистрибутивности

 

 

 

 

 

 

 

 

P((A B)C) P(AC BC)

P(AC) P(BC) P(ACBC) P(AC)

P(BC) P(ABC) ,

что вместе с предыдущей формулой завершает доказательство теоремы.

 

Исходя из определения условной вероятности, для независимых событий

A и B имеем: P(A B)

P(A) , P(B A)

P(B) . Поэтому для независимых событий

P(AB)

P(A)P(B A) P(A)P(B) .

 

 

 

 

 

 

 

 

 

 

Далее, для несовместных событий A и B : AB

P( AB) 0 . Следова-

тельно, P(A

B)

P(A)

P(B)

P(AB)

P(A)

P(B) .

 

 

 

 

Таким образом, оба утверждения теоремы 2.1 получаются как простые следствия из более общих результатов теоремы 2.2.

Замечание 2.1. Формула (2.4) является громоздкой и неудобной для вы-

12

числений, поэтому часто вероятность события

A

B C находят через вероят-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ность противоположного события A B C .

Так

как A B C A B C , то

 

 

 

 

) .

 

 

 

 

 

 

 

 

 

 

P( A B C) 1 P(

A

 

B

 

C

 

 

 

 

 

 

 

 

 

 

Пример 2.1. Пожарная сигнализация состоит из трех датчиков. Первый срабатывает вовремя с вероятностью 0,9, второй с вероятностью 0,8, третий с вероятностью 0,85. Какова вероятность того, что при возникновении пожара сработают ровно два датчика; сработает только один датчик; сработает хотя бы

один датчик?

 

 

Решение. Рассмотрим простейшие события A1

A2 A3 , состоящие в том, что

сработает

соответственно

1-й, 2-й и 3-й

датчики. По условию

P( A1 ) 0,9

P( A2 ) 0,8 P( A3 )

0,85 . Тогда вероятности противоположных собы-

тий будут P( A1) 0,1 P( A2) 0, 2 P( A3) 0,15 .

Рассмотрим события: B – "сработают ровно два датчика", C – "сработает только один датчик", D – "сработает хотя бы один датчик".

Прежде чем находить вероятности этих событий, постараемся выразить их через простейшие события A1 A2 A3 . Так, например, B фактически означает, что "ЛИБО сработают первый И второй датчики, И НЕ сработает третий; ИЛИ сработает первый И третий, А второй НЕ сработает, ИЛИ сработают второй И третий, а первый НЕ сработает." То есть, используя понятия суммы и произведения событий, мы можем написать, что

B A1 A2 A3 A1 A2 A3 A1A2 A3

Следовательно,

P(B) P( A1 A2 A3 A1 A2A3 A1A2 A3 )

Далее, так как слагаемые A1 A2 A3 A1 A2A3 A1A2 A3 , очевидно, несовместны (не могут произойти одновременно), то, согласно теореме 2.1, вероятность суммы равна сумме их вероятностей:

P(B) P( A1 A2 A3) P( A1 A2A3 ) P( A1A2 A3 )

В свою очередь события A1 A2 A3 , а также их противоположные события независимы, ибо по условию сказано, что датчики ВСЕГДА срабатывают с определенной вероятностью – 0,9, 0,8, 0,85. Отсюда мы можем продолжить вычисления, заменяя вероятность произведения событий произведением их вероятностей:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(B) P( A1 )P( A2 )P(

A

3) P( A1 )P(

A

2)P( A3 ) P(

A

1)P( A2 )P( A3 )

 

0,9

0,8

0,15

0,9

0, 2

0,85

0,1 0,8

 

 

0,85

0,108

 

0,153

0, 068

0,329

Аналогично, C

A1

 

2

 

3

 

1A2

 

3

 

1

 

2A3 . Откуда

 

 

 

 

A

A

A

A

A

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

13

 

 

 

 

 

 

 

 

P(C) P( A1 A2 A3) P( A1A2 A3) P( A1 A2A3 )

 

 

P( A1 )P( A2)P( A3) P( A1)P( A2 )P( A3) P( A1)P( A2)P( A3 )

 

0,9

0, 2

0,15

0,1 0,8

0,15

0,1 0, 2

0,85

0, 027

0, 012

0, 017

0, 056

Вероятность события D , состоящего в том, что сработает хотя бы один датчик, можно теперь найти двумя способами. Пусть E – событие, состоящее в

том, что сработают все датчики: E

A1 A2 A3 .

 

 

 

 

 

 

 

Отсюда P(E)

 

P( A1 )P( A2 )P( A3 )

0,9 0,8

0,85

0, 612 . Тогда D B C E , и,

значит, P(D) P(B)

P(C) P(E)

0,329 0, 056

0, 612 0,997 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

С другой стороны, D означает,

что не сработает ни один из датчиков:

 

 

 

 

 

 

 

 

3 . Отсюда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D

 

1

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A

A

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(D) P(

 

1)P(

 

2)P(

 

3)

0,1 0, 2

0,15 0, 003

 

 

 

 

 

 

 

 

A

A

A

 

 

 

 

 

Следовательно, P(D) 1

 

 

 

 

 

0, 997 . То есть мы получили тот

 

 

 

 

 

P(D)

1

0, 003

же результат, но другим путем – посредством перехода к противоположному событию, что нередко упрощает вычисления.

2.3. Полная группа несовместных событий

Определение 2.2. Говорят, что события H1 H2 Hn образуют полную группу событий, если в каждом опыте хотя бы одно из них обязательно наступает.

Если дополнительно события H1

H2

Hn

несовместны,

то говорят, что

они образуют полную группу несовместных событий (ПГНС).

 

 

 

События из полной группы несовместных событий часто называют гипо-

тезами.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Легко видеть, что H1

H2

 

 

H3

Hn есть достоверное событие I и что

 

 

 

 

 

 

 

 

 

P(H1 ) P(H2 )

P(Hn )

1. В частности, так как A и A образуют полную груп-

 

 

 

 

пу несовместных событий, то P(

A

) P( A)

1 . Откуда снова получаем формулу

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(

A

) 1 P( A) .

 

 

 

 

 

 

Теорема 2.3. Пусть события H1 H2

Hn

образуют полную группу несо-

вместных событий. Тогда вероятность любого события

A

находится по

формуле

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P( A)

P(H1 )P( A H1 )

 

P(H2 )P( A H2 )

P(Hn )P( A Hn )

(2.6)

Эту формулу называют формулой полной вероятности.

 

 

 

Доказательство.

По

правилу дистрибутивности A

AI

A(H1

H2

H2 ) AH1

AH2

AHn , причем в последней сумме все слагаемые несо-

 

 

 

 

14

 

 

 

 

 

 

 

вместны. Поэтому

P( A) P( AH1 AH2

AHn ) P( AH1 ) P( AH2 )

P(AHn )

P(H1 )P( A H1 ) P(H2 )P( A H2 )

P(Hn )P( A Hn )

Что и требовалось доказать.

С полной группой несовместных событий связана еще одна полезная формула, ― формула Байеса. Она отвечает на вопрос, как изменится вероятность события Hk , если известно, что событие A произошло.

Заменив в равенстве

P(Hk

| A)

P( A·Hk )

 

P(Hk )P( A | Hk )

P( A)

 

P( A)

 

 

 

вероятность P( A) по формуле (2.6), получим формулу Байеса

P(Hk | A)

P(Hk )P( A | Hk )

.

(2.7)

n

P(Hk )P( A | Hk )

k 1

Пример 2.2. Известно, что студенты, сдающие экзамен, могут сдать его по билету без дополнительных вопросов с вероятностью 0,7. Вероятность успешно ответить на дополнительные вопросы, равна 0,6. Какова вероятность сдать экзамен?

Решение. Если вдуматься, то данный опыт состоит из ответа по билету и, если ответ недостаточно убедительный, из ответа на дополнительные вопросы. Предполагается, что студенты добросовестно готовились к экзамену. Поэтому случай, когда без дополнительных вопросов ясно, что студент не готов сдавать экзамен, есть невозможное событие.

Пусть A означает, что студент сдал экзамен, H1 – что он сдал экзамен без дополнительных вопросов, H2 – что ему потребовались дополнительные вопро-

сы. В силу сказанного выше H1

H2

образуют полную группу несовместных со-

бытий и, следовательно, можно применить формулу полной вероятности:

P( A)

P(H1 )P( A H1 ) P(H2 )P( A H2 )

По условию P(H1 )

0, 7 P(H1 )

P(H2 ) 1 ,

откуда P(H2 ) 0, 3. Также по ус-

ловию P( A H2 ) 0, 6 . В свою очередь P( A H1 )

1, ибо это есть вероятность того,

что студент сдаст экзамен (событие A ), если известно, что он уже сдал его, от-

ветив по билету (событие H1 ).

 

 

 

Окончательно имеем P(A)

0, 7 1 0,3 0, 6

0,88 .

Пример 2.3. Три станка производят одинаковые детали. Известно, что

15

производительность 1-го станка – 1000 деталей в смену, из которых 2 % составляют бракованные детали; производительность 2-го станка – 2000 деталей в смену и, соответственно, 1 % брака; производительность 3-го станка – 2500 деталей в смену и – 2,5 % брака. Все детали смешиваются в общей куче. Из кучи наугад вынимается одна деталь (в этом и состоит опыт). Какова вероятность того, что взятая деталь бракованная?

Решение. Введем обозначения. Пусть A – событие, означающее, что деталь, взятая наугад из кучи, бракованная. Ясно, что вероятность того, что взятая деталь бракованная, существенно зависит от того, на каком станке она была сделана. События (гипотезы), состоящие в том, что взятая деталь будет соответственно от первого, от второго и от третьего станка, обозначим через H1 H2 и H3 .

Так как H1 H2 H3 образуют полную группу несовместных событий (они несовместны и в каждом опыте одно из них обязательно происходит), то можно применить формулу полной вероятности

P( A) P(H1 )P( A H1 ) P(H2 )P(A H2 ) P(H3 )P(A H3 ) .

Однако для этого нам надо знать P(Hi ) и P( A Hi ) i 1 2 3 . Условные вероятности P( A Hi ) фактически даны по условию, ибо процент брака каждого станка, поделенный на 100, как раз и есть вероятность события A при условии, что деталь сделана на данном станке:

P( A H1 ) 0, 02 P( A H2 )

0, 01 P( A H3 ) 0, 025

В свою очередь вероятность P(Hi )

пропорциональна доле деталей от i -го

станка во всей куче, а та в свою очередь пропорциональна производительности

i -го станка. То есть P(H1 )

k1000 P(H2 )

k 2000 P(H3 ) k 2500 .

Так

как сумма P(H1 )

P(H2 )

P(H3 ) 1, то

k=1/5500 и, следовательно,

P(H1 ) 2

11 P(H2 )

4 11 P(H3 )

5 11 . Подставляя найденные значения в форму-

лу полной вероятности, получаем ответ:

 

 

 

P(A)

2 11 0, 02

4

11 0, 01

5

11 0, 025

0, 205 11 0, 0186

3. Схема случаев, формула классической вероятности

В этом пункте мы получим еще одну важную формулу вычисления вероятности, которая исторически возникла первой еще в те времена, когда теория вероятностей только зарождалась из решения задач азартных игр. Именно по-

этому она и называется формулой классической вероятности.

16

Определение 3.1. Событие, возникающее в опыте, называется элементарным, если его нельзя представить в виде суммы двух других, более простых событий.

Определение 3.2. Опыт называется схемой случаев, если среди событий, возникающих в опыте, можно выделить полную группу несовместных, элемен-

тарных и равновероятных событий. Такие события принято называть исходами опыта или случаями.

Пример 3.1. Бросается игральная кость. Выпадение цифр от 1 до 6 есть исходы опыта, а сам опыт по бросанию игральной кости есть схема случаев.

Действительно, выпадение конкретной цифры нельзя представить как сумму более простых событий, значит, выпадение цифр от 1 до 6 есть полная группа несовместных элементарных событий. Кроме того, в силу полной симметрии игральной кости нет никаких объективных причин для того, чтобы одна из цифр выпадала чаще другой. Поэтому перечисленные события равновероятны, являются исходами, а сам опыт есть схема случаев.

Если же игральная кость несимметрична, например если центр тяжести сдвинут к одной из ее граней, то выпадение отдельных цифр от 1 до 6 уже не будет равновероятным, а сам опыт по бросанию такой неправильной кости не

будет схемой случаев.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Лемма 3.1. Если V1 V2

Vn – исходы в схеме случаев,

то

P(Vi )

1 n , где

i

1 2

n .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство. Действительно, так

как исходы

равновероятны,

а

V1

V2

Vn I , то

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 P(V1

V2

Vn )

P(V1 ) P(V2 )

P(Vn ) nP(Vi )

 

 

 

 

 

 

 

Откуда P(Vi ) 1

n , где i

1 2

n .

 

 

 

 

 

 

 

 

 

 

 

Лемма 3.2. Для произвольного события A и любого исхода Vi , i

1 2

n ,

можно утверждать, что вероятность P( A Vi ) равна 0 или 1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство. Так как Vi

– элементарное событие и Vi

AVi

 

AVi , то

AV

или AV

V . Согласно формуле (2.3),

P( A V )

P( A Vi )

, а значит, в пер-

 

 

i

i

i

 

 

 

i

P(Vi )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

вом случае вероятность P( A Vi ) равна 0, а во втором 1. Что и требовалось доказать.

Определение 3.4. Исходы Vi опыта, при которых P( A Vi ) 1 , то есть те исходы, при наступлении которых событие A обязательно наступает, назовем

17

исходами благоприятными для наступления события A .

Теорема 3.1. Пусть в опыте, который является схемой случаев, n – число всех исходов опыта, а m – число исходов, благоприятных наступлению события A . Тогда справедлива формула классической вероятности

P( A)

m

n

 

Доказательство. По формуле полной вероятности и лемме 3.1

P(A) P(V1 )P(A V1 ) P(V2 )P(A V2 ) P(Vn )P(A Vn )

1 (P(A V ) P(A V )

P(A V ))

n

1

2

n

 

 

 

В силу леммы 3.2 в последней сумме ненулевыми будут только те сла-

гаемые, в которых исходы Vi

благоприятны для наступления A (таких по усло-

вию ровно m ). То есть P(A)

m n .

 

 

Пример 3.2. Какова вероятность того, что при бросании игральной кости выпадет простое число?

Решение. Обозначим событие, состоящее в том, что при бросании кости выпадет простое число, через A . Так как бросание игральной кости есть схема случаев (предполагается, что игральная кость правильная, симметричная), то можно применять формулу классической вероятности. Простое число – это число, делящееся только на 1 и на себя. В нашем случае это будут цифры 1, 2, 3, 5, и, значит, при выпадении этих цифр событие A наступает. Если же выпадет цифра 4 или 6, то событие A не наступает. Таким образом, событию A благоприятствуют 4 исхода из 6 и по формуле классической вероятности

P(A) 4 6 2 3.

Пример 3.3. Сколько раз надо подбросить монету, чтобы с вероятностью не меньшей чем 0.9 можно было утверждать, что орел выпадет хотя бы один раз?

Решение. Обозначим через A i выпадение герба при i -м бросании монеты. В силу симметрии монеты Ai и Ai равновероятны: P( Ai ) P( Ai) 1 2 .

Пусть Bn – событие, состоящее в том, что при n бросаниях герб выпадет хотя бы один раз. Нас интересует n , при котором P(Bn ) 0,9 . Здесь удобней

18

перейти к противоположному событию Bn , состоящему в том, что при n бросаниях орел не выпадет ни разу. Тогда, при том n , при котором P(Bn ) 0,9 , вероятность P(B n) должна быть меньше 0,1. Последняя вероятность легко вычисляется:

Bn A1 A2 An

P(Bn) P( A1)P( A2) P( An) 1 2n

ибо результат бросания монеты не зависит от других бросаний и, следовательно, вероятность произведения будет равна произведению вероятностей.

Теперь ясно, что нужное нам n должно быть таким, при котором 2n будет больше 10. Первое такое n равно 4. То есть при четырех бросаниях монеты с вероятностью не менее чем 0,9 можно утверждать, что герб выпадет хотя бы один раз.

Точно так же в серии из 7 бросаний можно предсказать, что с вероятностью 0,99 герб выпадет хотя бы один раз.

Вероятность 0,99 очень большая. Она означает, что если мы проведем 1000 серий из 7 бросаний монеты, то только примерно в десяти сериях их 1000 герб не выпадет ни разу (плохая серия). Естественно, что если мы проводим только одну серию из 7 бросаний, то вряд ли она окажется плохой. Поэтому можно смело утверждать, что при семи бросаниях герб обязательно выпадет. Согласно теории вероятностей наше предсказание не сбудется в среднем лишь 1 раз из 100.

Из этого примера видно, что знание вероятности случайного события, при условии, что она близка к 1, позволяет обращаться с ним как с детерминированным событием. Другой образец практического применения теории вероятностей мы найдем в следующем примере.

Пример 3.4. Игра состоит в следующем. Монета бросается три раза. Если герб выпадет хотя бы один раз, вы получаете рубль. Если герб не выпадет ни разу, вы платите 6 рублей. Вопрос: кто обогатится в этой игре, если играть в нее долго, вы или соперник? Как долго придется в нее играть для того, чтобы с большой вероятностью заработать (или проиграть) 100 рублей?

На первый вопрос мы в состоянии ответить прямо сейчас (конечно, после некоторых размышлений и вычислений). Для этого имеющихся у нас знаний уже достаточно. Для того, чтобы ответить на второй вопрос, придется еще коечему научиться.

19

4. Основные формулы комбинаторики

При решении задач теории вероятностей нередко возникает необходимость применять так называемые формулы комбинаторики, к знакомству с которыми мы сейчас и переходим. Пусть нам дано некоторое множество E из n несовпадающих элементов и ящик с k n ячейками. Заполнив элементами множества E ячейки ящика, мы получаем так называемое размещение из n элементов по k . Подчеркнем, что одно размещение отличается от другого раз-

мещения либо по составу элементов, расположенных в ячейках, либо по поряд-

ку их расположения.

Пример 4.1. Пусть E – это множество цифр от 0 до 9. Тогда последовательности из 4 цифр без повторений, такие как 1234, 3456, 4312, есть пример размещений из 10 элементов по 4. Второе размещение отличается от двух остальных по составу элементов. Первое и третье отличаются друг от друга по порядку следования элементов.

Количество различных вариантов размещений из n элементов по k обо-

значается Ak . Читается: "число размещений из n элементов по k ".

n

 

 

 

Теорема 4.1. Справедлива формула

 

 

Ak

n(n 1)(n 2) (n k 1)

n

 

 

 

 

n

 

(n k)

 

 

Доказательство. В первую ячейку ящика можно поместить любой из n элементов множества E . То есть начать размещение можно n способами. Каждое из n начатых размещений можно продолжить, поместив любой из остав-

шихся n

1 элементов множества E во вторую ячейку. В результате получится

n(n

1) способов заполнить две первые ячейки. Каждый такой способ размеще-

ния можно продолжить,

поместив в третью ячейку любой из n 2

элементов

множества,

не

лежащих

в первых двух ячейках. В результате

получится

n(n 1)(n

2)

различных способов заполнить первые 3 ячейки. Рассуждая так и

дальше,

приходим

к

выводу,

что

k

ячеек можно

заполнить

n(n 1)(n

2)

(n

k 1)

n

(n k) способами. Что и требовалось доказать.

 

 

Если k n , то одно размещение отличается от другого только порядком

элементов, поэтому такие размещения называются перестановками из

n эле-

ментов.

Число

всех

перестановок из

n

элементов,

обозначаемое

Pn ,

равно

An

n , т.е. P

n . Напомним, что по определению 0

1.

 

 

n

 

 

n

 

 

 

 

 

 

 

 

 

Если элементы в ячейках могут повторяться (как, например, цифра 7 в че-

20