Основные формулы теории вероятности

Основные формулы теории вероятности

Два множества называются эквивалентными, если между ними установлено взаимно-однозначное соответствие.

Бесконечные множества, эквивалентные множеству натуральных чисел $\mathbb < N >$

Перестановки. Число перестановок

Соединения, отличающиеся только порядком элементов, называются перестановками. Число перестановок из $n$ элементов $P_n =n!$, где

$n!=1\cdot 2\cdot 3\cdot 4\cdot \ldots \cdot n$

Размещения. Число размещений

Соединения из $n$ различных элементов по $m$, отличающихся друг от друга составом элементов либо их порядком, называются размещениями. Число размещений из $n$ по $m$

Сочетания. Число сочетаний

Соединения из $n$ различных элементов по $m$, отличающихся друг от друга хотя бы одним элементом, называются сочетаниями. Число сочетаний из $n$ по $m$

$C_n^0 +C_n^1 +C_n^2 +\ldots +C_n^ < n-1 >+C_n^n =2^n$

Это опыт < испытание >, результат которого заранее не определен

Результат, который обязательно наступает при осуществлении данного комплекса условий < опыта, эксперимента >называется достоверным событием

Это событие, которое может произойти, а может и не произойти в данном испытании

Это событие, которое не может произойти при данном комплексе условий

Относительная частота события $A$

Отношение $\nu (A)=\frac < m > < n >$ числа экспериментов $m$, завершившихся событием $A$, к общему числу $n$ проведенных экспериментов

Статистическое определение вероятности

Если при неограниченном увеличении числа экспериментов относительная частота события $\nu (A)$ стремится к некоторому фиксированному числу, то событие $A$ стохастически устойчиво и это число $p(A)$ называют вероятностью события $A$

Определение вероятности в классической схеме

$P(A)=\frac < m > < n >$, где $m$ – число исходов стохастического эксперимента, благоприятствующих наступлению события $A$, $n$ – общее число всех равновозможных исходов

Вероятность суммы < объединения >, двух событий $A$ и $B$

Вероятность произведения двух зависимых событий $A$ и $B$

$P(AB)=P(A)\cdot P(B/A)=P(B)\cdot P(A\vert B)$,

где $P(B\vert A)$ – условная вероятность события $B$ при условии, что событие $A$ с ненулевой вероятностью произошло

Независимые события $A$ и $B$

Это такие события, для которых $P(B\vert A)=P(B)$ и $P(A\vert B)=P(A)$.

Следовательно, $P(AB)=P(A)\cdot P(B)$

Стохастический эксперимент состоит из последовательности $n$ независимых и одинаковых испытаний, в каждом из которых может произойти событие $A$ или событие, ему противоположное $\overline A $ с вероятностями соответственно равными $p$ и $q=1-p$

Вероятность того, что в серии из $n$ испытаний событие $A$ появится ровно $m$ раз $P_n (m)=C_n^m \cdot p^m\cdot q^ < n-m >$

Вероятность того, что при $n$ испытаниях $A$ появляется не менее $m_1 $ и не более $m_2 $ раз вычисляется по формуле:

При достаточно большом $n$ и малом $p$, если $a=np\lt 10\rightarrow P_n (m)\approx \frac < a^m > < m! >e^ < -a >$

Локальная формула Муавра-Лапласа

При достаточно большом $n$ и не слишком малых $p$ и $q$

Интегральная формула Муавра – Лапласа

$P_n (m_1 \leqslant m\leqslant m_2 )=\Phi (x_2 )-\Phi (x_1 )$,

Понятие случайной величины

Случайной величиной называют переменную величину, которая принимает числовые значения в зависимости от исходов испытания случайным образом.

Понятие дискретной случайной величины

ДСВ $X$ – случайная величина, принимающая различные значения, которые можно записать в виде конечной или бесконечной последовательности, то есть численные значения которой образуют конечное или счетное множество.

Закон распределения дискретной случайной величины

Соответствие между значениями $x_1, x_2, \cdots $ дискретной случайной величины и их вероятностями $p_1, p_2, \cdots $ называется законом распределения и может быть задан таблично или аналитически < то есть с помощью формул >. Если ДСВ $X$ принимает конечное множество значений $x_1 ,x_2 ,x_3 . $ соответственно с вероятностями $p_1 ,p_2 . p_n $, то ее закон распределения определяется формулами

Если ДСВ $X$ принимает бесконечную последовательность значений $x_1 ,x_2 ,x_3 . $ соответственно с вероятностями $p_1 ,p_2 ,p_3 . $, то ее закон распределения определяется формулами

Понятие непрерывной случайной величины

НСВ $X$ – случайная величина, которая может принимать любые значения из некоторого промежутка, то есть множество значений непрерывной случайной величины несчетно.

Функция распределения. Свойства функции распределения

Функцией распределения случайной величины $X$ называется функция действительного переменного $x$, определяемая равенством $F(x)=P(X\lt x)$, где $P(X\lt x)$ - вероятность того, что случайная величина $X$ принимает значение, меньше $x$

Функция распределения $F(x)$ для ДСВ $X$, которая может принимать значения $x_1 ,x_2 . x_n $ c соответствующими вероятностями $p_1 ,p_2 . p_n$ имеет вид $F(x)=\sum\limits_ < x_k \lt x > < P(X\lt x_k ) >$, где символ $x_k \lt x$ означает, что суммируются вероятности $p_k $ тех значений, которые меньше $x$.

Функция является разрывной.

Случайная величина $X$ называется непрерывной, если ее функция распределения $F(x)$ является непрерывно дифференцируемой.

Вероятность того, что СВХ примет значение из промежутка $\left[ < \alpha ;\beta >\right)$, равна разности значений ее функции распределения на концах этого полуинтервала:

$P(\alpha \leqslant X\lt \beta )=F(\beta )-F(\alpha )$

Свойства функции распределения

1. $0\leqslant F(x)\leqslant 1$

2. Если $x_1 \lt x_2 $, то $F(x_1 )\leqslant F(x_2 )$, то есть функция распределения является неубывающей.

Функция распределения. Свойства функции распределения

3. Функция $F(x)$ в точке $x_0 $ непрерывна слева, то есть $\mathop < \lim >\limits_ < x\to x_0 -0 >F(x)=F(x_0 )$; $F(x_0 -0)=F(x_0 )$

4. Если все возможные значения СВХ принадлежат интервалу $(a;b)$, то $F(x)=0$ при $x\leqslant a$, $F(x)=1$ при $x\geqslant b$

5. Если все возможные значения СВХ принадлежат бесконечному интервалу $\left( < -\infty ;+\infty >\right)$, то $\mathop < \lim >\limits_ < x\to -\infty >F(x)=0;\mathop < \lim >\limits_ < x\to +\infty >F(x)=1;$

Если $X$ – непрерывная случайная величина, то вероятность того, что она примет одно заданное определенное значение, равна нулю:

Отсюда следует, что для непрерывной случайной величины выполняются равенства:

$P(\alpha \lt X\lt \beta )=P(\alpha \leqslant X\leqslant \beta )=P(\alpha \leqslant X\lt \beta )=$

$=P(\alpha \lt X\leqslant \beta )=F(\beta )-F(\alpha )$

Плотность распределения вероятностей непрерывной случайной величины. Свойства функции плотности распределения.

Плотностью распределения < дифференциальной функцией распределения >вероятностей НСВ $X$ в точке $x$ называют предел отношения вероятности попадания значений этой величины в интервал $\left( < x;x+\Delta x >\right)$ к длине $\Delta x$ этого интервала, когда последняя стремится к нулю:

Следовательно, $f(x)= < F >'(x)$, то есть плотность распределения есть первая производная от функции распределения НСВХ.

Вероятность того, что НСВХ примет значение, принадлежащее интервалу $(a;b)$, определяется равенством $P(a\lt X\lt b)=\int\limits_a^b < f(x)dx >$

Плотность распределения вероятностей непрерывной случайной величины. Свойства функции плотности распределения.

Зная плотность распределения, можно найти функцию распределения $F(x)=\int\limits_ < -\infty >^x < f(x)dx >$

Свойства функции плотности

1. Плотность распределения $f(x)$ - неотрицательная функция, то есть $f(x)\geqslant 0$

2. Несобственный интеграл по бесконечному промежутку $\left( < -\infty ;+\infty >\right)$ от функции плотности вероятностей равен единице: $\int\limits_ < -\infty >^ < +\infty > < f(x)dx=1 >$

3. Если все возможные значения случайной величины принадлежат отрезку $\left[ < \alpha ;\beta >\right]$, то $\int\limits_\alpha ^\beta < f(x)dx=1 >$, так как вне этого промежутка $f(x)=0$

Для ДСВ $X$ равно сумме произведений всех ее значений на соответствующие вероятности: $M(X)=\sum\limits_ < i=1 >^n < x_i p_i >$

где $f(x)=F'(x)$ – функция плотности распределения вероятности.

Свойства математического ожидания

1. $M(C)=C$, если $C=const,$

4. Если $X$ и $Y$ – независимые случайные величины, то $M(XY)=M(X)\cdot M(Y)$

Дисперсия случайной величины

Разность $X-M(X)$ называется отклонением случайной величины $X$ от ее математического ожидания $M(X)=a$.

Математическое ожидание отклонения равно нулю: $M(X-a)=0$

Дисперсией, или рассеянием случайной величины $X$ называется математическое ожидание квадрата ее отклонения:

$D(X)=M((X-a)^2)$ Следовательно, для любой случайной величины $X:\;\;D(X)\geqslant 0$

3. Если случайные величины $X$ и $Y$ независимы, то $D(X\pm Y)=D(X)+D(Y),$

Среднее квадратическое отклонение

Среднеквадратическим отклонением, или стандартным отклонением, случайной величины $X$ называется корень квадратный из ее дисперсии:

$\sigma (X)=\sqrt < D(X) >\Leftrightarrow D(X)=\sigma ^2.$

Закон распределения дискретной случайной величины, определяемой формулой Бернулли

$p_k =P_n (k)=C_n^k \cdot p^k\cdot q^ < n-k >(k=0,1,2. n)$

называется биномиальным. Постоянные $n,

p$ называются параметрами биномиального распределения $\left( < q=1-p >\right)$.

Распределением Пуассона называется распределение вероятностей дискретной случайной величины, определяемое формулой Пуассона $P_n (k)=\frac < a^ke^ < -a >> < k! >$, где $a=np$ – параметр распределения.

Равномерное распределение на интервале $\left( < a;b >\right)$

Если значения случайной величины, которые она принимает в конечном промежутке $(a;b)$, возможны в одинаковой степени, то плотность распределения вероятностей этой величины постоянна на данном промежутке и равна нулю вне этого промежутка, то есть

Геометрическим называется распределение дискретной случайной величины $X$, определяемое формулой

Показательным называется распределение с плотностью вероятностей, определяемой по формуле $f(x)=\left\ < < \begin < l >0\mbox < при >\;x\lt 0, \\ \lambda e^ < -\lambda x >\mbox < >\;\mbox < при >\;x\geqslant 0, \\ \end >\right.$

где $\lambda >0$ - параметр распределения.

Замечание. Если $T$ – время безотказной работы элемента, $\lambda $ - интенсивность отказов, то случайная величина $T$ распределена по экспоненциальному закону с функцией распределения $F(t)=P(T\lt t)=1-e^ < -\lambda t >,_ < >$ где $\lambda \gt 0$. $F(t)$ определяет вероятность отказа элемента за время $t$. Вероятность безотказной работы элемента за время $t$ равна $e^ < -\lambda t >$. Функция $R(t)=e^ < -\lambda t >$ называется функцией надежности.

Нормальное распределение $N(a;\sigma )$

Нормальным распределением, или распределением Гаусса, называется распределение с плотностью вероятностей

Постоянные $a$ и $\sigma \quad (\sigma \gt 0)$ называются параметрами нормального распределения.

Вероятность попадания значений нормальной случайной величины $X$ в интервале $(\alpha ;\beta )$ определяется формулой

где $\Phi (x)$ – функция Лапласа.

Нормированное распределение $N(0;1)$

Нормированным или стандартным называется такое нормальное распределение непрерывной случайной величины, когда функция плотности вероятностей $f(x)=\frac < 1 > < \sqrt < 2\pi >> e^ < \frac < -x^2 > < 2 >> .$

Мода случайной величины $\overline M $

Модой ДСВ $X$ называется ее наиболее вероятное значение.

Модой НСВ $X$ называется то ее значение, при котором плотность распределения вероятностей максимальна.

Медианой непрерывной случайной величины $X$ называется такое ее значение $M_e $, для которого одинаково вероятно, окажется ли случайная величина меньше или больше $M_e $, то есть $P(x\lt M_e )=P(x>M_e )=0,5$.

Если прямая $x=a$ является осью симметрии кривой распределения $f(x)$, то

$\overline M =M_e =M(X)=a$.

Начальные моменты $\nu _k $

Начальным моментом $\nu _k

k$ -го порядка случайной величины $X$ называется математическое ожидание $k$-ой степени этой случайной величины: $\nu _k =M(X^k)$.

Для ДСВ $X:_ < >\nu _k =\sum\limits_ < i=1 >^n < x_i^k \cdot p_i >$, где $\sum\limits_ < i=1 >^\infty < p_i =1 >$.

Начальный момент $k$-го порядка НСВ $X$ с плотностью распределения $f(x)$ определяется формулой :

Центральные моменты $\mu _k $

Центральным моментом $\mu _k

k$-го порядка случайной величины $X$ называется математическое ожидание $k$-ой степени отклонения этой величины от ее математического ожидания. Если обозначить $M(X)=a$, то $\mu _k =M((X-a)^k)$

если множество этой величины конечно, а если – счетно, то $\mu _k =\sum\limits_ < i=1 >^\infty < (x_i -a)^k\cdot p_i >.$

Для НСВ $X$ с плотностью распределения $f(x)$ центральный момент $k$-го порядка определяется формулой: $\mu _k =\int\limits_ < -\infty >^ < +\infty > < (x_i -a)^k\cdot f(x)dx >.$

Некоторые свойства начальных и центральных моментов

\mu _2 =D\left( X \right),$

$\mu _2 =\nu _2 -\nu _1^2 ,$

$\mu _3 =\nu _3 -3\nu _1 \nu _2 +2\nu _1^3 ,$

$\mu _4 =\nu _4 -4\nu _1 \nu _3 +6\nu _1^2 \nu _2 -3\nu _1^4 .$

Отношение центрального момента 3-го порядка к кубу среднеквадратического отклонения случайной величины называется асимметрией: $A(X)=\frac < \mu _3 > < \sigma ^3 >$.

Если распределение случайной величины симметрично относительно ее математического ожидания, то асимметрия равна нулю.

Эксцессом случайной величины называется величина $Э_x =\frac < \mu _4 > < \sigma ^4 >-3.$

Для нормального распределения $Э_x =0$.

Кривые, более островершинные по сравнению с нормальной кривой Гаусса, имеют $Э_x \gt 0$. У более плосковершинных кривых $Э_x \lt 0.$

Далее:

Механические приложения двойного интеграла

Критерий полноты . Лемма о несамодвойственной функции

Соленоидальное векторное поле

Поток векторного поля через поверхность

Свойства двойного интеграла

Полином Жегалкина. Теорема о представлении в виде полинома Жегалкина

Логические следствия

Замена переменных в тройном интеграле

Вычисление двойного интеграла

Механические и физические приложения поверхностного интеграла первого рода

Замыкание. Свойства замыкания. Теорема о сведении к заведомо полной системе

📎📎📎📎📎📎📎📎📎📎