Основные формулы теории вероятности
Два множества называются эквивалентными, если между ними установлено взаимно-однозначное соответствие.
Бесконечные множества, эквивалентные множеству натуральных чисел $\mathbb < N >$
Перестановки. Число перестановок
Соединения, отличающиеся только порядком элементов, называются перестановками. Число перестановок из $n$ элементов $P_n =n!$, где
$n!=1\cdot 2\cdot 3\cdot 4\cdot \ldots \cdot n$
Размещения. Число размещений
Соединения из $n$ различных элементов по $m$, отличающихся друг от друга составом элементов либо их порядком, называются размещениями. Число размещений из $n$ по $m$
Сочетания. Число сочетаний
Соединения из $n$ различных элементов по $m$, отличающихся друг от друга хотя бы одним элементом, называются сочетаниями. Число сочетаний из $n$ по $m$
$C_n^0 +C_n^1 +C_n^2 +\ldots +C_n^ < n-1 >+C_n^n =2^n$
Это опыт < испытание >, результат которого заранее не определен
Результат, который обязательно наступает при осуществлении данного комплекса условий < опыта, эксперимента >называется достоверным событием
Это событие, которое может произойти, а может и не произойти в данном испытании
Это событие, которое не может произойти при данном комплексе условий
Относительная частота события $A$
Отношение $\nu (A)=\frac < m > < n >$ числа экспериментов $m$, завершившихся событием $A$, к общему числу $n$ проведенных экспериментов
Статистическое определение вероятности
Если при неограниченном увеличении числа экспериментов относительная частота события $\nu (A)$ стремится к некоторому фиксированному числу, то событие $A$ стохастически устойчиво и это число $p(A)$ называют вероятностью события $A$
Определение вероятности в классической схеме
$P(A)=\frac < m > < n >$, где $m$ – число исходов стохастического эксперимента, благоприятствующих наступлению события $A$, $n$ – общее число всех равновозможных исходов
Вероятность суммы < объединения >, двух событий $A$ и $B$
Вероятность произведения двух зависимых событий $A$ и $B$
$P(AB)=P(A)\cdot P(B/A)=P(B)\cdot P(A\vert B)$,
где $P(B\vert A)$ – условная вероятность события $B$ при условии, что событие $A$ с ненулевой вероятностью произошло
Независимые события $A$ и $B$
Это такие события, для которых $P(B\vert A)=P(B)$ и $P(A\vert B)=P(A)$.
Следовательно, $P(AB)=P(A)\cdot P(B)$
Стохастический эксперимент состоит из последовательности $n$ независимых и одинаковых испытаний, в каждом из которых может произойти событие $A$ или событие, ему противоположное $\overline A $ с вероятностями соответственно равными $p$ и $q=1-p$
Вероятность того, что в серии из $n$ испытаний событие $A$ появится ровно $m$ раз $P_n (m)=C_n^m \cdot p^m\cdot q^ < n-m >$
Вероятность того, что при $n$ испытаниях $A$ появляется не менее $m_1 $ и не более $m_2 $ раз вычисляется по формуле:
При достаточно большом $n$ и малом $p$, если $a=np\lt 10\rightarrow P_n (m)\approx \frac < a^m > < m! >e^ < -a >$
Локальная формула Муавра-Лапласа
При достаточно большом $n$ и не слишком малых $p$ и $q$
Интегральная формула Муавра – Лапласа
$P_n (m_1 \leqslant m\leqslant m_2 )=\Phi (x_2 )-\Phi (x_1 )$,
Понятие случайной величины
Случайной величиной называют переменную величину, которая принимает числовые значения в зависимости от исходов испытания случайным образом.
Понятие дискретной случайной величины
ДСВ $X$ – случайная величина, принимающая различные значения, которые можно записать в виде конечной или бесконечной последовательности, то есть численные значения которой образуют конечное или счетное множество.
Закон распределения дискретной случайной величины
Соответствие между значениями $x_1, x_2, \cdots $ дискретной случайной величины и их вероятностями $p_1, p_2, \cdots $ называется законом распределения и может быть задан таблично или аналитически < то есть с помощью формул >. Если ДСВ $X$ принимает конечное множество значений $x_1 ,x_2 ,x_3 . $ соответственно с вероятностями $p_1 ,p_2 . p_n $, то ее закон распределения определяется формулами
Если ДСВ $X$ принимает бесконечную последовательность значений $x_1 ,x_2 ,x_3 . $ соответственно с вероятностями $p_1 ,p_2 ,p_3 . $, то ее закон распределения определяется формулами
Понятие непрерывной случайной величины
НСВ $X$ – случайная величина, которая может принимать любые значения из некоторого промежутка, то есть множество значений непрерывной случайной величины несчетно.
Функция распределения. Свойства функции распределения
Функцией распределения случайной величины $X$ называется функция действительного переменного $x$, определяемая равенством $F(x)=P(X\lt x)$, где $P(X\lt x)$ - вероятность того, что случайная величина $X$ принимает значение, меньше $x$
Функция распределения $F(x)$ для ДСВ $X$, которая может принимать значения $x_1 ,x_2 . x_n $ c соответствующими вероятностями $p_1 ,p_2 . p_n$ имеет вид $F(x)=\sum\limits_ < x_k \lt x > < P(X\lt x_k ) >$, где символ $x_k \lt x$ означает, что суммируются вероятности $p_k $ тех значений, которые меньше $x$.
Функция является разрывной.
Случайная величина $X$ называется непрерывной, если ее функция распределения $F(x)$ является непрерывно дифференцируемой.
Вероятность того, что СВХ примет значение из промежутка $\left[ < \alpha ;\beta >\right)$, равна разности значений ее функции распределения на концах этого полуинтервала:
$P(\alpha \leqslant X\lt \beta )=F(\beta )-F(\alpha )$
Свойства функции распределения
1. $0\leqslant F(x)\leqslant 1$
2. Если $x_1 \lt x_2 $, то $F(x_1 )\leqslant F(x_2 )$, то есть функция распределения является неубывающей.
Функция распределения. Свойства функции распределения
3. Функция $F(x)$ в точке $x_0 $ непрерывна слева, то есть $\mathop < \lim >\limits_ < x\to x_0 -0 >F(x)=F(x_0 )$; $F(x_0 -0)=F(x_0 )$
4. Если все возможные значения СВХ принадлежат интервалу $(a;b)$, то $F(x)=0$ при $x\leqslant a$, $F(x)=1$ при $x\geqslant b$
5. Если все возможные значения СВХ принадлежат бесконечному интервалу $\left( < -\infty ;+\infty >\right)$, то $\mathop < \lim >\limits_ < x\to -\infty >F(x)=0;\mathop < \lim >\limits_ < x\to +\infty >F(x)=1;$
Если $X$ – непрерывная случайная величина, то вероятность того, что она примет одно заданное определенное значение, равна нулю:
Отсюда следует, что для непрерывной случайной величины выполняются равенства:
$P(\alpha \lt X\lt \beta )=P(\alpha \leqslant X\leqslant \beta )=P(\alpha \leqslant X\lt \beta )=$
$=P(\alpha \lt X\leqslant \beta )=F(\beta )-F(\alpha )$
Плотность распределения вероятностей непрерывной случайной величины. Свойства функции плотности распределения.
Плотностью распределения < дифференциальной функцией распределения >вероятностей НСВ $X$ в точке $x$ называют предел отношения вероятности попадания значений этой величины в интервал $\left( < x;x+\Delta x >\right)$ к длине $\Delta x$ этого интервала, когда последняя стремится к нулю:
Следовательно, $f(x)= < F >'(x)$, то есть плотность распределения есть первая производная от функции распределения НСВХ.
Вероятность того, что НСВХ примет значение, принадлежащее интервалу $(a;b)$, определяется равенством $P(a\lt X\lt b)=\int\limits_a^b < f(x)dx >$
Плотность распределения вероятностей непрерывной случайной величины. Свойства функции плотности распределения.
Зная плотность распределения, можно найти функцию распределения $F(x)=\int\limits_ < -\infty >^x < f(x)dx >$
Свойства функции плотности
1. Плотность распределения $f(x)$ - неотрицательная функция, то есть $f(x)\geqslant 0$
2. Несобственный интеграл по бесконечному промежутку $\left( < -\infty ;+\infty >\right)$ от функции плотности вероятностей равен единице: $\int\limits_ < -\infty >^ < +\infty > < f(x)dx=1 >$
3. Если все возможные значения случайной величины принадлежат отрезку $\left[ < \alpha ;\beta >\right]$, то $\int\limits_\alpha ^\beta < f(x)dx=1 >$, так как вне этого промежутка $f(x)=0$
Для ДСВ $X$ равно сумме произведений всех ее значений на соответствующие вероятности: $M(X)=\sum\limits_ < i=1 >^n < x_i p_i >$
где $f(x)=F'(x)$ – функция плотности распределения вероятности.
Свойства математического ожидания
1. $M(C)=C$, если $C=const,$
4. Если $X$ и $Y$ – независимые случайные величины, то $M(XY)=M(X)\cdot M(Y)$
Дисперсия случайной величины
Разность $X-M(X)$ называется отклонением случайной величины $X$ от ее математического ожидания $M(X)=a$.
Математическое ожидание отклонения равно нулю: $M(X-a)=0$
Дисперсией, или рассеянием случайной величины $X$ называется математическое ожидание квадрата ее отклонения:
$D(X)=M((X-a)^2)$ Следовательно, для любой случайной величины $X:\;\;D(X)\geqslant 0$
3. Если случайные величины $X$ и $Y$ независимы, то $D(X\pm Y)=D(X)+D(Y),$
Среднее квадратическое отклонение
Среднеквадратическим отклонением, или стандартным отклонением, случайной величины $X$ называется корень квадратный из ее дисперсии:
$\sigma (X)=\sqrt < D(X) >\Leftrightarrow D(X)=\sigma ^2.$
Закон распределения дискретной случайной величины, определяемой формулой Бернулли
$p_k =P_n (k)=C_n^k \cdot p^k\cdot q^ < n-k >(k=0,1,2. n)$
называется биномиальным. Постоянные $n,
p$ называются параметрами биномиального распределения $\left( < q=1-p >\right)$.
Распределением Пуассона называется распределение вероятностей дискретной случайной величины, определяемое формулой Пуассона $P_n (k)=\frac < a^ke^ < -a >> < k! >$, где $a=np$ – параметр распределения.
Равномерное распределение на интервале $\left( < a;b >\right)$
Если значения случайной величины, которые она принимает в конечном промежутке $(a;b)$, возможны в одинаковой степени, то плотность распределения вероятностей этой величины постоянна на данном промежутке и равна нулю вне этого промежутка, то есть
Геометрическим называется распределение дискретной случайной величины $X$, определяемое формулой
Показательным называется распределение с плотностью вероятностей, определяемой по формуле $f(x)=\left\ < < \begin < l >0\mbox < при >\;x\lt 0, \\ \lambda e^ < -\lambda x >\mbox < >\;\mbox < при >\;x\geqslant 0, \\ \end >\right.$
где $\lambda >0$ - параметр распределения.
Замечание. Если $T$ – время безотказной работы элемента, $\lambda $ - интенсивность отказов, то случайная величина $T$ распределена по экспоненциальному закону с функцией распределения $F(t)=P(T\lt t)=1-e^ < -\lambda t >,_ < >$ где $\lambda \gt 0$. $F(t)$ определяет вероятность отказа элемента за время $t$. Вероятность безотказной работы элемента за время $t$ равна $e^ < -\lambda t >$. Функция $R(t)=e^ < -\lambda t >$ называется функцией надежности.
Нормальное распределение $N(a;\sigma )$
Нормальным распределением, или распределением Гаусса, называется распределение с плотностью вероятностей
Постоянные $a$ и $\sigma \quad (\sigma \gt 0)$ называются параметрами нормального распределения.
Вероятность попадания значений нормальной случайной величины $X$ в интервале $(\alpha ;\beta )$ определяется формулой
где $\Phi (x)$ – функция Лапласа.
Нормированное распределение $N(0;1)$
Нормированным или стандартным называется такое нормальное распределение непрерывной случайной величины, когда функция плотности вероятностей $f(x)=\frac < 1 > < \sqrt < 2\pi >> e^ < \frac < -x^2 > < 2 >> .$
Мода случайной величины $\overline M $
Модой ДСВ $X$ называется ее наиболее вероятное значение.
Модой НСВ $X$ называется то ее значение, при котором плотность распределения вероятностей максимальна.
Медианой непрерывной случайной величины $X$ называется такое ее значение $M_e $, для которого одинаково вероятно, окажется ли случайная величина меньше или больше $M_e $, то есть $P(x\lt M_e )=P(x>M_e )=0,5$.
Если прямая $x=a$ является осью симметрии кривой распределения $f(x)$, то
$\overline M =M_e =M(X)=a$.
Начальные моменты $\nu _k $
Начальным моментом $\nu _k
k$ -го порядка случайной величины $X$ называется математическое ожидание $k$-ой степени этой случайной величины: $\nu _k =M(X^k)$.
Для ДСВ $X:_ < >\nu _k =\sum\limits_ < i=1 >^n < x_i^k \cdot p_i >$, где $\sum\limits_ < i=1 >^\infty < p_i =1 >$.
Начальный момент $k$-го порядка НСВ $X$ с плотностью распределения $f(x)$ определяется формулой :
Центральные моменты $\mu _k $
Центральным моментом $\mu _k
k$-го порядка случайной величины $X$ называется математическое ожидание $k$-ой степени отклонения этой величины от ее математического ожидания. Если обозначить $M(X)=a$, то $\mu _k =M((X-a)^k)$
если множество этой величины конечно, а если – счетно, то $\mu _k =\sum\limits_ < i=1 >^\infty < (x_i -a)^k\cdot p_i >.$
Для НСВ $X$ с плотностью распределения $f(x)$ центральный момент $k$-го порядка определяется формулой: $\mu _k =\int\limits_ < -\infty >^ < +\infty > < (x_i -a)^k\cdot f(x)dx >.$
Некоторые свойства начальных и центральных моментов
\mu _2 =D\left( X \right),$
$\mu _2 =\nu _2 -\nu _1^2 ,$
$\mu _3 =\nu _3 -3\nu _1 \nu _2 +2\nu _1^3 ,$
$\mu _4 =\nu _4 -4\nu _1 \nu _3 +6\nu _1^2 \nu _2 -3\nu _1^4 .$
Отношение центрального момента 3-го порядка к кубу среднеквадратического отклонения случайной величины называется асимметрией: $A(X)=\frac < \mu _3 > < \sigma ^3 >$.
Если распределение случайной величины симметрично относительно ее математического ожидания, то асимметрия равна нулю.
Эксцессом случайной величины называется величина $Э_x =\frac < \mu _4 > < \sigma ^4 >-3.$
Для нормального распределения $Э_x =0$.
Кривые, более островершинные по сравнению с нормальной кривой Гаусса, имеют $Э_x \gt 0$. У более плосковершинных кривых $Э_x \lt 0.$
Далее:Механические приложения двойного интеграла
Критерий полноты . Лемма о несамодвойственной функции
Соленоидальное векторное поле
Поток векторного поля через поверхность
Свойства двойного интеграла
Полином Жегалкина. Теорема о представлении в виде полинома Жегалкина
Логические следствия
Замена переменных в тройном интеграле
Вычисление двойного интеграла
Механические и физические приложения поверхностного интеграла первого рода
Замыкание. Свойства замыкания. Теорема о сведении к заведомо полной системе