Реферат

Реферат Теория вероятности 3

Работа добавлена на сайт bukvasha.net: 2015-10-28

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 11.11.2024





Вероятность (вероятностная мера) — мера достоверности случайного события. Оценкой вероятности события может служить частота его наступления в длительной серии независимых повторений случайного эксперимента. Согласно определению П. Лапласа мерой вероятности называется дробь, числитель которой есть число всех благоприятных случаев, а знаменатель - число всех возможных случаев.

Вероятность - мера, заданная на измеримом пространстве (Ω, X):

1.  \mathbb{P}(\Omega) = 1

2.  \mathbb{P} (A) \ge 0 \; \forall A \in X

3. обладает свойством сигма-аддитивности (счетной аддитивности)

[править] Вероятность в математике


Математически классическая (т.е. неквантовая) вероятность задаётся аксиоматикой Колмогорова как мера на вероятностном пространстве, причём мера всего пространства равна единице. При этом случайные события определяются как измеримые подмножества этого пространства

Вероятностное пространство — это тройка (\Omega,\mathcal{F},\mathbb{P}), где
  • \Omega \ — это произвольное множество, элементы которого называются элементарными событиями, исходами или точками;
  • \mathcal{F}— сигма-алгебра подмножеств \Omega \ , называемых (случайными) событиями;
  • \mathbb{P}— вероятностная мера или вероятность, т.е. сигма-аддитивная конечная мера, такая что \mathbb{P}(\Omega) = 1.

[править] Замечания

  • Элементарные события (элементы \Omega \ ), по определению, — это исходы случайного эксперимента, из которых в эксперименте происходит ровно один.
  • Каждое случайное событие (элемент \mathcal{F}) — это подмножество \Omega \ . Говорят, что в результате эксперимента произошло случайное событие A\subset \Omega, если (элементарный) исход эксперимента является элементом A.
    Требование, что \mathcal{F}является сигма-алгеброй подмножеств \Omega \ , позволяет, в частности, говорить о вероятности случайного события, являющегося объединением счетного числа случайных событий, а также о вероятности дополнения любого события.

[править] Конечные вероятностные пространства


Простым и часто используемым примером вероятностного пространства является конечное пространство. Пусть \Omega \ — конечное множество, содержащее \vert \Omega \vert = nэлементов.

В качестве сигма-алгебры удобно взять семейство всех подмножеств \Omega \ . Его часто символически обозначают 2^{\Omega} \ . Легко показать, что общее число членов этого семейства, т.е. число различных случайных событий, как раз равно 2^{\vert \Omega \vert}, что объясняет обозначение.

Вероятность, вообще говоря, можно определять произвольно. Часто, однако, нет причин считать, что один элементарный исход чем-либо предпочтительнее другого. Тогда естественным способом ввести вероятность является:

\mathbb{P}(A) = \frac{n_A}{n},

где A\subset \Omega, и \vert A \vert = n_A- число элементарных исходов, принадлежащих A \ .

В частности, вероятность любого элементарного события:

 \mathbb{P}(\{\omega\}) = \frac{1}{n},\; \forall \omega \in \Omega.

[править] Пример


Рассмотрим эксперимент с бросанием уравновешенной монеты. Тогда естественным способом задать вероятностное пространство будет взять \Omega=\{0,1\}, \mathcal{F} = \{\{0\},\{1\},\{0,1\},\emptyset\}и определить вероятность следующим образом:

 \mathbb{P}(\{0\}) = \frac{1}{2},\; \mathbb{P}(\{1\}) = \frac{1}{2},\; \mathbb{P}(\{0,1\}) = 1,\; \mathbb{P}(\emptyset) = 0.

Пусть (\Omega,\mathcal{F}, \mathbb{P})— вероятностное пространство. Функция X\colon\Omega \to \mathbb{R}, измеримая относительно \mathcal{F}и борелевской σ-алгебры на \mathbb{R}, называется случайной величиной.

Вероятностное поведение случайной величины полностью описывается её распределением.

[править] Простейшие обобщения


Случайная величина, вообще говоря, может принимать значения в любом измеримом пространстве. Тогда её чаще называют случайным вектором или случайным элементом. Например,
  • Измеримая функция X\colon\Omega \to \mathbb{R}^nназывается n-мерным случайным вектором (относительно борелевской σ-алгебры на \mathbb{R}^n).
  • Измеримая функция X\colon\Omega \to \mathbb{C}^nназывается n-мерным комплексным случайным вектором (также относительно соответствующей борелевской σ-алгебры).
  • Измеримая функция, отображающая вероятностное пространство в пространство подмножеств некоторого (конечного) множества, называется (конечным) случайным множеством.

При рассмотрении количества m появлений события A в n испытаниях Бернулли чаще всего нужно найти вероятность того, что m заключено между некоторыми значениями a и b. Так как при достаточно больших n промежуток [a,b] содержит большое число единиц, то непосредственное использование биномиального распределения

p_n(m)=\frac{n!}{m!(n - m)!}p^mq^{n-m}

требует громоздких вычислений, так как нужно суммировать большое число определённых по этой формуле вероятностей.

Поэтому используют асимптотическое выражение для биномиального распределения при условии, что p фиксированно, а n\rightarrow+\infty. Теорема Муавра-Лапласа утверждает, что таким асимптотическим выражением для биномиального распределения является нормальная функция.

[править] Формулировка


Если в схеме Бернулли n стремится к бесконечности, p (0 < p < 1) постоянно, величина x_m = \frac{m - np}{\sqrt{npq}}ограничена равномерно по m и n (-\infty < a \le x_m \le b < +\infty), то

P_n(m) = \frac{1}{\sqrt{2\pi npq}}\exp(-\frac{x_m^2}{2})(1 + \alpha_n(m))

где \left| \alpha_n(m) \right| < \frac{c}{\sqrt{n}}, c > 0, c - постоянная.

Приближённую формулу

P_n(m) \approx \frac{1}{\sqrt{2\pi npq}}\exp(-\frac{x_m^2}{2})

рекомендуется применять при n > 100 и npq > 20.

При рассмотрении количества m появлений события A в n испытаниях Бернулли чаще всего нужно найти вероятность того, что m заключено между некоторыми значениями a и b. Так как при достаточно больших n промежуток [a,b] содержит большое число единиц, то непосредственное использование биномиального распределения

p_n(m)=\frac{n!}{m!(n - m)!}p^mq^{n-m}

требует громоздких вычислений, так как нужно суммировать большое число определённых по этой формуле вероятностей.

Поэтому используют асимптотическое выражение для биномиального распределения при условии, что p фиксированно, а n\rightarrow+\infty. Теорема Муавра-Лапласа утверждает, что таким асимптотическим выражением для биномиального распределения является нормальная функция.

[править] Формулировка


Если в схеме Бернулли n стремится к бесконечности, p (0 < p < 1) постоянно, величина x_m = \frac{m - np}{\sqrt{npq}}ограничена равномерно по m и n (-\infty < a \le x_m \le b < +\infty), то

P_n(m) = \frac{1}{\sqrt{2\pi npq}}\exp(-\frac{x_m^2}{2})(1 + \alpha_n(m))

где \left| \alpha_n(m) \right| < \frac{c}{\sqrt{n}}, c > 0, c - постоянная.

Приближённую формулу

P_n(m) \approx \frac{1}{\sqrt{2\pi npq}}\exp(-\frac{x_m^2}{2})

рекомендуется применять при n > 100 и npq > 20.

Пусть дано вероятностное пространство (\R,\mathcal{F},\mathbb{P}), и на нём определена случайная величина X с распределением \mathbb{P}^X. Тогда функцией распределения случайной величины X называется функция F_X\colon\mathbb{R} \to [0,1], задаваемая формулой:

F_X(x) = \mathbb{P}( X \leqslant x ) \equiv \mathbb{P}^X\left((-\infty, x]\right)- импортное определение;

F_X(x) = \mathbb{P}( X < x ) \equiv \mathbb{P}^X\left((-\infty, x)\right)- определение, принятое в российской литературе.

[править] Свойства

  • FX не убывает на всей числовой прямой.
  • FX непрерывна справа.
  • \lim\limits_{x \to -\infty} F_X(x) = 0.
  • \lim\limits_{x \to \infty} F_X(x) = 1.
  • Распределение случайной величины \mathbb{P}^Xоднозначно определяет функцию распределения.
    • Верно и обратное: если функция F(x) удовлетворяет четырём перечисленным выше свойствам, то существует вероятностное пространство и определённая на нём случайная величина, такая что F(x) является её функцией распределения.
  • По определению непрерывности справа, функция FX имеет правый предел FX(x + ) в любой точке x\in \mathbb{R}, и он совпадает со значением функции FX(x) в этой точке.
    • В силу неубывания, функция FX также имеет и левый предел FX(x − ) в любой точке x\in \mathbb{R}, который может не совпадать со значением функции. Таким образом, функция FX либо непрерывна в точке, либо имеет в ней разрыв первого рода.

[править] Тождества


Из свойств вероятности следует, что \forall x \in \mathbb{R},\; \forall a,b\in \mathbb{R}, таких что a < b:
  • \mathbb{P}(X > x ) = 1 - F_X(x);
  • \mathbb{P}(X < x ) = F_X(x-);
  • \mathbb{P}(X \geqslant x ) = 1 - F_X(x-);
  • \mathbb{P}( X = x ) = F_X(x) - F_X(x-);
  • \mathbb{P}(a < X \leqslant b ) = F_X(b) - F_X(a);
  • \mathbb{P}(a \leqslant X \leqslant b) = F_X(b) - F_X(a-);
  • \mathbb{P}(a < X < b ) = F_X(b-) - F_X(a);
  • \mathbb{P}(a \leqslant X < b ) = F_X(b-) - F_X(a-).

[править] Дискретные распределения


Если случайная величина X дискретна, то есть её распределение однозначно задаётся функцией вероятности

\mathbb{P}(X = x_i) = p_i,\; i=1,2,\ldots,

то функция распределения FX этой случайной величины кусочно-постоянна и может быть записана как:

F_X(x) = \sum\limits_{i\colon x_i \leqslant x} p_i.

Эта функция непрерывна в любой точке x\in \mathbb{R}, такой что x \not= x_i,\; \forall i, и имеет разрыв, равный pi, в x = xi.

[править] Непрерывные распределения


Распределение \mathbb{P}^Xназывается непрерывным, если такова его функция распределения FX. В этом случае:

\mathbb{P}(X = x) = 0,\; \forall x \in \mathbb{R},

и

F_X(x-0) = F_X(x),\; \forall x \in \mathbb{R},

а следовательно формулы имеют вид:

\mathbb{P}(X \in |a,b|) = F_X(b) - F_X(a),

где | a,b | означает любой интервал, открытый или закрытый, конечный или бесконечный.

[править] Абсолютно непрерывные распределения


Распределение \mathbb{P}^Xназывается абсолютно непрерывным, если существует неотрицательная почти всюду (относительно меры Лебега) функция fX(x), такая что:

F_X(x) = \int\limits_{-\infty}^x\!f_X(t)\, dt.

Функция fX называется плотностью распределения. Известно, что функция абсолютно непрерывного распределения непрерывна, и, более того, если f_X \in C(\mathbb{R}), то F_X \in \mathcal{D}(\mathbb{R}), и

\frac{d}{dx}F_X(x) = f_X(x),\; \forall x \in \mathbb{R}.

[править] Вариации и обобщения

[править] Многомерные функции распределения


Пусть (\Omega,\mathcal{F},\mathbb{P})фиксированное вероятностное пространство, и X=(X_1,\ldots,X_n)\colon\Omega \to \mathbb{R}^N— случайный вектор. Тогда распределение \mathbb{P}^Xявляется вероятностной мерой на \mathbb{R}^n. Функция этого распределения F_X\colon\mathbb{R}^n \to [0,1]задаётся по определению следующим образом:

F_X(x_1,\ldots,x_n) = \mathbb{P}(X_1 \leqslant x_1 ,\ldots, X_n \leqslant x_n) \equiv \mathbb{P}^X \left(\prod\limits_{i=1}^n (-\infty,x_i]\right),

где \prodв данном случае обозначает декартово произведение множеств.

Свойства многомерных функций распределения аналогичны одномерному случаю. Также сохраняется взаимно-однозначное соответствие между распределениями на \mathbb{R}^nи многомерными функциями распределения. Однако, формулы для вычисления вероятностей существенно усложняются, и потому функции распределения редко используются для n > 1.

Пусть \displaystyle X— случайная величина, определённая на некотором вероятностном пространстве. Тогда

D[X] = M\left[(X -M[X])^2\right],

где символ M обозначает математическое ожидание.

[править] Замечания

  • В силу линейности математического ожидания справедлива формула:

D[X] = M[X^2] - \left(M[X]\right)^2;
  • Дисперсия является вторым центральным моментом случайной величины;
  • Дисперсия может быть бесконечной. См., например, распределение Коши.
  • Дисперсия может быть вычислена с помощью производящей функции моментов U(t):

D[X] = U''(0) − U'2(0)
  • Дисперсия целочисленной случайной величины может быть вычислена с помощью производящей функции последовательности.

[править] Свойства

  • Дисперсия любой случайной величины неотрицательна: D[X] \geqslant 0;
  • Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;
  • Если случайная величина равна константе, то её дисперсия равна нулю: D[a] = 0. Верно и обратное: если D[X] = 0, то X = M[X] почти всюду;
  • Дисперсия суммы двух случайных величин равна:

\! D[X + Y] = D[X] + D[Y] + 2\,\text{cov}(X, Y), где \! \text{cov}(X, Y)– их ковариация;
  • Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство:

\! D\left[\sum_{i=1}^n c_i X_i\right] = \sum_{i=1}^n c_i^2 D[X_i] + 2 \sum_{1 \leqslant i < j \leqslant n} c_i c_j\, \text{cov}(X_i, X_j), где c_i \in \R;
  • В частности, D[X1 + ... + Xn] = D[X1] + ... + D[Xn] для любых независимых или некоррелированных случайных величин, так как их ковариации равны нулю;
  • D\left[aX\right] = a^2D[X];
  • D\left[-X\right] = D[X];
  • D\left[X+b\right] = D[X].

[править] Пример


Пусть случайная величина \displaystyle Xимеет стандартное непрерывное равномерное распределение на \displaystyle [0,1],т. е. её плотность вероятности задана равенством

f_X(x) = \left\{
\begin{matrix}
1, & x\in [0,1] \\
0, & x \not\in [0,1].
\end{matrix}
\right.

Тогда

M\left[X^2\right] = \int\limits_0^1\!x^2\, dx = \left. \frac{x^3}{3}\right\vert_0^1 = \frac{1}{3},

и

M\left[X\right] = \int\limits_0^1\! x\, dx = \left. \frac{x^2}{2}\right\vert_0^1 = \frac{1}{2}.

Тогда

D[X] = M\left[X^2\right] - (M[X])^2 = \frac{1}{3} - \left(\frac{1}{2}\right)^2 = \frac{1}{12}.

Пусть \displaystyle X— случайная величина, определённая на некотором вероятностном пространстве. Тогда

D[X] = M\left[(X -M[X])^2\right],

где символ M обозначает математическое ожидание.

[править] Замечания

  • В силу линейности математического ожидания справедлива формула:

D[X] = M[X^2] - \left(M[X]\right)^2;
  • Дисперсия является вторым центральным моментом случайной величины;
  • Дисперсия может быть бесконечной. См., например, распределение Коши.
  • Дисперсия может быть вычислена с помощью производящей функции моментов U(t):

D[X] = U''(0) − U'2(0)
  • Дисперсия целочисленной случайной величины может быть вычислена с помощью производящей функции последовательности.

[править] Свойства

  • Дисперсия любой случайной величины неотрицательна: D[X] \geqslant 0;
  • Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;
  • Если случайная величина равна константе, то её дисперсия равна нулю: D[a] = 0. Верно и обратное: если D[X] = 0, то X = M[X] почти всюду;
  • Дисперсия суммы двух случайных величин равна:

\! D[X + Y] = D[X] + D[Y] + 2\,\text{cov}(X, Y), где \! \text{cov}(X, Y)– их ковариация;
  • Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство:

\! D\left[\sum_{i=1}^n c_i X_i\right] = \sum_{i=1}^n c_i^2 D[X_i] + 2 \sum_{1 \leqslant i < j \leqslant n} c_i c_j\, \text{cov}(X_i, X_j), где c_i \in \R;
  • В частности, D[X1 + ... + Xn] = D[X1] + ... + D[Xn] для любых независимых или некоррелированных случайных величин, так как их ковариации равны нулю;
  • D\left[aX\right] = a^2D[X];
  • D\left[-X\right] = D[X];
  • D\left[X+b\right] = D[X].

[править] Пример


Пусть случайная величина \displaystyle Xимеет стандартное непрерывное равномерное распределение на \displaystyle [0,1],т. е. её плотность вероятности задана равенством

f_X(x) = \left\{
\begin{matrix}
1, & x\in [0,1] \\
0, & x \not\in [0,1].
\end{matrix}
\right.

Тогда

M\left[X^2\right] = \int\limits_0^1\!x^2\, dx = \left. \frac{x^3}{3}\right\vert_0^1 = \frac{1}{3},

и

M\left[X\right] = \int\limits_0^1\! x\, dx = \left. \frac{x^2}{2}\right\vert_0^1 = \frac{1}{2}.

Тогда

D[X] = M\left[X^2\right] - (M[X])^2 = \frac{1}{3} - \left(\frac{1}{2}\right)^2 = \frac{1}{12}.

Пусть (\Omega,\mathcal{F},\mathbb{P})— фиксированное вероятностное пространство. Пусть A,B\in \mathcal{F}суть два случайных события, причём \mathbb{P}(B)>0. Тогда условной вероятностью события A при условии события B называется

\mathbb{P}(A \mid B) = \frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}.

[править] Замечания

  • Прямо из определения очевидно следует, что

\mathbb{P}(A\cap B) = \mathbb{P}(A \mid B) \mathbb{P}(B).
  • Если \mathbb{P}(B) = 0, то изложенное определение условной вероятности неприменимо.
  • Условная вероятность является вероятностью, то есть функция \mathbb{Q}:\mathcal{F}\to \mathbb{R}, заданная формулой

\mathbb{Q}(A) = \mathbb{P}(A \mid B ),\; \forall A \in \mathcal{F},

удовлетворяет всем аксиомам вероятностной меры.

[править] Пример


Если A,B — несовместимые события, то есть A \cap B = \varnothingи \mathbb{P}(A)>0,\; \mathbb{P}(B)>0, то

\mathbb{P}(A \mid B) = 0

и

\mathbb{P}(B \mid A) = 0.

Пусть есть бесконечная последовательность одинаково распределённых и некоррелированных случайных величин \{X_i\}_{i=1}^{\infty}, определённых на одном вероятностном пространстве (\Omega,\mathcal{F},\mathbb{P}). То есть их ковариация \mathrm{cov}(X_i,X_j) = 0,\; \forall i \not=j. Пусть \mathbb{E}X_i = \mu,\; \forall i\in \mathbb{N}. Обозначим Sn выборочное среднее первых n членов:

S_n = \frac{1}{n} \sum\limits_{i=1}^n X_i,\; n \in \mathbb{N}.

Тогда S_n \to^{\!\!\!\!\!\! \mathbb{P}} \mu.

[править] Усиленный закон больших чисел


Пусть есть бесконечная последовательность независимых одинаково распределённых случайных величин \{X_i\}_{i=1}^{\infty}, определённых на одном вероятностном пространстве (\Omega,\mathcal{F},\mathbb{P}). Пусть \mathbb{E}X_i = \mu,\; \forall i\in \mathbb{N}. Обозначим Sn выборочное среднее первых n членов:

S_n = \frac{1}{n} \sum\limits_{i=1}^n X_i,\; n \in \mathbb{N}.

Тогда S_n \to \muпочти наверное.

Классическая формулировка Ц.П.Т.


Пусть X_1,\ldots, X_n,\ldotsесть бесконечная последовательность независимых одинаково распределённых случайных величин, имеющих конечное математическое ожидание и дисперсию. Обозначим последние μ и σ2, соответственно. Пусть S_n = \sum\limits_{i=1}^n X_i. Тогда

\frac{S_n - \mu n}{\sigma \sqrt n} \to N(0,1)по распределению при n \to \infty,

где N(0,1) — нормальное распределение с нулевым математическим ожиданием и стандартным отклонением, равным единице. Обозначив символом \bar{X}выборочное среднее первых n величин, то есть \bar{X} = \frac{1}{n} \sum\limits_{i=1}^n X_i, мы можем переписать результат центральной предельной теоремы в следующем виде:

\frac{\bar{X} - \mu}{\sigma / \sqrt{n}} \to N(0,1)по распределению при n \to \infty.

[править] Замечания

  • Неформально говоря, классическая центральная предельная теорема утверждает, что сумма n независимых одинаково распределённых случайных величин имеет распределение, близкое к N(nμ,nσ2). Эквивалентно, \bar{X}имеет распределение близкое к N(μ,σ2 / n).
  • Так как функция распределения стандартного нормального распределения непрерывна, сходимость к этому распределению эквивалентна поточечной сходимости функций распределения к функции распределения стандартного нормального распределения. Положив Z_n = \frac{S_n - \mu n}{\sigma \sqrt{n}}, получаем F_{Z_n}(x) \to \Phi(x),\; \forall x \in \mathbb{R}, где Φ(x) — функция распределения стандартного нормального распределения.
  • Центральная предельная теорема в классической формулировке доказывается методом характеристических функций (теорема Леви о непрерывности).
  • Вообще говоря, из сходимости функций распределения не вытекает сходимость плотностей. Тем не менее в данном классическом случае имеет место.

[править] Локальная Ц.П.Т.


В предположениях классической формулировки, допустим в дополнение, что распределение случайных величин \{X_i\}_{i=1}^{\infty}абсолютно непрерывно, то есть оно имеет плотность. Тогда распределение Zn также абсолютно непрерывно, и более того,

f_{Z_n}(x) \to \frac{1}{\sqrt{2\pi}}\, e^{-\frac{x^2}{2}}при n \to \infty,

где f_{Z_n}(x)- плотность случайной величины Zn, а в правой части стоит плотность стандартного нормального распределения.

[править] Некоторые обобщения


Результат классической центральной предельной теоремы справедлив для ситуаций гораздо более общих, чем полная независимость и одинаковая распределённость.

[править] Ц.П.Т. Линдеберга


Пусть независимые случайные величины X_1,\ldots ,X_n, \ldotsопределены на одном и том же вероятностном пространстве и имеют конечные математические ожидания и дисперсии:  \mathbb{E}[X_i] = \mu_i,\; \mathrm{D}[X_i] = \sigma^2_i. Как и прежде построим частичные суммы S_n = \sum\limits_{i=1}^n X_i. Тогда в частности, \mathbb{E}[S_n] = m_n = \sum\limits_{i=1}^n \mu_i,\; \mathrm{D}[S_n] = s_n^2 = \sum\limits_{i=1}^n \sigma_i^2. Наконец, пусть выполняется условие Линдеберга:

\forall \varepsilon>0,\; \lim\limits_{n\to \infty}\sum\limits_{i=1}^n \mathbb{E}\left[\frac{(X_i-\mu_i)^2}{s_n^2}\, \mathbf{1}_{\{|X_i-\mu_i|> \varepsilon s_n\}}\right] = 0.

Тогда

\frac{S_n-m_n}{s_n} \to N(0,1)по распределению при n \to \infty.

[править] Ц.П.Т. Ляпунова


Пусть выполнены базовые предположения Ц.П.Т. Линдеберга. Пусть случайные величины {Xi} имеют конечный третий момент. Тогда определена последовательность

r^3_n = \sum_{i=1}^n \mathbb{E}\left[|X_i-\mu_i|^3\right]. Если предел

\lim\limits_{n\to \infty} \frac{r_n}{s_n} = 0(условие Ляпунова),

то

\frac{S_n-m_n}{s_n} \to N(0,1)по распределению при n \to \infty.

[править] Ц.П.Т. для мартингалов


Пусть процесс (X_n)_{n\in \mathbb{N}}является мартингалом. Введём случайные процессы \sigma^2_nи τn следующим образом:

\sigma_n^2 = \mathbb{E} \left[(X_{n+1}-X_n)^2 \mid X_1 ,\ldots, X_n\right]

и

\tau_n = \min\left\{k \left\vert\; \sum_{i=1}^k \sigma^2_i \ge n \right. \right\}.

Тогда

\frac{X_{\tau_n}}{\sqrt{n}} \to N(0,1)по распределению при n \to \infty.



1. Реферат на тему Henrik Ibsen A Biography Essay Research Paper
2. Реферат Тяговой подстанции
3. Диплом на тему Управление оборотными активами ОАО Брасовская мебельная фабрика
4. Реферат Инвестиционный проект управление мотивацией
5. Кодекс и Законы Понятие договора аренды в гражданском праве
6. Курсовая Системный подход в анализе хозяйственной деятельности предприятия
7. Реферат на тему Sam Sixty Essay Research Paper Sam Sixty
8. Курсовая Влияние занятий оздоровительным бегом на организм занимающихся
9. Реферат на тему CFCs Essay Research Paper The beginning of
10. Реферат на тему Кристали та аморфні тіла