Шпаргалка

Шпаргалка Шпаргалка по Маркетингу 9

Работа добавлена на сайт bukvasha.net: 2015-10-29

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 11.11.2024





1.Элементы комбинаторного анализа

Комбинаторика-раздел мат-ки посвящ.

решению задач выбора расположения

элементов некоторого обычного конеч-

ного множества в соот. с заданными пра-

вилами.Элементы конечного множества

можно пронумировать и записать в виде

ряда a1,a2an,такая пронумерованная

последовательность наз.упорядоченной

Основная формула комбинаторики:

N=n1*n2*…nr.
2.Предмет теории вер-ти,виды случ.

Событий,классич.определение вер-ти.

Предмет теории вер-ти изучение вероят-

ностных закономерностей возн.при рассм.

массовых однотипных случ.событий.

Событие-это любое явление в отношении

которого имеет смысл говорить наступило

оно или нет в результате определения

комплекса условий или случ.эксперимента

Виды:а)событие наз.достоверным если оно

обяз-но происходит при каждой осущ.

определенной совокупности условий S/

б)невозможное событие-если оно заведомо

не происх.ни при одном осуществлении

данной совокупности условий S/

в)случайное событие-если оно может

произойти а может и не произойти при

осуществлении данной совок.условий S

г)несовместное событие-если их одновре-

менное появление при осущ.комплекса

условий S невозможно т.е появ.события

А в данном испытании исключает появ.

события В в этом же испытании.

д)невозможное событие-если появ.в

результате испытания одного и только

одного из них яв.достоверным событием

е)равновозможное событие-если есть

основания считать что ни одно из этих

событий не яв.более возможным чем др.

ж)если событие А какое либо событие

то событие состоит в том что событие А

не наступило наз.противоположным

событию А и обозн.А с чертой.

з)события происходят при реализации

определенного комплекса условий или в

результате эксперемента наз.элементар-

ными исходами.

Вер-ть события А-это отношение числа

благоприятных этому событию условий

общему числу всех единст.возможных

и равновозможных исходов:P(A)=m/n.
3.Св-ва вер-ти,относительная час-

тота появления события,стат.вер-ть,

геометрич. вер-ть
.Св-ва:1)
Вер-ть

достоверного события=1,если событие

достоверно то каждый элемент исход-

ного  испытания благоприятно событию,

тогда m=n и P(A)=n/n=1.

2)вер-ть невозможного события =0,если

событие невозможно то не один из элем.

исходов испытания не благоприят.событию

тогда P(A)=0/n=0.

3)вер-ть случ.события есть положительное

Число закл м/д 0 и 1 случ.событию благопр.

лишь часть из общего числа элементарных

исходов в этом случае 0<m<n,0<m/n<1.

Относительная частота события-это отнош.

Числа испытаний к общему числу фактически

Произведенных испытаний:W(A)=nа /n.

В том случае если отношение частоты соб.А

обнаруживается устойчивым законом т.е

отношение n с индексом a/n для большего n

и для большинства серии испытаний мало

уклоняется то некоторой постоянной величины

то эту величину наз.стат.вер-тью появления А

Если м/д множеством элементарных исходов

случайного эксперемента и множеством точек

некоторой плоской фигуры можно установить

взаимооднозначное соотв.а также установить

взаимооднозначное соотв.м/д множеством

элементарных исходов благоприятного соб.А

и множеством точек плоской фигуры G яв.

частью суммы то вер-ть появления события А

геометрически можно вычислить как

P(A)=s/S,где s-площадь фигуры G,S-площадь

суммы.










4.Теорема сложения вер-ти
.
Событие состоит

в том что наступило хотя бы одно из событий

А или В или оба эти события наз.суммой двух

событий и обозначается А+В.

Теорема:вер-ть наступления одного из двух

несовместных событий = сумме вер-тей этих

событий P(A)=P(A)+P(B)

Теорема:сумма вер-тей событий А1+А2+…Аn

образуют полную группу=1.

P(A1)+P(A2)+…+P(An)=1

Теорема:вер-ть появ.хотя бы 1 из двух совм-ных

событий= сумме вер-тей этих событий за вычетом

вер-ти их одновременного наступления.

P(A+B)=P(A)+P(B)-P(A*B).



6.Теорема умножения вер-ей
.
Произведение двух

событий А и В наз.событие обознач.символом А*В

или АВи состоит в одновременном наступлении

события А и В.Теорема:вер-ть одновременного

появления двух событий P(A*B)=P(A)*P(B).

Теорема:умножение вер-ти зависимых событий

вер-ти одновременного появ.неск.зависимых

событий=произведению вер-ти одного из них

на условную вер-ть др.расчитанную при условии

что первое событие уже произошло

P(A*B)=P(B)*P(A/B),P(A*B)=P(A)*P(B/A)

Т.е P(B)*P(A/B)=P(A)*P(B/A).
5.Определение условной вер-ти незави-

симых

событий
.
P(A/B)=P(A*B)/P(B)-

определение условной вер-ти при условии

что (P(B)) ≠0.Т.о усл.вер-тью наз.вер-ть

события А вычесленную предполож.что

событие В уже наступило и наоборот P(B/A)

2 события наз.независимыми если вер-ть 1из

них не зависит от наступления или ненаступ-

ления другого.Событие А не зависит от соб.В

если P(A/b)=P(A);P(B/A)=P(B).

Понятие независимости вводится в случае

любого числа n>2 событие А1,А2…Аn наз.

независимыми в совокупности если каждое из

этих событий независимо в паре с любым

произведением осталных событий содержит

как все события так и любую их часть.

независимость событий А1,А2...Аn в совок.

влечет за собой попарную независимость

этих событий.

2  события наз.зависимыми если вер-ть наступ-

ления одного из них зависит от наступления

или ненаступления другого события
7. Теорема полной вероятности. Формулы Байеса.

Вероятность события А, которое  может наступить при условии 1го из несовершенных событий В1В2…В4 образующих полную группу, равна сумме произведений вероятностей из этих событий на соответствующую условную вероятность события А, которая называется формулой полной вероятности.

P(A)=P(B1)*P(A/B1)+P(B2)*P(A/B2)+…+P(Bn)*P(A/Bn)=∑ P(Bi)*P(A/Bi)

Пусть имеется событие А в которой может произойти  при наступлении 1го и только 1го события В1В2…Вn из некоторой полной группы попарно несовершенных событий необходимо найти вероятность события Bi при условии что событие А уже наступило. По теореме умножения  вероятности следует

P(B1A)=P(Bi)*P(A/Bi)/P(A)         (1)

Применяет знам-лю последовательного равенства формулу полной вероятности

P(BiA)=P(Bi)*P(A/Bi)/∑P(Bi)*P(AB).



9)Локальная теорема Лапласа.

Если вероятность р-наступления события А в каждом испытании постоянна отлична от 0 и до 1,то вероятность Pn(m) того что событие  появится в n-испытаниях , равно m-раз приближенно ровна тем точнее чем больше n приближенно знач.функции.

Для положения значения аргумента х значения

Определяется с помощью спец.таблиц,т.к. ф(х)-четная,то для значения аргумента х испытаний те же таблицы.
10)Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях.

При осущ. при n-независимых испытаний в которых из n вероятность появ. событий постоянна u=p(0<p<1), тогда вероятность того, что отклонение относительной частоты от постоянной вероятности p по абсолютной величине не превышает заданного числа ε >0 т.е. необходимо найти вероятность осущ .неравенства:

|m/n-p|≤ε

Искомую вероятность обозначим  р(|m/n-p|≤ε)Для нахожд.ее заменим ему равносильным

Умножим на

Получим неравенство равносильное исходному








12)Распределение случайной величины.

Эта функция F(x) которая определяется на множестве действительных чисел равенством F(x)=P(X<x).Геометрическая интерпретация функции х распределения случайной величины х для каждого значения х и функция F(x)=вероятности случайногот события заключается в том что х примет значение в интервале от (-бесконечность;х).Областью определения функции распределения яв.множество действий чисел, а обл.измерения отрезок [0;1]

Свойсто функций распределения случайной величины

1)

2)F(x) явл неубывающей т.е. Х1≤Х2

3) F(x)непрерывна слева

4)Если Х1<Х2,то P(X1≤XX2)=F(x2)-F(x1)

При изв. ряде  распределения дискретной случайной величины функцию распределения данной величины можно поставить следующим образом

F(x)=F{x<x}=∑xi<x, где ∑{x=xi} означ. ∑ всех возможных значений xi случ. Величины х которое меньше х.
11)Определение случайной величины. Дискретные непрерывные случайные величины. Закон распределения дискретной случайной величины.

Случайной величиной называется- величины которые в результате испытаний могут принимать те или иные возможные значения  за раннее неизвестное. Случайные величины обознач прописными буквами X,Y,Z.А их возможное значение строчными буквами x,y,z.

Дискретной или непрерывной случайной величы-наз случайную величину X которая может принимать конечное множество или счетное число значений х1,х2,х3…Хn.

Непрерывной случайной величиной называется- случайные величины х которые могут принимать все значения из конечного или бесконечного промежутка.Для описания дискретной случайной величины необходимо не только указать все ее значения но и перечислить их вероятности.

Закон распределения дискр случ величины – это соотношение между возможными значениями х1,х2…Хn случайной величины х.закон случайной величины записывается в табличном виде,где 1ая строка содержит возможные значения,а 2ая их вероятности.



8)Последовательные независимые испытания. Схема Бернули.

Для вычисления вероятности: Pn(m) необходимо учесть что число различных произведений содержат:m-элементов, которые можно составить из n-элементов =числу сочетаний из n по m

Применяя m сложения вероятностей попарно несовместных событий получим формулу Бернули

Pn(m)=n!/m!(n-m)!


13. Биноминальное распределение

Случайный эксперимент состоит в том, что осуществляется n
независимых испытаний, в каждом из которых событие А может появиться или не появиться, причем вероят-ть наступления события А во всех испытаниях постоянна и равна р. Вероят-ть не наступления события А или наступления противоположно событию : q
=1-
p
.


В качестве дискретной случайной величины будем рассматривать число появлений события А в этих испытаниях. Необходиммо найти закон распределения дискретной СВ. События А в испытаниях может либо не наступить, либо наступить 1 раз, 2 раза или n
раз. Таким образом возможное значение х может записываться так

х1=0

х2=1

х3=2

……..

хn+1=n

Вероят-ть можно найти с помощью формулы Бернулли

 , где n=1,2,…,n и m=1,2,…,m

Данная формула считается аналитическим выражением закона распределения дискретной СВ Х. Ф-ция распределения вероят-тей рассматриваемой СВ:

Распределение степени вероят-ти, которая определяется формулой Бернулли, называется биноминальным распределением. Биноминальный закон записывается так:

х

n

n-1

n-2



m

р

np

npn-1q

pn-2q2



mp



14. Распределение Пуассона
.
Для задач,в кот.число n независимых испытаний велико,а вероятность p наступления данного события А при каждом отдельном испытании мала,то искомые вероятности Pn(m) того,что в серии из n испытаний событие А наступит m раз могут быть вычислены с  практически достаточной степенью точности по осимптотической формуле Пуассона: Эта формула характеризует закон распределения Пуассона.Функция распределения вероятностей этой случайной величины имеет вид: Искомые вероятности можно вычислить с помощью специальных таблиц при известных m и λ.



15.Простейший поток событий. Поток событий – последовательность событий, кот. наступают в случайные заранее неизвестные моменты. Н-р, поступление вызовов на пункт неотложной скорой помощи. К основным св-вам, кот.хар-ют поток событий, относятся свойства стационарности, отсутствие последствий и ординарности. Свойство стационарности потока событий проявляется в том, что вероятность наступления m-событий на любом отрезке времени зависит только от числа m и от длительности его отсчета и не зависит от начала отсчета. При условии, что различные промежутки времени являются непересекающимися. Свойство отсутствия последствия проявляется в том, что вероятность наступления n-событий на любом отрезке времени не зависит от того, наступили или нет события в момент времени, кот. предшествуют началу рассматриваемого временного отрезка. Таким образом, если поток событий обладает свойством отсутствия последствия, то появление какого-либо числа событий в различные непересекающиеся отрезки времени считаются взаимно-независимыми. Свойство ординарности потока событий проявляется в том, что наступление 2-х и более событий за малый отрезок времени практически невозможно, т.е. вероятность наступления более 1-го события за малый отрезок времени, пренебрежимо мало, по сравнению с вероятностью наступления только 1-го события.  Т.о. если поток событий обладает свойством ординарности, то за бесконечно малый отрезок времени может появиться не более 1-го события. Поток событий, кот. обладает св-вом стационарности, отсутствие последствий и ординарности наз.простейшим или Пуассоновским потоком. Интенсивность потока λ – это среднее число событий, кот. наступает в единицу времени. При заданной постоянной интенсивности потока λ,вероятность появления m-событий простейшего потока за временной отрезок длит.t  можно рассчитать по формуле Пуассона:




16.Мат.ожидание дискретной случайной величины. М(х) мат.ожидание дискретной случайной величины х, принимает значение х12,…,хn с вероятностями соотв. p1, p2,…,pn наз.сумма произведений всех ее возможных n-значений на их вероятности.



Математическое ожидание дискретной случайной величины х явл. неслучайной постоянной величиной. Если число возможных значений дискретной случайной величины конечно, то предполагается, что ряд сходится абсолютно.Пример: случайная величина х задана следующим законом распределения: х   4  6  9

P 0.5 0.3 0.2

Математическое ожидание числа появления событий в одном испытании равно вероятности этого события.

Теорема: математическое ожидание прим.равно среднему арифметическому наблюдаемых значений и случ.величины.



















17.Свойство мат.ожидания дискретной случайной величины. 1.Мат.ожидание постоянной величины k=самой постоянной: M(k)=k; 2.Постоянный множитель можно выносить за знак мат.ожидания:M(kx)=kM(k); 3.Мат.ожидание-произведение нескольких попарно независимых случ.величин=произведению их мат.ожиданий. M(kyz)=M[(xy)z]= M(xy)M(z)=M(x)M(y)M(z)

4.Мат.ожидание-сумма 2-х случайных величин-сумме их мат.ожидания. M(x+y)=M(x)+M(y).Следствие:мат.ожидание суммы нескольких случ.величин. M(x+y+z)=M[(x+y)+z]=M(x+y)+M(z)=M(x)+M(y)+M(z).Следствие:мат.ожидание суммы нескольких случайных величин: M(x+y+z)=M[(x+y)+z]=M(x+y)+M(z)=M(x)+M(y)+M(z).



18.Дисперсия дискретной случайной величины. Понятие дисперсии случ.величины вводится для характеристики отклонения данной величины от ее среднего значения.Для этого рассм.понятие отклонения.Пусть х-случ.величина и М(х)-ее мат.ожидание. Отклонением наз.разность между случ.величиной х и ее мат.ожиданием.Теорема: мат.ожидание отклонения=0; M[x-M(x)]=0. Дисперсией или рассеянием дискретной случ.величины х наз.мат.ожидание квадрата отклонения случ.величины от ее мат.ожидания. D(x)=M(x-M(x))2 . Дисперсия случ.величины также имеет закон распределения.Пусть случ.величина х задана законом распределения       

x

x1

x2

x3



xn

P

p1

p2

p3



pn



В этом случае дисперсия распределена по след.закону:

(x-M(x))2

(x1-M(x))2

(x2-M(x))2



(xn-M(x))2

p

p1

p2



pn

По закону распределения квадрата отклонения можно непосредственно рассчитать значение дисперсии




Теорема: дисперсия равна разности между между мат.ожиданием квадрата случ.величины х и квадратом ее мат.ожидания, т.е. D(x)=M(x)2-(M(x))2 .

Пример: случ.величина х задана законом распределения. Х  3      2     9          Найти дисперсию. М(х)=3*0.4+2*0.4+9*0.2=3.8

                                Р 0.4 0.4 0.2           М(х)2  =9*0.4+4*0.4+81*0.2=21.4

D(x)=21,4-(3,8)2 =6.96







19. Свойство дисперсии дискретной случайной величины.

1) Дисперсия постоянной случ. Величины k=0; D(K)=0;

2) Постоянный множитель можно выносить за знак дисперсии возводя его в квадрат, т.е. D(Kx)=K2 D(x);

3) Дисперсия суммы двух независимых случайных величин = сумме дисперсий этих величин: D(x+y)=D(x)+D(y)

Следствие 1: дисперсия суммы нескольких попарно независимых с.в. = сумме дисперсии этих величин;

Следствие 2: дисперсия суммы постоянной и случайной величины = дисперсии с.в.: D(k+x)=D(x)

4) Дисперсия разности двух независимых с.в. = сумме их дисперсий: D(x-y)=D(x)+D(y)



20. Мат. ожидание и дисперсия числа появления событий в независимых испытаниях.

Пусть осуществляется n-незав. испытаний. В каждом из этих испытаний вероятность наступления события А постоянно и =p. Необходимо определить среднее число появления события А в этих испытаниях.

Теорема: мат.ожидание М(х) числа появления события А в n-незав. испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытание.

M(x)=np

Пусть осуществляется n-незав. испытаний. В каждом из этих испытаний вероятность наступления события А постоянно и =p. Необходимо определить дисперсию числа появления события А в этих испытаниях.

Теорема: дисперсия числа наступления события А в n-независимых испытаниях, в  каждом их которых появления события постоянно и равно произведению числа испытаний на вероятность наступления и не наступления события в одном испытании.

D(x)=npq.



21. Среднее квадратичное отклонение.

Кроме дисперсии для оценивания, рассеивания возможных значений случайной величины вокруг ее среднего значения используют показатель среднее квадратичное отклонение.

Средним квадратичным отклонение с.в. X называется квадратный корень из ее дисперсии: G(x)=кв.корень из D(x)

Размерность квадратного отклонения совпадает с размерностью с.в.X.

Свойства: 1) G(K)=0; 2) при умножении случайной величины X на постоянное число k, ее среднее квадратичное отклонение умножается на туже постоянную k.

Теорема: Среднее квадратичное отклонение суммы конечного числа попарно независимых с.в. = кв. корень из суммы квадратов средних квадратичных отклонений этих величин.





22. Одинаково распределенные попарно независимые случайные величины.

Дано n-попарно независимых случайных величин x1,x2,…xn, кот. является одинаково распределенными. Следовательно, данные случайные величины имеют одинаковое мат. ожидание, дисперсию и другие числовые значения. Среднеарифметические с.в. X, рассм. с.в. по следующей формуле: X=x1+x2+…+xn/ n.

Свойства среднеарифметической случайной величины: 1) мат. ожидание среднеарифметической  одинаково распред. попарно независимой с.в.= мат. ожидании, а каждое их них: M(x)=a;

2) дисперсия среднеарифметической n-одинаково распределенной попарно независимой с.в. в n-раз меньше дисперсии каждой из величин: D(x)=D(x)/n;

3) среднее квадратичное отклонение среднего арифметического n-один. распред. попарно независимых с.в. в кв. корень их n раз меньше средне квадратичного отклонения каждого из этих величин: G(x)=G(x)/кв.корень из n.
23. Неравенства Чебышева.

Для рассмотрения теорем , носящих общее название закона больших чисел, необходимо знание неравенства Чебышева. Пусть случайная дискретная величина X задана след. законом распределения:

необходимо оценить  вероятность того, что отклонение с.в. от ее мат. ожидания не превышает по абсолютной величине положительного числа E, в том случае если E достаточно мало, то задачей будет оценивание вероятностей того, что с.в. X примет значение достаточно близкое к своему мат. ожиданию. Поставленная задача решается с помощью неравенства Чебышева.

Вероятность того, что отклонение случайной величины X от ее M(x) по абсолютной величине меньше положительного числа E, не менее чем 1-D(x)/E2, т.е. вероятность P( [x-M(x)]меньше E)больше или равно 1- D(x)/E2.



24. Теорема Чебышева.

Если последовательность попарно независимых с.в. x1,x2,…xn, имеющих дисперсию, ограниченные одной и той же постоянной C, т.е. D(Xi)<_C; i=1,2…n, то как бы нибыло мало положительное число E, вероятность неравенства:

будет приближаться к 1, если число с.в. достаточно мало, т.е. для любого положительного числа E существует предел:





25. Теорема Бернулли

Осущ-ся n независимых испытаний, в каждом из этих испытаний вер-ти наступления соб. А-постоянна и равна p. Необходимо определить какова будет относительная частота появлении соб.А, для этого используют теорему Бернулли. Теорема. Если в каждом, из n независисых испытаний, соб.А имеет постоянную вероятность p, то как угодно близка к 1 вер-ть того, что отклонение относительной частоты m/n от вер-ти p, но абсолютная величина будет сколь угодно малой, если число наступлений достаточно велико, т.е. при соблюдении условий теоремы, справндливо равенство: lim p(|m/n-p|<E)=1 Док-во: xi-где х=1,2,3…n. Пусть xi-дискретная случайная величина, хар-щая числопоявления соб. В каждом из испытаний. Данная величина может принимать только два значения: соб.А-наступило с вер-тью p и 0-соб.А не наступило, с вер-ю q=1-p. Случайная дискретная величина xi-является попарно независимой и дисперсии их ограничены, следовательно к данной величине можно применить теорему Чебышева: Мат.ожидание каждой из величин xi- равно вер-ти p наступления события, поэтому . Необходимо доказать, что дробь равна относительной частоте m/n появления соб.А, в n испытаниях. Каждая из величин xi, где i-1,2,3…n, при наступлении соб.А в соответст. испытании принимает значение равное 1, следовательно, тогда в  испытаниях, с учётом последнего равенства можно записать: lim p(|m/n-p|<E)=1, ч.т.д.

При использовании теоремы Бернулли необходимо учитывать то, что из неё рав-во lim m/n=p. Главным утверждением теоремы является то, что  при достаточно большом кол-ве испытаний относительная частота m будет сколь угодно мало отличаться от постоянной вер-ти p наступления события в каждом испытании, т.е. теорема Бернулли утверждает, что при       , что относительная частота              .




































26. Интегральный функции распределения. Вероятность случайной величины.

Рассмотрим случ.величину Х, возможные значения которой заполняют интервал (a;b). В данном случае нельзя указать все возможные значения х, поэтому для описания данного случ. величины используется интегральная функция распределения вероятностей. Обозначим через F(x)- вероятность соб., состоящего в том, что случ.велич. х меньшее х. х-действительное чилсо. Но вероятность соб. Х<x обозначим, как F(x) в том случае, если число х будет изменяться, то будет изменяться и F(x). Определение: интегральной функцией распределения называется функция F(x), которая определена для каждого значения х, вероятность того, что случайная величина Х примет значение < x, т.е. F(x)=Р, когда Х<x. F(x)= P(X<x)

Случайная величина Х- является непрерывной в том случае, если её интегральная функция распределения F(x) непрерывно дифференцируема. Свойства интегрируемой функции распределения вероятности.1). Значение интегрируемой функции заключается в интервале (0;1), 0F(x) ≤1. Док-во: данное свойство основывается на определении интегральной функции, как вер-ти, а вер-ть-неотрицательное число, которое не превышает 1. 2). F(x)-неубывающая функция, F(x2)F(x1), если х2>х1. Следствие1: Вероятность того, что случайная величина примет значение в интервале (a;b) равно прирощённо данной функции в этом интервале. P (a x b) = F(b)-F(a). Следствие2: Вероятность того, что нсв Х примет одно определённое значение =0. 3). Если возможные значения случайной величины принадлежат (a;b), то F(x)=0,при x<a; F(x)=1, при xb. Следствие: если возможные значения интервальной случайной величины расположены на всей оси Ох, то справедливы предельные соотношения: limF(x)=0 и limF(x)=1.
27. Дифференциальная функция распределений вероятностей нвс.

Определение:Дифер. функцией распределения f(x) называется первая производная от интегральной функции распределения. f(x)=F’(x)=> интегральная функция является первообразной для диф-ой функции.

Диф-ая функция непременима для задания распределения вероятностей дискретной случайной величины, если известна f(x) нсв, то на её основе можно вычислить вероятность того, что нсв примет значение, принадлежащее заранее заданному интервалу. Теорема:Вероятность того, что нсв Х примет значение, принадлежащее (a;b) = опред.интегр. диф.функции, взятому в пределах от а до b.

P(a<x<b)=


Теорема:Если известна диф.функция f(x), то интегральная функцию F(x) можно найти по формуле:

29. Закон равномерного распределения вероятностей.

При решении задач, которые выдвигает практика, сталкиваются с различными распределениями нсв. Диф.функция этих распределений называется также законами распределения. Определение: Распределение вер-тей нсв называют равномерным, если на интервале, котором все возможные значения случайной величины, дифферен.функция имеет постоянное значение.

Закон распределения нсв можно определить заданием, либо интегрир. F(x) нсв, либо диффер.функции f(x). Для равномерного распределения интегральной функции F(x) непрерывной случайной величины имеет вид и график:

            0, при х≤0

F(x)== x-a/b-a, а≤x≤b



Определим диф.функцию равномерного распределения при условии, что все возможные значения случайной величины находятся в интервале (a;b), на котором диф.функция сохраняет постоянное значение. f’(x)=c, т.е.

        f(x)=  C, при a<x<b

                   0, при x≤a, x≥b

По свойству (2) функция f(x) есть не собственные интеграл



Таким образом c=1/b-a. График диф.функции f(x) нсв равномерного распределения выглядит так:

























28. Свойство дифферен.функции распределения вероят-тей

1. Дифферен.ф-ция неотрицательна f(x)0. Интегральная ф-ция есть неубывающая ф-ция => её производная.  есть ф-ция неотрицательная.  График дифферен.функции называется кривой распределения.

2. Несобственный интергал от дифферен.функции в пределах от  :

Доказательство: Несобственный интергал – это выражение вероят-ти события состоящего в том, что СВ х примет значение принадлежащее интервалу , достоверное событие р=1. В том случае если все значения СВ х находятся в пределах интервала (a;b)





 => предел отношения вероят-ти того. Что НСВ х примет значение а интервале к длине этого интервала.  равен значению интервал.ф-ции в точке Х. Значение  в точке Х определяется как плотность вероят-ти в данной точке, те.е дифферен.ф-ция  определяет плотность распределения вероят-ти для точки Х.
30. Условные характеристики НСВ

Пусть х – это НСВ, которая задана дифферен.ф-цией . Предположим, что все возможные значения величины х принадлежат отрезку [a;b]. Разобьем этот отрезок на n
частей, длины которых  и выделим в каждой из них произвольную точку , где i=1,2,3,…,n. Для того чтобы дать определение матем.ожиданию НСВ, составим сумму произведений возможных значений на вероят-ти их попадания в интервал



Так как произведение  приближенно равно вероят-ти попадания х в интервал . В результате перехода к пределу при условии, что длина наибольшего из полученных отрезков стремится к 0, получим открытый интеграл

Матем.ожидание НСВ Х, чьи возможные значения принадлежат отрезку [a;b] – это число равное определенному интегралу вида . В том случае если возможные значения НСВ Х принадлежат всей оси Х, то  будет равно интегралу . Последнее справедливо при условии, что несобственный интеграл сходится абсолютно, т.е. существует интеграл вида




Если данное условие не выполняется, то значение интеграла независимо от скорости снижения нижнего предела к , а верхнего – к  по отдельности.

Дисперсия НСВ Х – это матем.ожидание квадрата её отклонения в том случае, если возможное значение НСВ Х принадлежит [a;b], то дисперсия определяется как

Если возможное значение НСВ Х принадлежит всей оси ОХ, то дисперсия равна



Среднее квадратическое отклонение НСВ Х – это корень квадратный из дисперсии данной величины

Те свойства матем.ожидания и дисперсии, которые были определены для дискретных случайных велични, справедливы и для НСВ Х.
31. Нормальное распределение

Нормальное распределение вероят-ти НСВ описывается дифференциальной функцией вида

f(x)=

Данная ф-ция задается 2 параметрами a
и G, т.е. достаточно определить эти параметры, чтобы задать нормал. Распределение. Параметр а в этом случае понимается как матем. ожидание, а параметр G – как среднее квадратическое отклонение нормал. распределения.

Рассмотрим параметр а дифферен. Ф-ции нормал.распределения вероят-ти. Матем.ожидание нормал. распределения НСВ находится по формуле:

M(x) =

Введем новую переменную  ; zG + a = x , тогда dx = G dz. С учетом новой переменной z матем.ожидание можно записать в виде:

M(x) =

1-ое слагаемое  = 0; 2-ое слагаемое  = a . Таким образом матем.ожидание нормал.распределения равно параметру а.

Рассмотрим параметр G дифферен.ф-ции нормал.распределния вероят-ти. Дисперсия нормал.распределния НСВ Х с учетом того что М(х)=а имеет вид:

D(x) =

Вновь используем переменную z,на основе к-рой получим след. равенство: zG+a=x ; dx=Gdz. С учетом новой переменной z дисперсию можно записать в след.виде:

D(x) =  

В результате интегрирования данного выражения по частям получим D(x) =   , следовательно G(x) =  . Таким образом среднее квадратическое отклонение нормал.распределения равно параметру G. Если нормал.распределения определяется М(х) = 0 и G(x) = 1, то такое распределение называется нормальным, и дифферен.ф-ция нормал.распределения имеет вид:




Вероят-ть того, что Х примет значение принадлежащее интервалу ), находиться по формуле:  , где а – мат.ожидание, G – среднее квадратическое откл-е

   - функция Лапласа



















































































32. Нормальная кривая

Дифферен.ф-ция нормал.распределенной НСВ  имеет вид

График дифферен.ф-ция нормал.распределения вероят-ти наз-ся нормал.кривой или кривой Гаусса. Исследуем дифферен.ф-ция нормал.распределения с помощью метода дифферен. Исчисления:

Данная ф-ция определена на всей оси ОХ


Нормал.кривая расположена над осью ОХ, т.к. при всех значениях х ф-ция принимает положительные значения


Предел ф-ции при неограниченном возрастании х равен 0


  - это означает, что ось ОХ явл-ся горизонтальной асимптотой.

Найдем 1-ую производную ф-ции для исследования её на экстремум





При х=а, у’=0; при x< a , y’>0 ; при x> a , y’<0.

Отсюда следует, что при х= а ф-ция принимает максимальное значение

График симметричен относительно прямой х=a. Находим 2-ую производную ф-ции для исследования её на точке перегиба







А при переходе через эти точки он меняет знак. В обеих этих точках значение ф-ции равно    следовательно (a-G;) и (a+G;) явл-ся точками перегиба

При а=0 и G=0
Изменение величины матем.ожидания, т.е величины параметра а дифферен.ф-ции нормал.распределения не меняет формы, а приводит её к сдвигу вдоль оси абцисс. При увеличении а сдвиг вправо, при уменьшении а сдвиг влево




При возрастании G максимальная ордината нормал.кривой убывает, а сама кривая становиться более пологой, те.е сжимается к оси ОХ. При уменьшении нормал.кривая становиться более островершинной и растягивается.





Площадь фигуры ограниченной нормал.кривой и осью ОХ при любых значениях параметров а и G будет равно 1.
























































33. Правила 3х сигм

Пусть НСВ Х задана дифферен.ф-цией f(x), тогда по теореме вероят-ти того, что х примет значение принадлежащее интервалу ), будет равна



Пусть НСВ Х подчиняется нормал.закону распределения. В этом случае вероят-ть того, что Х примет значение принадлежащее интервалу ), равна




Можно воспользоваться готовыми таблицами, приведя данную формулу к виду



Определим вероят-ть что отклонение нормал.распреленной величины Х по абсолютной величине будет меньше заданного положительного числа а, т.е. найдем вероят-ть осуществления вероят-ти





На основании выше приведенной формулы получим




В этом случае если параметр а равен 0, мы имеем



Зададим параметру  значение равное Gt . получим . Если =3, то =3, тогда вероят-ть того, что отклонение нормал.распределенной СВ Х по абсолютной величине будет равно 2Ф(3). Данная вероят-ть выражается в существование 3хG
.
Если НСВ подчиняется нормал.закону распределения, то абсолютная величина её отклонения от матем.ожидания не превосходит утроенного вреднего квадратического отклонения.
34. Теорема Ляпунова

При проведении какого-либо статистического исследования, сопровождающегося сбором данных об изучаемом количественном признаке, всегда сталкиваются с проблемой ошибки данных. Проблема может быть вызвана как несовершенства методов и инструментов, используемых при проведении стат. исследования, так и заранее непредусмотренных факторов. Ошибки делятся на систематические и случайные.

Систематические ошибки – ошибки, вызванные несовершенством методов и инструментов, применяемых при проведении исследования. Теоретически все эти ошибки могут быть исключены. Случайные ошибки – ошибки, которые вызваны под воздействием целой совокупности случайных факторов. Результатом совместного действия всех случайных факторов является суммарная случайная ошибка, которую необходимо оценить. Предположим, что осуществляется серия наблюдений, как CВ Х. Ошибки, которые возникают в ходе произведения наблюдений данной СВ, формируются по воздействием многих незавершенных факторов х12, …, хn. В этом случае ошибка , возникающая при наблюдении СВ Х, может быть охарактеризована след.образом  , где f – законность образованных ошибок.

В случае если ф-ция f удовлетворяет условию дифферентности по совокупности всех переменных, тогда ф-ция f может быть предназначена для формулы Пейлора




1-ое линейное приближенное значение ошибки  является суммарной независимой СВ :




Ошибка наблюдения является СВ, поэтому для наиболее точной характеристики данной величины необходимо знать закон распределения вероят-тей СВ . Решение поставленной проблемы было найдено русским математиком Ляпуновым, который открыл централ.предельную теорему теории вероят-тей.

Следствие из теоремы: если СВ Х – сумма очень большого числа попарно-независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то СВ Х подлежит закону распределения, которых близок к нормал.закону распределения вероят-тей СВ.






















35. Ассиметрия и эксцесс

Теоретическим распределением является распределение вероят-тей случайных величин. Подобное распределение изучается в теории вероят-ти. В том случае если изучаемое распределение вероят-тей отличается от нормал. распределения, то возникает необходимость количественной оценки этого различия. Данное оценивание осуществляется с помощью спец. Характеристик (в частности показатели ассиметрии и эксцесса).

Если СВ подчиняется нормал.закону распределения, то в данном случае показатели ассиметрии и эксцесса равны 0. Если ассиметрия и эксцесс имеют небольшие значения, можно предположить, что изучаемое распределение вероят-ти СВ близок к 0. Если же напротив ассиметрия и эксцесс имеют большие значения, то это является признаком значительного отклонения изучаемой величины от нормал.распределения.

Для оценки ассиметрии используется понятие симметрического распределения, график которого симметричен относительно прямой х=М(х). В данном случае каждый централ.момент нечетного порядка равен 0, т.е.

   , когда k=1,3,5…

Для несимметрических распределений централ.моменты нечетного порядка отличны от 0. Следовательно любой из централ.моментов может служить для оценки ассиметрии, кроме централ.момента первого порядка, который равен 0 для любого распределения

.    Оценка ассиметрии осуществляется с помощью централ.момента 3-го порядка. Однако величина данного показателя зависит от единиц, в которых изучается СВ.

Для устранения этого недостатка централ.момент  делят на показатель G
в кубе, сто позволяет получить безразмерную характеристику.

Ассиметрия теоретического распределения – отношение централ.момента 3-го порядка к кубу среднего квадратического отклонения  .   Показатель ассиметрии является положительным, если данная часть кривой распределния на графике расположена справа от М(х) и отрицательным – если слева от М(х).

Показатель эксцесса применяется для оценки большого или меньшего подъема кривой теоретического распределения по сравнению с нормал.кривой. Эксцесс теоретического распределения – это характеристика, которая рассчитывается по формуле  . Если СВ подчиняется нормал.закону распределения, то =0 следовательно  = 3. Если показатель  отличен от 0, то кривая этого распределения отличается от нормал.кривой.

 > 0  => кривая имеет более высокую и острую вершину, чем нормал.кривая.

 < 0  => кривая распределения имеет более низкую и плоскую вершину, чем нормал.кривая. Это при условии, что нормальное и теоретическое распределения имеют одинаковые математ.ожидание и дисперсию.

36. Функция одного случайного аргумента и её распределения

Y
наз-ся ф-ции случайного аргумента х в том случае, если каждому возможному значению СВ Х соответствует одно возможное значение СВ Y :

Необходимо найти распределение ф-ции Y по известному распределению аргумента Х. Рассмотрим несколько решений данной задачи: пусть аргумент Х – дискретная СВ

Если различным возможным значением аргумента Х соответствует различное возможное значение ф-ции Y, то вероят-ти соответствующих значений Х и Y равны между собой. Другими словами возможное значение Y находят из равенства  , где  - возможное значение Х. Вероят-ть возможного знаячения Yнаходят из равенства .

Если различным возможным значениям Х соответствуют значения Y. Среди которых есть одинаковые значения, то вероят-ти повторяющихся значения Y необходимо суммировать. Другими словами вероят-ть повторяющегося значения Y равна сумме вероят-тей тех возможных значений Х, при которых Y принимает одно и тоже значение.

Пусть величина Х – НСВ в том случае, если ф-ция  является дифференцируемой в строго возрастающей или строго убывающей ф-цией, то дифференцируемая ф-ция q
(
y
)
СВ Y определяется равенством


37. Математ.ожидание, функции одного аргумента

Пусть задана ф-ция  случайного аргумента Х. Задача состоит в нахождении М(Y) при известном законе распределения аргумента Х. 2 способа:

Аргумент Х задан как дискретная СВ с возможными значениями х12, …, хn. Вероят-ти данных возможных значений соответственно равны р12, …, рn. СВ Y также является дискретной величиной с возможными значениями

 ,   ,  …, 

Если СВ Х приняло возможное значение хi => СВ Y примент значение . Тогда вероят-ти возможных значения СВ Y также равны р12, …, рn. Таким образом матем.ожидание ф-ции  можно найти по формуле

1.      Аргумент Х является НСВ, которая задана дифферен.ф-цией . В данном случае матем.ожидание  может быть рассчитано двумя способами:

1)          Можно рассчитать дифферен.ф-цию q
(
y
)
случайной величины Y, а затем применить формулу:

2)          Если расчет дифферен.ф-ции q
(
y
)
является достаточно трудоемким, то матем.ожидание ф-ции  можно найти по формуле

Если возможные значения СВ Х принадлежат интервалу (a;b), то матем.ожидание находят по формуле
38. Функция двух случайных величин.Распределение суммы независимых слагаемых.

Если каждой паре возможных значений случайных величин Х и Y соответ-ствует одно возможное значение случайной величины Z, то Z
называют функцией двух случайных аргументов X
и YZ
= φ
(X
,
Y
).

Рассмотрим в качестве такой функции сумму Х + Y. В некоторых случаях можно найти ее закон распределения, зная законы распределения слагаемых.

1) Если  X
и Y
– дискретные независимые случайные величины, то для определения закона распределения   Z
= Х +
Y
нужно найти все возможные значения Z
и соответствующие им вероятности.

2)      Если  X
и Y
– непрерывные независимые случайные величины, то, если плотность вероятно-сти хотя бы одного из аргументов задана на (-∞, ∞) одной формулой, то плотность суммы g(z) можно найти по формулам

            http://vm.psati.ru/online-tv/10/8.gif     

где f1(x), f2(y) – плотности распределения слагаемых. Если возможные значения аргументов неотрицательны, то

                           http://vm.psati.ru/online-tv/10/9.gifЗамечание. Плотность распределения суммы двух независимых случайных величин называют композицией.



39. Показательное распределение (экспоненциальное)

Это распределение которое описывается деф.функцией вида:

Где -параметр деф.функции  и , таким образом показательное распределение в отличии от нормального задается только . В качестве примера НСВ которая подчиняется показательному закону распределения можно привести временной интервал появления 2х последовательных событий простейшего потока.

Интегральная функция:  На практике часто становится задача отыскания вероятности попадания в (a,b) НСВ Х подчиняющейся показательному закону распределения вероятности который задан интегральной функцией вида

Для решения данной задачи  с учетом того что  получаем  значение функции затабулировано.

Найдем Мат.ожидание НСВ Х распределенной по показательному закону:  в результате 2го интегрирования получаем

Дисперсия НСВ Х распределенной по показательному закону: полученный интеграл находим двукратного применения формулы интегрирования по частям

Среднеквадратическое отклонение НСВ Х:

40. Функцией надежности
R
(
t
)
называют функцию, определяющую вероятность безотказной работы устройства в течение времени t.    Функция надежности.

Пусть элемент (то есть некоторое устройство) начинает работать в момент времени t
0
=
0 и должен проработать в течение периода времени t
.
Обозначим за Т непрерывную случайную величину – время безотказной работы элемента, тогда функция                F(t) = p(T
>
t
) определяет вероятность отказа за время t. Следовательно, вероятность безотказной работы за это же время равна

                                    R(t) = p(T
>
t
) = 1 – F(t).                                       

Эта функция называется функцией надежности.

               Показательный закон надежности.

Часто длительность безотказной работы элемента имеет показательное распределение, то есть

                           F(t) = 1 – e
-
λt
.                      


Следовательно, функция надежности в этом случае имеет вид:

                R(t) = 1 – F(t) = 1 – (1 – e-λt) = e-λt .

Показательным законом надежности называют функцию надежности, определяемую равенством

                                R(t) = e
-
λt
,                                                                      

где λ – интенсивность отказов.

41. Интегральная функция распределения двумерной СВ.

Пусть (ХУ) –двумерная СВ а ху пара действительных чисел. Обозначим через F(x,y) – вероятность события состоящего в том что СВ Х примет значение  <х и в тоже время СВ У <у при изменении чисел х, у будет изменятся F(x,y) т.е F(x,y) рассматривается как функция от х и у.

Интегральная функция распределения двумерной СВ – это функция F(x,y) которая для каждой пары чисел (x,y) определяет вероятность того что СВ Х примет значение<х и в тоже время СВ У <у :

Свойства:

1)значение интегральной функции F(x,y) удовлетворяет: . Док-во: в основе данного свойства лежит определение интегральной функции как вероятности т.е вероятность – это всегда неотрицательное число и меньше 1

2) интегральная функция F(x,y) является неубывающей функцией по каждому аргументу:  если x2>x1 если y2>y1

3) для интегральной функции распределения двумерной СВ справедливо: ;; ;

4) при интегральная функция F(x,y) системы двух СВ становится интегральной функцией компонента х: , при интегральная функция F(x,y) системы двух СВ становится интегральной функцией компонента y .

При помощи интегральной функции F(x,y) системы СВ Х и У можно рассматривать и рассчитать вероятность того что в результате эксперемента случайная точка попадает в полуполосу   . для определения вероятности попадания случайной точки в полуполосу у  применяют формулу :

Для определения вероятности попадания случайной точки в полуполосу х:  следовательно вероятность попадания случайной точки в полуполосу рассчитывается как приращения интегральной функции системы 2х  СВ по одному из аргументов.
42. Деф.функция двумерной НСВ.

Двумерная НСВ может быть задана не только при помощи интегральной но и при помощи деф.функции распределения вероятностей.

Деф.функция распределения двумерной НСВ Х и У это вторая смешенная частная производная от интегральная функции F(x,y):

Если известна деф.функция f(x,y) двумерной СВ то интегральную функцию F(x,y) можно рассчитать по формуле

Свойства:

1)                    деф.функция f(x,y) является неотрицательной  

2)                    двойной несобственный интеграл с бесконечными пределами от деф.функции =1

3)                    если все возможные значения (x,y) принадлежат конечной области Д то







43. (1) Условные законы распределения

Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина приняла определенное значение, называется условным законом распределения.

    Условный закон распределения можно задавать как функцией распределения так и плотностью распределения.

            Условная плотность распределения вычисляется по формулам:

http://www.chem-astu.ru/chair/study/probability-theory/4_Law_of_great_numbers.files/image344.gif

http://www.chem-astu.ru/chair/study/probability-theory/4_Law_of_great_numbers.files/image345.gif

 Условная плотность распределения обладает всеми свойствами плотности распределения одной случайной величины.

 
           

 

           


1. Реферат на тему Where Did UNIX Come From And Why
2. Сочинение В чем смысл названия поэмы Гоголя Мертвые души
3. Реферат на тему Клиническая компьютерная томография
4. Реферат на тему Berger Essay Research Paper In John Berger
5. Курсовая Договоры страхования
6. Контрольная работа на тему Птицеводство и технология производства яиц и мяса птицы
7. Диплом на тему Нефтяной рынок Эстонии
8. Реферат на тему Managing People With Aids Essay Research Paper
9. Реферат на тему Professor Essay Research Paper WRITING TASK
10. Реферат на тему Forests Depleting Essay Research Paper The discussions