Реферат

Реферат Эконометрика 10

Работа добавлена на сайт bukvasha.net: 2015-10-28

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 9.11.2024



Эконометрия – наука, изучающая количественные взаимосвязи экономических объектов и процессов при помощи математических и статистических методов и моделей. Основная задача эконометрии – построение количественно определенных экономико-математических моделей, разработка методов определения их параметров по статистическим данным и анализ их свойств. Наиболее часто используемым математическим аппаратом решения задач данного класса служат методы корреляционно-регрессионного анализа.

1. Основные понятия корреляционно-регрессионного анализа


Понятие корреляции появилось в середине XIX века в работах английских статистиков Ф. Гальтона и К. Пирсона. Этот термин произошел от латинского "correlatio" - соотношение, взаимосвязь. Понятие регрессии (латинское "regressio" - движение назад) также введено Ф. Гальтоном, который, изучая связь между ростом родителей и их детей, обнаружил явление "регрессии к среднему" - рост детей очень высоких родителей имел тенденцию быть ближе к средней величине.

Теория и методы корреляционного анализа используются для выявления связи между случайными переменными и оценки ее тесноты.

Основной задачей регрессионного анализа является установление формы и изучение зависимости между переменными.

В общем случае две величины могут быть связаны функциональной зависимостью, либо зависимостью другого рода, называемой статистической, либо быть независимыми.

Статистической называется зависимость, при которой изменение одной из величин влечет изменение распределения другой.

Статистическая зависимость, при которой изменение одной из величин влечет изменение среднего значения другой, называется корреляционной.

Корреляционные зависимости занимают промежуточное положение между функциональной зависимостью и полной независимостью переменных.

Между величинами, характеризующими экономические явления, в большинстве случаев существуют зависимости, отличные от функциональных. Действительно, в экономике закономерности не проявляются также точно и неизменно, как, например, в физике, химии или астрономии.

Пусть, например, мы рассматриваем зависимость величины Y от величины x – y(x).

Невозможность выявления строгой связи между двумя переменными объясняется тем, что значение зависимой переменной Y определяется не только значением переменной x, но и другими (неконтролируемыми или неучтенными) факторами, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками.

Вследствие этого корреляционный анализ широко используется при установлении взаимосвязи экономических показателей.

Итак, если с увеличением x значение зависимой переменной Y в среднем увеличивается, то такая зависимость называется прямой или положительной.

Если среднее значение Y при увеличении x уменьшается, имеет место отрицательная или обратная корреляция.

Если с изменением x значения Y в среднем не изменяются, то говорят, что корреляция – нулевая.
Часто при исследовании взаимосвязи между какими-либо показателями, представляют изучаемый объект в виде так называемого "черного (кибернетического) ящика".

Самый простой случай – изучение связи между одной переменной x, которую называют фактором (входной переменной, независимой переменной), и переменной Y, которую называют откликом (реакцией, зависимой переменной). Ситуации соответствует рисунок 6.1.

В более общем случае итогом функционирования системы является целый набор результирующих величин Ys (). При этом значения откликов Ys определяются, с одной стороны, совокупностью факторов xj (), а, с другой стороны, набором возмущений (случайных, неконтролируемых факторов) xвi (). Такую ситуацию иллюстрирует рисунок 6.2.






Рисунок 6.1 – Представление исследуемой
системы в виде "черного ящика"
(один фактор, один отклик)


Рисунок 6.2 – Представление исследуемой
системы в виде "черного ящика"
(общий случай)


Собственно говоря, на протяжении столетий ученые (особенно, естествоиспытатели) используют подобные приемы, т.е. наблюдают, что произойдет с явлением, процессом (с откликом Y), если изменять значения влияющих на процесс факторов (переменных x).
Корреляционным полем называется множество точек {Xi, Yi} на плоскости XY (рисунки 6.3 - 6.4).






Рисунок 6.3 – Пример корреляционного поля
(положительная корреляция)


Рисунок 6.4 – Пример корреляционного поля
(отрицательная корреляция)


Если точки корреляционного поля образуют эллипс, главная диагональ которого имеет положительный угол наклона ( / ), то имеет место положительная корреляция (пример подобной ситуации можно видеть на рисунке 6.3).

Если точки корреляционного поля образуют эллипс, главная диагональ которого имеет отрицательный угол наклона ( \ ), то имеет место отрицательная корреляция (пример изображен на рисунке 6.4).

Если же в расположении точек нет какой-либо закономерности, то говорят, что в этом случае наблюдается нулевая корреляция.

2. Линейная парная регрессия
Связь зависимой переменной с одной или несколькими независимыми переменными описывается с помощью уравнения регрессии:

= f(x1, x2, ..., xm).

 

Это уравнение показывает, каково будет в среднем значение y, если переменные x примут конкретные значения.

Если независимая переменная одна, то регрессия называется парной.

Построение уравнения регрессии включает два этапа:

1) определение вида зависимости (этап спецификации);

2) определение коэффициентов регрессии (этап идентификации).
Предположим, на этапе спецификации установлено, что между величинами x и y существует линейная зависимость. Реальные значения y будут отличаться от этой теоретической зависимости.

В общем случае линейное уравнение связи двух переменных, учитывающее случайные отклонения, можно представить в виде:

y = + x + ,

(6.1)

где – отклонение от теоретически предполагаемого значения;

и - неизвестные параметры (коэффициенты регрессии).

В уравнении (6.1) можно выделить две части:

 систематическую, = + x, где характеризует некоторое среднее значение y для данного значения x;

 случайную ().

Коэффициенты и описывают вид зависимости для генеральной совокупности. Так как при выполнении подобных исследований всегда имеют дело с выборочной совокупностью, то истинные значения параметров и являются неизвестными, и мы можем говорить лишь об их оценках. Обозначим эти оценки, соответственно, а и b, тогда уравнение регрессии с оцененными параметрами будет иметь вид:

i = a + bxi,  

(6.2)

где n - объем выборки.

Обозначим через ei отклонение реального значения отклика yi от теоретически рассчитанного по уравнению i.
Параметры a и b уравнения регрессии чаще всего оцениваются с помощью метода наименьших квадратов (МНК).

Суть его состоит в том, чтобы зная положение точек на плоскости XY, так провести линию регрессии, чтобы сумма квадратов отклонений этих точек от проведенной прямой вдоль оси OY была минимальной.

Математически критерий оценки параметров линейной парной регрессии записывается так:

Q =   =    =    →  min.

 

Условие существования экстремума функции – равенство нулю производной:



= - 2 (yi - a - bxi) = 0,
= - 2 (yi - a - bxi)xi = 0.

Раскрыв скобки и выполнив преобразования, получим систему из двух уравнений с двумя неизвестными:

Frame1

 

Разделив первое уравнение на n, получим:

a + b = ,

 

т.е. метод наименьших квадратов дает прямую, проходящую через точку (, ).

Решая систему, получим расчетные формулы для нахождения коэффициентов уравнения регрессии:



a = - b.

(6.3)

Заметим, что данные значения могут быть легко получены средствами пакета Microsoft Excel. Для вычисления коэффициента a используется функция ОТРЕЗОК, коэффициента b – функция НАКЛОН.

3. Коэффициент линейной корреляции
Величина влияния фактора на исследуемый отклик может быть оценена при помощи коэффициента линейной парной корреляции, характеризующего тесноту (силу) линейной связи между двумя переменными.

Коэффициент можно определить по формуле:

.

(6.4)

Коэффициент обладает следующими свойствами:

1) не имеет размерности, следовательно, сопоставим для величин различных порядков;

2) изменяется в диапазоне от –1 до +1. Положительное значение свидетельствует о прямой линейной связи, отрицательное – об обратной. Чем ближе абсолютное значение коэффициента к единице, тем теснее связь. Считается, что связь достаточно сильная, если коэффициент по абсолютной величине превышает 0,7, и слабая, если он менее 0,3.

Значение коэффициента легко вычисляется при помощи MS Excel (функция КОРРЕЛ).
Величина r2 называется коэффициентом детерминации. Он определяет долю вариации одной из переменных, которая объясняется вариацией другой переменной.

4. Множественная регрессия
В тех случаях, когда необходимо оценить влияние нескольких факторов на исследуемую величину, строится уравнение множественной регрессии.

Если связь является линейной, то уравнение линейной множественной регрессии запишется в виде:

i = a0 + a1xi1 + a2xi2 + ... + amxim,   

 

где m - число учитываемых факторов (независимых переменных),

n - объем выборки.

Рассмотрим случай, когда y зависит от двух переменных – x1 и x2.

Уравнение с оцененными параметрами будет иметь вид:

i = a0 + a1xi1 + a2xi2,  

 

Чтобы определить значения коэффициентов a0, a1 и a2, воспользуемся методом наименьших квадратов.

Как и ранее, задача формулируется следующим образом:

Q =   =    →  min.

 

Приравяв частные производные нулю и выполнив преобразования, получим систему уравнений:

Frame2

 

Решив систему, можно получить формулы для расчета коэффициентов уравнения множественной линейной регрессии (a0, a1, a2).
Рассмотрим более общий случай - зависимость переменной y от m факторов.

Обозначим:

A = {aj}, j = 0, 1, 2, ..., m - вектор оценок параметров регрессии;

Y = {yi}, - вектор значений зависимой переменной;

X = {xij}, ,  j = 0, 1, 2, ..., m - матрица значений независимых переменных;

при этом m - количество независимых переменных, n - объем выборки.

Уравнение регрессии может быть представлено в следующим образом.

Для конкретного yi:

i = a0 + a1xi1 + a2xi2 + ... + amxim,   

(6.5)

или в матричном виде:

Y = A ∙ X,

 


Frame3




Обратите внимание на то, что в матрицу X дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в уравнении (6.5) свободный член a0 умножается на фиктивную переменную xi0, принимающую значение 1 для всех i.

Можно показать, что для общего случая множественной линейной регрессии, коэффициенты уравнения могут быть определены из следующего соотношения:

A = (Xт∙X)-1∙Xт∙Y.

(6.6)

5. Сравнение коэффициентов регрессии
Допустим, в результате анализа получено следующее уравнение регрессии:

y = 2,4 + 0,8x1 + 3,2x2.

 

Если величины x1 и x2 являются соизмеримыми, то мы можем сопоставить влияние факторов x1 и x2 путем непосредственного сравнения соответствующих коэффициентов. В нашем примере можно сказать, что фактор x2 воздействует на y в четыре раза сильнее.

В тех случаях, когда x1 и x2 измеряются в разных величинах для сравнения степени их влияния прибегают к нормированию коэффициентов регрессии и определяют так называемый бета-коэффициент ():

j = aj,

(6.7)

где aj - соответствующий коэффициент уравнения регрессии;

,   - среднеквадратическое отклонение значений переменной xj (m – число учитываемых факторов);
  - среднеквадратическое отклонение значений переменной y.

Математически бета-коэффициент показывает, на какую часть величины среднеквадратического отклонения меняется среднее значение зависимой переменной с изменением независимой переменной на одно среднеквадратическое отклонение при фиксированном на постоянном уровне значении остальных независимых переменных.

Заметим, что некоторые авторы именуют бета-коэффициент стандартизированным коэффициентом регрессии.
Для целей сравнения коэффициентов регрессии (сравнения силы влияния каждого фактора на отклик) также может быть использован коэффициент эластичности (Э):

Эj = aj.

(6.8)

Коэффициент эластичности показывает, на сколько процентов изменяется зависимая переменная при изменении соответствующего фактора на один процент.

6. Коэффициент множественной корреляции
Экономические явления чаще всего адекватно описываются именно многофакторными моделями. Поэтому возникает необходимость обобщить рассмотренное выше корреляционное отношение (6.4) на случай нескольких переменных.

Теснота линейной взаимосвязи между переменной y и рядом переменных xj, рассматриваемых в целом, может быть определена с помощью коэффициента множественной корреляции.

Предположим, что переменная y испытывает влияние двух переменных - x и z. В этом случае коэффициент множественной корреляции может быть определен по формуле:

.

(6.9)

где ryx, ryz, rxz - простые коэффициенты линейной парной корреляции, определенные из соотношения (6.4).

Коэффициент множественной корреляции заключен в пределах 0 ≤ R ≤ 1. Он не меньше, чем абсолютная величина любого парного или частного коэффициента корреляции с таким же первичным индексом.

С помощью множественного коэффициента (по мере приближения R к 1) делается вывод о тесноте взаимосвязи, но не о ее направлении. Величина R2, называемая множественным коэффициентом детерминации, показывает, какую долю вариации исследуемой переменной (y) объясняет вариация остальных учтенных переменных (x, z).

7. Коэффициент частной корреляции
Иногда представляет интерес измерение частных зависимостей (между y и xj) при условии, что воздействие других факторов, принимаемых во внимание, устранено. В качестве соответствующих измерителей приняты коэффициенты частной корреляции.

Рассмотрим порядок расчета коэффициента частной корреляции для случая, когда во взаимосвязи находятся три случайные переменные – x, y, z. Для них могут быть получены простые коэффициенты линейной парной корреляции – ryx, ryz, rxz. Однако большая величина этого коэффициента может быть обусловлена не только тем, что y и x действительно связаны между собой, но и в силу того, что обе переменные испытывают сильное действие третьего фактора – z.

Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и x) при условии, что влияние на них третьего фактора (z) устранено.

Соответствующая расчетная формула:

.

(6.10)

Частный коэффициент корреляции, так же как и парный коэффициент корреляции r (рассчитанный по формуле (6.4)), может принимать значения от -1 до 1.

8. Оценка параметров нелинейной регрессии
Пусть предварительный анализ исходной информации дает основание предполагать, что регрессионная зависимость носит нелинейный характер. Пример корреляционного поля, соответствующего нелинейной зависимости, представлен на рисунке 6.5.

Рисунок 6.5 – Пример корреляционного поля (нелинейная зависимость)


Рассмотрим в качестве примера следующее уравнение регрессии:

= a0 + a1x1 + a2 + a3x2 + a4 .

(6.11)

Пусть необходимо определить коэффициенты уравнения.

В этом случае, как правило, выполняют линеаризующие преобразования переменных.

Введем обозначения:

z1 = x1;  z2 = ;  z3 = x2;   z4 = .

 

Тогда исходное уравнение (6.11) примет вид:

= a0 + a1z1 + a2z2 + a3z3 + a4z4 .

(6.12)

Уравнение (6.12) представляет собой уравнение линейной регрессии с четырьмя независимыми переменными. Коэффициенты последнего уравнения находятся по уже известной нам формуле (6.6):

A = (Zт∙Z)-1∙Zт∙Y.

 

После нахождения коэффициентов необходимо выполнить обратные преобразования для возврата к исходным переменным.

9. Индекс корреляции
Индекс корреляции используется для выявления тесноты связи между переменными в случае нелинейной зависимости.

Он показывает тесноту связи между фактором x и зависимой переменной y:

.

(6.13)

где ei = yi - i - величина ошибки, т.е. отклонение фактических значений зависимой переменной от рассчитанных по уравнению регрессии.

Индекс корреляции есть неотрицательная величина, не превосходящая 1: 0 ≤ Iyx ≤ 1.

Связь тем сильнее, чем ближе Iyx к единице.

В случае линейной зависимости Iyx = | ryx |. Расхождение между Iyx (формула (6.13)) и ryx (формула (6.4)) может быть использовано для проверки линейности корреляционной зависимости.

10. Проблема мультиколлинеарности
При разработке структуры уравнения регрессии сталкиваются с явлением мультиколлинеарности. Под мультиколлинеарностью понимают взаимосвязь независимых переменных уравнения регрессии.

Пусть имеется уравнение регрессии:

= a0 + a1x1 + a2x2 .

 

Переменные x1 и x2 могут находиться в некоторой линейной зависимости между собой. Эта зависимость может быть функциональной, тогда имеет место строгая мультиколлинеарность переменных. Чаще, однако, взаимосвязь между переменными не столь жестка и проявляется лишь приблизительно, в этом случае мультиколлинеарность называется нестрогой.

Одно из основных предположений метода наименьших квадратов заключается в том, что между независимыми переменными нет линейной связи. Нарушение этого условия будет приводить к тому, что получаемое уравнение регрессии будет ненадежным, и незначительное изменение исходных выборочных данных будет приводить к резкому изменению оценок параметров.

Для обнаружения мультиколлинеарности вычисляется матрица парных коэффициентов корреляции, охватывающая все сочетания независимых переменных. Коэффициенты, близкие по значению к ±1, свидетельствуют о наличии мультиколлинеарности между соответствующими переменными.

Устранение проблемы достигается путем пересмотра структуры уравнения регрессии.

Самый простой способ – исключение из модели одной из двух переменных, находящихся во взаимосвязи.

11. Проверка адекватности модели регрессии
Действия, выполняемые в данном случае, представляют собой процесс (этап) верификации модели регрессии, т.е. процесс, в ходе которого подвергается анализу качество полученной модели.

Допустим, имеется уравнение регрессии в линейном или нелинейном виде. Значения определяемые уравнением - i , тогда фактические значения можно представить как:

yi = i + ei ,

 

где ei - случайная (остаточная) компонента.

Анализ остаточной компоненты (остаточного ряда) позволяет оценить качество полученнного уравнения регрессии. Качество характеризуется выполнением определенных статистических свойств и точностью, т.е. степенью близости к фактическим данным. Модель считается хорошей со статистической точки зрения, если она адекватна и достаточно точна. Смысл используемых терминов характеризуют рисунки 6.6 и 6.7.






Рисунок 6.6 – Пример модели регрессии
(модель адекватна, но не точна)


Рисунок 6.7 – Пример модели регрессии
(модель точна, но не адекватна)


Оценить адекватность модели позволяет анализ случайной компоненты ei. Модель считается адекватной исследуемому процессу, если:

1) математическое ожидание значений остаточного ряда близко или равно нулю;

2) значения остаточного ряда случайны;

3) независимы;

4) подчинены нормальному закону распределения.

Таким образом, анализ адекватности модели разбивается на несколько этапов.
1. Равенство нулю математического ожидания ряда остатков означает выполнение следующего соотношения:



 

Однако в случае применения метода наименьших квадратов такая проверка является излишней, поскольку использование МНК предполагает выполнение равенства , откуда безусловным образом следует равенство нулю математического ожидания значений остаточного ряда.
2. Проверка случайности последовательности ei проводится с помощью критерия пиков (поворотных точек). Каждое значение ряда (ei) сравнивается с двумя, рядом стоящими. Точка считается поворотной, если она либо больше и предыдущего и последующего значения, либо меньше и предыдущего и последующего значения.

В случайном ряду должно выполняться строгое неравенство:

,

(6.14)

где p - число поворотных точек;

[ ] - целая часть результата вычислений.
3. При проверке независимости значений ei определяется отсутствие в остаточном ряду автокорреляции, под которой понимается корреляция между элементами одного и того же числового ряда. В нашем случае автокорреляция - это корреляция ряда e1, e2, e3 ... с рядом eL+1, eL+2, eL+3 ... Число L характеризует запаздывание (лаг). Корреляция между соседними членами ряда (т.е. когда L = 1) называется автокорреляцией первого порядка. Далее для остаточного ряда будем рассматривать зависимость между соседними элементами ei.

Значительная автокорреляция говорит о том, что спецификация регрессии выполнена неправильно (неправильно определен тип зависимости).

Наличие автокорреляции может быть выявлено при помощи d-критерия Дарбина-Уотсона. Значение критерия вычисляется по формуле:

.

(6.15)

Эта величина сравнивается с двумя табличными уровнями: нижним - d1 и верхним - d2. Соответствующая статистическая таблица приведена в приложении A. Если полученное значение d больше двух, то перед сопоставлением его нужно преобразовать:

d' = 4 - d.

 

Если d (или d') находится в интервале от нуля до d1 , то значения остаточного ряда сильно автокоррелированы.

Если значение d-критерия попадает в интервал от d2 до 2, то автокорреляция отсутствует.

Если d1 < d< d2 - однозначного вывода об отсутствии или наличии автокорреляции сделать нельзя и необходимо использовать другой критерий, например, коэффициент автокорреляции первого порядка:

.

(6.16)

Если |r(1)| окажется меньше табличного (при n<15 rтабл = 0,36), то гипотеза о наличии автокорреляции отвергается.
4. Соответствие остаточного ряда нормальному распределению проще всего проверить при помощи RS-критерия:

,

(6.17)

где emax - максимальное значение ряда остатков;

emin - минимальное значение ряда остатков;

- среднеквадратическое отклонение значений остаточного ряда.

Если рассчитанное значение попадает между табулированными границами с заданным уровнем вероятности, то гипотеза о нормальном распределении принимается. Соответствующая статистическая таблица приведена в приложении Б.
Для характеристики точности модели наиболее часто вычисляют среднюю относительную ошибку:

.

(6.18)

В отношении величины средней относительной ошибки, как правило, делают следующие выводы. Величина менее 5% свидетельствует о хорошем уровне точности, ошибка до 15% считается приемлемой.

12. Построение точечных и интервальных прогнозов
C помощью построенной регрессионной модели можно не только анализировать какой-либо процесс, но и прогнозировать значения зависимой переменной при каких-либо заданных значениях факторов.

Модель регрессии позволяет проводить как экстраполяцию, так и интерполяцию значений. Интерполяция - прогнозирование значений зависимой переменной y для значений фактора x, принадлежащих интервалу [xmin; xmax]. Экстраполяция - прогнозирование значений зависимой переменной y для значений фактора x, выходящих за границы интервала [xmin; xmax], чаще всего, при x > xmax.

Точечный прогноз получается путем простой подстановки соответствующих значений x в уравнение регрессии.

Зачастую значения факторов, для которых нужно сделать прогноз значения зависимой переменной, получают на основе среднего прироста значений фактора внутри выборочной совокупности:

,

(6.19)

где xmax и xmin - соответственно, максимальное и минимальное значение переменной x в выборочной совокупности.

При выполнении экстраполяции для определения конкретного значения х, используемого для расчета прогнозного значения y, можно использовать формулу:

xk = xmax + ∙ k ,

(6.20)

при прогнозе на один шаг k = 1, на два шага - k = 2 и т.д.

Подставляя полученное значение в уравнение регрессии, получим точечный прогноз величины y.

Однако вероятность точного "попадания" значения y в эту точку достаточно мала. Поэтому представляет интерес вычисление перспективных оценок значений y в виде доверительных интервалов.

Доверительные границы прогноза определяются по формуле:

граница прогноза = k ± Uk,

(6.21)

где k - точечный прогноз величины y,

Uk - величина отклонения от точечного значения, соответствующая исследуемой точке xk и заданному уровню вероятности.

Величина Uk для линейной модели рассчитывается по формуле:

.

(6.22)

где S - среднеквадратическое отклонение значений остаточного ряда из формулы (6.17),

kp - табличное значение t-статистики Стьюдента (соответствующая статистическая таблица приведена в приложении В) для заданной вероятности попадания прогнозируемой величины внутрь доверительного интервала.
И если построенная модель регрессии адекватна, то с выбранной вероятностью можно утверждать, что при сохранении сложившихся закономерностей функционирования изучаемой системы прогнозируемая величина попадет в интервал, образованный нижней и верхней границами.
Приложение А.
Значения критерия Дарбина-Уотсона


В таблице приведены значения критерия Дарбина-Уотсона для уровня значимости 5% (m - число независимых переменных уравнения регрессии).

Число наблюдений (n)

m = 1

m = 2

m = 3

m = 4

m = 5

d1

d2

d1

d2

d1

d2

d1

d2

d1

d2

15
20
30
50
100

1,08
1,20
1,35
1,50
1,65

1,36
1,41
1,49
1,59
1,69

0,95
1,10
1,28
1,46
1,63

1,54
1,54
1,57
1,63
1,72

0,82
1,00
1,21
1,42
1,61

1,75
1,68
1,65
1,67
1,74

0,69
0,90
1,14
1,38
1,59

1,97
1,83
1,74
1,72
1,76

0,56
0,79
1,07
1,34
1,57

2,21
1,99
1,83
1,47
1,78

Приложение Б.
Критические границы отношения R/S


Объем выборки (n)

Нижние границы

Верхние границы

Вероятность ошибки

0,000

0,005

0,01

0,025

0,05

0,10

0,10

0,05

0,025

0,01

0,005

0,000

3
4
5

6
7
8
9
10

11
12
13
14
15

16
17
18
19
20

1,732
1,732
1,826

1,826
1,821
1,821
1,897
1,897

1,915
1,915
1,927
1,927
1,936

1,936
1,944
1,944
1,949
1,949

1,735
1,83
1,98

2,11
2,22
2,31
2,39
2,46

2,53
2,59
2,64
2,70
2,74

2,79
2,83
2,87
2,90
2,94

1,737
1,87
2,02

2,15
2,26
2,35
2,44
2,51

2,58
2,64
2,70
2,75
2,80

2,84
2,88
2,92
2,96
2,99

1,745
1,93
2,09

2,22
2,33
2,43
2,51
2,59

2,66
2,72
2,78
2,83
2,88

2,93
2,97
3,01
3,05
3,09

1,758
1,98
2,15

2,28
2,40
2,50
2,59
2,67

2,74
2,80
2,86
2,92
2,97

3,01
3,06
3,10
3,14
3,18

1,782
2,04
2,22

2,37
2,49
2,59
2,68
2,76

2,84
2,90
2,96
3,02
3,07

3,12
3,17
3,21
3,25
3,29

1,997
2,409
2,712

2,949
3,143
3,308
3,449
3,57

3,68
3,78
3,87
3,95
4,02

4,09
4,15
4,21
4,27
4,32

1,999
2,429
2,753

3,012
3,222
3,399
3,552
3,685

3,80
3,91
4,00
4,09
4,17

4,24
4,31
4,37
4,43
4,49

2,000
2,439
2,782

3,056
3,282
3,471
3,634
3,777

3,903
4,02
4,12
4,21
4,29

4,37
4,44
4,51
4,57
4,63

2,000
2,445
2,803

3,095
3,338
3,543
3,720
3,875

4,012
4,134
4,244
4,34
4,44

4,52
4,60
4,67
4,74
4,80

2,000
2,447
2,813

3,115
3,369
3,585
3,772
3,935

4,079
4,208
4,325
4,431
4,53

4,62
4,70
4,78
4,85
4,91

2,000
2,449
2,828

3,162
4,465
3,742
4,000
2,243

4,472
4,690
4,899
5,099
5,292

5,477
5,657
5,831
6,000
6,164

Приложение В.
Процентные точки распределения Стьюдента


Степень свободы

Вероятность

40%

25%

10%

5%

2,5%

1%

0,5%

0,25%

0,1%

0,05%

1
2
3
4
5

6
7
8
9
10

11
12
13
14
15

16
17
18
19
20

0,3249
2887
2767
2707
2672

0,2648
2632
2619
2610
2602

0,2696
2590
2586
2582
2579

0,2576
2573
2571
2569
2567

1,0000
0,8561
7649
7407
7267

0,7176
7111
7064
7027
6998

0,6974
6955
6934
6924
6912

0,6901
6892
6884
6874
6870

3,0777
1,8856
6377
5332
4759

1,4398
4149
3968
3830
3722

1,3634
3562
3502
3450
3406

1,3368
3334
3304
3277
3253

6,3138
2,9200
3534
1318
2,0150

1,9432
8946
8595
8331
8125

1,7959
7823
7709
7613
7530

1,7459
7396
7341
7291
7247

12,7062
4,3027
3,1824
2,7764
5706

2,4469
3646
3060
2622
2281

2,2010
1788
1604
1448
1314

2,1199
1098
1009
0930
0860

31,8205
6,9646
4,5407
3,7469
3649

3,1427
2,9980
8965
8214
7638

2,7181
6810
6503
6245
6025

2,5835
5696
5524
5395
5280

63,6567
9,9248
5,8409
4,6041
4,0321

3,7074
4995
3554
2498
1693

3,1058
0554
3,0123
2,9768
9467

2,9208
8982
8784
8609
8453

127,3213
14,0890
7,4533
5,5976
4,7733

4,3168
4,0293
3,8325
6897
5814

3,4966
4284
3725
3257
2860

3,2520
2224
1966
1737
1534

318,3088
22,3271
10,2145
7,1732
5,8934

5,2076
4,7854
5008
2968
1437

4,0247
3,9296
8520
7874
7328

3,6862
6458
6105
5794
5518

636,6192
31,5991
12,9240
8,6103
6,8688

5,9588
4079
5,0413
4,7809
5869

4,4370
3178
2208
1405
0728

4,0150
3,9651
9216
8834
8495



25



1. Реферат Оценка земельного участка
2. Кодекс и Законы Организация безналичных расчетов и проблемы их совершенствования
3. Реферат Перспективы развития банковской системы
4. Реферат на тему Steroids Essay Research Paper STEROIDS 2
5. Реферат Свойства пространства и времени с точки зрения современной науки
6. Реферат на тему Marajuana Essay Research Paper A major issue
7. Реферат Наркоманія чума XX століття 2
8. Реферат на тему Zinc Hyperaccumulation Essay Research Paper Zinc hyperaccumulation
9. Реферат Правительственная хунта национальной реконструкции
10. Контрольная работа Специфика понятия бытия, основные постулаты и система их доказательств в элейской школе