Реферат

Реферат Методы первичной статистической обработки результатов эксперимента

Работа добавлена на сайт bukvasha.net: 2015-10-28

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 11.11.2024




МЕТОДЫ ПЕРВИЧНОЙ СТАТИСТИЧЕСКОЙ ОБРАБОТКИ РЕЗУЛЬТАТОВ ЭКСПЕРИМЕНТА

Методами статистической обработки результатов эксперимента называются математические приемы, формулы, способы количественных расчетов, с помощью которых показатели, получаемые в ходе эксперимента, можно обобщать, приводить в систему, выявляя скрытые в них закономерности. Речь идет о таких закономерностях статистического характера, которые существуют между изучаемыми в эксперименте переменными величинами.

Некоторые из методов математико-статистического анализа позволяют вычислять так называемые элементарные математические статистики, характеризующие выборочное распределение данных, например выборочное среднее, выборочная дисперсия, мода, медиана и ряд других. Иные методы математической статистики, например дисперсионный анализ, регрессионный анализ, позволяют судить о динамике изменения отдельных статистик выборки. С помощью третьей группы методов, скажем, корреляционного анализа, факторного анализа, методов сравнения выборочных данных, можно достоверно судить о статистических связях, существующих между переменными величинами, которые исследуют в данном эксперименте.

Все методы математико-статистического анализа условно делятся на первичные и вторичные. Первичными называют методы, с помощью которых можно получить показатели, непосредственно отражающие результаты производимых в эксперименте измерений. Соответственно под первичными статистическими показателями имеются в виду те, которые применяются в самих психодиагностических методиках и являются итогом начальной статистической обработки результатов психодиагностики. Вторичными называются методы статистической обработки, с помощью которых на базе первичных данных выявляют скрытые в них статистические закономерности.

К первичным методам статистической обработки относят, например, определение выборочной средней величины, выборочной дисперсии, выборочной моды и выборочной медианы. В число вторичных методов обычно включают корреляционный анализ, регрессионный анализ, методы сравнения первичных статистик у двух или нескольких выборок.

Рассмотрим методы вычисления элементарных математических статистик, начав с выборочного среднего.

Выборочное среднее значение как статистический показатель представляет собой среднюю оценку изучаемого в эксперименте психологического качества. Эта оценка характеризует степень его развития в целом у той группы испытуемых, которая была подвергнута психодиагностическому обследованию. Сравнивая непосредственно средние значения двух или нескольких выборок, мы можем судить об относительной степени развития у людей, составляющих эти выборки, оцениваемого качества.

Выборочное среднее определяется при помощи следующей формулы:


1 Приводимые здесь определения и высказывания не всегда являются достаточно строгими с точки зрения теории вероятностей и математической статистики как сложившихся областей современной математики. Это сделано для лучшего понимания данного текста студентами, не подготовленными в области математики:

где х — выборочная средняя величина или среднее арифметическое значение по выборке; п — количество испытуемых в выборке или частных психодиагностических показателей, на основе которых вычисляется средняя величина; хк — частные значения показателей у отдельных испытуемых. Всего таких показателей п, поэтому индекс k данной переменной принимает значения от 1 до п; Е — принятый в математике знак суммирования величин тех переменных, которые находятся справа от этого знака. Выражение X х к соответственно означает сумму всех х с индексом k от

1 до п.

Пример. Допустим, что в результате применения психодиагностической методики для оценки некоторого психологического свойства у десяти испытуемых мы получили следующие частные показатели степени развитости данного свойства у отдельных испытуемых: xi= 5, х2 = 4, х3 = 5, х4 = 6, х5 = 7, *6 = 3, х7 = 6, х& = 2, хд= 8, хт = 4. Следовательно, п = 10, а индекс kменяет свои значения от 1 до 10 в приведенной выше формуле. Для данной выборки среднее значение1, вычисленное по этой формуле, будет равно:


В психодиагностике и в экспериментальных психолого-педагогических исследованиях среднее, как правило, не вычисляется с точностью, превышающей один знак после запятой, т.е. с большей, чем десятые доли единицы. В психодиагностических обследованиях большая точность расчетов не требуется и не имеет смысла, если принять во внимание приблизительность тех оценок, которые в них получаются, и достаточность таких оценок для производства сравнительно точных расчетов.

Дисперсия как статистическая величина характеризует, насколько частные значения отклоняются от средней величины в данной выборке. Чем больше дисперсия, тем больше отклонения

1 В дальнейшем, как это и принято в математической статистике, с целью сокращения текста мы будем опускать слова «выборочное» и «арифметическое» и просто говорить о «среднем» или «среднем значении».

Прежде чем представлять формулу для расчетов дисперсии, рассмотрим пример. Воспользуемся теми первичными данными, которые были приведены ранее и на основе которых вычислялась в предыдущем примере средняя величина. Мы видим, что все они разные и отличаются не только друг от друга, но и от средней величины. Меру их общего отличия от средней величины и характеризует дисперсия. Ее определяют для того, чтобы можно было отличать друг от друга величины, имеющие одинаковую среднюю, но разный разброс. Представим себе другую, отличную от предыдущей выборку первичных значений, например такую: 5, 4, 5, 6, 5, 6, 5, 4, 5, 5. Легко убедиться в том, что ее средняя величина также равна 5,0. Но в данной выборке ее отдельные частные значения отличаются от средней гораздо меньше, чем в первой выборке. Выразим степень этого отличия при помощи дисперсии, которая определяется по следующей формуле:

где S— выборочная дисперсия, или просто дисперсия;


— выражение, означающее, что для всех хк от первого до последнего в данной выборке необходимо вычислить разности между частными и средними значениями, возвести эти разности в квадрат и просуммировать;

п — количество испытуемых в выборке или первичных значений, по которым вычисляется дисперсия.



 

Определим дисперсии для двух приведенных выше выборок частных значений, обозначив эти дисперсии соответственно индексами 1 и 2:

Мы видим, что дисперсия по второй выборке (0,4) значительно меньше дисперсии по первой выборке (3,0). Если бы не было дисперсии, то мы не в состоянии были бы различить данные выборки.

Иногда вместо дисперсии для выявления разброса частных данных относительно средней используют производную от дисперсии величину, называемую выборочное отклонение. Оно равно квадратному корню, извлекаемому из дисперсии, и обозначается тем же

самым знаком, что и дисперсия, только без квадрата— S:


Медианой называется значение изучаемого признака, которое делит выборку, упорядоченную по величине данного признака, пополам. Справа и слева от медианы в упорядоченном ряду остается по одинаковому количеству признаков. Например, для выборки 2, 3, 4, 4, 5, 6, 8, 7, 9 медианой будет значение 5, так как слева и справа от него остается по четыре показателя. Если ряд включает в себя четное число признаков, то медианой будет среднее, взятое как полусумма величин двух центральных значений ряда. Для следующего ряда 0, 1,1, 2, 3, 4, 5, 5, 6, 7 медиана будет равна 3,5.

Знание медианы полезно для того, чтобы установить, является ли распределение частных значений изученного признака симметричным и приближающимся к так называемому нормальному распределению. Средняя и медиана для нормального распределения обычно совпадают или очень мало отличаются друг от друга. Если выборочное распределение признаков нормально, то к нему можно применять методы вторичных статистических расчетов, основанные на нормальном распределении данных. В противном случае этого делать нельзя, так как в расчеты могут вкрасться серьезные ошибки.

Если в книге по математической статистике, где Описывается тот или иной метод статистической обработки, имеются указания на то, что его можно применять только к нормальному или близкому к нему распределению признаков, то необходимо не-укоснительно следовать этому правилу и полученное эмпирическое распределение признаков проверять на нормальность. Если такого указания нет, то статистика применима к любому распределению признаков. Приблизительно судить о том, является или не является полученное распределение близким к нормальному, можно, построив график распределения данных, похожий на те, которые представлены на рис. 72. Если график оказывается более или менее симметричным, значит, к анализу данных можно применять статистики, предназначенные для нормального распределения. Во всяком случае, допустимая ошибка в расчетах в данном случае будет относительно небольшой.

Приблизительные картины симметричного и несимметричного распределений признаков показаны на рис. 72, где точками miи т2 на горизонтальной оси графика обозначены те величины

признаков, которые соответствуют медианам, а х\ и Х2 — те, которые соответствуют средним значениям.

 



Рис. Графики симметричного и несимметричного распределения признаков: I — симметричное распределение (все относящиеся к нему элементарные статистики обозначены с помощью индекса 1); II — несимметричное распределение (его первичные статистики отмечены на графике индексом 2).
Мода еще одна элементарная математическая статистика и характеристика распределения опытных данных. Модой называют количественное значение исследуемого признака, наиболее часто встречающееся в выборке. На графиках, представленных на рис. 72, моде соответствуют самые верхние точки кривых, вернее, те значения этих точек, которые располагаются на горизонтальной оси. Для симметричных распределений признаков,' в том числе для нормального распределения, значение моды совпадает со значениями среднего и медианы. Для других типов распределений, несимметричных, это не характерно. К примеру, в последовательности значений признаков 1,2, 5,2,4, 2,6,7,2 модой

является значение 2, так как оно встречается чаще других значений — четыре раза.

Иногда исходных частных первичных данных, которые подлежат статистической обработке, бывает довольно много, и они требуют проведения огромного количества элементарных арифметических операций. Для того чтобы сократить их число и вместе с тем сохранить нужную точность расчетов, иногда прибегают к замене исходной выборки частных эмпирических данных на интервалы. Интервалом называется группа упорядоченных по величине значений признака, заменяемая в процессе расчетов средним значением.

Пример. Представим следующий ряд частных признаков: О, 1,1,2,2,3,3,3,4,4,5,5,5,5,6,6,6,7,7,8,8,8,9,9,9,10,10,11,11, 11. Этот ряд включает в себя 30 значений. Разобьем представленный ряд на шесть подгрупп по пять признаков в каждом. Первая подгруппа включит в себя первые пять цифр, вторая — следующие пять и т.д. Вычислим средние значения для каждой из пяти образованных подгрупп чисел. Они соответственно будут равны 1,2; 3,4; 5,2; 6,8; 8,6; 10,6. Таким образом, нам удалось свести исходный ряд, включающий тридцать значений, к ряду, содержащему всего шесть значений и представленному средними величинами. Это и будет интервальный ряд, а проведенная процедура — разделением исходного ряда на интервалы. Теперь все статистические расчеты мы можем производить не с исходным рядом признаков, а с полученным интервальным рядом, и результаты в равной степени будут относиться к исходному ряду. Однако число производимых в ходе расчетов элементарных арифметических операций будет гораздо меньше, чем количество тех операций, которые с этой же целью пришлось бы проделать в отношении исходного ряда признаков. На практике, составляя интервальный ряд, рекомендуется руководствоваться следующим правилом: если в исходном ряду признаков больше чем тридцать, то этот ряд целесообразно разделить на пять-шесть интервалов и в дальнейшем работать только с ними.

Для проверки сказанного проведем пробное вычисление среднего значения по приведенному выше ряду, составляющему тридцать чисел, и по ряду, включающему только интервальные средние значения. Полученные цифры с точностью до двух знаков после запятой будут соответственно равны 5,97 и 5,97, т.е. являются одинаковыми.
МЕТОДЫ ВТОРИЧНОЙ СТАТИСТИЧЕСКОЙ ОБРАБОТКИ РЕЗУЛЬТАТОВ ЭКСПЕРИМЕНТА

С помощью вторичных методов статистический обработки экспериментальных данных непосредственно проверяются, доказываются или опровергаются гипотезы, связанные с экспериментом. Эти методы, как правило, сложнее, чем методы первичной статистической обработки, и требуют от исследователя хорошей подготовки в области элементарной математики и статистики.

Обсуждаемую группу методов можно разделить на несколько подгрупп: 1. Регрессионное исчисление. 2. Методы сравнения между собой двух или нескольких элементарных статистик (средних, дисперсий и т.п.), относящихся к разным выборкам. 3. Методы установления статистических взаимосвязей между переменными, например их корреляции друг с другом. 4. Методы выявления внутренней статистической структуры эмпирических данных (например, факторный анализ). Рассмотрим каждую из выделенных подгрупп методов вторичной статистической обработки на примерах.

Регрессионное исчисление — это метод математической статистики, позволяющий свести частные, разрозненные данные к некоторому линейному графику, приблизительно отражающему их внутреннюю взаимосвязь, и получить возможность по значению одной из переменных приблизительно оценивать вероятное значение другой переменной.

Воспользуемся для графического представления взаимосвязанных значений двух переменных х и у точками на графике (рис. 73). Поставим перед собой задачу: заменить точки на графике линией прямой регрессии, наилучшим образом представляющей взаимосвязь, существующую между данными переменными. Иными словами, задача заключается в том, чтобы через скопление точек, имеющихся на этом графике, провести прямую линию,



Рис. Прямая регрессии YnoX. х и у — средние значения переменных. Отклонения отдельных значений от линии регрессии обозначены вертикальными пунктирными линиями. Величина yt - у является отклонением измеренного значения переменной у. от оценки, а величина у - у является отклонением оценки от среднего значения (Цит. по: Иберла К. Факторный анализ. М., 1980. С. 23).

пользуясь которой по значению одной из переменных, х или у, можно приблизительно судить о значении другой переменной. Для того чтобы решить эту задачу, необходимо правильно найти коэффициенты а и Ь в уравнении искомой прямой:

у = ах + Ь.

Это уравнение представляет прямую на графике и называется уравнением прямой регрессии.
Формулы для подсчета коэффициентов а и Ь являются следующими:


где х., у{ — частные значения переменных Xи Y, которым соответствуют точки на графике;

х, у — средние значения тех же самых переменных;

п — число первичных значений или точек на графике.

Для сравнения выборочных средних величин, принадлежащих к двум совокупностям данных, и для решения вопроса о том, отличаются ли средние значения статистически достоверно друг от друга, нередко используют ^-критерий Стъюдента. Его основная формула выглядит следующим образом:



где х{ — среднее значение переменной по одной выборке данных;

хг — среднее значение переменной по другой выборке данных;

т1ит2 — интегрированные показатели отклонений частных значений из двух сравниваемых выборок от соответствующих им средних величин.

/и, и т2 в свою очередь вычисляются по следующим формулам:


—2

где St— выборочная дисперсия первой переменной (по первой выборке);

—2

5"г — выборочная дисперсия второй переменной (по второй выборке);

я, — число частных значений переменной в первой выборке;

п2 — число частных значений переменной по второй выборке.

После того как при помощи приведенной выше формулы вычислен показатель t, по таблице 32 для заданного числа степеней свободы, равного п{ + п2 - 2, и избранной вероятности допустимой ошибки1,  находят нужное табличное значение t и сравнивают с ними вычисленное значение t. Если вычисленное значение t больше или равно табличному, то делают вывод о том, что сравниваемые средние значения из двух выборок действительно статистически достоверно различаются с вероятностью допустимой ошибки, меньшей или равной избранной. Рассмотрим процедуру вычисления t-критерия Стъюдента и определения на его основе разницы в средних величинах на конкретном примере. (таблица 1)

Допустим, что имеются следующие две выборки экспериментальных данных: 2, 4, 5, 3, 2, 1, 3, 2, 6, 4 и 4, 5, 6, 4, 4, 3, 5, 2, 2, 7. Средние значения по этим двум выборкам соответственно равны 3,2 и 4,2. Кажется, что они существенно друг от друга отличаются.

Но так ли это и насколько статистически достоверны эти различия? На данный вопрос может точно ответить только статистический анализ с использованием описанного статистического критерия. Воспользуемся этим критерием.



Поставим найденные значения дисперсий в формулу для подсчета mat к вычислим показатель t

Определим сначала выборочные дисперсии для двух сравниваемых выборок значений:

Сравним его значение с табличным для числа степеней свободы 10+10-2 = 18. Зададим вероятность допустимой ошибки, равной 0,05, и убедимся в том, что для данного числа степеней свободы и заданной вероятности допустимой ошибки значение tдолжно быть не меньше чем 2,10. У нас же этот показатель оказался равным 1,47, т.е. меньше табличного. Следовательно, гипотеза о том, что выборочные средние, равные в нашем случае 3,2 и 4,2, статистически достоверно отличаются друг от друга, не подтвердилась, хотя на первый взгляд казалось, что такие различия существуют.

Вероятность допустимой ошибки, равная и меньшая чем 0,05, считается достаточной для научно убедительных выводов. Чем меньше эта вероятность, тем точнее и убедительнее делаемые выводы. Например, избрав вероятность допустимой ошибки, равную 0,05, мы обеспечиваем точность расчетов 95% и допускаем ошибку, не превышающую 5%, а выбор вероятности допустимой ошибки 0,001 гарантирует точность расчетов, превышающую 99,99%, или ошибку, меньшую чем 0,01%.

Описанная методика сравнения средних величин по критерию Стъюдента в практике применяется тогда, когда необходимо, например, установить, удался или не удался эксперимент, оказал или не оказал он влияние на уровень развития того психологического качества, для изменения которого предназначался. Допустим, что в некотором учебном заведении вводится новая экспериментальная программа или методика обучения, рассчитанная на то, чтобы улучшить знания учащихся, повысить уровень их интеллектуального развития. В этом случае выясняется причинно-следственная связь между независимой переменной — программой или методикой и зависимой переменной — знаниями или уровнем интеллектуального развития. Соответствующая гипотеза гласит: «Введение новой учебной программы или методики обучения должно будет существенно улучшить знания или повысить уровень интеллектуального развития учащихся».

Предположим, что данный эксперимент проводится по схеме, предполагающей оценки зависимой переменной в начале и в конце эксперимента. Получив такие оценки и вычислив средние по всей изученной выборке испытуемых, мы можем воспользоваться критерием Стъюдента для точного установления наличия или отсутствия статистически достоверных различий между средними до и после эксперимента. Если окажется, что они действительно достоверно различаются, то можно будет сделать определенный вывод о том, что эксперимент удался. В противном случае нет убедительных оснований для такого вывода даже в том случае, если сами средние величины в начале и в конце эксперимента по своим абсолютным значениям различны.

Иногда в процессе проведения эксперимента возникает специальная задача сравнения не абсолютных средних значений некоторых величин до и после эксперимента, а частотных, например процентных, распределений данных. Допустим, что для экспериментального исследования была взята выборка из 100 учащихся и с ними проведен формирующий эксперимент. Предположим также, что до эксперимента 30 человек успевали на «удовлетворительно», 30 — на «хорошо», а остальные 40 — на «отлично». После эксперимента ситуация изменилась. Теперь на «удовлетворительно» успевают только 10 учащихся, на «хорошо» — 45 учащихся и на «отлично» — остальные 45 учащихся. Можно ли, опираясь на эти данные, утверждать, что формирующий эксперимент, направленный на улучшение успеваемости, удался? Для ответа на данный вопрос можно воспользоваться статистикой, называемой х2-критерий («хи-квадрат критерий»). Его формула выглядит следующим образом:


где Рк — частоты результатов наблюдений до эксперимента;

Vk— частоты результатов наблюдений, сделанных после эксперимента;

т — общее число групп, на которые разделились результаты наблюдений.

Воспользуемся приведенным выше примером для того, чтобы показать, как работает хи-квадрат критерий. В данном примере переменная Рк принимает следующие значения: 30%, 30%, 40%, а переменная Vk— такие значения: 10%, 45%, 45%.

Подставим все эти значения в формулу для %2 и определим его величину:



Воспользуемся теперь таблицей 2, где для заданного числа степеней свободы можно выяснить степень значимости образовавшихся различий до и после эксперимента в распределении оценок. Полученное нами значение х2 = 21,5 больше соответствующего табличного значения т - 1 = 2 степеней свободы, составляющего 13,82 при вероятности допустимой ошибки меньше чем 0,001. Следовательно, гипотеза о значимых изменениях, которые произошли в оценках учащихся в результате введения новой программы или новой методики обучения, экспериментально подтвердилась: успеваемость значительно улучшилась, и это мы можем утверждать, допуская ошибку, не превышающую 0,001%.

Иногда в психолого-педагогическом эксперименте возникает необходимость сравнить дисперсии двух выборок для того, чтобы решить, различаются ли эти дисперсии между собой. Допустим, что проводится эксперимент, в котором проверяется гипотеза о том, что одна из двух предлагаемых программ или методик обучения обеспечивает одинаково успешное усвоение знаний учащимися с разными способностями, а другая программа или методика этим свойством не обладает. Демонстрацией справедливости такой гипотезы было бы доказательство того, что индивидуальный разброс оценок учащихся по одной программе или методике больше (или меньше), чем индивидуальный разброс оценок по другой программе или методике.

Подобного рода задачи решаются, в частности, при помощи критерия Фишера. Его формула выглядит следующим образом:


где п1 —¦ количество значения признака в первой из сравниваемых выборок; п2 — количество значений признака во второй из сравниваемых выборок; {п1 — 1, п2 — 1) — число степеней свободы; 5f — дисперсия по первой выборке; Si— дисперсия по второй выборке.

Вычисленное с помощью этой формулы значение F-крите-рия сравнивается с табличным (табл. 2), и если оно превосходит табличное для избранной вероятности допустимой ошибки и заданного числа степеней свободы, то делается вывод о том, что гипотеза о различиях в дисперсиях подтверждается. В противоположном случае такая гипотеза отвергается и дисперсии считаются одинаковыми.
1 Если отношение выборочных дисперсий в формуле F-критерия оказывается меньше единицы, то числитель и знаменатель в этой формуле меняют местами и вновь определяют значения критерия.

Примечание. Таблица для граничных значений  распределения приведена в сокращенном виде. Полностью ее можно найти в справочниках по математической статистике, в частности в тех, которые даны в списке дополнительной литературы к этой главе.

Пример. Сравним дисперсии следующих двух рядов цифр с целью определения статистически достоверных различий между ними. Первый ряд: 4,6, 5,7,3,4,5,6. Второй ряд: 2,7, 3,6,1,8, 4, 5. Средние значения для двух этих рядов соответственно равны: 5,0 и 4,5. Их дисперсии составляют: 1,5 и 5,25. Частное от деления большей дисперсии на меньшую равно 3,5. Это и есть искомый показатель F. Сравнивая его с табличным граничным значением 3,44, приходим к выводу о том, что дисперсии двух сопоставляемых выборок действительно отличаются друг от друга на уровне значимости более 95% или с вероятностью допустимой ошибки не более 0,05%.

Следующий метод вторичной статистической обработки, посредством которого выясняется связь или прямая зависимость между двумя рядами экспериментальных данных, носит название метод корреляций. Он показывает, каким образом одно явление влияет на другое или связано с ним в своей динамике. Подобного рода зависимости существуют, к примеру, между величинами, находящимися в причинно-следственных связях друг с другом. Если выясняется, что два явления статистически достоверно коррелируют друг с другом и если при этом есть уверенность в том, что одно из них может выступать в качестве причины другого явления, то отсюда определенно следует вывод о наличии между ними причинно-следственной зависимости.

Имеется несколько разновидностей данного метода: линейный, ранговый, парный и множественный. Линейный корреляционный анализ позволяет устанавливать прямые связи между переменными величинами по их абсолютным значениям. Эти связи графически выражаются прямой линией, отсюда название «линейный». Ранговая корреляция определяет зависимость не между абсолютными значениями переменных, а между порядковыми местами, или рангами, занимаемыми ими в упорядоченном по величине ряду. Парный корреляционный анализ включает изучение корреляционных зависимостей только между парами переменных, а множественный, или многомерный, — между многими переменными одновременно. Распространенной в прикладной статистике формой многомерного корреляционного анализа является факторный анализ.

На рисунке в виде множества точек представлены различные виды зависимостей между двумя переменными Xи Y(различные поля корреляций между ними).

На фрагменте рис. отмеченном буквой А, точки случайным образом разбросаны по координатной плоскости. Здесь по величине Xнельзя делать какие-либо определенные выводы о величине У. Если в данном случае подсчитать коэффициент корреляции, то он будет равен 0, что свидетельствует о том, что достоверная связь между Xи У отсутствует (она может отсутствовать и тогда, когда коэффициент корреляции не равен 0, но близок к нему по величине). На фрагменте Б рисунка все точки лежат на одной прямой, и каждому отдельному значению переменной Xможно поставить в соответствие одно и только одно значение переменной У, причем, чем большее, тем больше Y. Такая связь между переменными Xи У называется прямой, и если это прямая, соответствующая уравнению регрессии, то связанный с ней коэффициент корреляции будет равен +1. (Заметим, что в жизни такие случаи практически не встречаются; коэффициент корреляции почти никогда не достигает величины единицы.)

На фрагменте В рисунка коэффициент корреляции также будет равен единице, но с отрицательным знаком: -1. Это означает обратную зависимость между переменными Xи У, т.е., чем больше одна из них, тем меньше другая.

На фрагменте Г рисунка точки также разбросаны не случайно, они имеют тенденцию группироваться в определенном направлении. Это направление приближенно может быть представлено уравнением прямой регрессии. Такая же особенность, но с противоположным знаком, характерна для фрагмента Д. Соответствующие этим двум фрагментам коэффициенты корреляции приблизительно будут равны +0,50 и -0,30. Заметим, что крутизна графика, или линии регрессии, не оказывает влияния на величину коэффициента корреляции.

Рис.  Схематическое представление различных корреляционных зависимостей с соответствующими значениями коэффициента линейной корреляции
Наконец, фрагмент Е дает коэффициент корреляции, равный или близкий к 0, так как в данном случае связь между переменными хотя и существует, но не является линейной.

Коэффициент линейной корреляции определяется при помощи следующей формулы:



где г   — коэффициент линейной корреляции;

х, у — средние выборочные значения сравниваемых величин; х., у — частные выборочные значения сравниваемых величин; п — общее число величин в сравниваемых рядах показателей;

si' Sy~ дисперсии, отклонения сравниваемых величин от

средних значений.

Пример. Определим коэффициент линейной корреляции между следующими двумя рядами показателей. Ряд 1:2,4,4,5,3, 6, 8. Ряд II: 2, 5, 4, 6, 2, 5, 7. Средние значения этих двух рядов соответственно равны 4,6 и 4,4. Их дисперсии составляют следующие величины: 3,4 и 3,1. Подставив эти данные в приведенную выше формулу коэффициента линейной корреляции, получим следующий результат: 0,92. Следовательно, между рядами данных существует значимая связь, причем довольно явно выраженная, так как коэффициент корреляции близок к единице. Действительно, взглянув на эти ряды цифр, мы обнаруживаем, что большей цифре в одном ряду соответствует большая цифра в другом ряду и, наоборот, меньшей цифре в одном ряду соответствует примерно такая же малая цифра в другом ряду.

К коэффициенту ранговой корреляции в психолого-педагогических исследованиях обращаются в том случае, когда признаки, между которыми устанавливается зависимость, являются качественно различными и не могут быть достаточно точно оценены при помощи так называемой интервальной измерительной шкалы. Интервальной называют такую шкалу, которая позволяет оценивать расстояния между ее значениями и судить о том, какое из них больше и насколько больше другого. Например, линейка, с помощью которой оцениваются и сравниваются длины объектов, является интервальной шкалой, так как, пользуясь ею, мы можем утверждать, что расстояние между двумя и шестью сантиметрами в два раза больше, чем расстояние между шестью и восемью сантиметрами. Если же, пользуясь некоторым измерительным инструментом, мы можем только утверждать, что одни показатели больше других, но не в состоянии сказать на сколько, то такой измерительный инструмент называется не интервальным, а порядковым.

Большинство показателей, которые получают в психолого-педагогических исследованиях, относятся к порядковым, а не к интервальным шкалам (например, оценки типа «да», «нет», «скорее нет, чем да» и другие, которые можно переводить в баллы), поэтому коэффициент линейной корреляции к ним неприменим. В этом случае обращаются к использованию коэффициента ранговой корреляции, формула которого следующая:



где Rs— коэффициент ранговой корреляции по Спирмену;

di— разница между рангами показателей одних и тех же испытуемых в упорядоченных рядах;

п — число испытуемых или цифровых данных (рангов) в коррелируемых рядах.

Пример. Допустим, что педагога-экспериментатора интересует, влияет ли интерес учащихся к учебному предмету на их успеваемость. Предположим, что с помощью некоторой психодиагностической методики удалось измерить величину интереса к учению и выразить его для десяти учащихся в следующих цифрах: 5,6,7,8,2,4,8,7,2,9. Допустим также, что при помощи другой методики были определены средние оценки этих же учащихся по данному предмету, оказавшиеся соответственно равными: 3,2; 4,0; 4,1; 4,2; 2,5; 5,0; 3,0; 4,8; 4,6; 2,4.

Упорядочим оба ряда оценок по величине цифр и припишем каждому из учащихся по два ранга; один из них указывает на то, какое место среди остальных данных ученик занимает по успеваемости, а другой — на то, какое место среди них же он занимает по интересу к учебному предмету. Ниже приведены ряды цифр, два из которых (первый и третий) представляют исходные данные, а два других (второй и четвертый) — соответствующие ранги (таблица 3)

Определив сумму квадратов различий в рангах ( ^df) и подставив нужное значение в числитель формулы, получаем, что коэффициент ранговой корреляции равен 0,97, т.е. достаточно высок, что и говорит о том, что между интересом к учебному предмету и успеваемостью учащихся действительно существует статистически достоверная зависимость.

Однако по абсолютным значениям коэффициентов корреляции не всегда можно делать однозначные выводы о том, являются ли они значимыми, т.е. достоверно свидетельствуют о существовании зависимости между сравниваемыми переменными. Может случиться так, что коэффициент корреляции, равный 0,50, не будет достоверным, а коэффициент корреляции, составивший 0,30, — достоверным. Многое в решении этого вопроса зависит от того, сколько показателей было в коррелируемых друг с другом рядах признаков: чем больше таких показателей, тем меньшим по величине может быть статистически достоверный коэффициент корреляции.

В табл. 35 представлены критические значения коэффициентов корреляции для различных степеней свободы. (В данном

1 Если исходные данные, которые ранжируются, одинаковы, то и их ранги также будут одинаковыми. Они получаются путем суммирования и деления пополам тех рангов, которые соответствуют этим данным.

Степенью свободы будет число, равное и — 2, где п — количество данных в коррелируемых рядах.) Заметим, что значимость коэффициента корреляции зависит и от заданного уровня значимости или принятой вероятности допустимой ошибки в расчетах. Если, к примеру, коррелируется друг с другом два ряда цифр по 10 единиц в каждом и получен коэффициент корреляции между ними, равный 0,65, то он будет значимым на уровне 0,95 (он больше критического табличного значения, составляющего 0,6319 для вероятности допустимой ошибки 0,05, и меньше критического значения 0,7646 для вероятности допустимой ошибки 0,01).

Метод множественных корреляций в отличие от метода парных корреляций позволяет выявить общую структуру корреляционных зависимостей, существующих внутри многомерного экспериментального материала, включающего более двух переменных, и представить эти корреляционные зависимости в виде некоторой системы.

Один из наиболее распространенных вариантов этого метода — факторный анализ — позволяет определить совокупность внутренних взаимосвязей, возможных причинно-следственных связей, существующих в экспериментальном материале. В результате факторного анализа обнаруживаются так называемые факторы — причины, объясняющие множество частных (парных) корреляционных зависимостей.

Фактор — математико-статистическое понятие. Будучи переведенным на язык психологии (эта процедура называется содержательной или психологической интерпретацией факторов), он становится психологическим понятием. Например, в известном 16-факторном личностном тесте Р. Кеттела, который подробно рассматривался в первой части книги, каждый фактор взаимно однозначно связан с определенными чертами личности человека.

С помощью выявленных факторов объясняют взаимозави-. симость психологических явлений. Поясним сказанное на примере. Допустим, что в некотором психолого-педагогическом эксперименте изучалось взаимовлияние таких переменных, как характер, способности, потребности и успеваемость учащихся. Предположим далее, что, оценив каждую из этих переменных у достаточно представительной выборки испытуемых и подсчитав коэффициенты парных корреляций между всевозможными парами данных переменных, мы получили следующую матрицу интеркорреляций (в ней справа и сверху цифрами обозначены в перечисленном выше порядке изученные в эксперименте переменные, а внутри самого квадрата показаны их корреляции друг с другом; поскольку всевозможных пар в данном случае меньше, чем клеток в матрице, то заполнена только верхняя часть матрицы, расположенная выше ее главной диагонали).



 
Анализ корреляционной матрицы показывает, что переменная 1 (характер) значимо коррелирует с переменными 2 и 3 (способности и потребности). Переменная 2 (способности) достоверно коррелирует с переменной 3 (потребности), а переменная 3 (потребности) — с переменной 4 (успеваемость). Фактически из шести имеющихся в матрице коэффициентов корреляции четыре являются достаточно высокими и, если предположить, что они определялись на совокупности испытуемых, превышающей 10 человек, — значимыми.

Зададим некоторое правило умножения столбцов цифр на строки матрицы: каждая цифра столбца последовательно умножается на каждую цифру строки и результаты парных произведений записываются в строку аналогичной матрицы. Пример: если по этому правилу умножить друг на друга три цифры столбца и строки, представленные в левой части матричного равенства, то получим матрицу, находящуюся в правой части этого же равенства:


Задача факторного анализа по отношению к только что рассмотренной является как бы противоположной. Она сводится к тому, чтобы по уже имеющейся матрице парных корреляций, аналогичной представленной в правой части показанного выше матричного равенства, отыскать одинаковые по включенным в них цифрам столбец и строку, умножение которых друг на друга по заданному правилу порождает корреляционную матрицу. Иллюстрация:



Здесь xvху х3 и хА — искомые числа. Для их точного и быстрого определения существуют специальные математические процедуры и программы для ЭВМ.

Допустим, что мы уже нашли эти цифры: хх = 0,45, х2= 0,36 х3 - 1,12, х4 = 0,67. Совокупность найденных цифр и называется фактором, а сами эти цифры — факторными весами или нагрузками.

Эти цифры соответствуют тем психологическим переменным, между которыми вычислялись парные корреляции. хх — характер, х2 — способности, х3 — потребности, х4 — успеваемость. Поскольку наблюдаемые в эксперименте корреляции между переменными можно рассматривать как следствие влияния на них общих причин — факторов, а факторы интерпретируются в психологических терминах, мы можем теперь от факторов перейти к содержательной психологической интерпретации обнаруженных статистических закономерностей. Фактор содержит в себе ту же самую информацию, что и вся корреляционная матрица, а факторные нагрузки соответствуют коэффициентам корреляции. В нашем примере х3 (потребности) имеет наибольшую факторную нагрузку (1,12), а х, (способности) — наименьшую (0,36).

Следовательно, наиболее значимой причиной, влияющей на все остальные психологические переменные, в нашем случае являются потребности, а наименее значимой — способности. Из корреляционной матрицы видно, что связи переменной х3 со всеми остальными являются наиболее сильными (от 0,40 до 0,75), а корреляции переменной х2 — самыми слабыми (от 0,16 до 0,40).

Чаще всего в итоге факторного анализа определяется не один, а несколько факторов, по-разному объясняющих матрицу интеркорреляций переменных. В таком случае факторы делят на генеральные, общие и единичные. Генеральными называются факторы, все факторные нагрузки которых значительно отличаются от нуля (нуль нагрузки свидетельствует о том, что данная переменная никак не связана с остальными и не оказывает на них никакого влияния в жизни). Общие — это факторы, у которых часть факторных нагрузок отлична от нуля. Единичные — это факторы, в которых существенно отличается от нуля только одна из нагрузок. На рис. 75 схематически представлена структура факторного отображения переменных в факторах различной степени общности.

                 Саратовский Государственный университет

                                 им. Н.Г. Чернышевского
                      Реферат на тему:
Статистическая обработка результатов психолого-педагогического исследования.
                                                     Выполнила: студентка 2 курса

                                                                                Факультета психологии

                                                                                 251 группы

                                                                                 Романцова Анастасия
                                           Саратов 2010

1. Реферат Экономическая мысль Древнего Востока
2. Реферат на тему Human Life And Fire Essay Research Paper
3. Реферат на тему Борис Чайковский - путь в искусстве
4. Реферат на тему Повышение безопасности городских дорог
5. Сочинение Не всегда правдой душу вылечишь по пьесе На дне М Горького
6. Реферат Активные и пассивные операции КБ и их взаимосвязь
7. Реферат на тему Why The South Lost The Civil War
8. Реферат на тему How To Prepare For An Interview Essay
9. Реферат на тему Supre Court Abortion Decisions Essay Research Paper
10. Отчет по практике Анализ хозяйственной деятельности потребительского общества Батыревского района