Свойства коэффициента корреляции

Понятие корреляционной и регрессионной связи, ее разновидности и особенности анализа, цели и задачи. Свойства коэффициента выборочной корреляции двух случайных величин, способы его вычисления. Задачи регрессионного анализа, его модели и значение.

Рубрика Экономика и экономическая теория
Вид контрольная работа
Язык русский
Дата добавления 12.01.2015
Размер файла 117,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

1. Общие понятия

1.1 Понятие корреляционной и регрессионной связи

Две (или более) случайных величины

1. Могут быть связаны функциональной зависимостью - для каждой независимой переменной X существует вполне определенное значение зависимой переменной Y. Строгая функциональная зависимость реализуется на практике редко, т.к. обе величины подвергаются еще и влиянию случайных факторов.

2. Могут быть связаны статистической зависимостью - изменение одной случайной величины приводит к изменению распределения другой случайной величины. Если статистическая зависимость проявляется в том, что при изменении одной величины изменяется среднее значение другой, такую зависимость называют корреляционной.

3. Могут быть независимы.

При изучении конкретных зависимостей между случайными величинами вводят понятия:

· факторные признаки или факторы - независимые или объясняющие переменные, причины. Могут быть случайными и неслучайными. Часто обозначаются X;

· результативные признаки или показатели - объясняемые или зависимые переменные. Являются случайными. Часто обозначаются Y.

Иногда X и Y можно менять местами (т.е. не только изменение X вызывает изменение Y, но и наоборот, изменение Y вызывает изменение X).

Функциональная и корреляционная зависимость отличаются тем, что при функциональной зависимости, зная Х, можно вычислить величину Y. При корреляционной зависимости устанавливается лишь тенденция изменения Y при изменении X.

Корреляционный и регрессионный анализы имеют общие методы обработки данных, но отличаются своими целями. В корреляционном анализе оценивается наличие и глубина (сила) статистической связи, в регрессионном анализе оценивается форма статистической связи между случайными величинами.

Если не известно, какой их признаков зависимый, а какой - независимый, или же это безразлично, то X и Y равноправны, т.е. каждый из признаков может рассматриваться как независимый или как зависимый. В этом случае говорят, что X и Y коррелированны (имеют связи корреляционного типа) в широком смысле. Если переменные не равноправны, т.е. четко ясно, какая из них причина, а какая следствие, то говорят о регрессионной зависимости.

Регрессия - это односторонняя стохастическая зависимость, когда одна из переменных служит причиной для изменения другой.

Например, при изучении потребления электроэнергии (Y) в зависимости от объема производства (X) речь идет об односторонней связи, следовательно, о регрессии.

Существуют особенности, связанные с постановкой задачи:

· если изучают стохастическую зависимость Y от X, то устанавливают регрессию Y на X, т.е. Y=f(X);

· если изучают стохастическую зависимость X от Y - то устанавливают регрессию X на Y, т.е. Х=g(Y).

Например, изучается влияние стоимости товара на спрос и влияние спроса на стоимость товара. Здесь и стоимость, и спрос могут быть зависимой и независимой переменными в зависимости от постановки задачи.

Могут быть ситуации, когда обратная регрессия не имеет физического смысла, например, урожайность зависит от количества осадков, обратная зависимость бессмысленна.

1.2 Виды регрессий и корреляций

корреляция регрессионный выборочный

При изучении взаимосвязи факторных и результативных признаков могут быть следующие случаи:

а) X и Y - случайные величины;

б) Х - неслучайная величина, Y - случайная величина.

Виды корреляции классифицируются по следующим признакам:

а) по характеру корреляции:

· положительная (или равнонаправленная, прямая корреляция);

· отрицательная (или обратная корреляция);

б) по числу переменных:

· простая или парная корреляция (две переменных X и Y);

· множественная корреляция (рассматривается связь более двух переменных);

· частная корреляция (рассматривается связь между двумя переменными при фиксированном влиянии других переменных);

в) по форме связи:

· линейная корреляция;

· нелинейная корреляция;

г) по типу связи признаков:

· непосредственная корреляция;

· косвенная корреляция;

· ложная корреляция.

Виды регрессии классифицируются по следующим признакам:

а) по числу переменных, учитываемых в регрессии:

· простая регрессия (парная - рассматриваются две переменных);

· множественная, или частная регрессия (рассматривается более двух переменных);

б) по форме зависимости между факторными и результирующими признаками:

· линейная регрессия (признаки связаны линейной зависимостью);

· нелинейная регрессия (признаки связаны нелинейной зависимостью);

в) по характеру регрессии (имеет смысл только для простой линейной регрессии):

· положительная регрессия;

· отрицательная регрессия;

г) по типу связи факторных и результирующих признаков:

· непосредственная регрессия - причина прямо воздействует на следствие;

· косвенная регрессия, Y и X не состоят в прямой зависимости, а определяются общей для них причиной через третью переменную;

· нонсенс-регрессия (абсурдная).

1.3 Задачи корреляционного и регрессионного анализа

1. Задачи корреляционного анализа:

а) определяет степень связи двух и более признаков;

б) определяет факторы оказывающее наибольшее влияние на результирующий признакY.

2. Задачи регрессионного анализа:

а) устанавливает форму зависимости (для случая парной регрессии - убывающая или возрастающая);

б) определяет вид функции регрессии;

в) оценивает неизвестные значения зависимой переменной Y (можно воспроизвести значение Y при заданных значениях X внутри рассматриваемого интервала (интерполяция) и вне интервала (экстраполяция)).

Ход рассуждений, постановка задачи, получаемые результаты в корреляционном и регрессионном анализе различны, но очень часто эти два вида анализа проводятся параллельно на одном и том же массиве исходных данных.

Корреляция

Корреляционный анализ используется для численной оценки силы связи между случайными величинами (признаками), которые характеризует некоторый реальный процесс.

В общем виде задача выявления и оценки силы стохастической связи не решена до сих пор. Корреляционная связь это частный случай стохастической зависимости, которая существует между значениями одного из признаков (принятого за независимый) и групповыми средними значениями другого (зависимого) признака.

Чаще всего корреляционная связь характеризуется выборочным коэффициентом корреляции r, который характеризует степень линейной функциональной зависимости между случайными величинами Х и Y

2. Свойства коэффициента корреляции двух случайных величин

1. - 1? r ?1;

2. если r=±1 то между случайными величинами X и Y существует функциональная линейная зависимость;

3. если r=0 то случайные величины X и Y некоррелированы. В общем случае это не означает, что они независимы (см. пример к разделу 6.15 [1]).

4. коэффициенты корреляции X на Y и Y на X совпадают.

5. коэффициент корреляции характеризует степень линейной зависимости между переменными. Нелинейная связь не обнаруживается.

После нахождения коэффициента корреляции сила связи между признаками оценивается по шкале Шедока:

1. если ¦r¦<0,2 - связи нет;

2. если 0,2 ?|r|? 0,5 - связь слабая;

3. если0,5 ?|r|? 0,75 - связь средняя;

4. если 0,75 ?|r|? 0,95 - связь тесная;

5. если 0,95 ?|r|? 1 - связь очень тесная.

Если пары значений случайных величин (X, Y) нанести на координатную плоскость, то при 0<r<1, получим корреляцию, которую называют положительной:

Если -1<r<0, то имеем отрицательную корреляцию

2.1 Корреляционная таблица

Обычно при проведении анализа имеются экспериментально полученные выборочные данные, которые удобно представить в виде корреляционной таблицы, имеющий, например, следующий вид:

Y

X

10

20

30

40

ny

0,4

0,6

0,8

5

-

3

-

2

19

7

6

-

14

4

-

26

12

22

nx

8

21

13

18

n=60

В первой строке таблицы указаны наблюдаемые значения признака X (для примера указаны некоторые конкретные значения: 10, 20, 30, 40). В первом столбце приводятся наблюдаемые значения признака Y (0,4; 0,6; 0,8). На пересечении строк и столбцов указываются частоты nxy наблюдаемых пар значений признаков. Например, частота 5 указывает, что пара значений (x=10, y=0,4) наблюдалась 5 раз. Прочерк означает, что данная пара значений не наблюдалась.

В последнем столбце записаны суммы частот по строкам. Например, число 26 в последнем столбце показывает, что значение признака Y равное 0,4 в сочетании с различными значениями признака X наблюдалось 26 раз.

В последней строке записаны суммы по столбцам. Например, число 8 в последней строке показывает, что значение признака X равное 10 в сочетании с различными значениями признака Y наблюдалось 8 раз.

В правом нижнем углу таблицы указана сумма всех частот (общее число всех наблюденийn). Очевидно, что выполняется условий:

Действительно, 26+12+22=8+21+13+18=60.

2.2 Способы вычисления выборочного коэффициента корреляции

Существует много методов оценки величины выборочного коэффициент корреляции.

1. В случае парной зависимости (рассматривается зависимость между двумя признаками) вычисляется коэффициент корреляции Пирсона:

где x, y - наблюдаемые значения признаков X и Y соответственно,

- Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

среднее наблюдаемых значений признака

X,,

j - номер столбца корреляционной таблицы,

- среднее наблюдаемых значений признака Y, i - номер строки корреляционной таблицы,

- среднее квадрата наблюдаемых значений признака X,

- среднее квадрата наблюдаемых значений признака Y,

- среднее пар наблюдаемых значений признаков X и Y,

Пример

Найти выборочный коэффициент корреляции, воспользовавшись выражением, если корреляционная таблица имеет вид:

Y

X

10

20

30

40

50

60

ny

15

5

7

-

-

-

-

12

25

-

20

23

-

-

-

43

35

-

-

30

47

2

-

79

45

-

-

10

11

20

6

47

55

-

-

-

9

7

3

19

nx

5

27

63

67

29

9

n=200

Воспользуемся для вычисления формулой:

а) определим - среднее наблюдаемых значений признака X:

б) определим - среднее наблюдаемых значений признака Y:

в) определим среднее значение квадрата X (пользуемся данными из корреляционной таблицы):

г) определим среднее значение квадрата Y:

д) вычислим среднее значение произведения XY:

е) вычислим выборочный коэффициент корреляции:

Замечание. В примере определен коэффициент корреляции по данным имеющейся выборки (поэтому он и называется выборочным). Но нельзя с уверенностью заключить, что генеральная совокупность так же имеет коэффициент корреляции отличный от нуля. Поэтому, после вычисления выборочного коэффициента корреляции, прежде чем делать вывод о коэффициенте корреляции генеральной совокупности, проводят проверку статистической гипотезы H0: rxy=0, конкурирующая гипотеза H1: rxy?0. Если нулевая гипотеза отвергается, то коэффициент корреляции значим (т.е. значимо отличается от нуля), и признаки X и Y коррелированны, т.е. связаны линейной зависимостью.

Если принимается нулевая гипотеза, то выборочный коэффициент корреляции незначим иX, Y некоррелированы, т.е. не связаны линейной зависимостью.

Проверка гипотезы проводится по t-критерию Стьюдента, число степеней свободы определяется как k=n-2. Формула для нахождения расчетного значения критерия имеет вид:

Поскольку конкурирующая гипотеза имеет вид rxy?0 - критическая область двухсторонняя.

Для рассмотренного примера (n=200):

Зададимся уровнем значимости б=0,05 и найдем по таблице tкрит= 1,96 (двухсторонняя критическая область).

17,256>1,96 (tрасч>tкрит), следовательно гипотеза H0 о незначимости коэффициента корреляции отвергается. Коэффициент корреляции является значимым (при заданном уровне значимости), X и Y связаны линейной зависимостью.

2. Использование коэффициента парной корреляции неявно предполагает нормальное распределение генеральных совокупностей, из которых производится выборка. Если вид распределения совокупностей неизвестен, то используют меру связи, которая не требует нормальности выборок, например, коэффициент ранговой корреляции Спирмена:

где - квадраты разности рангов,

n - число наблюдений (число пар рангов).

Пример

Двум аналитикам было предложено проранжировать сотрудников фирмы в соответствии с их вкладом в работу фирмы. Аналитики представили отчет:

Оценка 1-го аналитика - xi

Фамилия сотрудника

Оценка 2-го аналитика - yi

3

Антонов

2

1

Борисов

1

4

Винилов

7

2

Горелов

4

8

Денисов

5

6

Ельников

3

9

Жуков

9

5

Зосимов

8

10

Икаров

10

7

Котов

6

Совпадают ли мнения аналитиков? Какова корреляция между двумя рядами оценок?

Т.к. закон распределения оценок неизвестен, воспользуемся коэффициентом ранговой корреляции Спирмена.

Определим разности оценок, их квадраты и суммы:

di=xi-yi

1

0

-3

-2

3

3

0

-3

0

1

У=0

di2

1

0

9

4

9

9

0

9

0

1

У=42

Согласно коэффициенту ранговой корреляции Спирмена между мнениями аналитиков существует связь. Проверим, является ли эта связь действительно значимой. Для проверки выдвинем гипотезу H0: коэффициент корреляции не является статистически значимым, т.е.rs=0.

В задачах такого рода, при пользуются распределением Стьюдента с числом степеней свободы н=n-2=10-2=8. Зададимся уровнем значимости б=0,05 и найдем по таблицеtкрит= 2,31 (двухсторонняя критическая область).

Расчетное значение критерия находим из выражения:

3,159>2,31 (tрасч>tкрит), следовательно гипотеза H0 о незначимости статистической связи между мнениями аналитиков отвергается. Коэффициент корреляции является значимым (при заданном уровне значимости), мнения аналитиков существенно совпадают.

3. Регрессионный анализ

Слово «регрессия» обозначает возвращение, движение назад.

Термин «регрессия» был использован впервые в 1885 г. в работе английского антрополога Ф. Гамильтона, исследовавшего 928 взрослых детей и 205 их родителей и пришедшего к выводу о том, что имеет место «регресс» - чем выше родители, тем ниже их дети, поэтому проведенный анализ он назвал регрессионным. Хотя анализ, который он проводил, был скорее корреляционным, термин исторически прижился. Термин «корреляция» тоже был предложен Гамильтоном.

3.1 Основные понятия. Модель регрессии

Пусть имеется объект или процесс, который можно представить моделью типа «черный ящик»:

X - управляемые, независимые входные переменные,

Z - контролируемые, но неуправляемые входные переменные,

W - помехи, т.е. неуправляемые и неконтролируемые входные переменные,

Y - отклик, т.е. результативный признак, показатель (например, показатель качества управления

Исследование объекта (процесса) может проводится в двух режимах:

1. Пассивный эксперимент - фиксируются имеющиеся значения X и Z, и соответствующие им значения Y. Вопросы организации сбора данных не являются первостепенными, чем их больше, тем лучше. Обработка ведется методами классического регрессионного анализа.

2. Активный эксперимент - фактор X изменяется целенаправленно и фиксируется, Zи Y фиксируются. Имеет место «планирование эксперимента». Обработка данных ведется специальными методами регрессионного анализа. Метод существенно эффективнее пассивного эксперимента в смысле минимизации числа опытов и точности полученных выводов.

В результате обработки полученных экспериментальных данных составляется «регрессионная модель» - уравнение, связывающее Y, X и Z:

где - параметры модели объекта,

- случайная составляющая отклика, обусловленная наличием помех.

Результатам регрессионного анализа можно доверять, если выполняются следующие условия:

1. Случайная величина Y и ее ошибка подчиняются нормальному закону распределения.

2. Дисперсия случайной величины Y постоянна и не зависит от текущего значения yi.

3. Результаты наблюдений yi независимы и некоррелированы.

4. Входные переменные X, Z независимы, неслучайны и измеряются без ошибок.

Классическим методом оценивания коэффициентов уравнения регрессии является метод наименьших квадратов. Первое изложение элементов метода наименьших квадратов было дано в 1806 г. А.М. Лежандром в связи с вопросами вычисления космических орбит.

3.2 Задачи регрессионного анализа

1. Определение вида функциональной зависимости (вида регрессионной модели).

Различают следующие виды регрессионных моделей:

· Модель линейная относительно параметров регрессии

а) парная линейная модель

б) парная криволинейная модель (например ),

в) множественная линейная модель

г) множественная нелинейная модель (например,

д) ортогональная полиномиальная модель где - некоторые функции, например, ортогональные полиномы Чебышева.

· Модель нелинейная относительно параметров регрессии (например,).

Почти все эти модели могут быть построены с использованием метода наименьших квадратов. Выбор наилучшего уравнения регрессии из нескольких построенных моделей является неоднозначным. Для случая парной регрессии предварительный выбор уравнения регрессии обычно обосновывают графическим методом.

2. Вычисление коэффициентов регрессионной модели .

3. Проверка адекватности полученной модели.

3.3 Алгоритм корреляционно-регрессионного анализа

1. Исходя из целей и задач исследования, устанавливается какие признаки являются факторными (Xi), а какой результативным Y.

2. Проводится эксперимент, в котором определяются значения факторных и результирующего признаков.

3. Обосновывается модель уравнения регрессии. Для случая парной регрессии - обычно графическим методом.

4. Методом наименьших квадратов определяются параметры уравнения регрессии.

5. Определяется сила связи между изучаемыми признаками.

6. Оценивается значимость уравнения регрессии, его параметров и показателей силы связи.

4. Особенности практического применения регрессионных моделей

Одним из условий регрессионной модели является предположение о линейной независимости объясняющих переменных, т.е., решение задачи возможно лишь тогда, когда столбцы и строки матрицы исходных данных линейно независимы. Для экономических показателей это условие выполняется не всегда.

Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных, которая приводит к линейной зависимости нормальных уравнений.

Мультиколлинеарность может возникать в силу разных причин. Например, несколько независимых переменных могут иметь общий временной тренд, относительно которого они совершают малые колебания.

Существует несколько способов для определения наличия или отсутствия мультиколлинеарности.

Один из подходов заключается в анализе матрицы коэффициентов парной корреляции. Считают явление мультиколлинеарности в исходных данных установленным, если коэффициент парной корреляции между двумя переменными больше 0,8.

Другой подход состоит в исследовании матрицы Х'Х. Если определитель матрицы Х'Х близок к нулю, то это свидетельствует о наличии мультиколлинеарности.

Для устранения или уменьшения мультиколлинеарности используется ряд методов.

Наиболее распространенные в таких случаях следующие приемы: исключение одного из двух сильно связанных факторов, переход от первоначальных факторов к их главным компонентам, число которых быть может меньше, затем возвращение к первоначальным факторам.

Самый простой из них (но не всегда самый эффективный) состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом какую переменную оставить, а какую удалить из анализа, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной.

Еще одним из возможных методов устранения или уменьшения мультиколлинеарности является использование стратегии шагового отбора, реализованную в ряде алгоритмов пошаговой регрессии.

Наиболее широкое применение получили следующие схемы построения уравнения множественной регрессии: метод включения факторов и метод исключения - отсев факторов из полного его набора.

В соответствии с первой схемой признак включается в уравнение в том случае, если его включение существенно увеличивает значение множественного коэффициента корреляции, что позволяет последовательно отбирать факторы, оказывающие существенное влияние на результирующий признак даже в условиях мультиколлинеарности системы признаков, отобранных в качестве аргументов из содержательных соображений. При этом первым в уравнение включается фактор, наиболее тесно коррелирующий с Y, вторым в уравнение включается тот фактор, который в паре с первым из отобранных дает максимальное значение множественного коэффициента корреляции, и т.д. Существенно, что на каждом шаге получают новое значение множественного коэффициента (большее, чем на предыдущем шаге); тем самым определяется вклад каждого отобранного фактора в объясненную дисперсию Y.

Вторая схема пошаговой регрессии основана на последовательном исключении факторов с помощью t - критерия. Она заключается в том, что после построения уравнения регрессии и оценки значимости всех коэффициентов регрессии из модели исключают тот фактор, коэффициент при котором незначим и имеет наименьший коэффициент t. После этого получают новое уравнение множественной регрессии и снова производят оценку значимости всех оставшихся коэффициентов регрессии. Если среди них опять окажутся незначимые, то опять исключают фактор с наименьшим значением t - критерия. Процесс исключения факторов останавливается на том шаге, при котором все регрессионные коэффициенты значимы.

Ни одна их этих процедур не гарантирует получения оптимального набора переменных. Однако при практическом применении они позволяют получить достаточно хорошие наборы существенно влияющих факторов.

При отборе факторов также рекомендуется пользоваться следующим правилом: число включаемых факторов обычно в 6-7 раз меньше объема совокупности, по которой строится регрессия. Если это соотношение нарушено, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что параметры уравнения регрессии оказываются статистически незначимыми, а -критерий меньше табличного значения.

Особым случаем мультиколлинеарности при использовании временных выборок является наличие в составе переменных линейных или нелинейных трендов. В этом случае рекомендуется сначала выделить и исключить тренды, а затем определить параметры регрессии по остаткам.

Игнорирование наличия трендов в зависимой и независимой переменных ведет к завышению степени влияния независимых переменных на результирующий признак, что получило название ложной корреляции.

Большим препятствием к применению регрессии является ограниченность исходной информации, при этом наряду с указанными выше затрудняющими обстоятельствами (мультиколлинеарность, зависимость остатков, небольшой объем выборки и т.п.) ценность информации может снижаться за счет ее «засоренности», т.е. проявления новых обстоятельств, которые ранее не были учтены.

Резко отклоняющиеся наблюдения могут быть результатом действия большого числа сравнительно малых случайных факторов, которые в достаточно редких случаях приводят к большим отклонениям, либо это действительно случайные один или несколько выбросов, которые можно исключить как аномальные. Однако при наличии не менее трех аномальных отклонений на несколько десятков наблюдений приписывают это наличию одного или нескольких неучтенных факторов, которые проявляются только для аномальных наблюдений.

Наиболее распространенные в таких случаях следующие приемы: исключение одного из двух сильно связанных факторов, переход от первоначальных факторов к их главным компонентам, число которых быть может меньше, затем возвращение к первоначальным факторам.

Список литературы

1. Прохоренкова А.Т. Курс лекций по курсу «Теория вероятностей и математическая статистика».

2. Математическая статистика - Смоленск: НОУ ВПО «СИБП», 2009 - 96 с. (с. 66-82)

3. Орлова И.В., Половников В.А. Экономико-математические методы и модели: компьютерное моделирование: Учеб. пособие - М.: Вузовский учебник, 2007.

4. Эконометрика: Учебник / Под ред. И.И. Елисеевой. - 2-е изд.; перераб. и доп. - М.: Финансы и статистика, 2009. - 576 с.

5. Практикум по эконометрике: Учебное пособие / Под ред. Елисеевой И.И. - М.: Финансы и статистика, 2008 - 192с64. Орлова И.В. Экономико-математическое моделирование. Практическое пособие по решению задач / И.В. Орлова; ВЗФЭИ. - М.: Вузовский учебник, 2007. - 144 с.

6. Айвазян С.А., Мхитарян В.С. Прикладная статистика и основы эконометрики. М.: ЮНИТИ, 2005.

7. Орлов А.И. Эконометрика: Учеб. пособие для вузов - М.: «Экзамен», 2008.

Размещено на Allbest.ru

...

Подобные документы

  • Этапы корреляционно-регрессионного анализа, построение корреляционной модели и определение функции, отражающей механизм связи между факторным и результативным признаками. Измерение тесноты корреляционной связи, расчет индекса корреляции и дисперсии.

    лекция [38,1 K], добавлен 13.02.2011

  • Назначение рангового коэффициента корреляции, определение силы и направления корреляционной связи между двумя признаками или двумя профилями (иерархиями) признаков. Графическое представление метода ранговой корреляции, расчет эмпирического значения rs.

    презентация [46,5 K], добавлен 12.11.2010

  • Распределение вероятностей случайных величин. Числовые характеристики случайных величин. Смешанные начальный и центральный моменты совместного распределения совокупности случайных величин. Физический смысл понятия корреляции. Модель потока редких событий.

    лекция [429,8 K], добавлен 02.08.2009

  • Понятие, виды производственных средств. Расчет линейного коэффициента корреляции. Аналитическое выражение связи между факторным и результативным показателем на основе регрессионного анализа. Расчет параметров уравнения тренда методом наименьших квадратов.

    курсовая работа [80,9 K], добавлен 07.03.2016

  • Изучение зависимости доли сельского населения от величины среднедушевых денежных доходов. Расчет параметров линейной функции на основании исходных данных по областям. Определение среднего коэффициента эластичности. Расчет коэффициента корреляции.

    методичка [55,1 K], добавлен 02.06.2012

  • Законы распределения случайных величин. Закон распределения Пуассона. Свойства плотности вероятности. Критериальные случайные величины. Свойство коэффициента корреляции. Закон больших чисел и его следствия. Предельные теоремы теории вероятностей.

    курс лекций [774,3 K], добавлен 11.03.2011

  • Оценка силы вариации признака. Построение регрессионной модели. Парный линейный коэффициент корреляции. Оценка статистической надежности результатов. Значение коэффициента детерминации. Оценка силы связи признаков. Фактическое значение критерия Фишера.

    контрольная работа [165,8 K], добавлен 27.05.2015

  • Классификация показателей тесноты связи. Основные способы расчета показателей и определение их значимости. Линейный коэффициент корреляции для несгруппированных данных. Принятие решений о тесноте связи на основе линейного коэффициента корреляции.

    презентация [146,4 K], добавлен 16.03.2014

  • Изучение понятия и сущности коэффициента корреляции, который является одним из методов статистического анализа взаимосвязи нескольких признаков. Отличительные черты экономики Сингапура и Перу. Анализ основных показателей прироста иностранных инвестиций.

    курсовая работа [168,5 K], добавлен 25.06.2010

  • Виды и способы статистического наблюдения. Построение и анализ вариационных рядов распределения. Оценка параметров генеральной совокупности банков на основе выборочных данных. Расчет парного коэффициента корреляции и уравнения однофакторной регрессии.

    контрольная работа [712,1 K], добавлен 30.03.2014

  • Основные виды и способы статистического наблюдения. Правила формирования выборки. Построение и анализ вариационных рядов распределения. Отбор факторов в регрессионную модель. Проверка значимости коэффициентов регрессии и коэффициента корреляции.

    курсовая работа [1,4 M], добавлен 25.03.2012

  • Основные черты, задачи и предпосылки применения корреляционно-регрессионного метода. Методы корреляционного и регрессионного анализа. Коэффициент ранговой корреляции Кендалла, Спирмена, Фехнера. Определение тесноты взаимосвязи между показателями.

    контрольная работа [558,5 K], добавлен 08.04.2013

  • Средние статистические величины и аналитическая группировка данных предприятия. Результаты расчета коэффициента Фехнера по цехам. Измерение степени тесноты связи в статистике с помощью показателя корреляции. Поля корреляции и уравнения регрессии для цеха.

    практическая работа [495,9 K], добавлен 26.11.2012

  • Порядок составления и исследование вариационного ряда, первичная обработка полученных данных. Подбор закона распределения одномерной случайной величины и построение регрессионной модели данной системы. Вывод о значимости коэффициента корреляции.

    лабораторная работа [147,6 K], добавлен 15.03.2014

  • Задачи корреляционного анализа. Статистическое изучение взаимосвязей. Коэффициенты ассоциации и контингенции, коэффициенты Пирсона и Чупрова. Связи между дихотомическими переменными. Применение статистического анализа для хозяйственных субъектов.

    контрольная работа [246,2 K], добавлен 14.01.2015

  • Расчет матрицы выборочных парных коэффициентов корреляции при помощи пакета анализа программы Excel. Однофакторный и двухфакторный дисперсионный анализ. Построение регрессионной модели. Модальный интервал по значению числа видов производимой продукции.

    контрольная работа [281,7 K], добавлен 29.03.2010

  • Эффективность оборотных средств. Оценка тесноты связи между факторным и результативным показателями на основе корреляционного анализа. Проверка значимости коэффициента корреляции. Оценка значимости уравнения линейной регрессии. Формы связи показателей.

    курсовая работа [143,2 K], добавлен 15.03.2015

  • Критерий Колмогорова-Смирнова как наиболее эффективный критерий проверки нормальности распределения. Построение диаграммы рассеяния. Значение коэффициента корреляции. Особенности связи последовательности в принятии решений и открытости, искренности.

    контрольная работа [92,1 K], добавлен 01.03.2017

  • Обобщение и систематизация теоретических и методических основ экономического анализа. Понятие, типы и задачи факторного анализа. Приемы изучения прямой и обратной детерминированной факторной связи. Сущность, задачи и методы стохастического моделирования.

    учебное пособие [516,9 K], добавлен 11.06.2009

  • Основные понятия корреляционно-регрессионного анализа. Вычисление показателей силы и тесноты связи между явлениями и процессами, специфика их интерпретации. Оценка результатов линейного регрессионного анализа. Коэффициент множественной детерминации.

    контрольная работа [228,2 K], добавлен 02.04.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.