SlideShare a Scribd company logo
1 of 53
Основные этапы построения и анализа регрессионной модели.  Простая (парная) регрессия Лекция 3
Основные этапы построения и анализа регрессионной модели ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Выдвижение рабочей гипотезы Теоретическая регрессия
Теоретическая регрессия  1 y x y  =    +   x  Начинаем с выдвижения рабочей гипотезы о форме  и характере зависимости
Влияние случайного члена ,[object Object],1 P 4 y x x 1 x 2 x 3 x 4  P 3 P 2 P 1 Q 1 Q 2 Q 3 Q 4 5 y  =    +   x y  =    +   x  +  u
Построение регрессионной модели Теоретическая и расчетная  регрессии
Наблюдаемые значения P 4 y x x 1 x 2 x 3 x 4 P 3 P 2 P 1 7 На практике мы можем наблюдать только точки  P .
Теоретическая и расчетная регрессии  P 4 y x x 1 x 2 x 3 x 4 P 3 P 2 P 1 a 8 По этим точкам строим регрессию y  =  a  +  bx ^
Остатки P 4 y x x 1 x 2 x 3 x 4 P 3 P 2 P 1 R 1 R 2 R 3 R 4 y  -  y  =  e  (остаток) ^ e 1 e 2 e 3 e 4 a 10 y  (фактическое значение) y  (расчетное значение) ^ y  =  a  +  bx ^
Расхождение теоретической и расчетной регрессий P 4 y x x 1 x 2 x 3 x 4 P 3 P 2 P 1 R 1 R 2 R 3 R 4 a y  =    +   x 11 y  (фактическое значение) Теоретическая и расчетная линии регрессии не совпадают Остатки не совпадают со значениями случайного члена y  (расчетное значение) ^ y  =  a  +  bx ^
Метод наименьших квадратов
Идея метода наименьших квадратов  Метод наименьших квадратов: Минимизировать  S , где 20
Вид суммы квадратов остатков Метод наименьших квадратов: Минимизировать  S , где 20
Вывод формул для оценки коэффициентов - 1  20
Вывод формул для оценки коэффициентов - 2 20
Прямой расчет коэффициентов регрессии 20 Расчетные формулы для коэффициентов парной регрессии
Практические расчеты в программе  MicroTSP
Построение парной регрессии ,[object Object],LS Y -  зависимая переменная С - константа,  X -  независимая переменная  LS  Y  C  X Формат команды: Указание константы обязательно Команды метода наименьших квадратов Примеры:  LS  HOUS  C  DPI
Интерпретация коэффициентов регрессии
Интерпретация коэффициента при объясняющей переменной ,[object Object],Обязательно указание точного характера изменения (увеличение, уменьшение), конкретного числового значения и единиц измерения.  Интерпретация коэффициента линейной регрессии Примеры:   HOUS =-27,57+0,178 DPI   0,178  показывает, что при росте совокупного личного располагаемого дохода на 1 млрд долларов расходы на жилье возрастают на 178 миллионов долл.
Интерпретация свободного члена ,[object Object],Часто экономическая интерпретация отсутствует. Прежде, чем давать интерпретацию  a  и  b ,  нужно убедиться в высоком качестве уравнения.  Интерпретация свободного члена Примеры:   HOUS =-27,57+0,178 DPI   -27,57  указывает на точку пересечения оси  y.  Экономический смысл здесь отсутствует.
Качество уравнения регрессии (предварительное рассмотрение)
Коэффициент детерминации ,[object Object],[object Object],R-squared Не позволяет дать окончательного заключения без учета других факторов Отсутствуют таблицы для критических значений, для этого нужно рассчитывать на его основе другие показатели.  Подвержен влиянию посторонних факторов и может привести к ошибочному выводу.  Коэффициент детерминации
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Вспомогательные приемы анализа качества уравнения
Прямой доступ к данным, результатам и процедурам расчетов
Встроенный калькулятор ,[object Object],= +, -, *,  / ,  ^ Арифметические действия Можно использовать скобки. Допустимы дробные степени, включая квадратный корень.  Вспомогательные расчеты Примеры:  =2*2 =(17/2)^(1/2)
Прямое обращение к данным ,[object Object],X ( n- 1) Первое наблюдение соответствует номеру 0  Получение значения переменной Примеры:  HOUS(0) DPI(11) PHOUS(25)/TPE(25)*100
Встроенные функции ,[object Object],@ FUNCTION ( …) @Cov(X,Y), @Cor(X,Y) @Var(X) @Sum(X) @Mean(X) Наиболее важные функции Статистические функции Примеры:  =@Mean(HOUS) =@Cov(X,Y)/@Var(X)
Вектор параметров ,[object Object],C(n) С(1)  - свободный член регрессии С(2) - коэффициент регрессии Параметры модели и константы Примеры:  =С(1)+С(2)*100 =C(1)+С(2)*DPI(24)
Остатки ,[object Object],RESID Зарезервированное имя для остатков Примеры:  PLOT(A)  RESID
Генерация новых переменных ,[object Object],GENR Генерация данных Примеры:  GENR E=RESID GENR E=Y-C(1)-C(2)*X
Детальное рассмотрение проблемы качества регрессионой модели
Свойства оцененных уравнений и остатков 1 Три полезных предварительных результата Эти результаты легко доказываются, исходя из свойств средних и ковариации, а также могут быть проверены на примерах
Смысл коэффициента детерминации - 1 36 Смысл коэффициента детерминации
Смысл коэффициента детерминации - 2 36 Смысл коэффициента детерминации
Смысл коэффициента детерминации - 3 36 Смысл коэффициента детерминации
Смысл коэффициента детерминации - 4 36 Смысл коэффициента детерминации
Смысл коэффициента детерминации - 5 36 Смысл коэффициента детерминации
Разложение суммы квадратов остатков 36 TSS  - Total Sum of Squares   - полная сумма квадратов  Смысл коэффициента детерминации
«Объясненная» сумма квадратов остатков 36 TSS  - Total Sum of Squares   - полная сумма квадратов  E SS  - Explained Sum of Squares   - «объясненная» сумма квадратов  Смысл коэффициента детерминации
«Остаточная» сумма квадратов остатков Смысл коэффициента детерминации 36 TSS  - Total Sum of Squares   - полная сумма квадратов  E SS  - Explained Sum of Squares   - «объясненная» сумма квадратов  RSS  -  Residual  Sum of Squares   - «оставшаяся» сумма квадратов
Коэффициент детерминации как отношение Смысл коэффициента детерминации 36
Интерпретация коэффициента детерминации Смысл коэффициента детерминации 36 R 2   показывает долю дисперсии зависимой переменной, “объясненной” (уравнением регрессии)
Связь коэффициента детерминации и остатков Смысл коэффициента детерминации 36
Эквивалентность критерия детерминации и МНК - 1 36
Эквивалентность критерия детерминации и МНК - 2 36 Если  R 2   достигает своего наибольшего возможного значения , то одновременно минимизируется сумма квадратов остатков
Эквивалентность критерия детерминации и МНК - 3 36 Если  R 2   достигает своего наибольшего возможного значения , то одновременно минимизируется сумма квадратов остатков Критерий качества  R 2   эквивалентнен принципу наименьших квадратов
Связь показателя   R 2   с   коэффициентом корреляции
Связь показателя   R 2   с   коэффициентом корреляции 43
Практическое использование регрессионной модели ,[object Object],[object Object]
Использование вектора коэффициентов ,[object Object],=C (1)+ C (2)* X Аналитические и прогнозные расчеты.  Примеры:  =С(1)+С(2)*(DPI(24)  GENR  YEST=C(1)+C(2)*DPI
Команды  MicroTSP  для расчета и анализа парной регрессии (обзор) Расчет регрессии:   LS Генерация новой переменной:   GENR Функции:   @Sum( X ), @Mean( X ), @Var( X ) ,  @Cov( X , Y ), @Cor( X , Y ) Вектор параметров:   C(1), C(2) Аналитические и прогнозные расчеты:   = C (1) +C (2) *X Остатки:   RESID
Конец лекции

More Related Content

What's hot

10 a n_r
10 a n_r10 a n_r
10 a n_r4book
 
матемтик анализ лекц№ 2
матемтик анализ лекц№ 2матемтик анализ лекц№ 2
матемтик анализ лекц№ 2narangerelodon
 
Лекция 2 Сортировки, поиск и порядковые статистики
Лекция 2 Сортировки, поиск и порядковые статистикиЛекция 2 Сортировки, поиск и порядковые статистики
Лекция 2 Сортировки, поиск и порядковые статистикиsimple_people
 
Лекция 8 Динамическое программирование
Лекция 8 Динамическое программированиеЛекция 8 Динамическое программирование
Лекция 8 Динамическое программированиеsimple_people
 
Лекция 11 Приближенные алгоритмы
Лекция 11 Приближенные алгоритмыЛекция 11 Приближенные алгоритмы
Лекция 11 Приближенные алгоритмыsimple_people
 
практика 10
практика 10практика 10
практика 10student_kai
 
Доверительные интервалы
Доверительные интервалыДоверительные интервалы
Доверительные интервалыKurbatskiy Alexey
 
Корреляция и МНК (семинар)
Корреляция и МНК (семинар)Корреляция и МНК (семинар)
Корреляция и МНК (семинар)Kurbatskiy Alexey
 
математик анализ лекц№10
математик анализ лекц№10математик анализ лекц№10
математик анализ лекц№10narangerelodon
 
Методы оценивания
Методы оцениванияМетоды оценивания
Методы оцениванияKurbatskiy Alexey
 
геометрический смысл производной
геометрический смысл производнойгеометрический смысл производной
геометрический смысл производнойtkachenko_anna
 
Gia 2013 god_modul_algebra_zadacha_8
Gia 2013 god_modul_algebra_zadacha_8Gia 2013 god_modul_algebra_zadacha_8
Gia 2013 god_modul_algebra_zadacha_8Иван Иванов
 
вариант 1 ответы
вариант 1 ответывариант 1 ответы
вариант 1 ответыvova123367
 
Доверительные интервалы. Распределения F,t,chi^2
Доверительные интервалы. Распределения F,t,chi^2Доверительные интервалы. Распределения F,t,chi^2
Доверительные интервалы. Распределения F,t,chi^2Kurbatskiy Alexey
 
кустурова элем функции
кустурова элем функциикустурова элем функции
кустурова элем функцииurvlan
 
Исследование операций и методы оптимизации
Исследование операций и методы оптимизацииИсследование операций и методы оптимизации
Исследование операций и методы оптимизацииJakobow
 

What's hot (19)

10 a n_r
10 a n_r10 a n_r
10 a n_r
 
матемтик анализ лекц№ 2
матемтик анализ лекц№ 2матемтик анализ лекц№ 2
матемтик анализ лекц№ 2
 
Лекция 2 Сортировки, поиск и порядковые статистики
Лекция 2 Сортировки, поиск и порядковые статистикиЛекция 2 Сортировки, поиск и порядковые статистики
Лекция 2 Сортировки, поиск и порядковые статистики
 
Лекция 8 Динамическое программирование
Лекция 8 Динамическое программированиеЛекция 8 Динамическое программирование
Лекция 8 Динамическое программирование
 
Лекция 11 Приближенные алгоритмы
Лекция 11 Приближенные алгоритмыЛекция 11 Приближенные алгоритмы
Лекция 11 Приближенные алгоритмы
 
практика 10
практика 10практика 10
практика 10
 
Доверительные интервалы
Доверительные интервалыДоверительные интервалы
Доверительные интервалы
 
4
44
4
 
Корреляция и МНК (семинар)
Корреляция и МНК (семинар)Корреляция и МНК (семинар)
Корреляция и МНК (семинар)
 
математик анализ лекц№10
математик анализ лекц№10математик анализ лекц№10
математик анализ лекц№10
 
Functions
FunctionsFunctions
Functions
 
КР 3 с решением
КР 3 с решениемКР 3 с решением
КР 3 с решением
 
Методы оценивания
Методы оцениванияМетоды оценивания
Методы оценивания
 
геометрический смысл производной
геометрический смысл производнойгеометрический смысл производной
геометрический смысл производной
 
Gia 2013 god_modul_algebra_zadacha_8
Gia 2013 god_modul_algebra_zadacha_8Gia 2013 god_modul_algebra_zadacha_8
Gia 2013 god_modul_algebra_zadacha_8
 
вариант 1 ответы
вариант 1 ответывариант 1 ответы
вариант 1 ответы
 
Доверительные интервалы. Распределения F,t,chi^2
Доверительные интервалы. Распределения F,t,chi^2Доверительные интервалы. Распределения F,t,chi^2
Доверительные интервалы. Распределения F,t,chi^2
 
кустурова элем функции
кустурова элем функциикустурова элем функции
кустурова элем функции
 
Исследование операций и методы оптимизации
Исследование операций и методы оптимизацииИсследование операций и методы оптимизации
Исследование операций и методы оптимизации
 

Viewers also liked

Plots in neemrana behror,nh8 7
Plots in neemrana behror,nh8 7Plots in neemrana behror,nh8 7
Plots in neemrana behror,nh8 7Baburaj Patel
 
青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」
青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」
青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」青森県立郷土館
 
青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」
青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」
青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」青森県立郷土館
 
Innovations in green chemistry and green engineering
Innovations in green chemistry and green engineeringInnovations in green chemistry and green engineering
Innovations in green chemistry and green engineeringSpringer
 
Ud 3.1 Arquitectura Antigua Roma
Ud 3.1 Arquitectura Antigua RomaUd 3.1 Arquitectura Antigua Roma
Ud 3.1 Arquitectura Antigua RomaFueradeclase Vdp
 
青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)
青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)
青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)aokomaki
 
セピア色の写真からー青森市のあの時ー
セピア色の写真からー青森市のあの時ーセピア色の写真からー青森市のあの時ー
セピア色の写真からー青森市のあの時ーaokomaki
 
TIPOS DE ENRGIA
TIPOS DE ENRGIATIPOS DE ENRGIA
TIPOS DE ENRGIAdavisrive
 

Viewers also liked (20)

WWAE005 - RL - Waste Walk November 15 2015
WWAE005 - RL - Waste Walk November 15 2015WWAE005 - RL - Waste Walk November 15 2015
WWAE005 - RL - Waste Walk November 15 2015
 
Plots in neemrana behror,nh8 7
Plots in neemrana behror,nh8 7Plots in neemrana behror,nh8 7
Plots in neemrana behror,nh8 7
 
4 social media management tools reviewed
4 social media management tools reviewed4 social media management tools reviewed
4 social media management tools reviewed
 
Proyecto educativo 2016
Proyecto educativo 2016Proyecto educativo 2016
Proyecto educativo 2016
 
Uk's resort profile
Uk's resort profileUk's resort profile
Uk's resort profile
 
青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」
青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」
青森県立郷土館土曜セミナー「世界遺産を歩くIv 中国の石窟」
 
Estadistica 1
Estadistica 1Estadistica 1
Estadistica 1
 
青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」
青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」
青森県立郷土館土曜セミナー「写真で見る昭和30年代の北国の人々と暮らし」
 
04052013
0405201304052013
04052013
 
Circuitos
CircuitosCircuitos
Circuitos
 
Innovations in green chemistry and green engineering
Innovations in green chemistry and green engineeringInnovations in green chemistry and green engineering
Innovations in green chemistry and green engineering
 
Ud 3.1 Arquitectura Antigua Roma
Ud 3.1 Arquitectura Antigua RomaUd 3.1 Arquitectura Antigua Roma
Ud 3.1 Arquitectura Antigua Roma
 
青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)
青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)
青森ねぶたの伝統を考える=工藤友哉(弘前大学大学院)
 
セピア色の写真からー青森市のあの時ー
セピア色の写真からー青森市のあの時ーセピア色の写真からー青森市のあの時ー
セピア色の写真からー青森市のあの時ー
 
Ud 0. Qué es el arte
Ud 0. Qué es el arteUd 0. Qué es el arte
Ud 0. Qué es el arte
 
תקציר הדוח הכספי 2015
תקציר הדוח הכספי 2015תקציר הדוח הכספי 2015
תקציר הדוח הכספי 2015
 
Kzn_013006
Kzn_013006Kzn_013006
Kzn_013006
 
PROJECT PPT. (1)
PROJECT PPT. (1)PROJECT PPT. (1)
PROJECT PPT. (1)
 
Social Media
Social MediaSocial Media
Social Media
 
TIPOS DE ENRGIA
TIPOS DE ENRGIATIPOS DE ENRGIA
TIPOS DE ENRGIA
 

Similar to Прикладная эконометрика. Лекция 3.

Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6Vladimir Tcherniak
 
Прогнозирование - Лекция 3. Множественная регрессия
Прогнозирование - Лекция 3. Множественная регрессияПрогнозирование - Лекция 3. Множественная регрессия
Прогнозирование - Лекция 3. Множественная регрессияGleb Zakhodiakin
 
19 pascal urok_3
19 pascal urok_319 pascal urok_3
19 pascal urok_3Ann Eres
 
практика 8
практика 8практика 8
практика 8student_kai
 
элементы языка и типы данных
элементы языка и типы данныхэлементы языка и типы данных
элементы языка и типы данныхЕлена Ключева
 
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессияПрогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессияGleb Zakhodiakin
 
Формирование целевой функции оценки качества раскатки слоеного теста
Формирование целевой функции оценки качества раскатки слоеного тестаФормирование целевой функции оценки качества раскатки слоеного теста
Формирование целевой функции оценки качества раскатки слоеного тестаITMO University
 
практика 10
практика 10практика 10
практика 10student_kai
 
Дмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках IIДмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках IIPlatonov Sergey
 
Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"Nikolay Grebenshikov
 
Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4Vladimir Tcherniak
 
практика 12
практика 12практика 12
практика 12student_kai
 
Regress 2015.05.011
Regress 2015.05.011Regress 2015.05.011
Regress 2015.05.011Kh Ider
 
В поисках математики. Михаил Денисенко, Нигма
В поисках математики. Михаил Денисенко, НигмаВ поисках математики. Михаил Денисенко, Нигма
В поисках математики. Михаил Денисенко, Нигмаyaevents
 
Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014Andrii Gakhov
 
Тренировочный вариант экзамена с решением
Тренировочный вариант экзамена с решениемТренировочный вариант экзамена с решением
Тренировочный вариант экзамена с решениемKurbatskiy Alexey
 

Similar to Прикладная эконометрика. Лекция 3. (20)

Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6
 
Прогнозирование - Лекция 3. Множественная регрессия
Прогнозирование - Лекция 3. Множественная регрессияПрогнозирование - Лекция 3. Множественная регрессия
Прогнозирование - Лекция 3. Множественная регрессия
 
19 pascal urok_3
19 pascal urok_319 pascal urok_3
19 pascal urok_3
 
10
1010
10
 
Regression
RegressionRegression
Regression
 
практика 8
практика 8практика 8
практика 8
 
элементы языка и типы данных
элементы языка и типы данныхэлементы языка и типы данных
элементы языка и типы данных
 
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессияПрогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
 
p01.pdf
p01.pdfp01.pdf
p01.pdf
 
Формирование целевой функции оценки качества раскатки слоеного теста
Формирование целевой функции оценки качества раскатки слоеного тестаФормирование целевой функции оценки качества раскатки слоеного теста
Формирование целевой функции оценки качества раскатки слоеного теста
 
практика 10
практика 10практика 10
практика 10
 
Дмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках IIДмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках II
 
Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"
 
14
1414
14
 
Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4Прикладная эконометрика. Лекция 4
Прикладная эконометрика. Лекция 4
 
практика 12
практика 12практика 12
практика 12
 
Regress 2015.05.011
Regress 2015.05.011Regress 2015.05.011
Regress 2015.05.011
 
В поисках математики. Михаил Денисенко, Нигма
В поисках математики. Михаил Денисенко, НигмаВ поисках математики. Михаил Денисенко, Нигма
В поисках математики. Михаил Денисенко, Нигма
 
Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014
 
Тренировочный вариант экзамена с решением
Тренировочный вариант экзамена с решениемТренировочный вариант экзамена с решением
Тренировочный вариант экзамена с решением
 

More from Vladimir Tcherniak

Прогноз технологического развития. Тубденов Виталий
Прогноз технологического развития. Тубденов ВиталийПрогноз технологического развития. Тубденов Виталий
Прогноз технологического развития. Тубденов ВиталийVladimir Tcherniak
 
Прогноз школьного экономического образования. Василий Ушаков
Прогноз школьного экономического образования. Василий УшаковПрогноз школьного экономического образования. Василий Ушаков
Прогноз школьного экономического образования. Василий УшаковVladimir Tcherniak
 
Экономика будущего. Ирина Бухтуева
Экономика будущего. Ирина БухтуеваЭкономика будущего. Ирина Бухтуева
Экономика будущего. Ирина БухтуеваVladimir Tcherniak
 
Lecture 10 Математика информации
Lecture 10 Математика информацииLecture 10 Математика информации
Lecture 10 Математика информацииVladimir Tcherniak
 
Lecture 09. Математика бедности и богатства.
Lecture 09. Математика бедности и богатства.Lecture 09. Математика бедности и богатства.
Lecture 09. Математика бедности и богатства.Vladimir Tcherniak
 
Lecture 06. Рекуррентные соотношения и числа Фибоначчи.
Lecture 06. Рекуррентные соотношения и числа Фибоначчи.Lecture 06. Рекуррентные соотношения и числа Фибоначчи.
Lecture 06. Рекуррентные соотношения и числа Фибоначчи.Vladimir Tcherniak
 
Lecture 05 Вероятность и риск
Lecture 05 Вероятность и рискLecture 05 Вероятность и риск
Lecture 05 Вероятность и рискVladimir Tcherniak
 
Lecture 03 Алгебра множеств. Конечные множества.
Lecture 03 Алгебра множеств. Конечные множества.Lecture 03 Алгебра множеств. Конечные множества.
Lecture 03 Алгебра множеств. Конечные множества.Vladimir Tcherniak
 
Lecture 02 Игры с бесконечностью
Lecture 02 Игры с бесконечностьюLecture 02 Игры с бесконечностью
Lecture 02 Игры с бесконечностьюVladimir Tcherniak
 
Lecture 1 Конечное и бесконечное в дискретной математике
Lecture 1 Конечное и бесконечное в дискретной математикеLecture 1 Конечное и бесконечное в дискретной математике
Lecture 1 Конечное и бесконечное в дискретной математикеVladimir Tcherniak
 
Лекция 4. Комбинаторика
Лекция 4. КомбинаторикаЛекция 4. Комбинаторика
Лекция 4. КомбинаторикаVladimir Tcherniak
 
Лекция 8. Алгоритмы (продолжение)
Лекция 8. Алгоритмы (продолжение)Лекция 8. Алгоритмы (продолжение)
Лекция 8. Алгоритмы (продолжение)Vladimir Tcherniak
 
Лекция 7. Алгоритмы
Лекция 7. АлгоритмыЛекция 7. Алгоритмы
Лекция 7. АлгоритмыVladimir Tcherniak
 
Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11Vladimir Tcherniak
 
Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9Vladimir Tcherniak
 

More from Vladimir Tcherniak (20)

Прогноз технологического развития. Тубденов Виталий
Прогноз технологического развития. Тубденов ВиталийПрогноз технологического развития. Тубденов Виталий
Прогноз технологического развития. Тубденов Виталий
 
Прогноз школьного экономического образования. Василий Ушаков
Прогноз школьного экономического образования. Василий УшаковПрогноз школьного экономического образования. Василий Ушаков
Прогноз школьного экономического образования. Василий Ушаков
 
Экономика будущего. Ирина Бухтуева
Экономика будущего. Ирина БухтуеваЭкономика будущего. Ирина Бухтуева
Экономика будущего. Ирина Бухтуева
 
Lecture 10 Математика информации
Lecture 10 Математика информацииLecture 10 Математика информации
Lecture 10 Математика информации
 
Lecture 09. Математика бедности и богатства.
Lecture 09. Математика бедности и богатства.Lecture 09. Математика бедности и богатства.
Lecture 09. Математика бедности и богатства.
 
Lecture 06. Рекуррентные соотношения и числа Фибоначчи.
Lecture 06. Рекуррентные соотношения и числа Фибоначчи.Lecture 06. Рекуррентные соотношения и числа Фибоначчи.
Lecture 06. Рекуррентные соотношения и числа Фибоначчи.
 
Lecture 05 Вероятность и риск
Lecture 05 Вероятность и рискLecture 05 Вероятность и риск
Lecture 05 Вероятность и риск
 
Lecture 03 Алгебра множеств. Конечные множества.
Lecture 03 Алгебра множеств. Конечные множества.Lecture 03 Алгебра множеств. Конечные множества.
Lecture 03 Алгебра множеств. Конечные множества.
 
Lecture 02 Игры с бесконечностью
Lecture 02 Игры с бесконечностьюLecture 02 Игры с бесконечностью
Lecture 02 Игры с бесконечностью
 
Lecture 1 Конечное и бесконечное в дискретной математике
Lecture 1 Конечное и бесконечное в дискретной математикеLecture 1 Конечное и бесконечное в дискретной математике
Lecture 1 Конечное и бесконечное в дискретной математике
 
Лекция 4. Комбинаторика
Лекция 4. КомбинаторикаЛекция 4. Комбинаторика
Лекция 4. Комбинаторика
 
Dm2016
Dm2016Dm2016
Dm2016
 
Лекция 8. Алгоритмы (продолжение)
Лекция 8. Алгоритмы (продолжение)Лекция 8. Алгоритмы (продолжение)
Лекция 8. Алгоритмы (продолжение)
 
Лекция 7. Алгоритмы
Лекция 7. АлгоритмыЛекция 7. Алгоритмы
Лекция 7. Алгоритмы
 
Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10Прикладная эконометрика. Лекция 10
Прикладная эконометрика. Лекция 10
 
Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8Прикладная эконометрика. Лекция 8
Прикладная эконометрика. Лекция 8
 
Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2Прикладная эконометрика. Лекция 2
Прикладная эконометрика. Лекция 2
 
Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1Прикладная эконометрика. Лекция 1
Прикладная эконометрика. Лекция 1
 
Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11Прикладная эконометрика. Лекция 11
Прикладная эконометрика. Лекция 11
 
Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9Прикладная эконометрика. Лекция 9
Прикладная эконометрика. Лекция 9
 

Прикладная эконометрика. Лекция 3.

Editor's Notes

  1. Допустим, что переменная y является линейной функцией другой переменной x , с неизвестными параметрами  и  которые мы хотим определить .
  2. Допустим, что у нас имеется выборка из 4 наблюдений значений x, как показано на рисунке. Если бы рассматриваемое соотношение между x и y было точным, то все наблюдения лежали бы на прямой линии, так что нетрудно было бы расчитать коэффициенты  и  . На практике большинство экономических зависимостей не являются точными, и фактические значения y отличаются от тех, что лежат на прямой линии. Чтобы допустить такие расхождения в модели, мы включим в нее случайный член u , так что модель теперь будет записываться как y =  +  x + u .
  3. Допустим, что у нас имеется выборка из 4 наблюдений значений x, как показано на рисунке. Если бы рассматриваемое соотношение между x и y было точным, то все наблюдения лежали бы на прямой линии, так что нетрудно было бы расчитать коэффициенты  и  . На практике большинство экономических зависимостей не являются точными, и фактические значения y отличаются от тех, что лежат на прямой линии. Чтобы допустить такие расхождения в модели, мы включим в нее случайный член u , так что модель теперь будет записываться как y =  +  x + u .
  4. Очевидно, мы можем использовать точки P для того, чтобы провести линию, которая послужит некоторым приближением к линии y =  +  x . Если мы запишем эту линию как y = a + bx , a можно рассматривать как оценку  а b – как оценку  . Эта линия называется расчетной моделью, а значения y, вычисленные по ней, называются расчетными значениями y . Они дают значения высот для точек R .
  5. Разности между фактическими значениями и регрессией известны как остатки
  6. Заметим, что значения остатков не совпадают со значениями случайного члена. На диаграмме истинная неизвестная зависимость изображена наряду с расчетной линией Случайный член представляет собой разность между фактическим наблюдением и неслучайной компонентой истинной зависимости. Остатки представляют собой разность фактический и расчетных значений. Используя теоретическую зависимость, можно разложить y на неслучайную компоненту  +  x и случайную компоненту u. Это – чисто теоретическое разложение, поскольку мы не знаем ни значений  и  , ни значений случайного члена. Тем не менее это разложение будет использоваться в анализе свойств коэфициентов регрессии. Другое разложение относится к расчетной линии. Это – вполне операциональное разложение, которые мы будем использовать для практических целей.
  7. Мы начнем с формулировки критерия: мы будем проводить прямую линию таким образом, чтобы минимизировать сумму квадратов остатков. Это условие называется принципом наименьших квадратов.
  8. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  9. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  10. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  11. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  12. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  13. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  14. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  15. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  16. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  17. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  18. Демонстрация регрессии Все демонстрируется на буферном файле Word . Таблица
  19. Разности между фактическими значениями и регрессией известны как остатки
  20. Дисперсия зависимой переменной раскладывается на сумму дисперсии расчетных значений (по уравнению регрессии) и дисперсии остатков Мы пользуемся отмеченным выше фактом о некоррелированности расчетных значений и остатков.
  21. Первая выражает «объясненную уравнением регрессии» часть общей дисперсии, тогда как вторая - оставшуюся необъясненной.
  22. Исходя из известных фактов о средних остатков и расчетных значений (они приведены внизу), выражение можно записать в очень простой форме
  23. Эти величины получили специальные обозначения, которые сейчас будут объяснены
  24. TSS - Total sum of squares - полная сумма квадратов - она рассчитывается для отклонений фактических значений от среднего - эта изменчивость зависимой переменной и подлежит объяснению с помощью регрессии
  25. E SS - Explained sum of squares - «объясненная сумма квадратов» - она рассчитывается для отклонений РАСЧЕТНЫХ значений от среднего РАСЧЕТ делается по уравнению регрессии - в этом и состоит «объяснение» - если бы ESS совпало с TSS , то регрессия объясняла бы всю изменчивость зависимой переменной
  26. Но обычно “объяснение” оказывается неполным - E SS - Residual sum of squares - «оставшаяся сумма квадратов» - измеряется изменчивостью «остатков», т.е. уклонений фактических значений от уравнения регрессии ВНИМАНИЕ ЭТИ ОБОЗНАЧЕНИЯ НЕ ПОДДЕРЖИВАЮТСЯ ВСЕМИ АВТОРАМИ У Магнуса все наоборот: Е SS - Error, RSS - Regression
  27. Поскольку нас интересует относительная величина «объясненной» части дисперсии, разделим ее на полную сумму квадратов. Получим показатель, известный как «Эр-квадрат» или «коэффициент детерминации»
  28. «Эр-квадрат» показывает долю дисперсии зависимой переменной, «объясненной» уравнением регрессии, т.е. вызванной изменениями независимых переменных (правильнее сказать, не «вызванной», а приписываемой влиянию независимых переменных, так как эконометрика на этом уровне не измеряет причинных связей) Если помнить об этом, то можно позволять себе вольности в интерпретации. .
  29. Коэффициент детерминации можно выразить через остатки уравнения
  30. Отсюда видно, что «эр-квадрат» не может превышать единицы (он всегда положительный, по крайней мере должен быть) Забавно, что на практике встречаются случаи отрицательного «эр-квадрат» - это бывает в очень плохих регрессиях из-за несовершенных численных алгоритмов
  31. В каждом конкретном уравнении «эр-квадрат» не удается довести до единицы, а лишь сделать максимальным - при этом, как мы видим, одновременно минимизируется сумма квадратов остатков. Так что Метод Наименьших Квадратов обеспечивает наибольший возможный коэффициент детерминации.
  32. Таким образом «эр-квадрат» в качестве критерия качества оказывается ЭКВИВАЛЕНТНЫМ принципу наименьших квадратов
  33. Теперь обсудим связь коэффициента детерминации с коэффициентном корреляции (известным еще из предварительного анализа ковариации переменных)
  34. Бросив взгляд на длинную цепочку выкладок и преобразований, сосредоточимся на результате: коэффициент корреляции представляет собой квадратный корень из коэффициента детерминации, так что «эр-квадрат» в парной регрессии является квадратом коэффициента корреляции (что и оправдывает его название)
  35. Покажем теперь кратко, как все сказанное можно использовать для аналитических расчетов (внутри диапазона выборки) и прогнозирования (расчетам вне диапазона выборки).
  36. Посмотрим, для чего можно использовать рассчитанную регрессию, например Демонстрация регрессии FOOD по DPI Все демонстрируется на буферном файле Word . Таблица регрессии Вектор коэффициентов Вектор коэффициентов позволяет вычислять расчетные значение по одному или все сразу. Демонстрация на этой регрессии
  37. Посмотрим, чему мы научились