Your SlideShare is downloading. ×
6
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
3,922
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
8
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Метод наименьших квадратов.
    • В математической статистике методы получения наилучшего приближения к исходным данным в виде аппроксимирующей функции получили название регрессионного анализа.
    • Основными задачами регрессионного анализа являются установление зависимости между переменными и оценка (прогноз) значений зависимой переменной.
    • В экономических исследованиях часто заданному значению одной переменной может соответствовать множество значений другой переменной.
    • Другими словами, каждому значению одной переменной соответствует условное распределение другой переменной.
    • Зависимость, при которой каждому значению одной переменной соответствует условное математическое ожидание другой называется регрессионной:
    • M(Y|X) = f(X)
  • 2. Метод наименьших квадратов.
    • Уравнение парной регрессии.
    • y t = a 0 + a 1 x t + u t (7.1)
    • Постановка задачи.
    • Дано: выборка наблюдений за поведением переменных y t и x t .
    • Найти: 1. Оценки значений параметров a 0 и a 1 .
    • 2. Оценки точности σ ( a 0 ) и σ ( a 1 ).
    • 3. Оценка рассеяния случайного возмущения σ u .
    • 4. Оценку точности прогнозирования σ ( y(x0)).
    Выборка: y 1 x 1 y 2 x 2 ……… . y n x n Принятые обозначения: Система уравнений наблюдений. y 1 = a 0 + a 1 x 1 + u 1 y t = a 0 + a 1 x 2 + u 2 …………………… y n = a 0 + a 1 x n + u n
  • 3. Метод наименьших квадратов Идея метода. Пусть имеем выборку из 4-х точек ( n=4): P 1 =(x 1 , y 1 ) P 2 =(x 2 , y 2 ) P 3 =(x 3 , y 3 ) P 4 =(x 4 , y 4 ) P 1 P 2 P 3 P 4 На практике мы имеем возможность наблюдать только исходные точки. Предполагаем, что существует теоретическая прямая, которая наилучшим образом проходит через них. Задача: оценить с некоторой точностью, как может проходить эта прямая .
  • 4. Метод наименьших квадратов P 4 Q 4 u 4 ã 0 Y Y Любое значение Y можно представить в виде суммы неслучайной величины a 0 +a 1 x и случайной величины u. Идея метода заключается в том, чтобы найти такие значения параметров, которые обеспечат минимум суммы квадратов случайных отклонений. ỹ a 0 X X 1 X 2 X 3 X 4
  • 5. Реализация метода наименьших квадратов
    • Итак, оценки параметров модели парной регрессии согласно МНК будем искать из условия:
    • S= Σ u i 2 = Σ (y i -ã 0 +ã 1 x i ) 2 =min
    • Условиями минимума функции являются равенство нулю первых
    • производных и положительность вторых производных по ã 0 и ã 1 .
    при этом: (7.2) Система уравнений (7.2) называется системой нормальных уравнений для вычисления оценок параметров модели (7.1)
  • 6. Реализация метода наименьших квадратов
    • Упростим систему нормальных уравнений (7.2)
    (7.3) Для решения системы (7.3) выразим из первого уравнения ã 0, подставим его во второе уравнение.
  • 7. Реализация метода наименьших квадратов
    • Вычислив с помощью (7.5) оценку ã 1 , с помощью выражения (7.4) получим значение оценки параметра ã 0 .
    Тогда выражение (7.5) можно записать в виде: ( 7.6)
  • 8. Реализация метода наименьших квадратов
    • Вопрос. Как связано полученное решение со случайными возмущениями ?
    Подставляя (7.7) в (7.6) получим выражение : (7.7) Условие несмещенности оценки параметра ã 1
  • 9. Характеристики точности уравнения парной регрессии Вычислим дисперсии параметров уравнения регрессии и дисперсию прогнозирования эндогенной переменной. 1. Дисперсия параметра ã 1 ( 7.8)
  • 10. Характеристики точности уравнения парной регрессии Дисперсия параметра ã 0 Дисперсия σ 2 ( ã 1 ) известна (7.8), необходимо вычислить дисперсию y . ( 7.9) В результате получаем: (7.10)
  • 11. Характеристики точности уравнения парной регрессии Дисперсия прогноза эндогенной переменной. Ковариации между случайными возмущениями и оценками параметров равны нулю, т.к. эти переменные независимые. Подставляя в (7.11) (7.10), (7,8) и (7,12), получаем: (7.11) (7.12) (7.13)
  • 12. Пример применения МНК X -стаж работы сотрудника; Y- часовая оплата труда. Модель: Y t =a 0 +a 1 X t +U t Σ x i =2 1 0; Σ y i =1 46 .42; Σ x i 2 = 2870 ; Σ x i y i = 1897 . 6 6
  • 13. Пример применения МНК Графическое отображение результатов Y=1.63+0.54X Y- σ (Y) Y+ σ (Y)