Regresi linear berganda digunakan untuk mengetahui pengaruh antara satu atau beberapa variabel bebas terhadap satu variabel terikat. Hasil regresi memberikan koefisien dan koefisien determinasi untuk mengetahui kekuatan hubungan antar variabel. Uji autokorelasi dan heteroskedastisitas dilakukan untuk mengetahui ada tidaknya masalah pada asumsi klasik regresi linear.
2. Regresi Linear Berganda.
β’ Regresi linear adalah alat statistik yang
dipergunakan untuk mengetahui pengaruh
antara satu atau beberapa variabel
terhadap satu buah variabel.
β’ Variabel yang mempengaruhi sering
disebut variabel bebas, variabel
independen atau variabel penjelas
3. Hasil Regresi
Dependent Variable: Y
Method: Least Squares
Date: 12/24/16 Time: 20:44
Sample: 1962Q1 1967Q4
Included observations: 24
Variable Coefficient Std. Error t-Statistic Prob.
C 365.4065 7.995690 45.70043 0.0000
X -46.83080 1.653856 -28.31612 0.0000
R-squared 0.973295 Mean dependent var 141.8675
Adjusted R-squared 0.972081 S.D. dependent var 37.19489
S.E. of regression 6.214922 Akaike info criterion 6.571439
Sum squared resid 849.7555 Schwarz criterion 6.669610
Log likelihood -76.85726 Hannan-Quinn criter. 6.597483
F-statistic 801.8027 Durbin-Watson stat 1.341748
Prob(F-statistic) 0.000000
4. Cara Membaca Hasil Regresi
π = 365,41 β 46,83 π1
β’ π½0 = 365,41;
β’ Berarti nilai Y sebesar 365,41 pada saat π1
sama dengan nol atau konstan
β’ π½1 = 46,83;
β’ Koefisien regresi variabel π1 sebesar 46,83 ,
berarti ada pengaruh negatif antara π1 terhadap
Y sebesar 46,83
5. Koefisien Determinasi (πΉ π
)
β’ Koefisien Determinasi ( π 2
) merupakan
kemampuan menunjukkan model (Variabel
Penjelas) dalam menjelaskan variabel
terikat.
β’ Nilai π 2
besarnya 0< π 2
<1, dimana
semakin mendekati 1 maka dapat
dinyatakan model semakin baik
6. Koefisien Determinasi (πΉ π
)
β’ Koefisien determinasi π 2
yang disesuaikan
sebesar 0,97, berarti kemampuan variabel
π1 dalam menjelaskan variabel Y sebesar
97%. Sedangkan sisanya 3% dijelaskan
variabel lain di luar model yang secara
implisit tercermin pada variabel
penganggu
7. INGAT!
β’ DALAM MELIHAT (π 2) MAYORITAS
MENGINGINKAN (π 2) NILAINYA MENDEKATI 1
AGAR MODEL DIKATAKAN SEMAKIN BAIK.
β’ DALAM PRAKTEKNYA TIDAK SELALU (π 2
)
HARUS MENDEKATI 1 MENGINGAT HARUS
ADA KESESUAIAN ANTARA TEORI DAN
VARIABEL YANG AKAN DITELITI
9. β’ Untuk melihat apakah terjadi korelasi antara
suatu periode t dengan periode sebelumnya (t
-1).
β’ Secara sederhana adalah bahwa analisis
regresi adalah untuk melihat pengaruh antara
variabel bebas terhadap variabel terikat, jadi
tidak boleh ada korelasi antara observasi
dengan data observasi sebelumnya.
10. β’ Uji autokorelasi hanya dilakukan pada data time
series (runtut waktu) dan tidak perlu dilakukan
pada data cross section seperti pada kuesioner
di mana pengukuran semua variabel dilakukan
secara serempak pada saat yang bersamaan.
β’ Beberapa uji statistik yang sering dipergunakan
adalah uji Durbin-Watson, uji dengan Run Test
dan jika data observasi di atas 100 data
sebaiknya menggunakan uji Lagrange Multiplier.
11. Ketentuan Penggunaan DW Statistik
β’ 0 < d < dl, berarti terjadi autokorelasi negatif
β’ dl< d < du, berarti inclonklusive atau tidak dapat
disimpulkan
β’ du < d < 4 - du, berarti tidak terjadi autokorelasi
β’ 4-du < d < 4-dl, berarti inclonklusive atau tidak
dapat disimpulkan
β’ 4-du > d > 4-dl, berarti terjadi autokorelasi positif
12. Membandingkan DW Hitung dan
DW Tabel
β’ Tingkat derajat level yang diinginkan 5%,
ingat tingkat derajat level tidak harus
menggunakan 5%.
β’ cari nilai n ?
β’ cari jumlah k?
β’ cari dl ?
β’ cari du ?
13. β’ n = 24, k = 1, diperoleh dl = 1,27 dan dua = 1,45
serta 4-dl = 2,73 dan 4-du = 2,25
Kesimpulan
dl < d <4-du/ 1,27 < 1,34 < 1,45
Maka tidak dapat disimpulkan, berarti tidak dapat
diketahui dengan pasti apakah terjadi korelasi
antara variabel gangguan yang satu dengan
variabel gangguan pada observasi lainnya.
Berarti odel harus diperbaiki, agar autokorelasi
dapat diperbaiki
15. β’ Beberapa cara untuk menanggulangi masalah
autokorelasi adalah dengan mentransformasikan
data atau bisa juga dengan mengubah model
regresi ke dalam bentuk persamaan beda umum
(generalized difference equation).
β’ Selain itu juga dapat dilakukan dengan
memasukkan variabel lag dari variabel terikatnya
menjadi salah satu variabel bebas, sehingga data
observasi menjadi berkurang 1.
16. Langkah β langkah
Melakukan Uji Autokorelasi
β’ Melakukan regresi antara variabel bebas
dan terikat
β’ Mencari nilai residual
Genr ui = resid
β’ Mencari nilai koefisien autokorelasi (π)/
melakukan transformasi variabel terikat
βππ‘= ππ‘ β ππ‘β1dan βππ‘= ππ‘ β ππ‘β1
β’ Meregresikan variabel βππ‘ dan βππ‘
β’ Menguji autokorelasi kembali
17. Mencari nilai koefiein autokorelasi
(π)/ autoregresif derajad pertama
Dependent Variable: UI
Method: Least Squares
Date: 12/25/16 Time: 09:21
Sample (adjusted): 1962Q2 1967Q4
Included observations: 23 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
UI(-1) 0.256366 0.201076 1.274973 0.2156
R-squared 0.063697 Mean dependent var 0.423193
Adjusted R-squared 0.063697 S.D. dependent var 5.842231
S.E. of regression 5.653104 Akaike info criterion 6.344791
Sum squared resid 703.0669 Schwarz criterion 6.394161
Log likelihood -71.96510 Hannan-Quinn criter. 6.357208
Durbin-Watson stat 1.827320
Dari hasil regresi diperoleh koefisien regresi
UI(-1)(π) sebesar 0,256
18. Melakukan Transformasi Variabel
β’ Genr Y_Tho=Y-(0,256*Y(-1)) kemudian
dilanjutkan dengan
β’ Genr X_Tho=X-(0,256*X(-1))
Melakukan Regresi Variabel Baru
Y_Tho dengan X_Tho
19. Melakukan Regresi Variabel Baru
Dependent Variable: Y_THO
Method: Least Squares
Date: 12/25/16 Time: 09:53
Sample (adjusted): 1962Q2 1967Q4
Included observations: 23 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C 269.7026 7.316626 36.86160 0.0000
X_THO -46.07193 2.052425 -22.44756 0.0000
R-squared 0.959992 Mean dependent var 107.6768
Adjusted R-squared 0.958087 S.D. dependent var 28.05148
S.E. of regression 5.742908 Akaike info criterion 6.416750
Sum squared resid 692.6008 Schwarz criterion 6.515488
Log likelihood -71.79262 Hannan-Quinn criter. 6.441582
F-statistic 503.8928 Durbin-Watson stat 1.829411
Prob(F-statistic) 0.000000
20. β’ n = 23, k = 1, diperoleh dl = 1,257 dan du
= 1,437 serta 4-dl = 2,743 dan 4-du =
2,563
Kesimpulan
dl < d <4-du/ 1,257 < 1,829 < 2,563
Maka pada model ini tidak terjadi
autokorelasi
22. β’ Uji heteroskedastisitas adalah untuk
melihat apakah terdapat ketidaksamaan
varians dari residual satu ke pengamatan
ke pengamatan yang lain.
β’ Uji statistik yang dapat digunakan adalah
Uji Breusch β Pagan β Test, uji Glejser,
uji White.
24. Langkah β Langkah melakukan Uji
BPGβ’ Estimiasi model persamaan
β’ Buat model persamaan untuk model regresi auxiliary
β’ Membuat hipotesa
β’ πΉβππ‘π’ππ > πΉπ‘ππππ;
Maka π»0 ditolak dan π»πditerima/terjadi
heteroskedastisitas
β’ πΉβππ‘π’ππ< πΉπ‘ππππ
Maka π»0 diterima dan π»πditolak/ tidak terjadi
heteroskedastisitas
β’ Membandingkan statistik πΉβππ‘π’ππdan πΉπ‘ππππ
25. Hasil Estimasi
Dependent Variable: Y
Method: Least Squares
Date: 12/26/16 Time: 05:43
Sample: 1990 1999
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 17.64921 3.530867 4.998547 0.0025
X1 -0.021505 0.039425 -0.545478 0.6051
X2 -0.042767 0.017756 -2.408560 0.0527
X3 3.602069 0.618745 5.821572 0.0011
R-squared 0.993354 Mean dependent var 111.0000
Adjusted R-squared 0.990031 S.D. dependent var 31.42893
S.E. of regression 3.138089 Akaike info criterion 5.414280
Sum squared resid 59.08563 Schwarz criterion 5.535314
Log likelihood -23.07140 Hannan-Quinn criter. 5.281506
F-statistic 298.9192 Durbin-Watson stat 2.996671
Prob(F-statistic) 0.000001
26. Heteroskedasticity Test: Breusch-Pagan-Godfrey
F-statistic 3.625258 Prob. F(3,6) 0.0841
Obs*R-squared 6.444607 Prob. Chi-Square(3) 0.0919
Scaled explained SS 1.299760 Prob. Chi-Square(3) 0.7292
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 12/26/16 Time: 05:44
Sample: 1990 1999
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 22.33789 5.417055 4.123622 0.0062
X1 -0.028630 0.060486 -0.473328 0.6527
X2 0.033982 0.027241 1.247447 0.2587
X3 -1.496094 0.949279 -1.576032 0.1661
R-squared 0.644461 Mean dependent var 5.908563
Adjusted R-squared 0.466691 S.D. dependent var 6.592616
S.E. of regression 4.814456 Akaike info criterion 6.270298
Sum squared resid 139.0739 Schwarz criterion 6.391332
Log likelihood -27.35149 Hannan-Quinn criter. 6.137523
F-statistic 3.625258 Durbin-Watson stat 1.598673
Prob(F-statistic) 0.084101
27. Hipotesa
β’ πΉβππ‘π’ππ > πΉπ‘ππππ;
Maka π»0 ditolak dan π»πditerima/terjadi heteroskedastisitas
β’ πΉβππ‘π’ππ< πΉπ‘ππππ
Maka π»0 diterima dan π»πditolak/ tidak terjadi heteroskedastisitas
Membandingkan statistik π ππππππdan π πππππ
3,63 < 4,76
Tidak Terjadi Heteroskedastisitas
29. Langkah β Langkah Menggunakan
White Test
β’ Estimiasi model persamaan
β’ Melakukan Uji White Test
β’ Membuat Asumsi
β’ π β π£πππ’π πππ βR β Square < πΌ
π»0 ditolak dan π»πditerima/terjadi heteroskedastisitas
β’ π β π£πππ’π πππ βR β Square > πΌ
π»0 diterima dan π»πditolak/ tidak terjadi heteroskedastisitas
β’ Membandingkan statistik π β π£πππ’π πππ β R β Square
dengan πΌ
30. Heteroskedasticity Test: White
F-statistic 2.288185 Prob. F(3,6) 0.1785
Obs*R-squared 5.336022 Prob. Chi-Square(3) 0.1488
Scaled explained SS 1.076179 Prob. Chi-Square(3) 0.7828
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 12/26/16 Time: 06:08
Sample: 1990 1999
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 14.22660 3.714249 3.830276 0.0087
X1^2 -9.60E-05 0.000198 -0.483997 0.6455
X2^2 7.85E-06 8.04E-06 0.976129 0.3667
X3^2 -0.012866 0.010150 -1.267558 0.2519
R-squared 0.533602 Mean dependent var 5.908563
Adjusted R-squared 0.300403 S.D. dependent var 6.592616
S.E. of regression 5.514189 Akaike info criterion 6.541701
Sum squared resid 182.4377 Schwarz criterion 6.662735
Log likelihood -28.70850 Hannan-Quinn criter. 6.408927
F-statistic 2.288185 Durbin-Watson stat 1.539886
Prob(F-statistic) 0.178541
31. Hipotesa
β’ π β π£πππ’π πππ βR β Square < πΌ
π»0 ditolak dan π»πditerima/terjadi heteroskedastisitas
β’ π β π£πππ’π πππ βR β Square > πΌ
π»0 diterima dan π»πditolak/ tidak terjadi heteroskedastisitas
β’ Membandingkan statistik π β π£πππ’π πππ β
R β Square
dengan πΌ
5,34 > 0,05
Tidak Terjadi Heteroskedastisitas
33. Langkah β Langkah Menggunakan
Glejser
β’ Estimiasi model persamaan
β’ Melakukan Uji Glejser
β’ π‘βππ‘π’ππ > π‘π‘ππππ;
Maka π»0 ditolak dan π»πditerima/terjadi heteroskedastisitas
β’ π‘βππ‘π’ππ< π‘π‘ππππ
Maka π»0 diterima dan π»πditolak/ tidak terjadi heteroskedastisitas
β’ Membandingkan statistik π‘βππ‘π’ππ dengan π‘π‘ππππ
34. Heteroskedasticity Test: Glejser
F-statistic 3.716753 Prob. F(3,6) 0.0804
Obs*R-squared 6.501511 Prob. Chi-Square(3) 0.0896
Scaled explained SS 2.855102 Prob. Chi-Square(3) 0.4145
Test Equation:
Dependent Variable: ARESID
Method: Least Squares
Date: 12/26/16 Time: 06:22
Sample: 1990 1999
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 5.010934 1.077036 4.652521 0.0035
X1 0.004837 0.012026 0.402238 0.7014
X2 0.005501 0.005416 1.015620 0.3490
X3 -0.279644 0.188739 -1.481648 0.1889
R-squared 0.650151 Mean dependent var 2.082575
Adjusted R-squared 0.475227 S.D. dependent var 1.321382
S.E. of regression 0.957226 Akaike info criterion 3.039619
Sum squared resid 5.497685 Schwarz criterion 3.160653
Log likelihood -11.19810 Hannan-Quinn criter. 2.906845
F-statistic 3.716753 Durbin-Watson stat 1.901227
Prob(F-statistic) 0.080364
35. Hipotesa
β’ π‘βππ‘π’ππ > π‘π‘ππππ;
Maka π»0 ditolak dan π»πditerima/terjadi heteroskedastisitas
β’ π‘βππ‘π’ππ< π‘π‘ππππ
Maka π»0 diterima dan π»πditolak/ tidak terjadi heteroskedastisitas
Membandingkan statistik π ππππππdan π πππππ
πΏ π 0,40 < 1,943
πΏ π 1,02 < 1,943
πΏ π 1,48 < 1,943
Tidak Terjadi Heteroskedastisitas
37. β’ Beberapa alternatif solusi jika model
menyalahi asumsi heteroskedastisitas adalah
dengan mentransformasikan ke dalam
bentuk logaritma, yang hanya dapat
dilakukan jika semua data bernilai positif.
β’ Atau dapat juga dilakukan dengan membagi
semua variabel dengan variabel yang
mengalami gangguan heteroskedastisitas.
39. β’ Uji multikolinearitas adalah untuk melihat ada atau
tidaknya korelasi yang tinggi antara variabel-
variabel bebas dalam suatu model regresi linear
berganda.
β’ Alat statistik yang sering dipergunakan untuk
menguji gangguan multikolinearitas adalah dengan
variance inflation factor (VIF), korelasi pearson
antara variabel-variabel bebas, atau dengan
melihat eigenvalues dan condition index (CI).
41. Langkah β Langkah Menggunakan Metode Klian
β’ Meregresikan seluruh variabel bebas dengan variabel terikat
β’ Meregresikan antara variabel bebas satu dengan variabel bebas
lainnya
β’ Membandingkan π 2 antara hasil regresi
π 2 (dari hasil regresi seluruh variabel bebas dengan variabel terikat)
dibandingkan dengan π 2
(dari hasil regresi antara variabel bebas
satu dengan variabel bebas lainnya).
β’ π π¦,π₯1,π₯2,β¦.π₯π
2
> π π₯1,π₯2,β¦.π₯π
2
;
Maka tidak terjadi multikolinieritas yang disebab oleh X1, X2,.....Xn
β’ π π¦,π₯1,π₯2,β¦.π₯π
2
< π π₯1,π₯2,β¦.π₯π
2
;
Maka terjadi multikolinieritas yang disebab oleh X1, X2,.....Xn
42. Meregresikan Variabel Y dengan
X1 dan X2
Dependent Variable: Y
Method: Least Squares
Date: 12/26/16 Time: 08:33
Sample: 1990 1999
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 25.38343 7.809425 3.250358 0.0141
X1 -0.106584 0.087410 -1.219352 0.2622
X2 0.058732 0.008025 7.318530 0.0002
R-squared 0.955812 Mean dependent var 111.0000
Adjusted R-squared 0.943187 S.D. dependent var 31.42893
S.E. of regression 7.491212 Akaike info criterion 7.108663
Sum squared resid 392.8278 Schwarz criterion 7.199439
Log likelihood -32.54332 Hannan-Quinn criter. 7.009083
F-statistic 75.70772 Durbin-Watson stat 2.571846
Prob(F-statistic) 0.000018
43. Meregresikan Variabel X1 dengan X2
Dependent Variable: X1
Method: Least Squares
Date: 12/26/16 Time: 09:20
Sample: 1990 1999
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 22.15423 30.60076 0.723976 0.4897
X2 0.078855 0.016625 4.743173 0.0015
R-squared 0.737685 Mean dependent var 160.0000
Adjusted R-squared 0.704896 S.D. dependent var 55.77734
S.E. of regression 30.30020 Akaike info criterion 9.837042
Sum squared resid 7344.819 Schwarz criterion 9.897559
Log likelihood -47.18521 Hannan-Quinn criter. 9.770655
F-statistic 22.49769 Durbin-Watson stat 2.716622
Prob(F-statistic) 0.001458
44. Meregresikan Variabel X2 dengan X1
Dependent Variable: X2
Method: Least Squares
Date: 12/26/16 Time: 09:22
Sample: 1990 1999
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 251.3000 332.3793 0.756064 0.4713
X1 9.355000 1.972309 4.743173 0.0015
R-squared 0.737685 Mean dependent var 1748.100
Adjusted R-squared 0.704896 S.D. dependent var 607.5277
S.E. of regression 330.0303 Akaike info criterion 14.61310
Sum squared resid 871360.2 Schwarz criterion 14.67362
Log likelihood -71.06551 Hannan-Quinn criter. 14.54672
F-statistic 22.49769 Durbin-Watson stat 1.996662
Prob(F-statistic) 0.001458
45. Intepretasi
β’ Melakukan perbandingan π 2
π π¦,π₯1,π₯2
2
= 0,956
π π₯1,π₯2
2
= 0,737
β’ Sehingga π π¦,π₯1,π₯2
2
(0,956) > π π₯1,π₯2
2
(0,737),
maka dapat disimpulkan tidak terjadi
multikolinieritas
47. Langkah β Langkah Menggunakan Metode Uji F
(Serentak)
β’ Meregresikan antara variabel bebas satu dengan
variabel bebas lainnya
β’ Membandingkan πΉβππ‘π’ππ dengan πΉπ‘ππππ antara hasil
regresi variabel bebas satu dengan variabel bebas
lainnya
β’ πΉβππ‘π’ππ > πΉπ‘ππππ;
Maka terjadi multikolinieritas antara variabel bebas
β’ πΉβππ‘π’ππ < πΉπ‘ππππ;
Maka tidak terjadi multikolinieritas antara variabel bebas
48. Intepretasi
β’ Melakukan perbandingan πΉβππ‘π’ππ dengan πΉπ‘ππππ
π ππππππ = 22,497
π πππππ = 161
β’ tidak terjadSehingga πΉβππ‘π’ππ(22,497) < πΉπ‘ππππ
(161), maka dapat disimpulkan tidak terjadi
multikolinieritas
50. Langkah β Langkah Menggunakan Metode Uji t (Farrar -
Gluber)
β’ Meregresikan antara variabel bebas satu dengan
variabel bebas lainnya
β’ Membandingkan π‘βππ‘π’ππ dengan π‘π‘ππππ antara hasil
regresi variabel bebas satu dengan variabel bebas
lainnya
β’ π‘βππ‘π’ππ > π‘π‘ππππ;
Maka terjadi multikolinieritas antara variabel bebas
β’ π‘βππ‘π’ππ < π‘π‘ππππ;
Maka tidak terjadi multikolinieritas antara variabel bebas
51. Intepretasi
β’ Melakukan perbandingan π‘βππ‘π’ππ dengan π‘π‘ππππ
π ππππππ = 1,943
π πππππ = 4,743
β’ tidak terjadSehingga π‘βππ‘π’ππ(1,943) < π‘π‘ππππ
(4,743), maka dapat disimpulkan tidak terjadi
multikolinieritas
53. β’ Mengganti atau mengeluarkan variabel yang
mempunyai korelasi yang tinggi.
β’ Menambah jumlah observasi.
β’ Mentransformasikan data ke dalam bentuk
lain, misalnya logaritma natural, akar kuadrat
atau bentuk first difference delta.
55. β’ Uji normalitas adalah untuk melihat
apakah nilai residual terdistribusi
normal atau tidak.
β’ Model regresi yang baik adalah
memiliki nilai residual yang terdistribusi
normal.
56. β’ Uji normalitas hanya digunakan jika jumlah
observasi adalah kurang dari 30, untuk
mengetahui apakah error term mendekati
distribusi normal
β’ Jika jumlah observasi lebih dari 30, maka
tidak perlu dilakukan uji normalitas sebab
distribusi sampling error term telah
mendekati normal
58. Langkah β Langkah Melakukan
Pengujian Normalitas
β’ Estimiasi model persamaan
β’ Melakukan Uji Normality Test
β’ Membuat Asumsi
β’ π β π£πππ’π < πΌ
π»0 ditolak dan π»πditerima/ error term tidak terdistribusi normal
β’ π β π£πππ’π > πΌ
π»0 diterima dan π»πditolak/ error term terdistribusi normal
β’ Membandingkan statistik π β π£πππ’π dengan πΌ
59. 0
1
2
3
4
5
6
-5.0 -2.5 0.0 2.5 5.0
Series: Residuals
Sample 1990 1999
Observations 10
Mean 3.13e-14
Median 0.546906
Maximum 4.243741
Minimum -4.200576
Std. Dev. 2.562239
Skewness -0.034933
Kurtosis 2.120455
Jarque-Bera 0.324367
Probability 0.850285
60. Hipotesa
β’ π β π£πππ’π < πΌ
π»0 ditolak dan π»πditerima/ error term tidak terdistribusi normal
β’ π β π£πππ’π > πΌ
π»0 diterima dan π»πditolak/ error term terdistribusi normal
β’ Membandingkan statistik π β π£πππ’π dengan πΌ
0,850 > 0,05
Tidak Terjadi Heteroskedastisitas