Dokumen tersebut membahas tentang beberapa masalah yang mungkin terjadi dalam regresi linier berganda seperti multikolinearitas, heteroskedastisitas, autokorelasi, dan kesalahan spesifikasi model. Dokumen ini juga menjelaskan cara mendeteksi dan memperbaiki masalah-masalah tersebut agar hasil analisis regresi linier berganda tetap valid dan akurat.
1. 1
BAB 11
MULTIKOLINEARITAS
(Hubungan antar Regressor)
1. Sifat Multikolinearitas
Multikolinearitas sempurna โ Koefisien regresi variabel X tidaj pasti dan SE tidak terbatas
Multikolinearitas Tidak sempurna โ Koefisien tidak dapat diprediksi dengan tepat
2. Faktor Penyebab Multikolinearitas
Faktor penyebab multikolinearitas diantaranya : pengumpulan data yang digunakan,
kendala pada model atau populasi yang dijadikan sampel, spesifikasi model, dan model yang
ditentukan secara berlebihan.
3. Konsekuensi dari Multikolinearitas
a. Meskipun BLUE, penaksir OLS memiliki varians dan kovarian yang besara, membuat
estimasi tepat sulit.
b. Karena konsekuensi 1, interval kepercayaan cenderung lebih luas, yang mengarah ke
penerimaan Ho=0 (yaitu, yang benarkoefisien populasi nol) lebih mudah.
c. Karena konsekuensi 1, rasio t dari satu atau lebih koefisien cenderung tidak signifikan
secara statistik.
d. Meskipun rasio t satu atau lebih koefisien secara statistik tidak signifikanficant, R2
bisa
sangat tinggi.
e. Penaksir OLS dan SE bisa peka terhadap perubahan kecil dalam data
4. Deteksi Multikolinearitas
a. R2
tinggi, tetapi sedikit rasio t yang signifikan
โ uji F akan menolak hipotesis bahwa koefisien kemiringan parsial secara bersamaan = 0
โ uji t menunjukkan tidak ada/sangat sedikit koefisien kemiringan parsial berbeda dari 0
b. Pasangan Korelasi Tinggi diantara Regresoor
Zero-orde corelation yang tinggi cukup dan tidak diperlukan kondisi untuk
multikolinearitas karena dapat ada meskipun korelasi zero-order/sederhana relatif rendah.
c. Pemeriksaan Korelasi Parsial
Regresii Y pada X2, X3, dan X4 ditentukan R2
1.234 = sangat tinggi tapi r2
12.34 , r2
13.24 , dan
r2
14.23 relatif rendah dapt menunjukkan variabel X2, X3, dan X4 sangat terkait dan
setidaknya satu dari ketiganya superflous.
Yefta Widianto
M0717090
2. 2
d. Auxiliary Regression
Mencari R2
yang sesuai
F > Ftabel โ ada Kolinearitas
e. Eigenvakue dab Condition Index
Conditional Number 100โค kโค1000=Strong Multikolin
10โคCI โค 30 = Multikol sedang ke tinggi
f. Toleransi dan Variance Inflation Factor
Jika kolinearitas Xj naik โ VIF naik | VIF > 10 โ ada Multikolinearitas
Jika TOL dekat 0 โ ada Multikol Besar | TOL dekat 1 โ Tidak ada Multikol
5. Remidian Measures
a. A priori Information
Pemberian batas pada Cobb Douglas ฮฒ1 + ฮฒ2 = 1
Misalkan ฮฒ3 = 0.1ฮฒ2 โ berubah model lebih sederhana โ Yi = ฮฒ1 + ฮฒ2Xi + ui
b. Menggabungkan data Cross-Sectional dan Time Series
โ disebut pooling data โ PANEL DATA
c. Dropiing Variable dan Spesifikasi Bias
Dropping variabel dari model untuk meringankan masalah multikolinearita dapat
mengyebabkan spesifikasi bias. Karena multikolinearitas dapat mencegah estimasi yang
tepat dari parameter model, menghilangkan suatu parameter dapat menyesatkan kita
tentang nilai sebenarnya dari parameter.
d. Transformasi Variabel
e. Penambahan Data/Data Baru
Ada kemungkinan bahwa sample lain yang variabel sama, kolinearitas mungkin tidak
terlalu serius dan terkadang melemahkan kolinearitas.
f. Mengurangi Kolinearitas dalam Regresi Polinomial
Variabel bebas mampu diekspresikan dalam bentuk standar deviasi (penyimpangan dari
rata-rata) multikolinearitas berkurang secara substansial, maka perlu mempertimbangkan
teknik orthogonal polynomials.
g. Metode Lain
Multivariat โ Analisis Faktor
โ Komponen Utama
โ Ridge Regression
3. 3
BAB 11
HETEROKEDASTISITAS
1. Sifat Dasar Heterokedastisitas
Gambar 11.1, varian bersyarat dari Yi (yaitu sama dengan ui), tergantung pada Xi yang
diberikan, tetap dianggap sama. Gambar 11.2, yang menunjukkan variabel bersyarat Yi
meningkat dengan X meningkat. Di sini, varian Yi tidak sama. Karenanya, ada
heteroskedastisitas.
Ada beberapa alasan mengapa varians ui bervariasi :
a. Mengikuti error-learning models
b. Meningkatnya pendapatan โ banyak discretionary income โ varians akan meningkat
c. Perbaikan teknik pengumpulan data akan menurunkan variansi
d. Sebagai hasil dari keberadaan data pencilan
e. Kesalahan spesifikasi model ( variabel penting, informasi data, bentuk fungsi)
f. Kemiringan dalam distribusisatu atau lebih regresi yang termasuk dalam model
2. Estimasi OLS pada Heteroskedastisitas
Ingat ๐ฝ2 merupakan estimator terbaik, linear, dan tidak
bias (BLUE). Jika Heteroskedastisitas, apakah ๐ฝ2 masih
BLUE? telah dibuktikan ๐ฝ2 masih linear. (pada bab 3),
๐ฝ2 masih tidak bias (ui tidak perlu homoskedastik), ๐ฝ2 adalah estimator yang konsisten terlepas
dari heteroskedastik.
3. Metode GLS
Metode estimasi, yang dikenal sebagai generalised least square (GLS), mengambil informasi
tertentu dibuat secara eksplisit dan oleh karena itu mampu membuat penaksir yang BLUE.
Singkatnya, GLS adalah OLS pada variabel yang diubah yang memuaskan anggap standar
kuadrat-ditolak
4. Konsekuensi OLS pada Heterokedastisitas
a. Akibat tidak konstannya variansi โlebih besarnya variansi dari taksiran
โberpengaruh pada uji hipotesis (uji t dan F) โ hipotesis kurang akurat
b. Lebih besarnya varians taksiran โestimasi SE lebih besar โ IK menjadi sangat besar
4. 4
c. Heteroscedasticity menolak salah satu anggap CLRM. Saat menganggap CLRM
dilanggar, estimator OLS mungkin tidak lagi BIRU dan tidak efisien.
d. Demikian pula, estimasi standar akan menjadi bias, yang menghasilkan tes hipotesis
tidak dapat diandalkan (t-statistik). Perkiraan OLS, Namun, tetap tidak bias.
5. Deteksi Heterokedastisitas
Informal Method
Mememriksa residual dengan Grafik
a=tidak ada heteroskedastisitas, b sampai e = belum menunjukkan pola yang pasti.
c=hubungan linear hubungan, d dan e = hubungan kuadratik antaratween u2
i dan Yi
Formal Method
a. Uji Park
Jika ฮฒ ternyata signifikan statistik, maka ada
heterokedastisitas pada data. Jika ternyata tidak
signifikan, kami dapat menerima anggapan
homokedastisitas.
b. Uji Glejser
Hampir sama dengan uji park. Glejser dapat digunakan untuk yang besarsampel dan
dapat digunakan dalam sampel kecil untuk perangkat kualitatifuntuk membicarakan
sesuatu tentang heteroskedastisitas. Glejser menunjukkan regressing absolut dari ui
pada variabel X yang dianggap terkait erat dengan ฯ2
i .
c. Uji Korelasi Rank Spearman
Jika nilai t hitung melebihi nilai t Kritis,
maka menerima hipotesis
heteroskedastisitas.
d. Uji Goldfeld-Quandt
Jika dalam aplikasi, ฮป (= F) yang dihitung lebih besar dari F kritis padatingkat
signifikansi yang dipilih, kita dapat menolak hipotesis dari homomoscedasticity, yaitu
kita dapat mengatakan bahwa heteroskedastisitas sangat mungkin
5. 5
e. Uji Breusch Pagan
Jika ฯ2 melebihi ฯ 2 tabel , dapat
ditolak hipotesis dari
homokedastisitas. Jika tidak,
orang tidak akan menolaknya.
f. Uji White General Heterokedastisitas
g. Uji Lainnya seperti Koenker-Bassett test,dll
6. Remidial Measure
ฯ2
i Is Known โ dengan Method of Weighted Least Squares , untuk estimator yang diperoleh
adalah BIRU
ฯ2
i Is Not Known
โข Whiteโs Heteroscedasticity-Consistent Variances and Standard Errors
โข Plausible Assumptions about Heteroscedasticity Pattern
1) Asumsi 1: Varian kesalahan sebanding dengan X2
i
2) Asumsi 2 : Varian kesalahan sebanding dengan Xi . The akar kuadrat transformasi :
3) Asumsi 3:Varians Kesalahan sebanding dengan kuadrat dari nilai rata-rata Y
4) Asumsi 4 : Transformasi log seperti ln Yi = ฮฒ1 + ฮฒ2ln Xi + ui sangat sering mengurangi
heteroskedastisitas bila dibandingkan dengan regresi Yi = ฮฒ1 +ฮฒ2 Xi + ui .
6. 6
BAB 12
AUTOKORELASI
(korelasi diantara observari)
1. Sifat Autokorelasi
E(๏ญi๏ญj)๏น0 for i ๏นj.
Autokorelasi didefinisikan sebagai korelasi antara gangguan. CLRM mengasumsikan bahwa
istilah gangguan yang berkaitan dengan pengamatan apa pun tidak dipengaruhi oleh istilah
gangguan yang berkaitan dengan pengamatan lain.
Penyebab Autokorelasi :
a. Inersia โ data observasi sekarang dan sebelumnya mungkin akan saling ketergantungan.
b. Spesifikasi Bias : Tidak memasukkan variabel yang penting โ menghilangkan pola
tertentu pada residual.
c. Spesifikasi Bias : Bentuk Fungsi tidak sesuai
d. Cobweb Phenimenon
e. lags, var independen yang mempengaruhi var dependen berasal dari lag variabel dependen.
f. Manipulasi data, akibatnya muncul pola tertentu yang sebenarnya tidak ada pada data asli.
g. Transformasi data.
h. Ketidakstasioneran.
Keberadaan autokorelasi dapat
dideteksi dengan melihat adanya
pola pada ui .
2. Konsekuensi OLS pada Autokorelasi
Hasil estimasi OLS akan tetap konsisten dan tak bias, namun tidak efisien karena
variansinya besar.
Mengabaikan autokorelasi dalam estimasi OLS dapat mengakibatkan hal berikut:
โซ Variansi residual berada dibawah nilai variansi yang sebenarnya.
โซ Estimasi R2
terlalu tinggi
โซ Bahkan jika variansi residual tidak dibawah nilai variansi yang sebenarnya, var( 2
ห๏ข )
akan lebih rendah dibanding var( 2
ห๏ข )AR1.
โซ Uji signifikansi t dan F tidak lagi valid.
3. Mendeteksi Autokorelasi
a. Metode grafik
(grafik plot residual atau standardized residual dengan waktu)
7. 7
b. Runs Test (+1 atau -1)
Jika jumlah run (banyak =korelasi serial negatif, sedikit = korelasi serial positif)
Interval Kovidensi :
Jangan menolak hipotesis nol keacakan dengan keyakinan 95% jika R, jumlah runs,
terletak pada interval kepercayaan sebelumnya; tolak hipotesis nol jika diperkirakan R
terletak di luar batas ini.
c. Durbin Watson dtest
Asumsi :
1. Model regresi harus mengandung intercept.
2. Variabel penjelas bersifat nonstokastik
3. Gangguan ut didapat dari persamaan AR(1)
4. Eror ut berdistribusi normal.
5. Model regresi tidak memakai nilai lag variabel
dependen sebagai variabel penjelas.
6. Tidak terdapat missing-value
d. Breush-Godfrey Test
4. Remidial Measures
a. Memastikan bahwa autokorelasi tersebut murni, bukan akibat salah menspesifikasi model.
b. Jika autokorelasi tersebut murni maka kita dapat melakukan pendekatan transformasi
untuk model tersebut.
c. Jika sampelnya berukuran besar, lakukan metode Newey-West untuk mendapatkan nilai
standar eror dari estimasi OLS yang telah diperbaiki dari autokorelasi.
d. Pada kondisi tertentu analisis dapat dilanjutkan menggunakan estimasi OLS.
8. 8
BAB 13
MODEL SPESIFIKASI DAN PENGUJIAN DIAGNOSTIK
1. Kriteria Pemilihan Model
a. Data dapat diterima โ prediksi yang dibuat dari model harus secara logis mungkin
b. Konsisten dengan teori โ masuk akal secara ekonomi
c. Miliki regresor eksogen yang lemah โ harus tidak berkorelasi dengan eror term
d. Memiliki parameter yang kuat (stabil)
e. Menunjukan koherensi data โ residual harus random
f. Mencangkup/mewakilkan populasi
2. Tipe Spesifikasi Kesalahan (Eror)
a. Menghilangkan variabel yang relevan.
b. Memasukan variabel yang tidak perlu.
c. Mengadopsi bentuk fungsional yang salah
d. Kesalahan pengukuran.
e. Spesifikasi yang salah dari istilah eror stokastik
3. Konsekuensi Kesalahan Spesifikasi Model
a. Underfitting a Model (Menghilangkan Variabel yang Relevan)
Model ๐๐ = ๐ฝ1 + ๐ฝ2 ๐2๐ + ๐ฝ3 ๐3๐ + ๐ข๐ menjadi ๐๐ = ๐ผ1 + ๐ผ2 ๐2๐ + ๐ฃ๐
1. Jika variabel ๐3 yang ditinggalkan, atau dihilangkan berkorelasi dengan variabel
๐2yang disertakan, yaitu, ๐23 , koefisien korelasi antara dua variabel, adalah bukan
nol, ๐ผฬ1 dan ๐ผฬ2bias dan tidak konsisten.
2. Bahkan jika ๐2 dan ๐3 tidak berkorelasi, ๐ผฬ1 bias, meskipun ๐ผฬ2 sekarang tidak bias.
3. Varians gangguan ๐2
diperkirakan salah.
4. Varians yang diukur secara konvensional dari ๐ผฬ2(= ๐2
/ โ ๐ฅ2๐
2
) adalah estimator yang
bias dari varians estimator sejati ๐ฝฬ2
5. Karena itu, IK dan prosedur pengujian hipotesis cenderung memberikan kesimpulan
yang menyesatkan tentang signifikansi statistik dari parameter yang diestimasi.
6. Prakiraan berdasarkan model yang salah, perkiraan interval tidak dapat digunakan.
b. Penyertaan Variabel Tidak Relevan (Overfitting Model)
Model ๐๐ = ๐ฝ1 + ๐ฝ2 ๐2๐ + ๐ข๐ menjadi ๐๐ = ๐ผ1 + ๐ผ2 ๐2๐ + ๐ผ3 ๐3๐ + ๐ฃ๐
1. Estimator OLS dari parameter model "salah" semuanya tidak bias dan konsisten,
yaitu ๐ธ(๐ผ1) = ๐ฝ1, ๐ธ(๐ผฬ2) = ๐ฝ2, ๐๐๐ ๐ธ(๐ผฬ3) = ๐ฝ3 = 0
2. Varians kesalahan ๐2
diperkirakan dengan benar.
3. Interval kepercayaan biasa dan prosedur pengujian hipotesis tetap valid.
4. Namun, estimasi ฮฑ umumnya tidak efisien, yaitu varians mereka umumnya lebih
besar daripada ๐ฝฬ dari model sebenarnya.
9. 9
4. Uji Kesalahan Spesifikasi
a. Mendeteksi Ada Variabel yang Tidak Perlu (Overfitting Model)
Pendekatan bottom-up โ penambangan data, dimulai model yang lebih kecil โ data
mining (regression fishing, data grubbing, data snooping, and number crunching)
b. Tes untuk Variabel Dihilangkan dan Bentuk Fungsional Salah :
Pemeriksaan Residu โ Jika ada kesalahan, plot residu menunjukkan pola berbeda
Statistik Durbin-Watson d Sekali Lagi
Jika diyakini bahwa model yang diasumsikan salah-ditentukan karena tidak termasuk
variabel penjelas yang relevan, katakanlah, Z dari model, residu sesuai dengan
peningkatan nilai Z. Jika estimasi nilai d adalah signifikan, maka seseorang dapat
menerima hipotesis dari mis-spesifikasi model.
c. Uji RESET Ramsey
1. Dari model yang dipilih, diperoleh estimasi ๐๐ yaitu ๐๐
ฬ.
2. Jalankan kembali pengenalan ๐๐
ฬ dalam beberapa bentuk sebagai regressor
tambahan.
3. Gunakan uji F yaitu
4. Jika nilai F yang dihitung signifikan, katakanlah, pada level 5 persen, artinya
hipotesis dapat diterima yaitu bahwa model tersebut eror-spesifik.
d. Tes Lagrange Multiplier (LM) untuk Menambahkan Variabel
1. Perkirakan regresi terbatas oleh OLS dan dapatkan residu, ๐ข๐ฬ
2. Jika sebenarnya regresi tidak dibatasi adalah Yi = ฮฒ1 + ฮฒ2Xi + ฮฒ3Xi
2
+ ฮฒ4Xi
3
+ ui
regresi sejati, residu yang diperoleh dalam Yi = ฮป1 + ฮป2Xi +u3i
harus terkait dengan persyaratan output kuadrat dan kubik, yaitu ๐๐
2
dan ๐๐
3
.
3. Ini menunjukkan bahwa meregresi ๐ข๐ yang diperoleh pada langkah 1 pada semua
regressor, yang dalam kasus ini berarti :
๐ข๐ฬ = ๐ผ1 + ๐ผ2 ๐๐ + ๐ผ3 ๐๐
2
+ ๐ผ3 ๐๐
3
+ ๐ฃ๐
4. Secara simbolis, kami menulis
๐๐ 2
~๐๐๐ข๐๐๐โ ๐๐๐๐๐๐ก๐๐
2
5. Jika nilai chi-square yang diperoleh dalam (13.4.12) melebihi nilai chi-square
kritis pada tingkat signifikansi yang dipilih, jadi regresi terbatas ditolak.
5. Kesalahan Pengukuran
Kesalahan Pengukuran dalam Variabel Dependen Y. Meskipun kesalahan pengukuran
dalam variabel dependen masih memberikan estimasi parameter dan variansnya yang tidak
10. 10
bias, varian estimasi sekarang lebih besar dalam kasus di mana tidak ada kesalahan pengukuran
tersebut.
6. Uji Hipotesis Non-Nested
a. Pendekatan Diskriminasi โ Diberikan dua atau lebih model yang bersaing, satu memilih
model berdasarkan beberapa kriteria goodness of fit.
b. Discerning Approach โ Dalam menyelidiki satu model, diperhitungkan pula informasi
akun yang disediakan oleh model lain.
7. Kriteria Pemilihan Model
a. Kriteria ๐ 2
Menambahkan lebih banyak variable untuk model dapat meningkatkan
R2
tetapi juga dapat meningkatkan variansi perkiraan kesalahan.
b. Adj ๐ 2
c. Kriteria Informasi Alkalke (AIC)
Untuk dua atau lebih model, model dengan nilai AIC terendah lebih disukai.
d. Kriteria Informasi Schwarz (SIC)
Seperti AIC, semakin rendah nilai SIC, semakin baik modelnya.
e. Kriteria Cp Mallows
Model yang memiliki nilai Cp rendah, sekitar sama ke-p. Kita akan memilih model
dengan p regressor ( p <k )yang memberikan kecocokan yang cukup baik untuk data
8. Topik Tambahan dalam Pemodelan Ekonometrik
a. Pencilan, Leverage, dan Pengaruh (Didefinisikan sebagai pengamatan dengan "sisa
besar")
b. Recursive Least Squares
c. Uji Kegagalan Prediksi Chow