Dokumen ini membahas tentang analisis regresi berganda, termasuk pengertian, proses estimasi, asumsi penting model regresi linier berganda, uji statistik yang diperlukan, dan masalah umum seperti multikolinearitas, autokorelasi, dan heteroskedastisitas."
2. Pengertian
Regresi Linier Berganda digunakan untuk
menguji hipotesis terhadap hubungan
antara variabel dependen (Y) dengan 2
(dua) atau lebih variabel independen (X)
Adapun model yang digunakan sebagai
berikut:
i
i
2
2
i
1
1
0
i u
X
b
X
b
b
Y
3. Proses Pendugaan (Estimasi)
Proses Estimasi dapat dipecah
menjadi 2 Kelas Utama
1. Least Square
– Cara ini mencari jumlah kuadrat error
yang terkecil, dengan kata lain, Proses
optimalisasi dilakukan dalam bentuk
meminimalkan error
2. Maximum Likelihood
– Cara ini memaksimalkan coverage fungsi
densitas F(.) dan mencari bentuk fungsi
densitas yang optimal dalam pengertian
mampu melingkupi sebanyak mungkin
observasi
4. Proses Pendugaan (Estimasi)
Least square
– Rumpun ini terbagi menjadi beberapa
pendekatan:
Pendekatan yang paling dasar adalah OLS
( Ordinary Least Square)
GLS (Generalized Least Square)
ILS (Indirect Least Square)
2-SLS (Two Stage Least Square)
3-SLS (Three Stage Least Square)
5. Proses Pendugaan (Estimasi)
Maximum Likelihood
– Metode ini berupaya memaksimumkan
peluang munculnya observasi.
– Secara teknis prosesi ini melibatkan
fungsi densitas (fungsi kepadatan)
f (ε1)
6. Asumsi Penting dari model Regresi
Linier Berganda:
1. Modelnya adalah peubah terikat y yang
merupakan fungsi linier sejumlah peubah
bebas X1, X2, … , Xn.
2. E (u) = 0, asumsi ini menginginkan
model yang dipakai dapat secara tepat
menggambarkan rata-rata variabel
endogen dalam tiap observasi
3. Cov (ui ,uj ) = 0, i ≠ j tidak ada masalah
dengan autokorelasi, artinya error atau
gangguan disatu observasi tidak
berkorelasi dengan error atau gangguan
di observasi lainnya
7. Asumsi Penting dari model Regresi
Linier Berganda:
4. Var (Ui|Xi) = ơ2 sama untuk setiap I
(homokedastisitas), Varians error tidak
berbeda dari satu observasi ke observasi
lainnya. Jadi setiap observasi memiliki
reliabilitas yang sama
5. Cov (ui,Xi) = 0, artinya nilai variabel
bebas (independen) tidak berkorelasi
dengan error atau gangguan
6. Tidak ada kesalahan spesifikasi model
pada Model Regresi
8. Asumsi Penting dari model Regresi
Linier Berganda:
Asumsi ini pada dasarnya akan
menjamin hasil estimasi parameter
menjadi:
1. Efisien
2. Tidak bias
3. Konsisten
Dengan terpenuhinya asumsi-asumsi
diatas maka model regresi dapat
diselesaikan dengan menggunakan
metode pendugaan parameter regresi
yaitu ordinary least square (OLS)
9. Yang perlu diketahui Analisis
Regresi Berganda
Uji F
– Menguji kelayakan model dan menguji
pengaruh secara bersama-sama variabel
independen dengan variabel dependennya
Uji t
– Menguji pengaruh secara parsial variabel
independen dengan variabel dependennya
R2
– Menguji kemampuan variabel independen
dalam menjelaskan variabel dependennya
10. Asumsi Klasik
Adapun Asumsi Klasik terbagi
menjadi:
1. Multikolinearitas
2. Autokorelasi
3. Heterokedastisitas
11. Multi kolinearitas
Multi kolinearitas adalah adanya hubungan
(korelasi) diantara variabel-variabel independen
(X)
Penyebab Multikolinearitas :
Terbatasnya variabel independen karena adanya
keterbatasan dalam pengumpulan data.
Kendala Model pada populasi yang diamati.
Contoh diuji pengaruh antara Konsumsi Listrik
dengan Pendapatan dan Luas Rumah
Variabel Independen yang berjumlah lebih
banyak dari jumlah observasinya (n)
Data yang bersifat time series, dimana semua
data memiliki pertumbuhan yang sama.
12. Deteksi ada tidaknya multikolinearitas :
1. Koefisien determinasi yang tinggi, dan nilai
signifikannsi t rendah pada setiap variabel
X
2. Koefisien korelasi diantara variabel X tinggi
(diatas 0,5)
3. Nilai Koefisien parsial yang tinggi.
4. Auxiliary Regression. Dimana nilai F
auxiliary harus dihitung. Jika nilai F
auxiliary lebih tinggi dari nilai F table, maka
dapat dikatakan terdapat multkolinearitas.
13. Deteksi ada tidaknya multikolinearitas :
5. Eigen value dan Condition Index (CI)
Condition Number (k) = maximum
eigen value/eigen value Condition Index
(CI) = k 0,5. Jika 100 k 1000 maka
terjadi multikolinearitas ringan. Jika k >
1000 maka terjadi multikoliner berat.
Dan jika CI> 30 juga dapat dianggap
terjadi multikoliner serius.
6. Tolerance dan Variance Inflation factor
(VIF). Nilai VIF > 10 dan nilai TOL yang
mendekati 0, maka dideteksi terjadi
Multikolinearitas.
14. Mengatasi Masalah
Multikolinearitas :
membuang salah satu variabel yang
berkolinearitas. Untuk menentukan
variabel mana yang dibuang,
dilakukan coba-coba. Dan dipilih
persamaan yang memiliki nilai
adjusted R2 yang lebih tinggi.
Menambah jumlah sample, karena
mungkin saja multikolinearitas
terjadi hanya untuk sample yang
saat ini saja.
15. Autokorelasi
Otokorelasi adalah korelasi atau hubungan
yang terjadi diantara anggota-anggota
dari serangkaian data atau pengamatan
yang tersusun dalam rangkaian waktu.
Penyebab terjadinya auto korelasi :
Kelembaman data.
Mengeluarkan variabel yang relevan
dalam model
Tengang waktu atau lags
Manipulasi data
Non stasioner
16. Hal yang terjadi akibat dari
otokorelasi adalah :
Varians sample tidak dapat
menggambarkan varians populasi
Uji t tidak berlaku lagi, apabila uji
t tetap diberlakukan maka uji t
tersebut tidak berlaku lagi
Model regresi yang digunakan
tidak dapat digunakan untuk
menduga variabel terikat ataupun
variabel terikat tertentu
17. Deteksi Autokorelasi:
Durbin Watson Test
Prosedur pengujian :
H0 : Tidak ada autokorelasi
H1 : Ada autokorelasi
Kriteria pengujian :
otokorelasi positif
H0 terima jika d > du
Ho tolak jika d < dl
Jika dl < d < du, maka tidak ada kesimpulan
otokorelasi negatif
Ho terima jika (4 – d) > du
Ho tolak jika (4-d) < dl
Jika dl < (4-d) < du, maka tidak ada kesimpulan
19. Menghilangkan masalah
autokorelasi :
Memilih variabel independen yang
relevan ke dalam model. Indikator
yang dipakai untuk mengukur
variabel yang relevan ke dalam
model :
Signifikansi statistik
Koefisien determinasi
Standardized koefisien absolut
Stepwise Regression
20. Heterosekedastisitas
Penyebab :
Data yang mengikuti learning model
Adanya outlier dalam sekelompok
data
Kesalahan dalam memilih variabel
Skewness atau kemencengan dalam
variabel tertentu