Penangananmultikolinieritas  By : EKA SISKAWATI
Analisis regresi merupakan analisis yang mempelajaribagaimana membangun sebuah model fungsional dari datauntuk dapat menje...
Salah satu dari ketiga asumsi model regresi linier klasikadalah yakni tidak terdapat multikolinearitas di antara variabely...
Akan tetapi pada prakteknya prosedur penanggulangan yang telahdisebutkan di atas sangat tergantung sekali pada kondisipene...
Istilah Multikolinearitas pertama kali ditemukan oleh Ragnar Frisch yangberarti adanya hubungan liniear yang “sempurna” at...
Menurut Gujarati (1978) gejala Multikolinearitas inidapat didiagnosis dengan beberapa cara antara lain :1. Menghitung koef...
Untuk meminimumkan masalah multikolinearitas tanpa harusmengeluarkan variable bebas yang terlibat hubungan kolinear, yaitu...
Keuntungan penggunaan Principal Component Analysis(PCA) dibandingkan metode lain :1. Dapat menghilangkan korelasi secara b...
Contoh kasus• Data
Untuk menyelesaikannya, kita harus melakukanlangkah-langkah sebagai berikut : Untuk menguji ada tidaknya multikolinearitas...
a                                                     CoefficientsModel                Unstandardized Coefficients       S...
Analisis output• Multikolinieritas dapat dilihat dari nilai  tolerance dan VIF (tolerance<0.10 atau  VIF>10, terjadi multi...
Upcoming SlideShare
Loading in …5
×

Penanganan Mutikolonieritas

5,616
-1

Published on

Published in: Education
0 Comments
2 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
5,616
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
179
Comments
0
Likes
2
Embeds 0
No embeds

No notes for slide

Penanganan Mutikolonieritas

  1. 1. Penangananmultikolinieritas By : EKA SISKAWATI
  2. 2. Analisis regresi merupakan analisis yang mempelajaribagaimana membangun sebuah model fungsional dari datauntuk dapat menjelaskan ataupun meramalkan suatufenomena alami atas dasar fenomena yang lain. Ada jugayang menyatakan bahwa analisis regresi merupakan suatuanalisis mengenai hubungan antara dua variable atau lebihyang umumnya dinyatakan dalam persamaan matematik. Dalam statistika sebuah model regresi dikatakan baikatau cocok,jika dipenuhi asumsi-asumsi ideal (klasik), yaknitidak adanya otokorelasi, heteroskedastisitas danmultikolinieritas. Sehingga proses control terhadap modelperlu dilakukan untuk menelaah dipenuhi tidaknya asumsitersebut.
  3. 3. Salah satu dari ketiga asumsi model regresi linier klasikadalah yakni tidak terdapat multikolinearitas di antara variabelyang menjelaskan yang termasuk dalam model. Ketika menentukanmodel regresi populasi ada kemungkinan bahwa dalam sampeltertentu, beberapa atau semua variable X sangat kolinear(mempunyai hubungan linear sempurna atau hampir sempurna). Adabeberapa prosedur yang dapat digunakan untuk mengatasimasalah multikolinearitas, seperti : pengunaan informasi aprioridari hubungan beberapa variable yang berkolinear, menghubungkandata cross-sectional dan data time series, mengeluarkan suatuvariabel atau beberapa variabel bebas yang terlibat hubungankolinear, melakukan transformasi variabel dengan prosedur firstdifference, melalui ln (logaritma) dan penambahan data baru dan jugamelalui ridge regression
  4. 4. Akan tetapi pada prakteknya prosedur penanggulangan yang telahdisebutkan di atas sangat tergantung sekali pada kondisipenelitian, misalnya : penggunaan informasi apriori sangattergantung dari ada atau tidaknya dasar teori (literatur) yang sangatkuat untuk mendukung hubungan matematis antara variabel bebasyang saling berkolinear, prosedur mengeluarkan variabel bebas yangberkolinear seringkali membuat banyak peneliti keberatan karenaprosedur ini akan mengurangi obyek penelitian yangdiangkat, sedangkan prosedur lainnya seperti menghubungkan datacross sectional dan time series, prosedur first difference danpenambahan data baru seringkali hanya memberikan efekpenanggulangan yang kecil pada masalah multikolinearitas.
  5. 5. Istilah Multikolinearitas pertama kali ditemukan oleh Ragnar Frisch yangberarti adanya hubungan liniear yang “sempurna” atau pasti diantarabeberapa atau semua variabel bebas dari model regresi berganda.Multikolinearitas dapat terjadi karena:1.Terdapat kecenderungan variabel ekonomi bergerak secara bersama-sama sepanjang waktu Pertumbuhan kecenderungan factor-faktordalam deret waktu dapat sebagai penyebab terjadinya multikolinearitas.2. Penggunaan Lag Sehingga terdapat model distribusi lag Misal : C t = f (Y t , Y t-1 , …. Y 1 ) Mungkin terdapat korelasi yang kuatantara Y t dan Y t-1• Multikolinearitas diperkirakan akan muncul dalam kebanyakanhubungan –hubungan ekonomi• Lebih sering muncul dalam data deret waktu bisa pula munculdalam data cross sectional.
  6. 6. Menurut Gujarati (1978) gejala Multikolinearitas inidapat didiagnosis dengan beberapa cara antara lain :1. Menghitung koefisien korelasi sederhana (simplecorrelation) antara sesama variabel bebas, jikaterdapat koefisien korelasi sederhana yang mencapaiatau melebihi 0,8 maka hal tersebut menunjukkanterjadinya masalah multikolinearitas dalam regresi.2. Menghitung nilai Toleransi atau VIF (VarianceInflation Factor), jika nilai Toleransi kurang dari 0,1atau nilai VIF melebihi 10 maka hal tersebutmenunjukkan bahwa multikolinearitas adalah masalahyang pasti terjadi antar variabel bebas.
  7. 7. Untuk meminimumkan masalah multikolinearitas tanpa harusmengeluarkan variable bebas yang terlibat hubungan kolinear, yaitudengan metode Principal Component Analysis (PCA) yang ada dalamanalisis faktor. Prosedur PCA pada dasarnya adalah bertujuan untukmenyederhanakan variabel yang diamati dengan cara menyusutkan(mereduksi) dimensinya. Hal ini dilakukan dengan caramenghilangkan korelasi diantara variabel bebas melaluitransformasi variabel bebas asal ke variabel baru yang tidak berkorelasisama sekali atau yang biasa disebut dengan principal component.Setelah beberapa komponen hasil PCA yang bebas multikolinearitasdiperoleh, maka komponen-komponen tersebut menjadi variabelbebas baru yang akan diregresikan atau dianalisa pengaruhnyaterhadap variabel tak bebas (Y) dengan menggunakan analisis regresi.
  8. 8. Keuntungan penggunaan Principal Component Analysis(PCA) dibandingkan metode lain :1. Dapat menghilangkan korelasi secara bersih(korelasi = 0) sehingga masalah multikolinearitas dapatbenar-benar teratasi secara bersih.2. Dapat digunakan untuk segala kondisi data / penelitian3. Dapat dipergunakan tanpa mengurangi jumlahvariabel asal4. Walaupun metode Regresi dengan PCA ini memilikitingkat kesulitan yang tinggi akan tetapi kesimpulanyang diberikan lebih akurat dibandingkan denganpengunaan metode lain.
  9. 9. Contoh kasus• Data
  10. 10. Untuk menyelesaikannya, kita harus melakukanlangkah-langkah sebagai berikut : Untuk menguji ada tidaknya multikolinearitas, kitadapat menggunakan nilai Toleransi atau VIF (VarianceInflation Factor). Jika nilai Toleransi kurang dari 0,1 atau nilai VIFmelebihi 10 maka hal tersebut menunjukkan bahwamultikolinearitas adalah masalah yang pasti terjadi antarvariabel bebas. Dengan bantuan software SPSS 20, kita dapatmemperoleh nilai Toleransi atau VIF untuk data di ataspada tabel berikut ini.
  11. 11. a CoefficientsModel Unstandardized Coefficients Standardized t Sig. Collinearity Statistics Coefficients B Std. Error Beta Tolerance VIF (Constant) 41.658 6.345 6.565 .000 X1 2.347 1.066 .781 2.202 .052 .041 24.6771 X2 -.248 .843 -.073 -.295 .774 .082 12.180 X3 2.052 3.526 .166 .582 .573 .063 15.952 X4 1.569 4.492 .106 .349 .734 .055 18.128a. Dependent Variable: Y
  12. 12. Analisis output• Multikolinieritas dapat dilihat dari nilai tolerance dan VIF (tolerance<0.10 atau VIF>10, terjadi multikolinieritas).• Dari hasil output di atas, nilai tolerance <0.10 dan VIF >10 menunjukan bahwa terjadi multikolinieritas.
  1. A particular slide catching your eye?

    Clipping is a handy way to collect important slides you want to go back to later.

×