UJI HIPOTESIS
Persamaan Regresi Linier Berganda
• Y = a + b1x1 + b2x2 + bnxn + … + e
• Y = variabel dependen
• a = konstanta
• b = koefisien determinasi
• X = variabel independen
• e = error term
Uji Asumsi Klasik
• Analisis regresi memerlukan beberapa asumsi
agar model layak digunakan. Asumsi yang
digunakan adalah:
– Uji Normalitas
– Uji Multikolinieritas
– Uji Heterosdastisitas
– Uji Autokorelasi
Uji Normalitas
• Untuk menentukan apakah data terdistribusi
secara normal atau tidak.
• Menggunakan plot grafik dimana asumsi
normalitas terpenuhi jika titik-titik pada grafik
mendekati sumbu diagonalnya
• Untuk memperkuat pengujian dapat
dipergunakan Uji Kolmogorov-Smirnov
Uji
Kolmogorov-Smirnov
Grafik Uji Normalitas
Nilai signifikansi 0,868 > 0,05
menunjukkan data terdistribusi normal
(asumsi signifikansi 0,05)
Uji Multikolinieritas
• Multikolinieritas: kondisi dimana terjadi
korelasi yang kuat diantara variabel-variabel
bebas (X) yang diikutsertakan dalam
pembentukan model regresi linier.
• Kondisi yang menyalahi asumsi regresi linier.
• TIDAK MUNGKIN TERJADI apabila variabel
bebas (X) yang diikutsertakan hanya satu.
Uji Multikolinieritas
• Ciri-ciri yang sering ditemui apabila model regresi linier kita
mengalami multikolinieritas adalah:
– Terjadi perubahan yang berarti pada koefisien model regresi
(misal nilainya menjadi lebih besar atau kecil) apabila dilakukan
penambahan atau pengeluaran sebuah variabel bebas dari
model regresi.
– Diperoleh nilai R-square yang besar, sedangkan koefisien regresi
tidak signifikan pada uji parsial.
– Tanda (+ atau -) pada koefisien model regresi berlawanan
dengan yang disebutkan dalam teori (atau logika). Misal, pada
teori (atau logika) seharusnya b1 bertanda (+), namun yang
diperoleh justru bertanda (-).
– Nilai standard error untuk koefisien regresi menjadi lebih besar
dari yang sebenarnya (overestimated)
Uji Multikolinieritas
• Untuk mendeteksi apakah model regresi
mengalami multikolinieritas, dapat diperiksa
menggunakan VIF (Variance Inflation Factor).
• Nilai VIF > 10 berarti telah terjadi
multikolinieritas yang serius di dalam model
regresi kita.
Uji Multikolinieritas
Uji Heteroskedastisitas
• situasi dimana keragaman variabel independen bervariasi
pada data yang kita miliki. Salah satu asumsi kunci pada
metode regresi biasa adalah bahwa error memiliki
keragaman yang sama pada tiap-tiap sampelnya. Asumsi
inilah yang disebut homoskedastisitas.
• Jika keragaman residual/error tidak bersifat konstan, data
dapat dikatakan bersifat heteroskedastisitas. Karena pada
metode regresi ordinary least-squares mengasumsikan
keragaman error yang konstan, heteroskedastisitas
menyebabkan estimasi OLS menjadi tidak efisien.
• Model yang memperhitungkan perubahan keragaman
dapat membuat penggunaan dan estimasi data menjadi
lebih efisien.
Uji Heteroskedastisitas
• Beberapa asumsi dalam model regresi yang
terkait dengan heteroskedastisitas antara lain
adalah residual (e) memiliki nilai rata-rata nol,
keragaman yang konstan, dan residual pada
model tidak saling berhubungan, sehingga
estimator bersifat BLUE.
• Jika asumsi ini dilanggar maka prediksi model
yang dibuat tidak dapat diandalkan.
Uji Heteroskedastisitas
Uji Heteroskedastisitas
• Uji Goldfeld-Quandt
• Uji Korelasi Spearman
• Uji Glejser
• Uji Bruesch-Pagan-Godfrey
• dll
Uji Autokorelasi
• Uji autokorelasi digunakan untuk melihat
apakah ada hubungan linier antara error
serangkaian observasi yang diurutkan
menurut waktu (data time series).
• Uji autokorelasi perlu dilakukan apabila data
yang dianalisis merupakan data time series
(Gujarati, 1993).
• Menggunakan Uji Durbin Watson
Goodness of Fit Test
• Setelah kita melakukan uji normalitas data,
maka kita perlu melakukan Uji kesesuaian
model atau seberapa besar kemampuan
variable bebas dalam menjelaskan varian
variabel terikatnya
Goodness of Fit Test - R2
• R2 adalah perbandingan antara variasi Y yang dijelaskan
oleh x1 dan x2 secara bersama-sama dibanding dengan
variasi total Y.
• Jika selain x1 dan x2 semua variabel di luar model yang
diwadahi dalam E dimasukkan ke dalam model, maka
nilai R2 akan bernilai 1.
• Ini berarti seluruh variasi Y dapat dijelaskan oleh
variabel penjelas yang dimasukkan ke dalam model.
• Contoh Jika variabel dalam model hanya menjelaskan
0,4 maka berarti sebesar 0,6 ditentukan oleh variabel
di luar model, nilai diperoleh sebesar R2 = 0,4.
Goodness of Fit Test – Uji F
• Selain R2 ketepatan model hendaknya diuji dengan uji
F. Hipotesis dalam uji F adalah sebagai berikut:
• Hipotesis mengenai ketepatan model:
• Ho : b1 = b2 = 0 (Pengambilan variabel X1 dan X2
tidak cukup tepat dalam menjelaskan variasi Y, ini
berarti pengaruh variabel di luar model terhadap Y,
lebih kuat dibanding dengan variabel yang sudah
dipilih).
• Ha : b1 ≠ b2 ≠ 0 (Pengambilan variabel X1 dan X2
sudah cukup tepat karena mampu menjelaskan variasi
Y, dibanding dengan pengaruh variabel di luar model
atau errror terhadap Y).
Uji F
• Uji F adalah uji simultan untuk melihat
pengaruh variabel-variabel independen/bebas
(x1, x2, x3…) secara serempak terhadap
variabel terikatnya/dependen
Uji t
• Uji t adalah uji parsial untuk melihat pengaruh
masing-masing variabel independen atau
bebas (x) berpengaruh nyata atau tidak secara
parsial terhadap variabel dependen/terikatnya
(Y)

uji-hipotesis.ppt

  • 1.
  • 2.
    Persamaan Regresi LinierBerganda • Y = a + b1x1 + b2x2 + bnxn + … + e • Y = variabel dependen • a = konstanta • b = koefisien determinasi • X = variabel independen • e = error term
  • 3.
    Uji Asumsi Klasik •Analisis regresi memerlukan beberapa asumsi agar model layak digunakan. Asumsi yang digunakan adalah: – Uji Normalitas – Uji Multikolinieritas – Uji Heterosdastisitas – Uji Autokorelasi
  • 4.
    Uji Normalitas • Untukmenentukan apakah data terdistribusi secara normal atau tidak. • Menggunakan plot grafik dimana asumsi normalitas terpenuhi jika titik-titik pada grafik mendekati sumbu diagonalnya • Untuk memperkuat pengujian dapat dipergunakan Uji Kolmogorov-Smirnov
  • 5.
    Uji Kolmogorov-Smirnov Grafik Uji Normalitas Nilaisignifikansi 0,868 > 0,05 menunjukkan data terdistribusi normal (asumsi signifikansi 0,05)
  • 6.
    Uji Multikolinieritas • Multikolinieritas:kondisi dimana terjadi korelasi yang kuat diantara variabel-variabel bebas (X) yang diikutsertakan dalam pembentukan model regresi linier. • Kondisi yang menyalahi asumsi regresi linier. • TIDAK MUNGKIN TERJADI apabila variabel bebas (X) yang diikutsertakan hanya satu.
  • 7.
    Uji Multikolinieritas • Ciri-ciriyang sering ditemui apabila model regresi linier kita mengalami multikolinieritas adalah: – Terjadi perubahan yang berarti pada koefisien model regresi (misal nilainya menjadi lebih besar atau kecil) apabila dilakukan penambahan atau pengeluaran sebuah variabel bebas dari model regresi. – Diperoleh nilai R-square yang besar, sedangkan koefisien regresi tidak signifikan pada uji parsial. – Tanda (+ atau -) pada koefisien model regresi berlawanan dengan yang disebutkan dalam teori (atau logika). Misal, pada teori (atau logika) seharusnya b1 bertanda (+), namun yang diperoleh justru bertanda (-). – Nilai standard error untuk koefisien regresi menjadi lebih besar dari yang sebenarnya (overestimated)
  • 8.
    Uji Multikolinieritas • Untukmendeteksi apakah model regresi mengalami multikolinieritas, dapat diperiksa menggunakan VIF (Variance Inflation Factor). • Nilai VIF > 10 berarti telah terjadi multikolinieritas yang serius di dalam model regresi kita.
  • 9.
  • 10.
    Uji Heteroskedastisitas • situasidimana keragaman variabel independen bervariasi pada data yang kita miliki. Salah satu asumsi kunci pada metode regresi biasa adalah bahwa error memiliki keragaman yang sama pada tiap-tiap sampelnya. Asumsi inilah yang disebut homoskedastisitas. • Jika keragaman residual/error tidak bersifat konstan, data dapat dikatakan bersifat heteroskedastisitas. Karena pada metode regresi ordinary least-squares mengasumsikan keragaman error yang konstan, heteroskedastisitas menyebabkan estimasi OLS menjadi tidak efisien. • Model yang memperhitungkan perubahan keragaman dapat membuat penggunaan dan estimasi data menjadi lebih efisien.
  • 11.
    Uji Heteroskedastisitas • Beberapaasumsi dalam model regresi yang terkait dengan heteroskedastisitas antara lain adalah residual (e) memiliki nilai rata-rata nol, keragaman yang konstan, dan residual pada model tidak saling berhubungan, sehingga estimator bersifat BLUE. • Jika asumsi ini dilanggar maka prediksi model yang dibuat tidak dapat diandalkan.
  • 12.
  • 13.
    Uji Heteroskedastisitas • UjiGoldfeld-Quandt • Uji Korelasi Spearman • Uji Glejser • Uji Bruesch-Pagan-Godfrey • dll
  • 14.
    Uji Autokorelasi • Ujiautokorelasi digunakan untuk melihat apakah ada hubungan linier antara error serangkaian observasi yang diurutkan menurut waktu (data time series). • Uji autokorelasi perlu dilakukan apabila data yang dianalisis merupakan data time series (Gujarati, 1993). • Menggunakan Uji Durbin Watson
  • 16.
    Goodness of FitTest • Setelah kita melakukan uji normalitas data, maka kita perlu melakukan Uji kesesuaian model atau seberapa besar kemampuan variable bebas dalam menjelaskan varian variabel terikatnya
  • 17.
    Goodness of FitTest - R2 • R2 adalah perbandingan antara variasi Y yang dijelaskan oleh x1 dan x2 secara bersama-sama dibanding dengan variasi total Y. • Jika selain x1 dan x2 semua variabel di luar model yang diwadahi dalam E dimasukkan ke dalam model, maka nilai R2 akan bernilai 1. • Ini berarti seluruh variasi Y dapat dijelaskan oleh variabel penjelas yang dimasukkan ke dalam model. • Contoh Jika variabel dalam model hanya menjelaskan 0,4 maka berarti sebesar 0,6 ditentukan oleh variabel di luar model, nilai diperoleh sebesar R2 = 0,4.
  • 18.
    Goodness of FitTest – Uji F • Selain R2 ketepatan model hendaknya diuji dengan uji F. Hipotesis dalam uji F adalah sebagai berikut: • Hipotesis mengenai ketepatan model: • Ho : b1 = b2 = 0 (Pengambilan variabel X1 dan X2 tidak cukup tepat dalam menjelaskan variasi Y, ini berarti pengaruh variabel di luar model terhadap Y, lebih kuat dibanding dengan variabel yang sudah dipilih). • Ha : b1 ≠ b2 ≠ 0 (Pengambilan variabel X1 dan X2 sudah cukup tepat karena mampu menjelaskan variasi Y, dibanding dengan pengaruh variabel di luar model atau errror terhadap Y).
  • 19.
    Uji F • UjiF adalah uji simultan untuk melihat pengaruh variabel-variabel independen/bebas (x1, x2, x3…) secara serempak terhadap variabel terikatnya/dependen
  • 20.
    Uji t • Ujit adalah uji parsial untuk melihat pengaruh masing-masing variabel independen atau bebas (x) berpengaruh nyata atau tidak secara parsial terhadap variabel dependen/terikatnya (Y)