Dokumen tersebut membahas tentang asumsi dan pelanggaran pada regresi berganda, variabel kualitatif, dan regresi logistik. Secara singkat, dibahas mengenai asumsi utama pada regresi berganda seperti hubungan linier antara variabel bebas dan terikat, homogenitas varians, dan independensi error. Juga dibahas mengenai pelanggaran asumsi seperti multikolinieritas, heteroskedastisitas, dan autokorelasi beserta cara mendeteksi dan mengatasinya.
5. Variabel terikat dan variabel bebas
memiliki hubungan yang linier atau
hubungan garis lurus.
Pengamatan-pengamatan untuk
variabel terikat dari satu
pengamatan ke pengamatan lain
harus bebas atau tidak
berkorelasi.
Variabel terikat haruslah
variabel yang bersifat
kontinu dan paling tidak
berskala selang.
Nilai keragaman atau residu, yaitu
selisih antara data pengamatan
dan data dugaan hasil regresi
harus sama untuk semua nilal Y.
ASUMSI REGRESI
BERGANDA
6. PELANGGARAN PADA ASUMSI BERGANDA
MULTIKOLINIERITAR
Terdapat hubungan
antara variabel terikat
HETEROSKEDASTISITAS
Nilai residu ternyata tidak bersifat
konstan untuk semua data Y
AUTOKORELASI
Adanya korelasi antara
data pengamatan
1
2
3
7. Multikolinieritas dikemukakan pertama kali oleh Ragner Frish dalam bukunya "Statistical
Confluence Analysis by Means of Complete Regression Systems" Frish menyatakan bahwa
multikolinier adalah adanya lebih dari satu hubungan linier yang sempurna.
MULTIKOLINIERITAS
Teknik untuk Mengenali MULTIKOLINIER :
Variabel bebas secara bersama-sama pengaruhnya nyata, atau Uji F-nya nyata,
namun ternyata setiap variabel bebasnya secara parsial pengaruhnya tidak nyata,
(uji-t-nya tidak nyata).
Nilai koefisien determinasi R² sangat besar, namun ternyata variabel bebasnya
berpengaruh tidak nyata, (uji-t tidak nyata).
Nilai koefisien korelasi parsial, yaitu ryx1.X2' ryx2 .x1' dan rx1x2.Y ada yang lebih
besar dari koefisien determinasinya.
Nilai VIF (Variance Inflation Factor). Nilai VIF > 10 berarti telah terjadi
multikolinieritas yang serius di dalam model regresi kita.
8. Heteroskedastisitas dilakukan untuk
melihat nilai varian antar nilai Y, apakah
sama atau heterogen.
HETEROSKEDASTISITAS
Dampak terjadinya Heteroskedastisitas
Apabila kita menggunakan OLS, maka
uji t dan F tidak berfungsi sebagaimana
mestinya, sehingga diperlukan
perubahan-perubahan.
Interval keyakinan untuk koefisien
regresi menjadi semakin lebar dan uji
signifikansi kurang kuat
walaupun terjadi heteroskedasilitas,
koefisien penduga (b, dan b₂) tetap
efisien, namun variannya atau kesalahan
baku penduganya menjadi lebar atau
tidak efisien
9. Metode grafik, menghubungkan antara Y dan e2, di mana apabila hubungan Y dan e2
tidak sistematis seperti makin membesar atau mengecil seiring bertambahnya Y, maka
tidak terjadi heteroskedasitisitas
Mendeteksi heteroskedastisitas
uji korelasi rank Spearman, digunakan untuk menguji
heteroskedasititas apabila nilai korelasi rank Spearman lebih
besar dari nilai t-tabel.
Mengatasi heteroskedastisitas
(a) Melakukan metode kuadrat terkecil tertimbang, nilai
tertimbang dapat dilakukan berdasarkan apriori atau
observasi
(b) Melakukan transformasi log, yaitu data diubah dalam
bentuk log atau data ditransformasi ke bentuk lainnya
seperti 1/X atau yang lainnya.
10. Autokorelasi dikenalkan oleh Maurice G. Kendall dan William
R. Buckland. Autokorelasi merupakan korelasi antara anggota
observasi yang disusun menurut urutan waktu.
AUTOKORELASI
Penyebab AUTOKORELASI
Kelembaman Bentuk fungsi
yang digunakan
tidak tepat
Terjadi bias
dalam
spesifikasi
11. (a) metode grafik yang menghubungkan antara error (e) atau residu dengan waktu
(b) uji Durbin-Watson di mana rumus untuk uji DW adalah ∑(et-et-1 )2 / ∑e2.
Mendeteksi AUTOKORELASI
Deteksi AUTOKORELASI Positif:
Jika d < dL maka terdapat autokorelasi positif,
Jika d > dU maka tidak terdapat autokorelasi positif,
Jika dL < d < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.
Deteksi AUTOKORELASI Negatif:
Jika (4-d) < dL atau d> 4-dL maka terdapat autokorelasi negatif,
Jika (4-d) > dU atau d < 4 - dU maka tidak terdapat autokorelasi negatif,
Jika dL < (4-d) < dU maka pengujian tidak meyakinkan atau tidak dapat
disimpulkan.
13. Variabel dengan data kualitatif dapat dikelompokkan dalam dua bagian, yaitu skala
ordinal dan nominal. Skala ordinal adalah suatu nilai yang menggambarkan
urutan seperti lebih tinggi atau lebih baik. Sebagai contoh skala ordinal adalah
tingkat pendidikan, tingkat pelayanan atau kelompok umur. Skala nominal tidak
mempunyai makna tertentu seperti urutan dan sebagainya, jadi pengkodean
hanya sekadar kode dan tidak mempunyai arti. Contoh skala nominal ini adalah
jenis kelamin, warna kulit, agama, dan lain-lain.
Variabel kualitatif yang hanya memiliki nilai 0 dan 1 disebut dengan dummy variabel.
Sebagai contoh untuk jenis kelamin, pria diberi kode = 1 dan wanita = nol, atau
variabel pendidikan misalnya 1 untuk sarjana dan 0 untuk non sarjana. Model
persamaan regresi kualitatif adalah sebagai berikut:
14. Y = a + b1X1 + b2D + £
Di mana :
Y : Variabel terikat
X1 : Variabel bebas kuantitatif
D : variabel bebas kuantitatif (dummy), nilai 0 dan 1
£ : Error
Pada persamaan di atas, variabel yang memengaruhi y adalah variabel kuantitatif dan
kualitatif, untuk persamaan demikian digunakan analysis of covariance model (ancova).
Misalnya y adalah besarnya konsumsi setiap bulan, X1 adalah besarnya pendapatan, dan d
adalah variabel jenis kelamin (laki-laki, perempuan) atau variabel lokasi rumah tangga
(kota,desa),dan sebagainya. Apabila seluruh variabel bebas adalah variabel kualitatif, maka
digunakan analysis of variance model (ANOVA).
15. Jawabannya tentunya tidak. Kategori dalam variabel kualitatif boleh lebih dari dua. Aturan
umum untuk menentukan berapa kategori adalah jumlah variabelnya. Apabila anda ingin
ada n kategori, maka anda harus membuat n-1 dummy variabel. Seperti pada pendidikan
apabila anda ingin mengategorikan bukan sarjana dan non sarjana saja tetapi diubah menjadi
pascasarjana, sarjana, dan nonsarjana, maka diperlukan 2 dummy variabel (3-1). Sehingga
persamaannya menjadi:
Y = a + b1X1 + b2D1 + b2D2 + £
Apakah dalam variabel kualitatif hanya diperbolehkan ada 2
kategori, yaitu 0 dan 1?
Di mana :
Y : Variabel terikat
X1 : variabel bebas kuantitatif
D1 : variabel bebas kualitatif (dummy 1), Misalnya
D1 = 1 = sarjana
D1 = 0 = nonsarjana
D2 : variabel bebas kualitatif (dummy 2), Misalnya
D1 = 1 = Pascasarjana
D1 = 0 = nonsarjana
£ : Error
Oleh sebab itu, dapat ditekankan bahwa "jumlah variabel dummy" mempunyai hubungan
dengan "jumlah kategori" di mana jumlah variabel dummy adalah jumlah kategori dikurangi 1.
16. Untuk regresi tidak berbeda dengan
regresi sederhana atau berganda. Untuk
pengujian begitu juga, yaitu uji F untuk
keseluruhan variabel dan uji t untuk
menguji apakah setiap variabel
berpengaruh nyata.
Bagaimana proses regresi dan
pengujian hipotesis?
18. Regresi logistik
Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti halnya
regresi linear atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS) regression.
Perbedaannya adalah pada regresi logistik, peneliti memprediksi variabel terikat yang berskala
dikotomi. Skala dikotomi yang dimaksud adalah skala data nominal dengan dua kategori,
misalnya: Ya dan Tidak, Baik dan Buruk atau Tinggi dan Rendah. Regresi logistik
menghubungkan antara satu atau beberapa variabel independen (variabel bebas) dengan
variabel dependen yang berupa kategori; biasanya 0 dan 1. Jenis variabel independen berupa
kategori inilah yang membedakan regresi logistik dengan regresi berganda atau regresi linear
lainnya.
Nilai kategori biasanya tertulis 0 dan 1, kebanyakan peneliti menggunakan regresi logistik untuk
memproses 2 kategori saja. 0 biasanya digunakan untuk kategori “tidak” atau “belum”.
Sedangkan angka 1 biasanya digunakan untuk mendeskripsikan responden yang bersesuaian
dengan maksud penelitian.
19. • Regresi logistik tidak membutuhkan
hubungan linier antara variabel
independen dengan variabel dependen
• Variabel independen tidak memerlukan
asumsi multivariate normality.
• Variabel dependen harus bersifat
dikotomi (2 kategori, misal: tinggi dan
rendah atau baik dan buruk)
• Variabel independen tidak harus memiliki
keragaman yang sama antar kelompok variabel
• Kategori dalam variabel independen
harus terpisah satu sama lain atau
bersifat eksklusif
• Asumsi homokedastisitas tidak
diperlukan
• Sampel yang diperlukan dalam jumlah relatif
besar, minimum dibutuhkan hingga 50 sampel
data untuk sebuah variabel prediktor
(independent)
• Dapat menyeleksi hubungan karena
menggunakan pendekatan non linier log
transformasi untuk memprediksi odds ratio.
Odd dalam regresi logistik sering dinyatakan
sebagai probabilitas
Asumsi Regresi Logistik
• Variabel bebas tidak perlu diubah ke
dalam bentuk metrik (interval atau skala
ratio).
20. Model persamaan aljabar OLS yang biasa kita
gunakan adalah berikut: Y = B0 + B1X +
e. Dimana e adalah error varians atau residual.
Dengan model regresi ini, tidak
menggunakan interpretasi yang sama seperti
halnya persamaan regresi OLS. Model
Persamaan yang terbentuk berbeda dengan
persamaan OLS.
Berikut persamaan Regresi Logistik
Dimana ;
● Ln: Logaritma Natural.
● B0 + B1X: Persamaan yang biasa
dikenal dalam OLS.
● P Aksen adalah probabilitas logistik
yang didapat rumus sebagai berikut:
Model Persamaan Regresi Logistik
21. Di mana:
exp atau ditulis “e” adalah fungsi exponen.
(Perlu diingat bahwa exponen merupakan kebalikan dari logaritma natural.
Sedangkan logaritma natural adalah bentuk logaritma namun dengan nilai
konstanta 2,71828182845904 atau biasa dibulatkan menjadi 2,72).
Dengan model persamaan di atas, tentunya akan sangat sulit untuk
menginterprestasikan koefisien regresinya. Oleh karena itu maka
diperkenalkanlah istilah Odds Ratio atau yang biasa disingkat Exp(B) atau OR.
Exp(B) merupakan exponen dari koefisien regresi. Jadi misalkan nilai slope dari
regresi adalah sebesar 0,80, maka Exp(B) dapat diperkirakan sebagai berikut:
22. 1. Nilai Odds Ratio
Besarnya nilai Exp(B) dapat diartikan sebagai berikut:
Misalnya nilai Exp (B) pengaruh rokok terhadap terhadap kanker paru adalah
sebesar 2,23, maka disimpulkan bahwa orang yang merokok lebih beresiko
untuk mengalami kanker paru dibadningkan dengan orang yang tidak merokok.
Interprestasi ini diartikan apabila pengkodean kategori pada tiap variabel sebagai
berikut:
-Variabel bebas adalah Rokok: Kode 0 untuk tidak merokok, kode 1 untuk
merokok.
-Variabel terikat adalah kanker Paru: Kode 0 untuk tidak mengalami kanker paru,
kode 1 untuk mengalami kanker paru.
23. 2. Pseudo R Square
Perbedaan lainnya yaitu pada regresi ini tidak ada nilai “R Square” untuk
mengukur besarnya pengaruh simultan beberapa variabel bebas terhadap
variabel terikat. Dalam regresi logistik dikenal istilah Pseudo R Square, yaitu nilai
R Square Semu yang maksudnya sama atau identik dengan R Square pada
OLS.
Jika pada OLS menggunakan uji F Anova untuk mengukur tingkat signifikansi
dan seberapa baik model persamaan yang terbentuk, maka pada regresi ini
menggunakan Nilai Chi-Square. Perhitungan nilai Chi-Square ini berdasarkan
perhitungan Maximum Likelihood
25. CONTENTS OF THIS TEMPLATE
Here’s what you’ll find in this Slidesgo template:
1. A slide structure based on a school center presentation, which you can easily adapt to your needs. For more info on how to edit
the template, please visit Slidesgo School or read our FAQs.
2. An assortment of graphic resources that are suitable for use in the presentation can be found in the alternative resources
slide.
3. A thanks slide, which you must keep so that proper credits for our design are given.
4. A resources slide, where you’ll find links to all the elements used in the template.
5. Instructions for use.
6. Final slides with:
● The fonts and colors used in the template.
● A selection of illustrations. You can also customize and animate them as you wish with the online editor. Visit Storyset
to find more.
● More infographic resources, whose size and color can be edited.
● Sets of customizable icons of the following themes: general, business, avatar, creative process, education, help &
support, medical, nature, performing arts, SEO & marketing, and teamwork.
You can delete this slide when you’re done editing the presentation.
27. QUESTION
● Earth is the planet where we all live on
● Mercury is the closest planet to the Sun
● Venus is the second planet from the Sun
● Saturn is a gas giant and has several rings