2. PENDAHULUAN
Apakah Konsumsi hanya dipengaruhi oleh Pendapatan saja?
Ada beberapa variabel lain yang berpengaruh, seperti jumlah anggota keluarga, umur anggota keluarga, selera pribadi, dan sebagainya.
Bila dianggap variabel lain perlu diakomodasikan dalam menganalisis konsumsi, maka Regresi Sederhana dikembangkan menjadi Regresi Berganda.
3. MODEL
Yi= 0+ 1X1i+ 2X2i+ 3X3i+ ........+ kXki+ ui
i = 1,2,3,......., N (banyaknya observasi)
Contoh Aplikasi:
Yi= 0+ 1X1+ 2X2+ 3X3+ ui
Y : Konsumsi
X1: Pendapatan
X2: Umur
X3: Jumlah tanggungan
4. ESTIMASI
Teknik Estimasi: Ordinary Least Square
Estimator:
b = (XTX)-1XTY
Bentuk tersebut merupakan persamaan matriks,
dimana:
X adalahmatriks data variabel bebas
XT adalahbentuk transpose matriks X
(XTX)-1adalahinverse perkalian matriks XTdan X
Y merupakan vektor data variabel terikat
5. Pemeriksaan Persamaan Regresi
Standard Error Koefisien
Interval Kepercayaan
Koefisien Determinasi
Nilai-nilai ekstrim
Uji Hipotesis:
–Uji t
–Uji F
6. Uji Hipotesis
Uji-F
Diperuntukkan guna melakukan uji hipotesis koefisien (slop) regresi secara bersamaan.
H0: 1= 2= 3= 4=............= k= 0
H1: Tidak demikian (paling tidak ada satu slop yang 0)
Dimana: k adalah banyaknya variabel bebas.
Regresi sederhana:
H0: 1= 0
H1: 10
Pengujian: Tabel ANOVA (Analysis of Variance).
7. Uji-F
Observasi: Yi = 0 + 1 Xi + ei
Regresi: Ŷi = b0 + b1 Xi (catatan: Ŷi merupakan estimasi dari Yi).
Bila kedua sisi dikurangi maka:
Selanjutnya kedua sisi dikomulatifkan:
SST SSR SSE
SST : Sum of Squared Total
SSR : Sum of Squared Regression
SSE : Sum of Squared Error/Residual
Y Y Y Y e i i
(Y Y ) (Y Y e ) i i i 2 2
(Y Y ) (Y Y ) e i i i 2 2 2
Y
8. Uji F
Tabel ANOVA
SumberSum of SquaredfMean SquaresF Hitung
RegresiSSRkMSR = SSR/kF = MSR
ErrorSSEn-k-1MSE= SSE/(n-k-1) MSE
TotalSSTn-1
Dimana df adalah degree of freedom, k adalah jumlah variabel bebas (koefisien slop), dan n jumlah observasi (sampel).
Bandingkan F Hitdengan Fα(k,n-k-1)
9. Asumsi-asumsi yang mendasari OLS
Pendugaan OLS akan bersifat BLUE (Best Linier Unbiased Estimate) jika memenuhi 3 asumsi utama, yaitu:
–Tidak ada multikolinieritas
–Tidak mengandung Heteroskedastisitas
–Bebas dari otokorelasi
10. Multikolinieritas
Multikolinieritas: adanya hubungan linier antara regressor.
Misalkan terdapat dua buah regressor, X1dan X2. Jika X1dapat dinyatakan sebagai fungsi linier dari X2, misal : X1= X2, maka ada kolinieritas antara X1dan X2. Akan tetapi, bila hubungan antara X1dan X2tidak linier, misalnya X1= X22atau X1= log X2, maka X1dan X2tidak kolinier.
11. Ilustrasi
Yi= 0+ 1X1 + 2X2+ 3X3+ ui
Y : Konsumsi
X1: Total Pendapatan
X2: Pendapatan dari upah
X3: Pendapatan bukan dari upah
Secara substansi: total pendapatan (X1) = pendapatan dari upah (X2) + pendapatan bukan dari upah (X3). Bila model ini ditaksir menggunakan Ordinary Least Square (OLS), maka itidak dapat diperoleh, karena terjadi perfect multicollinearity. Tidak dapatnya diperoleh karena ( XT X )-1, tidak bisa dicari.
13. Akibat Multikolinieritas
Varians besar (dari taksiran OLS)
Interval kepercayaan lebar (variansi besar Standar Error besar Interval kepercayaan lebar)
R2 tinggi tetapi tidak banyak variabel yang signifikan dari uji t.
Terkadang taksiran koefisien yang didapat akan mempunyai nilai yang tidak sesuai dengan substansi, sehingga dapat menyesatkan interpretasi.
14. Kesalahan Interpretasi
“Interpretasi dari persamaan regresi ganda secara implisit bergantung pada asumsi bahwa variabel-variabel bebas dalam persamaan tersebut tidak saling berkorelasi. Koefisien- koefisien regresi biasanya diinterpretasikan sebagai ukuran perubahan variabel terikat jika salah satu variabel bebasnya naik sebesar satu unit dan seluruh variabel bebas lainnya dianggap tetap. Namun, interpretasi ini menjadi tidak benar apabila terdapat hubungan linier antara variabel bebas”
(Chatterjee and Price, 1977).
16. Ilustrasi
Model:
Y = 12,8 –1,414X1+ 0,202 X2
SE(4,696) (1,199) (0,117)
t (2,726) (-1,179) (1,721)
R2= 0,982
R2relatif tinggi, yaitu 98,2%. Artinya?
Uji t tidak signifikan. Artinya?
Koefisien X1 bertanda negatif. Artinya?
17. Ilustrasi: Model dipecah
Dampak Pendapatan pada Konsumsi
Y = 14,148 + 0,649X1
SE (5,166) (0,037)
t (2,739) (17,659)
R2= 0,975
R2tinggi, Uji t signifikan, dan tanda X1positif.
Dampak Kekayaan pada Konsumsi
Y = 13,587 + 0,0635X2
SE (4,760) (0,003)
t (2,854) (19,280)
R2= 0,979
R2tinggi, Uji t signifikan, dan tanda X2positif.
X1dan X2menerangkan variasi yang sama. Bila 1 variabel saja cukup, kenapa harus dua?
18. Mendeteksi Multikolinieritas dengan Uji
Formal
1. Eigenvalues dan Conditional Index
Aturan yang digunakan adalah: Multikolinieritas ditengarai
ada didalam persamaan regresi bila nilai Eigenvalues
mendekati 0.
Hubungan antara Eigenvalues dan Conditional Index (CI)
adalah sebagai berikut:
eigenvalues
eigenvalues
CI
min
max
Jika CI berada antara nilai 10 sampai 30: kolinieritas moderat.
Bila CI mempunyai nilai diatas 30: kolinieritas yang kuat.
19. 2. VIF dan Tolerance
(1 )
1
VIF
j 2
j R
; j = 1,2,……,k
k adalah banyaknya variabel bebas
adalah koefisien determinasi antara variabel bebas ke-j dengan
variabel bebas lainnya.
2
j R
2
j R
2
j R
Jika = 0 atau antar variabel bebas tidak berkorelasi, maka nilai VIF = 1.
Jika ≠ 0 atau ada korelasi antar variabel bebas, maka nilai VIF > 1.
Oleh karena itu, dapat disimpulkan bahwa kolinieritas tidak ada
jika nilai VIF mendekati angka 1
20. Tolerance
VIF ini mempunyai hubungan dengan
Tolerance (TOL), dimana hubungannya
adalah sebagai berikut:
2
j 1
1
TOL j R
VIF
Variabel bebas dinyatakan tidak multikolinieritas jika
TOL mendekati 1
21. Mengatasi kolinieritas
Melihat informasi sejenis yang ada
Tidak mengikutsertakan salah satu variabel yang kolinier
–Banyak dilakukan.
–Hati-hati, karena dapat menimbulkan specification bias yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel yang sangat penting.
Mentransformasikan variabel
Mencari data tambahan
22. Heteroskedastisitas(Heteroscedasticity)
Variasi Error tidak konstan. Umumnya terjadi pada data cross section. Misal datakonsumsi dan pendapatan, atau data keuntungan dan asset perusahaan 020
40
60
80
100
120
0
2040
60
Pola Data Heteroskedastis
23. Data Heteroskedastisitas
Fakta:
–hubungan positif antara X dan Y, dimana nilai Y meningkat searah dengan nilai X.
–semakin besar nilai variabel bebas (X) dan variabel bebas (Y), semakin jauh koordinat (x,y) dari garis regresi (Error makin membesar)
–besarnya variasi seiring dengan membesarnya nilai X dan Y. Atau dengan kata lain, variasi data yang digunakan untuk membuat model tidak konstan.
24. Pemeriksaan Heteroskedastisitas
1. Metode Grafik
Prinsip: memeriksa pola residual (ui2) terhadap taksiran Yi.
Langkah-langkah:
–Run suatu model regresi
–Dari persamaan regresi, hitungui2
–Buat plot antara ui2dan taksiran Yi
25. Pola Grafik
ui
2
i Y
Pengamatan:
1.Tidak adanya pola yang sistematis.
2.Berapapun nilai Y prediksi, residual kuadratnya relatif sama.
3.Variansi konstan, dan data homoskedastis.
i Y
,
27. Uji Park
Prinsip: memanfaatkan bentuk regresi untuk melihat adanya heteroskedastisitas.
Langkah-langkah yang dikenalkan Park:
1. Run regresi Yi= 0+ 0Xi+ ui
2. Hitung ln ui2
3. Run regresi ln ui2= + ln Xi+ vi
4. Lakukan uji-t. Bila signifikan, maka ada
heteroskedastisitas dalam data.
29. Ilustrasi
Y = -3,1470 + 5,5653 X
SE (0,0305) R2= 0,9992
slopesignifikan: Bila sepatu terjual naik 1 unit, maka bonus akan naik Rp.5.563.
Apakah ada heteroskedastisitas ?
Run regresi, didapat:
ln ui2= 6,0393 –2,1116 ln Xi
SE (0,0090) R2 = 0,9995
Menurut uji t, signifikan sehingga dalam model penjualan sepatu vs bonus di atas ada heteroskedastisitas.
30. Uji Goldfeld – Quandt
Metode Goldfeld – Quandt sangat populer untuk digunakan, namun
agak merepotkan, terutama untuk data yang besar.
Langkah-langkah pada metode ini:
– Urutkan nilai X dari kecil ke besar
– Abaikan beberapa pengamatan sekitar median, katakanlah sebanyak c
pengamatan. Sisanya, masih ada (N – c) pengamatan
– Lakukan regresi pada pengamatan 1, dan hitung SSE 1
– Lakukan regresi pada pengamatan 2 dan hitung SSE 2.
– Hitung df = jumlah pengamatan dikurangi jumlah parameter
– Lakukan uji F sbb.
1 1
2 2
RSS / df
RSS / df
Bila > F tabel, kita tolak hipotesis yang mengatakan data mempunyai variansi
yang homoskedastis
31. Ilustrasi
Ada 30 pengamatan penjualan sepatu dan bonus. Sebanyak 4 pengamatan yang di tengah diabaikan sehingga tinggal 13 pengamatan pertama (Kelompok I) dan 13 pengamatan kedua (Kelompok II).
Regresi berdasarkan pengamatan pada kelompok I:
Y = -1,7298 + 5,4199 XR2= 0,9979
RSS1 = 28192,66df1 = 11
Regresi berdasarkan pengamatan pada kelompok II:
Y = -0,8233 + 5,5110 XR2= 0,9941
RSS2 = 354397,6df2 = 11
32. Ilustrasi
1 1
2 2
RSS / df
RSS / df
= 354397,6/11
28192,66/11
= 12,5706
Dari tabel F, didapat F = 2,82 sehingga > F
Kesimpukan: ada heteroskedastisitas dalam data
33. Mengatasi heteroskedastisitas
1. Transformasi dengan Logaritma
Transformasi ini ditujukan untuk memperkecil skala antar variabel bebas. Dengan semakin „sempitnya‟ rangenilai observasi, diharapkan variasi error juga tidak akan berbeda besar antar kelompok observasi.
Adapun model yang digunakan adalah:
Ln Yj= β0+ β1Ln Xj+ uj
34. 2. Metode Generalized Least Squares
(GLS)
Perhatikan model berikut :
Yj = 1 + 2 Xj + uj dengan Var (uj) = j
2
Masing-masing dikalikan
1
j
Y X u j
j j
j
j
j
j
1 2
1
Maka diperoleh transformed model sebagai berikut :
Yi* = 1* + 2Xi* + ui*
35. GLS
Kita periksa dulu apakah ui* homoskedastis ?
( ) 1
1
E(u )
u 1
E 2
2 i
i
2
2 i
i
2
i
2
i
E(ui*2) = konstan
36. Transformasi
Oleh karena mencari j
2 hampir tidak pernah diketahui, maka
biasanya digunakan asumsi untuk mendapat nilai j
2. Asumsi
ini dapat dilakukan dengan mentransformasikan variabel. Ada
beberapa jenis, yaitu:
j X
1
1. Transformasi dengan
Asumsi: j
2 = 2
j
2 2
j E u X
Akibat transformasi, model menjadi:
j
j
j j
j Y u
X X
1
X 0 1
atau dapat ditulis dengan: Yi* = 0 X* + 1 + vi
37. Transformasi
Apakah sudah homoskedastis? Perhatikan bukti berikut:
2 2 2
2
2
2 2
2
( X )
X
1
( )
X
1
X
j
j
j
j j
j E u
u
E(v E i
2) = konstan
2. Transformasi dengan
i X
1
Asumsi: j
2 = j
2 2
j E u X
3. Transformasi dengan E(Yi)
2
j
2 2
j Asumsi: E u [E(Y )] j
2 =
38. Otokorelasi
Otokorelasi: korelasi antara variabel itu sendiri, pada pengamatan yang berbeda waktu atau individu. Umumnya kasus otokorelasi banyak terjadi pada data time seriesKondisi sekarang dipengaruhi waktu lalu. Misal: Tinggi badan, upah, dsbnya.
Salah satu alat deteksi: melihat pola hubungan antara residual (ui) dan variabel bebas atau waktu (X).
39. Mendeteksi Otokorelasi
Pola Autokorelasi
ui ui
*
* **
* * ** * *
* * ***
* * * Waktu/X* **Waktu/X
* * * * ***
*
Gambar nomor (1) menunjukan adanya siklus, sedang nomor (2) menunjukan garis linier. Kedua pola ini menunjukan adanya otokorelasi.
40. Uji Durbin-Watson ( Uji d)
d
u u
u
t t
t
N
t
t
N
( )
1
2
2
2
1
Statistik Uji
Dalam Paket Program SPSS/EViews Sudah dihitungkan
41. Aturan main menggunakan uji Durbin- Watson :
Bandingkan nilai d yang dihitung dengan nilai dLdan dU dari tabel dengan aturan berikut :
–Bila d < dLtolak H0; Berarti ada korelasi yang positif atau kecenderungannya = 1
–Bila dLd dU kita tidak dapat mengambil kesimpulan apa-apa
–Bila dU< d < 4 –dUjangan tolak H0; Artinya tidak ada korelasi positif maupun negatif
–Bila 4 –dUd 4–dLkita tidak dapat mengambil kesimpulan apa-apa
–Bila d > 4 –dLtolak H0; Berarti ada korelasi negatif
42. Gambar aturan main menggunakan uji Durbin-WatsonTidak tahu Tidak tahuKorelasi positifTidak ada korelasiKorelasi negatif0dL dU4-dU4-dL 4
43. Mengatasi Otokorelasi: Metode Pembedaan Umum (Generalized Differences)
Yt = β0+ β1Xt+ utdanut= ρ ut-1+ vt
Untuk waktu ke-t-1: Yt-1= β0+ β1Xt-1+ ut-1
Bila kedua sisi persamaan dikali dengan ρ, maka:
ρ Yt-1= ρ β0+ ρ β1Xt-1+ ρ ut-1
Sekarang kita kurangkan dengan persamaan Model
Yt-ρ Yt-1= (β0-ρ β0) + β1(Xt-ρ Xt-1) + (ut-ρ ut-1)
Persamaan tersebut dapat dituliskan sebagai:
Yt* = β0(1 -ρ) + β1Xt* + vt
Dimana:Yt* = Yt-ρ Yt-1dan Xt* = Xt-ρ Xt-1Idealnya kita harus dapat mencari nilai ρ. Tapi dalam banyak kasus, diasumsikan ρ = 1, sehingga: Yt* = Yt -Yt-1Xt* = Xt -Xt-1
44. Pemilihan Model
1. R2Adjusted
Perhatikan Model:
(i) LABA = 5053,712 + 0,049 KREDIT; R2= 80,6%
(ii) LABA = 45748,484 + 0,0106 ASET + 0,0081 KREDIT; R2= 87,4%.
Model manakah yang lebih baik ditinjau dari koefisien determinasi-nya?.
Sekarang kita perhatikan kembali formula untuk menghitung R2 22211SSTSSRRYYuSSTSSEii
45. R2Adjusted
SST sama sekali tidak dipengaruhi oleh jumlah variabel bebas, karena formulasinya hanya memperhitungkan variabel terikat
SSE dipengaruhi oleh variabel bebas, dimana semakin banyak variabel bebas, maka nilai SSE cenderung semakin kecil, atau paling tidak tetap. SSE kecil, maka nilai SSR akan besar.
Akibat kedua hal tersebut, maka semakin banyak variabel bebas yang dimasukkan dalam model, maka nilai R2akan semakin besar.
)1/()( )/( 122nYYknuRii
46. Pemilihan Model
2. Akaike Information Criterion (AIC)
n
SSE
e
n
u
AIC e 2k/n
2
2k/n i
n
RSS
ln
n
2k
ln AIC
Bila kita membandingkan dua buah regresi atau lebih, maka model yang
mempunyai nilai AIC terkecil merupakan model yang lebih baik.
48. Pemilihan Model
3. Schwarz Information Criterion (SIC)
n
SSE
n
n
u
SIC n k/n
2
k/n i
n
RSS
ln ln
n
k
ln SIC n
Sama dengan AIC, model yang mempunyai nilai SIC terkecil merupakan
model yang lebih baik.
50. Standarisasi Variabel
Kegunaan untuk perbandingan kontribusi antar variabel bebas
untuk menerangkan variabel terikat
Y
* i
i S
Y Y
Y
X
* i
i S
X X
X
Akibat standarisasi:
Y
* i
i S
Y Y
Y
0
n S
0
n S
Y Y
Y
Y Y
* i
i
= (nilai tengah = 0)
1
/( 1) 1 /( 1)
2
2
2
2
2
*
Y
Y
Y
i
Y S
n S n
S
Y Y n
S (varian = 1)
51. Standarisasi Variabel
Model regresi yang menggunakan variabel yang telah distandarisasi tidak akan mempunyai intersep
Notasi yang diberikan untuk koefisien tersebut adalah BETA.
Standarisasi variabel lebih berguna untuk analisis pada model regresi berganda.