2. ANALISIS REGRESI
• ANALISIS REGRESI ADALAH SUATU CARA
STATISTIK UNTUK MELAKUKAN ESTIMASI
(PERKIRAAN) MENGENAI HUBUNGAN,
ANTARA DEPENDENT VARIABEL DAN SATU
ATAU LEBIH VARIABEL INDEPENDENT LAINNYA
SECARA KUANTITATIF.
3. ANALISIS REGRESI
• Analisis Regresi adalah adalah teknik analisis statistik
dan modeling yang paling sering digunakan.
• Secara umum, menggunakan sebuah model response
variable (Y) sebagai fungsi dari satu atau lebih
variabel penggerak (X1, X2, ..., Xp).
• Hubungannya dapat dinyatakan sebagai berikut:
• Simpel Regression: bila terdapat satu variabel
independent , Yi = 0 + 1X, atau
• Multipel atau multivariate Regression: bila terdapat
lebih dari satu variabel independent,
Yi = 0 + 1X1i + 2X2i + ... + pXpi +
4. • Symbol error () term adalah suatu
“random error term” dan dapat
menggambarkan adanya variabel lain
yang belum dimasukan dalam
hubungan tersebut.
Symbol pada Analisis Regresi
5. • Error berdistribusi secara normal
• Mean = expected value = 0
• Variance 2
= constant, untuk setiap
waktu dan setiap X, tidak bergantung
pada variabel yang ada.
• Error independent satu dengan lainnya
Asumsi-asumsi () term pada Analisis
Regresi
6. Scatter plots
• Analisis Regresi memerlukan data kuantitatif
(interval atau ratio).
• Jika menggunakan variabel kategori (tipe
nominal atau ordinal) maka perlu diubah ke
bentuk numerik dengan memberi value, misal
1=pria, 2=wanita.
• Untuk melihat apakah data yang ada cocok
dengan model regresi, sebaiknya lakukan
analisis scatter plot.
• Kenapa?
– Analisis Regresi menggunakan asumsi hubungan
yang linear. Jika hubungannya kuadratik atau tidak
ada kaitannya maka menjadi tidak tepat.
8. Contoh
Hubungan antara penjualan dan advertising:
advertising dapat merupakan independent variable dan sales sebagai
dependent variable.
Pertama, carilah data untuk menganalisis hubungan antara sales and
advertising, lalu buatlah model
Sales = 0 + 1 (Advertising)
Setelah melakukan estimasi 0 dan 1 ,kemudian kita lihat hubungan
antara ramalan penjualan dan tingkat advertising.
Berapa banyak penjualann yang akan kita hasilkan jika kita melakukan
advertising sejumlah biaya tertentu.
9. Scatter plot
15.0 20.0 25.0 30.0 35.0
Percent of Population 25 years and Over with Bachelor's Degree or More,
March 2000 estimates
20000
25000
30000
35000
40000
Personal
Income
Per
Capita,
current
dollars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
•Gambar disamping
menunjukkan hubungan
yang linear.
•Berkorelasi positif.
•Kenaikan jumlah sarjana
meningkatkan jumlah
pendapatan perkapita.
10. Regression Line
15.0 20.0 25.0 30.0 35.0
Percent of Population 25 years and Over with Bachelor's Degree or More,
March 2000 estimates
20000
25000
30000
35000
40000
Personal
Income
Per
Capita,
current
dollars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
R Sq Linear = 0.542
•Regression line adalah suatu
garis lurus yang sangat baik
untuk menjelaskan keterkaitan
antar titik dan dapat
digunakan untuk menjelaskan
hubungan antar variabel.
•Jika semua titik2 berada
sepanjang garis lurus kita
memiliki mean 0 berarti
relationshipnya sempurna.
11. Hal-hal yang perlu diperhatikan
• Regressi fokus pada hubungan, bukan
penyebab.
• Hubungan/keterkaitan adalah prasyarat
penting untuk menduga penyebab, tetapi juga:
1. Variabel independent waktunya harus mendahului
variabel dependent.
2. Kedua variabel secara teoritis harus memiliki
keterkaitan,
3. Pertentangan antara variabel independent harus
dihilangkan.
12. ASUMSI ANALISIS REGRESI LINEAR
• Distribusi data adalah normal dan hubungan
antara variabel dependen dengan masing2
variabel independent adalah linear.
• Tidak adanya multikolinearites,
heteroskesdastisitas, dan autokorelasi pada
model regresi.
13. Tabel Regresi
•Koefisien regresi
bukanlah indikator yang
baik untuk menunjukkan
kekuatan suatu
hubungan.
•Dua scatter plots
dengan penyebaran yang
sangat berbeda dapat
menghasilkan garis
regresi yang sama.
15.0 20.0 25.0 30.0 35.0
Percent of Population 25 years and Over with Bachelor's Degree or More,
March 2000 estimates
20000
25000
30000
35000
40000
Personal
Income
Per
Capita,
current
dollars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
R Sq Linear = 0.542
0.00 200.00 400.00 600.00 800.00 1000.00 1200.00
Population Per Square Mile
20000
25000
30000
35000
40000
Personal
Income
Per
Capita,
current
dollars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
R Sq Linear = 0.463
14. Koefisien Regresi
• Koefisien regresi adalah kemiringan garis
regresi yang menunjukkan pola hubungan
antar variabel.
• Berapa besar perubahan variabel2
independent dikaitkan dengan besarnya
perubahan yang terjadi pada variabel
dependent.
• Semakin besar perubahan koefisien regresi
semakin besar perubahannya.
15. Pearson’s r
• Untuk memperkirakan keeratan hubungan
antar variabel cluster dari suatu regresi dapat
digunakan r Pearson. Semakin besar
hubungannya semakin tinggi.
• Pearson’s r dinyatakan dalam range -1 sampai
+ 1, dimana 0 artinya tidak memiliki hubungan
linear sama sekali.
16. •KOEFISIEN KORELASI PEARSON
) )
) )
n
1
i
2
i
n
1
i
2
i
n
1
i
i
i
Y
Y
.
X
X
Y
Y
X
X
r
-1 -0,25 0,25 1
-0,75 0 0,75
1
r
1
ERAT
negatif
ERAT
positif
17.
18. • Pendugaan terhadap koefisien regresi:
b0 penduga bagi 0 dan b1 penduga bagi 1
Bagaimana Pengujian terhadap model regresi ??
• parsial (per koefisien) uji-t
• bersama uji-F (Anova)
Bagaimana menilai kesesuaian model ??
R2 (Koef. Determinasi: % keragaman Y yang mampu dijelaskan oleh X)
x
b
y
b
n
x
x
n
y
x
xy
b
1
0
2
2
1
)
(
)
)(
(
Metode
Kuadrat Terkecil
19. Membaca Tabel
Model Summary
.736a
.542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
•Ketika kita run suatu analisi regresi dengan SPSS akan diperoleh 3
tabel. Masing2 tabel menjelaskan tentang keterkaitan yang ada.
•Yang pertama adalah Model Summary.
•R adalah koefisien korelasi Product Moment Pearson
•Untuk contoh ini R adalah .736
•R square menunjukkan besarnya pengaruh variabel independen
terhadap variabel dependent.
20. R-Square
Model Summary
.736a
.542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
•R-Square adalah variansi proporsi dari variabel dependent
(income per capita) yang dapat diprediksi variabel independent
(level of education).
•Hasil ini menunjukkan bahwa 54.2% dari variabel pendapatan
dapat diprediksi dari variabel pendidikan. Catatan: ini
merupakan pengukuran secara umum terhadap tingkat kekuatan
hubungan, dan tidak menggambarkan tingkat pengaruh yang
khusus antara variabel independent terhadap variabel
dependent.
•R-Square disebut juga sebagai koefisien keterkaitan.
21. Adjusted R-square
Model Summary
.736a
.542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
Sebagai predictors tambahan dari suatu model, masing2 predictor akan
menerangkan beberapa variansi dari suatu variabel dependen karena suatu
perubahan.
Kita dapat tetap menambahkan predictors kedalam model untuk meningkatkan
kemampuan predictor menjelaskan variabel dependen, meskipun beberapa
kenaikan R-square dapat disebabkan oleh variasi sampel.
Adjusted R-square merupakan usaha untuk mendapatkan nilai yang lebih
mendekati keadaan sebenarnya untuk mengestimasi R-squared untuk suatu
populasi. Nilai R-square .542, sementara nilai Adjusted R-square adalah .532. Tidak
ada perbedaan yang berarti karena hanya pengamatan pada satu variabel
independent.
Ketika jumlah pengamatan kecil dan jumlah prediktor besar, maka akan ada
perbedaan yang besar pada R-square &adjusted R-square.
Sebalimnya, jika jumlah pengamatan sangat besar dibandingkan dengan jumlah
prediktor, nilai dari R-square dan adjusted R-square akan mendekati sama.
22. ANOVA
ANOVAb
4.32E+08 1 432493775.8 56.775 .000a
3.66E+08 48 7617618.586
7.98E+08 49
Regression
Residual
Total
Model
1
Sum of
Squares df Mean Square F Sig.
Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's
Degree or More, March 2000 estimates
a.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
b.
•p-value dikaitkan dengan F value adalah sangat kecil (0.0000).
•Nilai/values ini digunakan untuk menjawab pertanyaan “apakah variabel
independent dapat dipercaya untuk memprediksi variable dependent?".
•p-value dibandingkan terhadap alpha level (biasanya 0.05) dan, jika lebih
kecil, dapat disimpulkan bahwa “Ya, variabel2 independent dapat dipercaya
untuk memprediksi variable dependent".
•Jika p-value lebih besar dari 0.05, dapat disimpulkan bahwa variabel2
independent secara statistik tidak memiliki hubungan yang signifikan dengan
dependent variable, atau grup variabel independent tersebut tidak dapat
reliabel untuk memprediksi dependent variable.
23. Coefficients
Coefficientsa
10078.565 2312.771 4.358 .000
688.939 91.433 .736 7.535 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
B – adalah nilai dari persamaan regresi untuk memprediksi
keterkaitan antara variabel independent terhadap variabel
dependent.
Disebut unstandardized coefficients karena diukur
berdasarkan unit sebenarnya. Juga, koefisien B tidak dapat
dibandingkan satu dengan yang lainnya untuk memperkirakan
nyang mana yang lebih berpengaruh dalam suatu model, karena
komponen tersebut diukur dengan skala yang berbeda.
24. Coefficients
Coefficientsa
13032.847 1902.700 6.850 .000
517.628 78.613 .553 6.584 .000
7.953 1.450 .461 5.486 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Population Per
Square Mile
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
•Tabel ini memperlihatkan dua variabel dan
menunjukkan bagaimana perbedaan dari nilai B.
Oleh karena itu perlu dilihat standardized Beta
untuk melihat perbedaannya.
25. Coefficients
Coefficientsa
10078.565 2312.771 4.358 .000
688.939 91.433 .736 7.535 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
•Beta – sebagai standardized coefficients.
•Koefisien ini yang diperoleh jika semua variabel distandarkan dengan regresi
baik dependent maupun independent variabel, dan run regresi.
•Dengan menstandarkan variablel2 sebelum running regresi, kita
menempatkan semua variabel pada skala yang sama , dan kita dapat
membandingkan besaran koefisien untuk melihat mana yang memiliki
pengaruh yang lebih besar.
•Dapat juga dilihat bahwa semakin besar beta semakin besar t-values.
26. Konversi b ke Beta
Income per capita
Independent variables b Beta
Percent population with BA 688.939 .736
R2
.542
Number of Cases 49
Level anlisis Regressi dari Education oleh Income per capita
27. Bagian Persamaan Regresi
• b menggambarkan kemiringan garis
– Diperoleh dengan perbandingan antara
perubahan variabel dependent oleh perubahan
variabel independent.
– Residual adalah perbedaan antara nilai aktual Y
dan jumlah perhitungan.
– Residual menggambarkan besarnya kesalahan
prediksi nilai y dari masing2 fungsi X.
28. Perbandingan dua variabel
Analisis Regresi bermanfaat untuk
membandingkan dua variabel apakah
pengendalian suatu variabel independent
mempengaruhi model yang ada.
Untuk model variabel independent pertama,
pendidikan, argumenya adalah penduduk
semakin terdidik akan mendapatkan
pembayaran yang lebih tinggi dalam pekerjaan,
menghasilakan tingkat pendapatan perkapita
yang semakin tinggi.
Variabel independent kedua juga sama karena
harapan mendapatkan pekerjaan dengan
pembayaran yang lebih baik, dan selanjutnya
mendapat kesempatan yang lebih besar untuk
tinggal dikota dari pada di desa.
29. Single
Model Summary
.849a
.721 .709 2177.791
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Population Per Square Mile,
Percent of Population 25 years and Over with
Bachelor's Degree or More, March 2000 estimates
a.
ANOVAb
5.75E+08 2 287614518.2 60.643 .000a
2.23E+08 47 4742775.141
7.98E+08 49
Regression
Residual
Total
Model
1
Sum of
Squares df Mean Square F Sig.
Predictors: (Constant), Population Per Square Mile, Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000 estimates
a.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
b.
Coefficientsa
13032.847 1902.700 6.850 .000
517.628 78.613 .553 6.584 .000
7.953 1.450 .461 5.486 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Population Per
Square Mile
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
Model Summary
.736a
.542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
ANOVAb
4.32E+08 1 432493775.8 56.775 .000a
3.66E+08 48 7617618.586
7.98E+08 49
Regression
Residual
Total
Model
1
Sum of
Squares df Mean Square F Sig.
Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's
Degree or More, March 2000 estimates
a.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
b.
Coefficientsa
10078.565 2312.771 4.358 .000
688.939 91.433 .736 7.535 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
Multiple
Regression
34. Langkah-langkah Analisis Regresi dengan SPSS
• Klik ganda icon SPSS pada desktop atau klik pada start menu untuk
mengaktifkan program SPSS
• Setalah muncul kotak dialog SPSS for Windows maka klik Cancel (kalau
ingin membuat data baru)
• Pada halaman SPSS data editor klik Variable View
• Untuk memasukkan variable langkah sebagai berikut :
• Ketik y pada kolom Name, pada Label ketik VAR independent (Y), dan
pada kolom Measure pilih Scale
• Pada kolom Name dibawahnya ketik x1, pada Label ketik Var dependen 1
(X1), dan pada kolom Measure pilih Scale
• Padakolom Name dibawahnya ketik x2, pada Label ketik Var dependen 2
(X2), dan pada kolom Measure pilih Scale (Utk 2 var independent)
• Pada kolom Name dibawahnya ketik x3, pada Label ketik Var dependen 3
(X3), dan pada kolom Measure pilih Scale (Utk 2 var independent)
• Kolom-kolom lainnya biarkan isian default
• Setalah selesai memasukkan variable maka selanjutnya klik Data View
• Isikan data y, x1,x2 dan x3 sesuai dengan variabelnya
35. Langkah-langkah Analisis Regresi dengan SPSS
• Setelah selesai mengisikan data maka selanjutnya klik :
• Analyze Regression Linear
• Setelah itu kemudian akan terbuka kotak dialog Linear Regression.
Pindahkan variabel (Y) ke kotak Dependent, kemudian pindahkan variabel
(X1), (X2), dan (X3) ke kotak Independen.
• Klik tombol Statistics, selanjutnya akan terbuka kotak dialog Linear
Regression Statistics. Pilih Collinearity diagnostics untuk menguji
multikolinearitas, dan pilih Durbin-Watson untuk menguji autokorelasi.
• Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya.
• Untuk uji heteroskedastisitas maka klik Plots terbuka, selanjutnya kotak
dialog Linear Regression : Plots terbuka, masukkan *ZRESID (Standardized
Residual) ke kotak Y, dan masukkan *ZPRED (Standardized Predicted Value)
ke kotak X. Selanjutnya pilih Normal probability plot untuk uji normalitas.
• Klik Continue, selanjutnya akan kembali ke kotak dialog sebelumnya.
• Klik OK.
39. Diagnosa Regresi
• Residual Analysis
–Normal Probability Plot
• Gunakan deteksi Normality of Error
–Plot Residual terhadap Fitted Value
• Deteksi adanya Heteroscedasticity
–Plot of Residual terhadap Regressors
• Gunakan Linearity of Regressors
43. Autokorelasi
• Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual untuk
pengamatan satu dengan pengamatan lain yang disusun menurut runtun
waktu.Model regresi yang baik adalah mensyaratkan tidak adanya masalah
autokorelasi. Dampak yang diakibatkan dengan adanya autokorelasi yaitu
varian sampel tidak dapat menggambarkan varian populasinya.
• Untuk mendeteksi ada tidaknya autokorelasi dengan dilakukan uji Durbin-
Watson dengan prosedur sebagai berikut :
• Menentukan hipotesis nol dan hipotesis alternatif
• H0 : tidak terjadi autokorelasi
• Ha : Terjadi autokorelasi
• b. Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05
• c. Menentukan nilai d (Durbin-Watson)
• d. Menentukan nilai dL dan dU
• Nilai dL dan dU dapat dilihat pada table Durbin-Watson pada signifikansi 0,05,
n = 24 (misal) dan k = 3 (misal) ( n adalah julah data dan k adalah jumlah
variable independen ). Didapat dL = 1,101 dan dU = 1,656. Jadi dapat dihitung
nilai 4-dU = 2,344 dan 4-dL = 2,899.
• Pengambilan keputusan
– dU < d < 4-dU maka H0 diterima ( tidak terjadi autokorelasi )
– d < dL atau d > 4-dL maka H0 ditolak (terjadi autokorelasi )
– dL < d < dL atau 4-dU < d < 4-dL maka tidak ada kesimpulan
50. Multicollinearity
Hubungan Linear atau mendekati Linear
diantara variables independent.
Jika hubungannya sempurna maka
parameter tidak memungkinkan
menggunakan metoda Classical Least
Squares.
51. Multicollinearity
• Multikolinearitas adalah keadaan dimana antara dua variable independen
atau lebih pada model regresi terjadi hubungan linier yang sempurna atau
mendekati sempurna. Model regresi yang baik mensyaratkan tidak adanya
masalah Multikolinearitas. Dampak yang diakibatkan dengan adanya
Multikolinearitas antara lain yaitu :
– Nilai standart error untuk masing-masing koefisien menjadi tinggi, sehingga t
hitung menjadi rendah
– Standart error of estimate akan semakin tinggi dengan bertambahnya variabel
independen
– Pengaruh masing-masing variable independen sulit dideteksi
•
• Untuk mendeteksi ada tidaknya multikolinearitas dengan melihat nilai
tolerance dan VIF. Semakin kecil nilai tolerance dan semakin besar VIF
maka semakin mendekati terjadinya masalah multikolinearitas. Dalam
kebanyakan penelitian menyebutkan bahwa jika tolerance lebih dari 0,1
dan VIF kurang dari 10 maka tidak terjadi multikolinearitas.
• Dari table coefficients dapat diketahui bahwa nilai Tolerance dari ketiga
variable independen lebih dari 0,1 dan VIF kurang dari 10, jadi dapat
disimpulkan bahwa dalam model regresi tidak terjadi masalah
multikolinearitas.
52. Diagnosis Regresi : Multicollinearity
)
2
2 2
1 1 ; 1
10 ; 0.1
; 100
j j
j
j max j j
ji i
ij
j
VIF R Tol VIF
VIF Tol
CI CI
t
VDP
VIF
57. Uji F
• Uji F atau uji koefisien regresi secara serentak, yaitu untuk mengetahui pengaruh variabel
independen secara serentak terhadap variabel dependen, apakah pengaruhnya signifikan atau
tidak.
• Tahap-tahap pengujian sebagai berikut :
• Menentukan hipotesis nol dan hipotesis alternative
• H0 : b1 = b2 = b3 = b4 = 0
• Artinya variabel independent (x1, x2, dan x3)secara serentak tidak berpengaruh terhadap
Penjualan
• Ha : b1 ≠ b2 ≠ b3 ≠ b4 ≠ 0
• Artinya variabel independen secara serentak berpengaruh terhadap Penjualan
• Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05
• F hitung dan F kritis
• F hitung adalah nilai F hasil hitungan SPSS (lihat table ANOVA)
• F kritis dapat dicari pada table statistic pada signifikansi 0,05 df1 = k-1 atau 4-1 = 3, dan df2 = n-k
atau 24-4 = 20 (k adalah jumlah variabel). Didapat F kritis adalah 3,098 (misal)
• Cara lain mencari F kritis yaitu menggunakan program Ms Excel. Pada cell kosong ketik FINV
(0,05,3,20) kemudian tekan Enter
• Pengambilan keputusan
• F hitung < F kritis jadi H0 diterima
• F hitung > F kritis jadi H0 ditolak
• Bila F hitung > F table, hipotesis nol ditolak, kesimpulannya yaitu var independent secara secara
serentak berpengaruh terhadap var dependen
58. Uji T
• Uji t untuk mengetahui pengaruh variabel independen secara parsial terhadap variabel
dependen, apakah pengaruhnya signifikan atau tidak.
• Pengujian b1 (x1)
• Tahap-tahap pengujian sebagai berikut :
• Menetukan hipotes nol dan hipotesis alternatif
• H0 : b1 = 0
• Artinya var independen (x1)tidak berpengaruh terhadap var dependen (Y)
• Ha : b1 ≠ 0
• Artinya X1 berpengaruh terhadap Y
• Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,005
• t hitung dan t kritis
• t hitung dapat dilihat pada table Coefficients
• t kritis dapat dicari pada table statistik pada signifikansi
• 0,05/2 = 0,025 (uji 2 sisi) dengan df = n-k-1 atau 24-3-1 = 20 (k adalah jumlah variabel
independen). Didapat t kritis adalah 2,086.
• Cara lain mencari t kritis yaitu menggunakan program Excel. Pada cell kosong ketik TINV
(0.05,20) kemudian tekan Enter
• Pengambilan keputusan
• Kalau t hitung < t kritis jadi H0 diterima, t hitung > t kritis jadi H0 ditolak
• Bila diketahui bahwa t hitung > kritis, hipotesis nol ditolak, kesimpulannya yaitu X1 berpengaruh
terhadap Y.
59. Uji Normalitas
• Syarat dalam analisi parametric yaitu distribusi data harus normal. Pengujian
menggunakan uji Kolmogorov-Smirnov ( Analisis Explore ) untuk mengetahui
apakah distribusi data pada tiap-tiap variable normal atau tidak.
• Langkah-langkah analisis explore adalah sebagai berikut :
• a) Klik Analyze Descriptive Statistics Explore
• Setelah itu akan terbuka kotak dialog Explore. Pindahkan semua variable ke
kotak Dependent List. Pada Display pilih Plots
• b) Klik tombol Plots, selanjutnya akan terbuka kotak dialog Explore : Plots.
Pilih Normality plots with test.
• c) Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya.
• d) Klik OK
• Kriteria pengambilan keputusan yaitu jika signifikansi > 0,05 maka data
berdistribusi normal, dan jika Signifikansi < 0,05 maka data tidak berdistribusi
normal.
• Kriteria pengambilan keputusan yaitu sebagai berikut :
• Jika data menyebar disekitar garis diagonal dan mengikuti arah diagonal, maka
model regresi memenuhi asumsi normalitas.
• Jika data menyebar jauh dari garis diagonal atau tidak mengikuti arah diagonal,