Tugas regresi linear dan non linier

16,787 views
16,418 views

Published on

Tugas regresi linear dan non linier

Published in: Education
0 Comments
11 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
16,787
On SlideShare
0
From Embeds
0
Number of Embeds
4
Actions
Shares
0
Downloads
0
Comments
0
Likes
11
Embeds 0
No embeds

No notes for slide

Tugas regresi linear dan non linier

  1. 1. TUGAS KULIAHNUMERIKREGRESI LINEAR DAN NON-LINIERDISUSUN OLEH :NOPIANANPM : 11020043STMIK DHARMA WACANA 22 METROTAHUN PELAJARAN 2013
  2. 2. BAB IREGRESI LINEARA. REGRESI LINEARRegresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruhantara satu atau beberapa variabel terhadap satu buah variabel.Variabel yangmempengaruhi sering disebut variabel bebas, variabel independen atau variabelpenjelas.Variabel yang dipengaruhi sering disebut dengan variabel terikat atau variabeldependen.Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitudengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linearberganda dengan beberapa variabel bebas dan satu buah variabel terikat.Analisis regresilinear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyakdigunakan adalah SPSS (Statistical Package For Service Solutions).B. REGRESI LINEAR SEDERHANAAnalisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antarasatu buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnyaadalah:Y = a + b X.Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien aadalah konstanta (intercept) yang merupakan titik potong antara garis regresi dengansumbu Y pada koordinat kartesius.Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah:Analyse --> regression --> linear. Pada jendela yang ada, klik variabel terikat lalu kliktanda panah pada kota dependent. Maka variabel tersebut akan masuk ke kotak sebagaivariabel dependen. Lakukan dengan cara yang sama untuk variabel bebas (independent).Lalu klik OK dan akan muncul output SPSS.
  3. 3. INTERPRETASI OUTPUT1. Koefisien determinasiKoefisien determinasi mencerminkan seberapa besar kemampuan variabelbebas dalam menjelaskan varians variabel terikatnya.Mempunyai nilai antara 0 – 1di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel bebasdalam menjelaskan varians variabel terikatnya.2. Nilai t hitung dan signifikansiNilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabelbebas terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05untuk penelitian sosial, dan untuk penelitian bursa kadang-kadang digunakantoleransi sampai dengan 0,10.3. Persamaan regresiSebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat:Profitabilitas (dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berartiinterpretasinya:1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, makaprofitabilitas meningkat sebesar 0,55 juta rupiah.2. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 jutarupiah. Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harushati-hati dan sesuai dengan rancangan penelitian. Jika penelitian menggunakanangket dengan skala likert antara 1 sampai 5, maka interpretasi di atas tidakboleh dilakukan karena variabel X tidak mungkin bernilai nol. Interpretasidengan skala likert tersebut sebaiknya menggunakan nilai standardizedcoefficient sehingga tidak ada konstanta karena nilainya telahdistandarkan.Contoh: Pengaruh antara kepuasan (X) terhadap kinerja (Y)dengan skala likert antara 1 sampai dengan 5. Hasil output yang digunakanadalah standardized coefficientssehingga Y = 0,21 X dan diinterpretasikanbahwa peningkatan kepuasan kerja akan diikuti dengan peningkatan kinerjaatau penurunan kepuasan kerja juga akan diikuti dengan penurunan kinerja.
  4. 4. Peningkatan kepuasan kerja dalam satu satuan unit akan diikuti denganpeningkatan kinerja sebesar 0,21 (21%).C. REGRESI LINEAR BERGANDAAnalisis regresi linear berganda sebenarnya sama dengan analisis regresi linearsederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:Y = a + b1 X1 + b2 X2 + .... + bn Xn.Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalahkonstanta (intersept) dan b adalah koefisien regresi pada masing-masing variabelbebas.Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruhantara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja(Y) menghasilkan persamaan sebagai berikut:Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X31. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dankepemimpinan tetap, maka kepuasan kerja juga akan meningkat2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dankepemimpinan tetap, maka kepuasan kerja juga akan meningkat.3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dankompensasi tetap, maka kepuasan kerja juga akan meningkat.Interpretasi terhadapkonstanta (0,235) juga harus dilakukan secara hati-hati. Jika pengukuran variabeldengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak bolehdiinterpretasikan bahwa jika variabel motivasi, kompensasi dan kepemimpinanbernilai nol, sebagai ketiga variabel tersebut tidak mungkin bernilai nol karenaSkala Likert terendah yang digunakan adalah 1.Analisis regresi linear berganda memerlukan pengujian secara serempak denganmenggunakan F hitung. Signifikansi ditentukan dengan membandingkan F hitungdengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa kasus dapat
  5. 5. terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yangsignifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat takut terhadappolisi yang membawa pistol (diasumsikan polisis dan pistol secara serempak membuattakut penjahat). Akan tetapi secara parsial, pistol tidak membuat takut seorang penjahat.Contoh lain: air panas, kopi dan gula menimbulkan kenikmatan, tetapi secara parsial,kopi saja belum tentu menimbulkan kenikmatan.Penggunaan metode analisis regresi linear berganda memerlukan asumsi klasikyang secara statistik harus dipenuhi. Asumsi klasik tersebut meliputi asumsi normalitas,multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas (akan dibahasbelakangan). Langkah-langkah yang lazim dipergunakan dalam analisis regresi linearberganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresisebaiknya dilakukan di akhir analisis karena interpretasi terhadap persamaan regresiakan lebih akurat jika telah diketahui signifikansinya. Koefisien determinasi sebaiknyamenggunakan adjusted R Square dan jika bernilai negatif maka uji F dan uji t tidak dapatdilakukan.Pertanyaan-pertanyaan yang sering muncul1. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?Uji Fadalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisisregresi linear. Untuk analisis regresi linear sederhana Uji F boleh dipergunakan atautidak, karena uji F akan sama hasilnya dengan uji t.2. Kapan menggunakan uji dua arah dan kapan menggunakan uji dua arah?Penentuanarah adalah berdasarkan masalah penelitian, tujuan penelitian dan perumusanhipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan ujisatu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknyamenggunakan uji dua arah. Penentuan arah pada hipotesis berdasarkan tinjauanliteratur. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan terhadapkinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasanterhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan dua arah. Jikamenggunakan signifikansi, maka signifikansi hasil output dibagi dua terlebih dahulu,baru dibandingkan dengan 5%.
  6. 6. 3. Apa bedanya korelasi dengan regresi?Korelasi adalah hubungan dan regresi adalahpengaruh. Korelasi bisa berlaku bolak-balik, sebagai contoh A berhubungan denganB demikian juga B berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinyaA berpengaruh terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadapA.Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) seringdipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. Aberhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika Aberpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisislanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut denganrecursive,yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakanstructuralequation modelling).D. UJI ASUMSI KLASIKUji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisisregresi linear berganda yang berbasis ordinary least square (OLS).Jadi analisis regresiyang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnyaregresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harusdilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dapatdipergunakan pada analisis regresi linear sederhana dan uji autokorelasi tidak perluditerapkan pada data cross sectional. Uji asumsi klasik juga tidak perlu dilakukan untukanalisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu.Misalnya nilai return saham yang dihitung dengan market model, atau market adjustedmodel. Perhitungan nilai return yang diharapkan dilakukan dengan persamaan regresi,tetapi tidak perlu diuji asumsi klasik. Setidaknya ada lima uji asumsi klasik, yaitu ujimultikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan ujilinearitas. Tidak ada ketentuan yang pasti tentang urutan ujimana dulu yang harusdipenuhi.Analisis dapat dilakukan tergantung pada data yang ada.Sebagai contoh,dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidakmemenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelahmemenuhi persyaratan, dilakukan pengujian pada uji yang lain.
  7. 7. 1. Uji NormalitasUji normalitas adalah untuk melihat apakah nilai residual terdistribusi normalatau tidak.Model regresi yang baik adalah memiliki nilai residual yang terdistribusinormal.Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi padanilai residualnya.Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitasdilakukan pada masing-masing variabel.Hal ini tidak dilarang tetapi model regresimemerlukan normalitas pada nilai residualnya bukan pada masing-masing variabelpenelitian.Pengertian normal secara sederhana dapat dianalogikan dengan sebuahkelas.Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanyasedikit dan sebagian besar berada pada kategori sedang atau rata-rata.Jika kelastersebut bodoh semua maka tidak normal, atau sekolah luar biasa.Dan sebaliknya jikasuatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakankelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendahdan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikianjuga nilai rata-rata, modus dan median relatif dekat.Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji ChiSquare, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metodeyang paling baik atau paling tepat.Tipsnya adalah bahwa pengujian dengan metodegrafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat,sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan,meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik daripada pengujian dengan metode grafik.Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnyasignifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metodelain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal,
  8. 8. maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data,melakukan trimming data outliers atau menambah data observasi. Transformasidapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, ataubentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri,ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.2. Uji MultikolinearitasUji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yangtinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda.Jikaada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antaravariabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi,adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dankepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananyaadalah bahwa model tersebut untuk mencari pengaruh antara motivasi,kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasiyang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerjaatau antara kepemimpinan dengan kepuasan kerja.Alat statistik yang sering dipergunakan untuk menguji gangguanmultikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearsonantara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index(CI).Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalahsebagai berikut:1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.2. Menambah jumlah observasi.3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akarkuadrat atau bentuk first difference delta.4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarangsekali digunakan.
  9. 9. 3. Uji HeteroskedastisitasUji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaanvarians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresiyang memenuhi persyaratan adalah di mana terdapat kesamaan varians dariresidual satu pengamatan ke pengamatan yang lain tetap atau disebuthomoskedastisitas.Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot denganmemplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilairesidualnya).Model yang baik didapatkan jika tidak terdapat pola tertentu padagrafik, seperti mengumpul di tengah, menyempit kemudian melebar atausebaliknya melebar kemudian menyempit.Uji statistik yang dapat digunakanadalah uji Glejser, uji Park atau uji White.Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitasadalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapatdilakukan jika semua data bernilai positif. Atau dapat juga dilakukan denganmembagi semua variabel dengan variabel yang mengalami gangguanheteroskedastisitas.4. Uji AutokorelasiUji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatuperiode t dengan periode sebelumnya (t -1).Secara sederhana adalah bahwaanalisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadapvariabel terikat, jadi tidak boleh ada korelasi antara observasi dengan dataobservasi sebelumnya.Sebagai contoh adalah pengaruh antara tingkat inflasibulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulantertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulanJanuari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain,
  10. 10. pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatukeluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa adapengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dantidak perlu dilakukan pada data cross section seperti pada kuesioner di manapengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan.Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebihdari satu tahun biasanya memerlukan uji autokorelasi.Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, ujidengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakanuji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalahautokorelasi adalah dengan mentransformasikan data atau bisa juga denganmengubah model regresi ke dalam bentuk persamaan beda umum (generalizeddifference equation). Selain itu juga dapat dilakukan dengan memasukkan variabellag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga dataobservasi menjadi berkurang 1.5. Uji LinearitasUji linearitas dipergunakan untuk melihat apakah model yang dibangunmempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagaipenelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwahubungan antara variabel bebas dengan variabel terikatnya adalah linear.Hubungan antar variabel yang secara teori bukan merupakan hubungan linearsebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalahelastisitas.Jika ada hubungan antara dua variabel yang belum diketahui apakah linearatau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustmentbahwa hubungan tersebut bersifat linear atau tidak.Uji linearitas digunakan untukmengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikansecara teori sesuai atau tidak dengan hasil observasi yang ada.Uji linearitas dapatmenggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.
  11. 11. E. REGRESI LINEAR DENGAN VARIABEL MODERATINGVariabel moderating adalah variabel yang memperkuat atau memperlemah hubunganantara satu variabel dengan variabel lain. Sebagai contoh: seorang suami menyayangiistrinya. Dengan hadirnya seorang anak, maka rasa sayang tersebut bertambah.Berartivariabel anak merupakan moderating antara rasa saya suami terhadap istri. Contoh lain:kompensasi memperkuat pengaruh antara kepuasan kerja terhadap kinerja.Artinya kepuasan kerja berpengaruh terhadap kinerja, dan adanya kompensasi yangtinggi maka pengaruh antara kepuasan kerja terhadap kinerja menjadi lebih meningkat.Dalam hal ini, kompensasi bisa saja berpengaruh terhadap kinerja bisa saja tidak. Metodeanalisis regresi linear dengan variabel moderating:1. Multiple Regression Analysis (MRA)Metode ini dilakukan dengan menambahkan variabel perkalian antara variabelbebas dengan variabel moderatingnya, sehingga persamaan umumnya adalah sebagaiberikut: Y = a + b1 X1 + b2 X2 + b3 X1 X2 dengan Y adalah kinerja, X1 adalahkepuasan kerja, X2 kompensasi dan X1 X2 adalah perkalian antara kepuasan kerjadengan kompensasi. Hipotesis moderating diterima jika variabel X1 X2 mempunyaipengaruh signifikan terhadap Y, tidak tergantung apakah X1 dan X2 mempunyaipengaruh terhadap Y atau tidak. Model ini biasanya menyalahi asumsimultikolinearitas atau adanya korelasi yang tinggi antara variabel bebas dalam modelregresi, sehingga menyalahi asumsi klasik. Hampir tidak ada model MRA yangterbebas dari masalah multikolinearitas, sehingga sebenarnya model ini tidakdisarankan untuk dipergunakan.2. Absolut residualModel ini mirip dengan MRA, tetapi variabel moderating didekati denganselisih mutlak (absolut residual) antara variabel bebas dengan variabel moderatingnya.
  12. 12. Penerimaan hipotesis juga sama, dan model ini masih riskan terhadap gangguanmultikolinearitas meskipun risiko itu lebih kecil dari pada dengan metode MRA.3. ResidualModel ini menggunakan konsep lack of fit yaitu hipotesis moderating diterimaterjadi jika terdapat ketidakcocokan dari deviasi hubungan linear antara variabelindependen. Langkahnya adalah dengan meregresikan antara kepuasan kerja terhadapkompensasi dan dihitung nilai residualnya. Pada program SPSS dengan klik Savepada regreesion, lalu klik pada usntandardized residual. Nilai residual kemudiandiambil nilai absolutnya lalu diregresikan antara kinerja terhadap absolutresidual.Hipotesis moderating diterima jika nilai t hitung adalah negatif dansignifikan.Model ini terbebas dari gangguan multikolinearitas karena hanyamenggunakan satu variabel bebas.Pertanyaan-pertanyaan yang sering muncul:1. Ada model regresi moderating dengan MRA tetapi output memenuhi ujimultikolinearitas?Hampir tidak ada model moderating dengan MRA yang terbebas darigangguan multikolinearitas. Banyak output pada skripsi yang dimanipulasi agartampaknya memenuhi asumsi multikolinearitas padahal sebenarnya tidak. Hal inibanyak terjadi di mana (maaf) dosen tidak terlalu menguasai statistik secarabaik.Penulis sendiri belum pernah melihat tabulasi data yang memenuhi modelmoderating dengan metode MRA.2. Bagaimana model regresi moderating dengan dua buah variabel bebas?Model dengan MRA menjadi Y = a + b1 X1 + b2 X2 + b3 X3 + b4 X1 X2 +b5 X1 X3 + b6 X2 X3 + bb X1 X2 X3 di mana X3 adalah variabel moderating (hehe...jadi panjang banget kan). Hipotesis diterima jika X1 X2 X3 signifikan, tetapihampir pasti model ini menyalahi asumsi multikolinearitas.Sebaiknya digunakanmodel residual dengan lack of fit.
  13. 13. 3. Bagaimana merancang model regresi dengan moderating pada penelitian?Model moderating ditentukan dengan tinjauan teoretis, sehingga analisisdengan moderating hanya mengkonfirmasi saja teori tersebut apakah cocokdengan model empiris. Tidak boleh menggunakan alat statistik moderating untukmengidentifikasikan bahwa variabel itu merupakan variabel moderating.F. REGRESI LINEAR DENGAN VARIABEL INTERVENINGVariabel intervening adalah variabel antara atau variabel mediating. Model regresidengan variabel intervening merupakan hubungan bertingkat sehingga jika dengananalisis regresi harus menggunakan analisis jalur (path analysis) atau disarankanmenggunakan metode structural equation modelling (SEM). Metode SEM akan dibahasbelakangan dengan menggunakan Program AMOS atau LISRELRegresi dengan variabel intervening dipergunakan untuk melihat pengaruh tidaklangsung antara satu variabel terhadap variabel yang lain. Sebagai contoh: Gaya EvaluasiAtasan (GEA) mempunyai pengaruh terhadap Kinerja Manajerial (KM) melalui TekananKerja (TK). GEA mempunyai pengaruh langsung terhadap KM tetapi juga bisamempunyai pengaruh tidak langsung terhadap KM melalui TK. GEA diinterpretasikanmempunyai pengaruh tidak langsung terhadap KM melalui TK jika pengaruh GEAterhadap TK signifikan dan pengaruh TK terhadap KM juga signifikan. Dalam suatukasus bisa saja variabel mempunyai pengaruh langsung terhadap suatu variabel danpengaruh tidak langsung terhadap variabel tersebut melalui variabel yang lain.
  14. 14. BAB IIREGRESI NON-LINEARA. REGRESI NON-LINEARHubungan dengan fungsi polynomialBerguna jika diagram pencarmenunjukkan hubungan non-linearModel lengkung (Curvilinear) :Peubah penjelas (explanatory) kedua merupakan kuadrat yg pertamaB. Model Regresi CurvilinearDapat dipertimbangkan jika scatter diagram menampakkan pola seperti di bawah ini:Uji Signifikansi: Curvilinear Model• Uji utk Hubungan secara keseluruhan
  15. 15.  Serupa dgn Uji utk linear model Statistik Uji F =• Uji Pengaruh Curvilinear Bandingkan dgn curvilinear modelDengan linear modelC. PENGGUNAAN TRANSFORMASI• Utk Model Non-linear yg melanggar Asumsi Regresi Linear• Menentukan bentuk Transformasi dari Scatter Diagram• Peubah Bebas maupun Peubah Tak-bebas mungkin perlu ditransformasiTRANSFORMASI AKAR KUADRATTRANSFORMASI LOGARITMA
  16. 16. TRANSFORMASI EKPONENSIALD. MULTIKOLINEARITAS• Korelasi antar Peubah Penjelas• Koefisien mengukur Efek kombinasi• Ragam Koef Besar  tidaknyata• Koef dapat berlawanan dgn yg sebenarnya• Sulit memisahkan Pengaruh Masing-masing Peubah (asumsi ceteris paribus?)• VIF Digunakan utk Mengukurnya
  17. 17. PENYUSUNAN MODEL• Tujuan utk mengembangkan Model dgn Peubah Penjelas sesedikit mungkin Mudah utk diinterpretasi Kemungkinan Multikolinieritas lebih kecil• Stepwise Regression Procedure Memberikan evaluasi alternatif model “terbatas”

×