SlideShare a Scribd company logo

Analisis komponen utama (Principal Component Analysis)

โ€ข
โ€ข

Analisis menggunakan metode analisis komponen utama untuk mereduksi 14 variabel akademik mahasiswa matematika menjadi beberapa variabel baru. Dua komponen utama pertama mampu menangkap 56% variasi data, yang mencerminkan prestasi umum mahasiswa di mata kuliah dasar dan lanjutan. Tiga komponen utama lebih baik karena menangkap 63% variasi dengan mudah divisualisasikan.

1 of 8
Download to read offline
Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010
1
Analisis Komponen Utama
(Principal component analysis)
A. LANDASAN TEORI
Misalkan ๐œ’ merupakan matriks berukuran ๐‘›๐‘ฅ๐‘, dengan baris-baris yang berisi observasi sebanyak ๐‘›
dari ๐‘-variat variabel acak ๐‘‹. Analisis komponen utama merupakan salah satu metode untuk mereduksi
dimensi dari variabel acak ๐‘‹. Reduksi dimensi dilakukan dengan mendefinisikan p-variat variabel acak baru
๐‘Œ dimana masing masing ๐‘Œ๐‘– , ๐‘– = 1, โ€ฆ , ๐‘ merupakan kombinasi linear dari p-variat variabel acak ๐‘‹,
sehingga informasi yang dimiliki oleh p-variat variabel acak ๐‘‹ tetap termuat pada masing-masing anggota
dari p-variat variabel acak baru ๐‘Œ. Dengan demikian, dapat kita pilih beberapa anggota dari p-variat variabel
acak ๐‘Œ sebagai bentuk reduksi dari p-variat variabel acak ๐‘‹ tanpa menghilangkan terlalu banyak informasi.
Proses pendefinisian p-varait variabel acak ๐‘Œ sering disebut juga pembobotan, dimana:
๐‘Œ๐‘– = ๐›ฟฮค
๐‘‹ = ๐›ฟ๐‘—
๐‘
๐‘—=1
๐‘‹๐‘— , ๐‘– = 1, โ€ฆ . ๐‘ sehingga ๐›ฟ๐‘—
2
๐‘
๐‘—=1
= 1
Dengan ๐‘‹ = (๐‘‹1, ๐‘‹2, โ€ฆ , ๐‘‹ ๐‘)ฮค
dan ๐›ฟ = (๐›ฟ1, ๐›ฟ2, โ€ฆ , ๐›ฟ ๐‘)ฮค
. (๐›ฟ disebut dengan vektor pembobotan)
Agar variabel acak baru ๐‘Œ mampu mewakili variasi dari ๐‘-variat variabel acak ๐‘‹ , akan dipilih arah-arah ๐›ฟ
sehingga ๐›ฟฮค
๐‘‹ memiliki variansi yang besar:
๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค
๐‘‹ =๐›ฟ: ๐›ฟ =1
๐‘š๐‘Ž๐‘ฅ
๐›ฟฮค
๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ๐›ฟ: ๐›ฟ =1
๐‘š๐‘Ž๐‘ฅ
= ๐›ฟฮค
(๐‘ฅ๐‘– โˆ’ ๐œ‡) ๐‘‡
(๐‘ฅ๐‘– โˆ’ ๐œ‡)
๐‘›
๐‘–=1
๐›ฟ๐›ฟ: ๐›ฟ =1
๐‘š๐‘Ž๐‘ฅ
= ((๐‘ฅ๐‘– โˆ’ ๐œ‡). ๐›ฟ)2
๐‘›
๐‘–=1
[๐›ฟ: ๐›ฟ =1]
๐‘š๐‘Ž๐‘ฅ
Dapat dilihat dari persamaan diatas bahwa memaksimumkan variansi dari ๐›ฟฮค
๐‘‹ sama saja dengan
memaksimumkan jumlahan dari kuadrat panjang proyeksi (๐‘ฅ๐‘– โˆ’ ๐œ‡) pada ๐›ฟ.
Dari ilustrasi gambar di samping, karena jarak ke pusat ordinat selalu
konstan, dapat disimpulkan bahwa memaksimumkan jumlahan
kuadrat panjang proyeksi sama saja dengan meminimumkan jarak
antara titik yang akan diproyeksikan (๐‘ฅ๐‘– โˆ’ ๐œ‡) dengan vektor ๐›ฟ. Hal
ini lah yang membedakan konsep dari Principal Component analisis
dengan regresi. Untuk lebih jelasnya dapat dilihat pada gambar
berikut.
PCA Regresi
Ket: adalah panjang garis yang diminimumkan
Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010
2
Sumber: http://www.cerebralmastication.com/2010/09/principal-component-analysis-pca-vs-ordinary-
least-squares-ols-a-visual-explination/
Dari persamaan yang telah dipaparkan sebelumnya, memaksimumkan variansi dari proyeksi, yaitu
๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค
๐‘‹ sama saja dengan memaksimumkan nilai dari ๐›ฟฮค
๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ. Untuk memaksimumkan nilai dari
๐›ฟฮค
๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ, kita gunakan teorema berikut:
Teorema
Jika ๐ด dan ๐ต merupakan matriks simetri, dan ๐ต > 0, maka nilai maksimum dari
๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ
๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ
diberikan oleh nilai
eigen terbesar dari ๐ตโˆ’1
๐ด. Secara umum,
max
๐‘ฅ ๐‘‡
๐ด ๐‘ฅ
๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ
= ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ† ๐‘ = min
๐‘ฅ ๐‘‡
๐ด ๐‘ฅ
๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ
Dimana ๐œ†1, ๐œ†2, โ€ฆ , ๐œ† ๐‘ menotasikan nilai eigen dari ๐ตโˆ’1
๐ด. Vektor yang meminimumkan (memaksimumkan)
๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ
๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ
merupakan vektor eigen dari ๐ตโˆ’1
๐ด yang memiliki nilai eigen terkecil (terbesar). Jika ๐‘ฅ ๐‘‡
๐ต ๐‘ฅ = 1, maka:
max ๐‘ฅ ๐‘‡
๐ด ๐‘ฅ = ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ† ๐‘ = min ๐‘ฅ ๐‘‡
๐ด ๐‘ฅ
Berdasarkan teorema diatas, karena ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ merupakan matriks simetri, maka nilai dari ๐›ฟฮค
๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค
yang terbesar sama dengan nilai eigen value terbesar dari matriks kovariansi = ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ . Secara umum:
= ฮ“ ฮ› ฮ“ ๐‘‡
= ๐œ†๐‘— ๐›พ๐‘— ๐›พ๐‘—
๐‘‡
๐‘
๐‘—=1
ฮ› = ๐‘‘๐‘–๐‘Ž๐‘”๐‘œ๐‘›๐‘Ž๐‘™(๐œ†1, ๐œ†2, ๐œ†3, โ€ฆ , ๐œ† ๐‘)
ฮ“ = (ฮณ1, ฮณ2, โ€ฆ , ฮณp)
max ๐›ฟฮค
๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค
= ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ† ๐‘ = min ๐›ฟฮค
๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค
,sehingga arah ๐›ฟ yang memberikan nilai ๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค
๐‘‹ terbesar ialah vektor eigen dari ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ dengan nilai
eigen terbesar dimana vektor eigen tersebut merupakan vektor kolom dari ฮ“. Matriks ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ bersifat semi
definit positif sehingga nilai eigennya tidak mungkin negatif. Pada bidang aljabar, proses diatas serupa
dengan mengubah basis baku menjadi basis vektor eigen dengan vektor eigen sebagai matriks perubahan
basis. Jika nilai lambda tidak ada yang sama, maka vektor eigen yang terbentuk merupakan basis
orthonormal, yaitu vektor-vektor yang saling tegak lurus dengan masing-masing vektor memiliki panjang 1
unit.
Catatan: Principal component analysis dihitung melalui matriks kovariansinya, maka seperti halnya matriks
kovariansi, nilainya akan bergantung pada satuan yang digunakan.
B. Aplikasi Analisis Komponen Utama pada Data Nilai Mahasiswa
Berikut ialah contoh aplikasi analisis komponen utama pada data nilai wisudawan matematika
angkatan 2007 (Data dapat dilihat pada bagian lampiran). ๐œ’ merupakan matriks berukuran ๐‘›๐‘ฅ๐‘, dengan ๐‘›
merupakan jumlah mahasiswa (101 mahasiswa) dan ๐‘ merupakan jumlah mata kuliah (14 mata kuliah).
Baris-baris matriks ๐œ’ berisi nilai masing-masing mahasiswa untuk ke 14 mata kuliah. Kita Definisikan 14-
variat variabel acak ๐‘‹ sebagai berikut:
๐‘‹1 =nilai Fisika I A ๐‘‹8 = nilai Kalkulus Peubah Banyak
๐‘‹2 = nilai Kalkulus IA ๐‘‹9 = nilai Komputasi Matematika
๐‘‹3 =nila Fisika II A ๐‘‹10 = nilai Metode Matematika
๐‘‹4 =nilai Kalkulus II A ๐‘‹11 = nilai Pengantar Analisis Kompleks
Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010
3
๐‘‹5 = nilai Aljabar Linier Elementer A ๐‘‹12 = nilai Matematika Numerik
๐‘‹6 = nilai Matematika Diskrit ๐‘‹13 = nilai Teori Peluang
๐‘‹7 = nilai Analisis Data ๐‘‹14 = nilai Pengantar Analisis Real
Langkah-langkah yang harus dilakukan untuk mencari reduksi variabel menggunakan analisis komponen
utama ialah sebagai berikut:
1. Mencari matriks kovariansi empirik dari 14-variat variabel acak ๐‘ฟ yaitu = ๐‘ฝ๐’‚๐’“ ๐‘ฟ .
Matriks Kovariansi empirik ialah matriks yang nilai-nilai kovariansi pada tiap cell-nya diperoleh
dari sampel. Misalkan Y dan Z ialah variabel acak, maka:
๐‘๐‘œ๐‘ฃ ๐‘Œ, ๐‘ =
1
๐‘›
(๐‘ฆ๐‘– โˆ’ ๐‘ฆ)(๐‘ง๐‘– โˆ’ ๐‘ง)
๐‘›
๐‘–=1
Dengan ๐‘ฆ dan ๐‘ง merupakan rataan sampel dari variabel Y dan Z, dan ๐‘ฆ๐‘– dan ๐‘ง๐‘– merupakan nilai
observasi ke-i dari variabel Y dan Z. Pembagian dengan n digunakan karena jumlah sampel yang
dimiliki lebih dari 20. Dari data nilai yang digunakan, diperoleh matriks kovariansi berukuran
14x14.
2. Mencari nilai eigen dan vektor eigen dari matriks kovariansi empirik yang telah diperoleh.
Nilai eigen dan vektor eigen dapat dihitung menggunakan program matlab. Nilai eigen diurutkan
mulai dari nilai yang terbesar hingga terkecil. Matriks yang kolom-kolomnya berisi vektor eigen dari
nilai eigen terkait disesuaikan urutannya berdasarkan nilai eigen yang telah urut. Dengan
menggunakan algoritmat matlab , diperoleh 14 nilai-nilai eigen yang telah diurutkan,yaitu :
๐ธ๐‘–๐‘”๐‘’๐‘› = (3.4970 , 0.6452 , 0.5314 , 0.4311 , 0.3915 , 0.3630 ,0.3450 , 0.2437 , 0.2171 , 0.2046
, 0.1771 , 0.1380 , 0.1213 , 0.0936)
Masing-masing variabel baru ๐‘Œ๐‘– yang terbentuk memiliki variansi yang besarnya sama dengan nilai
eigen yang terkait dengan vektor eigen pembentuknya. Grafik diatas ditampilkan untuk
memperjelas penurunan variansi (nilai eigen) yang terjadi.
3. Menghitung proporsi variansi masing-masing PC beserta nilai akumulasi untuk q-PC pertama.
Ukuran seberapa baik q -PC pertama mampu menjelaskan variansi diberikan melalui proporsi
relatif ๐œ“ ๐‘ž =
๐œ† ๐‘—
๐‘ž
๐‘—=1
๐œ† ๐‘—
๐‘
๐‘—=1
. Tabel dibawah ini memperlihatkan proporsi variansi dari masing-masing PC
serta nilai akumulasinya jika kita menggunakan q-PC pertama.
Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010
4
Pemilihan banyak PC yang akan digunakan tergantung dari kebutuhan. Dapat kita lihat bahwa 2
PC saja mampu menyerap variansi sebesar 56%, apabila persentasi ini dirasa cukup, dapat kita
gunakan 2 PC yang ada. Pemilihan 2 hingga 3 PC lebih sering dilakukan untuk mempermudah
visualisasi.
Apabila kita menginginkan jumlah PC yang lebih dari 50 persen dan memberikan akumulasi
variansi yang cukup signifikan,maka dapat kita lihat melalui kecuraman ( gradien) dari grafik
akumulasi variansi q-PC. Digunakan garis-garis linier untuk mempermudah visualisasi perubahan
gradien yang terjadi. Semakin landai gradien antara 2 titik yang ada, maka semakin kecil perubahan
akumulasi variansi yang dijelaskan.
Dari plot diatas, dapat dilihat bahwa pemilihan 3 PC dapat dibilang cukup baik karena viualisasi
yang mudah serta nilai pertambahan akumulasi PC yang signifikan. Pemilihan 3 PC mampu
menjelaskan 63% variansi dibandingkan dengan apabila kita menggunakan 14 PC yang ada.
4. Interpretasi Hasil dari Analisis Komponen Utama
Untuk mempermudah visualisasi dan interpretasi, maka kita pilih 2-PC dengan nilai eigen
terbesar. Berikut disajikan hasil PC pertama (๐‘Œ1) dan kedua (๐‘Œ2) dari data nilai yang telah
dipaparkan diatas:
๐‘Œ1 =
0.0675 nilai Fisika I A + 0.1866 nilai Kalkulus IA + 0.0735 nilai Fisika II A +
0.1595 nilai Kalkulus II A + 0.2872 nilai Aljabar Linier Elementer A +
0.3110 nilai Matematika Diskrit + 0.2396 nilai Analisis Data +
๐ŸŽ. ๐Ÿ‘๐Ÿ”๐Ÿ“๐Ÿ— ๐’๐’Š๐’๐’‚๐’Š ๐‘ฒ๐’‚๐’๐’Œ๐’–๐’๐’–๐’” ๐‘ท๐’†๐’–๐’ƒ๐’‚๐’‰ ๐‘ฉ๐’‚๐’๐’š๐’‚๐’Œ + 0.1915 nilai Komputasi Matematika +
0.3303 nilai Metode Matematika + ๐ŸŽ. ๐Ÿ‘๐Ÿ–๐Ÿ“๐Ÿ– ๐’๐’Š๐’๐’‚๐’Š ๐‘ท๐’†๐’๐’ˆ๐’‚๐’๐’•๐’‚๐’“ ๐‘จ๐’๐’‚๐’๐’Š๐’”๐’Š๐’” ๐‘ฒ๐’๐’Ž๐’‘๐’๐’†๐’Œ๐’” +
0.3215 nilai Matematika Numerik + ๐ŸŽ. ๐Ÿ‘๐Ÿ“๐Ÿ‘๐Ÿ” ๐ง๐ข๐ฅ๐š๐ข ๐“๐ž๐จ๐ซ๐ข ๐๐ž๐ฅ๐ฎ๐š๐ง๐  +
0.1908 nilai Pengantar Analisis Real
Nilai dari ๐‘Œ1 lebih banyak dijelaskan oleh variabel nilai Kalkulus Peubah Banyak, nilai Pengantar
analisis Kompleks, dan nilai Teori Peluang. Hal ini dapat dilihat dari koefisien yang cukup besar
dibanding variabel lainnya.
Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010
5
Apabila sebuah variabel memiliki koefisien yan besar dan positif (negatif) pada kombinasi linear
yang mendefiniskan sebuah PC, maka dapat dikatakan bahwa terdapat korelasi yang kuat dan
positif (negatif) antara variabel tersebut dengan PC yang didefinisikan.
Dapat disimpulkan bahwa apabila nilai ๐‘Œ1 besar, maka nilai dari Kalkulus Peubah Banyak,
Pengantar analisis Kompleks, dan nilai Teori Peluang juga besar. Namun, apabila kita melihat
koefisien-koefisien yang ada pada kombinasi linier diatas, dapat dikatakan bahwa koefisien yang
ada tidak terlalu berbeda jauh. Tidak ada nilai koefisien yang sangat besar baik koefisien yang
bernilai positif maupun negatif. Hal ini sebenarnya juga memengaruhi seberapa bermanfaat
penggunaan metode analisis komponen utama pada data. Analisis Komponen utama sebaiknya
digunakan apabila nilai korelasi antara q-PC yang digunakan dengan variabel-variabel awal (dalam
hal ini p-variat variabel acak X) memiliki nilai yang besar.
๐‘Œ2 = โˆ’0.2355 nilai Fisika I A โˆ’ ๐ŸŽ. ๐Ÿ’๐Ÿ‘๐Ÿ–๐Ÿ— ๐’๐’Š๐’๐’‚๐’Š ๐‘ฒ๐’‚๐’๐’Œ๐’–๐’๐’–๐’” ๐‘ฐ๐‘จ โˆ’ 0.1441 nilai Fisika II A โˆ’
0.0497 nilai Kalkulus II A โˆ’ 0.1946 nilai Aljabar Linier Elementer A โˆ’
๐ŸŽ. ๐Ÿ’๐Ÿ’๐Ÿ–๐ŸŽ ๐’๐’Š๐’๐’‚๐’Š ๐‘ด๐’‚๐’•๐’†๐’Ž๐’‚๐’•๐’Š๐’Œ๐’‚ ๐‘ซ๐’Š๐’”๐’Œ๐’“๐’Š๐’• โˆ’ 0.1049 nilai Analisis Data +
0.1509 nilai Kalkulus Peubah Banyak + 0.2211 nilai Komputasi Matematika +
0.3993 nilai Metode Matematika + 0.0267 nilai Pengantar Analisis Kompleks +
0.1430 nilai Matematika Numerik + 0.3296 nilai TeoriPeluang โˆ’
0.3438 nilai Pengantar Analisis Real
Nilai dari ๐‘Œ2 dapat dijelaskan cukup baik oleh variabel nilai Kalkulus IA dan nilai Matematika
Diskrit. Koefisien pada kedua variabel bertanda negatif. Hal ini mengindikasikan bahwa korelasi
antara ๐‘Œ2 dengan jumlahan dari nilai Kalkulus IA dan nilai Metematika Diskrit negatif. Artinya,
apabila nilai dari variabel ๐‘Œ2 dari seorang mahasiswa kecil, maka dapat disimpulkan bahwa nilai
Kalkulus dan nilai Matematika Diskrit dari mahasiswa tersebut besar. Sehingga dengan melihat nilai
dari ๐‘Œ2 , kita dapat menarik kesimpulan mengenai nilai Kalkulus IA dan nilai Matematika Diskrit.
Berikut disajikan Plot dari PC pertama terhadap PC kedua dari data yang ada.
Dari gambar scatterplot diatas, dapat disimpulkan bahwa:
1. Interval dari ๐‘Œ1 lebih besar dari interval dari ๐‘Œ2. Hal ini memperkuat bukti bahwa ๐‘Œ1 memiliki
variansi yang lebih besar. Sehingga dapat dikatakan bahwa jumlahan dari nilai Kalkulus Peubah
Banyak, nilai Pengantar analisis Kompleks, dan nilai Teori Peluang menghasilkan variansi yang
besar.
2. Sebagian besar titik berada pada daerah yang dilingkupi oleh garis oval berwarna biru. Pola ini
menunjukkan kecenderungan dari mahasiswa matematika angkatan 2007.
Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010
6
3. Beberapa titik berada di bagian pojok kiri bawah dari grafik. Titik-titik yang berada pada bagian
pojok kiri bawah dari grafik dapat dikatakan sebagai pencilan karena tidak mengikuti
kecenderungan yang dijelaskan pada poin 2 dan berada jauh dari garis oval berwarna biru. Titik-
titik tersebut memiliki nilai ๐‘Œ1 dan ๐‘Œ2 yang tergolong kecil, sehingga dapat disimpulkan bahwa
sebagian kecil mahasiswa memiliki jumlahan nilai Kalkulus Peubah Banyak, Pengantar analisis
Kompleks,dan nilai Teori Peluang yang kecil, sedangkan jumlahan nilai Kalkulus IA dan nilai
Matematika Diskrit besar .
4. Mahasiswa yang memiliki jumlahan nilai Kalkulus IA dan nilai Matematika Diskrit paling besar
memilki jumlahan nilai Kalkulus Peubah Banyak, nilai Pengantar analisis Kompleks, dan nilai
Teori Peluang yang tergolong tidak besar. (lihat titik yang dilingkupi segitiga berwarna hijau)
Plot diatas sangat berguna apabila kita memberikan pendefinisian kategori yang memasukkan
masing-masing individu ke dalam sebuah kategori. Pemberian warna pada scatterplot diatas dapat
membantu visualisasi dari kategori yang ada. Dengan melihat pola dari scatterplot dari tiap-tiap
kategori, maka kita dapat menyimpulkan karakteristik dari tiap- tiap kategori.

Recommended

Tugas regresi linear dan non linier
Tugas regresi linear dan non linierTugas regresi linear dan non linier
Tugas regresi linear dan non liniernopiana
ย 
Peubah acak diskrit dan kontinu
Peubah acak diskrit dan kontinuPeubah acak diskrit dan kontinu
Peubah acak diskrit dan kontinuAnderzend Awuy
ย 
Distribusi normal, f,t
Distribusi normal, f,tDistribusi normal, f,t
Distribusi normal, f,tratuilma
ย 
Beberapa distribusi peluang diskrit (1)
Beberapa distribusi peluang diskrit (1)Beberapa distribusi peluang diskrit (1)
Beberapa distribusi peluang diskrit (1)Raden Maulana
ย 
Analisis regresi.
Analisis regresi.Analisis regresi.
Analisis regresi.Novy Yuliyanti
ย 
Variabel acak dan nilai harapan (Statistik Ekonomi II)
Variabel acak dan nilai harapan (Statistik Ekonomi II)Variabel acak dan nilai harapan (Statistik Ekonomi II)
Variabel acak dan nilai harapan (Statistik Ekonomi II)Bagus Cahyo Jaya Pratama Pratama
ย 

More Related Content

What's hot

Sistem Persamaan Linear (SPL) Aljabar Linear Elementer
Sistem Persamaan Linear (SPL) Aljabar Linear ElementerSistem Persamaan Linear (SPL) Aljabar Linear Elementer
Sistem Persamaan Linear (SPL) Aljabar Linear ElementerKelinci Coklat
ย 
Analisis tabel-kontingensi
Analisis tabel-kontingensiAnalisis tabel-kontingensi
Analisis tabel-kontingensiDwi Mardiani
ย 
Distribusi normal
Distribusi normalDistribusi normal
Distribusi normalEllin Juniarti
ย 
relasi himpunan
relasi himpunanrelasi himpunan
relasi himpunananggi syahputra
ย 
Uji Run ( Keacakan )
Uji Run ( Keacakan )Uji Run ( Keacakan )
Uji Run ( Keacakan )Nur Sandy
ย 
uji hipotesis satu rata โ€“ rata bagian 2
uji hipotesis satu rata โ€“ rata bagian 2uji hipotesis satu rata โ€“ rata bagian 2
uji hipotesis satu rata โ€“ rata bagian 2Ratih Ramadhani
ย 
Transformasi Peubah Acak dan Distribusinya
Transformasi Peubah Acak dan Distribusinya Transformasi Peubah Acak dan Distribusinya
Transformasi Peubah Acak dan Distribusinya State University of Medan
ย 
Distribusi poisson
Distribusi poissonDistribusi poisson
Distribusi poissonEman Mendrofa
ย 
PPT Regresi Berganda
PPT Regresi BergandaPPT Regresi Berganda
PPT Regresi BergandaLusi Kurnia
ย 
3 . analisis regresi linier berganda dua peubah
3 .  analisis regresi  linier berganda dua peubah3 .  analisis regresi  linier berganda dua peubah
3 . analisis regresi linier berganda dua peubahYulianus Lisa Mantong
ย 
03 limit dan kekontinuan
03 limit dan kekontinuan03 limit dan kekontinuan
03 limit dan kekontinuanRudi Wicaksana
ย 
Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)Dyas Arientiyya
ย 
Pengujian Hipotesis (Makalah Pengantar Statistika)
Pengujian Hipotesis (Makalah Pengantar Statistika)Pengujian Hipotesis (Makalah Pengantar Statistika)
Pengujian Hipotesis (Makalah Pengantar Statistika)Mayawi Karim
ย 
Modul statistika-ii-part-2
Modul statistika-ii-part-2Modul statistika-ii-part-2
Modul statistika-ii-part-2apriliantihermawan
ย 
Distribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan BinomialDistribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan BinomialSilvia_Al
ย 
Pengenalan Persamaan Differensial Parsial
Pengenalan Persamaan Differensial ParsialPengenalan Persamaan Differensial Parsial
Pengenalan Persamaan Differensial ParsialSCHOOL OF MATHEMATICS, BIT.
ย 
STATISTIKA-Regresi dan korelasi
STATISTIKA-Regresi dan korelasiSTATISTIKA-Regresi dan korelasi
STATISTIKA-Regresi dan korelasiYousuf Kurniawan
ย 

What's hot (20)

Statistika inferensial 1
Statistika inferensial 1Statistika inferensial 1
Statistika inferensial 1
ย 
Sistem Persamaan Linear (SPL) Aljabar Linear Elementer
Sistem Persamaan Linear (SPL) Aljabar Linear ElementerSistem Persamaan Linear (SPL) Aljabar Linear Elementer
Sistem Persamaan Linear (SPL) Aljabar Linear Elementer
ย 
Analisis tabel-kontingensi
Analisis tabel-kontingensiAnalisis tabel-kontingensi
Analisis tabel-kontingensi
ย 
Distribusi normal
Distribusi normalDistribusi normal
Distribusi normal
ย 
relasi himpunan
relasi himpunanrelasi himpunan
relasi himpunan
ย 
Uji Run ( Keacakan )
Uji Run ( Keacakan )Uji Run ( Keacakan )
Uji Run ( Keacakan )
ย 
2. galat
2. galat2. galat
2. galat
ย 
uji hipotesis satu rata โ€“ rata bagian 2
uji hipotesis satu rata โ€“ rata bagian 2uji hipotesis satu rata โ€“ rata bagian 2
uji hipotesis satu rata โ€“ rata bagian 2
ย 
Transformasi Peubah Acak dan Distribusinya
Transformasi Peubah Acak dan Distribusinya Transformasi Peubah Acak dan Distribusinya
Transformasi Peubah Acak dan Distribusinya
ย 
Eliminasi gauss
Eliminasi gaussEliminasi gauss
Eliminasi gauss
ย 
Distribusi poisson
Distribusi poissonDistribusi poisson
Distribusi poisson
ย 
PPT Regresi Berganda
PPT Regresi BergandaPPT Regresi Berganda
PPT Regresi Berganda
ย 
3 . analisis regresi linier berganda dua peubah
3 .  analisis regresi  linier berganda dua peubah3 .  analisis regresi  linier berganda dua peubah
3 . analisis regresi linier berganda dua peubah
ย 
03 limit dan kekontinuan
03 limit dan kekontinuan03 limit dan kekontinuan
03 limit dan kekontinuan
ย 
Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)
ย 
Pengujian Hipotesis (Makalah Pengantar Statistika)
Pengujian Hipotesis (Makalah Pengantar Statistika)Pengujian Hipotesis (Makalah Pengantar Statistika)
Pengujian Hipotesis (Makalah Pengantar Statistika)
ย 
Modul statistika-ii-part-2
Modul statistika-ii-part-2Modul statistika-ii-part-2
Modul statistika-ii-part-2
ย 
Distribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan BinomialDistribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan Binomial
ย 
Pengenalan Persamaan Differensial Parsial
Pengenalan Persamaan Differensial ParsialPengenalan Persamaan Differensial Parsial
Pengenalan Persamaan Differensial Parsial
ย 
STATISTIKA-Regresi dan korelasi
STATISTIKA-Regresi dan korelasiSTATISTIKA-Regresi dan korelasi
STATISTIKA-Regresi dan korelasi
ย 

Viewers also liked

Panduan praktis penerapan analisis komponen utama atau principal componen ana...
Panduan praktis penerapan analisis komponen utama atau principal componen ana...Panduan praktis penerapan analisis komponen utama atau principal componen ana...
Panduan praktis penerapan analisis komponen utama atau principal componen ana...Mujiyanto -
ย 
Mengatasi multikolonieritas
Mengatasi multikolonieritasMengatasi multikolonieritas
Mengatasi multikolonieritasEka Siskawati
ย 
Steps for Principal Component Analysis (pca) using ERDAS software
Steps for Principal Component Analysis (pca) using ERDAS softwareSteps for Principal Component Analysis (pca) using ERDAS software
Steps for Principal Component Analysis (pca) using ERDAS softwareSwetha A
ย 
Penanganan Mutikolonieritas
Penanganan MutikolonieritasPenanganan Mutikolonieritas
Penanganan MutikolonieritasEka Siskawati
ย 
Uji Asumsi Klasik Multikolinieritas
Uji Asumsi Klasik MultikolinieritasUji Asumsi Klasik Multikolinieritas
Uji Asumsi Klasik MultikolinieritasFisa Tiana
ย 
Jurnal multikolinearitas
Jurnal multikolinearitasJurnal multikolinearitas
Jurnal multikolinearitasMarnii amiru
ย 
Introduction to principal component analysis (pca)
Introduction to principal component analysis (pca)Introduction to principal component analysis (pca)
Introduction to principal component analysis (pca)Mohammed Musah
ย 
Modul pca psikologi_pemeriksaan
Modul pca psikologi_pemeriksaanModul pca psikologi_pemeriksaan
Modul pca psikologi_pemeriksaanTakeo Arya
ย 
Uji kolmogorov & chi square
Uji kolmogorov & chi squareUji kolmogorov & chi square
Uji kolmogorov & chi squareChumairoh Azzahra
ย 
Bab 6-multikolinearitas
Bab 6-multikolinearitasBab 6-multikolinearitas
Bab 6-multikolinearitasMatch Siregar
ย 
Mendeteksi Topik Berita Pada Aliran Berita Online Berbahasa Indonesia
Mendeteksi Topik Berita Pada Aliran Berita Online Berbahasa IndonesiaMendeteksi Topik Berita Pada Aliran Berita Online Berbahasa Indonesia
Mendeteksi Topik Berita Pada Aliran Berita Online Berbahasa IndonesiaAmmar Shadiq
ย 
data mining fuzzy c-means
data mining fuzzy c-meansdata mining fuzzy c-means
data mining fuzzy c-meansdewi2093
ย 
Program Input dan output data matrik
Program  Input dan output  data matrikProgram  Input dan output  data matrik
Program Input dan output data matrikSimon Patabang
ย 
Pengantar Big Data dan Peluang Bisnis/Kerjanya
Pengantar Big Data dan Peluang Bisnis/KerjanyaPengantar Big Data dan Peluang Bisnis/Kerjanya
Pengantar Big Data dan Peluang Bisnis/KerjanyaRusmanto Maryanto
ย 
Penyusunan kurikulum basis kkni
Penyusunan kurikulum basis kkniPenyusunan kurikulum basis kkni
Penyusunan kurikulum basis kkniAyu Purwarianti
ย 
Penanganan persimpangan
Penanganan persimpanganPenanganan persimpangan
Penanganan persimpanganReDy DeLano
ย 
Grey-level Co-occurence features for salt texture classification
Grey-level Co-occurence features for salt texture classificationGrey-level Co-occurence features for salt texture classification
Grey-level Co-occurence features for salt texture classificationIgor Orlov
ย 

Viewers also liked (20)

Panduan praktis penerapan analisis komponen utama atau principal componen ana...
Panduan praktis penerapan analisis komponen utama atau principal componen ana...Panduan praktis penerapan analisis komponen utama atau principal componen ana...
Panduan praktis penerapan analisis komponen utama atau principal componen ana...
ย 
Principal Component Analysis
Principal Component AnalysisPrincipal Component Analysis
Principal Component Analysis
ย 
Mengatasi multikolonieritas
Mengatasi multikolonieritasMengatasi multikolonieritas
Mengatasi multikolonieritas
ย 
Steps for Principal Component Analysis (pca) using ERDAS software
Steps for Principal Component Analysis (pca) using ERDAS softwareSteps for Principal Component Analysis (pca) using ERDAS software
Steps for Principal Component Analysis (pca) using ERDAS software
ย 
Penanganan Mutikolonieritas
Penanganan MutikolonieritasPenanganan Mutikolonieritas
Penanganan Mutikolonieritas
ย 
Uji Asumsi Klasik Multikolinieritas
Uji Asumsi Klasik MultikolinieritasUji Asumsi Klasik Multikolinieritas
Uji Asumsi Klasik Multikolinieritas
ย 
Jurnal multikolinearitas
Jurnal multikolinearitasJurnal multikolinearitas
Jurnal multikolinearitas
ย 
Introduction to principal component analysis (pca)
Introduction to principal component analysis (pca)Introduction to principal component analysis (pca)
Introduction to principal component analysis (pca)
ย 
PCA
PCAPCA
PCA
ย 
Pca ppt
Pca pptPca ppt
Pca ppt
ย 
Modul pca psikologi_pemeriksaan
Modul pca psikologi_pemeriksaanModul pca psikologi_pemeriksaan
Modul pca psikologi_pemeriksaan
ย 
Uji kolmogorov & chi square
Uji kolmogorov & chi squareUji kolmogorov & chi square
Uji kolmogorov & chi square
ย 
Bab 6-multikolinearitas
Bab 6-multikolinearitasBab 6-multikolinearitas
Bab 6-multikolinearitas
ย 
Mendeteksi Topik Berita Pada Aliran Berita Online Berbahasa Indonesia
Mendeteksi Topik Berita Pada Aliran Berita Online Berbahasa IndonesiaMendeteksi Topik Berita Pada Aliran Berita Online Berbahasa Indonesia
Mendeteksi Topik Berita Pada Aliran Berita Online Berbahasa Indonesia
ย 
data mining fuzzy c-means
data mining fuzzy c-meansdata mining fuzzy c-means
data mining fuzzy c-means
ย 
Program Input dan output data matrik
Program  Input dan output  data matrikProgram  Input dan output  data matrik
Program Input dan output data matrik
ย 
Pengantar Big Data dan Peluang Bisnis/Kerjanya
Pengantar Big Data dan Peluang Bisnis/KerjanyaPengantar Big Data dan Peluang Bisnis/Kerjanya
Pengantar Big Data dan Peluang Bisnis/Kerjanya
ย 
Penyusunan kurikulum basis kkni
Penyusunan kurikulum basis kkniPenyusunan kurikulum basis kkni
Penyusunan kurikulum basis kkni
ย 
Penanganan persimpangan
Penanganan persimpanganPenanganan persimpangan
Penanganan persimpangan
ย 
Grey-level Co-occurence features for salt texture classification
Grey-level Co-occurence features for salt texture classificationGrey-level Co-occurence features for salt texture classification
Grey-level Co-occurence features for salt texture classification
ย 

Similar to Analisis komponen utama (Principal Component Analysis)

ANALISIS FAKTOR
ANALISIS FAKTORANALISIS FAKTOR
ANALISIS FAKTORFarida Dadari
ย 
Analisis Faktor (1)
Analisis Faktor (1)Analisis Faktor (1)
Analisis Faktor (1)Rani Nooraeni
ย 
statistik tugas 4 pdf.pdf
statistik tugas 4 pdf.pdfstatistik tugas 4 pdf.pdf
statistik tugas 4 pdf.pdfNofyanAlvianAlimnur
ย 
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)Rani Nooraeni
ย 
Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...
Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...
Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...Marnii amiru
ย 
DEFRIJON REGRESI GANDA 5A.pptx
DEFRIJON REGRESI GANDA 5A.pptxDEFRIJON REGRESI GANDA 5A.pptx
DEFRIJON REGRESI GANDA 5A.pptxDepriZon1
ย 
regresi &korelasi
regresi &korelasiregresi &korelasi
regresi &korelasiRatu Bilqis
ย 
Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)rizka_safa
ย 
Analisis Faktor (2.2)
Analisis Faktor (2.2)Analisis Faktor (2.2)
Analisis Faktor (2.2)Rani Nooraeni
ย 
Analisis Hubungan
Analisis HubunganAnalisis Hubungan
Analisis Hubungangalih
ย 
Aplikasi matriks
Aplikasi matriksAplikasi matriks
Aplikasi matriksNeneng Khairani
ย 
MODUL 6 Regresi Linier Sederhana
MODUL 6 Regresi Linier SederhanaMODUL 6 Regresi Linier Sederhana
MODUL 6 Regresi Linier Sederhananur cendana sari
ย 
Analisis Komponen Utama (2)
Analisis Komponen Utama (2)Analisis Komponen Utama (2)
Analisis Komponen Utama (2)Rani Nooraeni
ย 
Jurnal agus-priyanto
Jurnal agus-priyantoJurnal agus-priyanto
Jurnal agus-priyantoAchmad Fauzan
ย 
APG Pertemuan 1-2 (1)
APG Pertemuan 1-2 (1)APG Pertemuan 1-2 (1)
APG Pertemuan 1-2 (1)Rani Nooraeni
ย 
Metode interpolasi linier
Metode  interpolasi linierMetode  interpolasi linier
Metode interpolasi linierokti agung
ย 
Makalah ipb
Makalah ipbMakalah ipb
Makalah ipbmutiahumi
ย 
Riana putri 17707251020 (review buku - analisis varians)
Riana putri   17707251020 (review buku - analisis varians)Riana putri   17707251020 (review buku - analisis varians)
Riana putri 17707251020 (review buku - analisis varians)RIANA PUTRI
ย 
2679 3639-1-sm
2679 3639-1-sm2679 3639-1-sm
2679 3639-1-smAlvin Setiawan
ย 

Similar to Analisis komponen utama (Principal Component Analysis) (20)

ANALISIS FAKTOR
ANALISIS FAKTORANALISIS FAKTOR
ANALISIS FAKTOR
ย 
Catatan Regresi linier
Catatan Regresi linierCatatan Regresi linier
Catatan Regresi linier
ย 
Analisis Faktor (1)
Analisis Faktor (1)Analisis Faktor (1)
Analisis Faktor (1)
ย 
statistik tugas 4 pdf.pdf
statistik tugas 4 pdf.pdfstatistik tugas 4 pdf.pdf
statistik tugas 4 pdf.pdf
ย 
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
ย 
Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...
Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...
Perbandingan Metode Partial Least Square (PLS) dengan Regresi Komponen Utama ...
ย 
DEFRIJON REGRESI GANDA 5A.pptx
DEFRIJON REGRESI GANDA 5A.pptxDEFRIJON REGRESI GANDA 5A.pptx
DEFRIJON REGRESI GANDA 5A.pptx
ย 
regresi &korelasi
regresi &korelasiregresi &korelasi
regresi &korelasi
ย 
Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)
ย 
Analisis Faktor (2.2)
Analisis Faktor (2.2)Analisis Faktor (2.2)
Analisis Faktor (2.2)
ย 
Analisis Hubungan
Analisis HubunganAnalisis Hubungan
Analisis Hubungan
ย 
Aplikasi matriks
Aplikasi matriksAplikasi matriks
Aplikasi matriks
ย 
MODUL 6 Regresi Linier Sederhana
MODUL 6 Regresi Linier SederhanaMODUL 6 Regresi Linier Sederhana
MODUL 6 Regresi Linier Sederhana
ย 
Analisis Komponen Utama (2)
Analisis Komponen Utama (2)Analisis Komponen Utama (2)
Analisis Komponen Utama (2)
ย 
Jurnal agus-priyanto
Jurnal agus-priyantoJurnal agus-priyanto
Jurnal agus-priyanto
ย 
APG Pertemuan 1-2 (1)
APG Pertemuan 1-2 (1)APG Pertemuan 1-2 (1)
APG Pertemuan 1-2 (1)
ย 
Metode interpolasi linier
Metode  interpolasi linierMetode  interpolasi linier
Metode interpolasi linier
ย 
Makalah ipb
Makalah ipbMakalah ipb
Makalah ipb
ย 
Riana putri 17707251020 (review buku - analisis varians)
Riana putri   17707251020 (review buku - analisis varians)Riana putri   17707251020 (review buku - analisis varians)
Riana putri 17707251020 (review buku - analisis varians)
ย 
2679 3639-1-sm
2679 3639-1-sm2679 3639-1-sm
2679 3639-1-sm
ย 

More from Indah Fitri Hapsari

Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...
Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...
Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...Indah Fitri Hapsari
ย 
Press dan satistik cp (regresi)
Press dan satistik cp (regresi)Press dan satistik cp (regresi)
Press dan satistik cp (regresi)Indah Fitri Hapsari
ย 
Logistic regression (generalized linear model)
Logistic regression (generalized linear model)Logistic regression (generalized linear model)
Logistic regression (generalized linear model)Indah Fitri Hapsari
ย 
Laporan kimia dasar ia termokimia
Laporan kimia dasar ia termokimiaLaporan kimia dasar ia termokimia
Laporan kimia dasar ia termokimiaIndah Fitri Hapsari
ย 
Generalized linear models (logistic regression)
Generalized linear models (logistic regression)Generalized linear models (logistic regression)
Generalized linear models (logistic regression)Indah Fitri Hapsari
ย 

More from Indah Fitri Hapsari (6)

Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...
Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...
Model Imputasi Berbasis Distribusi Bersyarat (Conditional Distribution Based ...
ย 
Tugas regresi sas
Tugas regresi sasTugas regresi sas
Tugas regresi sas
ย 
Press dan satistik cp (regresi)
Press dan satistik cp (regresi)Press dan satistik cp (regresi)
Press dan satistik cp (regresi)
ย 
Logistic regression (generalized linear model)
Logistic regression (generalized linear model)Logistic regression (generalized linear model)
Logistic regression (generalized linear model)
ย 
Laporan kimia dasar ia termokimia
Laporan kimia dasar ia termokimiaLaporan kimia dasar ia termokimia
Laporan kimia dasar ia termokimia
ย 
Generalized linear models (logistic regression)
Generalized linear models (logistic regression)Generalized linear models (logistic regression)
Generalized linear models (logistic regression)
ย 

Analisis komponen utama (Principal Component Analysis)

  • 1. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 1 Analisis Komponen Utama (Principal component analysis) A. LANDASAN TEORI Misalkan ๐œ’ merupakan matriks berukuran ๐‘›๐‘ฅ๐‘, dengan baris-baris yang berisi observasi sebanyak ๐‘› dari ๐‘-variat variabel acak ๐‘‹. Analisis komponen utama merupakan salah satu metode untuk mereduksi dimensi dari variabel acak ๐‘‹. Reduksi dimensi dilakukan dengan mendefinisikan p-variat variabel acak baru ๐‘Œ dimana masing masing ๐‘Œ๐‘– , ๐‘– = 1, โ€ฆ , ๐‘ merupakan kombinasi linear dari p-variat variabel acak ๐‘‹, sehingga informasi yang dimiliki oleh p-variat variabel acak ๐‘‹ tetap termuat pada masing-masing anggota dari p-variat variabel acak baru ๐‘Œ. Dengan demikian, dapat kita pilih beberapa anggota dari p-variat variabel acak ๐‘Œ sebagai bentuk reduksi dari p-variat variabel acak ๐‘‹ tanpa menghilangkan terlalu banyak informasi. Proses pendefinisian p-varait variabel acak ๐‘Œ sering disebut juga pembobotan, dimana: ๐‘Œ๐‘– = ๐›ฟฮค ๐‘‹ = ๐›ฟ๐‘— ๐‘ ๐‘—=1 ๐‘‹๐‘— , ๐‘– = 1, โ€ฆ . ๐‘ sehingga ๐›ฟ๐‘— 2 ๐‘ ๐‘—=1 = 1 Dengan ๐‘‹ = (๐‘‹1, ๐‘‹2, โ€ฆ , ๐‘‹ ๐‘)ฮค dan ๐›ฟ = (๐›ฟ1, ๐›ฟ2, โ€ฆ , ๐›ฟ ๐‘)ฮค . (๐›ฟ disebut dengan vektor pembobotan) Agar variabel acak baru ๐‘Œ mampu mewakili variasi dari ๐‘-variat variabel acak ๐‘‹ , akan dipilih arah-arah ๐›ฟ sehingga ๐›ฟฮค ๐‘‹ memiliki variansi yang besar: ๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค ๐‘‹ =๐›ฟ: ๐›ฟ =1 ๐‘š๐‘Ž๐‘ฅ ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ๐›ฟ: ๐›ฟ =1 ๐‘š๐‘Ž๐‘ฅ = ๐›ฟฮค (๐‘ฅ๐‘– โˆ’ ๐œ‡) ๐‘‡ (๐‘ฅ๐‘– โˆ’ ๐œ‡) ๐‘› ๐‘–=1 ๐›ฟ๐›ฟ: ๐›ฟ =1 ๐‘š๐‘Ž๐‘ฅ = ((๐‘ฅ๐‘– โˆ’ ๐œ‡). ๐›ฟ)2 ๐‘› ๐‘–=1 [๐›ฟ: ๐›ฟ =1] ๐‘š๐‘Ž๐‘ฅ Dapat dilihat dari persamaan diatas bahwa memaksimumkan variansi dari ๐›ฟฮค ๐‘‹ sama saja dengan memaksimumkan jumlahan dari kuadrat panjang proyeksi (๐‘ฅ๐‘– โˆ’ ๐œ‡) pada ๐›ฟ. Dari ilustrasi gambar di samping, karena jarak ke pusat ordinat selalu konstan, dapat disimpulkan bahwa memaksimumkan jumlahan kuadrat panjang proyeksi sama saja dengan meminimumkan jarak antara titik yang akan diproyeksikan (๐‘ฅ๐‘– โˆ’ ๐œ‡) dengan vektor ๐›ฟ. Hal ini lah yang membedakan konsep dari Principal Component analisis dengan regresi. Untuk lebih jelasnya dapat dilihat pada gambar berikut. PCA Regresi Ket: adalah panjang garis yang diminimumkan
  • 2. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 2 Sumber: http://www.cerebralmastication.com/2010/09/principal-component-analysis-pca-vs-ordinary- least-squares-ols-a-visual-explination/ Dari persamaan yang telah dipaparkan sebelumnya, memaksimumkan variansi dari proyeksi, yaitu ๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค ๐‘‹ sama saja dengan memaksimumkan nilai dari ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ. Untuk memaksimumkan nilai dari ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ, kita gunakan teorema berikut: Teorema Jika ๐ด dan ๐ต merupakan matriks simetri, dan ๐ต > 0, maka nilai maksimum dari ๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ ๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ diberikan oleh nilai eigen terbesar dari ๐ตโˆ’1 ๐ด. Secara umum, max ๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ ๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ = ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ† ๐‘ = min ๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ ๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ Dimana ๐œ†1, ๐œ†2, โ€ฆ , ๐œ† ๐‘ menotasikan nilai eigen dari ๐ตโˆ’1 ๐ด. Vektor yang meminimumkan (memaksimumkan) ๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ ๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ merupakan vektor eigen dari ๐ตโˆ’1 ๐ด yang memiliki nilai eigen terkecil (terbesar). Jika ๐‘ฅ ๐‘‡ ๐ต ๐‘ฅ = 1, maka: max ๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ = ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ† ๐‘ = min ๐‘ฅ ๐‘‡ ๐ด ๐‘ฅ Berdasarkan teorema diatas, karena ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ merupakan matriks simetri, maka nilai dari ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค yang terbesar sama dengan nilai eigen value terbesar dari matriks kovariansi = ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ . Secara umum: = ฮ“ ฮ› ฮ“ ๐‘‡ = ๐œ†๐‘— ๐›พ๐‘— ๐›พ๐‘— ๐‘‡ ๐‘ ๐‘—=1 ฮ› = ๐‘‘๐‘–๐‘Ž๐‘”๐‘œ๐‘›๐‘Ž๐‘™(๐œ†1, ๐œ†2, ๐œ†3, โ€ฆ , ๐œ† ๐‘) ฮ“ = (ฮณ1, ฮณ2, โ€ฆ , ฮณp) max ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค = ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ† ๐‘ = min ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค ,sehingga arah ๐›ฟ yang memberikan nilai ๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค ๐‘‹ terbesar ialah vektor eigen dari ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ dengan nilai eigen terbesar dimana vektor eigen tersebut merupakan vektor kolom dari ฮ“. Matriks ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ bersifat semi definit positif sehingga nilai eigennya tidak mungkin negatif. Pada bidang aljabar, proses diatas serupa dengan mengubah basis baku menjadi basis vektor eigen dengan vektor eigen sebagai matriks perubahan basis. Jika nilai lambda tidak ada yang sama, maka vektor eigen yang terbentuk merupakan basis orthonormal, yaitu vektor-vektor yang saling tegak lurus dengan masing-masing vektor memiliki panjang 1 unit. Catatan: Principal component analysis dihitung melalui matriks kovariansinya, maka seperti halnya matriks kovariansi, nilainya akan bergantung pada satuan yang digunakan. B. Aplikasi Analisis Komponen Utama pada Data Nilai Mahasiswa Berikut ialah contoh aplikasi analisis komponen utama pada data nilai wisudawan matematika angkatan 2007 (Data dapat dilihat pada bagian lampiran). ๐œ’ merupakan matriks berukuran ๐‘›๐‘ฅ๐‘, dengan ๐‘› merupakan jumlah mahasiswa (101 mahasiswa) dan ๐‘ merupakan jumlah mata kuliah (14 mata kuliah). Baris-baris matriks ๐œ’ berisi nilai masing-masing mahasiswa untuk ke 14 mata kuliah. Kita Definisikan 14- variat variabel acak ๐‘‹ sebagai berikut: ๐‘‹1 =nilai Fisika I A ๐‘‹8 = nilai Kalkulus Peubah Banyak ๐‘‹2 = nilai Kalkulus IA ๐‘‹9 = nilai Komputasi Matematika ๐‘‹3 =nila Fisika II A ๐‘‹10 = nilai Metode Matematika ๐‘‹4 =nilai Kalkulus II A ๐‘‹11 = nilai Pengantar Analisis Kompleks
  • 3. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 3 ๐‘‹5 = nilai Aljabar Linier Elementer A ๐‘‹12 = nilai Matematika Numerik ๐‘‹6 = nilai Matematika Diskrit ๐‘‹13 = nilai Teori Peluang ๐‘‹7 = nilai Analisis Data ๐‘‹14 = nilai Pengantar Analisis Real Langkah-langkah yang harus dilakukan untuk mencari reduksi variabel menggunakan analisis komponen utama ialah sebagai berikut: 1. Mencari matriks kovariansi empirik dari 14-variat variabel acak ๐‘ฟ yaitu = ๐‘ฝ๐’‚๐’“ ๐‘ฟ . Matriks Kovariansi empirik ialah matriks yang nilai-nilai kovariansi pada tiap cell-nya diperoleh dari sampel. Misalkan Y dan Z ialah variabel acak, maka: ๐‘๐‘œ๐‘ฃ ๐‘Œ, ๐‘ = 1 ๐‘› (๐‘ฆ๐‘– โˆ’ ๐‘ฆ)(๐‘ง๐‘– โˆ’ ๐‘ง) ๐‘› ๐‘–=1 Dengan ๐‘ฆ dan ๐‘ง merupakan rataan sampel dari variabel Y dan Z, dan ๐‘ฆ๐‘– dan ๐‘ง๐‘– merupakan nilai observasi ke-i dari variabel Y dan Z. Pembagian dengan n digunakan karena jumlah sampel yang dimiliki lebih dari 20. Dari data nilai yang digunakan, diperoleh matriks kovariansi berukuran 14x14. 2. Mencari nilai eigen dan vektor eigen dari matriks kovariansi empirik yang telah diperoleh. Nilai eigen dan vektor eigen dapat dihitung menggunakan program matlab. Nilai eigen diurutkan mulai dari nilai yang terbesar hingga terkecil. Matriks yang kolom-kolomnya berisi vektor eigen dari nilai eigen terkait disesuaikan urutannya berdasarkan nilai eigen yang telah urut. Dengan menggunakan algoritmat matlab , diperoleh 14 nilai-nilai eigen yang telah diurutkan,yaitu : ๐ธ๐‘–๐‘”๐‘’๐‘› = (3.4970 , 0.6452 , 0.5314 , 0.4311 , 0.3915 , 0.3630 ,0.3450 , 0.2437 , 0.2171 , 0.2046 , 0.1771 , 0.1380 , 0.1213 , 0.0936) Masing-masing variabel baru ๐‘Œ๐‘– yang terbentuk memiliki variansi yang besarnya sama dengan nilai eigen yang terkait dengan vektor eigen pembentuknya. Grafik diatas ditampilkan untuk memperjelas penurunan variansi (nilai eigen) yang terjadi. 3. Menghitung proporsi variansi masing-masing PC beserta nilai akumulasi untuk q-PC pertama. Ukuran seberapa baik q -PC pertama mampu menjelaskan variansi diberikan melalui proporsi relatif ๐œ“ ๐‘ž = ๐œ† ๐‘— ๐‘ž ๐‘—=1 ๐œ† ๐‘— ๐‘ ๐‘—=1 . Tabel dibawah ini memperlihatkan proporsi variansi dari masing-masing PC serta nilai akumulasinya jika kita menggunakan q-PC pertama.
  • 4. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 4 Pemilihan banyak PC yang akan digunakan tergantung dari kebutuhan. Dapat kita lihat bahwa 2 PC saja mampu menyerap variansi sebesar 56%, apabila persentasi ini dirasa cukup, dapat kita gunakan 2 PC yang ada. Pemilihan 2 hingga 3 PC lebih sering dilakukan untuk mempermudah visualisasi. Apabila kita menginginkan jumlah PC yang lebih dari 50 persen dan memberikan akumulasi variansi yang cukup signifikan,maka dapat kita lihat melalui kecuraman ( gradien) dari grafik akumulasi variansi q-PC. Digunakan garis-garis linier untuk mempermudah visualisasi perubahan gradien yang terjadi. Semakin landai gradien antara 2 titik yang ada, maka semakin kecil perubahan akumulasi variansi yang dijelaskan. Dari plot diatas, dapat dilihat bahwa pemilihan 3 PC dapat dibilang cukup baik karena viualisasi yang mudah serta nilai pertambahan akumulasi PC yang signifikan. Pemilihan 3 PC mampu menjelaskan 63% variansi dibandingkan dengan apabila kita menggunakan 14 PC yang ada. 4. Interpretasi Hasil dari Analisis Komponen Utama Untuk mempermudah visualisasi dan interpretasi, maka kita pilih 2-PC dengan nilai eigen terbesar. Berikut disajikan hasil PC pertama (๐‘Œ1) dan kedua (๐‘Œ2) dari data nilai yang telah dipaparkan diatas: ๐‘Œ1 = 0.0675 nilai Fisika I A + 0.1866 nilai Kalkulus IA + 0.0735 nilai Fisika II A + 0.1595 nilai Kalkulus II A + 0.2872 nilai Aljabar Linier Elementer A + 0.3110 nilai Matematika Diskrit + 0.2396 nilai Analisis Data + ๐ŸŽ. ๐Ÿ‘๐Ÿ”๐Ÿ“๐Ÿ— ๐’๐’Š๐’๐’‚๐’Š ๐‘ฒ๐’‚๐’๐’Œ๐’–๐’๐’–๐’” ๐‘ท๐’†๐’–๐’ƒ๐’‚๐’‰ ๐‘ฉ๐’‚๐’๐’š๐’‚๐’Œ + 0.1915 nilai Komputasi Matematika + 0.3303 nilai Metode Matematika + ๐ŸŽ. ๐Ÿ‘๐Ÿ–๐Ÿ“๐Ÿ– ๐’๐’Š๐’๐’‚๐’Š ๐‘ท๐’†๐’๐’ˆ๐’‚๐’๐’•๐’‚๐’“ ๐‘จ๐’๐’‚๐’๐’Š๐’”๐’Š๐’” ๐‘ฒ๐’๐’Ž๐’‘๐’๐’†๐’Œ๐’” + 0.3215 nilai Matematika Numerik + ๐ŸŽ. ๐Ÿ‘๐Ÿ“๐Ÿ‘๐Ÿ” ๐ง๐ข๐ฅ๐š๐ข ๐“๐ž๐จ๐ซ๐ข ๐๐ž๐ฅ๐ฎ๐š๐ง๐  + 0.1908 nilai Pengantar Analisis Real Nilai dari ๐‘Œ1 lebih banyak dijelaskan oleh variabel nilai Kalkulus Peubah Banyak, nilai Pengantar analisis Kompleks, dan nilai Teori Peluang. Hal ini dapat dilihat dari koefisien yang cukup besar dibanding variabel lainnya.
  • 5. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 5 Apabila sebuah variabel memiliki koefisien yan besar dan positif (negatif) pada kombinasi linear yang mendefiniskan sebuah PC, maka dapat dikatakan bahwa terdapat korelasi yang kuat dan positif (negatif) antara variabel tersebut dengan PC yang didefinisikan. Dapat disimpulkan bahwa apabila nilai ๐‘Œ1 besar, maka nilai dari Kalkulus Peubah Banyak, Pengantar analisis Kompleks, dan nilai Teori Peluang juga besar. Namun, apabila kita melihat koefisien-koefisien yang ada pada kombinasi linier diatas, dapat dikatakan bahwa koefisien yang ada tidak terlalu berbeda jauh. Tidak ada nilai koefisien yang sangat besar baik koefisien yang bernilai positif maupun negatif. Hal ini sebenarnya juga memengaruhi seberapa bermanfaat penggunaan metode analisis komponen utama pada data. Analisis Komponen utama sebaiknya digunakan apabila nilai korelasi antara q-PC yang digunakan dengan variabel-variabel awal (dalam hal ini p-variat variabel acak X) memiliki nilai yang besar. ๐‘Œ2 = โˆ’0.2355 nilai Fisika I A โˆ’ ๐ŸŽ. ๐Ÿ’๐Ÿ‘๐Ÿ–๐Ÿ— ๐’๐’Š๐’๐’‚๐’Š ๐‘ฒ๐’‚๐’๐’Œ๐’–๐’๐’–๐’” ๐‘ฐ๐‘จ โˆ’ 0.1441 nilai Fisika II A โˆ’ 0.0497 nilai Kalkulus II A โˆ’ 0.1946 nilai Aljabar Linier Elementer A โˆ’ ๐ŸŽ. ๐Ÿ’๐Ÿ’๐Ÿ–๐ŸŽ ๐’๐’Š๐’๐’‚๐’Š ๐‘ด๐’‚๐’•๐’†๐’Ž๐’‚๐’•๐’Š๐’Œ๐’‚ ๐‘ซ๐’Š๐’”๐’Œ๐’“๐’Š๐’• โˆ’ 0.1049 nilai Analisis Data + 0.1509 nilai Kalkulus Peubah Banyak + 0.2211 nilai Komputasi Matematika + 0.3993 nilai Metode Matematika + 0.0267 nilai Pengantar Analisis Kompleks + 0.1430 nilai Matematika Numerik + 0.3296 nilai TeoriPeluang โˆ’ 0.3438 nilai Pengantar Analisis Real Nilai dari ๐‘Œ2 dapat dijelaskan cukup baik oleh variabel nilai Kalkulus IA dan nilai Matematika Diskrit. Koefisien pada kedua variabel bertanda negatif. Hal ini mengindikasikan bahwa korelasi antara ๐‘Œ2 dengan jumlahan dari nilai Kalkulus IA dan nilai Metematika Diskrit negatif. Artinya, apabila nilai dari variabel ๐‘Œ2 dari seorang mahasiswa kecil, maka dapat disimpulkan bahwa nilai Kalkulus dan nilai Matematika Diskrit dari mahasiswa tersebut besar. Sehingga dengan melihat nilai dari ๐‘Œ2 , kita dapat menarik kesimpulan mengenai nilai Kalkulus IA dan nilai Matematika Diskrit. Berikut disajikan Plot dari PC pertama terhadap PC kedua dari data yang ada. Dari gambar scatterplot diatas, dapat disimpulkan bahwa: 1. Interval dari ๐‘Œ1 lebih besar dari interval dari ๐‘Œ2. Hal ini memperkuat bukti bahwa ๐‘Œ1 memiliki variansi yang lebih besar. Sehingga dapat dikatakan bahwa jumlahan dari nilai Kalkulus Peubah Banyak, nilai Pengantar analisis Kompleks, dan nilai Teori Peluang menghasilkan variansi yang besar. 2. Sebagian besar titik berada pada daerah yang dilingkupi oleh garis oval berwarna biru. Pola ini menunjukkan kecenderungan dari mahasiswa matematika angkatan 2007.
  • 6. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 6 3. Beberapa titik berada di bagian pojok kiri bawah dari grafik. Titik-titik yang berada pada bagian pojok kiri bawah dari grafik dapat dikatakan sebagai pencilan karena tidak mengikuti kecenderungan yang dijelaskan pada poin 2 dan berada jauh dari garis oval berwarna biru. Titik- titik tersebut memiliki nilai ๐‘Œ1 dan ๐‘Œ2 yang tergolong kecil, sehingga dapat disimpulkan bahwa sebagian kecil mahasiswa memiliki jumlahan nilai Kalkulus Peubah Banyak, Pengantar analisis Kompleks,dan nilai Teori Peluang yang kecil, sedangkan jumlahan nilai Kalkulus IA dan nilai Matematika Diskrit besar . 4. Mahasiswa yang memiliki jumlahan nilai Kalkulus IA dan nilai Matematika Diskrit paling besar memilki jumlahan nilai Kalkulus Peubah Banyak, nilai Pengantar analisis Kompleks, dan nilai Teori Peluang yang tergolong tidak besar. (lihat titik yang dilingkupi segitiga berwarna hijau) Plot diatas sangat berguna apabila kita memberikan pendefinisian kategori yang memasukkan masing-masing individu ke dalam sebuah kategori. Pemberian warna pada scatterplot diatas dapat membantu visualisasi dari kategori yang ada. Dengan melihat pola dari scatterplot dari tiap-tiap kategori, maka kita dapat menyimpulkan karakteristik dari tiap- tiap kategori.
  • 7. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 7
  • 8. Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010