SlideShare a Scribd company logo
1 of 38
CAKUPAN
ANALISIS
PEUBAH
GANDA
PERTEMUAN 1
$
Pengertian APG dan
alasan penggunaan APG
3
2OUTLINE
Kegunaan APG
Klasifikasi APG
Analisis peubah ganda
(multivariate) adalah analisis
statistik dari sekumpulan
data pada lebih dari satu
variabel.
• Menggambarkan suatu objek tidak cukup
menggunakan satu peubah saja
• Kasus pengamatanpeubah ganda
dijumpaidi seluruh bidang terapan
• Perlu analisis lebih canggih jika antar
peubah tidak saling bebas
&
3
3
Pengertian APG Alasan Penggunaannya
3
4
• Reduksi data. Mereduksi variabelyang banyak menjadi sedikit tanpa merubahinformasi
yang dibutuhkan.
• Pengelompokan/klasifikasi,mengelompokkanatau mengklasifikasikanobjek dalam
kelompok–kelompok.
• Menyelidikihubungan/keterkaitanantar variabel
• Prediksi
• Membentuk dan menguji hipotesis
3
5
Klasifikasi ini dibuat berdasarkantiga karakteristik data yang diamati:
Apakah variabel dapat dibagi ke
dalam kelompok variabel tak
bebas dan variabel bebas
[menurut teori]?
• Teknik Interdepensi
• Teknik Dependensi
Jika ya, berapa banyak variabel
yang digunakan sebagai var. tak
bebas?
• Satu
• Lebih dari satu
Bagaimana variabel - variabel
tsb diukur?
• Metric
• Non Metric
3
6
• Teknik dependensidapat didefinisikansebagai variabelmana saja yang merupakan
penjelas dan yang mana yang dijelaskan
• Sedangkan teknik interdependensi tidak ada satu variabelatau sekelompok variabelyang
didefniskansbg variabelbebas atau tak bebas (hnaya var X atau Y saja),variabeldi dalam
gugus data dilibatkan secara simultan
3
7
Teknik Dependensi
Teknik Interdependensi
3
8
Ilustrasi pengukurankarakteristik atau variabel(biasadisebut data)dapat ditampilkan
dalam berbagai cara:
• Tabel
• Matirks
• Grafik, plot data
• Verbal
3
9
Suatu kumpulan data dapat disusun menjadi
sebuah matriks.
X =
𝑥11 ⋯ 𝑥1𝑝
⋮ ⋱ ⋮
𝑥 𝑛1 ⋯ 𝑥 𝑛𝑝
, dimana
n = banyaknya observasi
p = banyaknyavariabel
Contoh :
Diketahui :
Variabel 1 (penjualan (dollar)) : 42 52 48 58
Variabel 2 (jumlah buku) : 4 5 4 3
Maka data array tersebut dapat disusun menjadi
matriks berikut.
X =
42
52
48
4
5
4
58 3
3
10
Statistik deskriptifmeliputipenghitungan:
• Sample Mean: 𝑥 𝑘 =
1
𝑛 𝑗=1
𝑛
𝑥𝑗𝑘
• Sample Variance: 𝑠 𝑘
2
= 𝑠 𝑘𝑘 =
1
𝑛 𝑗=1
𝑛
(𝑥𝑗𝑘 − 𝑥 𝑘)2
• Sample Covariance: 𝑠𝑖𝑘 =
1
𝑛 𝑗=1
𝑛
(𝑥𝑗𝑖 − 𝑥𝑖)(𝑥𝑗𝑘 − 𝑥 𝑘)
• Sample Variance-CovariansMatrix: 𝐒 𝑛 =
𝑠11 𝑠12
𝑠21 𝑠22
⋯ 𝑠1𝑝
⋯ 𝑠2𝑝
⋮ ⋮
𝑠 𝑝1 𝑠 𝑝2
⋱ ⋮
⋯ 𝑠 𝑝𝑝
• Sample Correlation: 𝑟𝑖𝑘 =
𝑠 𝑖𝑘
𝑠 𝑖𝑖 𝑠 𝑘𝑘
= 𝑗=1
𝑛
(𝑥 𝑗𝑖− 𝑥𝑖)(𝑥 𝑗𝑘− 𝑥 𝑘)
𝑗=1
𝑛 (𝑥 𝑗𝑘− 𝑥 𝑘)2
𝑗=1
𝑛 (𝑥 𝑗𝑘− 𝑥 𝑘)2
• Sample CorrelationMatrix: 𝐑 =
1 𝑟12
𝑟21 1
⋯ 𝑟1𝑝
⋯ 𝑟2𝑝
⋮ ⋮
𝑟𝑝1 𝑟𝑝2
⋱ ⋮
⋯ 1
3
11
Scatter Plot Box Plot Stem and Leaf
3
Stars Plot Chernoff Faces
12
3
Ukuran jarak harus memenuhisyarat berikut:
d(P,Q) = d(Q, P)
d(P,Q) > 0 if P ≠ Q
d(P,Q) = 0 if P = Q
d(P,Q) ≤ d(P,O) + d(O,Q) (ketidaksamaansegitiga)
P
OQ
𝑥2
𝑥1
𝑑 𝑂, 𝑃 = 𝑥1
2
+ 𝑥2
2
13
Klik disiniMau latihan soal bab ini? 
ALJABAR
MATRIKS DAN
RANDOM
VEKTOR
PERTEMUAN 2
$
Vektor
3
15OUTLINE
Matriks
Random Vektor dan
Random Matriks
3
• Vektor adalah suatu susunan bilanganriil
𝑥1, 𝑥2, … , 𝑥 𝑛, dan dituliskan dalam bentuk
berikut:
𝐱 =
𝑥1
𝑥2
⋮
𝑥 𝑛
• Nama vector dituliskan dengan huruf kecil
tebal.
• Vektor dapat dikalikan dengan bilangansaklar
𝑐𝐱 =
𝑐𝑥1
𝑐𝑥2
⋮
𝑐𝑥 𝑛
• Dua vektor dapat dijumlahkan. Penjumlahan
𝐱 dan 𝐲 didefinisikan:
𝐱 + 𝐲 =
𝑥1
𝑥2
⋮
𝑥 𝑛
+
𝑦1
𝑦2
⋮
𝑦 𝑛
=
𝑥1 + 𝑦1
𝑥2 + 𝑦2
⋮
𝑥 𝑛 + 𝑦 𝑛
16
3
• Vektor memiliki panjang dan arah. Panjang vektor
berdimensi n didefinisikan sebagai:
𝐿 𝐱 = 𝑥1
2
+ 𝑥2
2
+ ⋯ + 𝑥 𝑛
2
• Perkalian dengan bilangan skalar c akan mengubah
panjang vektor 𝐱
𝐿 𝐱 = 𝑐2 𝑥1
2
+ 𝑐2 𝑥2
2
+ ⋯ + 𝑐2 𝑥 𝑛
2
=
𝑐 𝑥1
2
+ 𝑥2
2
+ ⋯ + 𝑥 𝑛
2
= 𝑐 𝐿 𝐱
• Vektor x akan diperpanjangjika 𝑐 > 1 dan
diperpendek jika 0 < 𝑐 < 1, akan berubah arah jika
nilai c negatif.
• Jika
𝒆 =
𝒙
𝐿 𝒙
Maka, 𝒆 disebut sebagai
vector normal dari x, dan
panjang vector 𝒆 selalu
bernilai 1.
• Dua buah vector x dan y
dikatakan ortogonal satu
sama lain jika x’y = 0
17
3
Misalkan terdapat dua vektor pada bidang datar dan 𝜃 adalah
sudut di antara kedua vektor tersebut. Maka sudut 𝜃 di antara
vektor 𝐱′= 𝑥1, 𝑥2 dan 𝐲′ = 𝑦1, 𝑦2 ialah
cos 𝜃 =
𝑥1 𝑦1 + 𝑥2 𝑦2
𝐿 𝐱 𝐿 𝒚
Untuk 𝑛 = 2 dimensi, perkalian 𝐱 dan 𝐲:
𝐱′ 𝐲 = 𝑥1 𝑦1 + 𝑥2 𝑦2
Maka:
𝐿 𝐱 = 𝐱′ 𝐱
cos 𝜃 =
𝐱′ 𝐲
𝐿 𝐱 𝐿 𝒚
=
𝐱′ 𝐲
𝐱′ 𝐱 𝐲′ 𝐲
x
y
18
3
• Vektor y = a1x1 + a2x2 + ... + akxk merupakan kombinasi linier darivektor-vektor x1, x2, ..., xk .
• Himpunan kombinasi linier dari x1, x2, ..., xk, disebut dengan rentanglinier.
• Himpunan vektor 𝐱1, 𝐱2, … , 𝐱 𝑘 dikatakan tidakbebaslinier(linearlydependent) jika terdapat
bilanganskalar 𝑎1, 𝑎2, … 𝑐 𝑘 yang tidak semuanya bernilai nol
𝑎1 𝐱1 + 𝑎2 𝐱2 + ⋯ + 𝑎 𝑘 𝐱 𝑘 = 𝟎
Jika tidak, maka vektor dikatakan bebas linier(linearlyindependent).
19
3
Proyeksi vektor 𝐱 pada 𝐲 adalah:
𝐱′ 𝐲
𝐲′ 𝐲
𝐲 =
(𝐱′ 𝐲)
𝐿 𝒚
1
𝐿 𝒚
𝐲
Panjang proyeksi vektor 𝐱 pada 𝐲:
𝐱′
𝐲
𝐿 𝒚
= 𝐿 𝒙
𝐱′
𝐲
𝐿 𝒙 𝐿 𝒚
= 𝐿 𝒙 cos(𝜃)
dengan 𝜃 adalahsudut antara 𝐱 dan 𝐲
x
y
𝐱′ 𝐲
𝐲′ 𝐲
𝐲
20
3
• Matriks adalah susunanbilanganyang
dinyatakandalam baris dan kolom. Bentuk
matriks berukuran n × p adalah sebagai berikut
𝐀(𝑛×𝑝) =
𝑎11 𝑎12 ⋯ 𝑎1𝑝
𝑎21 𝑎22
⋮ ⋮
⋯
⋱
𝑎2𝑝
⋮
𝑎 𝑛1 𝑎 𝑛2 ⋯ 𝑎 𝑛𝑝
• Nama matriks dituliskan dengan huruf kapital
tebal.
• Operasi transpos pada matriks mengubah
kolom menjadi baris dan baris menjadi kolom
• Dua matriks A dan B dapat dijumlahkan atau
dikurangkan jika memiliki dimensi yang sama.
• Matriks dapat dikali dengan bilangan skalar c
𝑐𝐀(𝑛×𝑝) =
𝑐𝑎11 𝑐𝑎12 ⋯ 𝑐𝑎1𝑝
𝑐𝑎21 𝑐𝑎22
⋮ ⋮
⋯
⋱
𝑐𝑎2𝑝
⋮
𝑐𝑎 𝑛1 𝑐𝑎 𝑛2 ⋯ 𝑐𝑎 𝑛𝑝
• Dua matriks A (n × k) dan B (k × p) dapat dikalikan
jika jumlah baris matriks A sama dengan jumlah
kolom matriks B sehingga terbentuk matriks AB
(n × p)
• Matriks persegi dikatakan simetris jika 𝐀 = 𝐀′
atau 𝑎𝑖𝑗 = 𝑎𝑗𝑖 untuk semua i dan j
• Jika matriks I (k × k) adalah matriks identitas,
yaitu matriks yang diagonal utamanya bernilai 1
dan elemen lainnya bernilai 0, maka 𝐈𝐀 = 𝐀𝐈 = 𝐈
untuk setiap matriks A (k × k)
• Matriks B (k × k) dikatakan invers dari matriks A
(k × k) jika: 𝐁𝐀 = 𝐀𝐁 = 𝐈
21
3
Untuk semua matriks A, B, dan C (dengan dimensi yang sama) dan skalar c dan d, berikut
merupakan sifat-sifat matriks:
• (A + B) + C = A + (B + C)
• A + B = B + A
• c(A + B) = cA + cB
• (c + d)A = cA + dA
• (A + B)’ = A’ + B’
• (cd)A = c(dA)
• (cA)’ = c A’
• c(AB) = (cA)B
• A(BC) = (AB)C
• A (B+C) = AB+AC
• (B+C)A = BA+CA
• (AB)’ = B’ A’
• AB ≠ BA
𝑗=1
𝑛
𝐀𝐱𝒋 = 𝐀
𝑗=1
𝑛
𝐱𝒋
𝑗=1
𝑛
(𝐀𝐱𝒋)(𝐀𝐱𝒋)′ = 𝐀
𝒋=𝟏
𝒏
𝐱𝒋 𝐱 𝒋
′
𝐀′
Determinan dari matriks A k x k = {aij}, dilambangkan dengan |A|, merupakan skalar. Jika matriks k x
k adalah matriks identitas (I), maka |I| = 1.
22
3
• Matriks A memiliki invers jika kolom 𝐚1, 𝐚2, … , 𝐚 𝑘 bebas linier.Sehingga 𝐀−1
sama dengan:
𝑐1 𝐚1 + 𝑐2 𝐚2 + ⋯ + 𝑐 𝑘 𝐚 𝑘 = 0 hanya jika 𝑐1 = ⋯ = 𝑐 𝑘 = 0
• Matriks orthogonalditunjukkan dengan:
𝐐𝐐′ = 𝐐′ 𝐐 = 𝐈 atau 𝐐′ = 𝐐−𝟏
• Matriks persegi 𝐀 dikatakan memiliki nilai eigen 𝜆, dengan vektor eigen 𝐱 ≠ 0 yang
bersesuaian,jika:
𝐀𝐱 = λ𝐱
• Umumnya, vektor eigen x dinormalisasisehingga1 = 𝐱′ 𝐱. Vektor eigen yang dinormalisasi
dinotasikandengan 𝒆.
23
3
• Matriks simetris 𝐀 berukurank × k dikatakan definit positif jika:
0 < 𝐱′
𝐀𝐱
untuk semua vektor 𝐱 ≠ 𝟎
• Ekspansi dari matriks simetris disebut dekomposisi spektral. Dekomposisi spektral dari 𝐀:
𝐀 = 𝜆1 𝐞1 𝐞′1 + 𝝀2 𝐞2 𝐞′2 + ⋯ + 𝜆 𝑘 𝐞 𝑘 𝐞′
𝑘
Menggunakan dekomposisi spektral, dapat ditunjukkan bahwa matriks simetris 𝐀 berukuran k
× k merupakan matriks definit positif jika dan hanya jika semua nilai eigen 𝐀 positif.
24
Klik disiniMau tahu lebih banyak tentang matiks definit positif? 
3
• Dekomposisispectral dimanfaatkan untuk menghitunginvers matriks persegi
𝐀 =
𝒊=𝟏
𝒌
𝜆𝒊 𝐞𝒊 𝐞′𝒊 = 𝐏𝚲𝐏′
dengan 𝐏𝐏′ = 𝐏′ 𝐏 = 𝐈 dan 𝚲 adalahmatriks diagonal
𝚲(𝑘×𝑘) =
𝜆1 0 ⋯ 0
0 𝜆2
⋮ ⋮
⋯
⋱
0
⋮
0 0 ⋯ 𝜆 𝑘
Sehingga:
𝐀−1
= 𝐏𝚲−1
𝐏′
=
𝒊=𝟏
𝒌
𝟏
𝝀𝒊
𝐞𝒊 𝐞′𝒊
• Selanjutnya, 𝚲−𝟏
menunjukkanmatriks diagonaldengan 𝜆𝑖 sebagai elemen
diagonalke-i. Matriks 𝑖=1
𝑘
𝜆𝑖 𝐞𝑖 𝐞′𝑖 = 𝐏𝚲1/2 𝐏′ disebut akar kuadrat dari 𝐀 dan
dilambangkandengan 𝐀1/2.
25
3
Matriks akar kuadrat dari matriks definit positif 𝐀,
𝐀1/2 =
𝑖=1
𝑘
𝜆𝑖 𝐞𝑖 𝐞′𝑖 = 𝐏𝚲1/2 𝐏′
memiliki sifat:
1. 𝐀1/2 ′
= 𝐀1/2 (sehingga 𝐀1/2 simetris)
2. 𝐀1/2 𝐀1/2 = 𝐀
3. 𝐀1/2 −1
= 𝒊=𝟏
𝒌 𝟏
𝝀 𝒊
𝐞𝒊 𝐞′𝒊 = 𝐏𝚲−1/2
𝐏′
, dimana 𝚲−1/2
adalah diagonalmatriks
dengan 1/ 𝜆𝑖 sebagai elemen diagonal ke-i
4. 𝐀1/2 𝐀−1/2 = 𝐀−1/2 𝐀1/2 = 𝐈 dan 𝐀−1/2 𝐀−1/2 = 𝐀−1, dimana 𝐀−1/2 = 𝐀−1/2 −1
26
3
• Randomvector adalahvektor yang elemennya berupa random variable,
sedangkanrandom matrix adalah matriks yang elemennya berupa random
variabel.
• Misalkan X dan Y merupakan random matriks yang mempunyai dimensisama,
kemudian A dan B merupakan konstanta matriks maka :
E(X+Y)= E(X) + E(Y)
E(AXB)=A E(X) B
27
3
• X’ = [X1 , X2 ,..., XP] merupakan random vector ukuran p×1, dimana masing-masing
elemen dari X merupakan variabelacak.
• Rata-rata dan kovariansdari vektor acak X ukuran p×1 dapat dinyatakan dalam
matriks sebagai berikut.
E(X) =
𝐸(𝑋1)
𝐸(𝑋2)
⋮
𝐸(𝑋 𝑝)
=
𝜇1
𝜇2
⋮
𝜇 𝑝
= µ
= E (X-µ)(X-µ)’
= Cov (X) =
𝜎11
𝜎21
⋮
𝜎 𝑝1
𝜎12
𝜎22
⋮
𝜎 𝑝2
⋯
⋯
⋱
⋯
𝜎1𝑝
𝜎2𝑝
⋮
𝜎 𝑝𝑝
28
3
Koefisien korelasi populasi (𝜌𝑖𝑘) digunakan untuk
menghitunghubungan atau asosiasilinier diantara
variabelacak 𝑋𝑖 dan 𝑋 𝑘
𝜌𝑖𝑘 =
𝜎𝑖𝑘
𝜎 𝑖𝑖 𝜎 𝑘𝑘
𝜌 =
𝜎11
𝜎11 𝜎11
𝜎12
𝜎11 𝜎22
⋮
𝜎1𝑝
𝜎11 𝜎 𝑝𝑝
𝜎12
𝜎11 𝜎22
𝜎22
𝜎22 𝜎22
⋮
𝜎2𝑝
𝜎22 𝜎 𝑝𝑝
⋯
⋯
⋱
⋯
𝜎1𝑝
𝜎11 𝜎 𝑝𝑝
𝜎2𝑝
𝜎22 𝜎 𝑝𝑝
⋮
𝜎 𝑝𝑝
𝜎 𝑝𝑝 𝜎 𝑝𝑝
=
1
𝜌12
⋮
𝜌1𝑝
𝜌12
1
⋮
𝜌2𝑝
⋯
⋯
⋱
⋯
𝜌1𝑝
𝜌2𝑝
⋮
1
Sedangkan standar deviasi dari matriks p×p
sebagai berikut.
𝑽1/2
=
𝜎11
0
⋮
0
0
𝜎22
⋮
0
⋯
⋯
⋱
⋯
0
0
⋮
𝜎 𝑝𝑝
= 𝑽1/2 𝜌 𝑽1/2
𝜌 = (𝑽
1
2)−1 (𝑽
1
2)−1
29
3
X =
𝑋1
⋮
𝑋 𝑞
⋯
𝑋 𝑞+1
⋮
𝑋 𝑝
=
𝐗(1)
⋯
𝐗(2)
, dan µ = E(X) =
µ1
⋮
µ 𝑞
⋯
µ 𝑞+1
⋮
µ 𝑝
=
µ(𝟏)
⋯
µ(𝟐)
12 = E(𝐗(1)
− µ 𝟏
)(𝐗 2
− µ 𝟐
)′ =
𝜎1,𝑞+1
𝜎2,𝑞+1
⋮
𝜎 𝑞,𝑞+1
𝜎1,𝑞+2
𝜎2,𝑞+2
⋮
𝜎 𝑞,𝑞+2
⋯
⋯
⋱
⋯
𝜎1𝑝
𝜎2𝑝
⋮
𝜎 𝑞𝑝
(𝑝×𝑝) =
𝚺 𝟏𝟏 𝚺 𝟏𝟐
𝚺 𝟐𝟏 𝚺 𝟐𝟐
Catatan :
𝚺 𝟏𝟐 =𝚺′ 𝟐𝟏
Kovarians dari 𝐗(1) = 𝚺 𝟏𝟏 , kovarians 𝐗(2)= 𝚺 𝟐𝟐 , sedangkan kovarians untuk 𝐗(1) dan 𝐗(2) adalah 𝚺 𝟏𝟐 (atau 𝚺 𝟐𝟏)
30
3
E (𝑎𝑿 𝟏+𝑏𝑿2) = 𝑎 𝐸(𝑿1) + 𝑏 𝐸(𝑿2) = 𝑎𝜇1+𝑏𝜇2
Var (𝑎𝑿 𝟏+𝑏𝑿2) = 𝑎2
𝜎11+ 𝑏2
𝜎22+2𝑎𝑏𝜎12
Apabila c’ = 𝑎, 𝑏 , µ=E(X) dan = 𝐶𝑜𝑣 𝑿 , maka
E (c’X) = c’µ
Var (𝑎𝑿 𝟏+𝑏𝑿2) = Var (c’X) = c’ 𝒄
Umumnya, terdapat q kombinasi linier dari p variabel acak X1, ..., Xp
Z =
𝑍1
𝑍2
⋮
𝑍 𝑝
=
𝑐11
𝑐21
⋮
𝑐 𝑞1
𝑐12
𝑐22
⋮
𝑐 𝑞2
⋯
⋯
⋱
⋯
𝑐1𝑝
𝑐2𝑝
⋮
𝑐 𝑞𝑝
𝑋1
𝑋2
⋮
𝑋 𝑝
= CX
𝜇 𝑍 = E (Z) = E(CX) = C𝝁 𝑿
𝒁 = Cov (Z) = Cov (Cx) = C 𝑿 𝑪′
31
3
Apabila 𝐱′
= 𝒙 𝟏, 𝒙 𝟐, … , 𝒙 𝒑 merupakan vektor sampel rata-rata dari n-observasi dari p-variabel X1, ..., Xp maka:
𝐱 =
𝒙1
⋮
𝒙 𝑞
⋯
𝒙 𝑞+1
⋮
𝒙 𝑝
=
𝐱(1)
⋯
𝐱(2)
S21 =
𝑆 𝑞+1,1 ⋯ 𝑆 𝑞+1,𝑞
⋮ ⋱ ⋮
𝑆 𝑝,1 ⋯ 𝑆 𝑝,𝑞
𝑆(𝑝×𝑝) =
𝐒 𝟏𝟏 𝐒 𝟏𝟐
𝐒 𝟐𝟏 𝐒 𝟐𝟐
Sampel kovarians dari 𝐱 (1)
= 𝐒 𝟏𝟏 , kovarians 𝐱 (2)
= 𝐒 𝟐𝟐 , sedangkan kovarians untuk 𝐱 (1)
dan 𝐱 (2)
adalah 𝐒 𝟏𝟐
(atau 𝐒 𝟐𝟏).
32
3
Apabila 𝐱′
= 𝒙 𝟏, 𝒙 𝟐, … , 𝒙 𝒑 merupakan vektor sampel rata-rata dari n-observasi dari p-variabel X1, ..., Xp maka:
𝐱 =
𝒙1
⋮
𝒙 𝑞
⋯
𝒙 𝑞+1
⋮
𝒙 𝑝
=
𝐱(1)
⋯
𝐱(2)
S21 =
𝑆 𝑞+1,1 ⋯ 𝑆 𝑞+1,𝑞
⋮ ⋱ ⋮
𝑆 𝑝,1 ⋯ 𝑆 𝑝,𝑞
𝑆(𝑝×𝑝) =
𝐒 𝟏𝟏 𝐒 𝟏𝟐
𝐒 𝟐𝟏 𝐒 𝟐𝟐
Sampel kovarians dari 𝐱 (1)
= 𝐒 𝟏𝟏 , kovarians 𝐱 (2)
= 𝐒 𝟐𝟐 , sedangkan kovarians untuk 𝐱 (1)
dan 𝐱 (2)
adalah 𝐒 𝟏𝟐
(atau 𝐒 𝟐𝟏).
33
Klik disiniMau tahu lebih banyak tentang Vektor Rata-rata dan Matriks Kovarians? 
3
A. Cauchy-Schwarz Inequality
Misalkan b dan d merupakan dua vektor
yang berukuran p×1, maka :
(b’d)2 ≤ (b’b) (d’d)
Jika dan hanya jika b = cd ( atau d = cb)
untuk c konstan.
B. Entended Cauchy-Schwarz Inequality
Misalkan b dan d merupakandua vektor
yang berukuran p×1, dan B(p×p) merupakan
matriks definit positif maka :
(b’d)2 ≤ (b’B b) (d’ B-1 d)
Jika dan hanya jika b = c B-1 d ( atau d = c B
b) untuk c konstan.
34
3
C. MaximizationLemma
Misal B adalah definit positif, d merupakan
vektor berukuran p×1, dan x merupakan
sembarangvektor bukan nol, maka :
max
𝑥≠0
(𝐱′ 𝐝)2
𝐱′𝐁𝐱
= d’ B-1 d
Dengan mencapai maksimum ketika x = c
B-1 d untuk konstan c ≠0
D. Maximizationof Quadratic Forms for
Points on the Unit Sphere
Misal B adalah definit positif dengan nilai
eigen 𝜆1 ≥ 𝜆2 ≥ ... ≥ 𝜆 𝑝 ≥ 0 dan
berasosiasi denganvektor eigen e1, e2, ...,
ep , maka :
max
𝑥≠0
𝐱′𝐁𝐱
𝐱′𝐱
= 𝜆1 (dicapai ketika x = e1 )
max
𝑥≠0
𝐱′𝐁𝐱
𝐱′𝐱
= 𝜆 𝑝 (dicapai ketika x = ep )
max
x ⊥𝐞 𝟏
,𝐞 𝟐
,...,𝐞 𝐩
𝐱′𝐁𝐱
𝐱′𝐱
= 𝜆 𝑘+1 (dicapai ketika x = ek+1
, k = 1,2,...,p-1 )
35
Klik disini
Mau tahu lebih banyak tentang
pertidaksamaan matriks dan maksimisasi? 
3
36CONTOH SOAL
Cari nilai dan vektor eigen dari matriks A =
2,2 0,4
0,4 2,8
Penyelesaian:
𝐀 − 𝜆𝐈=
2,2 0,4
0,4 2,8
− 𝜆
1 0
0 1
=
2,2 − 𝜆 0,4
0,4 2,8 − 𝜆
𝜆𝐈 − 𝐀 = 𝜆 𝟐
− 5𝜆 + 6
Didapat 𝜆 = 3 dan 𝜆 = 2
NILAI DAN VEKTOR EIGEN
3
37CONTOH SOAL
Untuk 𝜆 = 3, maka
𝐀𝐱 = 𝜆𝐱
2,2 0,4
0,4 2,8
𝑥1
𝑥2
= 3
𝑥1
𝑥2
setelah ini dapat dijabarkan seperti persamaan linier biasa, didapat bahwa 𝑥2 = 2𝑥1
misalkan 𝑥1 = 𝑡 maka 𝑥2 = 2𝑡 sehingga vektor yang bersesuaian adalah 𝑡
1
2
, jadi vektor eigen dari 𝜆 = 3
adalah
1
2
Untuk 𝜆 = 2, maka
𝐀𝐱 = 𝜆𝐱
2,2 0,4
0,4 2,8
𝑥1
𝑥2
= 2
𝑥1
𝑥2
setelah ini dapat dijabarkan seperti persamaan linier biasa, didapat bahwa 2𝑥2 =
−𝑥1 misalkan 𝑥1 = 2𝑡 maka 𝑥2 = −𝑡 sehingga vektor yang bersesuaian adalah 𝑡
2
−1
, jadi vektor eigen dari
𝜆 = 2 adalah
2
−1
NILAI DAN VEKTOR EIGEN
Klik disiniMau latihan soal lebih banyak? 
3

More Related Content

What's hot

Analisis Faktor (2.1)
Analisis Faktor (2.1)Analisis Faktor (2.1)
Analisis Faktor (2.1)Rani Nooraeni
 
APG Pertemuan 5 : Inferensia Vektor Rata-rata 1 Populasi
APG Pertemuan 5 : Inferensia Vektor Rata-rata 1 PopulasiAPG Pertemuan 5 : Inferensia Vektor Rata-rata 1 Populasi
APG Pertemuan 5 : Inferensia Vektor Rata-rata 1 PopulasiRani Nooraeni
 
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rataAPG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rataRani Nooraeni
 
APG Pertemuan 6 : Inferensia Dua Vektor Rata-rata
APG Pertemuan 6 : Inferensia Dua Vektor Rata-rataAPG Pertemuan 6 : Inferensia Dua Vektor Rata-rata
APG Pertemuan 6 : Inferensia Dua Vektor Rata-rataRani Nooraeni
 
APG Pertemuan 7 : Manova
APG Pertemuan 7 : ManovaAPG Pertemuan 7 : Manova
APG Pertemuan 7 : ManovaRani Nooraeni
 
Analisis Korelasi Kanonik (1)
Analisis Korelasi Kanonik (1)Analisis Korelasi Kanonik (1)
Analisis Korelasi Kanonik (1)Rani Nooraeni
 
Analisis Faktor (2.2)
Analisis Faktor (2.2)Analisis Faktor (2.2)
Analisis Faktor (2.2)Rani Nooraeni
 
Analisis Korelasi Kanonik (2)
Analisis Korelasi Kanonik (2)Analisis Korelasi Kanonik (2)
Analisis Korelasi Kanonik (2)Rani Nooraeni
 
Analisis Klaster (1)
Analisis Klaster (1)Analisis Klaster (1)
Analisis Klaster (1)Rani Nooraeni
 
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)Rani Nooraeni
 
APG Pertemuan 5 : Inferensia Vektor Rata-rata
APG Pertemuan 5 : Inferensia Vektor Rata-rataAPG Pertemuan 5 : Inferensia Vektor Rata-rata
APG Pertemuan 5 : Inferensia Vektor Rata-rataRani Nooraeni
 
Analisis statistika-multivariate
Analisis statistika-multivariateAnalisis statistika-multivariate
Analisis statistika-multivariateGantyo Suhartono
 
APG Pertemuan 6 : Mean Vectors From Two Populations
APG Pertemuan 6 : Mean Vectors From Two PopulationsAPG Pertemuan 6 : Mean Vectors From Two Populations
APG Pertemuan 6 : Mean Vectors From Two PopulationsRani Nooraeni
 
APG Pertemuan 1 dan 2 (2)
APG Pertemuan 1 dan 2 (2)APG Pertemuan 1 dan 2 (2)
APG Pertemuan 1 dan 2 (2)Rani Nooraeni
 
Analisis Diskriminan (2)
Analisis Diskriminan (2)Analisis Diskriminan (2)
Analisis Diskriminan (2)Rani Nooraeni
 
Analisis Klaster (2)
Analisis Klaster (2)Analisis Klaster (2)
Analisis Klaster (2)Rani Nooraeni
 
Analisis Diskriminan (1)
Analisis Diskriminan (1)Analisis Diskriminan (1)
Analisis Diskriminan (1)Rani Nooraeni
 

What's hot (20)

Analisis Faktor (2.1)
Analisis Faktor (2.1)Analisis Faktor (2.1)
Analisis Faktor (2.1)
 
APG Pertemuan 5 : Inferensia Vektor Rata-rata 1 Populasi
APG Pertemuan 5 : Inferensia Vektor Rata-rata 1 PopulasiAPG Pertemuan 5 : Inferensia Vektor Rata-rata 1 Populasi
APG Pertemuan 5 : Inferensia Vektor Rata-rata 1 Populasi
 
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rataAPG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
 
APG Pertemuan 6 : Inferensia Dua Vektor Rata-rata
APG Pertemuan 6 : Inferensia Dua Vektor Rata-rataAPG Pertemuan 6 : Inferensia Dua Vektor Rata-rata
APG Pertemuan 6 : Inferensia Dua Vektor Rata-rata
 
APG Pertemuan 7 : Manova
APG Pertemuan 7 : ManovaAPG Pertemuan 7 : Manova
APG Pertemuan 7 : Manova
 
Analisis Korelasi Kanonik (1)
Analisis Korelasi Kanonik (1)Analisis Korelasi Kanonik (1)
Analisis Korelasi Kanonik (1)
 
Analisis Faktor (2.2)
Analisis Faktor (2.2)Analisis Faktor (2.2)
Analisis Faktor (2.2)
 
Analisis Korelasi Kanonik (2)
Analisis Korelasi Kanonik (2)Analisis Korelasi Kanonik (2)
Analisis Korelasi Kanonik (2)
 
Analisis Klaster (1)
Analisis Klaster (1)Analisis Klaster (1)
Analisis Klaster (1)
 
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
APG Pertemuan 3 : Sample Geometry and Random Sampling (1)
 
APG Pertemuan 5 : Inferensia Vektor Rata-rata
APG Pertemuan 5 : Inferensia Vektor Rata-rataAPG Pertemuan 5 : Inferensia Vektor Rata-rata
APG Pertemuan 5 : Inferensia Vektor Rata-rata
 
Analisis statistika-multivariate
Analisis statistika-multivariateAnalisis statistika-multivariate
Analisis statistika-multivariate
 
APG Pertemuan 6 : Mean Vectors From Two Populations
APG Pertemuan 6 : Mean Vectors From Two PopulationsAPG Pertemuan 6 : Mean Vectors From Two Populations
APG Pertemuan 6 : Mean Vectors From Two Populations
 
APG Pertemuan 1 dan 2 (2)
APG Pertemuan 1 dan 2 (2)APG Pertemuan 1 dan 2 (2)
APG Pertemuan 1 dan 2 (2)
 
Analisis Diskriminan (2)
Analisis Diskriminan (2)Analisis Diskriminan (2)
Analisis Diskriminan (2)
 
Analisis Klaster (2)
Analisis Klaster (2)Analisis Klaster (2)
Analisis Klaster (2)
 
Analisis Diskriminan (1)
Analisis Diskriminan (1)Analisis Diskriminan (1)
Analisis Diskriminan (1)
 
VARIABEL RANDOM & DISTRIBUSI PELUANG
VARIABEL RANDOM & DISTRIBUSI PELUANGVARIABEL RANDOM & DISTRIBUSI PELUANG
VARIABEL RANDOM & DISTRIBUSI PELUANG
 
Rumus Analisis Regresi
Rumus Analisis RegresiRumus Analisis Regresi
Rumus Analisis Regresi
 
proses poisson
proses poissonproses poisson
proses poisson
 

Similar to APG Pertemuan 1-2 (1)

Pert 2 matriks & vektor
Pert 2 matriks & vektorPert 2 matriks & vektor
Pert 2 matriks & vektorIrene Novita
 
PERTEMUAN-PERTAMA-MATRIKS.pptx
PERTEMUAN-PERTAMA-MATRIKS.pptxPERTEMUAN-PERTAMA-MATRIKS.pptx
PERTEMUAN-PERTAMA-MATRIKS.pptxFitriYuliana13
 
BAB II - OPERASI MATRIKS.pptx
BAB II - OPERASI MATRIKS.pptxBAB II - OPERASI MATRIKS.pptx
BAB II - OPERASI MATRIKS.pptxsoegihbgt
 
Linear Algebra - Determinants and Eigenvalues
Linear Algebra - Determinants and EigenvaluesLinear Algebra - Determinants and Eigenvalues
Linear Algebra - Determinants and EigenvaluesDiponegoro University
 
Vektor , matminat kelas 10
Vektor , matminat kelas 10Vektor , matminat kelas 10
Vektor , matminat kelas 10ElisabethYesi
 
Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)rizka_safa
 
Matriks, relasi dan fungsi
Matriks, relasi dan fungsi Matriks, relasi dan fungsi
Matriks, relasi dan fungsi Aisyah Turidho
 
Distribusi Normal Matematika Peminatan Kelas XII Program MIPA
Distribusi Normal Matematika Peminatan Kelas XII Program MIPADistribusi Normal Matematika Peminatan Kelas XII Program MIPA
Distribusi Normal Matematika Peminatan Kelas XII Program MIPAMuhammad Arif
 
Matrix (Alin 1.3 1.5, 1.7)
Matrix (Alin 1.3 1.5, 1.7)Matrix (Alin 1.3 1.5, 1.7)
Matrix (Alin 1.3 1.5, 1.7)satriahelmy
 
Alin 1.3 1.5, 1.7
Alin 1.3 1.5, 1.7Alin 1.3 1.5, 1.7
Alin 1.3 1.5, 1.7satriahelmy
 
Ppt klmpk 6 alj liner
Ppt klmpk 6 alj linerPpt klmpk 6 alj liner
Ppt klmpk 6 alj linerFela Aziiza
 
RPP SMA Matematika Peminatan Kelas XII
RPP SMA Matematika Peminatan Kelas XIIRPP SMA Matematika Peminatan Kelas XII
RPP SMA Matematika Peminatan Kelas XIIDiva Pendidikan
 

Similar to APG Pertemuan 1-2 (1) (20)

1.4 Perkalian Silang
1.4 Perkalian Silang1.4 Perkalian Silang
1.4 Perkalian Silang
 
Matriks dan determinan
Matriks dan determinanMatriks dan determinan
Matriks dan determinan
 
Matriks dan determinan
Matriks dan determinanMatriks dan determinan
Matriks dan determinan
 
Matriks dan determinan
Matriks dan determinanMatriks dan determinan
Matriks dan determinan
 
Pert 2 matriks & vektor
Pert 2 matriks & vektorPert 2 matriks & vektor
Pert 2 matriks & vektor
 
MATRIKS.pptx
MATRIKS.pptxMATRIKS.pptx
MATRIKS.pptx
 
PERTEMUAN-PERTAMA-MATRIKS.pptx
PERTEMUAN-PERTAMA-MATRIKS.pptxPERTEMUAN-PERTAMA-MATRIKS.pptx
PERTEMUAN-PERTAMA-MATRIKS.pptx
 
BAB II - OPERASI MATRIKS.pptx
BAB II - OPERASI MATRIKS.pptxBAB II - OPERASI MATRIKS.pptx
BAB II - OPERASI MATRIKS.pptx
 
Linear Algebra - Determinants and Eigenvalues
Linear Algebra - Determinants and EigenvaluesLinear Algebra - Determinants and Eigenvalues
Linear Algebra - Determinants and Eigenvalues
 
Vektor , matminat kelas 10
Vektor , matminat kelas 10Vektor , matminat kelas 10
Vektor , matminat kelas 10
 
Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)Konsep distribusi peluang_kontinu(9)
Konsep distribusi peluang_kontinu(9)
 
Matriks, relasi dan fungsi
Matriks, relasi dan fungsi Matriks, relasi dan fungsi
Matriks, relasi dan fungsi
 
Distribusi Normal Matematika Peminatan Kelas XII Program MIPA
Distribusi Normal Matematika Peminatan Kelas XII Program MIPADistribusi Normal Matematika Peminatan Kelas XII Program MIPA
Distribusi Normal Matematika Peminatan Kelas XII Program MIPA
 
Matrix (Alin 1.3 1.5, 1.7)
Matrix (Alin 1.3 1.5, 1.7)Matrix (Alin 1.3 1.5, 1.7)
Matrix (Alin 1.3 1.5, 1.7)
 
Alin 1.3 1.5, 1.7
Alin 1.3 1.5, 1.7Alin 1.3 1.5, 1.7
Alin 1.3 1.5, 1.7
 
Ppt klmpk 6 alj liner
Ppt klmpk 6 alj linerPpt klmpk 6 alj liner
Ppt klmpk 6 alj liner
 
RPP SMA Matematika Peminatan Kelas XII
RPP SMA Matematika Peminatan Kelas XIIRPP SMA Matematika Peminatan Kelas XII
RPP SMA Matematika Peminatan Kelas XII
 
determinan.pptx
determinan.pptxdeterminan.pptx
determinan.pptx
 
Menentukan generalized invers Mariks 3 x 3
Menentukan generalized invers Mariks 3 x 3Menentukan generalized invers Mariks 3 x 3
Menentukan generalized invers Mariks 3 x 3
 
Matriks Kelas X
Matriks Kelas XMatriks Kelas X
Matriks Kelas X
 

APG Pertemuan 1-2 (1)

  • 2. Pengertian APG dan alasan penggunaan APG 3 2OUTLINE Kegunaan APG Klasifikasi APG
  • 3. Analisis peubah ganda (multivariate) adalah analisis statistik dari sekumpulan data pada lebih dari satu variabel. • Menggambarkan suatu objek tidak cukup menggunakan satu peubah saja • Kasus pengamatanpeubah ganda dijumpaidi seluruh bidang terapan • Perlu analisis lebih canggih jika antar peubah tidak saling bebas & 3 3 Pengertian APG Alasan Penggunaannya
  • 4. 3 4 • Reduksi data. Mereduksi variabelyang banyak menjadi sedikit tanpa merubahinformasi yang dibutuhkan. • Pengelompokan/klasifikasi,mengelompokkanatau mengklasifikasikanobjek dalam kelompok–kelompok. • Menyelidikihubungan/keterkaitanantar variabel • Prediksi • Membentuk dan menguji hipotesis
  • 5. 3 5 Klasifikasi ini dibuat berdasarkantiga karakteristik data yang diamati: Apakah variabel dapat dibagi ke dalam kelompok variabel tak bebas dan variabel bebas [menurut teori]? • Teknik Interdepensi • Teknik Dependensi Jika ya, berapa banyak variabel yang digunakan sebagai var. tak bebas? • Satu • Lebih dari satu Bagaimana variabel - variabel tsb diukur? • Metric • Non Metric
  • 6. 3 6 • Teknik dependensidapat didefinisikansebagai variabelmana saja yang merupakan penjelas dan yang mana yang dijelaskan • Sedangkan teknik interdependensi tidak ada satu variabelatau sekelompok variabelyang didefniskansbg variabelbebas atau tak bebas (hnaya var X atau Y saja),variabeldi dalam gugus data dilibatkan secara simultan
  • 8. 3 8 Ilustrasi pengukurankarakteristik atau variabel(biasadisebut data)dapat ditampilkan dalam berbagai cara: • Tabel • Matirks • Grafik, plot data • Verbal
  • 9. 3 9 Suatu kumpulan data dapat disusun menjadi sebuah matriks. X = 𝑥11 ⋯ 𝑥1𝑝 ⋮ ⋱ ⋮ 𝑥 𝑛1 ⋯ 𝑥 𝑛𝑝 , dimana n = banyaknya observasi p = banyaknyavariabel Contoh : Diketahui : Variabel 1 (penjualan (dollar)) : 42 52 48 58 Variabel 2 (jumlah buku) : 4 5 4 3 Maka data array tersebut dapat disusun menjadi matriks berikut. X = 42 52 48 4 5 4 58 3
  • 10. 3 10 Statistik deskriptifmeliputipenghitungan: • Sample Mean: 𝑥 𝑘 = 1 𝑛 𝑗=1 𝑛 𝑥𝑗𝑘 • Sample Variance: 𝑠 𝑘 2 = 𝑠 𝑘𝑘 = 1 𝑛 𝑗=1 𝑛 (𝑥𝑗𝑘 − 𝑥 𝑘)2 • Sample Covariance: 𝑠𝑖𝑘 = 1 𝑛 𝑗=1 𝑛 (𝑥𝑗𝑖 − 𝑥𝑖)(𝑥𝑗𝑘 − 𝑥 𝑘) • Sample Variance-CovariansMatrix: 𝐒 𝑛 = 𝑠11 𝑠12 𝑠21 𝑠22 ⋯ 𝑠1𝑝 ⋯ 𝑠2𝑝 ⋮ ⋮ 𝑠 𝑝1 𝑠 𝑝2 ⋱ ⋮ ⋯ 𝑠 𝑝𝑝 • Sample Correlation: 𝑟𝑖𝑘 = 𝑠 𝑖𝑘 𝑠 𝑖𝑖 𝑠 𝑘𝑘 = 𝑗=1 𝑛 (𝑥 𝑗𝑖− 𝑥𝑖)(𝑥 𝑗𝑘− 𝑥 𝑘) 𝑗=1 𝑛 (𝑥 𝑗𝑘− 𝑥 𝑘)2 𝑗=1 𝑛 (𝑥 𝑗𝑘− 𝑥 𝑘)2 • Sample CorrelationMatrix: 𝐑 = 1 𝑟12 𝑟21 1 ⋯ 𝑟1𝑝 ⋯ 𝑟2𝑝 ⋮ ⋮ 𝑟𝑝1 𝑟𝑝2 ⋱ ⋮ ⋯ 1
  • 11. 3 11 Scatter Plot Box Plot Stem and Leaf
  • 13. 3 Ukuran jarak harus memenuhisyarat berikut: d(P,Q) = d(Q, P) d(P,Q) > 0 if P ≠ Q d(P,Q) = 0 if P = Q d(P,Q) ≤ d(P,O) + d(O,Q) (ketidaksamaansegitiga) P OQ 𝑥2 𝑥1 𝑑 𝑂, 𝑃 = 𝑥1 2 + 𝑥2 2 13 Klik disiniMau latihan soal bab ini? 
  • 16. 3 • Vektor adalah suatu susunan bilanganriil 𝑥1, 𝑥2, … , 𝑥 𝑛, dan dituliskan dalam bentuk berikut: 𝐱 = 𝑥1 𝑥2 ⋮ 𝑥 𝑛 • Nama vector dituliskan dengan huruf kecil tebal. • Vektor dapat dikalikan dengan bilangansaklar 𝑐𝐱 = 𝑐𝑥1 𝑐𝑥2 ⋮ 𝑐𝑥 𝑛 • Dua vektor dapat dijumlahkan. Penjumlahan 𝐱 dan 𝐲 didefinisikan: 𝐱 + 𝐲 = 𝑥1 𝑥2 ⋮ 𝑥 𝑛 + 𝑦1 𝑦2 ⋮ 𝑦 𝑛 = 𝑥1 + 𝑦1 𝑥2 + 𝑦2 ⋮ 𝑥 𝑛 + 𝑦 𝑛 16
  • 17. 3 • Vektor memiliki panjang dan arah. Panjang vektor berdimensi n didefinisikan sebagai: 𝐿 𝐱 = 𝑥1 2 + 𝑥2 2 + ⋯ + 𝑥 𝑛 2 • Perkalian dengan bilangan skalar c akan mengubah panjang vektor 𝐱 𝐿 𝐱 = 𝑐2 𝑥1 2 + 𝑐2 𝑥2 2 + ⋯ + 𝑐2 𝑥 𝑛 2 = 𝑐 𝑥1 2 + 𝑥2 2 + ⋯ + 𝑥 𝑛 2 = 𝑐 𝐿 𝐱 • Vektor x akan diperpanjangjika 𝑐 > 1 dan diperpendek jika 0 < 𝑐 < 1, akan berubah arah jika nilai c negatif. • Jika 𝒆 = 𝒙 𝐿 𝒙 Maka, 𝒆 disebut sebagai vector normal dari x, dan panjang vector 𝒆 selalu bernilai 1. • Dua buah vector x dan y dikatakan ortogonal satu sama lain jika x’y = 0 17
  • 18. 3 Misalkan terdapat dua vektor pada bidang datar dan 𝜃 adalah sudut di antara kedua vektor tersebut. Maka sudut 𝜃 di antara vektor 𝐱′= 𝑥1, 𝑥2 dan 𝐲′ = 𝑦1, 𝑦2 ialah cos 𝜃 = 𝑥1 𝑦1 + 𝑥2 𝑦2 𝐿 𝐱 𝐿 𝒚 Untuk 𝑛 = 2 dimensi, perkalian 𝐱 dan 𝐲: 𝐱′ 𝐲 = 𝑥1 𝑦1 + 𝑥2 𝑦2 Maka: 𝐿 𝐱 = 𝐱′ 𝐱 cos 𝜃 = 𝐱′ 𝐲 𝐿 𝐱 𝐿 𝒚 = 𝐱′ 𝐲 𝐱′ 𝐱 𝐲′ 𝐲 x y 18
  • 19. 3 • Vektor y = a1x1 + a2x2 + ... + akxk merupakan kombinasi linier darivektor-vektor x1, x2, ..., xk . • Himpunan kombinasi linier dari x1, x2, ..., xk, disebut dengan rentanglinier. • Himpunan vektor 𝐱1, 𝐱2, … , 𝐱 𝑘 dikatakan tidakbebaslinier(linearlydependent) jika terdapat bilanganskalar 𝑎1, 𝑎2, … 𝑐 𝑘 yang tidak semuanya bernilai nol 𝑎1 𝐱1 + 𝑎2 𝐱2 + ⋯ + 𝑎 𝑘 𝐱 𝑘 = 𝟎 Jika tidak, maka vektor dikatakan bebas linier(linearlyindependent). 19
  • 20. 3 Proyeksi vektor 𝐱 pada 𝐲 adalah: 𝐱′ 𝐲 𝐲′ 𝐲 𝐲 = (𝐱′ 𝐲) 𝐿 𝒚 1 𝐿 𝒚 𝐲 Panjang proyeksi vektor 𝐱 pada 𝐲: 𝐱′ 𝐲 𝐿 𝒚 = 𝐿 𝒙 𝐱′ 𝐲 𝐿 𝒙 𝐿 𝒚 = 𝐿 𝒙 cos(𝜃) dengan 𝜃 adalahsudut antara 𝐱 dan 𝐲 x y 𝐱′ 𝐲 𝐲′ 𝐲 𝐲 20
  • 21. 3 • Matriks adalah susunanbilanganyang dinyatakandalam baris dan kolom. Bentuk matriks berukuran n × p adalah sebagai berikut 𝐀(𝑛×𝑝) = 𝑎11 𝑎12 ⋯ 𝑎1𝑝 𝑎21 𝑎22 ⋮ ⋮ ⋯ ⋱ 𝑎2𝑝 ⋮ 𝑎 𝑛1 𝑎 𝑛2 ⋯ 𝑎 𝑛𝑝 • Nama matriks dituliskan dengan huruf kapital tebal. • Operasi transpos pada matriks mengubah kolom menjadi baris dan baris menjadi kolom • Dua matriks A dan B dapat dijumlahkan atau dikurangkan jika memiliki dimensi yang sama. • Matriks dapat dikali dengan bilangan skalar c 𝑐𝐀(𝑛×𝑝) = 𝑐𝑎11 𝑐𝑎12 ⋯ 𝑐𝑎1𝑝 𝑐𝑎21 𝑐𝑎22 ⋮ ⋮ ⋯ ⋱ 𝑐𝑎2𝑝 ⋮ 𝑐𝑎 𝑛1 𝑐𝑎 𝑛2 ⋯ 𝑐𝑎 𝑛𝑝 • Dua matriks A (n × k) dan B (k × p) dapat dikalikan jika jumlah baris matriks A sama dengan jumlah kolom matriks B sehingga terbentuk matriks AB (n × p) • Matriks persegi dikatakan simetris jika 𝐀 = 𝐀′ atau 𝑎𝑖𝑗 = 𝑎𝑗𝑖 untuk semua i dan j • Jika matriks I (k × k) adalah matriks identitas, yaitu matriks yang diagonal utamanya bernilai 1 dan elemen lainnya bernilai 0, maka 𝐈𝐀 = 𝐀𝐈 = 𝐈 untuk setiap matriks A (k × k) • Matriks B (k × k) dikatakan invers dari matriks A (k × k) jika: 𝐁𝐀 = 𝐀𝐁 = 𝐈 21
  • 22. 3 Untuk semua matriks A, B, dan C (dengan dimensi yang sama) dan skalar c dan d, berikut merupakan sifat-sifat matriks: • (A + B) + C = A + (B + C) • A + B = B + A • c(A + B) = cA + cB • (c + d)A = cA + dA • (A + B)’ = A’ + B’ • (cd)A = c(dA) • (cA)’ = c A’ • c(AB) = (cA)B • A(BC) = (AB)C • A (B+C) = AB+AC • (B+C)A = BA+CA • (AB)’ = B’ A’ • AB ≠ BA 𝑗=1 𝑛 𝐀𝐱𝒋 = 𝐀 𝑗=1 𝑛 𝐱𝒋 𝑗=1 𝑛 (𝐀𝐱𝒋)(𝐀𝐱𝒋)′ = 𝐀 𝒋=𝟏 𝒏 𝐱𝒋 𝐱 𝒋 ′ 𝐀′ Determinan dari matriks A k x k = {aij}, dilambangkan dengan |A|, merupakan skalar. Jika matriks k x k adalah matriks identitas (I), maka |I| = 1. 22
  • 23. 3 • Matriks A memiliki invers jika kolom 𝐚1, 𝐚2, … , 𝐚 𝑘 bebas linier.Sehingga 𝐀−1 sama dengan: 𝑐1 𝐚1 + 𝑐2 𝐚2 + ⋯ + 𝑐 𝑘 𝐚 𝑘 = 0 hanya jika 𝑐1 = ⋯ = 𝑐 𝑘 = 0 • Matriks orthogonalditunjukkan dengan: 𝐐𝐐′ = 𝐐′ 𝐐 = 𝐈 atau 𝐐′ = 𝐐−𝟏 • Matriks persegi 𝐀 dikatakan memiliki nilai eigen 𝜆, dengan vektor eigen 𝐱 ≠ 0 yang bersesuaian,jika: 𝐀𝐱 = λ𝐱 • Umumnya, vektor eigen x dinormalisasisehingga1 = 𝐱′ 𝐱. Vektor eigen yang dinormalisasi dinotasikandengan 𝒆. 23
  • 24. 3 • Matriks simetris 𝐀 berukurank × k dikatakan definit positif jika: 0 < 𝐱′ 𝐀𝐱 untuk semua vektor 𝐱 ≠ 𝟎 • Ekspansi dari matriks simetris disebut dekomposisi spektral. Dekomposisi spektral dari 𝐀: 𝐀 = 𝜆1 𝐞1 𝐞′1 + 𝝀2 𝐞2 𝐞′2 + ⋯ + 𝜆 𝑘 𝐞 𝑘 𝐞′ 𝑘 Menggunakan dekomposisi spektral, dapat ditunjukkan bahwa matriks simetris 𝐀 berukuran k × k merupakan matriks definit positif jika dan hanya jika semua nilai eigen 𝐀 positif. 24 Klik disiniMau tahu lebih banyak tentang matiks definit positif? 
  • 25. 3 • Dekomposisispectral dimanfaatkan untuk menghitunginvers matriks persegi 𝐀 = 𝒊=𝟏 𝒌 𝜆𝒊 𝐞𝒊 𝐞′𝒊 = 𝐏𝚲𝐏′ dengan 𝐏𝐏′ = 𝐏′ 𝐏 = 𝐈 dan 𝚲 adalahmatriks diagonal 𝚲(𝑘×𝑘) = 𝜆1 0 ⋯ 0 0 𝜆2 ⋮ ⋮ ⋯ ⋱ 0 ⋮ 0 0 ⋯ 𝜆 𝑘 Sehingga: 𝐀−1 = 𝐏𝚲−1 𝐏′ = 𝒊=𝟏 𝒌 𝟏 𝝀𝒊 𝐞𝒊 𝐞′𝒊 • Selanjutnya, 𝚲−𝟏 menunjukkanmatriks diagonaldengan 𝜆𝑖 sebagai elemen diagonalke-i. Matriks 𝑖=1 𝑘 𝜆𝑖 𝐞𝑖 𝐞′𝑖 = 𝐏𝚲1/2 𝐏′ disebut akar kuadrat dari 𝐀 dan dilambangkandengan 𝐀1/2. 25
  • 26. 3 Matriks akar kuadrat dari matriks definit positif 𝐀, 𝐀1/2 = 𝑖=1 𝑘 𝜆𝑖 𝐞𝑖 𝐞′𝑖 = 𝐏𝚲1/2 𝐏′ memiliki sifat: 1. 𝐀1/2 ′ = 𝐀1/2 (sehingga 𝐀1/2 simetris) 2. 𝐀1/2 𝐀1/2 = 𝐀 3. 𝐀1/2 −1 = 𝒊=𝟏 𝒌 𝟏 𝝀 𝒊 𝐞𝒊 𝐞′𝒊 = 𝐏𝚲−1/2 𝐏′ , dimana 𝚲−1/2 adalah diagonalmatriks dengan 1/ 𝜆𝑖 sebagai elemen diagonal ke-i 4. 𝐀1/2 𝐀−1/2 = 𝐀−1/2 𝐀1/2 = 𝐈 dan 𝐀−1/2 𝐀−1/2 = 𝐀−1, dimana 𝐀−1/2 = 𝐀−1/2 −1 26
  • 27. 3 • Randomvector adalahvektor yang elemennya berupa random variable, sedangkanrandom matrix adalah matriks yang elemennya berupa random variabel. • Misalkan X dan Y merupakan random matriks yang mempunyai dimensisama, kemudian A dan B merupakan konstanta matriks maka : E(X+Y)= E(X) + E(Y) E(AXB)=A E(X) B 27
  • 28. 3 • X’ = [X1 , X2 ,..., XP] merupakan random vector ukuran p×1, dimana masing-masing elemen dari X merupakan variabelacak. • Rata-rata dan kovariansdari vektor acak X ukuran p×1 dapat dinyatakan dalam matriks sebagai berikut. E(X) = 𝐸(𝑋1) 𝐸(𝑋2) ⋮ 𝐸(𝑋 𝑝) = 𝜇1 𝜇2 ⋮ 𝜇 𝑝 = µ = E (X-µ)(X-µ)’ = Cov (X) = 𝜎11 𝜎21 ⋮ 𝜎 𝑝1 𝜎12 𝜎22 ⋮ 𝜎 𝑝2 ⋯ ⋯ ⋱ ⋯ 𝜎1𝑝 𝜎2𝑝 ⋮ 𝜎 𝑝𝑝 28
  • 29. 3 Koefisien korelasi populasi (𝜌𝑖𝑘) digunakan untuk menghitunghubungan atau asosiasilinier diantara variabelacak 𝑋𝑖 dan 𝑋 𝑘 𝜌𝑖𝑘 = 𝜎𝑖𝑘 𝜎 𝑖𝑖 𝜎 𝑘𝑘 𝜌 = 𝜎11 𝜎11 𝜎11 𝜎12 𝜎11 𝜎22 ⋮ 𝜎1𝑝 𝜎11 𝜎 𝑝𝑝 𝜎12 𝜎11 𝜎22 𝜎22 𝜎22 𝜎22 ⋮ 𝜎2𝑝 𝜎22 𝜎 𝑝𝑝 ⋯ ⋯ ⋱ ⋯ 𝜎1𝑝 𝜎11 𝜎 𝑝𝑝 𝜎2𝑝 𝜎22 𝜎 𝑝𝑝 ⋮ 𝜎 𝑝𝑝 𝜎 𝑝𝑝 𝜎 𝑝𝑝 = 1 𝜌12 ⋮ 𝜌1𝑝 𝜌12 1 ⋮ 𝜌2𝑝 ⋯ ⋯ ⋱ ⋯ 𝜌1𝑝 𝜌2𝑝 ⋮ 1 Sedangkan standar deviasi dari matriks p×p sebagai berikut. 𝑽1/2 = 𝜎11 0 ⋮ 0 0 𝜎22 ⋮ 0 ⋯ ⋯ ⋱ ⋯ 0 0 ⋮ 𝜎 𝑝𝑝 = 𝑽1/2 𝜌 𝑽1/2 𝜌 = (𝑽 1 2)−1 (𝑽 1 2)−1 29
  • 30. 3 X = 𝑋1 ⋮ 𝑋 𝑞 ⋯ 𝑋 𝑞+1 ⋮ 𝑋 𝑝 = 𝐗(1) ⋯ 𝐗(2) , dan µ = E(X) = µ1 ⋮ µ 𝑞 ⋯ µ 𝑞+1 ⋮ µ 𝑝 = µ(𝟏) ⋯ µ(𝟐) 12 = E(𝐗(1) − µ 𝟏 )(𝐗 2 − µ 𝟐 )′ = 𝜎1,𝑞+1 𝜎2,𝑞+1 ⋮ 𝜎 𝑞,𝑞+1 𝜎1,𝑞+2 𝜎2,𝑞+2 ⋮ 𝜎 𝑞,𝑞+2 ⋯ ⋯ ⋱ ⋯ 𝜎1𝑝 𝜎2𝑝 ⋮ 𝜎 𝑞𝑝 (𝑝×𝑝) = 𝚺 𝟏𝟏 𝚺 𝟏𝟐 𝚺 𝟐𝟏 𝚺 𝟐𝟐 Catatan : 𝚺 𝟏𝟐 =𝚺′ 𝟐𝟏 Kovarians dari 𝐗(1) = 𝚺 𝟏𝟏 , kovarians 𝐗(2)= 𝚺 𝟐𝟐 , sedangkan kovarians untuk 𝐗(1) dan 𝐗(2) adalah 𝚺 𝟏𝟐 (atau 𝚺 𝟐𝟏) 30
  • 31. 3 E (𝑎𝑿 𝟏+𝑏𝑿2) = 𝑎 𝐸(𝑿1) + 𝑏 𝐸(𝑿2) = 𝑎𝜇1+𝑏𝜇2 Var (𝑎𝑿 𝟏+𝑏𝑿2) = 𝑎2 𝜎11+ 𝑏2 𝜎22+2𝑎𝑏𝜎12 Apabila c’ = 𝑎, 𝑏 , µ=E(X) dan = 𝐶𝑜𝑣 𝑿 , maka E (c’X) = c’µ Var (𝑎𝑿 𝟏+𝑏𝑿2) = Var (c’X) = c’ 𝒄 Umumnya, terdapat q kombinasi linier dari p variabel acak X1, ..., Xp Z = 𝑍1 𝑍2 ⋮ 𝑍 𝑝 = 𝑐11 𝑐21 ⋮ 𝑐 𝑞1 𝑐12 𝑐22 ⋮ 𝑐 𝑞2 ⋯ ⋯ ⋱ ⋯ 𝑐1𝑝 𝑐2𝑝 ⋮ 𝑐 𝑞𝑝 𝑋1 𝑋2 ⋮ 𝑋 𝑝 = CX 𝜇 𝑍 = E (Z) = E(CX) = C𝝁 𝑿 𝒁 = Cov (Z) = Cov (Cx) = C 𝑿 𝑪′ 31
  • 32. 3 Apabila 𝐱′ = 𝒙 𝟏, 𝒙 𝟐, … , 𝒙 𝒑 merupakan vektor sampel rata-rata dari n-observasi dari p-variabel X1, ..., Xp maka: 𝐱 = 𝒙1 ⋮ 𝒙 𝑞 ⋯ 𝒙 𝑞+1 ⋮ 𝒙 𝑝 = 𝐱(1) ⋯ 𝐱(2) S21 = 𝑆 𝑞+1,1 ⋯ 𝑆 𝑞+1,𝑞 ⋮ ⋱ ⋮ 𝑆 𝑝,1 ⋯ 𝑆 𝑝,𝑞 𝑆(𝑝×𝑝) = 𝐒 𝟏𝟏 𝐒 𝟏𝟐 𝐒 𝟐𝟏 𝐒 𝟐𝟐 Sampel kovarians dari 𝐱 (1) = 𝐒 𝟏𝟏 , kovarians 𝐱 (2) = 𝐒 𝟐𝟐 , sedangkan kovarians untuk 𝐱 (1) dan 𝐱 (2) adalah 𝐒 𝟏𝟐 (atau 𝐒 𝟐𝟏). 32
  • 33. 3 Apabila 𝐱′ = 𝒙 𝟏, 𝒙 𝟐, … , 𝒙 𝒑 merupakan vektor sampel rata-rata dari n-observasi dari p-variabel X1, ..., Xp maka: 𝐱 = 𝒙1 ⋮ 𝒙 𝑞 ⋯ 𝒙 𝑞+1 ⋮ 𝒙 𝑝 = 𝐱(1) ⋯ 𝐱(2) S21 = 𝑆 𝑞+1,1 ⋯ 𝑆 𝑞+1,𝑞 ⋮ ⋱ ⋮ 𝑆 𝑝,1 ⋯ 𝑆 𝑝,𝑞 𝑆(𝑝×𝑝) = 𝐒 𝟏𝟏 𝐒 𝟏𝟐 𝐒 𝟐𝟏 𝐒 𝟐𝟐 Sampel kovarians dari 𝐱 (1) = 𝐒 𝟏𝟏 , kovarians 𝐱 (2) = 𝐒 𝟐𝟐 , sedangkan kovarians untuk 𝐱 (1) dan 𝐱 (2) adalah 𝐒 𝟏𝟐 (atau 𝐒 𝟐𝟏). 33 Klik disiniMau tahu lebih banyak tentang Vektor Rata-rata dan Matriks Kovarians? 
  • 34. 3 A. Cauchy-Schwarz Inequality Misalkan b dan d merupakan dua vektor yang berukuran p×1, maka : (b’d)2 ≤ (b’b) (d’d) Jika dan hanya jika b = cd ( atau d = cb) untuk c konstan. B. Entended Cauchy-Schwarz Inequality Misalkan b dan d merupakandua vektor yang berukuran p×1, dan B(p×p) merupakan matriks definit positif maka : (b’d)2 ≤ (b’B b) (d’ B-1 d) Jika dan hanya jika b = c B-1 d ( atau d = c B b) untuk c konstan. 34
  • 35. 3 C. MaximizationLemma Misal B adalah definit positif, d merupakan vektor berukuran p×1, dan x merupakan sembarangvektor bukan nol, maka : max 𝑥≠0 (𝐱′ 𝐝)2 𝐱′𝐁𝐱 = d’ B-1 d Dengan mencapai maksimum ketika x = c B-1 d untuk konstan c ≠0 D. Maximizationof Quadratic Forms for Points on the Unit Sphere Misal B adalah definit positif dengan nilai eigen 𝜆1 ≥ 𝜆2 ≥ ... ≥ 𝜆 𝑝 ≥ 0 dan berasosiasi denganvektor eigen e1, e2, ..., ep , maka : max 𝑥≠0 𝐱′𝐁𝐱 𝐱′𝐱 = 𝜆1 (dicapai ketika x = e1 ) max 𝑥≠0 𝐱′𝐁𝐱 𝐱′𝐱 = 𝜆 𝑝 (dicapai ketika x = ep ) max x ⊥𝐞 𝟏 ,𝐞 𝟐 ,...,𝐞 𝐩 𝐱′𝐁𝐱 𝐱′𝐱 = 𝜆 𝑘+1 (dicapai ketika x = ek+1 , k = 1,2,...,p-1 ) 35 Klik disini Mau tahu lebih banyak tentang pertidaksamaan matriks dan maksimisasi? 
  • 36. 3 36CONTOH SOAL Cari nilai dan vektor eigen dari matriks A = 2,2 0,4 0,4 2,8 Penyelesaian: 𝐀 − 𝜆𝐈= 2,2 0,4 0,4 2,8 − 𝜆 1 0 0 1 = 2,2 − 𝜆 0,4 0,4 2,8 − 𝜆 𝜆𝐈 − 𝐀 = 𝜆 𝟐 − 5𝜆 + 6 Didapat 𝜆 = 3 dan 𝜆 = 2 NILAI DAN VEKTOR EIGEN
  • 37. 3 37CONTOH SOAL Untuk 𝜆 = 3, maka 𝐀𝐱 = 𝜆𝐱 2,2 0,4 0,4 2,8 𝑥1 𝑥2 = 3 𝑥1 𝑥2 setelah ini dapat dijabarkan seperti persamaan linier biasa, didapat bahwa 𝑥2 = 2𝑥1 misalkan 𝑥1 = 𝑡 maka 𝑥2 = 2𝑡 sehingga vektor yang bersesuaian adalah 𝑡 1 2 , jadi vektor eigen dari 𝜆 = 3 adalah 1 2 Untuk 𝜆 = 2, maka 𝐀𝐱 = 𝜆𝐱 2,2 0,4 0,4 2,8 𝑥1 𝑥2 = 2 𝑥1 𝑥2 setelah ini dapat dijabarkan seperti persamaan linier biasa, didapat bahwa 2𝑥2 = −𝑥1 misalkan 𝑥1 = 2𝑡 maka 𝑥2 = −𝑡 sehingga vektor yang bersesuaian adalah 𝑡 2 −1 , jadi vektor eigen dari 𝜆 = 2 adalah 2 −1 NILAI DAN VEKTOR EIGEN Klik disiniMau latihan soal lebih banyak? 
  • 38. 3