Las implicancias del memorándum de entendimiento entre Codelco y SQM según la...
Penerapan rantai markov terkonfirmasi positif covid 19 di jabar
1. Penerapan Model Stokastik Rantai Markov Pada
Data Banyaknya Orang Terkonfirmasi Positif
COVID-19 Di Jawa Barat
Disusun Oleh:
Ayun Sri Rahmani :140220200503
Tubagus Robbi Megantara :140110170056
PROGRAM STUDI MAGISTER MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS PADJAJARAN
SUMEDANG
2021
2. Des 2019:
-COVID-19
-Wuhan Tingkok
-Kelelawar
1 Maret 2020:
Kasus Pertama
Depok, Jabar,
di Indonesia
2 Maret 2020:
-COVID-19
ditetapkan Pandemi
oleh WHO
31 Maret 2020:
PSBB
New Normal
14 Jan 2021:
Vaksin Pertama
Latar Belakang Masalah
3. Batasan masalah dalam penelitian ini, yaitu:
1. Data diambil dari website http://psikobar.jabarprove.go.id
2. Data tempat yang di ambil
Jawa Barat dari 14 Januari – 15 Maret 2021, 14 Januari
pertamakali vaksinasi.
3. Banyaknya Pengamatan
Sebanyak 130.686 positif terinfeksi
4. Menggunakan aplikasi Ms. Exel dan aplikasi R
Batasan Masalah
4. Banyaknya orang yang Terkonfirmasi positif COVID-
19 di Jawa Barat
Setiap hari selama 3 bulan.
(14 Januari-15 Maret 2021)
Ruang
Keadaan
Diskrit
Ruang
Parameter
Diskrit
Rencana Data
6. • Dilakukan dengan cara membaca dan
memahami jurnal terkait COVID-19
Studi
Literatur
• Dilakukan dengan menggunakan rantai
Markov untuk data COVID-19 terkonfirmasi
positif.
Rantai Markov
Studi
Eksperimen
Metode Penelitian
8. Rantai Markov
Digunakan untuk memprediksi peluang kejadian di masa
yang akan datang berdasarkan satu keadaan sebelumnya.
Proses rantai markov terdapat 3 langkah utama, yaitu:
1. Menyusun matriks probabilitas transisi;
2. Menghitung probabilitas suatu kejadian di waktu yang
akan datang;
3. Menentukan steady state.
9. Rantai Markov
Definisi. Rantai Markov adalah proses stokastik
𝑋 𝑛 , 𝑛 = 0,1,2, . .
dengan ruang keadaan 𝑖 = 0,1,2 … yang memenuhi
𝑃 𝑋 𝑛 + 1 = 𝑗 | 𝑋 0 = 𝑖0, 𝑋 1 = 𝑖1, … , 𝑋 𝑛 − 1 = 𝑖𝑛−1, 𝑋 𝑛 = 𝑖
= 𝑃 { 𝑋 𝑛 + 1 = 1,2, . . 𝑗 | 𝑋(𝑛) = 𝑖 } = 𝑝𝑖𝑗 (2.1)
Untuk setiap 𝑖0, 𝑖1, … , 𝑖𝑛−1, 𝑖, 𝑗, 𝑛 dan 𝑝𝑖𝑗 adalah peluang transisis
(Osaki, 1992)
10. Penentuan Keadaan Rantai Markov
1. Penentuan Keadaan Rantai Markov untuk 2 keadaan.
Berdasarkan rata-rata keseluruhan dengan data hari ke -n
Misal: 𝑥𝑛 ∶ data ke 𝑛
ҧ
𝑥 ∶ rata-rata data keseluruhan
Jika 𝑥𝑛 < ҧ
𝑥, 𝑥𝑛 dinyatakan dengan keadaan 0.
Jika 𝑥𝑛 ≥ ҧ
𝑥, 𝑥𝑛 dinyatakan dengan keadaan 1.
2. Penentuan Keadaan Rantai Markov untuk 3 keadaan.
Berdasarkan rata-rata keseluruhan dengan data hari ke –n dan SD
Misal: 𝑥𝑛 ∶ data ke 𝑛
ҧ
𝑥 ∶ rata-rata data keseluruhan
SD : standar deviasi
Jika 𝑥𝑛 < ҧ
𝑥 − 𝑆𝐷, 𝑥𝑛 dinyatakan dengan keadaan 0.
Jika ҧ
𝑥 − 𝑆𝐷 ≤ 𝑥𝑛 ≥ ҧ
𝑥 + 𝑆𝐷, 𝑥𝑛 dinyatakan dengan keadaan 1.
Jika 𝑥𝑛 > ҧ
𝑥 + 𝑆𝐷, 𝑥𝑛 dinyatakan dengan keadaan 2.
12. Keadaan yang Saling Berkomunikasi
Definisi (Osaki, 1972: 112)
Keadaan 𝑗 dikatakan accessible (dapat dicapai) dari keadaan 𝑖, dinotasikan dengan
𝑖 → 𝑗, jika terdapat bilangan bulat positif 𝑛 sehingga 𝑝𝑖𝑗
𝑛
> 0.
Definisi (Osaki, 1972: 112)
Jika terdapat bilangan bulat positif 𝑚 dan 𝑛 sedemikian sehingga 𝑝𝑖𝑗
𝑚
> 0 dan 𝑝𝑗𝑖
𝑛
>
0, maka keadaan 𝑖 dan keadaan 𝑗 disebut dua keadaan yang saling berkomunikasi.
Dengan kata lain, jika keadaan 𝑗 accessible dari keadaan 𝑖 dan keadaan 𝑖 accessible
dari keadaan 𝑗, maka keadaan 𝑖 dan keadaan 𝑗 disebut keadaan yang saling
berkomunikasi, dinotasikan dengan 𝑖 ↔ 𝑗.
13. Distribusi n Langkah
Melalui Peluang awal (distribusi awal 𝜋0) dan peluang transisi (peluang transisi
matrik 𝑃 ) dapat dihitung peluang gabungan.
Misal:
𝜋𝑗 𝑛 = 𝑃 𝑋 𝑛 = 𝑗 =
𝑖=0
∞
𝑃 𝑋 𝑛 = 𝑗|𝑋 0 = 𝑖 𝑃 𝑋 0 = 𝑖
=
𝑖=0
∞
𝜋𝑖(0)𝑝𝑖𝑗
𝑛
, 𝑗 = 0,1,2, …
merupakan peluang proses keadaan 𝑖 pada waktu 𝑛.
Misal 𝜋 𝑛 = 𝜋0 𝑛 , 𝜋1 𝑛 , … merupakan distribusi 𝑛 langkah, maka
σ𝑗=0
∞
𝜋𝑗 𝑛 = 1 sehingga
𝜋 𝑛 = 𝜋 0 𝑃𝑛
(2.10)
(Osaki,1992)
14. Menentukan Steady State
Dalam kebanyakan kasus, analisis Rantai Markov akan menuju suatu
kondisi keseimbangan (Steady State) yaitu suatu kondisi di mana setelah proses
Rantai Markov berjalan selama beberapa periode, maka akan diperoleh nilai
probabilitas suatu state akan bernilai tetap.
Suatu Analisis Rantai Markov dapat saja tidak mencapai kondisi
keseimbangan (Steady State).
16. Minimal :660 Orang
Mean :2.142 Orang
Maksimal :4.601 Orang
SD :1.137 Orang
BanyaknyaOrangTerinfeksi
PositifCOVID-19 JawaBarat
0
500
1000
1500
2000
2500
3000
3500
4000
4500
5000
14-Jan-21
16-Jan-21
18-Jan-21
20-Jan-21
22-Jan-21
24-Jan-21
26-Jan-21
28-Jan-21
30-Jan-21
1-Feb-21
3-Feb-21
5-Feb-21
7-Feb-21
9-Feb-21
11-Feb-21
13-Feb-21
15-Feb-21
17-Feb-21
19-Feb-21
21-Feb-21
23-Feb-21
25-Feb-21
27-Feb-21
1-Mar-21
3-Mar-21
5-Mar-21
7-Mar-21
9-Mar-21
11-Mar-21
13-Mar-21
15-Mar-21
Orang
17. Menentukan State
Tanggal 14/01/2021 … 9/02/2021 10/02/2021 11/02/2021 12/02/2021 13/02/2021
Kasus 2201 … 775 660 1059 683 1737
Tanggal 14/02/2021 15/02/2021 16/02/2021 17/02/2021 18/02/2021 19/02/2021 20/02/2021
Kasus 882 947 4032 4124 4420 3847 975
Tanggal 21/02/2021 22/02/2021 23/02/2021 24/02/2021 … 14/03/2021 15/03/2021
Kasus 1021 3812 4334 2191 … 1133 1334
Kasus Harian COVID-19
Untuk 2 state
Jumlah keadaan 0 = 38
𝑛1: Jumlah keadaan 1 = 22
Untuk 3 state
𝑛0: Jumlah keadaan 0 = 10
𝑛1: Jumlah keadaan 1 = 38
𝑛2: Jumlah keadaan 2 = 12
33. • Osaki, S.(2012). Applied Stochastic System
Modeling. Springer Science & Business
Media.
Pustaka Acuan
Pustaka Acuan
34. PERTANYAAN
1. Jelaskan definisi Markov chains/Rantai Markov?
Jawab:
Markov chains atau rantai markov adalah suatu proses stokastik untuk
menghitung peluang keadaan sekarang yang hanya dipengaruhi oleh satu
keadaan sebelumnya.
2. Jelaskan apa yang dimaksud dengan keadaan saling berkomunikasi?
Jawab:
Jika terdapat bilangan bulat positif 𝑚 dan 𝑛 sedemikian sehingga 𝑝𝑖𝑗
𝑚
>
0 dan 𝑝𝑗𝑖
𝑛
> 0, maka keadaan 𝑖 dan keadaan 𝑗 disebut dua keadaan yang
saling berkomunikasi.
35. PERTANYAAN
3. Bagaimana cara menentukan distribusi awal 𝜋0?
Jawab:
Distribusi awal ditentukan berdasarkan informasi suatu keadaan yang
diperoleh dalam jangka panjang, namun ditentukan oleh peneliti sesuai
dengan tujuan penelitian dan harus memenuhi distribusi awal keseluruhan
sama dengan satu.
4. Apakah dengan distribusi awal 𝜋0 berbeda, mencapai konvergensi pada
langkah ke 𝑛 yang sama?
Jawab:
Ya, jika dipilih distribusi awal yang berbeda maka suatu rantai Markov
akan memiliki titik konvergen atau steady state yang berbeda berdasarkan
hasil simulasi.