SlideShare a Scribd company logo
1 of 82
Download to read offline
Manajemen
DATA
Adam Mukharil Bachtiar, M.T.
Data Mining Association Rule
Pemahaman Awal Data Mining
apa itu Data Mining?
Ekstraksi pengetahuan yang menarik dalam bentuk
rule, regularities, pola, constraint, dan lain-lain dari data yang
tersimpan dalam sejumlah besar basis data
Gambaran Umum Data Mining
Data mining atau dikenal juga
sebagai KDD (Knowledge
Discovery in Databases)
menggunakan data historical untuk
mengekstraksi pengetahuan
Bagaimana proses untuk
melakukan Data Mining?
Fungsional data mining ada
dua, yaitu fungsi predictive
dan fungsi descriptive
Fungsi Predictive
Memprediksi nilai suatu
atribut berdasarkan
atribut-atribut lainnya
Fungsi Descriptive
Memperoleh pola yang
merangkum relasi pokok
pada data yang digunakan
What is Know Your Customer (KYC)
(https://www.youtube.com/watch?v=vLeC6khWzpM)
Business Analytics: Data Trends Let Businesses
Spot New Opportunities
(https://www.youtube.com/watch?v=HbHTvqZE3D8)
Metode data mining ada
tiga, yaitu Association Rule,
Classification, dan Clustering
Dalam bab ini akan dijelaskan
data mining menggunakan
metode Association Rule
Penjelasan Association Rule
Metode Association Rule
sering juga disebut sebagai
Market Basket Analysis
Association Rule digunakan
untuk mengekstraksi
keterhubungan asosiatif atau
korelasi yang menarik antar item
Gambaran Hubungan Asosiatif Antar Item
if then
Sebagai contoh:
if antecedent then consequent
Artinya:	
1.	Ada	hubungan	asosiatif	antara	roti	dengan	selai.	
2.	Jika	seseorang	membeli	roti	maka	dia	berkemungkinan juga	sebesar	n%	untuk	membeli	selai	dalam	satu	pembelian
Ada dua parameter yang perlu
diketahui pada metode
Association Rule, yaitu nilai
support dan nilai confidence
Nilai support:
Rasio antara jumlah transaksi yang memuat antecedent
dan consequent terhadap jumlah transaksi
Nilai confidence:
Rasio antara jumlah transaksi yang memuat antecedent
dan consequent terhadap jumlah transaksi yang meliputi
semua item dalam antecedent
IF A THEN B,C
Support = 0.5 (50%)
Confidence = 1 (100%)
IF B THEN C
Support = 1 (100%)
Confidence = 1 (100%)
IF B THEN C,A
Support = 0.5 (50%)
Confidence = 0.5 (50%)
Cara menghitung nilai support dan confidence
Terdapat dua transaksi yang terjadi:
Terdapat beberapa algoritma
yang bisa digunakan untuk
association rule di antaranya
algoritma apriori dan FP-Growth
Section 1:
Algoritma Apriori
Ide dasar:
Mengembangkan frequent itemset dan
memangkas item yang tingkat
frekuensinya di bawah minimum support
(Support >= Minimal Support)
Pseudocode algoritma apriori
Bagaimana cara kerjanya?
Contoh Kasus Algoritma Apriori
Terdapat 9 transaksi yang terjadi:
Langkah 1:
Tentukan nilai minimum support dan
minimum confidence
Minimum support:
Menyatakan nilai minimum kemunculan itemset pada
suatu kumpulan transaksi
Minimum confidence:
Menyatakan nilai minimum kepercayaan terhadap rule
yang dihasilkan
Dalam kasus ini, ditentukan
nilai minimum support = 2
(22%) dan minimum
confidence = 70%
Langkah 2:
Generate frequent pattern 1-itemset
Pada iterasi pertama ini, semua itemset memenuhi aturan minimum supportnya
sehingga semua item menjadi kandidat.
Langkah 3:
Generate frequent pattern 2-itemset
1. C2 adalah hasil dari L1 join L1
2. L2 adalah itemset C2 yang memenuhi aturan minimum support
L1
Langkah 4:
Generate frequent pattern 3-itemset.
Lakukan untuk n-itemset apabila masih
mungkin terbentuk itemset.
1. Algoritma apriori mulai berjalan di langkah ini
2. Join step: {{I1, I2, I3}, {I1, I2, I5}, {I1, I3, I5}, {I2, I3, I4}, {I2, I3, I5}, {I2, I4, I5}}
3. {I1, I3, I5}, {I2, I3, I4}, {I2, I3, I5}, {I2, I4, I5} tidak dijadikan itemset karena ada
subset dari set tersebut yang tidak memenuhi minimum support (prune)
Langkah 5:
Bentuk Association Rule dari frequent
itemset yang sudah dibentuk. Rule yang
nilai confidencenya lebih dari minimum
confidence akan digunakan (Strong
Association Rule).
Itemset terpilih:
{{I1}, {I2}, {I3}, {I4}, {I5}, {I1,I2}, {I1,I3}, {I1,I5}, {I2,I3},
{I2,I4}, {I2,I5}, {I1,I2,I3}, {I1,I2,I5}}
Sebagai contoh dipilih
{I1,I2,I5} untuk mencari
Strong Association Rule
{I1,I2,I5} à Subset = {{I1,I2}, {I1,I5}, {I2,I5}, {I1}, {I2}, {I5}}
Minimum confidence: 70%
• IF {I1,I2} THEN {I5} Confidence: sc{I1,I2,I5}/sc {I1,I2} = 2/4 = 50% (Rule Rejected!)
• IF {I1,I5} THEN {I2} Confidence: sc{I1,I2,I5}/sc {I1,I5} = 2/2 = 100%(Rule Selected!)
• IF {I2,I5} THEN {I1} Confidence: sc{I1,I2,I5}/sc {I2,I5} = 2/2 = 100% (Rule Selected!)
• IF {I1} THEN {I2,I5} Confidence: sc{I1,I2,I5}/sc {I1} = 2/6 = 33% (Rule Rejected!)
• IF {I2} THEN {I1,I5} Confidence: sc{I1,I2,I5}/sc {I2} = 2/7 = 29% (Rule Rejected!)
• IF {I5} THEN {I1,I2} Confidence: sc{I1,I2,I5}/sc {I5} = 2/2 = 100% (Rule Selected!)
Setelah Strong Association Rule
terbentuk maka langkah
selanjutnya adalah
merepresentasikan pengetahuan
Bentuk representasi
pengetahuan didasarkan
pada tujuan data mining yang
dideskripsikan berdasarkan
kebutuhan pengguna
Representasi pengetahuan
No. Strong Association Rule Representasi Pengetahuan
1 if {I1,I2} then {I5} Item I1, I2, dan I5 harus ditempatkan
pada rak yang berdekatan/pada satu
lorong rak
2 if {I3} then {I1,I2} Item I3, I1, dan I2 harus ditempatkan
pada rak yang berdekatan/pada satu
lorong rak
.. .. ..
Misalkan tujuan data mining adalah penempatan item yang memiliki hubungan
asosiatif harus ditempatkan berdekatan agar keuntungan lebih optimal
Section 2:
Algoritma FP-Growth
Ide dasar:
Mengembangkan FP-Tree dan
Conditional FP-Tree sebagai pengganti
Frequent Itemset
Bagaimana cara kerjanya?
Langkah 1:
Tentukan nilai minimum support dan
minimum confidence
Dalam kasus ini, ditentukan
nilai minimum support = 2
(22%) dan minimum
confidence = 70%
Langkah 2:
Generate frequent pattern 1-itemset
seperti yang dilakukan pada algoritma
apriori
Langkah 3:
Urutkan tabel transaksi berdasarkan
frequent 1-itemset yang sudah diurutkan
support count-nya secara descending
Apabila ada dua item atau lebih yang memiliki support count yang sama maka urutan didasarkan
pada item mana yang ada di transaksi yang lebih awal muncul (T1 terjadi lebih dahulu dibanding T2)
Sort menurut support count (Descending):
𝐿 = { 𝐼2: 7 , 𝐼1: 6 , 𝐼3: 6 , 𝐼4: 2 , 𝐼5: 2 }
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
Langkah 4:
Bentuk FP-Tree sesuai algoritma FP-Tree
null akan menjadi root dan child dari root dipilih berdasarkan scan List of Items
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:1
I1:1
I5:1
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:2
I1:1
I5:1
I4:1
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:3
I1:1
I5:1
I4:1 I3:1
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:4
I1:2
I5:1
I4:1 I3:1
I4:1
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:4
I1:2
I5:1
I4:1 I3:1
I4:1
I1:1
I3:1
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:5
I1:2
I5:1
I4:1 I3:2
I4:1
I1:1
I3:1
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:5
I1:2
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:6
I1:3
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:1
I5:1
TID List of Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Untuk membantu penelusuran
FP-Tree digunakan nodelink
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Ilustrasi FP-Tree tanpa node-link Ilustrasi FP-Tree dengan node-link
Langkah 5:
Bentuk Conditional Pattern Base dimulai
dari item dengan support count terendah
ke item dengan support count tertinggi
Item Conditional Pattern Base
I5 {I2, I1:1}, {I2, I1, I3:1}
I4
I3
I1
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
I2 tidak diikutsertakan karena prefixnya adalah null (root)
Item Conditional Pattern Base
I5 {I2, I1:1}, {I2, I1, I3:1}
I4 {I2, I1:1}, {I2:1}
I3
I1
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Item Conditional Pattern Base
I5 {I2, I1:1}, {I2, I1, I3:1}
I4 {I2, I1:1}, {I2:1}
I3 {I2, I1, I3:2}, {I2:2}, {I1:2}
I1 {I2:4}
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Item Conditional Pattern Base
I5 {I2, I1:1}, {I2, I1, I3:1}
I4 {I2, I1:1}, {I2:1}
I3 {I2, I1:2}, {I2:2}, {I1:2}
I1
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Langkah 6:
Bentuk Conditional FP-Tree dimulai dari
item dengan support count terendah ke
item dengan support count tertinggi
(gunakan konsep minimum support)
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
null
I2:2
I1:2
I5:1 I3:1
I5:1
Tahap 1: Conditional FP-Tree untuk I5 = {I2:2, I1:2}
Tidak memenuhi
minimum support
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Tahap 2: Conditional FP-Tree untuk I4 = {I2:2}
null
I2:2
I1:1 I4:1
I4:1
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Tahap 3: Conditional FP-Tree untuk I3 = {I2:4, I1:2}, {I1:2}
null
I2:4
I1:2 I3:2
I1:2
I3:2
I3:2
null
I2:7
I1:4
I5:1
I4:1 I3:2
I4:1
I1:2
I3:2
I3:2
I5:1
Tahap 4: Conditional FP-Tree untuk I1 = {I2:4}
null
I2:4
I1:4
Item Conditional Pattern Base Conditional FP-Tree
I5 {I2, I1:1}, {I2, I1, I3:1} {I2:2, I1:2}
I4 {I2, I1:1}, {I2:1} {I2:2}
I3 {I2, I1, I3:2}, {I2:2}, {I1:2} {I2:4, I1:2}, {I1:2}
I1 {I2:4} {I2:4}
Langkah 7:
Bentuk Frequent Patterns dengan cara
menjoinkan set dan subset conditional
FP-Tree dengan item
Item
Conditional
Pattern Base
Conditional
FP-Tree
Frequent Patterns Generated
I5 {I2, I1:1}, {I2, I1, I3:1} {I2:2, I1:2} {I2, I5:2}, {I1, I5:2}, {I2, I1, I5:2}
I4 {I2, I1:1}, {I2:1} {I2:2} {I2, I4:2}
I3 {I2, I1, I3:2}, {I2:2}, {I1:2} {I2:4, I1:2}, {I1:2} {I2, I3:4}, {I1, I3:4}, {I2, I1, I3:2}
I1 {I2:4} {I2:4} {I2, I1:4}
Langkah 8:
Cari Strong Association Rule
berdasarkan Frequent Pattern yang
terbentuk dengan cara yang sama
dengan apriori sampai terbentuk
representasi pengetahuan
Exercise Time
Transaction ID Items
1 Bread, Milk
2 Bread, Diaper, Beer, Eggs
3 Milk, Diaper, Beer, Coke
4 Bread, Milk, Diaper, Beer
5 Bread, Milk, Diaper, Coke
Terdapat 5 transaksi yang terjadi:
Kasus:
1. Tujuan data mining adalah membentuk paket ekonomis dari item yang punya hubungan asosiasi
2. Ditentukan minimum support 2 dan minimum confidence 70%

More Related Content

What's hot

Metode Transportasi (Masalah dalam Metode Transportasi)
Metode Transportasi (Masalah dalam Metode Transportasi)Metode Transportasi (Masalah dalam Metode Transportasi)
Metode Transportasi (Masalah dalam Metode Transportasi)hazhiyah
 
Penerapan decision support system dalam perusahaan
Penerapan decision support system dalam perusahaanPenerapan decision support system dalam perusahaan
Penerapan decision support system dalam perusahaanputrirakhma13
 
K-Means Clustering.ppt
K-Means Clustering.pptK-Means Clustering.ppt
K-Means Clustering.pptAdam Superman
 
Peramalan Forecasting
Peramalan ForecastingPeramalan Forecasting
Peramalan ForecastingINDAHMAWARNI1
 
Konsep Data Mining
Konsep Data MiningKonsep Data Mining
Konsep Data Miningdedidarwis
 
Sistem informasi pemasaran
Sistem informasi pemasaranSistem informasi pemasaran
Sistem informasi pemasaranIndra Diputra
 
NON PROBABILITY SAMPLING
NON PROBABILITY SAMPLINGNON PROBABILITY SAMPLING
NON PROBABILITY SAMPLINGMira Aryuni
 
02. Model, Sistem, dan Konsep Perancangan Sistem
02. Model, Sistem, dan Konsep Perancangan Sistem02. Model, Sistem, dan Konsep Perancangan Sistem
02. Model, Sistem, dan Konsep Perancangan SistemMercu Buana University
 
Pengantar statistika 4
Pengantar statistika 4Pengantar statistika 4
Pengantar statistika 4Az'End Love
 
Contoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus PoissonContoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus PoissonLilies DLiestyowati
 
Tugas simulasi 5211100111
Tugas simulasi 5211100111Tugas simulasi 5211100111
Tugas simulasi 5211100111Aula Ayubi
 
Perbandingan algoritma brute force , divide and conquer
Perbandingan algoritma brute force , divide and conquerPerbandingan algoritma brute force , divide and conquer
Perbandingan algoritma brute force , divide and conquerohohervin
 
Pengukuran Waktu Kerja Dengan Metode Pengukuran Langsung
Pengukuran Waktu Kerja Dengan Metode Pengukuran LangsungPengukuran Waktu Kerja Dengan Metode Pengukuran Langsung
Pengukuran Waktu Kerja Dengan Metode Pengukuran LangsungYesica Adicondro
 
Analisis & interpretasi
Analisis & interpretasiAnalisis & interpretasi
Analisis & interpretasiJoni Iswanto
 

What's hot (20)

Model dan Simulasi
Model dan SimulasiModel dan Simulasi
Model dan Simulasi
 
Metode Transportasi (Masalah dalam Metode Transportasi)
Metode Transportasi (Masalah dalam Metode Transportasi)Metode Transportasi (Masalah dalam Metode Transportasi)
Metode Transportasi (Masalah dalam Metode Transportasi)
 
Penerapan decision support system dalam perusahaan
Penerapan decision support system dalam perusahaanPenerapan decision support system dalam perusahaan
Penerapan decision support system dalam perusahaan
 
Distribusi normal
Distribusi normalDistribusi normal
Distribusi normal
 
K-Means Clustering.ppt
K-Means Clustering.pptK-Means Clustering.ppt
K-Means Clustering.ppt
 
Probabilitas 2
Probabilitas 2Probabilitas 2
Probabilitas 2
 
Peramalan Forecasting
Peramalan ForecastingPeramalan Forecasting
Peramalan Forecasting
 
Konsep Data Mining
Konsep Data MiningKonsep Data Mining
Konsep Data Mining
 
Sistem informasi pemasaran
Sistem informasi pemasaranSistem informasi pemasaran
Sistem informasi pemasaran
 
Konsep dasar probabilitas
Konsep dasar probabilitasKonsep dasar probabilitas
Konsep dasar probabilitas
 
Variabel acak dan nilai harapan (Statistik Ekonomi II)
Variabel acak dan nilai harapan (Statistik Ekonomi II)Variabel acak dan nilai harapan (Statistik Ekonomi II)
Variabel acak dan nilai harapan (Statistik Ekonomi II)
 
NON PROBABILITY SAMPLING
NON PROBABILITY SAMPLINGNON PROBABILITY SAMPLING
NON PROBABILITY SAMPLING
 
02. Model, Sistem, dan Konsep Perancangan Sistem
02. Model, Sistem, dan Konsep Perancangan Sistem02. Model, Sistem, dan Konsep Perancangan Sistem
02. Model, Sistem, dan Konsep Perancangan Sistem
 
Pengantar statistika 4
Pengantar statistika 4Pengantar statistika 4
Pengantar statistika 4
 
Metodologi Penelitian
Metodologi PenelitianMetodologi Penelitian
Metodologi Penelitian
 
Contoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus PoissonContoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus Poisson
 
Tugas simulasi 5211100111
Tugas simulasi 5211100111Tugas simulasi 5211100111
Tugas simulasi 5211100111
 
Perbandingan algoritma brute force , divide and conquer
Perbandingan algoritma brute force , divide and conquerPerbandingan algoritma brute force , divide and conquer
Perbandingan algoritma brute force , divide and conquer
 
Pengukuran Waktu Kerja Dengan Metode Pengukuran Langsung
Pengukuran Waktu Kerja Dengan Metode Pengukuran LangsungPengukuran Waktu Kerja Dengan Metode Pengukuran Langsung
Pengukuran Waktu Kerja Dengan Metode Pengukuran Langsung
 
Analisis & interpretasi
Analisis & interpretasiAnalisis & interpretasi
Analisis & interpretasi
 

Viewers also liked

Data Management (Data Mining Klasifikasi)
Data Management (Data Mining Klasifikasi)Data Management (Data Mining Klasifikasi)
Data Management (Data Mining Klasifikasi)Adam Mukharil Bachtiar
 
Data Management (Introducing of Datawarehouse)
Data Management (Introducing of Datawarehouse)Data Management (Introducing of Datawarehouse)
Data Management (Introducing of Datawarehouse)Adam Mukharil Bachtiar
 
Overview of Data Mining
Overview of Data MiningOverview of Data Mining
Overview of Data MiningBowo Prasetyo
 
Software Engineering 1 (Requirement Engineering)
Software Engineering 1 (Requirement Engineering)Software Engineering 1 (Requirement Engineering)
Software Engineering 1 (Requirement Engineering)Adam Mukharil Bachtiar
 
Contoh Kasus untuk ER dan Relasional Model
Contoh Kasus untuk ER dan Relasional ModelContoh Kasus untuk ER dan Relasional Model
Contoh Kasus untuk ER dan Relasional ModelAdam Mukharil Bachtiar
 
Data Management (Basis Data Berbasis Dokumen)
Data Management (Basis Data Berbasis Dokumen)Data Management (Basis Data Berbasis Dokumen)
Data Management (Basis Data Berbasis Dokumen)Adam Mukharil Bachtiar
 
Pertemuan Lima
Pertemuan LimaPertemuan Lima
Pertemuan Limasitetengku
 
Pertemuan Satu
Pertemuan SatuPertemuan Satu
Pertemuan Satusitetengku
 
Pemantapan Proposal Skripsi Kelompok Keilmuan B
Pemantapan Proposal Skripsi Kelompok Keilmuan BPemantapan Proposal Skripsi Kelompok Keilmuan B
Pemantapan Proposal Skripsi Kelompok Keilmuan BAdam Mukharil Bachtiar
 
E-Business (Introduction of E-Business)
E-Business (Introduction of E-Business)E-Business (Introduction of E-Business)
E-Business (Introduction of E-Business)Adam Mukharil Bachtiar
 
Pertemuan Empat
Pertemuan EmpatPertemuan Empat
Pertemuan Empatsitetengku
 
Data structure
Data structureData structure
Data structuresnaya
 
Data structure
Data structureData structure
Data structureeShikshak
 

Viewers also liked (20)

Data Management (Data Mining Klasifikasi)
Data Management (Data Mining Klasifikasi)Data Management (Data Mining Klasifikasi)
Data Management (Data Mining Klasifikasi)
 
Data Management (Introducing of Datawarehouse)
Data Management (Introducing of Datawarehouse)Data Management (Introducing of Datawarehouse)
Data Management (Introducing of Datawarehouse)
 
Scrum for CodeLabs
Scrum for CodeLabsScrum for CodeLabs
Scrum for CodeLabs
 
Overview of Data Mining
Overview of Data MiningOverview of Data Mining
Overview of Data Mining
 
Software Engineering 1 (Requirement Engineering)
Software Engineering 1 (Requirement Engineering)Software Engineering 1 (Requirement Engineering)
Software Engineering 1 (Requirement Engineering)
 
Contoh Kasus untuk ER dan Relasional Model
Contoh Kasus untuk ER dan Relasional ModelContoh Kasus untuk ER dan Relasional Model
Contoh Kasus untuk ER dan Relasional Model
 
Data Management (Basis Data Berbasis Dokumen)
Data Management (Basis Data Berbasis Dokumen)Data Management (Basis Data Berbasis Dokumen)
Data Management (Basis Data Berbasis Dokumen)
 
Pertemuan Lima
Pertemuan LimaPertemuan Lima
Pertemuan Lima
 
Pertemuan Satu
Pertemuan SatuPertemuan Satu
Pertemuan Satu
 
Pemantapan Proposal Skripsi Kelompok Keilmuan B
Pemantapan Proposal Skripsi Kelompok Keilmuan BPemantapan Proposal Skripsi Kelompok Keilmuan B
Pemantapan Proposal Skripsi Kelompok Keilmuan B
 
Perkembangan database di era globalisasi
Perkembangan database di era globalisasiPerkembangan database di era globalisasi
Perkembangan database di era globalisasi
 
E-Business (Introduction of E-Business)
E-Business (Introduction of E-Business)E-Business (Introduction of E-Business)
E-Business (Introduction of E-Business)
 
Pertemuan Empat
Pertemuan EmpatPertemuan Empat
Pertemuan Empat
 
Desain Basis Data (3)
Desain Basis Data (3)Desain Basis Data (3)
Desain Basis Data (3)
 
Data structure
Data structureData structure
Data structure
 
Data structure
Data structureData structure
Data structure
 
Data Management (Relational Database)
Data Management (Relational Database)Data Management (Relational Database)
Data Management (Relational Database)
 
E-Business (Business Plan)
E-Business (Business Plan)E-Business (Business Plan)
E-Business (Business Plan)
 
Data Structure (Static Array)
Data Structure (Static Array)Data Structure (Static Array)
Data Structure (Static Array)
 
E-Business (Value Chain)
E-Business (Value Chain)E-Business (Value Chain)
E-Business (Value Chain)
 

More from Adam Mukharil Bachtiar

Materi 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdfMateri 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdfAdam Mukharil Bachtiar
 
Clean Code and Design Pattern - Meaningful Names
Clean Code and Design Pattern - Meaningful NamesClean Code and Design Pattern - Meaningful Names
Clean Code and Design Pattern - Meaningful NamesAdam Mukharil Bachtiar
 
Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)Adam Mukharil Bachtiar
 
Analisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic ProgrammingAnalisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic ProgrammingAdam Mukharil Bachtiar
 
Analisis Algoritma - Strategi Algoritma Divide and Conquer
Analisis Algoritma - Strategi Algoritma Divide and ConquerAnalisis Algoritma - Strategi Algoritma Divide and Conquer
Analisis Algoritma - Strategi Algoritma Divide and ConquerAdam Mukharil Bachtiar
 
Analisis Algoritma - Strategi Algoritma Greedy
Analisis Algoritma - Strategi Algoritma GreedyAnalisis Algoritma - Strategi Algoritma Greedy
Analisis Algoritma - Strategi Algoritma GreedyAdam Mukharil Bachtiar
 
Analisis Algoritma - Penerapan Strategi Algoritma Brute Force
Analisis Algoritma - Penerapan Strategi Algoritma Brute ForceAnalisis Algoritma - Penerapan Strategi Algoritma Brute Force
Analisis Algoritma - Penerapan Strategi Algoritma Brute ForceAdam Mukharil Bachtiar
 
Analisis Algoritma - Strategi Algoritma Brute Force
Analisis Algoritma - Strategi Algoritma Brute ForceAnalisis Algoritma - Strategi Algoritma Brute Force
Analisis Algoritma - Strategi Algoritma Brute ForceAdam Mukharil Bachtiar
 
Analisis Algoritma - Kelas-kelas Dasar Efisiensi Algoritma
Analisis Algoritma - Kelas-kelas Dasar Efisiensi AlgoritmaAnalisis Algoritma - Kelas-kelas Dasar Efisiensi Algoritma
Analisis Algoritma - Kelas-kelas Dasar Efisiensi AlgoritmaAdam Mukharil Bachtiar
 
Analisis Algoritma - Teorema Notasi Asimptotik
Analisis Algoritma - Teorema Notasi AsimptotikAnalisis Algoritma - Teorema Notasi Asimptotik
Analisis Algoritma - Teorema Notasi AsimptotikAdam Mukharil Bachtiar
 
Analisis Algoritma - Notasi Asimptotik
Analisis Algoritma - Notasi AsimptotikAnalisis Algoritma - Notasi Asimptotik
Analisis Algoritma - Notasi AsimptotikAdam Mukharil Bachtiar
 

More from Adam Mukharil Bachtiar (20)

Materi 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdfMateri 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdf
 
Clean Code - Formatting Code
Clean Code - Formatting CodeClean Code - Formatting Code
Clean Code - Formatting Code
 
Clean Code - Clean Comments
Clean Code - Clean CommentsClean Code - Clean Comments
Clean Code - Clean Comments
 
Clean Method
Clean MethodClean Method
Clean Method
 
Clean Code and Design Pattern - Meaningful Names
Clean Code and Design Pattern - Meaningful NamesClean Code and Design Pattern - Meaningful Names
Clean Code and Design Pattern - Meaningful Names
 
Model Driven Software Development
Model Driven Software DevelopmentModel Driven Software Development
Model Driven Software Development
 
Scrum: How to Implement
Scrum: How to ImplementScrum: How to Implement
Scrum: How to Implement
 
Pengujian Perangkat Lunak
Pengujian Perangkat LunakPengujian Perangkat Lunak
Pengujian Perangkat Lunak
 
Data Mining Clustering
Data Mining ClusteringData Mining Clustering
Data Mining Clustering
 
Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)
 
Analisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic ProgrammingAnalisis Algoritma - Strategi Algoritma Dynamic Programming
Analisis Algoritma - Strategi Algoritma Dynamic Programming
 
Analisis Algoritma - Strategi Algoritma Divide and Conquer
Analisis Algoritma - Strategi Algoritma Divide and ConquerAnalisis Algoritma - Strategi Algoritma Divide and Conquer
Analisis Algoritma - Strategi Algoritma Divide and Conquer
 
Analisis Algoritma - Strategi Algoritma Greedy
Analisis Algoritma - Strategi Algoritma GreedyAnalisis Algoritma - Strategi Algoritma Greedy
Analisis Algoritma - Strategi Algoritma Greedy
 
Analisis Algoritma - Penerapan Strategi Algoritma Brute Force
Analisis Algoritma - Penerapan Strategi Algoritma Brute ForceAnalisis Algoritma - Penerapan Strategi Algoritma Brute Force
Analisis Algoritma - Penerapan Strategi Algoritma Brute Force
 
Analisis Algoritma - Strategi Algoritma Brute Force
Analisis Algoritma - Strategi Algoritma Brute ForceAnalisis Algoritma - Strategi Algoritma Brute Force
Analisis Algoritma - Strategi Algoritma Brute Force
 
Analisis Algoritma - Kelas-kelas Dasar Efisiensi Algoritma
Analisis Algoritma - Kelas-kelas Dasar Efisiensi AlgoritmaAnalisis Algoritma - Kelas-kelas Dasar Efisiensi Algoritma
Analisis Algoritma - Kelas-kelas Dasar Efisiensi Algoritma
 
Analisis Algoritma - Teorema Notasi Asimptotik
Analisis Algoritma - Teorema Notasi AsimptotikAnalisis Algoritma - Teorema Notasi Asimptotik
Analisis Algoritma - Teorema Notasi Asimptotik
 
Analisis Algoritma - Notasi Asimptotik
Analisis Algoritma - Notasi AsimptotikAnalisis Algoritma - Notasi Asimptotik
Analisis Algoritma - Notasi Asimptotik
 
Activity Diagram
Activity DiagramActivity Diagram
Activity Diagram
 
UML dan Use Case View
UML dan Use Case ViewUML dan Use Case View
UML dan Use Case View
 

Data Management (Data Mining Association Rule)

  • 1. Manajemen DATA Adam Mukharil Bachtiar, M.T. Data Mining Association Rule
  • 3. apa itu Data Mining?
  • 4. Ekstraksi pengetahuan yang menarik dalam bentuk rule, regularities, pola, constraint, dan lain-lain dari data yang tersimpan dalam sejumlah besar basis data
  • 6. Data mining atau dikenal juga sebagai KDD (Knowledge Discovery in Databases) menggunakan data historical untuk mengekstraksi pengetahuan
  • 8.
  • 9. Fungsional data mining ada dua, yaitu fungsi predictive dan fungsi descriptive
  • 10. Fungsi Predictive Memprediksi nilai suatu atribut berdasarkan atribut-atribut lainnya
  • 11. Fungsi Descriptive Memperoleh pola yang merangkum relasi pokok pada data yang digunakan
  • 12. What is Know Your Customer (KYC) (https://www.youtube.com/watch?v=vLeC6khWzpM)
  • 13. Business Analytics: Data Trends Let Businesses Spot New Opportunities (https://www.youtube.com/watch?v=HbHTvqZE3D8)
  • 14. Metode data mining ada tiga, yaitu Association Rule, Classification, dan Clustering
  • 15. Dalam bab ini akan dijelaskan data mining menggunakan metode Association Rule
  • 17. Metode Association Rule sering juga disebut sebagai Market Basket Analysis
  • 18. Association Rule digunakan untuk mengekstraksi keterhubungan asosiatif atau korelasi yang menarik antar item
  • 19.
  • 20. Gambaran Hubungan Asosiatif Antar Item if then Sebagai contoh: if antecedent then consequent Artinya: 1. Ada hubungan asosiatif antara roti dengan selai. 2. Jika seseorang membeli roti maka dia berkemungkinan juga sebesar n% untuk membeli selai dalam satu pembelian
  • 21. Ada dua parameter yang perlu diketahui pada metode Association Rule, yaitu nilai support dan nilai confidence
  • 22. Nilai support: Rasio antara jumlah transaksi yang memuat antecedent dan consequent terhadap jumlah transaksi Nilai confidence: Rasio antara jumlah transaksi yang memuat antecedent dan consequent terhadap jumlah transaksi yang meliputi semua item dalam antecedent
  • 23. IF A THEN B,C Support = 0.5 (50%) Confidence = 1 (100%) IF B THEN C Support = 1 (100%) Confidence = 1 (100%) IF B THEN C,A Support = 0.5 (50%) Confidence = 0.5 (50%) Cara menghitung nilai support dan confidence Terdapat dua transaksi yang terjadi:
  • 24. Terdapat beberapa algoritma yang bisa digunakan untuk association rule di antaranya algoritma apriori dan FP-Growth
  • 26. Ide dasar: Mengembangkan frequent itemset dan memangkas item yang tingkat frekuensinya di bawah minimum support (Support >= Minimal Support)
  • 29. Contoh Kasus Algoritma Apriori Terdapat 9 transaksi yang terjadi:
  • 30. Langkah 1: Tentukan nilai minimum support dan minimum confidence
  • 31. Minimum support: Menyatakan nilai minimum kemunculan itemset pada suatu kumpulan transaksi Minimum confidence: Menyatakan nilai minimum kepercayaan terhadap rule yang dihasilkan
  • 32. Dalam kasus ini, ditentukan nilai minimum support = 2 (22%) dan minimum confidence = 70%
  • 33. Langkah 2: Generate frequent pattern 1-itemset
  • 34. Pada iterasi pertama ini, semua itemset memenuhi aturan minimum supportnya sehingga semua item menjadi kandidat.
  • 35. Langkah 3: Generate frequent pattern 2-itemset
  • 36. 1. C2 adalah hasil dari L1 join L1 2. L2 adalah itemset C2 yang memenuhi aturan minimum support L1
  • 37. Langkah 4: Generate frequent pattern 3-itemset. Lakukan untuk n-itemset apabila masih mungkin terbentuk itemset.
  • 38. 1. Algoritma apriori mulai berjalan di langkah ini 2. Join step: {{I1, I2, I3}, {I1, I2, I5}, {I1, I3, I5}, {I2, I3, I4}, {I2, I3, I5}, {I2, I4, I5}} 3. {I1, I3, I5}, {I2, I3, I4}, {I2, I3, I5}, {I2, I4, I5} tidak dijadikan itemset karena ada subset dari set tersebut yang tidak memenuhi minimum support (prune)
  • 39. Langkah 5: Bentuk Association Rule dari frequent itemset yang sudah dibentuk. Rule yang nilai confidencenya lebih dari minimum confidence akan digunakan (Strong Association Rule).
  • 40. Itemset terpilih: {{I1}, {I2}, {I3}, {I4}, {I5}, {I1,I2}, {I1,I3}, {I1,I5}, {I2,I3}, {I2,I4}, {I2,I5}, {I1,I2,I3}, {I1,I2,I5}}
  • 41. Sebagai contoh dipilih {I1,I2,I5} untuk mencari Strong Association Rule
  • 42. {I1,I2,I5} à Subset = {{I1,I2}, {I1,I5}, {I2,I5}, {I1}, {I2}, {I5}} Minimum confidence: 70% • IF {I1,I2} THEN {I5} Confidence: sc{I1,I2,I5}/sc {I1,I2} = 2/4 = 50% (Rule Rejected!) • IF {I1,I5} THEN {I2} Confidence: sc{I1,I2,I5}/sc {I1,I5} = 2/2 = 100%(Rule Selected!) • IF {I2,I5} THEN {I1} Confidence: sc{I1,I2,I5}/sc {I2,I5} = 2/2 = 100% (Rule Selected!) • IF {I1} THEN {I2,I5} Confidence: sc{I1,I2,I5}/sc {I1} = 2/6 = 33% (Rule Rejected!) • IF {I2} THEN {I1,I5} Confidence: sc{I1,I2,I5}/sc {I2} = 2/7 = 29% (Rule Rejected!) • IF {I5} THEN {I1,I2} Confidence: sc{I1,I2,I5}/sc {I5} = 2/2 = 100% (Rule Selected!)
  • 43. Setelah Strong Association Rule terbentuk maka langkah selanjutnya adalah merepresentasikan pengetahuan
  • 44. Bentuk representasi pengetahuan didasarkan pada tujuan data mining yang dideskripsikan berdasarkan kebutuhan pengguna
  • 45. Representasi pengetahuan No. Strong Association Rule Representasi Pengetahuan 1 if {I1,I2} then {I5} Item I1, I2, dan I5 harus ditempatkan pada rak yang berdekatan/pada satu lorong rak 2 if {I3} then {I1,I2} Item I3, I1, dan I2 harus ditempatkan pada rak yang berdekatan/pada satu lorong rak .. .. .. Misalkan tujuan data mining adalah penempatan item yang memiliki hubungan asosiatif harus ditempatkan berdekatan agar keuntungan lebih optimal
  • 47. Ide dasar: Mengembangkan FP-Tree dan Conditional FP-Tree sebagai pengganti Frequent Itemset
  • 49. Langkah 1: Tentukan nilai minimum support dan minimum confidence
  • 50. Dalam kasus ini, ditentukan nilai minimum support = 2 (22%) dan minimum confidence = 70%
  • 51. Langkah 2: Generate frequent pattern 1-itemset seperti yang dilakukan pada algoritma apriori
  • 52.
  • 53. Langkah 3: Urutkan tabel transaksi berdasarkan frequent 1-itemset yang sudah diurutkan support count-nya secara descending
  • 54. Apabila ada dua item atau lebih yang memiliki support count yang sama maka urutan didasarkan pada item mana yang ada di transaksi yang lebih awal muncul (T1 terjadi lebih dahulu dibanding T2) Sort menurut support count (Descending): 𝐿 = { 𝐼2: 7 , 𝐼1: 6 , 𝐼3: 6 , 𝐼4: 2 , 𝐼5: 2 } TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3
  • 55. Langkah 4: Bentuk FP-Tree sesuai algoritma FP-Tree
  • 56. null akan menjadi root dan child dari root dipilih berdasarkan scan List of Items TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:1 I1:1 I5:1
  • 57. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:2 I1:1 I5:1 I4:1
  • 58. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:3 I1:1 I5:1 I4:1 I3:1
  • 59. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:4 I1:2 I5:1 I4:1 I3:1 I4:1
  • 60. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:4 I1:2 I5:1 I4:1 I3:1 I4:1 I1:1 I3:1
  • 61. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:5 I1:2 I5:1 I4:1 I3:2 I4:1 I1:1 I3:1
  • 62. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:5 I1:2 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2
  • 63. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:6 I1:3 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:1 I5:1
  • 64. TID List of Items T1 I2, I1, I5 T2 I2, I4 T3 I2, I3 T4 I2, I1, I4 T5 I1, I3 T6 I2, I3 T7 I1, I3 T8 I2, I1, I3, I5 T9 I2, I1, I3 null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1
  • 66. null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1 Ilustrasi FP-Tree tanpa node-link Ilustrasi FP-Tree dengan node-link
  • 67. Langkah 5: Bentuk Conditional Pattern Base dimulai dari item dengan support count terendah ke item dengan support count tertinggi
  • 68. Item Conditional Pattern Base I5 {I2, I1:1}, {I2, I1, I3:1} I4 I3 I1 null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1 I2 tidak diikutsertakan karena prefixnya adalah null (root)
  • 69. Item Conditional Pattern Base I5 {I2, I1:1}, {I2, I1, I3:1} I4 {I2, I1:1}, {I2:1} I3 I1 null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1
  • 70. Item Conditional Pattern Base I5 {I2, I1:1}, {I2, I1, I3:1} I4 {I2, I1:1}, {I2:1} I3 {I2, I1, I3:2}, {I2:2}, {I1:2} I1 {I2:4} null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1
  • 71. Item Conditional Pattern Base I5 {I2, I1:1}, {I2, I1, I3:1} I4 {I2, I1:1}, {I2:1} I3 {I2, I1:2}, {I2:2}, {I1:2} I1 null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1
  • 72. Langkah 6: Bentuk Conditional FP-Tree dimulai dari item dengan support count terendah ke item dengan support count tertinggi (gunakan konsep minimum support)
  • 73. null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1 null I2:2 I1:2 I5:1 I3:1 I5:1 Tahap 1: Conditional FP-Tree untuk I5 = {I2:2, I1:2} Tidak memenuhi minimum support
  • 74. null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1 Tahap 2: Conditional FP-Tree untuk I4 = {I2:2} null I2:2 I1:1 I4:1 I4:1
  • 75. null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1 Tahap 3: Conditional FP-Tree untuk I3 = {I2:4, I1:2}, {I1:2} null I2:4 I1:2 I3:2 I1:2 I3:2 I3:2
  • 76. null I2:7 I1:4 I5:1 I4:1 I3:2 I4:1 I1:2 I3:2 I3:2 I5:1 Tahap 4: Conditional FP-Tree untuk I1 = {I2:4} null I2:4 I1:4
  • 77. Item Conditional Pattern Base Conditional FP-Tree I5 {I2, I1:1}, {I2, I1, I3:1} {I2:2, I1:2} I4 {I2, I1:1}, {I2:1} {I2:2} I3 {I2, I1, I3:2}, {I2:2}, {I1:2} {I2:4, I1:2}, {I1:2} I1 {I2:4} {I2:4}
  • 78. Langkah 7: Bentuk Frequent Patterns dengan cara menjoinkan set dan subset conditional FP-Tree dengan item
  • 79. Item Conditional Pattern Base Conditional FP-Tree Frequent Patterns Generated I5 {I2, I1:1}, {I2, I1, I3:1} {I2:2, I1:2} {I2, I5:2}, {I1, I5:2}, {I2, I1, I5:2} I4 {I2, I1:1}, {I2:1} {I2:2} {I2, I4:2} I3 {I2, I1, I3:2}, {I2:2}, {I1:2} {I2:4, I1:2}, {I1:2} {I2, I3:4}, {I1, I3:4}, {I2, I1, I3:2} I1 {I2:4} {I2:4} {I2, I1:4}
  • 80. Langkah 8: Cari Strong Association Rule berdasarkan Frequent Pattern yang terbentuk dengan cara yang sama dengan apriori sampai terbentuk representasi pengetahuan
  • 82. Transaction ID Items 1 Bread, Milk 2 Bread, Diaper, Beer, Eggs 3 Milk, Diaper, Beer, Coke 4 Bread, Milk, Diaper, Beer 5 Bread, Milk, Diaper, Coke Terdapat 5 transaksi yang terjadi: Kasus: 1. Tujuan data mining adalah membentuk paket ekonomis dari item yang punya hubungan asosiasi 2. Ditentukan minimum support 2 dan minimum confidence 70%