3. Metode untuk mengekstrasi hubungan asosiatif
atau korelasi yang menarik antar item
Association Rule*
* Dikenal juga sebagai metode Market Basket Analysis
5. HUBUNGAN ASOSIATIF ANTAR ITEM
if then
if antecedent then consequent
Artinya:
1. Ada hubungan asosiatif antara roti dengan selai.
2. Jika seseorang membeli roti maka dia berkemungkinan juga sebesar n% untuk membeli selai dalam satu pembelian
7. Rasio antara jumlah transaksi yang memuat
antecedent dan consequent terhadap jumlah
transaksi.
Nilai Support*
* Jumlah kemunculan item pada suatu himpunan transaksi biasa disebut support count
8. RUMUS NILAI SUPPORT
𝑺 =
∑(𝑻𝒂 + 𝑻𝒄)
∑(𝑻)
Keterangan:
• 𝑺 : Support
• ∑(𝑻𝒂 + 𝑻𝒄) : Jumlah transaksi yang mengandung antecedent dan consequent
• ∑(𝑻) : Jumlah transaksi
9. T1
T2
SUPPORT COUNT
ITEM SC
A 1
B 2
C 2
D 1
HIMPUNAN TRANSAKSI
NILAI SUPPORT
ITEM SC
if A then B,C 0.5 (50%)
if B then C 1 (100%)
if B then C,A 0.5 (50%)
10. Rasio antara jumlah transaksi yang memuat
antecedent dan consequent terhadap jumlah
transaksi yang meliputi semua item dalam
antecedent
Nilai Confidence*
* Semakin tinggi nilai confidence maka hubungan asosiasi makin akurat
11. RUMUS NILAI CONFIDENCE
𝑺 =
∑(𝑻𝒂 + 𝑻𝒄)
∑(𝑻𝒂)
Keterangan:
• 𝑺 : Support
• ∑(𝑻𝒂 + 𝑻𝒄) : Jumlah transaksi yang mengandung antecedent dan consequent
• ∑(𝑻𝒂) : Jumlah transaksi yang mengandung antecedent
15. Mengembangkan frequent itemset*
dan memangkas item yang tingkat
frekuensinya di bawah minimum
support (Support >= Minimal Support).
IDE APRIORI
* Dihitung berdasarkan support count (kemunculan) himpunan item
25. L1
Catatan:
1. C2 adalah hasil dari L1 join L1
2. L2 adalah itemset C2 yang memenuhi aturan minimum support
26. Langkah 4:
Generate frequent pattern 3-itemset. Lakukan
untuk n-itemset sampai itemset tidak dapat
terbentuk kembali.
27. Catatan:
1. Algoritma apriori mulai berjalan di langkah ini
2. Join step: {{I1, I2, I3}, {I1, I2, I5}, {I1, I3, I5}, {I2, I3, I4}, {I2, I3, I5}, {I2, I4, I5}}
3. {I1, I3, I5}, {I2, I3, I4}, {I2, I3, I5}, {I2, I4, I5} tidak dijadikan itemset karena ada subset dari set tersebut
yang tidak memenuhi minimum support (prune)
28. Langkah 5:
Bentuk Association Rule dari frequent itemset
yang sudah dibentuk. Rule yang nilai
confidencenya lebih dari minimum confidence
akan digunakan (Strong Association Rule).
33. Mengembangkan FP-Tree* dan
Conditional FP-Tree sebagai
pengganti Frequent Itemset.
IDE FP-GROWTH
* Hal ini dilakukan agar tidak terjadi query terlalu sering ke data transaksi ketika membentuk
Frequent Itemset
38. Catatan:
Pada iterasi pertama ini, semua itemset memenuhi aturan minimum supportnya sehingga semua item
menjadi kandidat.
39. Langkah 3:
Urutkan tabel transaksi berdasarkan frequent
1-itemset yang sudah diurutkan support
count-nya secara descending.
40. Sort menurut support count (Descending):
𝐿 = { 𝐼2: 7 , 𝐼1: 6 , 𝐼3: 6 , 𝐼4: 2 , 𝐼5: 2 }
TID List of
Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
Catatan:
Apabila ada dua item atau lebih yang memiliki support count yang sama maka urutan didasarkan pada item
mana yang ada di transaksi yang lebih awal muncul (T1 terjadi lebih dahulu dibanding T2).
42. TID List of
Items
T1 I2, I1, I5
T2 I2, I4
T3 I2, I3
T4 I2, I1, I4
T5 I1, I3
T6 I2, I3
T7 I1, I3
T8 I2, I1, I3, I5
T9 I2, I1, I3
null
I2:1
I1:1
I5:1
Catatan:
null akan menjadi root dan child
dari root dipilih berdasarkan
scan List of Items
58. Langkah 6:
Bentuk Conditional FP-Tree dimulai dari
item dengan support count terendah ke
item dengan support count tertinggi
(gunakan konsep minimum support).
68. Setelah Strong Association Rule
terbentuk maka langkah
selanjutnya adalah
merepresentasikan pengetahuan.
69. Bentuk representasi pengetahuan
didasarkan pada tujuan data
mining* yang dideskripsikan
berdasarkan kebutuhan pengguna.
* Ingat kembali CRISP DM atau metodologi Data Science lainnya
70. CONTOH REPRESENTASI PENGETAHUAN
No. Strong Association Rule Representasi Pengetahuan
1 if {I1,I5} then {I2} Item I1, I2, dan I5 harus ditempatkan
pada rak yang berdekatan/pada satu
lorong rak
2 if {I3} then {I1,I2} Item I3, I1, dan I2 harus ditempatkan
pada rak yang berdekatan/pada satu
lorong rak
.. .. ..
Tujuan Data Mining:
Penempatan item yang memiliki hubungan asosiatif harus ditempatkan
berdekatan agar keuntungan lebih optimal