SlideShare uma empresa Scribd logo
1 de 27
ANALISIS ASOSIASI
Analisis Asosiasi
• Adalah sebuah metodologi untuk mencari relasi
istimewa/menarik yang tersembunyi dalam himpunan data (data
set) yang besar
• Relasi yang tersembunyi ini dapat direpresentasikan dalam
bentuk aturan asosiasi (association rules) atau himpunan barang
yang seringkali muncul (frequent itemset)
Menambang Aturan Asosiasi
Berdasarkan data set transaki, akan dicari aturan yang dapat
memprediksi kejadian bersama sebuah item, berdasarkan
kejadian bersama dari item-item lainnya dalam transaksi
Market-Basket transactions
TID Items
1 Roti, Susu
2 Roti, Diaper, Bir, Telur
3 Susu, Diaper, Bir, Coke
4 Roti, Susu, Diaper, Bir
5 Roti, Susu, Diaper, Coke
Contoh Aturan Asosiasi
{Diaper}  {Bir},
{Susu, Roti} 
{Telur,Coke},
{Bir, Roti}  {Susu},
Tanda implikasi diatas berarti
kejadian bersama, bukan sebab
akibat!
Beberapa Istilah
• Itemset : Koleksi dari sejumlah
(satu/lebih)item
• Contoh: {Bir} , { Susu,Roti, Diaper}
• k-itemset
• Item set yang terdiri dari k item
• Contoh : 3 – item set = { Susu,Roti, Diaper}
• Support count ()
• Frekuensi terjadinya sebuah itemset
dalam data set
• Contoh : ({Milk, Bread,Diaper}) = 2
TID Items
1 Bread, Milk
2 Bread, Diaper, Beer, Eggs
3 Milk, Diaper, Beer, Coke
4 Bread, Milk, Diaper, Beer
5 Bread, Milk, Diaper, Coke
Support (s)
–Perbandingan
terjadinya sebuah
itemset terhadap
jumlah seluruh
itemset dalam dataset
–E.g. s({Milk, Bread,
Diaper}) = 2/5
Beberapa Istilah (2)
• Frequent Itemset
• Itemset yang nilai
supportnya lebih besar
atau sama dengan ”
minsup threshold”
Support Count
• Associaton Rule
adalah ekspresi implikasi ( X ->Y), dimana X
dan Y adalah itemset yang saling disjoint
contoh : {Milk, Diaper}  {Beer}
TID Items
1 Bread, Milk
2 Bread, Diaper, Beer, Eggs
3 Milk, Diaper, Beer, Coke
4 Bread, Milk, Diaper, Beer
5 Bread, Milk, Diaper, Coke
Parameter Pengevaluasi Aturan
Support (s)
Perbandingan transaksi-
transaksi yang mengandung X
dan Y
Confidence (c)
Menunjukkan kekerapan
munculnya item-item dalam Y
dalam transaksi yang
mengandung X
TID Items
1 Bread, Milk
2 Bread, Diaper, Beer, Eggs
3 Milk, Diaper, Beer, Coke
4 Bread, Milk, Diaper, Beer
5 Bread, Milk, Diaper, Coke
Contoh
Beer
}
Diaper
,
Milk
{ 
4
.
0
5
2
|
T
|
)
Beer
Diaper,
,
Milk
(




s
67
.
0
3
2
)
Diaper
,
Milk
(
)
Beer
Diaper,
Milk,
(





c
Strategi Algoritma Analisis Asosiasi
Ada 2 langkah besar yang diambil, yaitu :
1. Frequent Itemset Generation
– Mengoleksi semua itemset yang memenuhi syarat
support  minsup. Itemset-itemset ini disebut frequent itemset
2. Rule Generation
– Bertujuan membentuk aturan dengan nilai confidence yang tingi dari frequent
itemset yang telah diperoleh sebelumnya. Aturan ini disebut strong rules
Mengenerate frequent itemset merupakan tahapan yang berat dari
sudut pandang komputasi!!!
Frequent Itemset Generation
null
AB AC AD AE BC BD BE CD CE DE
A B C D E
ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE
ABCD ABCE ABDE ACDE BCDE
ABCDE
Ada 2d kandidat
itemsets yang
terbentuk; d= # item
Frequent Itemset Generation
• Brute-force approach:
• Setiap itemset dalam jaring adalah candidate frequent itemset
• Hitung support dari setiap kandidat dengan scanning database
• Bandingkan setiap transaksi terhadap setiap kandidat
• Kompleksitas ~ O(NMw) => Expensive since M = 2d !!!
TID Items
1 Bread, Milk
2 Bread, Diaper, Beer, Eggs
3 Milk, Diaper, Beer, Coke
4 Bread, Milk, Diaper, Beer
5 Bread, Milk, Diaper, Coke
N
Transactions List of
Candidates
M
w
Kompleksitas Komputasional
Jika terdapat d item yang
berbeda, maka:
 Total itemsets = 2d
 Total association rules yang
mungkin :
1
2
3 1
1
1 1














 













 
d
d
d
k
k
d
j
j
k
d
k
d
R
Jika d=6, R = 602 rules
Strategi Pembentukan Frequent Itemset
• Mereduksi jumlah kandidat (M)
• Gunakan prinsip Apriori
• Mereduksi jumlah perbandingan (NM)
• Gunakan struktur data yang efisien untuk menyimpan kandidat atau
transaksi
• Tidak perlu membandingkan semua kandidat terhadap setiap
transaksi
Mereduksi jumlah kandidat (M)
• Prinsip Apriori : Jika sebuah itemset merupakan frequent itemset
maka subsetnya pun merupakan frequent itemset
Contoh : {Susu, Bir, Roti, Diaper} merupakan frequent item set,
maka {Susu},{Roti},{Roti, Diaper}, {Susu,Bir,Roti}, dst juga
merupakan frequent itemset
• Sifat anti-monotone
• spport dari sebuah itemset tidak akan lebih besar dari support subsetnya
)
(
)
(
)
(
:
, Y
s
X
s
Y
X
Y
X 



Mis bukan
frequent
itemset
null
AB AC AD AE BC BD BE CD CE DE
A B C D E
ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE
ABCD ABCE ABDE ACDE BCDE
ABCDE
Ilustrasi Prinsip Apriori
null
AB AC AD AE BC BD BE CD CE DE
A B C D E
ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE
ABCD ABCE ABDE ACDE BCDE
ABCDE
Pruned
supersets
Ilustrasi Prinsip Apriori (2)
Item Count
Bread 4
Coke 2
Milk 4
Beer 3
Diaper 4
Eggs 1
Itemset Count
{Bread,Milk} 3
{Bread,Beer} 2
{Bread,Diaper} 3
{Milk,Beer} 2
{Milk,Diaper} 3
{Beer,Diaper} 3
Itemset Count
{Bread,Milk,Diaper} 3
Items (1-itemsets)
Pairs (2-itemsets)
(No need to generate
candidates involving Coke
or Eggs)
Triplets (3-itemsets)
Minimum Support = 3
If every subset is considered,
6C1 + 6C2 + 6C3 = 41
With support-based pruning,
6 + 6 + 1 = 13
Algoritma Apriori
Misalkan k=1
Bentuk frequent itemsets yang terdiri dari k item
Ulangi hingga tidak ada lagi frequent itemsets yang
baru
Bentuk kandidat itemset dengan panjang (k+1) dari frequent
itemset dengan panjang k
Buang kandidat itemsets yang berisi subset dengan panjang k
yang tidak frequent
Hitung support dari setiap kandidat dengan scannding basisdata
Eliminasi kandidat yang infrequent
Pembentukan Rule (1)
• Misalkan ada frequent itemset L, cari subsets yang
tidak hampa f  L sedemikian sehingga f  L – f
memenuhi nilai minimum confidence
• Mis {A,B,C,D} adalah frequent itemset, maka kandidat
rules:
ABC D, ABD C, ACD B, BCD A,
A BCD, B ACD, C ABD, D ABC
AB CD, AC  BD, AD  BC, BC AD,
BD AC, CD AB,
• Jk |L| = k, maka akan terdapat 2k – 2 kandidat
association rules (tanpa L   and   L)
Pembentukan Rule(2)
 Bagaimana membentuk rules dari frequent itemset
dengan efisien?
Secara umum, confidence tidak bersifat anti-monotone
c(ABC D) dapat lebih besar/kecil c(AB D)
 Tetapi nilai confidence dari rules yg berasal dari itemset yang
sama bersifat anti-monotone
e.g., L = {A,B,C,D}:
c(ABC  D)  c(AB  CD)  c(A  BCD)
Pembentukan Rule Algoritma Apriori
ABCD=>{ }
BCD=>A ACD=>B ABD=>C ABC=>D
BC=>AD
BD=>AC
CD=>AB AD=>BC AC=>BD AB=>CD
D=>ABC C=>ABD B=>ACD A=>BCD
Lattice of rules ABCD=>{ }
BCD=>A ACD=>B ABD=>C ABC=>D
BC=>AD
BD=>AC
CD=>AB AD=>BC AC=>BD AB=>CD
D=>ABC C=>ABD B=>ACD A=>BCD
Prune
d
Rules
Low
Confiden
ce Rule
Pembentukan Rule Algoritma Apriori
• Kandidat rule dibentuk dengan cara menggabungkan
2 rules yang memiliki prefix yang sama sebagai
konsekuennya
• join(CD=>AB,BD=>AC)
sehingga terbentuk
rule D => ABC
• Buang rule D=>ABC jika ia mempunyai
subset AD=>BC dengan nilai confidence
rendah
BD=>AC
CD=>AB
D=>ABC
Contoh :
Gunakan algoritma
apriori untuk
membentuk aturan
analisis asosiasi
pengklasifikasi dari data
pada tabel
Min Support Count=2
Min Confidence= 50%
TID List of item
T100 I1,I2,I5
T200 I2,I4
T300 I2,I3
T400 I1,I2,I4
T500 I1,I3
T600 I2,I3
T700 I1,I3
T800 I1,I2,I3,I5
T900 I1,I2,I3
Algoritma FP-Growth
• Gunakan representasi terkompresi basis data dengan
memanfaatkan FP-tree
• Setelah FP-tree terbentuk, gunakan teknik divide-and-
conquer secara rekursif untuk menambang frequent
itemsets
Pembentukan FP-tree
TID Items
1 {A,B}
2 {B,C,D}
3 {A,C,D,E}
4 {A,D,E}
5 {A,B,C}
6 {A,B,C,D}
7 {B,C}
8 {A,B,C}
9 {A,B,D}
10 {B,C,E}
null
A:1
B:1
null
A:1
B:1
B:1
C:1
D:1
Setelah membaca
TID=1:
Setelah membaca
TID=2:
FP-Tree Construction
null
A:7
B:5
B:3
C:3
D:1
C:1
D:1
C:3
D:1
D:1
E:1
E:1
TID Items
1 {A,B}
2 {B,C,D}
3 {A,C,D,E}
4 {A,D,E}
5 {A,B,C}
6 {A,B,C,D}
7 {B,C}
8 {A,B,C}
9 {A,B,D}
10 {B,C,E}
Pointers digunakan untuk
membantu dalam menentukan
frequent itemset
D:1
E:1
Database
Transaksi
Item Pointer
A
B
C
D
E
Header
table
FP-growth
null
A:7
B:5
B:1
C:1
D:1
C:1
D:1
C:3
D:1
D:1
Conditional Pattern base
untuk D:
P = {(A:1,B:1,C:1),
(A:1,B:1),
(A:1,C:1),
(A:1),
(B:1,C:1)}
Secara rekursif terapkan
proses FP-Growth pada P
Mis minsup=1,maka
Frequent Itemsets yang
diperoleh :
AD, BD, CD, ACD, BCD
D:1
Tree Projection
Set enumeration tree: null
AB AC AD AE BC BD BE CD CE DE
A B C D E
ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE
ABCD ABCE ABDE ACDE BCDE
ABCDE
Possible
Extension: E(A)
= {B,C,D,E}
Possible
Extension:
E(ABC) = {D,E}
Tree Projection
Items disusun berdasarkan lexicographic order
Setiap node P menyimpan informasi sbb:
Itemset untuk node P
Daftar ekstensi P yang mungkin, secara lexicigraphic ; E(P)
Pointer pada projected database dari ancestor node
Bitvector yang memberikan informasi transaksi mana pada
projected database yang mengandung itemset
Projected Database
TID Items
1 {A,B}
2 {B,C,D}
3 {A,C,D,E}
4 {A,D,E}
5 {A,B,C}
6 {A,B,C,D}
7 {B,C}
8 {A,B,C}
9 {A,B,D}
10 {B,C,E}
TID Items
1 {B}
2 {}
3 {C,D,E}
4 {D,E}
5 {B,C}
6 {B,C,D}
7 {}
8 {B,C}
9 {B,D}
10 {}
Database Asli: Projected Database untuk node A:
Untuk setiap transaksi T, projected transaction pada node A adalah T  E(A)

Mais conteúdo relacionado

Semelhante a ANALISIS ASOSISASI

Data Management (Data Mining Association Rule)
Data Management (Data Mining Association Rule)Data Management (Data Mining Association Rule)
Data Management (Data Mining Association Rule)Adam Mukharil Bachtiar
 
Materi 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdfMateri 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdfAdam Mukharil Bachtiar
 
Pengantar statistik
Pengantar statistikPengantar statistik
Pengantar statistikAmrul Rizal
 
Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...
Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...
Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...ferisulianta.com
 
Modul 9 - Association-Rules.pptx
Modul 9 -  Association-Rules.pptxModul 9 -  Association-Rules.pptx
Modul 9 - Association-Rules.pptxMuhamadRivaldi21
 
08 sip datawarehouse
08 sip datawarehouse08 sip datawarehouse
08 sip datawarehouseIkhsan Bz
 
Visualisasi Data Kualitatif dengan Netlytics
Visualisasi Data Kualitatif dengan NetlyticsVisualisasi Data Kualitatif dengan Netlytics
Visualisasi Data Kualitatif dengan NetlyticsHendro Subagyo
 

Semelhante a ANALISIS ASOSISASI (10)

Data Management (Data Mining Association Rule)
Data Management (Data Mining Association Rule)Data Management (Data Mining Association Rule)
Data Management (Data Mining Association Rule)
 
Data warehouse
Data warehouseData warehouse
Data warehouse
 
Materi 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdfMateri 8 - Data Mining Association Rule.pdf
Materi 8 - Data Mining Association Rule.pdf
 
Temu 2 aplikasi_statistik
Temu 2 aplikasi_statistikTemu 2 aplikasi_statistik
Temu 2 aplikasi_statistik
 
Pengantar statistik
Pengantar statistikPengantar statistik
Pengantar statistik
 
Bab1.pptx
Bab1.pptxBab1.pptx
Bab1.pptx
 
Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...
Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...
Penerapan Metode Apriori Untuk Identifikasi Pola Data Transaksi Pada Customer...
 
Modul 9 - Association-Rules.pptx
Modul 9 -  Association-Rules.pptxModul 9 -  Association-Rules.pptx
Modul 9 - Association-Rules.pptx
 
08 sip datawarehouse
08 sip datawarehouse08 sip datawarehouse
08 sip datawarehouse
 
Visualisasi Data Kualitatif dengan Netlytics
Visualisasi Data Kualitatif dengan NetlyticsVisualisasi Data Kualitatif dengan Netlytics
Visualisasi Data Kualitatif dengan Netlytics
 

ANALISIS ASOSISASI

  • 2. Analisis Asosiasi • Adalah sebuah metodologi untuk mencari relasi istimewa/menarik yang tersembunyi dalam himpunan data (data set) yang besar • Relasi yang tersembunyi ini dapat direpresentasikan dalam bentuk aturan asosiasi (association rules) atau himpunan barang yang seringkali muncul (frequent itemset)
  • 3. Menambang Aturan Asosiasi Berdasarkan data set transaki, akan dicari aturan yang dapat memprediksi kejadian bersama sebuah item, berdasarkan kejadian bersama dari item-item lainnya dalam transaksi Market-Basket transactions TID Items 1 Roti, Susu 2 Roti, Diaper, Bir, Telur 3 Susu, Diaper, Bir, Coke 4 Roti, Susu, Diaper, Bir 5 Roti, Susu, Diaper, Coke Contoh Aturan Asosiasi {Diaper}  {Bir}, {Susu, Roti}  {Telur,Coke}, {Bir, Roti}  {Susu}, Tanda implikasi diatas berarti kejadian bersama, bukan sebab akibat!
  • 4. Beberapa Istilah • Itemset : Koleksi dari sejumlah (satu/lebih)item • Contoh: {Bir} , { Susu,Roti, Diaper} • k-itemset • Item set yang terdiri dari k item • Contoh : 3 – item set = { Susu,Roti, Diaper} • Support count () • Frekuensi terjadinya sebuah itemset dalam data set • Contoh : ({Milk, Bread,Diaper}) = 2 TID Items 1 Bread, Milk 2 Bread, Diaper, Beer, Eggs 3 Milk, Diaper, Beer, Coke 4 Bread, Milk, Diaper, Beer 5 Bread, Milk, Diaper, Coke Support (s) –Perbandingan terjadinya sebuah itemset terhadap jumlah seluruh itemset dalam dataset –E.g. s({Milk, Bread, Diaper}) = 2/5
  • 5. Beberapa Istilah (2) • Frequent Itemset • Itemset yang nilai supportnya lebih besar atau sama dengan ” minsup threshold” Support Count • Associaton Rule adalah ekspresi implikasi ( X ->Y), dimana X dan Y adalah itemset yang saling disjoint contoh : {Milk, Diaper}  {Beer} TID Items 1 Bread, Milk 2 Bread, Diaper, Beer, Eggs 3 Milk, Diaper, Beer, Coke 4 Bread, Milk, Diaper, Beer 5 Bread, Milk, Diaper, Coke
  • 6. Parameter Pengevaluasi Aturan Support (s) Perbandingan transaksi- transaksi yang mengandung X dan Y Confidence (c) Menunjukkan kekerapan munculnya item-item dalam Y dalam transaksi yang mengandung X TID Items 1 Bread, Milk 2 Bread, Diaper, Beer, Eggs 3 Milk, Diaper, Beer, Coke 4 Bread, Milk, Diaper, Beer 5 Bread, Milk, Diaper, Coke Contoh Beer } Diaper , Milk {  4 . 0 5 2 | T | ) Beer Diaper, , Milk (     s 67 . 0 3 2 ) Diaper , Milk ( ) Beer Diaper, Milk, (      c
  • 7. Strategi Algoritma Analisis Asosiasi Ada 2 langkah besar yang diambil, yaitu : 1. Frequent Itemset Generation – Mengoleksi semua itemset yang memenuhi syarat support  minsup. Itemset-itemset ini disebut frequent itemset 2. Rule Generation – Bertujuan membentuk aturan dengan nilai confidence yang tingi dari frequent itemset yang telah diperoleh sebelumnya. Aturan ini disebut strong rules Mengenerate frequent itemset merupakan tahapan yang berat dari sudut pandang komputasi!!!
  • 8. Frequent Itemset Generation null AB AC AD AE BC BD BE CD CE DE A B C D E ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE ABCD ABCE ABDE ACDE BCDE ABCDE Ada 2d kandidat itemsets yang terbentuk; d= # item
  • 9. Frequent Itemset Generation • Brute-force approach: • Setiap itemset dalam jaring adalah candidate frequent itemset • Hitung support dari setiap kandidat dengan scanning database • Bandingkan setiap transaksi terhadap setiap kandidat • Kompleksitas ~ O(NMw) => Expensive since M = 2d !!! TID Items 1 Bread, Milk 2 Bread, Diaper, Beer, Eggs 3 Milk, Diaper, Beer, Coke 4 Bread, Milk, Diaper, Beer 5 Bread, Milk, Diaper, Coke N Transactions List of Candidates M w
  • 10. Kompleksitas Komputasional Jika terdapat d item yang berbeda, maka:  Total itemsets = 2d  Total association rules yang mungkin : 1 2 3 1 1 1 1                                d d d k k d j j k d k d R Jika d=6, R = 602 rules
  • 11. Strategi Pembentukan Frequent Itemset • Mereduksi jumlah kandidat (M) • Gunakan prinsip Apriori • Mereduksi jumlah perbandingan (NM) • Gunakan struktur data yang efisien untuk menyimpan kandidat atau transaksi • Tidak perlu membandingkan semua kandidat terhadap setiap transaksi
  • 12. Mereduksi jumlah kandidat (M) • Prinsip Apriori : Jika sebuah itemset merupakan frequent itemset maka subsetnya pun merupakan frequent itemset Contoh : {Susu, Bir, Roti, Diaper} merupakan frequent item set, maka {Susu},{Roti},{Roti, Diaper}, {Susu,Bir,Roti}, dst juga merupakan frequent itemset • Sifat anti-monotone • spport dari sebuah itemset tidak akan lebih besar dari support subsetnya ) ( ) ( ) ( : , Y s X s Y X Y X    
  • 13. Mis bukan frequent itemset null AB AC AD AE BC BD BE CD CE DE A B C D E ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE ABCD ABCE ABDE ACDE BCDE ABCDE Ilustrasi Prinsip Apriori null AB AC AD AE BC BD BE CD CE DE A B C D E ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE ABCD ABCE ABDE ACDE BCDE ABCDE Pruned supersets
  • 14. Ilustrasi Prinsip Apriori (2) Item Count Bread 4 Coke 2 Milk 4 Beer 3 Diaper 4 Eggs 1 Itemset Count {Bread,Milk} 3 {Bread,Beer} 2 {Bread,Diaper} 3 {Milk,Beer} 2 {Milk,Diaper} 3 {Beer,Diaper} 3 Itemset Count {Bread,Milk,Diaper} 3 Items (1-itemsets) Pairs (2-itemsets) (No need to generate candidates involving Coke or Eggs) Triplets (3-itemsets) Minimum Support = 3 If every subset is considered, 6C1 + 6C2 + 6C3 = 41 With support-based pruning, 6 + 6 + 1 = 13
  • 15. Algoritma Apriori Misalkan k=1 Bentuk frequent itemsets yang terdiri dari k item Ulangi hingga tidak ada lagi frequent itemsets yang baru Bentuk kandidat itemset dengan panjang (k+1) dari frequent itemset dengan panjang k Buang kandidat itemsets yang berisi subset dengan panjang k yang tidak frequent Hitung support dari setiap kandidat dengan scannding basisdata Eliminasi kandidat yang infrequent
  • 16. Pembentukan Rule (1) • Misalkan ada frequent itemset L, cari subsets yang tidak hampa f  L sedemikian sehingga f  L – f memenuhi nilai minimum confidence • Mis {A,B,C,D} adalah frequent itemset, maka kandidat rules: ABC D, ABD C, ACD B, BCD A, A BCD, B ACD, C ABD, D ABC AB CD, AC  BD, AD  BC, BC AD, BD AC, CD AB, • Jk |L| = k, maka akan terdapat 2k – 2 kandidat association rules (tanpa L   and   L)
  • 17. Pembentukan Rule(2)  Bagaimana membentuk rules dari frequent itemset dengan efisien? Secara umum, confidence tidak bersifat anti-monotone c(ABC D) dapat lebih besar/kecil c(AB D)  Tetapi nilai confidence dari rules yg berasal dari itemset yang sama bersifat anti-monotone e.g., L = {A,B,C,D}: c(ABC  D)  c(AB  CD)  c(A  BCD)
  • 18. Pembentukan Rule Algoritma Apriori ABCD=>{ } BCD=>A ACD=>B ABD=>C ABC=>D BC=>AD BD=>AC CD=>AB AD=>BC AC=>BD AB=>CD D=>ABC C=>ABD B=>ACD A=>BCD Lattice of rules ABCD=>{ } BCD=>A ACD=>B ABD=>C ABC=>D BC=>AD BD=>AC CD=>AB AD=>BC AC=>BD AB=>CD D=>ABC C=>ABD B=>ACD A=>BCD Prune d Rules Low Confiden ce Rule
  • 19. Pembentukan Rule Algoritma Apriori • Kandidat rule dibentuk dengan cara menggabungkan 2 rules yang memiliki prefix yang sama sebagai konsekuennya • join(CD=>AB,BD=>AC) sehingga terbentuk rule D => ABC • Buang rule D=>ABC jika ia mempunyai subset AD=>BC dengan nilai confidence rendah BD=>AC CD=>AB D=>ABC
  • 20. Contoh : Gunakan algoritma apriori untuk membentuk aturan analisis asosiasi pengklasifikasi dari data pada tabel Min Support Count=2 Min Confidence= 50% TID List of item T100 I1,I2,I5 T200 I2,I4 T300 I2,I3 T400 I1,I2,I4 T500 I1,I3 T600 I2,I3 T700 I1,I3 T800 I1,I2,I3,I5 T900 I1,I2,I3
  • 21. Algoritma FP-Growth • Gunakan representasi terkompresi basis data dengan memanfaatkan FP-tree • Setelah FP-tree terbentuk, gunakan teknik divide-and- conquer secara rekursif untuk menambang frequent itemsets
  • 22. Pembentukan FP-tree TID Items 1 {A,B} 2 {B,C,D} 3 {A,C,D,E} 4 {A,D,E} 5 {A,B,C} 6 {A,B,C,D} 7 {B,C} 8 {A,B,C} 9 {A,B,D} 10 {B,C,E} null A:1 B:1 null A:1 B:1 B:1 C:1 D:1 Setelah membaca TID=1: Setelah membaca TID=2:
  • 23. FP-Tree Construction null A:7 B:5 B:3 C:3 D:1 C:1 D:1 C:3 D:1 D:1 E:1 E:1 TID Items 1 {A,B} 2 {B,C,D} 3 {A,C,D,E} 4 {A,D,E} 5 {A,B,C} 6 {A,B,C,D} 7 {B,C} 8 {A,B,C} 9 {A,B,D} 10 {B,C,E} Pointers digunakan untuk membantu dalam menentukan frequent itemset D:1 E:1 Database Transaksi Item Pointer A B C D E Header table
  • 24. FP-growth null A:7 B:5 B:1 C:1 D:1 C:1 D:1 C:3 D:1 D:1 Conditional Pattern base untuk D: P = {(A:1,B:1,C:1), (A:1,B:1), (A:1,C:1), (A:1), (B:1,C:1)} Secara rekursif terapkan proses FP-Growth pada P Mis minsup=1,maka Frequent Itemsets yang diperoleh : AD, BD, CD, ACD, BCD D:1
  • 25. Tree Projection Set enumeration tree: null AB AC AD AE BC BD BE CD CE DE A B C D E ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE ABCD ABCE ABDE ACDE BCDE ABCDE Possible Extension: E(A) = {B,C,D,E} Possible Extension: E(ABC) = {D,E}
  • 26. Tree Projection Items disusun berdasarkan lexicographic order Setiap node P menyimpan informasi sbb: Itemset untuk node P Daftar ekstensi P yang mungkin, secara lexicigraphic ; E(P) Pointer pada projected database dari ancestor node Bitvector yang memberikan informasi transaksi mana pada projected database yang mengandung itemset
  • 27. Projected Database TID Items 1 {A,B} 2 {B,C,D} 3 {A,C,D,E} 4 {A,D,E} 5 {A,B,C} 6 {A,B,C,D} 7 {B,C} 8 {A,B,C} 9 {A,B,D} 10 {B,C,E} TID Items 1 {B} 2 {} 3 {C,D,E} 4 {D,E} 5 {B,C} 6 {B,C,D} 7 {} 8 {B,C} 9 {B,D} 10 {} Database Asli: Projected Database untuk node A: Untuk setiap transaksi T, projected transaction pada node A adalah T  E(A)