Modul klasifikasi decission tree modul klasifikasi

Universitas Bina Darma Palembang
Universitas Bina Darma PalembangManager (association football) em Universitas Bina Darma Palembang

Data Mining

KLASIFIKASI 
Definisi Klasifikasi 
Klasifikasi adalah sebuah proses untuk menemukan model yang menjelaskan atau 
membedakan konsep atau kelas data, dengan tujuan untuk dapat memperkirakan kelas 
dari suatu objek yang kelasnya tidak diketahui (Tan et all, 2004). Di dalam klasifikasi 
diberikan sejumlah record yang dinamakan training set, yang terdiri dari beberapa atribut, 
atribut dapat berupa kontinyu ataupun kategoris, salah satu atribut menunjukkan kelas 
untuk record. 
Gambar 1. Klasifikasi sebagai suatu tugas memetakan atribut x 
ke dalam label kelas y (Tan et all, 2006) 
Model Klasifikasi terdiri dari (Tan et all, 2006): 
1. Pemodelan Deskriptif 
Dapat bertindak sebagai suatu alat yang bersifat menjelaskan untuk 
membedakan antara objek dengan klas yang berbeda.
2. Pemodelan Prediktif 
Model klasifikasi juga dapat menggunakan prediksi label kelas yang belum diketahui 
recordnya. 
4.2 Tujuan Klasifikasi 
Tujuan dari klasifikasi adalah untuk: 
1. Menemukan model dari training set yang membedakan record kedalam kategori atau 
kelas yang sesuai, model tersebut kemudian digunakan untuk mengklasifikasikan 
record yang kelasnya belum diketahui sebelumnya pada test set. 
2. Mengambil keputusan dengan memprediksikan suatu kasus, berdasarkan hasil 
klasifikasi yang diperoleh . 
4.3 Konsep Pembuatan Model dalam Klasifikasi 
Untuk mendapatkan model, kita harus melakukan analisis terhadap data latih 
(training set). Sedangkan data uji (test set) digunakan untuk mengetahui tingkat akurasi 
dari model yang telah dihasilkan. Klasifikasi dapat digunakan untuk memprediksi nama 
atau nilai kelas dari suatu obyek data. Proses klasifikasi data dapat dibedakan dalam 2 
tahap, yaitu : 
1. Pembelajaran / Pembangunan Model 
Tiap – tiap record pada data latih dianalisis berdasarkan nilai – nilai atributnya, 
dengan menggunakan suatu algoritma klasifikasi untuk mendapatkan model. 
2. Klasifikasi 
Pada tahap ini, data uji digunakan untuk mengetahui tingkat akurasi dari model yang 
dihasilkan. Jika tingkat akurasi yang diperoleh sesuai dengan nilai yang ditentukan, 
maka model tersebut dapat digunakan untuk mengklasifikasikan record – record data 
baru yang belum pernah dilatihkan atau diujikan sebelumnya. 
Untuk meningkatkan akurasi dan efisiensi proses klasifikasi, terdapat beberapa langkah 
pemrosesan terhadap data, yaitu : 
1. Data Cleaning 
Data cleaning merupakan suatu pemrosesan terhadap data untuk menghilangkan noise 
dan penanganan terhadap missing value pada suatu record.
2. Analisis Relevansi 
Pada tahap ini, dilakukan penghapusan terhadap atribut – atribut yang redundant 
ataupun kurang berkaitan dengan proses klasifikasi yang akan dilakukan. Analisis 
relevansi dapat meningkatkan efisiensi klasifikasi karena waktu yang diperlukan 
untuk pembelajaran lebih sedikit daripada proses pembelajaran terhadap data – data 
dengan atribut yang masih lengkap (masih terdapat redundansi). 
3. Transformasi Data 
Pada data dapat dilakukan generalisasi menjadi data dengan level yang lebih tinggi. 
Misalnya dengan melakukan diskretisasi terhadap atribut degan nilai kontinyu. 
Pembelajaran terhadap data hasil generalisasi dapat mengurangi kompleksitas 
pembelajaran yang harus dilakukan karena ukuran data yang harus diproses lebih 
kecil. 
(a) 
(b) 
Gambar 2. Proses Klasifikasi: (a) Learning: Training data dianalisis dengan 
algoritma klasifikasi. Disini atribut label kelas adalah ”Tenured“, dan 
“Learned Model“ atau “classifier“ di gambarkan pada blok aturan klasifikasi. 
(b). Classification: Test data digunakan untuk memperkirakan keakuratan 
aturan klasifikasi. Jika keakuratan tersebut dianggap diterima, maka aturan itu 
dapat diaplikasikan untuk mengkalsifikasikan data tuples baru.
Pada Gambar 2 terdiri dari pembuatan model dan penggunaan model. Pembuatan model 
menguraikan sebuah set dari penentuan kelas-kelas sebagai: 
1. Setiap tuple diasumsikan sudah mempunyai kelas yang dikenal seperti ditentukan 
oleh label kelas atribut. 
2. Kumpulan tuple yang digunakan untuk membuat model disebut kumpulan 
pelatihan (training set) 
3. Model direpresentasikan sebagai classification rules, decision tree atau formula 
matematika. 
Penggunaan model menguraikan pengklasifikasian masa yang akan datang atau obyek 
yang belum ketahui, yaitu taksiran keakuratan dari model yang terdiri dari: 
1. Label yang telah diketahui dari contoh tes dibandingkan dengan hasil 
klasifikasi dari model. 
2. Nilai keakuratan adalah prosentase dari kumpulan contoh tes yang diklasifikasikan 
secara tepat oleh model. 
3. Kumpulan tes tidak terikat pada kumpulan pelatihan, 
4. Jika akurasi diterima, gunakan model untuk mengklasifikasikan data tuple yang 
label kelasnya belum diketahui. 
Untuk mengevaluasi performansi sebuah model yang dibangun oleh algoritma klasifikasi 
dapat dilakukan dengan menghitung jumlah dari test record yang di prediksi secara benar 
(akurasi) atau salah (error rate) oleh model tersebut. Akurasi dan error rate 
didefinisikan sebagai berikut. 
Akurasi = Jumlah prediksi benar 
Jumlah total prediksi 
Error rate = Jumlah prediksi salah 
Jumlah total prediksi 
Algoritma klasifikasi berusaha untuk mencari model yang mempunyai akurasi yang 
tinggi atau error rate yang rendah ketika model diterapkan pada test set.
4.4 Teknik Klasifikasi 
Didalam Klasifikasi sebagaimana telah dijelaskan, ada beberapa teknik klasifikasi 
yang digunakan, anataralain: pohon keputusan, rule based, neural network, support 
vector machine, naive bayes, dan nearest neighbour. Dan pada pembahasan ini akan 
menggunakan teknik pohon keputusan, karena beberapa alasan: 
1. Dibandingkan dengan classifier JST atau bayesian, sebuah pohon keputusan mudah 
diinterpretasi/ ditangani oleh manusia. 
2. Sementara training JST dapat menghabiskan banyak waktu dan ribuan iterasi, pohon 
keputusan efisien dan sesuai untuk himpunan data besar. 
3. Algoritma dengan pohon keputusan tidak memerlukan informasi tambahan selain 
yang terkandung dalam data training (yaitu, pengetahuan domain dari distribusi-distribusi 
pada data atau kelas-kelas). 
4. Pohon keputusan menunjukkan akurasi klasifikasi yang baik dibandingkan dengan 
teknik-teknik yang lainnya. 
4.5 Decision Tree 
Salah satu metoda Data Mining yang umum digunakan adalah decision tree. 
Decision tree adalah struktur flowchart yang menyerupai tree (pohon), dimana setiap 
simpul internal menandakan suatu tes pada atribut, setiap cabang merepresentasikan hasil 
tes, dan simpul daun merepresentasikan kelas atau distribusi kelas. Alur pada decision 
tree di telusuri dari simpul akar ke simpul daun yang memegang prediksi kelas untuk 
contoh tersebut. Decision tree mudah untuk dikonversi ke aturan klasifikasi 
(classification rules)(Zalilia, 2007). 
Konsep Decision Tree 
Mengubah data menjadi pohon keputusan (decision tree) dan aturan-aturan keputusan 
(rule) (Basuki dkk, 2003). 
DATA Decision Tree Rule 
Gambar 3. Konsep Decision Tree
Tipe Simpul Pada Tree 
Tree mempunyai 3 tipe simpul yaitu (Zalilia, 2007): 
1. Simpul akar dimana tidak ada masukan edge dan 0 atau lebih keluaran edge (tepi), 
2. Simpul internal, masing-masing 1 masukan edge dan 2 atau lebih edge keluaran, 
3. Simpul daun atau simpul akhir, masing-masing 1 masukan edge dan tidak ada 
edge keluaran. 
Pada decision tree setiap simpul daun menandai label kelas. Simpul yang bukan 
simpul akhir terdiri dari akar dan simpul internal yang terdiri dari kondisi tes atribut pada 
sebagian record yang mempunyai karakteristik yang berbeda. Simpul akar dan simpul 
internal ditandai dengan bentuk oval dan simpul daun ditandai dengan bentuk segi empat 
(Han, 2001). 
Gambar 4. Decision tree untuk masalah klasifikasi intrusion 
Konsep Data Dalam Decision Tree 
Ada beberapa konsep dalam decision tree, antara lain: 
1. Data dinyatakan dalam bentuk tabel dengan atribut dan record. 
2. Atribut menyatakan suatu parameter yang dibuat sebagai kriteria dalam pembentukan 
tree. Misalkan untuk menentukan main tenis, kriteria yang diperhatikan adalah cuaca, 
angin dan temperatur. Salah satu atribut merupakan atribut yang menyatakan data 
solusi per-item data yang disebut dengan target atribut.
3. Atribut memiliki nilai- nilai yang dinamakan dengan instance. Misalkan atribut 
cuaca mempunyai instance berupa cerah, berawan dan hujan. 
Contoh pemakaian Decision Tree 
1. Diagnosa penyakit tertentu, seperti hipertensi, kanker, stroke dan lain-lain. 
2. Pemilihan produk seperti rumah, kendaraan, komputer dan lain-lain 
3. Pemilihan pegawai teladan sesuai dengan kriteria tertentu 
Proses Dalam Decision Tree (Basuki dkk, 2003) 
Proses pembentukan Decision Tree adalah sbb: 
1. Mengubah bentuk data (tabel) menjadi model tree. 
Gambar 5. Proses Data Menjadi Tree
Ukuran untuk Memilih Split Terbaik 
Pemilihan atribut pada algoritma induksi decision tree menggunakan 
ukuran berdasarkan entropy yang dikenal dengan information gain sebagai sebuah 
heuristic untuk memilih atribut yang merupakan bagian terbaik dari contoh ke 
dalam kelas. Semua atribut adalah bersifat kategori yang bernilai diskrit. Atribut 
dengan nilai continuous harus didiskritkan (Zalilia, 2007). 
Ukuran information gain digunakan untuk memilih tes atribut pada setiap 
simpul dalam tree. Atribut dengan information gain tertinggi (atau nilai 
pengurangan entropy yang terbesar) dipilih sebagai tes atribut untuk simpul tersebut. 
Atribut ini meminimalkan informasi yang dibutuhkan untuk mengklasifikasikan 
contoh pada proses pembagian dan mencerminkan ketidakmurnian (impurity). 
Misalkan S adalah kumpulan dari s contoh data. Andaikan atribut label kelas 
mempunyai m nilai berbeda yang menjelaskan m nilai kelas yang 
berbeda, Ci (for i = 1, ..., m). Misalkan si menjadi jumlah contoh S dalam kelas Ci . 
Informasi yang dibutuhkan untuk mengklasifikasikan diberikan contoh sebagai 
1 j 
berikut. 
I ( S ,S ,...,S ) 
m 
pi log 2 ( pi ) 
(1) 
1 2 m 
i 1 
dimana pi adalah kemungkinan sebuah contoh kepunyaan kelas Ci dan 
diperkirakan oleh si/s . Catatan bahwa fungsi log basis 2 digunakan semenjak 
informasi dikodekan dalam bit-bit. 
Misalkan atribut A mempunyai nilai v yang berbeda, a1 , a2 ,..., av Atribut 
A dapat digunakan untuk membagi S kedalam v bagian (subset), S1 , S 2 ,..., S v , 
dimana S j berisi contoh di S yang mempunyai nilai a j dari A . Jika A terpilih 
sebagai tes atribut (misal atribut untuk splitting), maka bagian ini akan sesuai 
dengan pertumbuhan cabang dari simpul yang berisi S . Misal Sij menjadi contoh 
kelas Ci pada sebuah subset S j . Entropy atau informasi berdasarkan pembagian ke 
dalam bagian A sebagai berikut. 
v s ... s 
E A 1 j mj 
.I s 
,..., smj 
(2) 
j 1 s
Bentuk 
sij ... 
s 
smj 
adalah bobot dari bagian (subset) jth dan merupakan jumlah 
contoh pada subbagian dibagi oleh total jumlah contoh dalam S . Nilai entropy 
terkecil adalah kemurnian (purity) terbesar pada pembagian subbagian. Catatan untuk 
subbagian s j , 
I s1 j , s2 j ,..., smj 
sij 
m 
pij log2 
i 1 
pij 
(3) 
Dimana pij 
S j 
adalah probabilitas pada contoh s j kepunyaan kelas Ci . 
Pengkodean informasi yang akan diperoleh dari percabangan pada A adalah: 
Gain A 
I s1 , s2 ,...., sm E A 
(4) 
Dengan kata lain, Gain( A) adalah reduksi yang diharapkan dalam entropy 
yang disebabkan oleh pengetahuan nilai pada atribut A. Algoritma menghitung 
information gain pada setiap atribut. Atribut dengan nilai gain terbesar dipilih 
sebagai tes atribut (simpul akar). Simpul A dibuat dan dilabelkan dengan atribut, 
cabang dibuat untuk setiap nilai atribut. 
a. Entropy 
Definisi Entrophy (Basuki, 2003): 
1. Entropy (S) adalah jumlah bit yang diperkirakan dibutuhkan untuk dapat 
mengekstrak suatu kelas (+ atau -) dari sejumlah data acak pada ruang sample S. 
2. Entropy bisa dikatakan sebagai kebutuhan bit untuk menyatakan suatu kelas. 
Semakin kecil nilai Entropy maka semakin baik untuk digunakan dalam 
mengekstraksi suatu kelas. 
3. Panjang kode untuk menyatakan informasi secara optimal adalah 
untuk messages yang mempunyai probabilitas p. 
log 2 p bits 
4. Sehingga jumlah bit yang diperkirakan untuk mengekstraksi S ke dalam kelas 
adalah: 
p( ) log 2 p( ) 
p( ) log 2 p( ) 
(5) 
Entropy(S ) p( ) log 2 p( ) p( ) log 2 p( ) (6)
Keterangan : 
S = ruang (data) sample yang digunakan untuk training. 
P(+) = jumlah yang bersolusi positif (mendukung) pada data sample untuk 
kriteria tertentu. 
P(-) = jumlah yang bersolusi negatif (tidak mendukung) pada data sample untuk 
kriteria tertentu. 
2. Mengubah model tree menjadi rule. 
Gambar 6. Mengubah Tree Menjadi Rules 
Gambar 7. Conjunction & Disjunction (pada kasus main tennis)
3. Menyederhanakan Rule (“test of independency” dengan distribusi terpadu chi-square) 
Apabila individu-individu suatu populasi dapat diklasifikasikan dalam dua variable 
(kategori),tiap-tiap kategori dapat terdiri dari beberapa alternative. Kemudian kita 
ingin menguji Ho apakah kedua variable kedua variable itu independent. Untuk 
menguji Ho tersebut kemudian diambil suatu sample, individu- individu dalam sample 
tersebut diklasifikasikan dalam”two way classification”. Test yang demikian 
dinamakan test of independency (pengujian Independensi). Tabelnya dinamakan tabel 
kontingensi. Apabila variabel I terdiri dari k kategori dan variabel II terdiri dari r 
kategori, tabelnya dapat disusun seperti tabel dibawah ini. 
Tabel kontingensi 
Variabel I 
A1 A2 A3 Ak Jumlah 
Variabel 
II 
B1 n11 n12 n13 ……… n1k n1 
B2 n21 n22 n23 ……… n2k n2 
. . . . ……… . . 
. . . . ……… . . 
. . . . ……… . . 
. . . . ……… . . 
Br nr1 nr2 nr3 ……….. nrk nr 
Jumlah n1 n2 n3 nk n 
Dimana; 
nij = individu dari baris i kolom j 
i = 1, 2, ……………………..r 
j = 1, 2, 3, …………………...k 
Langkah-langkah dalam test of independensi: 
1. Menentukan formulasi null hipotesis dengan alternative hipotesis: 
Ho: P11 = P12 = …………......= P1k 
P21 = P22 = …………......= P2k 
--------------------------------------- 
Pr1 = Pr2 = = Prk 
H1 : tidak semua proporsi sama 
2. Dipilih level of significant tertentu ( ) degree of freedom (r-1)(k-1)
3. Kriteria pengujian: 
Daerah 
terima 
Daerah 
tolak 
X 2 
X 2 { ; (r-1)(k-1) 
Ho diterima apabila : X 2 ≤ X 2 ; (n-1) (k-1) 
 berarti kriteria independent (dapat dihilangkan) 
Ho ditolak apabila : X 2 > X 2 ; (r-1) (k-1) 
 berarti kriteria dependent (tidak dapat dihilangkan) 
4. Perhitungan: 
r 
X 2 = 
i j 
k (nij 
j i 
eij ) 2 
eij 
……………………………………………… (1) 
Dimana eij = 
(ni .)(n. j ) 
n 
……………………………………………………. (2) 
nij 
eij 
= frekuensi pengamatan (observasi) dari baris I dan kolom j 
= frekuensi diharapkan (expected) dari baris I dan kolom j 
5. Kesimpulan: Apakah Ho diterima (Variabel yang satu tidak 
mempengaruhi/independent dengan variabel yang lain) atau Ho ditolak (variabel I 
dependen dengan variabel II) 
Contoh: 
Kita ingin mengetahui apakah ada pengaruh (hubungan dependen) antara pendapatan 
individu dengan kualitas bahan makanan yang dikonsumir. 
Untuk tujuan ini kemudian diadakan ujian penyelidikan terhadap 100 individu dan 
didapat kenyatan sebagai berikut:
Pendapatan 
Tinggi Sedang Rendah jumlah 
Mutu 
bahan 
makan 
Baik 14 6 9 29 
Cukup 10 16 10 36 
Jelek 
2 
13 
20 
35 
Jumlah 26 35 39 100 
nij 
Penyelesaian: 
1. Hipotesis 
Ho : P11 = P12 = P13 
P21 = P22 = P23 
P31 = P32 = P33 
Atau mutu bahan makan dependen dengan tingkat dependen. 
Ho : Mutu bahan makan dependen dengan tingkat pendapatan 
2. Dipilih level of significance 0,05 
3. Kriteria Pengujian: 
Daerah 
terima 
Daerah 
tolak 
X 2 
X 2 {0,05 ; (3-1)(3-1) = 9,488 
Ho diterima apabila X 2 ≤ 9,488 
Ho ditolak apabila X 2 > 9,488 
4. Perhitungan X 2 dari sample: 
Dengan menggunakan persamaan (2), maka dapat kita cari eij 
e11 = 
e21 = 
e31 = 
(29)(26) 
100 
(36)(26) 
100 
(35)(26) 
100 
= 7,54 e12 = 
= 9,36 e22 = 
= 9,10 e32 = 
(29)(35) 
100 
(36)(35) 
100 
(35)(35) 
100 
= 10,15 e13 = 
= 12,60 e23 = 
= 12,25 e33 = 
(29)(39) 
100 
(36)(39) 
100 
(35)(39) 
100 
= 11,31 
= 14,04 
= 13,65
Pendapatan 
Tinggi Sedang Rendah jumlah 
Mutu 
bahan 
makan 
Baik 7,54 10,15 11,31 29 
Cukup 9,36 12,60 14,04 36 
Jelek 
9,10 
12,25 
13,65 
35 
Jumlah 26 35 39 100 
eij 
(14 7,54)2 (6 10,15)2 (9 11,31)2 (10 9,36)2 (16 12,60)2 
7,54 10,15 11,31 9,36 12,60 
X 2 = 
(10 14,40)2 (2 9,10)2 (13 12,25)2 (20 13,65)2 
14,40 9,10 12,25 13,65 
= 18,36 
5. Kesimpulan: 
Oleh karena 18,36 > 9,48 maka Ho kita tolak, berarti terdapat hubungan antara 
mutu bahan makan dengan tingkat pendapatan (kriteria dependent).
4.6 CONTOH KASUS 
Contoh: Permasalahan Penentuan Seseorang Menderita Hipertensi Menggunakan 
Decision Tree. Data diambil dengan 18 sample, dengan pemikiran bahwa yang 
mempengaruhi seseorang menderita hipertensi atau tidak adalah usia, berat badan, dan 
jenis kelamin. Usia mempunyai instance: muda dan tua. Berat badan mempunyai 
instance: underweight, average dan overweight. Jenis kelamin mempunyai instance: 
pria dan wanita. Data sample yang digunakan untuk menentukan hipertensi adalah: 
Nama Pasien Berat Badan Usia Jenis Kelamin Hipertensi? 
Oki lukman Overweight Tua Perempuan Ya 
Pasha ungu Overweight Tua Laki-laki Ya 
Budi anduk Overweight Tua Laki-laki Ya 
Indra bekti Overweight Tua Laki-laki Ya 
Luna maya Overweight Muda Perempuan Ya 
Tukul Overweight Muda Laki-laki Ya 
Afgan Average Tua Laki-laki Ya 
Desta Average Tua Laki-laki Ya 
Ringgo Average Muda Laki-laki Tidak 
Ruben Average Muda Laki-laki Tidak 
Titi kamal Average Muda Perempuan Tidak 
Aurakasih Average Tua Perempuan Tidak 
Jengkelin Average Tua Perempuan Tidak 
Ari untung Average Muda Laki-laki Tidak 
Gita gutawa Underweight Muda Perempuan Tidak 
Fedi nuril Underweight Muda Laki-laki Tidak 
Dian sastro Underweight Tua Perempuan Tidak 
Nicholas Underweight Tua Laki-laki Tidak 
Langkah penyelesaian kasus: 
1. Mengubah Data Menjadi Tree. 
2. Mengubah tree menjadi rule. 
3. Menyederhanakan dan menguji rule. 
4. Menentukan rule akhir 
Penyelesaian: 
Langkah -1: Mengubah Data Menjadi Tree. 
a. Menentukan Node Terpilih. 
Dari data sampel tentukan dulu node terpilih, yaitu dengan menghitung nilai information 
gain masing-masing atribut. (usia, berat badan, dan jenis kelamin).
Untuk menentukan node terpilih, gunakan nilai information gain dari setiap kriteria 
dengan data sample yang ditentukan. 
Node terpilih adalah kriteria dengan information gain yang paling besar. 
Langkah – langkah menentukan node terpilih: 
1. Menghitung nilai informasi (I) dari seluruh data training 
Dengan menggunakan persamaan: 
p( ) log 2 p( ) 
p( ) log 2 p( ) 
I = -8/18 log2 8/18 – 10/18 log2 10/18 = 0.99 
2. Menghitung nilai informasi tiap atribut 
Contoh: nilai informasi atribut berat badan 
Dengan menggunakan persamaan: 
BB Hiper? Jumlah 
Catatan: 
Overweight Ya 6 
Overweight Tidak 0 
Average Ya 2 
Average Tidak 6 
Underweight Ya 4 
Underweight Tidak 0 
p( ) log 2 p( ) 
p( ) log 2 p( ) 
q1= -6/6 log2 6/6 – 0/6 log2 0/6 = 0 
q2= -2/8 log2 2/8 – 6/8 log2 6/8 = 0.81 
Total 18 
3. Menghitung nilai entrophy tiap atribut 
Contoh: Entropy untuk berat badan: 
q1= -4/4 log2 4/4 – 0/4 log2 0/4 = 0 
E = (6/18)q1 + (8/18)q2 + (4/18)q3 = 0.36 
4. Menghitung nilai information gain tiap atribut 
Contoh: atribut berat badan 
Gain A 
I s1 , s2 ,...., sm E A 
= 0.99 – 0.36 = 0.63
Dengan menggunakan langkah – langkah yang sama kita hitung nilai information gain 
atribut usia dan jenis kelamin, sehingga didapat nilai information gain atribut usia 
sebesar 0.091 dan jenis kelamin sebesar 0.048. 
Sehingga, terpilih atribut BERAT BADAN sebagai node awal karena memiliki 
information gain terbesar. 
b. Menyusun Tree Awal 
Berat bad an 
Overw eight Average Underw eight 
O k i lu kman 
+ 
A fgan 
D esta 
+ 
+ 
Pash a u ng u + Rin gg o - Fedi nuril - 
Bud i an du k + Ru ben - G ita gutaw a - 
In dra bek t i + Tit i k amal - D ian sast ro - 
Lu na maya + A urak asih - N ich olas - 
Tu ku l + Jen gk elin - 
A ri u ntu ng - 
Node berikutnya dapat dipilih pada bagian yang mempunyai nilai + dan -, pada 
contoh di atas hanya berat = average yang mempunyai nilai + dan –, maka 
semuanya pasti mempunyai internal node. Untuk menyusun internal node lakukan 
satu-persatu. 
Penentuan Internal Node untuk berat = average 
Nama Pasien Usia Jenis Kelamin Hipertensi? 
Afgan Tua Laki-laki Ya 
Desta Tua Laki-laki Ya 
Ringgo Muda Laki-laki Tidak 
Ruben Muda Laki-laki Tidak 
Titi kamal Muda Perempuan Tidak 
Aurakasih Tua Perempuan Tidak 
Jengkelin Tua Perempuan Tidak 
Ari untung Muda Laki-laki Tidak
Nilai informasi (I) dari data training untuk berat average: 
Jenis Kelamin Hiper? Jumlah 
Laki-laki Ya 2 
Laki-laki Tidak 3 
Perempuan Ya 0 
Perempuan Tidak 3 
Dengan menggunakan persamaan: 
p( ) log 2 p( ) 
p( ) log 2 p( ) 
I = -2/8 log2 2/8 – 6/8 log2 6/8 = 0.811 
Kemudian kita menghitung nilai entrophy untuk masing – masing atribut yang tersisa: 
Usia Hiper? Jumlah 
Tua Ya 2 
Tua Tidak 2 
Muda Ya 0 
Muda Tidak 4 
E = 0.5 E = 0.61 
Setelah itu didapatkan nilai information gain untuk atribut usia sebesar 0.811 – 0.5 = 
0.311, dan nilai information gain untuk atribut jenis kelamin sebesar 0.811 – 0.61 = 
0.201, sehingga atribut usia dipilih sebagai node berikutnya. Begitu seterusnya sampai 
node terakhir dapat menentukan kelas dari data. 
Menyusun Tree Lanjutan 
Berat b ada n 
Overweight Average Underweight 
Y ES U sia N O 
Tua Muda 
A fgan + 
D esta + 
A u rak asih - 
Jen g k elin - 
R in g go - 
R ub en - 
Ti t i k amal - 
A ri un tu n g -
Berat b adan 
Overweight Average Underweight 
Y ES U sia N O 
Tua Muda 
Jen is K elamin N O 
Laki-laki Perempuan 
A fgan + 
D est a + 
A u rak asih - 
Jen g k el in - 
Hasil Tree Akhir 
Berat b ad an 
Overweight Average Underweight 
Y ES U sia N O 
Tua Muda 
Jen is K elamin N O 
Laki-laki Perempuan 
Y ES N O
Langkah -2 : Mengubah Tree menjadi rule 
B erat b ad an 
Overweight Average Underweight 
Y ES U sia N O 
Tua Muda 
Jen is K elamin N O 
Laki-laki Perempuan 
Y ES N O 
R1: IF berat = overweight THEN hipertensi = ya 
R2: IF berat = underweight THEN hipertensi = tidak 
R3: IF berat = average^usia = muda^ THEN hipertensi = tidak 
R4: IF berat = average^usia = tua^jenis kelamin=laki- laki^ THEN hipertensi = ya 
R5: IF berat = average^usia = tua^jenis kelamin=perempuan^ THEN hipertensi = tidak 
Langkah -3 : Menyederhanakan dan Menguji Rule 
Dalam langkah menyederhanakan dan menguji rule ini, kita dapat menjalankan langkah-langkah 
berikut: 
1. Membuat table distribusi terpadu dengan menyatakan semua nilai kejadian pada setiap 
rule. 
2. Menghitung tingkat independensi antara kriteria pada suatu rule, yaitu antara atribut dan 
target atribut (penghitungan tingkat independensi menggunakan “Test of Independency” 
Chi-square) 
3. Mengeliminasi kriteria yang tidak perlu, yaitu yang tingkat independensinya tinggi.
Untuk Atribut Berat Badan 
BB hiper? jumlah 
OW ya 6 
OW tidak 0 
AV ya 2 
AV tidak 6 
UW ya 4 
UW tidak 0 
OW AV UW Jumlah 
Hipertensi 6 2 4 12 
Tidak 0 6 0 6 
Jumlah 6 8 4 18 
OW AV UW Jumlah 
X 
Hipertens 
i 
6 2 4 12 
Tidak 0 6 0 6 
Jumlah 6 8 4 18 
nij 
Hipotesis: 
H0 : tidak ada hubungan antara berat badan dengan seseorang menderita 
hipertensi 
H1 : ada hubungan antara berat badan dengan seseorang menderita hipertensi 
Tingkat signifikansi : 
α = 0.05 
Degree of freedom (DOF) = {α; (r – 1)*(k - 1)} = {0.05; (2– 1)*(3 - 1)} = {0.05; 2} 
2 
tabel 
5.9915 (lihat tabel) 
Daerah kritis: 
Daerah 
terima 
Ho diterima apabila X 2 ≤ 5.99 
Ho ditolak apabila X 2 > 5.99 
Daerah 
tolak 
X 2 
X 2 {0,05 ; (2-1)(3-1) = 5.99 
Uji Independensi dengan distribusi Chi-Square 
nij
OW AV UW 
Hipertensi 4 5.33 2.67 12 
Tidak 2 2.67 1.33 6 
Jumlah 6 8 4 18 
(6 4) 2 (2 5.33) 2 (4 2.67) 2 (0 2) 2 (6 2.67) 2 (0 1.33) 2 
4 5.33 2.67 2 2.67 1.33 
 
X 
eij 
Perhitungan: 
(12)(6) 
e11 = 
18 
(6)(6) 
e21 = 
18 
= 4 e12 = 
= 2 e22 = 
(12)(8) 
18 
(6)(8) 
18 
= 5.33 e13 = 
= 2.67 e23 = 
(12)(4) 
18 
(6)(4) 
18 
= 2.67 
= 1.33 
Lalu, kita hitung nilai X2 dengan menggunakan persamaan: 
r k (n 
ei ) 2 
X2 hitung = 
i j 
(ni .)(n. j ) 
ij j 
j i eij 
Dimana eij = 
n 
X2 hitung = 
= 1 + 2.08 + 0.67 + 2 + 4.17 +1.33 = 11.25 
Karena nilai X2 hitung > X2 tabel yaitu 11.25 > 5.99, maka H0 ditolak, artinya atribut 
berat badan mempengaruhi seseorang menderita hipertensi atau tidak (dependent), 
sehingga atribut ini tidak bisa dihilangkan. 
Untuk Atribut Usia 
Dengan cara yang sama pada atribut berat badan, maka dapat diperoleh: 
{0,05 ; 1}  
2 
tabel 
3.8415 (lihat tabel) 
X2 hitung = 2.205 
Kesimpulan: Karena nilai X2 hitung ≤ X2 tabel yaitu 2.205 yaitu 2.205 ≤ 3.8415, artinya 
atribut usia tidak mempengaruhi seseorang menderita hipertensi atau tidak (independent), 
sehingga atribut ini bisa dihilangkan.
Untuk Atribut Jenis kelamin 
Dengan cara yang sama pada atribut berat badan, maka dapat diperoleh: 
 
{0,05 ; 1}  
X 
2 
tabel 
3.8415 (lihat tabel) 
X2 hitung = 5.299 
Kesimpulan: Karena nilai X2 hitung > X2 tabel yaitu 5.299> 3.8415, maka H0 ditolak, 
artinya atribut berat badan mempengaruhi seseorang menderita hipertensi atau tidak 
(dependent), sehingga atribut ini tidak bisa dihilangkan. 
Langkah -4 : Menentukan Rule Akhir 
Berdasarkan hasil penyederhanaan rule dengan Chi-Square, maka rule akhir yang terbentuk 
adalah: 
R1: IF berat = overweight THEN hipertensi = ya 
R2: IF berat = underweight THEN hipertensi = tidak 
R4: IF berat = average ^jenis kelamin=laki- laki^ THEN hipertensi = ya 
R5: IF berat = average ^jenis kelamin=perempuan^ THEN hipertensi = tidak 
TUGAS : 
GUNAKAN DECISION TREE UTK KASUS BERIKUT : 
TABEL KLASIFIKASI RESIKO KREDIT : 
Pelanggan Saving Asset Sallary 
Resiko 
Kredit 
1 Mediun High 75 Good 
2 Low Low 50 Bad 
3 High Medium 25 Bad 
4 Mediun Medium 50 Good 
5 Low Medium 100 Good 
6 High High 25 Good

Recomendados

9 dts-transformasi data-univ-gunadarma por
9 dts-transformasi data-univ-gunadarma9 dts-transformasi data-univ-gunadarma
9 dts-transformasi data-univ-gunadarmaArdianDwiPraba
1.8K visualizações83 slides
Pengertian inheritance (pewarisan) dalam oop por
Pengertian inheritance (pewarisan) dalam oopPengertian inheritance (pewarisan) dalam oop
Pengertian inheritance (pewarisan) dalam oopBasiroh M.Kom
49K visualizações14 slides
Modul 4 representasi pengetahuan por
Modul 4   representasi pengetahuanModul 4   representasi pengetahuan
Modul 4 representasi pengetahuanahmad haidaroh
25.5K visualizações47 slides
Tugas sim keamanan informasi por
Tugas sim   keamanan informasiTugas sim   keamanan informasi
Tugas sim keamanan informasiTheresia Magdalena
11K visualizações28 slides
Data mining por
Data miningData mining
Data miningAgung Apriyadi
12.2K visualizações70 slides
10 feature engineering-univ-gunadarma por
10 feature engineering-univ-gunadarma10 feature engineering-univ-gunadarma
10 feature engineering-univ-gunadarmaArdianDwiPraba
617 visualizações28 slides

Mais conteúdo relacionado

Mais procurados

Kualitas informasi por
Kualitas informasiKualitas informasi
Kualitas informasiImam Nursyihab
120.5K visualizações21 slides
Materi Data Mining - C4.5 por
Materi Data Mining - C4.5Materi Data Mining - C4.5
Materi Data Mining - C4.5dedidarwis
9K visualizações21 slides
Algoritma penjadwalan proses por
Algoritma penjadwalan prosesAlgoritma penjadwalan proses
Algoritma penjadwalan prosesRakhmi Khalida, M.M.S.I
79.4K visualizações47 slides
Data Mining Klasifikasi (Updated 30 Desember 2020) por
Data Mining Klasifikasi (Updated 30 Desember 2020)Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)Adam Mukharil Bachtiar
595 visualizações64 slides
MULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHOD por
MULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHODMULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHOD
MULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHODRivalri Kristianto Hondro
5K visualizações14 slides
STATISTIK- UJI NORMALITAS por
STATISTIK- UJI NORMALITASSTATISTIK- UJI NORMALITAS
STATISTIK- UJI NORMALITASZUKI SUDIANA
18.5K visualizações38 slides

Mais procurados(20)

Kualitas informasi por Imam Nursyihab
Kualitas informasiKualitas informasi
Kualitas informasi
Imam Nursyihab120.5K visualizações
Materi Data Mining - C4.5 por dedidarwis
Materi Data Mining - C4.5Materi Data Mining - C4.5
Materi Data Mining - C4.5
dedidarwis9K visualizações
Data Mining Klasifikasi (Updated 30 Desember 2020) por Adam Mukharil Bachtiar
Data Mining Klasifikasi (Updated 30 Desember 2020)Data Mining Klasifikasi (Updated 30 Desember 2020)
Data Mining Klasifikasi (Updated 30 Desember 2020)
Adam Mukharil Bachtiar595 visualizações
MULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHOD por Rivalri Kristianto Hondro
MULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHODMULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHOD
MULTI-OBJECTIVE OPTIMIZATION ON THE BASIS OF RATIO ANALYSIS (MOORA) METHOD
Rivalri Kristianto Hondro5K visualizações
STATISTIK- UJI NORMALITAS por ZUKI SUDIANA
STATISTIK- UJI NORMALITASSTATISTIK- UJI NORMALITAS
STATISTIK- UJI NORMALITAS
ZUKI SUDIANA18.5K visualizações
Determinan hasil dekomposisi dengan cara crout pada matriks bujur sangkar por BAIDILAH Baidilah
Determinan  hasil dekomposisi dengan cara crout pada matriks bujur sangkarDeterminan  hasil dekomposisi dengan cara crout pada matriks bujur sangkar
Determinan hasil dekomposisi dengan cara crout pada matriks bujur sangkar
BAIDILAH Baidilah24K visualizações
Sistem Pendukung Keputusan por Lia Rusdyana Dewi
Sistem Pendukung KeputusanSistem Pendukung Keputusan
Sistem Pendukung Keputusan
Lia Rusdyana Dewi7.1K visualizações
8 modul 8-dts-fitur dan cleaning data-univ-gunadarma por ArdianDwiPraba
8 modul 8-dts-fitur dan cleaning data-univ-gunadarma8 modul 8-dts-fitur dan cleaning data-univ-gunadarma
8 modul 8-dts-fitur dan cleaning data-univ-gunadarma
ArdianDwiPraba1.2K visualizações
Data mining 5 klasifikasi decision tree dan random forest por IrwansyahSaputra1
Data mining 5   klasifikasi decision tree dan random forestData mining 5   klasifikasi decision tree dan random forest
Data mining 5 klasifikasi decision tree dan random forest
IrwansyahSaputra11.5K visualizações
Ragam Dialog :: Interaksi Manusia dan Komputer por Auliaa Oktarianii
Ragam Dialog :: Interaksi Manusia dan KomputerRagam Dialog :: Interaksi Manusia dan Komputer
Ragam Dialog :: Interaksi Manusia dan Komputer
Auliaa Oktarianii18.5K visualizações
7. ta 2021-07-visualisasi-modul-ariw-2021-07-17-v2 por ArdianDwiPraba
7. ta 2021-07-visualisasi-modul-ariw-2021-07-17-v27. ta 2021-07-visualisasi-modul-ariw-2021-07-17-v2
7. ta 2021-07-visualisasi-modul-ariw-2021-07-17-v2
ArdianDwiPraba3.4K visualizações
Bab 2 Aljabar Relasional por Ratzman III
Bab 2   Aljabar RelasionalBab 2   Aljabar Relasional
Bab 2 Aljabar Relasional
Ratzman III14.3K visualizações
ringkasan uji homogenitas dan normalitas por Gina Safitri
ringkasan uji homogenitas dan normalitasringkasan uji homogenitas dan normalitas
ringkasan uji homogenitas dan normalitas
Gina Safitri93.2K visualizações
Berpikir komputasional Kelas 7 por Farichah Riha
Berpikir komputasional Kelas 7Berpikir komputasional Kelas 7
Berpikir komputasional Kelas 7
Farichah Riha2.5K visualizações
Contoh peyelesaian logika fuzzy por Zaenal Khayat
Contoh peyelesaian logika fuzzyContoh peyelesaian logika fuzzy
Contoh peyelesaian logika fuzzy
Zaenal Khayat190.8K visualizações
Bab 2 logika predikat ta 2019 por Sukma Puspitorini
Bab 2 logika predikat ta 2019Bab 2 logika predikat ta 2019
Bab 2 logika predikat ta 2019
Sukma Puspitorini9.3K visualizações
Contoh soal dan penyelesaian metode biseksi por muhamadaulia3
Contoh soal dan penyelesaian metode biseksiContoh soal dan penyelesaian metode biseksi
Contoh soal dan penyelesaian metode biseksi
muhamadaulia312.2K visualizações
Berpikir Komputasional.pptx por SodiqPermana2
Berpikir Komputasional.pptxBerpikir Komputasional.pptx
Berpikir Komputasional.pptx
SodiqPermana25.7K visualizações
Sistem Basis Data(PPT) por tafrikan
Sistem Basis Data(PPT)Sistem Basis Data(PPT)
Sistem Basis Data(PPT)
tafrikan18K visualizações

Destaque

Decision tree and random forest por
Decision tree and random forestDecision tree and random forest
Decision tree and random forestLippo Group Digital
7K visualizações17 slides
Accelerating the Random Forest algorithm for commodity parallel- Mark Seligman por
Accelerating the Random Forest algorithm for commodity parallel- Mark SeligmanAccelerating the Random Forest algorithm for commodity parallel- Mark Seligman
Accelerating the Random Forest algorithm for commodity parallel- Mark SeligmanPyData
1.2K visualizações44 slides
Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C... por
Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C...Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C...
Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C...Shofyan Sky
3.1K visualizações21 slides
Materi KAIT - Tag,Atribut dan Value por
Materi KAIT - Tag,Atribut dan ValueMateri KAIT - Tag,Atribut dan Value
Materi KAIT - Tag,Atribut dan ValueMuhammad Alfi Fadhlurrahman
110 visualizações22 slides
Random Forests R vs Python by Linda Uruchurtu por
Random Forests R vs Python by Linda UruchurtuRandom Forests R vs Python by Linda Uruchurtu
Random Forests R vs Python by Linda UruchurtuPyData
18.6K visualizações64 slides
Improving the Accuracy of Object Based Supervised Image Classification using ... por
Improving the Accuracy of Object Based Supervised Image Classification using ...Improving the Accuracy of Object Based Supervised Image Classification using ...
Improving the Accuracy of Object Based Supervised Image Classification using ...CSCJournals
274 visualizações12 slides

Destaque(16)

Decision tree and random forest por Lippo Group Digital
Decision tree and random forestDecision tree and random forest
Decision tree and random forest
Lippo Group Digital7K visualizações
Accelerating the Random Forest algorithm for commodity parallel- Mark Seligman por PyData
Accelerating the Random Forest algorithm for commodity parallel- Mark SeligmanAccelerating the Random Forest algorithm for commodity parallel- Mark Seligman
Accelerating the Random Forest algorithm for commodity parallel- Mark Seligman
PyData1.2K visualizações
Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C... por Shofyan Sky
Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C...Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C...
Analisis Algoritme Klasifikasi Random Forest, Decision Tree C4.5 dan Simple C...
Shofyan Sky3.1K visualizações
Random Forests R vs Python by Linda Uruchurtu por PyData
Random Forests R vs Python by Linda UruchurtuRandom Forests R vs Python by Linda Uruchurtu
Random Forests R vs Python by Linda Uruchurtu
PyData18.6K visualizações
Improving the Accuracy of Object Based Supervised Image Classification using ... por CSCJournals
Improving the Accuracy of Object Based Supervised Image Classification using ...Improving the Accuracy of Object Based Supervised Image Classification using ...
Improving the Accuracy of Object Based Supervised Image Classification using ...
CSCJournals274 visualizações
Decision trees and random forests por Debdoot Sheet
Decision trees and random forestsDecision trees and random forests
Decision trees and random forests
Debdoot Sheet3.7K visualizações
Gradient Boosted Regression Trees in scikit-learn por DataRobot
Gradient Boosted Regression Trees in scikit-learnGradient Boosted Regression Trees in scikit-learn
Gradient Boosted Regression Trees in scikit-learn
DataRobot46.4K visualizações
Rudi hartanto tutorial 01 rapid miner 5.3 decision tree por ilmuBiner
Rudi hartanto   tutorial 01 rapid miner 5.3 decision treeRudi hartanto   tutorial 01 rapid miner 5.3 decision tree
Rudi hartanto tutorial 01 rapid miner 5.3 decision tree
ilmuBiner16K visualizações
Decision Tree Ensembles - Bagging, Random Forest & Gradient Boosting Machines por Deepak George
Decision Tree Ensembles - Bagging, Random Forest & Gradient Boosting MachinesDecision Tree Ensembles - Bagging, Random Forest & Gradient Boosting Machines
Decision Tree Ensembles - Bagging, Random Forest & Gradient Boosting Machines
Deepak George6.8K visualizações
Machine learning basics using trees algorithm (Random forest, Gradient Boosting) por Parth Khare
Machine learning basics using trees algorithm (Random forest, Gradient Boosting)Machine learning basics using trees algorithm (Random forest, Gradient Boosting)
Machine learning basics using trees algorithm (Random forest, Gradient Boosting)
Parth Khare8.8K visualizações
PERANCANGAN DAN PEMBUATAN APLIKASI DATAMINING BERBASIS WEB MENGGUNAKAN ALGORI... por Uofa_Unsada
PERANCANGAN DAN PEMBUATAN APLIKASI DATAMINING BERBASIS WEB MENGGUNAKAN ALGORI...PERANCANGAN DAN PEMBUATAN APLIKASI DATAMINING BERBASIS WEB MENGGUNAKAN ALGORI...
PERANCANGAN DAN PEMBUATAN APLIKASI DATAMINING BERBASIS WEB MENGGUNAKAN ALGORI...
Uofa_Unsada17.3K visualizações
Random Forest による分類 por Ken'ichi Matsui
Random Forest による分類Random Forest による分類
Random Forest による分類
Ken'ichi Matsui10.8K visualizações
Random forest por Musa Hawamdah
Random forestRandom forest
Random forest
Musa Hawamdah53.3K visualizações
Understanding Random Forests: From Theory to Practice por Gilles Louppe
Understanding Random Forests: From Theory to PracticeUnderstanding Random Forests: From Theory to Practice
Understanding Random Forests: From Theory to Practice
Gilles Louppe25.6K visualizações
Manajemen rantai pasokan por ahmad fauzan
Manajemen rantai pasokanManajemen rantai pasokan
Manajemen rantai pasokan
ahmad fauzan8.2K visualizações

Similar a Modul klasifikasi decission tree modul klasifikasi

15749 5 pengelompokkan data mining por
15749 5 pengelompokkan data mining15749 5 pengelompokkan data mining
15749 5 pengelompokkan data miningUniversitas Bina Darma Palembang
936 visualizações12 slides
Jawaban No. 2 Tahap-Tahap Data Mining Karena DM adalah suatu ... por
Jawaban No. 2 Tahap-Tahap Data Mining Karena  DM adalah suatu ...Jawaban No. 2 Tahap-Tahap Data Mining Karena  DM adalah suatu ...
Jawaban No. 2 Tahap-Tahap Data Mining Karena DM adalah suatu ...butest
2.2K visualizações6 slides
fuzzyShp por
fuzzyShpfuzzyShp
fuzzyShpMoh Mabrul
408 visualizações21 slides
A152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-biner por
A152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-binerA152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-biner
A152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-binerEpul Logariasmoú
590 visualizações7 slides
10 por
1010
10dedesumarni3
39 visualizações19 slides
1. klasifikasi dan evaluasi por
1. klasifikasi dan evaluasi1. klasifikasi dan evaluasi
1. klasifikasi dan evaluasiBambangWijiatmoko
103 visualizações39 slides

Similar a Modul klasifikasi decission tree modul klasifikasi(20)

Jawaban No. 2 Tahap-Tahap Data Mining Karena DM adalah suatu ... por butest
Jawaban No. 2 Tahap-Tahap Data Mining Karena  DM adalah suatu ...Jawaban No. 2 Tahap-Tahap Data Mining Karena  DM adalah suatu ...
Jawaban No. 2 Tahap-Tahap Data Mining Karena DM adalah suatu ...
butest2.2K visualizações
fuzzyShp por Moh Mabrul
fuzzyShpfuzzyShp
fuzzyShp
Moh Mabrul408 visualizações
A152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-biner por Epul Logariasmoú
A152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-binerA152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-biner
A152 prediksi-nasabah-potensial-menggunakan-metode-klasifikasi-pohon-biner
Epul Logariasmoú590 visualizações
10 por dedesumarni3
1010
10
dedesumarni339 visualizações
1. klasifikasi dan evaluasi por BambangWijiatmoko
1. klasifikasi dan evaluasi1. klasifikasi dan evaluasi
1. klasifikasi dan evaluasi
BambangWijiatmoko103 visualizações
Analisis dan penyajian data por Kacung Abdullah
Analisis dan penyajian dataAnalisis dan penyajian data
Analisis dan penyajian data
Kacung Abdullah4.4K visualizações
04-cara-pemakaian-weka.ppt por Putrifitriasari1
04-cara-pemakaian-weka.ppt04-cara-pemakaian-weka.ppt
04-cara-pemakaian-weka.ppt
Putrifitriasari12 visualizações
Tutorial WEKA.ppt por JurnalJTIM
Tutorial WEKA.pptTutorial WEKA.ppt
Tutorial WEKA.ppt
JurnalJTIM8 visualizações
Klasifikasi - Algoritma Naive Bayes por Elvi Rahmi
Klasifikasi - Algoritma Naive Bayes Klasifikasi - Algoritma Naive Bayes
Klasifikasi - Algoritma Naive Bayes
Elvi Rahmi320 visualizações
PPT KEL 3 DAI - 007.pptx por StevenAdiSantoso
PPT KEL 3 DAI - 007.pptxPPT KEL 3 DAI - 007.pptx
PPT KEL 3 DAI - 007.pptx
StevenAdiSantoso7 visualizações
Procceding_KNIT_2_97-102_AndikaDwiHadiri por Andika Dwi Hadiri
Procceding_KNIT_2_97-102_AndikaDwiHadiriProcceding_KNIT_2_97-102_AndikaDwiHadiri
Procceding_KNIT_2_97-102_AndikaDwiHadiri
Andika Dwi Hadiri108 visualizações
ML.docx por josuaturnip1
ML.docxML.docx
ML.docx
josuaturnip165 visualizações
ML.docx por josuaturnip1
ML.docxML.docx
ML.docx
josuaturnip154 visualizações
Klasifikasi Data Mining.pptx por Adam Superman
Klasifikasi Data Mining.pptxKlasifikasi Data Mining.pptx
Klasifikasi Data Mining.pptx
Adam Superman192 visualizações
data mining por dewi2093
data miningdata mining
data mining
dewi20932K visualizações
Pertemuan 4.pdf por HasanulFahmi2
Pertemuan 4.pdfPertemuan 4.pdf
Pertemuan 4.pdf
HasanulFahmi27 visualizações
A11.2012.07112 alvian yudha prawira tgsdm2 _a11.4803 por Alvian yudha Prawira
A11.2012.07112 alvian yudha prawira tgsdm2 _a11.4803A11.2012.07112 alvian yudha prawira tgsdm2 _a11.4803
A11.2012.07112 alvian yudha prawira tgsdm2 _a11.4803
Alvian yudha Prawira503 visualizações
Machine learning dan data mining por Alvian yudha Prawira
Machine learning dan data miningMachine learning dan data mining
Machine learning dan data mining
Alvian yudha Prawira10.9K visualizações

Mais de Universitas Bina Darma Palembang

30448 pertemuan1 por
30448 pertemuan130448 pertemuan1
30448 pertemuan1Universitas Bina Darma Palembang
741 visualizações3 slides
29510 pertemuan18(form method-get-post-dan-session(1)) por
29510 pertemuan18(form method-get-post-dan-session(1))29510 pertemuan18(form method-get-post-dan-session(1))
29510 pertemuan18(form method-get-post-dan-session(1))Universitas Bina Darma Palembang
563 visualizações11 slides
28501 pertemuan14(php) por
28501 pertemuan14(php)28501 pertemuan14(php)
28501 pertemuan14(php)Universitas Bina Darma Palembang
379 visualizações8 slides
28500 pertemuan22(header dokumen html dgn tag title) por
28500 pertemuan22(header dokumen html dgn tag title)28500 pertemuan22(header dokumen html dgn tag title)
28500 pertemuan22(header dokumen html dgn tag title)Universitas Bina Darma Palembang
377 visualizações10 slides
25437 pertemuan25(hitcounter) por
25437 pertemuan25(hitcounter)25437 pertemuan25(hitcounter)
25437 pertemuan25(hitcounter)Universitas Bina Darma Palembang
340 visualizações3 slides
23921 pertemuan 3 por
23921 pertemuan 323921 pertemuan 3
23921 pertemuan 3Universitas Bina Darma Palembang
345 visualizações6 slides

Mais de Universitas Bina Darma Palembang(20)

Modul klasifikasi decission tree modul klasifikasi

  • 1. KLASIFIKASI Definisi Klasifikasi Klasifikasi adalah sebuah proses untuk menemukan model yang menjelaskan atau membedakan konsep atau kelas data, dengan tujuan untuk dapat memperkirakan kelas dari suatu objek yang kelasnya tidak diketahui (Tan et all, 2004). Di dalam klasifikasi diberikan sejumlah record yang dinamakan training set, yang terdiri dari beberapa atribut, atribut dapat berupa kontinyu ataupun kategoris, salah satu atribut menunjukkan kelas untuk record. Gambar 1. Klasifikasi sebagai suatu tugas memetakan atribut x ke dalam label kelas y (Tan et all, 2006) Model Klasifikasi terdiri dari (Tan et all, 2006): 1. Pemodelan Deskriptif Dapat bertindak sebagai suatu alat yang bersifat menjelaskan untuk membedakan antara objek dengan klas yang berbeda.
  • 2. 2. Pemodelan Prediktif Model klasifikasi juga dapat menggunakan prediksi label kelas yang belum diketahui recordnya. 4.2 Tujuan Klasifikasi Tujuan dari klasifikasi adalah untuk: 1. Menemukan model dari training set yang membedakan record kedalam kategori atau kelas yang sesuai, model tersebut kemudian digunakan untuk mengklasifikasikan record yang kelasnya belum diketahui sebelumnya pada test set. 2. Mengambil keputusan dengan memprediksikan suatu kasus, berdasarkan hasil klasifikasi yang diperoleh . 4.3 Konsep Pembuatan Model dalam Klasifikasi Untuk mendapatkan model, kita harus melakukan analisis terhadap data latih (training set). Sedangkan data uji (test set) digunakan untuk mengetahui tingkat akurasi dari model yang telah dihasilkan. Klasifikasi dapat digunakan untuk memprediksi nama atau nilai kelas dari suatu obyek data. Proses klasifikasi data dapat dibedakan dalam 2 tahap, yaitu : 1. Pembelajaran / Pembangunan Model Tiap – tiap record pada data latih dianalisis berdasarkan nilai – nilai atributnya, dengan menggunakan suatu algoritma klasifikasi untuk mendapatkan model. 2. Klasifikasi Pada tahap ini, data uji digunakan untuk mengetahui tingkat akurasi dari model yang dihasilkan. Jika tingkat akurasi yang diperoleh sesuai dengan nilai yang ditentukan, maka model tersebut dapat digunakan untuk mengklasifikasikan record – record data baru yang belum pernah dilatihkan atau diujikan sebelumnya. Untuk meningkatkan akurasi dan efisiensi proses klasifikasi, terdapat beberapa langkah pemrosesan terhadap data, yaitu : 1. Data Cleaning Data cleaning merupakan suatu pemrosesan terhadap data untuk menghilangkan noise dan penanganan terhadap missing value pada suatu record.
  • 3. 2. Analisis Relevansi Pada tahap ini, dilakukan penghapusan terhadap atribut – atribut yang redundant ataupun kurang berkaitan dengan proses klasifikasi yang akan dilakukan. Analisis relevansi dapat meningkatkan efisiensi klasifikasi karena waktu yang diperlukan untuk pembelajaran lebih sedikit daripada proses pembelajaran terhadap data – data dengan atribut yang masih lengkap (masih terdapat redundansi). 3. Transformasi Data Pada data dapat dilakukan generalisasi menjadi data dengan level yang lebih tinggi. Misalnya dengan melakukan diskretisasi terhadap atribut degan nilai kontinyu. Pembelajaran terhadap data hasil generalisasi dapat mengurangi kompleksitas pembelajaran yang harus dilakukan karena ukuran data yang harus diproses lebih kecil. (a) (b) Gambar 2. Proses Klasifikasi: (a) Learning: Training data dianalisis dengan algoritma klasifikasi. Disini atribut label kelas adalah ”Tenured“, dan “Learned Model“ atau “classifier“ di gambarkan pada blok aturan klasifikasi. (b). Classification: Test data digunakan untuk memperkirakan keakuratan aturan klasifikasi. Jika keakuratan tersebut dianggap diterima, maka aturan itu dapat diaplikasikan untuk mengkalsifikasikan data tuples baru.
  • 4. Pada Gambar 2 terdiri dari pembuatan model dan penggunaan model. Pembuatan model menguraikan sebuah set dari penentuan kelas-kelas sebagai: 1. Setiap tuple diasumsikan sudah mempunyai kelas yang dikenal seperti ditentukan oleh label kelas atribut. 2. Kumpulan tuple yang digunakan untuk membuat model disebut kumpulan pelatihan (training set) 3. Model direpresentasikan sebagai classification rules, decision tree atau formula matematika. Penggunaan model menguraikan pengklasifikasian masa yang akan datang atau obyek yang belum ketahui, yaitu taksiran keakuratan dari model yang terdiri dari: 1. Label yang telah diketahui dari contoh tes dibandingkan dengan hasil klasifikasi dari model. 2. Nilai keakuratan adalah prosentase dari kumpulan contoh tes yang diklasifikasikan secara tepat oleh model. 3. Kumpulan tes tidak terikat pada kumpulan pelatihan, 4. Jika akurasi diterima, gunakan model untuk mengklasifikasikan data tuple yang label kelasnya belum diketahui. Untuk mengevaluasi performansi sebuah model yang dibangun oleh algoritma klasifikasi dapat dilakukan dengan menghitung jumlah dari test record yang di prediksi secara benar (akurasi) atau salah (error rate) oleh model tersebut. Akurasi dan error rate didefinisikan sebagai berikut. Akurasi = Jumlah prediksi benar Jumlah total prediksi Error rate = Jumlah prediksi salah Jumlah total prediksi Algoritma klasifikasi berusaha untuk mencari model yang mempunyai akurasi yang tinggi atau error rate yang rendah ketika model diterapkan pada test set.
  • 5. 4.4 Teknik Klasifikasi Didalam Klasifikasi sebagaimana telah dijelaskan, ada beberapa teknik klasifikasi yang digunakan, anataralain: pohon keputusan, rule based, neural network, support vector machine, naive bayes, dan nearest neighbour. Dan pada pembahasan ini akan menggunakan teknik pohon keputusan, karena beberapa alasan: 1. Dibandingkan dengan classifier JST atau bayesian, sebuah pohon keputusan mudah diinterpretasi/ ditangani oleh manusia. 2. Sementara training JST dapat menghabiskan banyak waktu dan ribuan iterasi, pohon keputusan efisien dan sesuai untuk himpunan data besar. 3. Algoritma dengan pohon keputusan tidak memerlukan informasi tambahan selain yang terkandung dalam data training (yaitu, pengetahuan domain dari distribusi-distribusi pada data atau kelas-kelas). 4. Pohon keputusan menunjukkan akurasi klasifikasi yang baik dibandingkan dengan teknik-teknik yang lainnya. 4.5 Decision Tree Salah satu metoda Data Mining yang umum digunakan adalah decision tree. Decision tree adalah struktur flowchart yang menyerupai tree (pohon), dimana setiap simpul internal menandakan suatu tes pada atribut, setiap cabang merepresentasikan hasil tes, dan simpul daun merepresentasikan kelas atau distribusi kelas. Alur pada decision tree di telusuri dari simpul akar ke simpul daun yang memegang prediksi kelas untuk contoh tersebut. Decision tree mudah untuk dikonversi ke aturan klasifikasi (classification rules)(Zalilia, 2007). Konsep Decision Tree Mengubah data menjadi pohon keputusan (decision tree) dan aturan-aturan keputusan (rule) (Basuki dkk, 2003). DATA Decision Tree Rule Gambar 3. Konsep Decision Tree
  • 6. Tipe Simpul Pada Tree Tree mempunyai 3 tipe simpul yaitu (Zalilia, 2007): 1. Simpul akar dimana tidak ada masukan edge dan 0 atau lebih keluaran edge (tepi), 2. Simpul internal, masing-masing 1 masukan edge dan 2 atau lebih edge keluaran, 3. Simpul daun atau simpul akhir, masing-masing 1 masukan edge dan tidak ada edge keluaran. Pada decision tree setiap simpul daun menandai label kelas. Simpul yang bukan simpul akhir terdiri dari akar dan simpul internal yang terdiri dari kondisi tes atribut pada sebagian record yang mempunyai karakteristik yang berbeda. Simpul akar dan simpul internal ditandai dengan bentuk oval dan simpul daun ditandai dengan bentuk segi empat (Han, 2001). Gambar 4. Decision tree untuk masalah klasifikasi intrusion Konsep Data Dalam Decision Tree Ada beberapa konsep dalam decision tree, antara lain: 1. Data dinyatakan dalam bentuk tabel dengan atribut dan record. 2. Atribut menyatakan suatu parameter yang dibuat sebagai kriteria dalam pembentukan tree. Misalkan untuk menentukan main tenis, kriteria yang diperhatikan adalah cuaca, angin dan temperatur. Salah satu atribut merupakan atribut yang menyatakan data solusi per-item data yang disebut dengan target atribut.
  • 7. 3. Atribut memiliki nilai- nilai yang dinamakan dengan instance. Misalkan atribut cuaca mempunyai instance berupa cerah, berawan dan hujan. Contoh pemakaian Decision Tree 1. Diagnosa penyakit tertentu, seperti hipertensi, kanker, stroke dan lain-lain. 2. Pemilihan produk seperti rumah, kendaraan, komputer dan lain-lain 3. Pemilihan pegawai teladan sesuai dengan kriteria tertentu Proses Dalam Decision Tree (Basuki dkk, 2003) Proses pembentukan Decision Tree adalah sbb: 1. Mengubah bentuk data (tabel) menjadi model tree. Gambar 5. Proses Data Menjadi Tree
  • 8. Ukuran untuk Memilih Split Terbaik Pemilihan atribut pada algoritma induksi decision tree menggunakan ukuran berdasarkan entropy yang dikenal dengan information gain sebagai sebuah heuristic untuk memilih atribut yang merupakan bagian terbaik dari contoh ke dalam kelas. Semua atribut adalah bersifat kategori yang bernilai diskrit. Atribut dengan nilai continuous harus didiskritkan (Zalilia, 2007). Ukuran information gain digunakan untuk memilih tes atribut pada setiap simpul dalam tree. Atribut dengan information gain tertinggi (atau nilai pengurangan entropy yang terbesar) dipilih sebagai tes atribut untuk simpul tersebut. Atribut ini meminimalkan informasi yang dibutuhkan untuk mengklasifikasikan contoh pada proses pembagian dan mencerminkan ketidakmurnian (impurity). Misalkan S adalah kumpulan dari s contoh data. Andaikan atribut label kelas mempunyai m nilai berbeda yang menjelaskan m nilai kelas yang berbeda, Ci (for i = 1, ..., m). Misalkan si menjadi jumlah contoh S dalam kelas Ci . Informasi yang dibutuhkan untuk mengklasifikasikan diberikan contoh sebagai 1 j berikut. I ( S ,S ,...,S ) m pi log 2 ( pi ) (1) 1 2 m i 1 dimana pi adalah kemungkinan sebuah contoh kepunyaan kelas Ci dan diperkirakan oleh si/s . Catatan bahwa fungsi log basis 2 digunakan semenjak informasi dikodekan dalam bit-bit. Misalkan atribut A mempunyai nilai v yang berbeda, a1 , a2 ,..., av Atribut A dapat digunakan untuk membagi S kedalam v bagian (subset), S1 , S 2 ,..., S v , dimana S j berisi contoh di S yang mempunyai nilai a j dari A . Jika A terpilih sebagai tes atribut (misal atribut untuk splitting), maka bagian ini akan sesuai dengan pertumbuhan cabang dari simpul yang berisi S . Misal Sij menjadi contoh kelas Ci pada sebuah subset S j . Entropy atau informasi berdasarkan pembagian ke dalam bagian A sebagai berikut. v s ... s E A 1 j mj .I s ,..., smj (2) j 1 s
  • 9. Bentuk sij ... s smj adalah bobot dari bagian (subset) jth dan merupakan jumlah contoh pada subbagian dibagi oleh total jumlah contoh dalam S . Nilai entropy terkecil adalah kemurnian (purity) terbesar pada pembagian subbagian. Catatan untuk subbagian s j , I s1 j , s2 j ,..., smj sij m pij log2 i 1 pij (3) Dimana pij S j adalah probabilitas pada contoh s j kepunyaan kelas Ci . Pengkodean informasi yang akan diperoleh dari percabangan pada A adalah: Gain A I s1 , s2 ,...., sm E A (4) Dengan kata lain, Gain( A) adalah reduksi yang diharapkan dalam entropy yang disebabkan oleh pengetahuan nilai pada atribut A. Algoritma menghitung information gain pada setiap atribut. Atribut dengan nilai gain terbesar dipilih sebagai tes atribut (simpul akar). Simpul A dibuat dan dilabelkan dengan atribut, cabang dibuat untuk setiap nilai atribut. a. Entropy Definisi Entrophy (Basuki, 2003): 1. Entropy (S) adalah jumlah bit yang diperkirakan dibutuhkan untuk dapat mengekstrak suatu kelas (+ atau -) dari sejumlah data acak pada ruang sample S. 2. Entropy bisa dikatakan sebagai kebutuhan bit untuk menyatakan suatu kelas. Semakin kecil nilai Entropy maka semakin baik untuk digunakan dalam mengekstraksi suatu kelas. 3. Panjang kode untuk menyatakan informasi secara optimal adalah untuk messages yang mempunyai probabilitas p. log 2 p bits 4. Sehingga jumlah bit yang diperkirakan untuk mengekstraksi S ke dalam kelas adalah: p( ) log 2 p( ) p( ) log 2 p( ) (5) Entropy(S ) p( ) log 2 p( ) p( ) log 2 p( ) (6)
  • 10. Keterangan : S = ruang (data) sample yang digunakan untuk training. P(+) = jumlah yang bersolusi positif (mendukung) pada data sample untuk kriteria tertentu. P(-) = jumlah yang bersolusi negatif (tidak mendukung) pada data sample untuk kriteria tertentu. 2. Mengubah model tree menjadi rule. Gambar 6. Mengubah Tree Menjadi Rules Gambar 7. Conjunction & Disjunction (pada kasus main tennis)
  • 11. 3. Menyederhanakan Rule (“test of independency” dengan distribusi terpadu chi-square) Apabila individu-individu suatu populasi dapat diklasifikasikan dalam dua variable (kategori),tiap-tiap kategori dapat terdiri dari beberapa alternative. Kemudian kita ingin menguji Ho apakah kedua variable kedua variable itu independent. Untuk menguji Ho tersebut kemudian diambil suatu sample, individu- individu dalam sample tersebut diklasifikasikan dalam”two way classification”. Test yang demikian dinamakan test of independency (pengujian Independensi). Tabelnya dinamakan tabel kontingensi. Apabila variabel I terdiri dari k kategori dan variabel II terdiri dari r kategori, tabelnya dapat disusun seperti tabel dibawah ini. Tabel kontingensi Variabel I A1 A2 A3 Ak Jumlah Variabel II B1 n11 n12 n13 ……… n1k n1 B2 n21 n22 n23 ……… n2k n2 . . . . ……… . . . . . . ……… . . . . . . ……… . . . . . . ……… . . Br nr1 nr2 nr3 ……….. nrk nr Jumlah n1 n2 n3 nk n Dimana; nij = individu dari baris i kolom j i = 1, 2, ……………………..r j = 1, 2, 3, …………………...k Langkah-langkah dalam test of independensi: 1. Menentukan formulasi null hipotesis dengan alternative hipotesis: Ho: P11 = P12 = …………......= P1k P21 = P22 = …………......= P2k --------------------------------------- Pr1 = Pr2 = = Prk H1 : tidak semua proporsi sama 2. Dipilih level of significant tertentu ( ) degree of freedom (r-1)(k-1)
  • 12. 3. Kriteria pengujian: Daerah terima Daerah tolak X 2 X 2 { ; (r-1)(k-1) Ho diterima apabila : X 2 ≤ X 2 ; (n-1) (k-1)  berarti kriteria independent (dapat dihilangkan) Ho ditolak apabila : X 2 > X 2 ; (r-1) (k-1)  berarti kriteria dependent (tidak dapat dihilangkan) 4. Perhitungan: r X 2 = i j k (nij j i eij ) 2 eij ……………………………………………… (1) Dimana eij = (ni .)(n. j ) n ……………………………………………………. (2) nij eij = frekuensi pengamatan (observasi) dari baris I dan kolom j = frekuensi diharapkan (expected) dari baris I dan kolom j 5. Kesimpulan: Apakah Ho diterima (Variabel yang satu tidak mempengaruhi/independent dengan variabel yang lain) atau Ho ditolak (variabel I dependen dengan variabel II) Contoh: Kita ingin mengetahui apakah ada pengaruh (hubungan dependen) antara pendapatan individu dengan kualitas bahan makanan yang dikonsumir. Untuk tujuan ini kemudian diadakan ujian penyelidikan terhadap 100 individu dan didapat kenyatan sebagai berikut:
  • 13. Pendapatan Tinggi Sedang Rendah jumlah Mutu bahan makan Baik 14 6 9 29 Cukup 10 16 10 36 Jelek 2 13 20 35 Jumlah 26 35 39 100 nij Penyelesaian: 1. Hipotesis Ho : P11 = P12 = P13 P21 = P22 = P23 P31 = P32 = P33 Atau mutu bahan makan dependen dengan tingkat dependen. Ho : Mutu bahan makan dependen dengan tingkat pendapatan 2. Dipilih level of significance 0,05 3. Kriteria Pengujian: Daerah terima Daerah tolak X 2 X 2 {0,05 ; (3-1)(3-1) = 9,488 Ho diterima apabila X 2 ≤ 9,488 Ho ditolak apabila X 2 > 9,488 4. Perhitungan X 2 dari sample: Dengan menggunakan persamaan (2), maka dapat kita cari eij e11 = e21 = e31 = (29)(26) 100 (36)(26) 100 (35)(26) 100 = 7,54 e12 = = 9,36 e22 = = 9,10 e32 = (29)(35) 100 (36)(35) 100 (35)(35) 100 = 10,15 e13 = = 12,60 e23 = = 12,25 e33 = (29)(39) 100 (36)(39) 100 (35)(39) 100 = 11,31 = 14,04 = 13,65
  • 14. Pendapatan Tinggi Sedang Rendah jumlah Mutu bahan makan Baik 7,54 10,15 11,31 29 Cukup 9,36 12,60 14,04 36 Jelek 9,10 12,25 13,65 35 Jumlah 26 35 39 100 eij (14 7,54)2 (6 10,15)2 (9 11,31)2 (10 9,36)2 (16 12,60)2 7,54 10,15 11,31 9,36 12,60 X 2 = (10 14,40)2 (2 9,10)2 (13 12,25)2 (20 13,65)2 14,40 9,10 12,25 13,65 = 18,36 5. Kesimpulan: Oleh karena 18,36 > 9,48 maka Ho kita tolak, berarti terdapat hubungan antara mutu bahan makan dengan tingkat pendapatan (kriteria dependent).
  • 15. 4.6 CONTOH KASUS Contoh: Permasalahan Penentuan Seseorang Menderita Hipertensi Menggunakan Decision Tree. Data diambil dengan 18 sample, dengan pemikiran bahwa yang mempengaruhi seseorang menderita hipertensi atau tidak adalah usia, berat badan, dan jenis kelamin. Usia mempunyai instance: muda dan tua. Berat badan mempunyai instance: underweight, average dan overweight. Jenis kelamin mempunyai instance: pria dan wanita. Data sample yang digunakan untuk menentukan hipertensi adalah: Nama Pasien Berat Badan Usia Jenis Kelamin Hipertensi? Oki lukman Overweight Tua Perempuan Ya Pasha ungu Overweight Tua Laki-laki Ya Budi anduk Overweight Tua Laki-laki Ya Indra bekti Overweight Tua Laki-laki Ya Luna maya Overweight Muda Perempuan Ya Tukul Overweight Muda Laki-laki Ya Afgan Average Tua Laki-laki Ya Desta Average Tua Laki-laki Ya Ringgo Average Muda Laki-laki Tidak Ruben Average Muda Laki-laki Tidak Titi kamal Average Muda Perempuan Tidak Aurakasih Average Tua Perempuan Tidak Jengkelin Average Tua Perempuan Tidak Ari untung Average Muda Laki-laki Tidak Gita gutawa Underweight Muda Perempuan Tidak Fedi nuril Underweight Muda Laki-laki Tidak Dian sastro Underweight Tua Perempuan Tidak Nicholas Underweight Tua Laki-laki Tidak Langkah penyelesaian kasus: 1. Mengubah Data Menjadi Tree. 2. Mengubah tree menjadi rule. 3. Menyederhanakan dan menguji rule. 4. Menentukan rule akhir Penyelesaian: Langkah -1: Mengubah Data Menjadi Tree. a. Menentukan Node Terpilih. Dari data sampel tentukan dulu node terpilih, yaitu dengan menghitung nilai information gain masing-masing atribut. (usia, berat badan, dan jenis kelamin).
  • 16. Untuk menentukan node terpilih, gunakan nilai information gain dari setiap kriteria dengan data sample yang ditentukan. Node terpilih adalah kriteria dengan information gain yang paling besar. Langkah – langkah menentukan node terpilih: 1. Menghitung nilai informasi (I) dari seluruh data training Dengan menggunakan persamaan: p( ) log 2 p( ) p( ) log 2 p( ) I = -8/18 log2 8/18 – 10/18 log2 10/18 = 0.99 2. Menghitung nilai informasi tiap atribut Contoh: nilai informasi atribut berat badan Dengan menggunakan persamaan: BB Hiper? Jumlah Catatan: Overweight Ya 6 Overweight Tidak 0 Average Ya 2 Average Tidak 6 Underweight Ya 4 Underweight Tidak 0 p( ) log 2 p( ) p( ) log 2 p( ) q1= -6/6 log2 6/6 – 0/6 log2 0/6 = 0 q2= -2/8 log2 2/8 – 6/8 log2 6/8 = 0.81 Total 18 3. Menghitung nilai entrophy tiap atribut Contoh: Entropy untuk berat badan: q1= -4/4 log2 4/4 – 0/4 log2 0/4 = 0 E = (6/18)q1 + (8/18)q2 + (4/18)q3 = 0.36 4. Menghitung nilai information gain tiap atribut Contoh: atribut berat badan Gain A I s1 , s2 ,...., sm E A = 0.99 – 0.36 = 0.63
  • 17. Dengan menggunakan langkah – langkah yang sama kita hitung nilai information gain atribut usia dan jenis kelamin, sehingga didapat nilai information gain atribut usia sebesar 0.091 dan jenis kelamin sebesar 0.048. Sehingga, terpilih atribut BERAT BADAN sebagai node awal karena memiliki information gain terbesar. b. Menyusun Tree Awal Berat bad an Overw eight Average Underw eight O k i lu kman + A fgan D esta + + Pash a u ng u + Rin gg o - Fedi nuril - Bud i an du k + Ru ben - G ita gutaw a - In dra bek t i + Tit i k amal - D ian sast ro - Lu na maya + A urak asih - N ich olas - Tu ku l + Jen gk elin - A ri u ntu ng - Node berikutnya dapat dipilih pada bagian yang mempunyai nilai + dan -, pada contoh di atas hanya berat = average yang mempunyai nilai + dan –, maka semuanya pasti mempunyai internal node. Untuk menyusun internal node lakukan satu-persatu. Penentuan Internal Node untuk berat = average Nama Pasien Usia Jenis Kelamin Hipertensi? Afgan Tua Laki-laki Ya Desta Tua Laki-laki Ya Ringgo Muda Laki-laki Tidak Ruben Muda Laki-laki Tidak Titi kamal Muda Perempuan Tidak Aurakasih Tua Perempuan Tidak Jengkelin Tua Perempuan Tidak Ari untung Muda Laki-laki Tidak
  • 18. Nilai informasi (I) dari data training untuk berat average: Jenis Kelamin Hiper? Jumlah Laki-laki Ya 2 Laki-laki Tidak 3 Perempuan Ya 0 Perempuan Tidak 3 Dengan menggunakan persamaan: p( ) log 2 p( ) p( ) log 2 p( ) I = -2/8 log2 2/8 – 6/8 log2 6/8 = 0.811 Kemudian kita menghitung nilai entrophy untuk masing – masing atribut yang tersisa: Usia Hiper? Jumlah Tua Ya 2 Tua Tidak 2 Muda Ya 0 Muda Tidak 4 E = 0.5 E = 0.61 Setelah itu didapatkan nilai information gain untuk atribut usia sebesar 0.811 – 0.5 = 0.311, dan nilai information gain untuk atribut jenis kelamin sebesar 0.811 – 0.61 = 0.201, sehingga atribut usia dipilih sebagai node berikutnya. Begitu seterusnya sampai node terakhir dapat menentukan kelas dari data. Menyusun Tree Lanjutan Berat b ada n Overweight Average Underweight Y ES U sia N O Tua Muda A fgan + D esta + A u rak asih - Jen g k elin - R in g go - R ub en - Ti t i k amal - A ri un tu n g -
  • 19. Berat b adan Overweight Average Underweight Y ES U sia N O Tua Muda Jen is K elamin N O Laki-laki Perempuan A fgan + D est a + A u rak asih - Jen g k el in - Hasil Tree Akhir Berat b ad an Overweight Average Underweight Y ES U sia N O Tua Muda Jen is K elamin N O Laki-laki Perempuan Y ES N O
  • 20. Langkah -2 : Mengubah Tree menjadi rule B erat b ad an Overweight Average Underweight Y ES U sia N O Tua Muda Jen is K elamin N O Laki-laki Perempuan Y ES N O R1: IF berat = overweight THEN hipertensi = ya R2: IF berat = underweight THEN hipertensi = tidak R3: IF berat = average^usia = muda^ THEN hipertensi = tidak R4: IF berat = average^usia = tua^jenis kelamin=laki- laki^ THEN hipertensi = ya R5: IF berat = average^usia = tua^jenis kelamin=perempuan^ THEN hipertensi = tidak Langkah -3 : Menyederhanakan dan Menguji Rule Dalam langkah menyederhanakan dan menguji rule ini, kita dapat menjalankan langkah-langkah berikut: 1. Membuat table distribusi terpadu dengan menyatakan semua nilai kejadian pada setiap rule. 2. Menghitung tingkat independensi antara kriteria pada suatu rule, yaitu antara atribut dan target atribut (penghitungan tingkat independensi menggunakan “Test of Independency” Chi-square) 3. Mengeliminasi kriteria yang tidak perlu, yaitu yang tingkat independensinya tinggi.
  • 21. Untuk Atribut Berat Badan BB hiper? jumlah OW ya 6 OW tidak 0 AV ya 2 AV tidak 6 UW ya 4 UW tidak 0 OW AV UW Jumlah Hipertensi 6 2 4 12 Tidak 0 6 0 6 Jumlah 6 8 4 18 OW AV UW Jumlah X Hipertens i 6 2 4 12 Tidak 0 6 0 6 Jumlah 6 8 4 18 nij Hipotesis: H0 : tidak ada hubungan antara berat badan dengan seseorang menderita hipertensi H1 : ada hubungan antara berat badan dengan seseorang menderita hipertensi Tingkat signifikansi : α = 0.05 Degree of freedom (DOF) = {α; (r – 1)*(k - 1)} = {0.05; (2– 1)*(3 - 1)} = {0.05; 2} 2 tabel 5.9915 (lihat tabel) Daerah kritis: Daerah terima Ho diterima apabila X 2 ≤ 5.99 Ho ditolak apabila X 2 > 5.99 Daerah tolak X 2 X 2 {0,05 ; (2-1)(3-1) = 5.99 Uji Independensi dengan distribusi Chi-Square nij
  • 22. OW AV UW Hipertensi 4 5.33 2.67 12 Tidak 2 2.67 1.33 6 Jumlah 6 8 4 18 (6 4) 2 (2 5.33) 2 (4 2.67) 2 (0 2) 2 (6 2.67) 2 (0 1.33) 2 4 5.33 2.67 2 2.67 1.33  X eij Perhitungan: (12)(6) e11 = 18 (6)(6) e21 = 18 = 4 e12 = = 2 e22 = (12)(8) 18 (6)(8) 18 = 5.33 e13 = = 2.67 e23 = (12)(4) 18 (6)(4) 18 = 2.67 = 1.33 Lalu, kita hitung nilai X2 dengan menggunakan persamaan: r k (n ei ) 2 X2 hitung = i j (ni .)(n. j ) ij j j i eij Dimana eij = n X2 hitung = = 1 + 2.08 + 0.67 + 2 + 4.17 +1.33 = 11.25 Karena nilai X2 hitung > X2 tabel yaitu 11.25 > 5.99, maka H0 ditolak, artinya atribut berat badan mempengaruhi seseorang menderita hipertensi atau tidak (dependent), sehingga atribut ini tidak bisa dihilangkan. Untuk Atribut Usia Dengan cara yang sama pada atribut berat badan, maka dapat diperoleh: {0,05 ; 1}  2 tabel 3.8415 (lihat tabel) X2 hitung = 2.205 Kesimpulan: Karena nilai X2 hitung ≤ X2 tabel yaitu 2.205 yaitu 2.205 ≤ 3.8415, artinya atribut usia tidak mempengaruhi seseorang menderita hipertensi atau tidak (independent), sehingga atribut ini bisa dihilangkan.
  • 23. Untuk Atribut Jenis kelamin Dengan cara yang sama pada atribut berat badan, maka dapat diperoleh:  {0,05 ; 1}  X 2 tabel 3.8415 (lihat tabel) X2 hitung = 5.299 Kesimpulan: Karena nilai X2 hitung > X2 tabel yaitu 5.299> 3.8415, maka H0 ditolak, artinya atribut berat badan mempengaruhi seseorang menderita hipertensi atau tidak (dependent), sehingga atribut ini tidak bisa dihilangkan. Langkah -4 : Menentukan Rule Akhir Berdasarkan hasil penyederhanaan rule dengan Chi-Square, maka rule akhir yang terbentuk adalah: R1: IF berat = overweight THEN hipertensi = ya R2: IF berat = underweight THEN hipertensi = tidak R4: IF berat = average ^jenis kelamin=laki- laki^ THEN hipertensi = ya R5: IF berat = average ^jenis kelamin=perempuan^ THEN hipertensi = tidak TUGAS : GUNAKAN DECISION TREE UTK KASUS BERIKUT : TABEL KLASIFIKASI RESIKO KREDIT : Pelanggan Saving Asset Sallary Resiko Kredit 1 Mediun High 75 Good 2 Low Low 50 Bad 3 High Medium 25 Bad 4 Mediun Medium 50 Good 5 Low Medium 100 Good 6 High High 25 Good