SlideShare uma empresa Scribd logo
1 de 75
Masalah, Ruang Masalah dan
Pencarian
Ir. Ahmad Haidaroh, M.Kom.
PENGENALAN KECERDASANPENGENALAN KECERDASAN
BUATANBUATAN
( / AI
)
(2 SKS)
Ir. Ahmad Haidaroh, M.Kom.
STIKOM Artha Buana.
Artificial Intelligence
Jaringan Syaraf Tiruan (JST)
 Otak manusia berisi jutaan sel syaraf
(neuron) yang bertugas memproses
informasi
 Neuron saling berinteraksi satu sama lain
mendukung kemampuan kerja otak
manusia
 Komponen utama neuron dapat dikelompokkan
menjadi 3 bagian :
 Dendrit = bertugas menerima informasi = jalur
input bagi soma
 Badan sel (soma) = tempat pengolahan informasi,
di badan sel terdapat inti sel yang bertugas
mengolah informasi
 Akson = bertugas mengirimkan impuls-impuls
sinyal ke sel syaraf lain = jalur output bagi soma
 Antar dendrit dipertemukan dengan sinapsis
 Meniru cara kerja jaringan syaraf biologis
 Generalisasi model matematis dari pemahaman manusia:
 Pemrosesan informasi terjadi pada neuron
 Sinyal mengalir diantara sel saraf/neuron melalui suatu
sambungan penghubung
 Setiap sambungan penghubung memiliki bobot yang
bersesuaian.
 Bobot ini akan digunakan untuk menggandakan /
mengalikan sinyal yang dikirim melaluinya.
 Setiap sel syaraf akan menerapkan fungsi aktivasi
terhadap sinyal hasil penjumlahan berbobot yang
masuk kepadanya untuk menentukan sinyal
keluarannya.
( )kk
p
j
jkjk
vy
xwv
ϕ=
= ∑=0
Secara matematis:
dan
 Fungsi yang digunakan untuk mencari
rata-rata bobot dari semua elemen input.
 Bentuk sederhananya adalah dengan
mengalikan setiap nilai input (Xj) dengan
bobotnya (Wij) dan menjumlahkannya
 Diibaratkan dengan sebuah neuron yang
memonitor sinyal yang datang dari
neuron-neuron lain.
 Neuron ini menghitung penjumlahan
berbobotnya dan kemudian menentukan
sinyal untuk dikirim ke neuron-neuron
lain.
 Dipakai untuk menentukan keluaran suatu
neuron
 Merupakan fungsi yang menggambarkan
hubungan antara tingkat aktivasi internal
(summation function) yang mungkin berbentuk
linier atau nonlinear.
 Beberapa fungsi aktivasi JST diantaranya hard
limit, purelin, dan sigmoid. Yang populer
digunakan adalah fungsi sigmoid yang memiliki
beberapa varian : sigmoid logaritma, sigmoid
biner, sigmoid bipolar, sigmoid tangen.
 Hard limit memberikan batasan tegas 0
atau 1, purelin memisahkan secara linier,
sigmoid berupa fungsi smooth bernilai
antara 0 sampai dengan 1 (bila biner) atau
antara -1 sampai 1 (bila bipolar)
Hard limit function
a = 0 jika n < 0
a = 1 jika n ≥ 0
n
0
+1
-1
a = hardlim ( n )
 Dapat belajar dari pengalaman
 Algoritma untuk JST beroperasi secara langsung
dengan angka sehingga data yang tidak numerik harus
diubah menjadi data numerik.
 JST tidak diprogram untuk menghasilkan keluaran
tertentu. Semua keluaran atau kesimpulan yang ditarik
oleh jaringan didasarkan pada pengalamannya selama
mengikuti proses pembelajaran.
 Pada proses pembelajaran, ke dalam JST dimasukkan
pola-pola input (dan output) lalu jaringan akan diajari
untuk memberikan jawaban yang bisa diterima.
 Ditentukan oleh :
 Pola hubungan antar neuron (disebut
arsitektur jaringan)
 Metode penentuan bobot-bobot
sambungan (disebut dengan pelatihan
atau proses belajar jaringan)
 Fungsi aktivasi
 Pada JST, neuron-neuron akan dikumpulkan dalam
lapisan-lapisan (layer) yang disebut dengan lapisan
neuron (neuron layers).
 Neuron-neuron pada satu lapisan akan
dihubungkan dengan lapisan-lapisan sebelum dan
sesudahnya.
 Informasi yang diberikan pada jaringan syaraf akan
dirambatkan lapisan ke lapisan, mulai dari lapisan
input sampai ke lapisan output melalui lapisan
tersembunyi (hidden layer).
 Faktor terpenting untuk menentukan kelakuan suatu
neuron adalah fungsi aktivasi dan pola bobotnya.
 Umumnya neuron yang terletak pada lapisan yang
sama akan memiliki keadaan yang sama → fungsi
aktivasi yang sama.
 Bila neuron-neuron pada suatu lapisan (misal lapisan
tersembunyi) akan dihubungkan dengan neuron-
neuron pada lapisan lain (misal lapisan output) maka
setiap neuron pada lapisan tersebut (lapisan
tersembunyi) juga harus dihubungkan dengan setiap
neuron pada lapisan lainnya (lapisan output)
 Ada beberapa arsitektur jaringan syaraf,
antara lain :
 Jaringan dengan lapisan tunggal (single
layer net)
 Jaringan dengan banyak lapisan
(multilayer net)
 Jaringan dengan lapisan kompetitif
(competitive net)
 Hanya memiliki satu lapisan denganbobot-
bobot terhubung
 Jaringan ini hanya menerima input
kemudian secara langsung
akanmengolahnya menjadi output
tanpaharus melalui lapisan tersembunyi.
 Seberapa besar hubungan antara 2
neuron ditentukan oleh bobot yang
bersesuaian.
 Semua unit input akan dihubungkan
dengan setiap unit output.
 Memiliki 1 atau lebih lapisan yang terletak
diantara lapisan input dan lapisan output
 Ada lapisan bobot yang terletak antara 2
lapisan yang bersebelahan
 Jaringan dengan banyak lapisan ini dapat
menyelesaikan permasalahan yang lebih
sulit daripada lapisan tunggal, tentu saja
dengan pembelajaran yang lebih rumit
 Sekumpulan neuron bersaing untuk
mendapatkan hak menjadi aktif
 Umumnya hubungan antar neuron pada
lapisan kompetitif ini tidak diperlihatkan
pada diagram arsitektur
 Cara belajar JST :
 Ke dalam JST diinputkan informasi yang
sebelumnya telah diketahui hasil keluarannya.
 Penginputan informasi ini dilakukan lewat
node-node atau unit-unit input. Bobot-bobot
antarkoneksi dalam suatu arsitektur diberi
nilai awal dan kemudian JST dijalankan.
 Bobot-bobot ini bagi jaringan digunakan
untuk belajar dan mengingat suatu
informasi. Pengaturan bobot dilakukan
secara terus-menerus dan dengan
menggunakan kriteria tertentu sampai
diperoleh keluaran yang diharapkan.
 Hal yang ingin dicapai dengan
melatih/mengajari JST adalah untuk
mencapai keseimbangan antara
kemampuan memorisasi dan generalisasi.
 Kemampuan memorisasi = kemampuan JST
untuk memanggil kembali secara sempurna
sebuah pola yang telah dipelajari.
 Kemampuan generalisasi = adalah
kemampuan JST untuk menghasilkan respon
yang bisa diterima terhadap pola-pola input
yang serupa (namun tidak identik) dengan
pola-pola yang sebelumnya telah dipelajari.
 Pembelajaran terawasi (supervised
learning)
 Pembelajaran tak terawasi (unsupervised
learning)
 Gabungan pembelajaran terawasi dan tak
terawasi (hybrid)
 Output yang diharapkan telah diketahui
sebelumnya
 Contoh : JST untuk mengenali pasangan pola,
misalkan pada operasi AND
Input Target
0 0 0
0 1 0
1 0 0
1 1 1
 Satu pola input akan diberikan ke satu neuron pada
lapisan input
 Pola ini akan dirambatkan di sepanjang jaringan syaraf
hingga sampai ke neuron pada lapisan output
 Lapisan output ini akan membangkitkan pola output
yang akan dicocokkan dengan pola output targetnya
 Jika berbeda → error
 Jika error terlalu besar, perlu dilakukan pembelajaran
lebih banyak
 Tidak memerlukan target output
 Tidak dapat ditentukan hasil yang
diharapkan selama proses pembelajaran
 Nilai bobot disusun dalam suatu range
tertentu tergantung nilai input yang
diberikan
 Tujuannya untuk mengelompokkan unit yang
hampir sama dalam suatu area tertentu
 Merupakan kombinasi dari kedua
pembelajaran tersebut. Sebagian dari
bobot-bobotnya ditentukan melalui
pembelajaran terawasi dan sebagian
lainnya melalui pembelajaran tak terawasi.
Langkah-langkah :
1. Inisialisasi semua bobot = Wi = 0 (i=1,..,n)
2. Untuk semua vektor input s dan unit target t,
lakukan :
• Set aktivasi unit masukan Xi = Si (i=1,..,n)
• Set aktivasi unit keluaran y = t
• Perbaiki bobot menurut persamaan
• Wi (baru) = Wi(lama)+∆W
• ∆W = Xi.y
• Perbaiki bias menurut persamaan :
• b(baru) = b(lama)+y
Membedakan pola :
# o # # o o
o # o # o o
# o # # # #
(X) (L)
Bagaimana JST mengenali pola berikut :
# # o
# # o
# # #
# = 1, o = -1
X = 1, L = -1
Fungsi aktivasi :
y = 1, jika y_in >= 0
y = -1, jika y_in < 0
# o # # o o
o # o t=1 # o o t= -1
# o # # # #
Input pertama :
1 -1 1
-1 1 -1
1 -1 1
∆W = x.t, maka nilai ∆W untuk tiap input:
1 -1 1
-1 1 -1
1 -1 1
Bias = b.t = 1.1 = 1
Input kedua :
1 -1 -1
1 -1 -1
1 1 1
∆W = x.t, maka nilai ∆W untuk tiap input:
-1 1 1
-1 1 1
-1 -1 -1
Bias = b.t = 1.-1 = -1
Bobot baru :
0 0 2
-2 2 0
0 -2 0
Bias = 0
Aplikasikan bobot baru ke input 1 :
(1.0)+( -1.0)+(1.2)+(-1.-2)+(1.2)+
(-1.0)+(1.0)+(-1.-2)+(1.0) = 8
Jadi y = 1, sesuai target (t=1)
Aplikasikan bobot baru ke input 2 :
(1.0)+( -1.0)+(-1.2)+(1.-2)+(-1.2)+
(-1.0)+(1.0)+(1.-2)+(1.0) = -8
Jadi y = -1, sesuai target (t=-1)
Jadi JST sudah bisa mengenali pola
Aplikasikan ke pola yang baru :
1 1 -1
1 1 -1
1 1 1
Beri bobot yang baru : (1.0)+( -1.0)+
(-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+
(1.-2)+(1.0) = -8
Jadi y = -1, dikenali sebagai L
Bentuk paling sederhana dari JST.
Digunakan untuk pengklasifikasian pola khusus
yang biasa disebut linearable separable.
Terbatas hanya untuk mengklasifikasikan dua kelas
saja.
Inputs
Thresho
ld Ө
(bias)
Outp
ut y
xp
Threshold
Ө
(bias)
Output
y
xp
Inputs
x1
x2
- 1
w1
w2
wp
vi φ(vi)
Hard
limiter
x2
x1
Kelas K2
Kelas K1
Decision boundary
w1x1 + w2x2 - Ө = 0
T
pxxxx ]...[ 21=
Vektor input:
Vektor bobot:
Vektor output:
T
pwwww ]...[ 21=
xwv T
.=
 Aturan Pembelajaran (Learning Rule)
Error e (sinyal kesalahan) dinyatakan sbb:
e = t – y
dimana :
Jika e = 1 , maka wbaru
= wlama
+ x ( 1 )
Jika e = -1 , maka wbaru
= wlama
– x ( 2 )
Jika e = 0 , maka wbaru
= wlama
( 3 )
wbaru
= wlama
+ e.x
bbaru
= blama
+ e
e = error
t = target
x = input
y = output
w = bobot
Membedakan :
• Ada 3 input yaitu x1,x2 dan x3
• Ada 3 bobot yaitu w1, w2 dan w3
• Tentukan bobot secara random, misal :
w = [0.5 0.5 0.5]
Σ y
x1
w1
v
x3
w3
No bias neuron
x2
w2
1. Hitung jumlah input berbobot (v)
(1*0.5)+(1*0.5)+(0*0.5) = 1
2. Fungsi Aktivasi (menggunakan hardlimit)
y = 0 jika v < 0
y = 1 jika v ≥ 0
y = hardlimit(v)
y = hardlimit(1)
Jadi y = 1, sesuai target t = 1 untuk input pertama
3.Cek bobot apakah cocok dengan input kedua [0 1 1]
dengan t=0, bobot [0.5 0.5 0.5]
v = (0.5*0)+(0.5*1)+(0.5*1) = 1
y = hardlimit(1)
y = 1, tidak sesuai dengan target, t = 0, maka harus
dilakukan perubahan bobot
5. Hitung y dengan bobot yang baru
v = (0.5*0)+(-0.5*1)+(-0.5*1) = -1
y = hardlimit(-1) = 0, sesuai dengan t=0
6. Cek bobot yang baru dengan input pertama
v = (0.5*1)+(-0.5*1)+(-0.5*0) = 0
y = hardlimit(0) = 1, sesuai dengan t=1
7. Jika semua input sudah diklasifikasi dengan
benar, tidak perlu ada perubahan pada bobot
sehingga digunakan aturan sbb:
Jika t = y, maka wbaru
= wlama






=





−
=






=




−
=






=





= 0,
1
0
0,
2
1
1,
2
1
332211 txtxtx
Test Problem
Σ y
x1
w1
v
x2
w2
No bias neuron
Kita pilih bobot secara random, misalnya:
wT
= [ 1 -0.8 ]
Masukkan input x1 ke dalam jaringan dan output:
y = hardlim (wT
. x1 )
Input x1tidak benar karena t1 = 1
[ ] 0)6.0(hardlim
2
1
8.01hardlim =−=













−=y
p1
p2
n ≥ 1
n < 1
Perlu diputar berlawanan
arah dengan jarum jam
12
3
1
WT
Cara mencari decision boundary:
Jika,
n = wp + b = 0
n = w1
.x1
+ w2
. x2
= 0
Maka,
x1
– 0.8 x2
= 0
5x1
– 4x2
= 0
Jika x2
= 1  x1
= 0.8
Jika x1
=1  x2
= 1.25
Jika t = 1, sedangkan y = 0, maka:
wbaru
= wlama
+ x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 1






=





+





−
=+=
2.1
2
2
1
8.0
1
1xww lamabaru
[ ] 1)4.4(hardlim
2
1
2.12hardlim ==













=y
p1
p2
n ≥ 1
n < 1
1
WT
12
3
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1
.x1
+ w2
. x2
= 0
Maka,
2x1
+ 1.2 x2
= 0
Jika,
x2
= 1  x1
= - 1.2/2
x1
= - 0.6
Tes input kedua:
y = hardlim (wT
. x2 )
Input x2 tidak benar karena t2 =0
[ ] 1)4.0(hardlim
2
1
2.12hardlim ==












−
=y
Jika t = 0, sedangkan y = 1, maka:
wbaru
= wlama
- x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 0






−
=




−
−





=−=
8.0
3
2
1
2.1
2
2xww lamabaru
[ ] 0)6.4(hardlim
2
1
8.03hardlim =−=












−
−=y
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1
.x1
+ w2
. x2
= 0
Maka,
3x1
– 0.8 x2
= 0
Jika,
x2
= 2  x1
= 1.6/3
x1
= 8/15
p1
p2
n ≥ 1
n < 1
Perlu diputar berlawanan
arah dengan jarum jam
1WT
12
3
Tes input ketiga:
y = hardlim (wT
. x3 )
Input x3 tidak benar karena t3 =0
[ ] 1)8.0(hardlim
1
0
8.03hardlim ==













−
−=y
Jika t = 0, sedangkan y = 1, maka:
wbaru
= wlama
- x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 0






=





−
−





−
=−=
2.0
3
1
0
8.0
3
3xww lamabaru
[ ] 0)2.0(hardlim
1
0
2.03hardlim =−=













−
=y
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1
.x1
+ w2
. x2
= 0
Maka,
3x1
+ 0.2 x2
= 0
Jika,
x2
= 1  x1
= -0.2/3
x1
= -1/15
p1
p2
n ≥ 1
n < 1 1
WT
12
3
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)

Mais conteúdo relacionado

Mais procurados

Iterasi gauss seidel
Iterasi gauss seidelIterasi gauss seidel
Iterasi gauss seidel
Nur Fadzri
 
Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)
Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)
Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)
Kelinci Coklat
 
9 dts-transformasi data-univ-gunadarma
9 dts-transformasi data-univ-gunadarma9 dts-transformasi data-univ-gunadarma
9 dts-transformasi data-univ-gunadarma
ArdianDwiPraba
 

Mais procurados (20)

Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Webinar PHP-ID: Mari Mengenal Logika Fuzzy (Fuzzy Logic)
Webinar PHP-ID: Mari Mengenal Logika Fuzzy (Fuzzy Logic)Webinar PHP-ID: Mari Mengenal Logika Fuzzy (Fuzzy Logic)
Webinar PHP-ID: Mari Mengenal Logika Fuzzy (Fuzzy Logic)
 
Pert 04 clustering data mining
Pert 04 clustering   data miningPert 04 clustering   data mining
Pert 04 clustering data mining
 
Contoh Program Jaringan Syaraf Tiruan Sederhana
Contoh Program Jaringan Syaraf Tiruan SederhanaContoh Program Jaringan Syaraf Tiruan Sederhana
Contoh Program Jaringan Syaraf Tiruan Sederhana
 
Turunan numerik
Turunan numerikTurunan numerik
Turunan numerik
 
Iterasi gauss seidel
Iterasi gauss seidelIterasi gauss seidel
Iterasi gauss seidel
 
Pertemuan 6 & 7 ars. gerbang logika
Pertemuan 6 & 7 ars. gerbang logikaPertemuan 6 & 7 ars. gerbang logika
Pertemuan 6 & 7 ars. gerbang logika
 
Materi 3 Finite State Automata
Materi 3   Finite State AutomataMateri 3   Finite State Automata
Materi 3 Finite State Automata
 
Makalah metode posisi palsu
Makalah metode posisi palsuMakalah metode posisi palsu
Makalah metode posisi palsu
 
VARIABEL RANDOM & DISTRIBUSI PELUANG
VARIABEL RANDOM & DISTRIBUSI PELUANGVARIABEL RANDOM & DISTRIBUSI PELUANG
VARIABEL RANDOM & DISTRIBUSI PELUANG
 
Transformasi linier " Matematika Geodesi "
Transformasi linier " Matematika Geodesi "Transformasi linier " Matematika Geodesi "
Transformasi linier " Matematika Geodesi "
 
Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)
Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)
Fungsi Gamma dan Beta (Kalkulus Peubah Banyak)
 
4 Menggambar Grafik Fungsi Dengan Matlab
4 Menggambar Grafik Fungsi Dengan Matlab4 Menggambar Grafik Fungsi Dengan Matlab
4 Menggambar Grafik Fungsi Dengan Matlab
 
Neuron Mc Culloch Pitts dan Hebb
Neuron Mc Culloch Pitts dan HebbNeuron Mc Culloch Pitts dan Hebb
Neuron Mc Culloch Pitts dan Hebb
 
Integral Garis
Integral GarisIntegral Garis
Integral Garis
 
Fungsi Dua Peubah ( Kalkulus 2 )
Fungsi Dua Peubah ( Kalkulus 2 )Fungsi Dua Peubah ( Kalkulus 2 )
Fungsi Dua Peubah ( Kalkulus 2 )
 
9 dts-transformasi data-univ-gunadarma
9 dts-transformasi data-univ-gunadarma9 dts-transformasi data-univ-gunadarma
9 dts-transformasi data-univ-gunadarma
 
6. interpolasi polynomial newton
6. interpolasi polynomial newton6. interpolasi polynomial newton
6. interpolasi polynomial newton
 
Model Jaringan Hopfield
Model Jaringan HopfieldModel Jaringan Hopfield
Model Jaringan Hopfield
 
2. galat
2. galat2. galat
2. galat
 

Destaque

Pengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruanPengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruan
rrahmad_14
 
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Siti Julaiha
 
Makalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelanMakalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelan
Nayla Tsauraya
 

Destaque (16)

Pengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruanPengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruan
 
Makalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf TiruanMakalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf Tiruan
 
Hebb, perceptro dan adaline
Hebb, perceptro dan adalineHebb, perceptro dan adaline
Hebb, perceptro dan adaline
 
Jaringan Komputer
Jaringan  KomputerJaringan  Komputer
Jaringan Komputer
 
Adaline madaline
Adaline madalineAdaline madaline
Adaline madaline
 
Bab v histogram
Bab v histogramBab v histogram
Bab v histogram
 
Jaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi polaJaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi pola
 
Makalah jaringan syaraf dan darah
Makalah jaringan syaraf dan darah Makalah jaringan syaraf dan darah
Makalah jaringan syaraf dan darah
 
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
 
himpunan Fuzzy
himpunan Fuzzyhimpunan Fuzzy
himpunan Fuzzy
 
Jaringan perceptron & matlab
Jaringan perceptron & matlabJaringan perceptron & matlab
Jaringan perceptron & matlab
 
Penerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi Air
Penerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi AirPenerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi Air
Penerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi Air
 
Sistem Cerdas
Sistem CerdasSistem Cerdas
Sistem Cerdas
 
Belajar mudah algoritma data mining c4.5
Belajar mudah algoritma data mining c4.5Belajar mudah algoritma data mining c4.5
Belajar mudah algoritma data mining c4.5
 
Makalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelanMakalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelan
 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
 

Semelhante a Modul 8 - Jaringan Syaraf Tiruan (JST)

Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
Dian Sari
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
aereal
 
Pcd 013 - jaringan syaraf buatan
Pcd   013 - jaringan syaraf buatanPcd   013 - jaringan syaraf buatan
Pcd 013 - jaringan syaraf buatan
Febriyani Syafri
 

Semelhante a Modul 8 - Jaringan Syaraf Tiruan (JST) (20)

pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
JST.ppt
JST.pptJST.ppt
JST.ppt
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf
 
Jaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.pptJaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.ppt
 
Machine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfMachine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdf
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Ppt neuralnet
Ppt neuralnetPpt neuralnet
Ppt neuralnet
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
 
Kecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docxKecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docx
 
Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)
 
UTS JST 2014/2015
UTS JST 2014/2015UTS JST 2014/2015
UTS JST 2014/2015
 
materi mg 2 - Jaringan Saraf Tiruan.pdf
materi mg 2 -  Jaringan Saraf Tiruan.pdfmateri mg 2 -  Jaringan Saraf Tiruan.pdf
materi mg 2 - Jaringan Saraf Tiruan.pdf
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
Pcd 013 - jaringan syaraf buatan
Pcd   013 - jaringan syaraf buatanPcd   013 - jaringan syaraf buatan
Pcd 013 - jaringan syaraf buatan
 
Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)
 
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptxPertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
 
Penggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwantoPenggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwanto
 

Mais de ahmad haidaroh

Mais de ahmad haidaroh (20)

Materi 7 Context Free Grammar
Materi 7   Context Free Grammar Materi 7   Context Free Grammar
Materi 7 Context Free Grammar
 
8 Rekursif
8 Rekursif8 Rekursif
8 Rekursif
 
6 ANTRIAN - QUEUE
6 ANTRIAN - QUEUE6 ANTRIAN - QUEUE
6 ANTRIAN - QUEUE
 
5 STACK
5 STACK5 STACK
5 STACK
 
4 Adt
4 Adt4 Adt
4 Adt
 
3 Linked List
3   Linked List3   Linked List
3 Linked List
 
2 Array
2 Array2 Array
2 Array
 
Materi 4 Regular Expression
Materi 4   Regular ExpressionMateri 4   Regular Expression
Materi 4 Regular Expression
 
Materi 3 Finite State Automata
Materi 3   Finite State AutomataMateri 3   Finite State Automata
Materi 3 Finite State Automata
 
Presentasi OSPEK 2018
Presentasi OSPEK 2018Presentasi OSPEK 2018
Presentasi OSPEK 2018
 
Pertemuan 4 Dioda1
Pertemuan 4   Dioda1Pertemuan 4   Dioda1
Pertemuan 4 Dioda1
 
Pertemuan 4 Aljabar Boole
Pertemuan 4   Aljabar Boole Pertemuan 4   Aljabar Boole
Pertemuan 4 Aljabar Boole
 
Pertemuan 2&3 - Dasar2 Keamanan Encyption
Pertemuan 2&3 - Dasar2 Keamanan EncyptionPertemuan 2&3 - Dasar2 Keamanan Encyption
Pertemuan 2&3 - Dasar2 Keamanan Encyption
 
Multiplekser - Demultiplekser - Pertemuan 7
Multiplekser - Demultiplekser - Pertemuan 7Multiplekser - Demultiplekser - Pertemuan 7
Multiplekser - Demultiplekser - Pertemuan 7
 
Pertemuan 3a Rangkaian Aritmatik-Half n Full Adder
Pertemuan 3a   Rangkaian Aritmatik-Half n Full AdderPertemuan 3a   Rangkaian Aritmatik-Half n Full Adder
Pertemuan 3a Rangkaian Aritmatik-Half n Full Adder
 
Pertemuan 6 Penyederhanaan RL-Karnaugh Map
Pertemuan 6   Penyederhanaan RL-Karnaugh MapPertemuan 6   Penyederhanaan RL-Karnaugh Map
Pertemuan 6 Penyederhanaan RL-Karnaugh Map
 
Pertemuan 5a gerbang kombinasi-maxtem-minterm
Pertemuan 5a   gerbang kombinasi-maxtem-mintermPertemuan 5a   gerbang kombinasi-maxtem-minterm
Pertemuan 5a gerbang kombinasi-maxtem-minterm
 
Pertemuan 5 gerbang logika dasar n bentukan
Pertemuan 5   gerbang logika dasar n bentukanPertemuan 5   gerbang logika dasar n bentukan
Pertemuan 5 gerbang logika dasar n bentukan
 
Aritmatika Biner - Pertemuan 3
Aritmatika Biner - Pertemuan 3Aritmatika Biner - Pertemuan 3
Aritmatika Biner - Pertemuan 3
 
Pertemuan 2 - Sistem Bilangan
Pertemuan 2 - Sistem BilanganPertemuan 2 - Sistem Bilangan
Pertemuan 2 - Sistem Bilangan
 

Último

HAK DAN KEWAJIBAN WARGA NEGARA ppkn i.ppt
HAK DAN KEWAJIBAN WARGA NEGARA ppkn i.pptHAK DAN KEWAJIBAN WARGA NEGARA ppkn i.ppt
HAK DAN KEWAJIBAN WARGA NEGARA ppkn i.ppt
nabilafarahdiba95
 
BAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptx
BAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptxBAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptx
BAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptx
JuliBriana2
 
Contoh PPT Seminar Proposal Teknik Informatika.pptx
Contoh PPT Seminar Proposal Teknik Informatika.pptxContoh PPT Seminar Proposal Teknik Informatika.pptx
Contoh PPT Seminar Proposal Teknik Informatika.pptx
IvvatulAini
 
Bab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptx
Bab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptxBab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptx
Bab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptx
ssuser35630b
 
Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...
Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...
Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...
pipinafindraputri1
 

Último (20)

PPT MODUL 6 DAN 7 PDGK4105 KELOMPOK.pptx
PPT MODUL 6 DAN 7 PDGK4105 KELOMPOK.pptxPPT MODUL 6 DAN 7 PDGK4105 KELOMPOK.pptx
PPT MODUL 6 DAN 7 PDGK4105 KELOMPOK.pptx
 
BAHAN PAPARAN UU DESA NOMOR 3 TAHUN 2024
BAHAN PAPARAN UU DESA NOMOR 3 TAHUN 2024BAHAN PAPARAN UU DESA NOMOR 3 TAHUN 2024
BAHAN PAPARAN UU DESA NOMOR 3 TAHUN 2024
 
AKSI NYATA Numerasi Meningkatkan Kompetensi Murid_compressed (1) (1).pptx
AKSI NYATA  Numerasi  Meningkatkan Kompetensi Murid_compressed (1) (1).pptxAKSI NYATA  Numerasi  Meningkatkan Kompetensi Murid_compressed (1) (1).pptx
AKSI NYATA Numerasi Meningkatkan Kompetensi Murid_compressed (1) (1).pptx
 
Bab 4 Persatuan dan Kesatuan di Lingkup Wilayah Kabupaten dan Kota.pptx
Bab 4 Persatuan dan Kesatuan di Lingkup Wilayah Kabupaten dan Kota.pptxBab 4 Persatuan dan Kesatuan di Lingkup Wilayah Kabupaten dan Kota.pptx
Bab 4 Persatuan dan Kesatuan di Lingkup Wilayah Kabupaten dan Kota.pptx
 
MODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdf
MODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdfMODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdf
MODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdf
 
PELAKSANAAN + Link2 Materi BimTek _PTK 007 Rev-5 Thn 2023 (PENGADAAN) & Perhi...
PELAKSANAAN + Link2 Materi BimTek _PTK 007 Rev-5 Thn 2023 (PENGADAAN) & Perhi...PELAKSANAAN + Link2 Materi BimTek _PTK 007 Rev-5 Thn 2023 (PENGADAAN) & Perhi...
PELAKSANAAN + Link2 Materi BimTek _PTK 007 Rev-5 Thn 2023 (PENGADAAN) & Perhi...
 
RENCANA & Link2 Materi Pelatihan_ "Teknik Perhitungan TKDN, BMP, Preferensi H...
RENCANA & Link2 Materi Pelatihan_ "Teknik Perhitungan TKDN, BMP, Preferensi H...RENCANA & Link2 Materi Pelatihan_ "Teknik Perhitungan TKDN, BMP, Preferensi H...
RENCANA & Link2 Materi Pelatihan_ "Teknik Perhitungan TKDN, BMP, Preferensi H...
 
MODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdf
MODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdfMODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdf
MODUL PENDIDIKAN PANCASILA KELAS 6 KURIKULUM MERDEKA.pdf
 
Modul Ajar Bahasa Inggris - HOME SWEET HOME (Chapter 3) - Fase D.pdf
Modul Ajar Bahasa Inggris - HOME SWEET HOME (Chapter 3) - Fase D.pdfModul Ajar Bahasa Inggris - HOME SWEET HOME (Chapter 3) - Fase D.pdf
Modul Ajar Bahasa Inggris - HOME SWEET HOME (Chapter 3) - Fase D.pdf
 
Intellectual Discourse Business in Islamic Perspective - Mej Dr Mohd Adib Abd...
Intellectual Discourse Business in Islamic Perspective - Mej Dr Mohd Adib Abd...Intellectual Discourse Business in Islamic Perspective - Mej Dr Mohd Adib Abd...
Intellectual Discourse Business in Islamic Perspective - Mej Dr Mohd Adib Abd...
 
HAK DAN KEWAJIBAN WARGA NEGARA ppkn i.ppt
HAK DAN KEWAJIBAN WARGA NEGARA ppkn i.pptHAK DAN KEWAJIBAN WARGA NEGARA ppkn i.ppt
HAK DAN KEWAJIBAN WARGA NEGARA ppkn i.ppt
 
BAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptx
BAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptxBAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptx
BAB 5 KERJASAMA DALAM BERBAGAI BIDANG KEHIDUPAN.pptx
 
Contoh PPT Seminar Proposal Teknik Informatika.pptx
Contoh PPT Seminar Proposal Teknik Informatika.pptxContoh PPT Seminar Proposal Teknik Informatika.pptx
Contoh PPT Seminar Proposal Teknik Informatika.pptx
 
E-modul Materi Ekosistem untuk kelas X SMA
E-modul Materi Ekosistem untuk kelas X SMAE-modul Materi Ekosistem untuk kelas X SMA
E-modul Materi Ekosistem untuk kelas X SMA
 
Memperkasakan Dialog Prestasi Sekolah.pptx
Memperkasakan Dialog Prestasi Sekolah.pptxMemperkasakan Dialog Prestasi Sekolah.pptx
Memperkasakan Dialog Prestasi Sekolah.pptx
 
Aksi Nyata PMM Topik Refleksi Diri (1).pdf
Aksi Nyata PMM Topik Refleksi Diri (1).pdfAksi Nyata PMM Topik Refleksi Diri (1).pdf
Aksi Nyata PMM Topik Refleksi Diri (1).pdf
 
Bab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptx
Bab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptxBab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptx
Bab 7 - Perilaku Ekonomi dan Kesejahteraan Sosial.pptx
 
AKSI NYATA TOPIK 1 MERDEKA BELAJAR. PPTX
AKSI NYATA TOPIK 1 MERDEKA BELAJAR. PPTXAKSI NYATA TOPIK 1 MERDEKA BELAJAR. PPTX
AKSI NYATA TOPIK 1 MERDEKA BELAJAR. PPTX
 
Materi Sosialisasi US 2024 Sekolah Dasar pptx
Materi Sosialisasi US 2024 Sekolah Dasar pptxMateri Sosialisasi US 2024 Sekolah Dasar pptx
Materi Sosialisasi US 2024 Sekolah Dasar pptx
 
Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...
Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...
Modul 2 - Bagaimana membangun lingkungan belajar yang mendukung transisi PAUD...
 

Modul 8 - Jaringan Syaraf Tiruan (JST)

  • 1. Masalah, Ruang Masalah dan Pencarian Ir. Ahmad Haidaroh, M.Kom. PENGENALAN KECERDASANPENGENALAN KECERDASAN BUATANBUATAN ( / AI ) (2 SKS) Ir. Ahmad Haidaroh, M.Kom. STIKOM Artha Buana. Artificial Intelligence
  • 3.  Otak manusia berisi jutaan sel syaraf (neuron) yang bertugas memproses informasi  Neuron saling berinteraksi satu sama lain mendukung kemampuan kerja otak manusia
  • 4.
  • 5.  Komponen utama neuron dapat dikelompokkan menjadi 3 bagian :  Dendrit = bertugas menerima informasi = jalur input bagi soma  Badan sel (soma) = tempat pengolahan informasi, di badan sel terdapat inti sel yang bertugas mengolah informasi  Akson = bertugas mengirimkan impuls-impuls sinyal ke sel syaraf lain = jalur output bagi soma  Antar dendrit dipertemukan dengan sinapsis
  • 6.  Meniru cara kerja jaringan syaraf biologis  Generalisasi model matematis dari pemahaman manusia:  Pemrosesan informasi terjadi pada neuron  Sinyal mengalir diantara sel saraf/neuron melalui suatu sambungan penghubung  Setiap sambungan penghubung memiliki bobot yang bersesuaian.  Bobot ini akan digunakan untuk menggandakan / mengalikan sinyal yang dikirim melaluinya.  Setiap sel syaraf akan menerapkan fungsi aktivasi terhadap sinyal hasil penjumlahan berbobot yang masuk kepadanya untuk menentukan sinyal keluarannya.
  • 7.
  • 8.
  • 9.
  • 11.  Fungsi yang digunakan untuk mencari rata-rata bobot dari semua elemen input.  Bentuk sederhananya adalah dengan mengalikan setiap nilai input (Xj) dengan bobotnya (Wij) dan menjumlahkannya
  • 12.  Diibaratkan dengan sebuah neuron yang memonitor sinyal yang datang dari neuron-neuron lain.  Neuron ini menghitung penjumlahan berbobotnya dan kemudian menentukan sinyal untuk dikirim ke neuron-neuron lain.
  • 13.  Dipakai untuk menentukan keluaran suatu neuron  Merupakan fungsi yang menggambarkan hubungan antara tingkat aktivasi internal (summation function) yang mungkin berbentuk linier atau nonlinear.  Beberapa fungsi aktivasi JST diantaranya hard limit, purelin, dan sigmoid. Yang populer digunakan adalah fungsi sigmoid yang memiliki beberapa varian : sigmoid logaritma, sigmoid biner, sigmoid bipolar, sigmoid tangen.
  • 14.  Hard limit memberikan batasan tegas 0 atau 1, purelin memisahkan secara linier, sigmoid berupa fungsi smooth bernilai antara 0 sampai dengan 1 (bila biner) atau antara -1 sampai 1 (bila bipolar)
  • 15. Hard limit function a = 0 jika n < 0 a = 1 jika n ≥ 0 n 0 +1 -1 a = hardlim ( n )
  • 16.  Dapat belajar dari pengalaman  Algoritma untuk JST beroperasi secara langsung dengan angka sehingga data yang tidak numerik harus diubah menjadi data numerik.  JST tidak diprogram untuk menghasilkan keluaran tertentu. Semua keluaran atau kesimpulan yang ditarik oleh jaringan didasarkan pada pengalamannya selama mengikuti proses pembelajaran.  Pada proses pembelajaran, ke dalam JST dimasukkan pola-pola input (dan output) lalu jaringan akan diajari untuk memberikan jawaban yang bisa diterima.
  • 17.  Ditentukan oleh :  Pola hubungan antar neuron (disebut arsitektur jaringan)  Metode penentuan bobot-bobot sambungan (disebut dengan pelatihan atau proses belajar jaringan)  Fungsi aktivasi
  • 18.  Pada JST, neuron-neuron akan dikumpulkan dalam lapisan-lapisan (layer) yang disebut dengan lapisan neuron (neuron layers).  Neuron-neuron pada satu lapisan akan dihubungkan dengan lapisan-lapisan sebelum dan sesudahnya.  Informasi yang diberikan pada jaringan syaraf akan dirambatkan lapisan ke lapisan, mulai dari lapisan input sampai ke lapisan output melalui lapisan tersembunyi (hidden layer).
  • 19.
  • 20.  Faktor terpenting untuk menentukan kelakuan suatu neuron adalah fungsi aktivasi dan pola bobotnya.  Umumnya neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama → fungsi aktivasi yang sama.  Bila neuron-neuron pada suatu lapisan (misal lapisan tersembunyi) akan dihubungkan dengan neuron- neuron pada lapisan lain (misal lapisan output) maka setiap neuron pada lapisan tersebut (lapisan tersembunyi) juga harus dihubungkan dengan setiap neuron pada lapisan lainnya (lapisan output)
  • 21.  Ada beberapa arsitektur jaringan syaraf, antara lain :  Jaringan dengan lapisan tunggal (single layer net)  Jaringan dengan banyak lapisan (multilayer net)  Jaringan dengan lapisan kompetitif (competitive net)
  • 22.  Hanya memiliki satu lapisan denganbobot- bobot terhubung  Jaringan ini hanya menerima input kemudian secara langsung akanmengolahnya menjadi output tanpaharus melalui lapisan tersembunyi.
  • 23.  Seberapa besar hubungan antara 2 neuron ditentukan oleh bobot yang bersesuaian.  Semua unit input akan dihubungkan dengan setiap unit output.
  • 24.
  • 25.  Memiliki 1 atau lebih lapisan yang terletak diantara lapisan input dan lapisan output  Ada lapisan bobot yang terletak antara 2 lapisan yang bersebelahan  Jaringan dengan banyak lapisan ini dapat menyelesaikan permasalahan yang lebih sulit daripada lapisan tunggal, tentu saja dengan pembelajaran yang lebih rumit
  • 26.
  • 27.  Sekumpulan neuron bersaing untuk mendapatkan hak menjadi aktif  Umumnya hubungan antar neuron pada lapisan kompetitif ini tidak diperlihatkan pada diagram arsitektur
  • 28.
  • 29.  Cara belajar JST :  Ke dalam JST diinputkan informasi yang sebelumnya telah diketahui hasil keluarannya.  Penginputan informasi ini dilakukan lewat node-node atau unit-unit input. Bobot-bobot antarkoneksi dalam suatu arsitektur diberi nilai awal dan kemudian JST dijalankan.
  • 30.  Bobot-bobot ini bagi jaringan digunakan untuk belajar dan mengingat suatu informasi. Pengaturan bobot dilakukan secara terus-menerus dan dengan menggunakan kriteria tertentu sampai diperoleh keluaran yang diharapkan.  Hal yang ingin dicapai dengan melatih/mengajari JST adalah untuk mencapai keseimbangan antara kemampuan memorisasi dan generalisasi.
  • 31.  Kemampuan memorisasi = kemampuan JST untuk memanggil kembali secara sempurna sebuah pola yang telah dipelajari.  Kemampuan generalisasi = adalah kemampuan JST untuk menghasilkan respon yang bisa diterima terhadap pola-pola input yang serupa (namun tidak identik) dengan pola-pola yang sebelumnya telah dipelajari.
  • 32.  Pembelajaran terawasi (supervised learning)  Pembelajaran tak terawasi (unsupervised learning)  Gabungan pembelajaran terawasi dan tak terawasi (hybrid)
  • 33.  Output yang diharapkan telah diketahui sebelumnya  Contoh : JST untuk mengenali pasangan pola, misalkan pada operasi AND Input Target 0 0 0 0 1 0 1 0 0 1 1 1
  • 34.  Satu pola input akan diberikan ke satu neuron pada lapisan input  Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output  Lapisan output ini akan membangkitkan pola output yang akan dicocokkan dengan pola output targetnya  Jika berbeda → error  Jika error terlalu besar, perlu dilakukan pembelajaran lebih banyak
  • 35.  Tidak memerlukan target output  Tidak dapat ditentukan hasil yang diharapkan selama proses pembelajaran  Nilai bobot disusun dalam suatu range tertentu tergantung nilai input yang diberikan  Tujuannya untuk mengelompokkan unit yang hampir sama dalam suatu area tertentu
  • 36.  Merupakan kombinasi dari kedua pembelajaran tersebut. Sebagian dari bobot-bobotnya ditentukan melalui pembelajaran terawasi dan sebagian lainnya melalui pembelajaran tak terawasi.
  • 37.
  • 38. Langkah-langkah : 1. Inisialisasi semua bobot = Wi = 0 (i=1,..,n) 2. Untuk semua vektor input s dan unit target t, lakukan : • Set aktivasi unit masukan Xi = Si (i=1,..,n) • Set aktivasi unit keluaran y = t • Perbaiki bobot menurut persamaan • Wi (baru) = Wi(lama)+∆W • ∆W = Xi.y • Perbaiki bias menurut persamaan : • b(baru) = b(lama)+y
  • 39. Membedakan pola : # o # # o o o # o # o o # o # # # # (X) (L) Bagaimana JST mengenali pola berikut : # # o # # o # # #
  • 40. # = 1, o = -1 X = 1, L = -1 Fungsi aktivasi : y = 1, jika y_in >= 0 y = -1, jika y_in < 0 # o # # o o o # o t=1 # o o t= -1 # o # # # #
  • 41. Input pertama : 1 -1 1 -1 1 -1 1 -1 1 ∆W = x.t, maka nilai ∆W untuk tiap input: 1 -1 1 -1 1 -1 1 -1 1 Bias = b.t = 1.1 = 1
  • 42. Input kedua : 1 -1 -1 1 -1 -1 1 1 1 ∆W = x.t, maka nilai ∆W untuk tiap input: -1 1 1 -1 1 1 -1 -1 -1 Bias = b.t = 1.-1 = -1
  • 43. Bobot baru : 0 0 2 -2 2 0 0 -2 0 Bias = 0
  • 44. Aplikasikan bobot baru ke input 1 : (1.0)+( -1.0)+(1.2)+(-1.-2)+(1.2)+ (-1.0)+(1.0)+(-1.-2)+(1.0) = 8 Jadi y = 1, sesuai target (t=1) Aplikasikan bobot baru ke input 2 : (1.0)+( -1.0)+(-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+(1.-2)+(1.0) = -8 Jadi y = -1, sesuai target (t=-1) Jadi JST sudah bisa mengenali pola
  • 45. Aplikasikan ke pola yang baru : 1 1 -1 1 1 -1 1 1 1 Beri bobot yang baru : (1.0)+( -1.0)+ (-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+ (1.-2)+(1.0) = -8 Jadi y = -1, dikenali sebagai L
  • 46. Bentuk paling sederhana dari JST. Digunakan untuk pengklasifikasian pola khusus yang biasa disebut linearable separable. Terbatas hanya untuk mengklasifikasikan dua kelas saja.
  • 49. x2 x1 Kelas K2 Kelas K1 Decision boundary w1x1 + w2x2 - Ө = 0
  • 50. T pxxxx ]...[ 21= Vektor input: Vektor bobot: Vektor output: T pwwww ]...[ 21= xwv T .=
  • 51.  Aturan Pembelajaran (Learning Rule) Error e (sinyal kesalahan) dinyatakan sbb: e = t – y dimana : Jika e = 1 , maka wbaru = wlama + x ( 1 ) Jika e = -1 , maka wbaru = wlama – x ( 2 ) Jika e = 0 , maka wbaru = wlama ( 3 ) wbaru = wlama + e.x bbaru = blama + e
  • 52. e = error t = target x = input y = output w = bobot
  • 54.
  • 55. • Ada 3 input yaitu x1,x2 dan x3 • Ada 3 bobot yaitu w1, w2 dan w3 • Tentukan bobot secara random, misal : w = [0.5 0.5 0.5] Σ y x1 w1 v x3 w3 No bias neuron x2 w2
  • 56. 1. Hitung jumlah input berbobot (v) (1*0.5)+(1*0.5)+(0*0.5) = 1
  • 57. 2. Fungsi Aktivasi (menggunakan hardlimit) y = 0 jika v < 0 y = 1 jika v ≥ 0 y = hardlimit(v) y = hardlimit(1) Jadi y = 1, sesuai target t = 1 untuk input pertama
  • 58. 3.Cek bobot apakah cocok dengan input kedua [0 1 1] dengan t=0, bobot [0.5 0.5 0.5] v = (0.5*0)+(0.5*1)+(0.5*1) = 1 y = hardlimit(1) y = 1, tidak sesuai dengan target, t = 0, maka harus dilakukan perubahan bobot
  • 59.
  • 60. 5. Hitung y dengan bobot yang baru v = (0.5*0)+(-0.5*1)+(-0.5*1) = -1 y = hardlimit(-1) = 0, sesuai dengan t=0 6. Cek bobot yang baru dengan input pertama v = (0.5*1)+(-0.5*1)+(-0.5*0) = 0 y = hardlimit(0) = 1, sesuai dengan t=1
  • 61. 7. Jika semua input sudah diklasifikasi dengan benar, tidak perlu ada perubahan pada bobot sehingga digunakan aturan sbb: Jika t = y, maka wbaru = wlama
  • 63.
  • 64. Kita pilih bobot secara random, misalnya: wT = [ 1 -0.8 ] Masukkan input x1 ke dalam jaringan dan output: y = hardlim (wT . x1 ) Input x1tidak benar karena t1 = 1 [ ] 0)6.0(hardlim 2 1 8.01hardlim =−=              −=y
  • 65. p1 p2 n ≥ 1 n < 1 Perlu diputar berlawanan arah dengan jarum jam 12 3 1 WT Cara mencari decision boundary: Jika, n = wp + b = 0 n = w1 .x1 + w2 . x2 = 0 Maka, x1 – 0.8 x2 = 0 5x1 – 4x2 = 0 Jika x2 = 1  x1 = 0.8 Jika x1 =1  x2 = 1.25
  • 66. Jika t = 1, sedangkan y = 0, maka: wbaru = wlama + x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 1       =      +      − =+= 2.1 2 2 1 8.0 1 1xww lamabaru [ ] 1)4.4(hardlim 2 1 2.12hardlim ==              =y
  • 67. p1 p2 n ≥ 1 n < 1 1 WT 12 3 Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 2x1 + 1.2 x2 = 0 Jika, x2 = 1  x1 = - 1.2/2 x1 = - 0.6
  • 68. Tes input kedua: y = hardlim (wT . x2 ) Input x2 tidak benar karena t2 =0 [ ] 1)4.0(hardlim 2 1 2.12hardlim ==             − =y
  • 69. Jika t = 0, sedangkan y = 1, maka: wbaru = wlama - x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 0       − =     − −      =−= 8.0 3 2 1 2.1 2 2xww lamabaru [ ] 0)6.4(hardlim 2 1 8.03hardlim =−=             − −=y
  • 70. Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 3x1 – 0.8 x2 = 0 Jika, x2 = 2  x1 = 1.6/3 x1 = 8/15 p1 p2 n ≥ 1 n < 1 Perlu diputar berlawanan arah dengan jarum jam 1WT 12 3
  • 71. Tes input ketiga: y = hardlim (wT . x3 ) Input x3 tidak benar karena t3 =0 [ ] 1)8.0(hardlim 1 0 8.03hardlim ==              − −=y
  • 72. Jika t = 0, sedangkan y = 1, maka: wbaru = wlama - x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 0       =      − −      − =−= 2.0 3 1 0 8.0 3 3xww lamabaru [ ] 0)2.0(hardlim 1 0 2.03hardlim =−=              − =y
  • 73. Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 3x1 + 0.2 x2 = 0 Jika, x2 = 1  x1 = -0.2/3 x1 = -1/15 p1 p2 n ≥ 1 n < 1 1 WT 12 3