SlideShare uma empresa Scribd logo
1 de 51
Baixar para ler offline
Intelijensi Buatan


            Dian Wirdasari, S.Si.,M.Kom
Intelijensi Buatan


Materi-7 Jaringan Syaraf Tiruan
                                  Dian Wirdasari, S.Si.,M.Kom
Dianalogikan dengan neuropsikologi
(neurophysiologi) pada otak manusia.
Dalam JST, neuron adalah bagian terkecil dari JST
yg berfungsi sbg elemen pemroses.
Dapat dinyatakan sbg prosesor sederhana dari
sistem JST.
Dikenal dgn sebutan perceptron atau Adaline.
Dalam JST, neuron bekerja dgn mengumpulkan
sinyal dari neuron yg terhubung sebelumnya dan
memprosesnya untuk menjadi masukan bagi
neuron berikutnya.
Neuron tersusun dari komponen-komponen sbb:
 Sekumpulan penghubung (synapses) atau connection link
 yg dikarakterkan dgn sebuah pembobot (weight
 connection)
 Sebuah penjumlah (summing/adder) utk menjumlahkan
 semua sinyal masukannya.
 Sebuah fungsi aktivasi (activation function)
Model dari sebuah neuron




Jaringan syaraf tiruan menggunakan model
matematis. X = X0.W0 + X1.W1 + X2.W2 + … + Xn.Wn
            Y = f(X), dengan f adalah fungsi aktivasi
Pada JST, neuron-neuron akan dikumpulkan dalam
lapisan lapisan yang disebut dengan layers
Neuron dalam satu lapisan akan dihubungkan
dengan neuron pada lapisan lainnya
Kadang muncul juga layer tersembunyi (hidden
layer)
Informasi tersebut bisa dirambatkan secara forward
ataupun backward
Lapisan Masukan (input layer): titik pada lapisan ini
berfungsi utk menampung dan menyebarkan sinyal
yg ada ke lapisan berikutnya
Lapisan tersembunyi (hidden layer): lapisan ini
berada diantara lapisan masukan dan lapisan
keluaran. Lapisan ini berfungsi mengolah sinyal yg
ada dalam bentuk fungsi transformasi neuron
Lapisan keluaran (output layer): sbg lapisan
keluaran hasil operasi JST
Single Layer
 Hanya memiliki satu
 lapisan dengan bobot-
 bobot terhubung.
 Langsung menerima
 input dan
 mengolahnya menjadi
 output tanpa
 menggunakan hidden
 layer
Multi Layer
 Memiliki satu atau lebih
 lapisan yg terletak diantara
 lapisan input dan lapisan
 output
 Dapat menyelesaikan
 masalah yang lebih
 kompleks karena lebih
 akurat
 Fungsi pembelajarannya
 lebih rumit
Kompetitive Model /
Recurrent Model
 Hubungan antar neuron
 tidak diperlihatkan secara
 langsung pada arsitektur
 Hubungan antar neuron
 dapat digambarkan
 sebagai jaring yang rumit
Fungsi undak (step) biner (hard limit)
 Jaringan dgn lapisan tunggal sering
 menggunakan fungsi undak untuk mengkonversi
 input dari suatu variabel yang bernilai kontinu ke
 suatu output biner.
 Fungsi hard limit dirumuskan sbb:
Fungsi undak biner dengan threshold
 Fungsi undak biner dgn menggunakan nilai
 ambang (threshold) θ (theta).
 Disebut juga fungsi nilai ambang atau fungsi
 Heaviside
 Dirumuskan sbb:



            θ
Fungsi bipolar
 Hampir sama dengan fungsi undak biner, hanya
 saja output yg dihasilkan berupa 1, 0 atau -1.
 Disebut juga fungsi Symmetric Hard Limit.
 Dirumuskan sbb:
Fungsi bipolar dengan threshold
 Fungsi bipolar yg menggunakan nilai ambang
 Fungsi yang menghasilkan output berupa 1, 0
 atau -1
 Dirumuskan sbb:
Fungsi Linier (identitas)
 Memiliki nilai output yg sama dengan nilai input.
 Dirumuskan sbb:
                        Y=X
Fungsi Sigmoid Biner
 Digunakan untuk jaringan syaraf yg dilatih dgn
 menggunakan metode backpropagation.
 Memiliki nilai pada range 0 sampai 1.
                                               1
                                Y = f(X) = ------------
                                             1 + e-X
Fungsi Sigmoid Bipolar
 Output dari fungsi ini memiliki range antara 1 sampai -1



                                              1 - e-X
                                 Y = f(X) = -------------
                                              1 + e-X
Sistem JST sebagai sebuah graf pembobot berarah
(graph directed weighted) yg neuronnya dinyatakan
sbg titik dan arah pembobotnya dinyatakan sbg
penghubung antar neuron.
Berdasarkan struktur sambungan dan aliran
pengolahan sinyal, JST dibedakan menjadi:
 Jaringan Maju (feed forward architecture)
 Jaringan Berulang (recurrent architecture)
Jaringan Maju
 Tidak mempunyai loop
 Dapat berupa lapisan tunggal (single layer perceptron)
 atau lapisan jamak (multilayer perceptron)
 Contoh jaringan maju lapisan tunggal sbb:

         X1
                   W
         X2                 factv           ai
         X3
Jaringan Berulang
 Memiliki loop atau lingkaran umpan balik (feedback loop),
 lapisan output akan memberi input lagi bagi lapisan input
 Antara lain pd jaringan Hopfield, Kohonen dan kompetitif.
                                         Lingkaran umpan
                                         balik dinyatakan
                  W                   ai dgn suatu elemen
   Z-1                                   tunda (unit delay
                                         element) yg
   Z-1                                   dinotasikan dgn Z-1

   Z-1
JST disusun utk mampu mengenali dan meniru pola
pemetaan dari pasangan sinyal masukan ke sinyal
keluaran yg diinginkan.
Parameter JST dpt ditentukan dgn melatih atau
mengajari JST tsb dgn pola masukan keluaran yg
telah benar dgn mengikuti aturan pembelajaran.
Aturan pembelajaran dapat dibagi 2 yaitu:
 Aturan Terbimbing/terawasi (supervised learning rule)
 Aturan Tidak Terbimbing/tdk terawasi (unsupervised
 learning rule).
Supervised Learning (Pembelajaran Terawasi)
 Kumpulan input berusaha membentuk target
 output yang sudah diketahui sebelumnya
 Perbedaan antara output yang masih salah
 dengan output yang diharapkan harus sekecil
 mungkin
 Biasanya lebih baik daripada unsupervised
 Kelemahan: pertumbuhan waktu dihitung secara
 eksponensial, data bnyk berarti semakin lambat
Terdapat 2 fase yaitu:
 Fase pembelajaran
  ▪ Tujuan utk meminimalkan index performance jaringan
  ▪ Selanjutnya digunakan utk memperbaharui parameter2
    JST
  ▪ Bila parameter2 JST sudah ditemukan maka JST dpt
    dioperasikan secara mandiri tanpa pembimbing
  ▪ Jika nilai pembimbing adalah Otc dan keluaran JST
    adalah O, maka diagram blok fase pembelajaran
    terbimbing adalah sbb:
 Fase pelaksanaan
X                                   Otc
Environment                            Teacher




                                       Learning     O
                                        System              ∑
                                                        e
              Gambar Blok Pembelajaran Terbimbing
Proses pembelajaran pada JST pada dasarnya
menghasilkan suatu nilai yang mempengaruhi nilai
bobot w secara terus menerus selama proses
berlangsung.
Metode Pembelajaran / Pelatihan sbb:
  ▪   Hebbian
  ▪   Perceptron
  ▪   Delta
  ▪   BackPropagation
  ▪ Hetero Associative Memory
  ▪ Bidirectional Associative Memory
  ▪ Learning vector Quantization
HebbRule
Metode pembelajaran yang paling sederhana,
pembelajaran dilakukan dengan cara memperbaiki
nilai bobot sedemikian rupa sehingga jika ada 2
neuron yang terhubung dan keduanya dalam
kondisi“on”pada saat yang sama, maka bobot
antara keduanya dinaikkan
Perception
Biasanya digunakan untuk mengklasifikasikan suatu
tipe pola tertentu yang sering dikenal dengan
pemisahan secara linear.
Algoritma yang digunakan akan mengatur
parameter-parameter bebasnya melalui proses
pembelajaran
Delta Rule
Mengubah bobot yang menghubungkan antara
jaringan input ke unit output dengan nilai target.
Backpropagation
Algoritma pembelajaran yang terawasi dan
biasanya digunakan oleh perception dengan banyak
lapisan untuk mengubah bobt-bobot yang
terhubung dengan neuron-neuron yang ada pada
lapisan tersembunyi
Hetero Associative Memory
Jaringan yang bobot-bobotnya ditentukan
sedemikian rupa sehingga jaringan tersebut dapat
menyimpan kumpulan pola.
Bidirectional Associative Memory
Model jaringan syaraf yang memiliki 2 lapisan dan
terhubung penuh dari satu lapisan ke lapisan
lainnya. Pada jaringan ini dimungkinkan adanya
hubungan timbal balik antara lapisan input dan
lapisan output.
Learning vector Quantization
Suatu metode untuk melakukan pembelajaran pada
lapisan kompetitif yang terawasi. Suatu lapisan
kompetitif akan secara otomatis belajar untuk
mengklasifikasikan vektor-vektor input. Kelas-kelas
yang didapatkan sebagai hasil hanya tergantung
pada jarak antara vektor-vektor input
Unsupervised Learning
 Tidak memerlukan target output
 Tujuannya untuk membentuk vektor-vektor input
 yang serupa tanpa menggunakan data atau
 contoh2 pelatihan, biasanya ke dalam suatu
 kategori/kelompok2 tertentu
Hibrida Learning
 Gabungan antara unsupervised dan supervised
Pertama kali diperkenalkan oleh Prof. Teuvo
Kohonen tahun 1982.
Suatu lapisan yang berisi neuron-neuron akan
menyusun dirinya sendiri berdasarkan input
nilai tertentu dalam suatu kelompok yang
dikenal dengan istilah cluster
Selama proses penyusunan diri, cluster yang
memiliki vektor bobot paling cocok dengan
pola input akan terpilih sebagai pemenang
Proses pembelajaran JST berupa pemberian
variabel bebas n data masukan X1, X2…Xn dan
keluaran berupa n data yang diharapkan d1, d2,…dn
(variabel tak bebas) sehingga data diumpankan
kepada JST yang merupakan himpunan data
    D = {(X1, d1), (X2, d2),….(Xn, dn)}
Hubungan antara data X dan d ditulis :
           d = g(x) + ε
g(x) = fungsi dengan variabel x
ε = adalah nilai kesalahan (error)
Dengan mengabaikan variabel ε maka
persamaan menjadi d = g(x) fungsi ini disebut
dengan model regresi dimana fungsi g(x)
secara statistik ditulis :
        g(x) = E[d I x ]
Secara statistik diartikan sebagai kejadian
bersyarat dimana terjadinya d bila diberi x.
Bila nilai ε tidak nol, model regresinya diasumsikan :
1. Kemungkinan terjadinya ε untuk tiap x adalah nol.
     E[ε I x ] = 0
2. ε Tidak terkoreksi dengan fungsi g(x)
     E[εg(x) ] = 0
Model regresi dalam aplikasi JST menghubungkan masukan
x dengan target d melalui bobot w, yang mana bobot w
diperbaharui melalui proses pembelajaran berdasarkan
pasangan variabel {(X1, d1), (X2,d2),….(Xn, dn)}
Model Regresi




Model Tipikal Jaringan Syaraf Tiruan
Pembelajaran yang diterapkan kepada jaringan
   syaraf tiruan melibatkan tiga komponen :
1. Lingkungan berupa vektor x dengan distribusi P(x)
   tidak diketahui.
2. Referensi : Berupa nilai vektor target d untuk tiap
   vektor masukan x, pasangan vektor d dan x
   dihubungkan oleh fungsi g() yang juga tidak
   diketahui. d = g(x)
3. Algoritma : Memetakan masukkan ke keluaran dalam bentuk
   fungsi :
   O = F(x,W) dimana O = nilai keluaran sebenarnya sebagai
   hasil tanggapan terhadap parameter x, sedangkan w adalah
   bobot jaringan syaraf (w dapat dikatakan berupa
   pengetahuan hasil proses pembelajaran).




              Model Paradigma Pembelajaran terawasi
Fungsi aktivasi biner
     Besar bobotnya sama
     Memiliki threshold yang sama
Contoh buat fungsi logika “and”, input X1 dan X2, danY = 1 jika
dan hanya jika inputan 1, dengan bobot=1 dan fungsi aktivasi:
  Y= 1 jika net >=2, Y=0 jika net < 2
Apakah jaringan tsb mampu mengenali pola target?
X1     X2      Y
1       1      1
1       0      0
0       1      0
0       0      0
X1   X2   net         Y= 1 jika net >=2, Y=0 jika net < 2
1    1    1.1+1.1=2   1        X1
1    0    1.1+0.1=1   0                1
0    1    0.1+1.1=1   0
                                             Y
0    0    0.1+0.1=0   0                                 2
                               X2
                                       1

Ternyata BERHASIL mengenali pola
Buat fungsi logika “OR”, input X1
dan X2, dan output Y, dengan bobot
W1=W2=1 dengan fungsi aktivasiY=
1 jika net >=1, 0 jika net < 1
X1   X2   net         Y= 1 jika net >=1, 0 jika net < 1
1    1    1.1+1.1=2   1
1    0    1.1+0.1=1   1
0    1    0.1+1.1=1   1
0    0    0.1+0.1=0   0

Ternyata BERHASIL mengenali pola
Buat fungsi logika “X1 and not(X2)”,
input X1 dan X2, dan output Y,
dengan bobot W1=2 dan W2=-1
dengan fungsi aktivasiY= 1 jika net
>=2, Y=0 jika net < 2
Intelijensi Buatan


                         Dian Wirdasari, S.Si.,M.Kom
See you next week……..!
Nama : Dian Wirdasari
Email :
dianws@yahoo.com,
dianws@gmail.com
Website :
http://dianws.webs.com
Ym: dianws
Facebook:
http://www.facebook.com/
dianws

Mais conteúdo relacionado

Mais procurados

11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan
febry777
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
aereal
 
Introduction to fuzzy logic using matlab
Introduction to fuzzy logic using matlabIntroduction to fuzzy logic using matlab
Introduction to fuzzy logic using matlab
suparman unkhair
 
02. prak.-pemrograman-berorientasi-objek
02. prak.-pemrograman-berorientasi-objek02. prak.-pemrograman-berorientasi-objek
02. prak.-pemrograman-berorientasi-objek
Jamil Jamil
 

Mais procurados (18)

Jaringan saraf-tiruan
Jaringan saraf-tiruanJaringan saraf-tiruan
Jaringan saraf-tiruan
 
11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Makalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf TiruanMakalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf Tiruan
 
Back propagation
Back propagationBack propagation
Back propagation
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
 
Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)
 
Penggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwantoPenggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwanto
 
Introduction to fuzzy logic using matlab
Introduction to fuzzy logic using matlabIntroduction to fuzzy logic using matlab
Introduction to fuzzy logic using matlab
 
Back propagation
Back propagationBack propagation
Back propagation
 
restrictedboltzmannmachines
restrictedboltzmannmachinesrestrictedboltzmannmachines
restrictedboltzmannmachines
 
Jstchapt2
Jstchapt2Jstchapt2
Jstchapt2
 
Pengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptronPengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptron
 
Kontrak Perkuliahan
Kontrak PerkuliahanKontrak Perkuliahan
Kontrak Perkuliahan
 
02. prak.-pemrograman-berorientasi-objek
02. prak.-pemrograman-berorientasi-objek02. prak.-pemrograman-berorientasi-objek
02. prak.-pemrograman-berorientasi-objek
 
Ifa2
Ifa2Ifa2
Ifa2
 
Andrew hidayat 101703-id-none
 Andrew hidayat   101703-id-none Andrew hidayat   101703-id-none
Andrew hidayat 101703-id-none
 
Ppt neuralnet
Ppt neuralnetPpt neuralnet
Ppt neuralnet
 

Semelhante a Dw 9-intelijensi buatan

Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)
Eka Suryadana
 
Pcd 013 - jaringan syaraf buatan
Pcd   013 - jaringan syaraf buatanPcd   013 - jaringan syaraf buatan
Pcd 013 - jaringan syaraf buatan
Febriyani Syafri
 
Aktivasi Pembelajaran Jaringan Syaraf Tiruan.pptx
Aktivasi Pembelajaran Jaringan Syaraf Tiruan.pptxAktivasi Pembelajaran Jaringan Syaraf Tiruan.pptx
Aktivasi Pembelajaran Jaringan Syaraf Tiruan.pptx
musakhadzim
 
1768 soal ujian quis
1768 soal ujian quis1768 soal ujian quis
1768 soal ujian quis
17roy
 

Semelhante a Dw 9-intelijensi buatan (20)

pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Jaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.pptJaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.ppt
 
Machine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfMachine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdf
 
JST.ppt
JST.pptJST.ppt
JST.ppt
 
2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf
 
Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)
 
Kecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docxKecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docx
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Ifa2
Ifa2Ifa2
Ifa2
 
materi mg 2 - Jaringan Saraf Tiruan.pdf
materi mg 2 -  Jaringan Saraf Tiruan.pdfmateri mg 2 -  Jaringan Saraf Tiruan.pdf
materi mg 2 - Jaringan Saraf Tiruan.pdf
 
Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Pcd 013 - jaringan syaraf buatan
Pcd   013 - jaringan syaraf buatanPcd   013 - jaringan syaraf buatan
Pcd 013 - jaringan syaraf buatan
 
Aktivasi Pembelajaran Jaringan Syaraf Tiruan.pptx
Aktivasi Pembelajaran Jaringan Syaraf Tiruan.pptxAktivasi Pembelajaran Jaringan Syaraf Tiruan.pptx
Aktivasi Pembelajaran Jaringan Syaraf Tiruan.pptx
 
penjelasan Algoritma neural network Feed Forward
penjelasan Algoritma neural network Feed Forwardpenjelasan Algoritma neural network Feed Forward
penjelasan Algoritma neural network Feed Forward
 
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptxPertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
1768 soal ujian quis
1768 soal ujian quis1768 soal ujian quis
1768 soal ujian quis
 
backpropagation
backpropagationbackpropagation
backpropagation
 

Dw 9-intelijensi buatan

  • 1. Intelijensi Buatan Dian Wirdasari, S.Si.,M.Kom
  • 2. Intelijensi Buatan Materi-7 Jaringan Syaraf Tiruan Dian Wirdasari, S.Si.,M.Kom
  • 3.
  • 4.
  • 5. Dianalogikan dengan neuropsikologi (neurophysiologi) pada otak manusia. Dalam JST, neuron adalah bagian terkecil dari JST yg berfungsi sbg elemen pemroses. Dapat dinyatakan sbg prosesor sederhana dari sistem JST. Dikenal dgn sebutan perceptron atau Adaline.
  • 6. Dalam JST, neuron bekerja dgn mengumpulkan sinyal dari neuron yg terhubung sebelumnya dan memprosesnya untuk menjadi masukan bagi neuron berikutnya. Neuron tersusun dari komponen-komponen sbb: Sekumpulan penghubung (synapses) atau connection link yg dikarakterkan dgn sebuah pembobot (weight connection) Sebuah penjumlah (summing/adder) utk menjumlahkan semua sinyal masukannya. Sebuah fungsi aktivasi (activation function)
  • 7. Model dari sebuah neuron Jaringan syaraf tiruan menggunakan model matematis. X = X0.W0 + X1.W1 + X2.W2 + … + Xn.Wn Y = f(X), dengan f adalah fungsi aktivasi
  • 8. Pada JST, neuron-neuron akan dikumpulkan dalam lapisan lapisan yang disebut dengan layers Neuron dalam satu lapisan akan dihubungkan dengan neuron pada lapisan lainnya Kadang muncul juga layer tersembunyi (hidden layer) Informasi tersebut bisa dirambatkan secara forward ataupun backward
  • 9. Lapisan Masukan (input layer): titik pada lapisan ini berfungsi utk menampung dan menyebarkan sinyal yg ada ke lapisan berikutnya Lapisan tersembunyi (hidden layer): lapisan ini berada diantara lapisan masukan dan lapisan keluaran. Lapisan ini berfungsi mengolah sinyal yg ada dalam bentuk fungsi transformasi neuron Lapisan keluaran (output layer): sbg lapisan keluaran hasil operasi JST
  • 10.
  • 11.
  • 12. Single Layer Hanya memiliki satu lapisan dengan bobot- bobot terhubung. Langsung menerima input dan mengolahnya menjadi output tanpa menggunakan hidden layer
  • 13. Multi Layer Memiliki satu atau lebih lapisan yg terletak diantara lapisan input dan lapisan output Dapat menyelesaikan masalah yang lebih kompleks karena lebih akurat Fungsi pembelajarannya lebih rumit
  • 14. Kompetitive Model / Recurrent Model Hubungan antar neuron tidak diperlihatkan secara langsung pada arsitektur Hubungan antar neuron dapat digambarkan sebagai jaring yang rumit
  • 15.
  • 16. Fungsi undak (step) biner (hard limit) Jaringan dgn lapisan tunggal sering menggunakan fungsi undak untuk mengkonversi input dari suatu variabel yang bernilai kontinu ke suatu output biner. Fungsi hard limit dirumuskan sbb:
  • 17. Fungsi undak biner dengan threshold Fungsi undak biner dgn menggunakan nilai ambang (threshold) θ (theta). Disebut juga fungsi nilai ambang atau fungsi Heaviside Dirumuskan sbb: θ
  • 18. Fungsi bipolar Hampir sama dengan fungsi undak biner, hanya saja output yg dihasilkan berupa 1, 0 atau -1. Disebut juga fungsi Symmetric Hard Limit. Dirumuskan sbb:
  • 19. Fungsi bipolar dengan threshold Fungsi bipolar yg menggunakan nilai ambang Fungsi yang menghasilkan output berupa 1, 0 atau -1 Dirumuskan sbb:
  • 20. Fungsi Linier (identitas) Memiliki nilai output yg sama dengan nilai input. Dirumuskan sbb: Y=X
  • 21. Fungsi Sigmoid Biner Digunakan untuk jaringan syaraf yg dilatih dgn menggunakan metode backpropagation. Memiliki nilai pada range 0 sampai 1. 1 Y = f(X) = ------------ 1 + e-X
  • 22. Fungsi Sigmoid Bipolar Output dari fungsi ini memiliki range antara 1 sampai -1 1 - e-X Y = f(X) = ------------- 1 + e-X
  • 23.
  • 24. Sistem JST sebagai sebuah graf pembobot berarah (graph directed weighted) yg neuronnya dinyatakan sbg titik dan arah pembobotnya dinyatakan sbg penghubung antar neuron. Berdasarkan struktur sambungan dan aliran pengolahan sinyal, JST dibedakan menjadi: Jaringan Maju (feed forward architecture) Jaringan Berulang (recurrent architecture)
  • 25. Jaringan Maju Tidak mempunyai loop Dapat berupa lapisan tunggal (single layer perceptron) atau lapisan jamak (multilayer perceptron) Contoh jaringan maju lapisan tunggal sbb: X1 W X2 factv ai X3
  • 26. Jaringan Berulang Memiliki loop atau lingkaran umpan balik (feedback loop), lapisan output akan memberi input lagi bagi lapisan input Antara lain pd jaringan Hopfield, Kohonen dan kompetitif. Lingkaran umpan balik dinyatakan W ai dgn suatu elemen Z-1 tunda (unit delay element) yg Z-1 dinotasikan dgn Z-1 Z-1
  • 27. JST disusun utk mampu mengenali dan meniru pola pemetaan dari pasangan sinyal masukan ke sinyal keluaran yg diinginkan. Parameter JST dpt ditentukan dgn melatih atau mengajari JST tsb dgn pola masukan keluaran yg telah benar dgn mengikuti aturan pembelajaran. Aturan pembelajaran dapat dibagi 2 yaitu: Aturan Terbimbing/terawasi (supervised learning rule) Aturan Tidak Terbimbing/tdk terawasi (unsupervised learning rule).
  • 28. Supervised Learning (Pembelajaran Terawasi) Kumpulan input berusaha membentuk target output yang sudah diketahui sebelumnya Perbedaan antara output yang masih salah dengan output yang diharapkan harus sekecil mungkin Biasanya lebih baik daripada unsupervised Kelemahan: pertumbuhan waktu dihitung secara eksponensial, data bnyk berarti semakin lambat
  • 29. Terdapat 2 fase yaitu: Fase pembelajaran ▪ Tujuan utk meminimalkan index performance jaringan ▪ Selanjutnya digunakan utk memperbaharui parameter2 JST ▪ Bila parameter2 JST sudah ditemukan maka JST dpt dioperasikan secara mandiri tanpa pembimbing ▪ Jika nilai pembimbing adalah Otc dan keluaran JST adalah O, maka diagram blok fase pembelajaran terbimbing adalah sbb: Fase pelaksanaan
  • 30. X Otc Environment Teacher Learning O System ∑ e Gambar Blok Pembelajaran Terbimbing
  • 31. Proses pembelajaran pada JST pada dasarnya menghasilkan suatu nilai yang mempengaruhi nilai bobot w secara terus menerus selama proses berlangsung. Metode Pembelajaran / Pelatihan sbb: ▪ Hebbian ▪ Perceptron ▪ Delta ▪ BackPropagation ▪ Hetero Associative Memory ▪ Bidirectional Associative Memory ▪ Learning vector Quantization
  • 32. HebbRule Metode pembelajaran yang paling sederhana, pembelajaran dilakukan dengan cara memperbaiki nilai bobot sedemikian rupa sehingga jika ada 2 neuron yang terhubung dan keduanya dalam kondisi“on”pada saat yang sama, maka bobot antara keduanya dinaikkan
  • 33. Perception Biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear. Algoritma yang digunakan akan mengatur parameter-parameter bebasnya melalui proses pembelajaran
  • 34. Delta Rule Mengubah bobot yang menghubungkan antara jaringan input ke unit output dengan nilai target. Backpropagation Algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perception dengan banyak lapisan untuk mengubah bobt-bobot yang terhubung dengan neuron-neuron yang ada pada lapisan tersembunyi
  • 35. Hetero Associative Memory Jaringan yang bobot-bobotnya ditentukan sedemikian rupa sehingga jaringan tersebut dapat menyimpan kumpulan pola. Bidirectional Associative Memory Model jaringan syaraf yang memiliki 2 lapisan dan terhubung penuh dari satu lapisan ke lapisan lainnya. Pada jaringan ini dimungkinkan adanya hubungan timbal balik antara lapisan input dan lapisan output.
  • 36. Learning vector Quantization Suatu metode untuk melakukan pembelajaran pada lapisan kompetitif yang terawasi. Suatu lapisan kompetitif akan secara otomatis belajar untuk mengklasifikasikan vektor-vektor input. Kelas-kelas yang didapatkan sebagai hasil hanya tergantung pada jarak antara vektor-vektor input
  • 37. Unsupervised Learning Tidak memerlukan target output Tujuannya untuk membentuk vektor-vektor input yang serupa tanpa menggunakan data atau contoh2 pelatihan, biasanya ke dalam suatu kategori/kelompok2 tertentu Hibrida Learning Gabungan antara unsupervised dan supervised
  • 38. Pertama kali diperkenalkan oleh Prof. Teuvo Kohonen tahun 1982. Suatu lapisan yang berisi neuron-neuron akan menyusun dirinya sendiri berdasarkan input nilai tertentu dalam suatu kelompok yang dikenal dengan istilah cluster Selama proses penyusunan diri, cluster yang memiliki vektor bobot paling cocok dengan pola input akan terpilih sebagai pemenang
  • 39. Proses pembelajaran JST berupa pemberian variabel bebas n data masukan X1, X2…Xn dan keluaran berupa n data yang diharapkan d1, d2,…dn (variabel tak bebas) sehingga data diumpankan kepada JST yang merupakan himpunan data D = {(X1, d1), (X2, d2),….(Xn, dn)} Hubungan antara data X dan d ditulis : d = g(x) + ε g(x) = fungsi dengan variabel x ε = adalah nilai kesalahan (error)
  • 40. Dengan mengabaikan variabel ε maka persamaan menjadi d = g(x) fungsi ini disebut dengan model regresi dimana fungsi g(x) secara statistik ditulis : g(x) = E[d I x ] Secara statistik diartikan sebagai kejadian bersyarat dimana terjadinya d bila diberi x.
  • 41. Bila nilai ε tidak nol, model regresinya diasumsikan : 1. Kemungkinan terjadinya ε untuk tiap x adalah nol. E[ε I x ] = 0 2. ε Tidak terkoreksi dengan fungsi g(x) E[εg(x) ] = 0 Model regresi dalam aplikasi JST menghubungkan masukan x dengan target d melalui bobot w, yang mana bobot w diperbaharui melalui proses pembelajaran berdasarkan pasangan variabel {(X1, d1), (X2,d2),….(Xn, dn)}
  • 42. Model Regresi Model Tipikal Jaringan Syaraf Tiruan
  • 43. Pembelajaran yang diterapkan kepada jaringan syaraf tiruan melibatkan tiga komponen : 1. Lingkungan berupa vektor x dengan distribusi P(x) tidak diketahui. 2. Referensi : Berupa nilai vektor target d untuk tiap vektor masukan x, pasangan vektor d dan x dihubungkan oleh fungsi g() yang juga tidak diketahui. d = g(x)
  • 44. 3. Algoritma : Memetakan masukkan ke keluaran dalam bentuk fungsi : O = F(x,W) dimana O = nilai keluaran sebenarnya sebagai hasil tanggapan terhadap parameter x, sedangkan w adalah bobot jaringan syaraf (w dapat dikatakan berupa pengetahuan hasil proses pembelajaran). Model Paradigma Pembelajaran terawasi
  • 45. Fungsi aktivasi biner Besar bobotnya sama Memiliki threshold yang sama Contoh buat fungsi logika “and”, input X1 dan X2, danY = 1 jika dan hanya jika inputan 1, dengan bobot=1 dan fungsi aktivasi: Y= 1 jika net >=2, Y=0 jika net < 2 Apakah jaringan tsb mampu mengenali pola target? X1 X2 Y 1 1 1 1 0 0 0 1 0 0 0 0
  • 46. X1 X2 net Y= 1 jika net >=2, Y=0 jika net < 2 1 1 1.1+1.1=2 1 X1 1 0 1.1+0.1=1 0 1 0 1 0.1+1.1=1 0 Y 0 0 0.1+0.1=0 0 2 X2 1 Ternyata BERHASIL mengenali pola
  • 47. Buat fungsi logika “OR”, input X1 dan X2, dan output Y, dengan bobot W1=W2=1 dengan fungsi aktivasiY= 1 jika net >=1, 0 jika net < 1
  • 48. X1 X2 net Y= 1 jika net >=1, 0 jika net < 1 1 1 1.1+1.1=2 1 1 0 1.1+0.1=1 1 0 1 0.1+1.1=1 1 0 0 0.1+0.1=0 0 Ternyata BERHASIL mengenali pola
  • 49. Buat fungsi logika “X1 and not(X2)”, input X1 dan X2, dan output Y, dengan bobot W1=2 dan W2=-1 dengan fungsi aktivasiY= 1 jika net >=2, Y=0 jika net < 2
  • 50. Intelijensi Buatan Dian Wirdasari, S.Si.,M.Kom See you next week……..!
  • 51. Nama : Dian Wirdasari Email : dianws@yahoo.com, dianws@gmail.com Website : http://dianws.webs.com Ym: dianws Facebook: http://www.facebook.com/ dianws