REDES NEURAIS ARTIFICIAIS
Edmilson Neto
Agenda
• Introdução
• Neurônio natural
• Histórico
• Neurônio artificial
• Perceptron
• Perceptron Multicamada
• Backpropagation
• Exemplos recentes
• Conclusão
• Referências bibliográficas
Introdução
• Capacidade cognitiva do ser humano
• O neurônio natural
• Inteligência humana
• Neurônios artificiais
• Aplicabilidade
Neurônio natural
Neurônio natural
• Corpo celular e núcleo (soma)
Onde são realizadas reações químicas e elétricas
(processamento das informações).
•Axônio
Responsável pelo transporte das informações processadas pela
soma.
•Arborização terminal
Distribuem as informações processadas para outros neurônios.
Neurônio natural
• Dendrites
Recebe conexões de outros neurônios.
• Sinapse
Conexões entre neurônios.
Neurônio natural
• Robustez e tolerância a falhas
• Capacidade de aprendizagem
• Processamento de informação incerta
• Paralelismo
Histórico
• 1936 - Maquina de Turing (Máquina Universal).
• 1940 - Pato de Voucanson (Von Neumann)
• 1943 - Primeiro modelo - Macculloch and Pitts (MIT - Instituto
Tecnológico de Massachusetts)
• 1951 - Neuro computador Snark (Mavin Minsky)
• 1956 - Inteligência artificial Simbólica e Conexionista
• 1958 - Perceptron - Rosenblatt (simulados em um computador
IBM 704)
• 1960 - ADALINE - Widrow and Hoff (Mark I)
• 1969 - Publicação do Livro Perceptrons (Minsky e Papert)
Histórico
• 1970 - Publicações Pessimistas
• 1986 - Backpropagation (Rumelhart, Hilton & Willians)
• Identificação da estrutura das proteínas
• Hifenização de palavras em inglês
• Reconhecimento de fala
• Previsão do tempo
Neurônios Artificiais
• Imitam as principais características e funcionalidades do
neurônio humano
• Mesmo com algum componente danificado, continuam
fornecendo informações aceitáveis devido à sua arquitetura
redundante
• Tem a capacidade de aprender através da fase de
aprendizagem
• Reconhecimento de padrões
• Dependendo do hardware pode fornecer informações em
real time
Neurônios Artificiais
•Tipos de rede
• Feedfoward
• Recurrent
Neurônios Artificiais
Tipos de aprendizagem:
• Supervisionada
• Não supervisionada (Auto organização)
• Por reforço
Perceptron
• Capaz de classificar classes linearmente separáveis
• Aplicado em :
• Reconhecimento de caracteres
• Detecção de falhas em processos
• Identificação de pessoas (Iris, Voz, Digital)
• Diagnóstico médico
• Data mining
• Previsão em teclados virtuais
• Aproximação de funções
• Classificações
Perceptron
• Utiliza pesos para chegar ao resultado desejado
• Utiliza a função do modelo de Macculloch e Pitts
Rede Perceptron
Pesos sinápticos
Sinais de entrada
Rede Perceptron
• Função de agregação
u = (xi * wi ) - Θ
• Função de ativação
y = (u >= 0) ? 1 : 0
Perceptron
Exemplos de funções de ativação
• Degrau
• Degrau bipolar
• Sigmoide
Perceptron
Classifica classes separáveis linearmente
Perceptron
Não classifica classes não separáveis linearmente
Perceptron
• Exemplo de classes separáveis linearmente
Sinal 1 (x) Sinal 2 (y) Saída (x OR y)
0 0 0 (Vermelho)
0 1 1 (Verde)
1 0 1 (Verde)
1 1 1 (Verde)
Representação dos Sinais e Saídas
y
x0
1
0 1
Representação dos Sinais, Saídas e
Possíveis Retas (Soluções)
y
x0
1
0 1
Perceptron
• Exemplo de classes não separáveis linearmente
Sinal 1 (x) Sinal 2 (y) Saída (x XOR y)
0 0 0 (Vermelho)
0 1 1 (Verde)
1 0 1 (Verde)
1 1 0 (Vermelho)
Representação dos Sinais e Saídas
y
x0
1
0 1
Representação dos Sinais, Saídas e
Impossível Separar Linearmente
y
x0
1
0 1
Perceptron
Processo de treinamento
Perceptron
• Processo de treinamento
• n = Constante de taxa de aprendizado (0 < n < 1)
• y = Valor de saída produzido pelo perceptron
• d^(k) = Valor desejado para k-ésima amostra de
treinamento
• x^(k) = Valor da amostra de treinamento
• w = Vetor contendo os pesos
Perceptron
Processo de ajuste dos pesos
w atual = w anterior + n * (dˆ(k) - y) * xˆ(k)
Rede Perceptron
Algoritmo de treinamento (regra delta)
Rede Perceptron
Algoritmo de operação
Rede Perceptron
Exemplo de execução
x1
(Fósforo - mg)
x2
(Acidez - mg)
x3
(Cálcio - mg)
Classe (1 = tangerina)
(-1 = laranja)
0,1 0,4 0,7 1
0,5 0,7 0,1 1
0,6 0,9 0,8 -1
0,3 0,7 0,2 -1
Tangerina
Laranja
Perceptron Multicamada e
Backpropagation
Era conhecido que a adição de mais camadas poderia resolver os problemas que o
perceptron single layer não conseguia
Mas não se conhecia um método de adaptação dos pesos para o perceptron mult layer
Os Valores de saída são comparados com a resposta correta e o resultado
armazenado em uma função de erro
Utiliza uma função sigmoide como função de ativação
Perceptron Multicamada e
Backpropagation
Pode ser aplicada em:
• Previsões
• Controle automático
• Identificação de plantas
• Aproximação universal de funções
Neurogrid
Capaz de emular o cerebro humano
Utiliza pouca energia
Capaz de simular 1.000.000 de neurônios
Um cérebro de um rato opera 9.000x mais rápido que um
computador convencional
Um cérebro humano opera infinitas vezes mais rápido
que o mais potente super-computador quântico, utilizando
bem menos energia
Pode ser utilizado em próteses conectadas ao córtex
Neurogrid
Miniaturas Youtube
Rede Sonhadora Google
Rede Sonhadora Google
Rede Sonhadora Google
Gmail
Google Photos
Conclusão
As RNAs podem ser utilizadas para resolver a maioria
dos problemas que podem ser modelados
computacionalmente, porém não devem ser utilizadas para
todos estes problemas, devem ser utilizadas para resolver
problemas que não possuem uma outra solução
conhecida.
Referências bibliográficas
• Introdução a redes neurais artificiais (IA);
https://www.youtube.com/playlist?list=PLb2oL4vcRzBP
G-Q-S2xxqtQqRf1iwy6yT, Acesso em 09/08/2015
• Neurogrid: conheça o microchip que simula o cérebro
humano, Eduardo Harada;
http://www.tecmundo.com.br/tecnologia/54056-
neurogrid-conheca-o-microchip-que-simula-o-cerebro-
humano.htm, Acesso em 10/08/2015
• Silva, I. N; Redes Neurais Artificiais para engenharia e
ciências aplicadas
• Thomas W. Rauber; Redes Neurais Artificiais, UFES.

Redes neurais

  • 1.
  • 2.
    Agenda • Introdução • Neurônionatural • Histórico • Neurônio artificial • Perceptron • Perceptron Multicamada • Backpropagation • Exemplos recentes • Conclusão • Referências bibliográficas
  • 3.
    Introdução • Capacidade cognitivado ser humano • O neurônio natural • Inteligência humana • Neurônios artificiais • Aplicabilidade
  • 4.
  • 5.
    Neurônio natural • Corpocelular e núcleo (soma) Onde são realizadas reações químicas e elétricas (processamento das informações). •Axônio Responsável pelo transporte das informações processadas pela soma. •Arborização terminal Distribuem as informações processadas para outros neurônios.
  • 6.
    Neurônio natural • Dendrites Recebeconexões de outros neurônios. • Sinapse Conexões entre neurônios.
  • 7.
    Neurônio natural • Robusteze tolerância a falhas • Capacidade de aprendizagem • Processamento de informação incerta • Paralelismo
  • 8.
    Histórico • 1936 -Maquina de Turing (Máquina Universal). • 1940 - Pato de Voucanson (Von Neumann) • 1943 - Primeiro modelo - Macculloch and Pitts (MIT - Instituto Tecnológico de Massachusetts) • 1951 - Neuro computador Snark (Mavin Minsky) • 1956 - Inteligência artificial Simbólica e Conexionista • 1958 - Perceptron - Rosenblatt (simulados em um computador IBM 704) • 1960 - ADALINE - Widrow and Hoff (Mark I) • 1969 - Publicação do Livro Perceptrons (Minsky e Papert)
  • 9.
    Histórico • 1970 -Publicações Pessimistas • 1986 - Backpropagation (Rumelhart, Hilton & Willians) • Identificação da estrutura das proteínas • Hifenização de palavras em inglês • Reconhecimento de fala • Previsão do tempo
  • 10.
    Neurônios Artificiais • Imitamas principais características e funcionalidades do neurônio humano • Mesmo com algum componente danificado, continuam fornecendo informações aceitáveis devido à sua arquitetura redundante • Tem a capacidade de aprender através da fase de aprendizagem • Reconhecimento de padrões • Dependendo do hardware pode fornecer informações em real time
  • 11.
    Neurônios Artificiais •Tipos derede • Feedfoward • Recurrent
  • 12.
    Neurônios Artificiais Tipos deaprendizagem: • Supervisionada • Não supervisionada (Auto organização) • Por reforço
  • 13.
    Perceptron • Capaz declassificar classes linearmente separáveis • Aplicado em : • Reconhecimento de caracteres • Detecção de falhas em processos • Identificação de pessoas (Iris, Voz, Digital) • Diagnóstico médico • Data mining • Previsão em teclados virtuais • Aproximação de funções • Classificações
  • 14.
    Perceptron • Utiliza pesospara chegar ao resultado desejado • Utiliza a função do modelo de Macculloch e Pitts
  • 15.
  • 16.
    Rede Perceptron • Funçãode agregação u = (xi * wi ) - Θ • Função de ativação y = (u >= 0) ? 1 : 0
  • 17.
    Perceptron Exemplos de funçõesde ativação • Degrau • Degrau bipolar • Sigmoide
  • 18.
  • 19.
    Perceptron Não classifica classesnão separáveis linearmente
  • 20.
    Perceptron • Exemplo declasses separáveis linearmente Sinal 1 (x) Sinal 2 (y) Saída (x OR y) 0 0 0 (Vermelho) 0 1 1 (Verde) 1 0 1 (Verde) 1 1 1 (Verde) Representação dos Sinais e Saídas y x0 1 0 1 Representação dos Sinais, Saídas e Possíveis Retas (Soluções) y x0 1 0 1
  • 21.
    Perceptron • Exemplo declasses não separáveis linearmente Sinal 1 (x) Sinal 2 (y) Saída (x XOR y) 0 0 0 (Vermelho) 0 1 1 (Verde) 1 0 1 (Verde) 1 1 0 (Vermelho) Representação dos Sinais e Saídas y x0 1 0 1 Representação dos Sinais, Saídas e Impossível Separar Linearmente y x0 1 0 1
  • 22.
  • 23.
    Perceptron • Processo detreinamento • n = Constante de taxa de aprendizado (0 < n < 1) • y = Valor de saída produzido pelo perceptron • d^(k) = Valor desejado para k-ésima amostra de treinamento • x^(k) = Valor da amostra de treinamento • w = Vetor contendo os pesos
  • 24.
    Perceptron Processo de ajustedos pesos w atual = w anterior + n * (dˆ(k) - y) * xˆ(k)
  • 25.
    Rede Perceptron Algoritmo detreinamento (regra delta)
  • 26.
  • 27.
    Rede Perceptron Exemplo deexecução x1 (Fósforo - mg) x2 (Acidez - mg) x3 (Cálcio - mg) Classe (1 = tangerina) (-1 = laranja) 0,1 0,4 0,7 1 0,5 0,7 0,1 1 0,6 0,9 0,8 -1 0,3 0,7 0,2 -1 Tangerina Laranja
  • 28.
    Perceptron Multicamada e Backpropagation Eraconhecido que a adição de mais camadas poderia resolver os problemas que o perceptron single layer não conseguia Mas não se conhecia um método de adaptação dos pesos para o perceptron mult layer Os Valores de saída são comparados com a resposta correta e o resultado armazenado em uma função de erro Utiliza uma função sigmoide como função de ativação
  • 29.
    Perceptron Multicamada e Backpropagation Podeser aplicada em: • Previsões • Controle automático • Identificação de plantas • Aproximação universal de funções
  • 30.
    Neurogrid Capaz de emularo cerebro humano Utiliza pouca energia Capaz de simular 1.000.000 de neurônios Um cérebro de um rato opera 9.000x mais rápido que um computador convencional Um cérebro humano opera infinitas vezes mais rápido que o mais potente super-computador quântico, utilizando bem menos energia Pode ser utilizado em próteses conectadas ao córtex
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
    Conclusão As RNAs podemser utilizadas para resolver a maioria dos problemas que podem ser modelados computacionalmente, porém não devem ser utilizadas para todos estes problemas, devem ser utilizadas para resolver problemas que não possuem uma outra solução conhecida.
  • 39.
    Referências bibliográficas • Introduçãoa redes neurais artificiais (IA); https://www.youtube.com/playlist?list=PLb2oL4vcRzBP G-Q-S2xxqtQqRf1iwy6yT, Acesso em 09/08/2015 • Neurogrid: conheça o microchip que simula o cérebro humano, Eduardo Harada; http://www.tecmundo.com.br/tecnologia/54056- neurogrid-conheca-o-microchip-que-simula-o-cerebro- humano.htm, Acesso em 10/08/2015 • Silva, I. N; Redes Neurais Artificiais para engenharia e ciências aplicadas • Thomas W. Rauber; Redes Neurais Artificiais, UFES.