Inteligência Artificial Parte 6 [IA]

623 visualizações

Publicada em

Inteligencia Artificial Parte 6 - Redes Neurais

Publicada em: Educação
0 comentários
0 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

  • Seja a primeira pessoa a gostar disto

Sem downloads
Visualizações
Visualizações totais
623
No SlideShare
0
A partir de incorporações
0
Número de incorporações
157
Ações
Compartilhamentos
0
Downloads
39
Comentários
0
Gostaram
0
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

Inteligência Artificial Parte 6 [IA]

  1. 1. Redes Neurais Ronaldo F. Ramos, Dr. ronaldo@cefet-ce.br
  2. 2. Roteiro ✹Cérebro ✹Redes Neurais ✹Perceptrons ✹Perceptrons multicamada ✹Aplicações de redes neurais
  3. 3. Cérebro 1011 neurônios de > 20 tipos 1014 sinapses, 1 ms-10ms de ciclo.
  4. 4. Modelo de McCulloch-Pitts
  5. 5. Função de ativação a) Função limiar b) Função sigmóide 1/(1-e-x) Mudando o bias muda a posição do limiar W[0,1]
  6. 6. Implementação de funções lógicas. Toda função lógica pode ser implementada? Calcular os pesos para as AND,NOT,OR, XOR?
  7. 7. Estruturas de Redes Neurais Feed-Froward: Perceptron de camada simples Perceptron multi camadas Redes Recorrentes Redes de Hopfield (Pesos simétricos Wij=Wji) Máquinas de Boltzman. Funções de ativação estocásticas
  8. 8. Redes Feed-Forward •Família parametrizada de equações não lineares
  9. 9. Perceptrons •Família parametrizada de equações não lineares
  10. 10. Expressividade dos Perceptrons Considere g como uma fução de saída do tipo “passo” (STEP) Com isso poderemos representar AND, OR, NOT, maioria, etc. Representa um separador linear do espaço de entrada.
  11. 11. Aprendizagem nos perceptrons Considere g como uma fução de saída do tipo “passo” (STEP) Com isso poderemos representar AND, OR, NOT, maioria, etc. Representa um separador linear do espaço de entrada. ! ! ! ! ! ! ! ! Quantas funções com n entradas binárias = 22n Quantas linearmente separáveis ➔?
  12. 12. Aprendizagem nos perceptrons Erro quadrático ! ! ! Gradiente descendente ! ! ! ! ! Regra de ajustes dos pesos ! ! ! α = taxa de aprendizagem
  13. 13. Aprendizagem nos perceptrons Converge para uma função consistente para qualquer conjunto de dados linearmente separável.
  14. 14. Perceptrons multicamada Camadas, em geral, totalmente conectadas. Número de unidades ocultas escolhidas empiricamente.
  15. 15. Perceptrons multicamada Qualquer função contínua com 2 camadas ou qualquer função com 3 camadas.
  16. 16. Aprendizagem com retroprogração (BackPropagation) Camada de saída: Igual ao perceptron: ! ! ! Onde: ! Camadas ocultas “retropropagam” o erro da camada de saída. ! ! ! Atualização dos pesos nas camadas ocultas: ! ! Neurocientistas afirmam que o cérebro não faz isso!
  17. 17. Comparação com árvores de decisão.
  18. 18. Exemplo dos caracteres escritos.
  19. 19. Resumindo •Cérebros têm neurônios = cada neurônio é uma unidade de limiar linear. •Perceptrons de uma camada são insuficientemente expressivos. •Redes multicamadas são suficientemente expressivas e podem ser treinadas por “backpropagation”. •Existem inúmeras aplicações. •Existem inúmeras ferramentas de trabalho (matlab,jnns,etc).
  20. 20. Outros tipos de redes

×