CT-215 – Inteligência Artificial
Uma proposta de uma Célula Neural Artificial
Paraconsistente de Aprendizagem
Márcio de Fr...
Lógica Clássica - Princípios
● Princípio da Identidade – ρ = ρ
– Toda proposição ou objeto é idêntico a si mesmo
● Princíp...
Problema
No mundo real nem todas as situações podem
ser classificadas simplesmente como
verdadeiras ou falsas!!
O mundo nã...
Lógica Paraconsistente
Remove o 3º Princípio (Terceiro excluído)
– Consequência
● Contradição
● Incerteza
Lógica Paraconsistente Anotada
● É um classe da Lógica Paraconsistente
● Traz proposições acompanhadas de anotações em for...
LPA2v
● Lógica Paraconsistente Anotada com anotação de Dois
valores
● Graus de Evidência:
● Grau de evidência favorável – ...
LPA2v
Grau de Certeza
Grau de Contradição
Grau de Certeza Real
GC=μ−λ
GCt=μ+λ−1
GCR=1−√(1−∣Gc∣)
2
+GCt
2
normalizando
Grau...
Rede Neural Artificial Paraconsistente
Operadores
Negação Lógica Complementação Lógica
Células Neurais Artificiais Paracon...
CNAPap - Objetivo
Ser treinada para aprender qualquer padrão de
entrada na velocidade definida pelo Fator de
Aprendizagem
CNAPap – Equações da Literatura
Equação 1:
Equação 2:
μE(k +1)=
(μ1−μE(k)C⋅F A)+1
2
μE(k +1)=
(μ1−μE(k)C)⋅F A+1
2
CNAPapFA...
Equação 1 - Resultados
μE(k +1)=
(μ1−μE (k)C⋅FA)+1
2
Equação 2 - Resultados
μE(k +1)=
(μ1−μE (k)C )⋅F A+1
2
Nova CNAPap - PROPOSTA
Baseado no Grau de Contradição:
CNAPapFA
FDA
μ1
μE
C
μEC=1−μE
GCt =μ1+μEC−1
μE(k +1)=μE(k)+GCt⋅F A
Resultados
μE(k +1)=μE(k)+GCt⋅F A
Algoritmo Completo
1 Início – célula virgem: Ue := 0,5
2 Entra com o valor do padrão: U1
3 Complementação lógica: Uec := 1...
Resultados
Resultados
O que vem depois?
O que vem depois?
Próximos SlideShares
Carregando em…5
×

Uma proposta de uma célula neural artificial paraconsistente de aprendizagem

269 visualizações

Publicada em

CNAPap

Publicada em: Tecnologia
0 comentários
0 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

  • Seja a primeira pessoa a gostar disto

Sem downloads
Visualizações
Visualizações totais
269
No SlideShare
0
A partir de incorporações
0
Número de incorporações
3
Ações
Compartilhamentos
0
Downloads
3
Comentários
0
Gostaram
0
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

Uma proposta de uma célula neural artificial paraconsistente de aprendizagem

  1. 1. CT-215 – Inteligência Artificial Uma proposta de uma Célula Neural Artificial Paraconsistente de Aprendizagem Márcio de Freitas Minicz São José dos Campos, 28 de Novembro de 2013
  2. 2. Lógica Clássica - Princípios ● Princípio da Identidade – ρ = ρ – Toda proposição ou objeto é idêntico a si mesmo ● Princípio da Identidade Proposicional – ρ ⟶ ρ – Toda proposição implica nela mesma ● Princípio do terceiro excluído – ρ ∨ ⌐ρ – De duas proposições contraditórias, isto é, uma nega a outra, uma delas é verdadeira ● Princípio da não-contradição – ⌐(ρ ∨ ⌐ρ) – Entre duas proposições contraditórias, uma delas é falsa
  3. 3. Problema No mundo real nem todas as situações podem ser classificadas simplesmente como verdadeiras ou falsas!! O mundo não é binário!!
  4. 4. Lógica Paraconsistente Remove o 3º Princípio (Terceiro excluído) – Consequência ● Contradição ● Incerteza
  5. 5. Lógica Paraconsistente Anotada ● É um classe da Lógica Paraconsistente ● Traz proposições acompanhadas de anotações em forma de graus de evidências ou crenças ● Permite 4 possibilidades: ⊤ – Inconsistente V – Verdadeiro F – Falso ⊥ – Indeterminado
  6. 6. LPA2v ● Lógica Paraconsistente Anotada com anotação de Dois valores ● Graus de Evidência: ● Grau de evidência favorável – μ [0,1] ● Grau de evidência desfavorável – λ [0,1] μ λ P(0,1) =F P(1,1) =⊤ P(1,0) =V P(0,0) =⊥
  7. 7. LPA2v Grau de Certeza Grau de Contradição Grau de Certeza Real GC=μ−λ GCt=μ+λ−1 GCR=1−√(1−∣Gc∣) 2 +GCt 2 normalizando Grau de Evidência Resultante Grau de Contradição Normalizado Grau de Evidência Resultante Real μE= GC +1 2 = μ−λ+1 2 μCtr= GCt +1 2 = μ+λ 2 μER= GCR+1 2
  8. 8. Rede Neural Artificial Paraconsistente Operadores Negação Lógica Complementação Lógica Células Neurais Artificiais Paraconsistentes (CNAP) Analítica Analítica Real Passagem Conexão Lógica Simples Conexão Lógica Seletiva Complementação Detecção de Igualdade Decisão Passagem e Decisão Aprendizado
  9. 9. CNAPap - Objetivo Ser treinada para aprender qualquer padrão de entrada na velocidade definida pelo Fator de Aprendizagem
  10. 10. CNAPap – Equações da Literatura Equação 1: Equação 2: μE(k +1)= (μ1−μE(k)C⋅F A)+1 2 μE(k +1)= (μ1−μE(k)C)⋅F A+1 2 CNAPapFA FDA μ1 μE C
  11. 11. Equação 1 - Resultados μE(k +1)= (μ1−μE (k)C⋅FA)+1 2
  12. 12. Equação 2 - Resultados μE(k +1)= (μ1−μE (k)C )⋅F A+1 2
  13. 13. Nova CNAPap - PROPOSTA Baseado no Grau de Contradição: CNAPapFA FDA μ1 μE C μEC=1−μE GCt =μ1+μEC−1 μE(k +1)=μE(k)+GCt⋅F A
  14. 14. Resultados μE(k +1)=μE(k)+GCt⋅F A
  15. 15. Algoritmo Completo 1 Início – célula virgem: Ue := 0,5 2 Entra com o valor do padrão: U1 3 Complementação lógica: Uec := 1 – Ue 4 Calcula o Grau de Contradição: Gct := U1 – Uec + 1 5 Se U1 > Ue então: Ue := Ue + Gct * Fa 6 Se U1 < Ue então: Ue := Ue + Gct * Fda 7 Volta para 2.
  16. 16. Resultados
  17. 17. Resultados
  18. 18. O que vem depois?
  19. 19. O que vem depois?

×