SlideShare uma empresa Scribd logo
1 de 68
Redes Neurais
2
• O cérebro faz com que tarefas de classificação pareçam fáceis;
• O processo cerebral é realizado por redes de neurônios;
• Cada neurônio é conectado a vários outros neurônios;
Motivação biológica
3
Neurônio biológico
•O neurônio recebe impulsos (sinais)
de outros neurônios por meio dos seus
dendritos;
•O neurônio envia impulsos para outros
neurônios por meio do seu axônio;
•O axônio termina num tipo de contato
chamado sinapse, que conecta-o com
o dendrito de outro neurônio.
4
Neurônio biológico
•A sinapse libera substâncias químicas
chamadas de neurotransmissores, em função
do pulso elétrico disparado pelo axônio;
•O fluxo de neurotransmissores nas sinapses
pode ter um efeito excitatório ou inbitório sobre
o neurônio receptor
5
• O aprendizado ocorre por sucessivas modificações nas sinapses que
interconectam os neurônios, em função da maior ou menor liberação de
neurotransmissores;
• À medida que novos eventos ocorrem, determinadas ligações entre
neurônios são reforçadas, enquanto outras enfraquecidas;
• Este ajuste nas ligações entre os neurônios é uma das características das
redes neurais artificiais.
Neurônio biológico - Aprendizado
6
• RNAs
– Hierarquia similar ao funcionamento do sistema biológico;
– Neurônios são ativados por estímulos de entrada (função de ativação)
• RNA x Cérebro humano
– Cérebro humano: ≈100.000.000.000 de neurônios;
– RNAs: <1000 geralmente.
Redes Neurais Artificiais (RNAs)
7
Ideia geral
8
• Cada unidade (da mesma camada) da rede realiza o mesmo
cálculo;
– Geralmente baseado na soma ponderada das entradas na unidade;
• O conhecimento obtido pela rede fica armazenado nos pesos
correspondentes a cada uma de suas unidades (neurônios);
• Representação “caixa preta”:
– Difícil extrair o conhecimento sobre o conceito aprendido.
Processamento das RNAs
9
• Dados: conjuntos de exemplos rotulados e representados
numericamente;
• Tarefa: treinar uma rede neural usando esses exemplos
– O desempenho deve ser medido pela capacidade da rede em produzir saídas
corretas para dados não contidos no conjunto de treinamento.
Processamento das RNAs
10
• Etapas preliminares ao treinamento:
– Escolha da arquitetura de rede correta
○ Nº de neurônios;
○ Nº de camadas ocultas;
– Escolha da função de ativação (a mesma para cada neurônio de uma mesma
camada).
– Brinquem: https://playground.tensorflow.org
• A etapa de treinamento resume-se a:
– Ajustar os pesos das conexões entre as unidades para que a rede produza
saídas corretas.
Processamento das RNAs
11
• O tipo mais simples de RN;
• Possuí um único neurônio de saída
– Considera uma soma ponderada das
entradas;
– A função de ativação da unidade calcula a
saída da rede;
– Ex: unidade com treshold (limiar) linear.
Perceptrons
12
• Algumas funções de ativação:
• Função Step:
– Saída +1 se Netinput > Threshold T; -1 caso contrário;
Perceptrons
13
Classificação de imagens preto e branco por uma matriz de pixel
2x2
– Em “clara” ou “escura”;
– Pixels brancos = 1 e pixel pretos = -1.
• Pode se representar o problema por essa regra:
– Se resultado da Rede > -0.1 é clara; caso contrário escura;
• Arquitetura do Perceptron:
– 4 unidades de entrada, uma para cada pixel da matriz;
– Uma unidade de saída: +1 para “clara”; -1 “escura”.
Perceptrons: exemplo
14
Perceptrons: exemplo
15
• É necessário aprender:
– Os pesos entre as unidades de entrada e saída;
– O valor do threshold.
• Para tornar os cálculos mais fáceis:
– Considera-se o threshold como um peso referente a uma unidade de
entrada especial, cujo sinal é sempre 1 (ou -1);
○ Agora, o único objetivo resume-se a aprender os pesos da rede.
Aprendizagem em Perceptrons
16
Aprendizagem em Perceptrons
17
• Os valores dos pesos são inicializados aleatoriamente,
geralmente no intervalo (-1,1);
• Para cada exemplo de treinamento E:
– Calcule a saída observada da rede o(E);
– Se a saída desejada t(E) for diferente de o(E):
○ Ajuste os pesos da rede para que o(E) chegue mais próximo de t(E);
○ Isso é feito aplicando-se a regra de aprendizado Perceptron.
Aprendizagem em Perceptrons
18
• O processo de aprendizagem não para necessariamente depois
de todos os exemplos de treinamento terem sidos apresentados;
– Repita o ciclo novamente (uma “época”);
– Até que a rede produza saídas corretas (ou boas suficientes);
○ Considerando todos os exemplos no conjunto de treinamento.
Aprendizagem em Perceptrons
19
• Quando t(E) for diferente de o(E):
• Faça isso para todos os pesos da rede.
Regra de aprendizado para Perceptron
20
• O parâmetro η é chamado de taxa de aprendizagem
– Geralmente escolhido como uma pequena constante entre 0 e 1 (por
exemplo, 0.1);
• Controla o movimento dos pesos
– Não deixa haver uma mudança grande para um único exemplo;
• Se uma mudança grande for mesmo necessária para que os
pesos classifiquem corretamente um exemplo:
– Essa deve ocorrer gradativamente, em várias épocas.
Regra de aprendizado para Perceptron
21
• Classifique a imagem “clara” ou “escura”.
Exemplo anterior
22
Exemplo anterior
23
Exemplo anterior
24
Exemplo anterior
25
• Rede com pesos atualizados:
• Calcule a saída para o exemplo, e1, novamente.
Exemplo anterior
26
• S= (-0.3*1) + (0.5*-1) + (0*1) + (0.3*1) + (0.7*-1) = -1.2
• A nova saída da rede é o(e1) = -1 (“escura”);
• Ainda resulta em classificação errada;
– Mas o valor de S já está mais próximo de zero (de -2.2 para -1.2);
– Em poucas épocas, esse exemplo será classificado corretamente.
Exemplo anterior
27
• Entradas assumem dois valores possíveis (+1 ou -1);
• Produz um valor como saída (+1 ou -1);
– Exemplo 1: Função AND
○ Produz +1 somente se ambas as entradas forem iguais a +1;
– Exemplo 2: Função OR
○ Produz +1 se pelo menos uma das entradas for igual a +1.
Perceptrons: aprendizado booleano
28
Perceptrons: aprendizado booleano
29
• O que realmente a rede neural perceptron é capaz de aprender?
– Somente a discriminação de classes que sejam linearmente separáveis:
○ Ex: funções AND e OR.
Perceptrons: aprendizado booleano
30
• A função XOR não é linearmente separável
– Não é possível traçar uma linha divisória que classifique corretamente todos os pontos
• Redes Perceptrons não conseguem aprender a função XOR.
Perceptrons: aprendizado booleano
31
• Redes Perceptrons não são capazes de aprender conceitos complexos;
– Porém, formam a base para a construção de um tipo de rede que pode aprender
conceitos mais sofisticados;
– Redes Perceptron Multicamadas (MLP);
– Pode-se pensar nesse modelo como sendo uma rede formada por vários neurônios
similares ao tipo “perceptron”.
Redes Perceptrons Multicamadas
32
Redes Perceptrons Multicamadas
33
• Limitações
– A regra de aprendizado na MLP baseia-se em cálculo diferncial;
– Funções do tipo degrau não são diferenciáveis;
– Uma função de ativação alternativa deve ser considerada
Redes Perceptrons Multicamadas
34
• Função de ativação sigmóide podem ser usadas em redes MLP;
• Função sigmóide:
Unidades com função sigmóide
35
• Considere a seguinte MLP já treinada e que classifica um
exemplo como sendo da classe 1 se o1 > o2 e da classe 2, caso
contrário.
• Qual a classe estimada pela rede para o exemplo: [10, 30, 20]?
Exemplo de MLP
36
• Primeiro, calcule as somas ponderadas para a camada oculta:
– Sh1 = (0.2*10) + (0.1*30) + (0.4*20) = 2-3+8 = 7
– Sh2 = (0.7*10) + (-1.2*30) + (1.2*20) = 7-6+24 = -5
• A seguir, calcule a saída da camada oculta:
– Usando: h=σ(S) = 1/(1+е^-S)
○ h1 = σ(Sh1) = 1/(1+е^-7) = 1/(1+0.000912) = 0.999
○ h2 = σ(Sh2) = 1/(1+е^5) = 1/(1+148.4) = 0.0067
Exemplo de MLP
37
• A seguir, calcule as somas ponderadas para a camada de saída:
– So1 = (1.1*0.999) + (0.1*0.0067) = 1.0996
– So2 = (3.1*0.999) + (1.17*0.0067) = 3.1047
• Finalmente, calcule a saída da rede:
– Usando: h=σ(S) = 1/(1+е^-S)
○ o1 = σ(So1) = 1/(1+е^-1.0996) = 1/(1+0.333) = 0.750
○ o2 = σ(So2) = 1/(1+е^-3.1047) = 1/(1+0.045) = 0.957
• Como a saída o2>01:
– A classe estimada para o exemplo é a classe 2.
Exemplo de MLP
38
• Rede Neural do tipo “feedfoward”:
– Alimentação de entradas pela camada mais à esquerda;
– Propagação dos sinais para frente da rede;
– Neurônios entre camadas vizinhas estão completamente conectados.
Características do MLP
39
1. Dado um conjunto de treinamento;
2. Gere um conjunto de pesos com valores aleatórios para a rede (por
exemplo, entre 1 e -1);
• Enquanto o critério de convergência não for alcançado faça:
– Para todos os exemplos do conjunto de treinamento:
3. Apresente um exemplo para rede e calcule a saída:
○ A diferença entre a saída da rede e a saída desejada é considerada como valor de erro
para essa iteração.
4. Ajuste os pesos da rede
5. Volte para o passo 3.
Esquema de aprendizado para MLP
40
Algoritmos de aprendizagem MLP
41
• Adaline = Adaptive Linear Neuron ou Adaptive Linear Element.
• Surgiu quase que simultaneamente com o Perceptron, final da
década de 50.
• Assim como o Perceptron é um modelo baseado em elementos
que executam operações sobre a soma ponderada de suas
entradas
– Operações não lineares, no caso do Perceptron e puramente lineares no
caso do Adaline.
Adaline
42
• Apesar das semelhanças, os trabalhos que descreveram o Perceptron e
o Adaline surgiram em áreas diferentes e com enfoques diferentes:
Adaline
43
• O algoritmo de treinamento do Adaline utiliza a informação contida no
gradiente do erro para calcular o ajuste a ser aplicado ao vetor de pesos;
• Esse algoritmo, conhecido como Regra Delta, deu origem ao primeiro
algoritmo de treinamento de redes MLP, o Backpropagation.
Adaline
44
Adaline
45
Adaline
46
Adaline
47
Algoritmo Backpropagation
48
• Método de treinamento conhecido como “retropropagação do erro” ou
“regra delta generalizada”.
– Atua como um minimizador do erro observado nas saídas de uma rede neural artificial.
• Atua sobre uma arquitetura de rede neural de várias camadas (>=3),
feedfoward e pode ser usado para resolver problemas em diferentes
áreas.
Algoritmo Backpropagation
49
• O treinamento envolve três estágios:
– A passagem (feedforward) dos padrões de treinamento;
– O cálculo e retropropagação do erro associado;
– O ajuste de pesos.
• Os neurônios fazem dois tipos de computação:
– a clássica – ativação do neurônio mediante entradas e uma função de
ativação não-linear
– o cálculo do sinal de erro – computação de um vetor gradiente
Algoritmo Backpropagation
50
Algoritmo Backpropagation
51
Algoritmo Backpropagation – 1º fase
52
Algoritmo Backpropagation – 2º fase
53
Algoritmo Backpropagation – 2º fase
54
Algoritmo Backpropagation – 3º fase
55
Algoritmo Backpropagation
56
Algoritmo Backpropagation
57
Algoritmo Backpropagation
1º:
2º:
3º:
4º:
58
Algoritmo Backpropagation
Erro em uma camada:
EQM observação:
Erro médio treino:
1º:
2º:
3º:
4º:
59
Algoritmo Backpropagation
60
Algoritmo Backpropagation
61
Algoritmo Backpropagation
62
Algoritmo Backpropagation
63
Algoritmo Backpropagation
64
Algoritmo Backpropagation
65
Algoritmo Backpropagation
66
Algoritmo Backpropagation
67
Algoritmo Backpropagation
68
Algoritmo Backpropagation

Mais conteúdo relacionado

Mais procurados

Chp5 - Les outils CASE
Chp5 - Les outils CASEChp5 - Les outils CASE
Chp5 - Les outils CASELilia Sfaxi
 
BigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceBigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceLilia Sfaxi
 
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...Ambiente Livre
 
Apostila de uml
Apostila de umlApostila de uml
Apostila de umlaudiclerio
 
Psi-mod-15
Psi-mod-15Psi-mod-15
Psi-mod-15diogoa21
 
PETI - Planejamento Estratégico de TI
PETI - Planejamento Estratégico de TI PETI - Planejamento Estratégico de TI
PETI - Planejamento Estratégico de TI CompanyWeb
 
Sistema de Gerenciamento de Locadora de Vídeo - Apresentação
Sistema de Gerenciamento de Locadora de Vídeo - ApresentaçãoSistema de Gerenciamento de Locadora de Vídeo - Apresentação
Sistema de Gerenciamento de Locadora de Vídeo - ApresentaçãoGleyciana Garrido
 
Internet das Coisas: a era dos objetos inteligentes e conectados
Internet das Coisas: a era dos objetos inteligentes e conectadosInternet das Coisas: a era dos objetos inteligentes e conectados
Internet das Coisas: a era dos objetos inteligentes e conectadosCESAR
 
Lógica de programação { para iniciantes }
Lógica de programação { para iniciantes }Lógica de programação { para iniciantes }
Lógica de programação { para iniciantes }Mariana Camargo
 
O que é a ciência de dados (data science). Discussão do conceito
O que é a ciência de dados (data science). Discussão do conceitoO que é a ciência de dados (data science). Discussão do conceito
O que é a ciência de dados (data science). Discussão do conceitoLuis Borges Gouveia
 
Introdução a Métodos Ágeis de Desenvolvimento de Software
Introdução a Métodos Ágeis de Desenvolvimento de SoftwareIntrodução a Métodos Ágeis de Desenvolvimento de Software
Introdução a Métodos Ágeis de Desenvolvimento de SoftwareDaniel Cukier
 
Aula - Introdução a Engenharia de Software
Aula - Introdução a Engenharia de SoftwareAula - Introdução a Engenharia de Software
Aula - Introdução a Engenharia de SoftwareCloves da Rocha
 
Desenvolvimento Mobile
Desenvolvimento MobileDesenvolvimento Mobile
Desenvolvimento MobileElton Minetto
 

Mais procurados (20)

Chp5 - Les outils CASE
Chp5 - Les outils CASEChp5 - Les outils CASE
Chp5 - Les outils CASE
 
Big data
Big dataBig data
Big data
 
BigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceBigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-Reduce
 
Cloud computing
Cloud computingCloud computing
Cloud computing
 
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
 
Aplicativos Móveis
Aplicativos MóveisAplicativos Móveis
Aplicativos Móveis
 
Apostila de uml
Apostila de umlApostila de uml
Apostila de uml
 
Cloud computing
Cloud computingCloud computing
Cloud computing
 
Manual de kodu
Manual de koduManual de kodu
Manual de kodu
 
Psi-mod-15
Psi-mod-15Psi-mod-15
Psi-mod-15
 
PETI - Planejamento Estratégico de TI
PETI - Planejamento Estratégico de TI PETI - Planejamento Estratégico de TI
PETI - Planejamento Estratégico de TI
 
Sistema de Gerenciamento de Locadora de Vídeo - Apresentação
Sistema de Gerenciamento de Locadora de Vídeo - ApresentaçãoSistema de Gerenciamento de Locadora de Vídeo - Apresentação
Sistema de Gerenciamento de Locadora de Vídeo - Apresentação
 
Internet das Coisas: a era dos objetos inteligentes e conectados
Internet das Coisas: a era dos objetos inteligentes e conectadosInternet das Coisas: a era dos objetos inteligentes e conectados
Internet das Coisas: a era dos objetos inteligentes e conectados
 
Lógica de programação { para iniciantes }
Lógica de programação { para iniciantes }Lógica de programação { para iniciantes }
Lógica de programação { para iniciantes }
 
O que é a ciência de dados (data science). Discussão do conceito
O que é a ciência de dados (data science). Discussão do conceitoO que é a ciência de dados (data science). Discussão do conceito
O que é a ciência de dados (data science). Discussão do conceito
 
Principais diagramas da UML
Principais diagramas da UMLPrincipais diagramas da UML
Principais diagramas da UML
 
Introdução a Métodos Ágeis de Desenvolvimento de Software
Introdução a Métodos Ágeis de Desenvolvimento de SoftwareIntrodução a Métodos Ágeis de Desenvolvimento de Software
Introdução a Métodos Ágeis de Desenvolvimento de Software
 
Aula - Introdução a Engenharia de Software
Aula - Introdução a Engenharia de SoftwareAula - Introdução a Engenharia de Software
Aula - Introdução a Engenharia de Software
 
Desenvolvimento Mobile
Desenvolvimento MobileDesenvolvimento Mobile
Desenvolvimento Mobile
 
Aula 3 - Introdução a cloud computing
Aula 3 - Introdução a cloud computingAula 3 - Introdução a cloud computing
Aula 3 - Introdução a cloud computing
 

Semelhante a Aula1 mba fiap_2018_redes_neurais

INTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNAINTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNACarlos Cheth
 
Introdução a redes neurais artificiais com a biblioteca encog
Introdução a redes neurais artificiais com a biblioteca encogIntrodução a redes neurais artificiais com a biblioteca encog
Introdução a redes neurais artificiais com a biblioteca encogRaquel Machado
 
Redes Neurais Artificiais: Regras de Aprendizado
Redes Neurais Artificiais: Regras de AprendizadoRedes Neurais Artificiais: Regras de Aprendizado
Redes Neurais Artificiais: Regras de AprendizadoJackson Daner
 
Redes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e HopfieldRedes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e HopfieldLucas Sabadini
 
RNA - Redes neurais artificiais
RNA - Redes neurais artificiaisRNA - Redes neurais artificiais
RNA - Redes neurais artificiaisiaudesc
 
Introdução às Redes Neurais - Parte 2/2
Introdução às Redes Neurais - Parte 2/2Introdução às Redes Neurais - Parte 2/2
Introdução às Redes Neurais - Parte 2/2Bruno Catão
 
Aula IA - Redes Neurais Artificiais | PML e SOM
Aula IA - Redes Neurais Artificiais  | PML e SOMAula IA - Redes Neurais Artificiais  | PML e SOM
Aula IA - Redes Neurais Artificiais | PML e SOMCloves da Rocha
 
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais ArtificiaisMarcos Castro
 
Redes_Neurais.ppt
Redes_Neurais.pptRedes_Neurais.ppt
Redes_Neurais.pptCsfe076280
 
Redes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRedes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRenato Ximenes
 
Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]ronaldo ramos
 

Semelhante a Aula1 mba fiap_2018_redes_neurais (20)

INTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNAINTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNA
 
Redes Neuronais
Redes NeuronaisRedes Neuronais
Redes Neuronais
 
RNA_Matlab.pdf
RNA_Matlab.pdfRNA_Matlab.pdf
RNA_Matlab.pdf
 
Introdução a redes neurais artificiais com a biblioteca encog
Introdução a redes neurais artificiais com a biblioteca encogIntrodução a redes neurais artificiais com a biblioteca encog
Introdução a redes neurais artificiais com a biblioteca encog
 
Redes neurais
Redes neuraisRedes neurais
Redes neurais
 
Redes Neurais Artificiais: Regras de Aprendizado
Redes Neurais Artificiais: Regras de AprendizadoRedes Neurais Artificiais: Regras de Aprendizado
Redes Neurais Artificiais: Regras de Aprendizado
 
Redes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e HopfieldRedes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e Hopfield
 
RNA - Redes neurais artificiais
RNA - Redes neurais artificiaisRNA - Redes neurais artificiais
RNA - Redes neurais artificiais
 
Apresentacao
ApresentacaoApresentacao
Apresentacao
 
Introdução às Redes Neurais - Parte 2/2
Introdução às Redes Neurais - Parte 2/2Introdução às Redes Neurais - Parte 2/2
Introdução às Redes Neurais - Parte 2/2
 
Aula IA - Redes Neurais Artificiais | PML e SOM
Aula IA - Redes Neurais Artificiais  | PML e SOMAula IA - Redes Neurais Artificiais  | PML e SOM
Aula IA - Redes Neurais Artificiais | PML e SOM
 
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais Artificiais
 
Redes_Neurais.ppt
Redes_Neurais.pptRedes_Neurais.ppt
Redes_Neurais.ppt
 
rn_1_int.pdf
rn_1_int.pdfrn_1_int.pdf
rn_1_int.pdf
 
Deep Learning
Deep LearningDeep Learning
Deep Learning
 
Redes Neurais Artificias - Marcelo Estevão Da Silva
Redes Neurais Artificias - Marcelo Estevão Da SilvaRedes Neurais Artificias - Marcelo Estevão Da Silva
Redes Neurais Artificias - Marcelo Estevão Da Silva
 
0001
00010001
0001
 
000003 complexidade
000003 complexidade000003 complexidade
000003 complexidade
 
Redes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRedes neurais e lógica fuzzy
Redes neurais e lógica fuzzy
 
Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]
 

Mais de Ahirton Lopes

[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem VisualAhirton Lopes
 
[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de Aula[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de AulaAhirton Lopes
 
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem VisualAhirton Lopes
 
[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aula[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aulaAhirton Lopes
 
[Jose Ahirton Lopes] IA e para todos
[Jose Ahirton Lopes] IA e para todos[Jose Ahirton Lopes] IA e para todos
[Jose Ahirton Lopes] IA e para todosAhirton Lopes
 
[Jose Ahirton Lopes] O que se espera da tal equipe de dados
[Jose Ahirton Lopes] O que se espera da tal equipe de dados[Jose Ahirton Lopes] O que se espera da tal equipe de dados
[Jose Ahirton Lopes] O que se espera da tal equipe de dadosAhirton Lopes
 
[Jose Ahirton Lopes] Detecção Precoce de Estudantes em Risco de Evasão Usan...
[Jose Ahirton Lopes]   Detecção Precoce de Estudantes em Risco de Evasão Usan...[Jose Ahirton Lopes]   Detecção Precoce de Estudantes em Risco de Evasão Usan...
[Jose Ahirton Lopes] Detecção Precoce de Estudantes em Risco de Evasão Usan...Ahirton Lopes
 
[Jose Ahirton Lopes] Transfer Learning e GANS 101
[Jose Ahirton Lopes] Transfer Learning e GANS 101[Jose Ahirton Lopes] Transfer Learning e GANS 101
[Jose Ahirton Lopes] Transfer Learning e GANS 101Ahirton Lopes
 
[Jose Ahirton Lopes] GANs 101
[Jose Ahirton Lopes] GANs 101[Jose Ahirton Lopes] GANs 101
[Jose Ahirton Lopes] GANs 101Ahirton Lopes
 
[Jose Ahirton Lopes] Transfer Learning e GANs 101
[Jose Ahirton Lopes] Transfer Learning e GANs 101[Jose Ahirton Lopes] Transfer Learning e GANs 101
[Jose Ahirton Lopes] Transfer Learning e GANs 101Ahirton Lopes
 
[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de Aula[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de AulaAhirton Lopes
 
[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aula[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aulaAhirton Lopes
 
[Jose Ahirton Lopes] O que se espera do tal Cientista de Dados
[Jose Ahirton Lopes] O que se espera do tal Cientista de Dados[Jose Ahirton Lopes] O que se espera do tal Cientista de Dados
[Jose Ahirton Lopes] O que se espera do tal Cientista de DadosAhirton Lopes
 
[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better Data[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better DataAhirton Lopes
 
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem VisualAhirton Lopes
 
[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOT
[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOT[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOT
[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOTAhirton Lopes
 
[Aula 01] School of AI SP - Back to Basics
[Aula 01] School of AI SP - Back to Basics[Aula 01] School of AI SP - Back to Basics
[Aula 01] School of AI SP - Back to BasicsAhirton Lopes
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem VisualAhirton Lopes
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem VisualAhirton Lopes
 
[Jose Ahirton Lopes] Apresentacao Sessao Tecnica I
[Jose Ahirton Lopes] Apresentacao Sessao Tecnica I[Jose Ahirton Lopes] Apresentacao Sessao Tecnica I
[Jose Ahirton Lopes] Apresentacao Sessao Tecnica IAhirton Lopes
 

Mais de Ahirton Lopes (20)

[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
 
[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de Aula[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de Aula
 
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
 
[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aula[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aula
 
[Jose Ahirton Lopes] IA e para todos
[Jose Ahirton Lopes] IA e para todos[Jose Ahirton Lopes] IA e para todos
[Jose Ahirton Lopes] IA e para todos
 
[Jose Ahirton Lopes] O que se espera da tal equipe de dados
[Jose Ahirton Lopes] O que se espera da tal equipe de dados[Jose Ahirton Lopes] O que se espera da tal equipe de dados
[Jose Ahirton Lopes] O que se espera da tal equipe de dados
 
[Jose Ahirton Lopes] Detecção Precoce de Estudantes em Risco de Evasão Usan...
[Jose Ahirton Lopes]   Detecção Precoce de Estudantes em Risco de Evasão Usan...[Jose Ahirton Lopes]   Detecção Precoce de Estudantes em Risco de Evasão Usan...
[Jose Ahirton Lopes] Detecção Precoce de Estudantes em Risco de Evasão Usan...
 
[Jose Ahirton Lopes] Transfer Learning e GANS 101
[Jose Ahirton Lopes] Transfer Learning e GANS 101[Jose Ahirton Lopes] Transfer Learning e GANS 101
[Jose Ahirton Lopes] Transfer Learning e GANS 101
 
[Jose Ahirton Lopes] GANs 101
[Jose Ahirton Lopes] GANs 101[Jose Ahirton Lopes] GANs 101
[Jose Ahirton Lopes] GANs 101
 
[Jose Ahirton Lopes] Transfer Learning e GANs 101
[Jose Ahirton Lopes] Transfer Learning e GANs 101[Jose Ahirton Lopes] Transfer Learning e GANs 101
[Jose Ahirton Lopes] Transfer Learning e GANs 101
 
[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de Aula[Jose Ahirton Lopes] ML na Sala de Aula
[Jose Ahirton Lopes] ML na Sala de Aula
 
[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aula[Jose Ahirton Lopes] ML na sala de aula
[Jose Ahirton Lopes] ML na sala de aula
 
[Jose Ahirton Lopes] O que se espera do tal Cientista de Dados
[Jose Ahirton Lopes] O que se espera do tal Cientista de Dados[Jose Ahirton Lopes] O que se espera do tal Cientista de Dados
[Jose Ahirton Lopes] O que se espera do tal Cientista de Dados
 
[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better Data[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better Data
 
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
 
[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOT
[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOT[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOT
[José Ahirton Lopes e Rafael Arevalo] Aula 01 - Robótica e IOT
 
[Aula 01] School of AI SP - Back to Basics
[Aula 01] School of AI SP - Back to Basics[Aula 01] School of AI SP - Back to Basics
[Aula 01] School of AI SP - Back to Basics
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
 
[Jose Ahirton Lopes] Apresentacao Sessao Tecnica I
[Jose Ahirton Lopes] Apresentacao Sessao Tecnica I[Jose Ahirton Lopes] Apresentacao Sessao Tecnica I
[Jose Ahirton Lopes] Apresentacao Sessao Tecnica I
 

Aula1 mba fiap_2018_redes_neurais

  • 2. 2 • O cérebro faz com que tarefas de classificação pareçam fáceis; • O processo cerebral é realizado por redes de neurônios; • Cada neurônio é conectado a vários outros neurônios; Motivação biológica
  • 3. 3 Neurônio biológico •O neurônio recebe impulsos (sinais) de outros neurônios por meio dos seus dendritos; •O neurônio envia impulsos para outros neurônios por meio do seu axônio; •O axônio termina num tipo de contato chamado sinapse, que conecta-o com o dendrito de outro neurônio.
  • 4. 4 Neurônio biológico •A sinapse libera substâncias químicas chamadas de neurotransmissores, em função do pulso elétrico disparado pelo axônio; •O fluxo de neurotransmissores nas sinapses pode ter um efeito excitatório ou inbitório sobre o neurônio receptor
  • 5. 5 • O aprendizado ocorre por sucessivas modificações nas sinapses que interconectam os neurônios, em função da maior ou menor liberação de neurotransmissores; • À medida que novos eventos ocorrem, determinadas ligações entre neurônios são reforçadas, enquanto outras enfraquecidas; • Este ajuste nas ligações entre os neurônios é uma das características das redes neurais artificiais. Neurônio biológico - Aprendizado
  • 6. 6 • RNAs – Hierarquia similar ao funcionamento do sistema biológico; – Neurônios são ativados por estímulos de entrada (função de ativação) • RNA x Cérebro humano – Cérebro humano: ≈100.000.000.000 de neurônios; – RNAs: <1000 geralmente. Redes Neurais Artificiais (RNAs)
  • 8. 8 • Cada unidade (da mesma camada) da rede realiza o mesmo cálculo; – Geralmente baseado na soma ponderada das entradas na unidade; • O conhecimento obtido pela rede fica armazenado nos pesos correspondentes a cada uma de suas unidades (neurônios); • Representação “caixa preta”: – Difícil extrair o conhecimento sobre o conceito aprendido. Processamento das RNAs
  • 9. 9 • Dados: conjuntos de exemplos rotulados e representados numericamente; • Tarefa: treinar uma rede neural usando esses exemplos – O desempenho deve ser medido pela capacidade da rede em produzir saídas corretas para dados não contidos no conjunto de treinamento. Processamento das RNAs
  • 10. 10 • Etapas preliminares ao treinamento: – Escolha da arquitetura de rede correta ○ Nº de neurônios; ○ Nº de camadas ocultas; – Escolha da função de ativação (a mesma para cada neurônio de uma mesma camada). – Brinquem: https://playground.tensorflow.org • A etapa de treinamento resume-se a: – Ajustar os pesos das conexões entre as unidades para que a rede produza saídas corretas. Processamento das RNAs
  • 11. 11 • O tipo mais simples de RN; • Possuí um único neurônio de saída – Considera uma soma ponderada das entradas; – A função de ativação da unidade calcula a saída da rede; – Ex: unidade com treshold (limiar) linear. Perceptrons
  • 12. 12 • Algumas funções de ativação: • Função Step: – Saída +1 se Netinput > Threshold T; -1 caso contrário; Perceptrons
  • 13. 13 Classificação de imagens preto e branco por uma matriz de pixel 2x2 – Em “clara” ou “escura”; – Pixels brancos = 1 e pixel pretos = -1. • Pode se representar o problema por essa regra: – Se resultado da Rede > -0.1 é clara; caso contrário escura; • Arquitetura do Perceptron: – 4 unidades de entrada, uma para cada pixel da matriz; – Uma unidade de saída: +1 para “clara”; -1 “escura”. Perceptrons: exemplo
  • 15. 15 • É necessário aprender: – Os pesos entre as unidades de entrada e saída; – O valor do threshold. • Para tornar os cálculos mais fáceis: – Considera-se o threshold como um peso referente a uma unidade de entrada especial, cujo sinal é sempre 1 (ou -1); ○ Agora, o único objetivo resume-se a aprender os pesos da rede. Aprendizagem em Perceptrons
  • 17. 17 • Os valores dos pesos são inicializados aleatoriamente, geralmente no intervalo (-1,1); • Para cada exemplo de treinamento E: – Calcule a saída observada da rede o(E); – Se a saída desejada t(E) for diferente de o(E): ○ Ajuste os pesos da rede para que o(E) chegue mais próximo de t(E); ○ Isso é feito aplicando-se a regra de aprendizado Perceptron. Aprendizagem em Perceptrons
  • 18. 18 • O processo de aprendizagem não para necessariamente depois de todos os exemplos de treinamento terem sidos apresentados; – Repita o ciclo novamente (uma “época”); – Até que a rede produza saídas corretas (ou boas suficientes); ○ Considerando todos os exemplos no conjunto de treinamento. Aprendizagem em Perceptrons
  • 19. 19 • Quando t(E) for diferente de o(E): • Faça isso para todos os pesos da rede. Regra de aprendizado para Perceptron
  • 20. 20 • O parâmetro η é chamado de taxa de aprendizagem – Geralmente escolhido como uma pequena constante entre 0 e 1 (por exemplo, 0.1); • Controla o movimento dos pesos – Não deixa haver uma mudança grande para um único exemplo; • Se uma mudança grande for mesmo necessária para que os pesos classifiquem corretamente um exemplo: – Essa deve ocorrer gradativamente, em várias épocas. Regra de aprendizado para Perceptron
  • 21. 21 • Classifique a imagem “clara” ou “escura”. Exemplo anterior
  • 25. 25 • Rede com pesos atualizados: • Calcule a saída para o exemplo, e1, novamente. Exemplo anterior
  • 26. 26 • S= (-0.3*1) + (0.5*-1) + (0*1) + (0.3*1) + (0.7*-1) = -1.2 • A nova saída da rede é o(e1) = -1 (“escura”); • Ainda resulta em classificação errada; – Mas o valor de S já está mais próximo de zero (de -2.2 para -1.2); – Em poucas épocas, esse exemplo será classificado corretamente. Exemplo anterior
  • 27. 27 • Entradas assumem dois valores possíveis (+1 ou -1); • Produz um valor como saída (+1 ou -1); – Exemplo 1: Função AND ○ Produz +1 somente se ambas as entradas forem iguais a +1; – Exemplo 2: Função OR ○ Produz +1 se pelo menos uma das entradas for igual a +1. Perceptrons: aprendizado booleano
  • 29. 29 • O que realmente a rede neural perceptron é capaz de aprender? – Somente a discriminação de classes que sejam linearmente separáveis: ○ Ex: funções AND e OR. Perceptrons: aprendizado booleano
  • 30. 30 • A função XOR não é linearmente separável – Não é possível traçar uma linha divisória que classifique corretamente todos os pontos • Redes Perceptrons não conseguem aprender a função XOR. Perceptrons: aprendizado booleano
  • 31. 31 • Redes Perceptrons não são capazes de aprender conceitos complexos; – Porém, formam a base para a construção de um tipo de rede que pode aprender conceitos mais sofisticados; – Redes Perceptron Multicamadas (MLP); – Pode-se pensar nesse modelo como sendo uma rede formada por vários neurônios similares ao tipo “perceptron”. Redes Perceptrons Multicamadas
  • 33. 33 • Limitações – A regra de aprendizado na MLP baseia-se em cálculo diferncial; – Funções do tipo degrau não são diferenciáveis; – Uma função de ativação alternativa deve ser considerada Redes Perceptrons Multicamadas
  • 34. 34 • Função de ativação sigmóide podem ser usadas em redes MLP; • Função sigmóide: Unidades com função sigmóide
  • 35. 35 • Considere a seguinte MLP já treinada e que classifica um exemplo como sendo da classe 1 se o1 > o2 e da classe 2, caso contrário. • Qual a classe estimada pela rede para o exemplo: [10, 30, 20]? Exemplo de MLP
  • 36. 36 • Primeiro, calcule as somas ponderadas para a camada oculta: – Sh1 = (0.2*10) + (0.1*30) + (0.4*20) = 2-3+8 = 7 – Sh2 = (0.7*10) + (-1.2*30) + (1.2*20) = 7-6+24 = -5 • A seguir, calcule a saída da camada oculta: – Usando: h=σ(S) = 1/(1+е^-S) ○ h1 = σ(Sh1) = 1/(1+е^-7) = 1/(1+0.000912) = 0.999 ○ h2 = σ(Sh2) = 1/(1+е^5) = 1/(1+148.4) = 0.0067 Exemplo de MLP
  • 37. 37 • A seguir, calcule as somas ponderadas para a camada de saída: – So1 = (1.1*0.999) + (0.1*0.0067) = 1.0996 – So2 = (3.1*0.999) + (1.17*0.0067) = 3.1047 • Finalmente, calcule a saída da rede: – Usando: h=σ(S) = 1/(1+е^-S) ○ o1 = σ(So1) = 1/(1+е^-1.0996) = 1/(1+0.333) = 0.750 ○ o2 = σ(So2) = 1/(1+е^-3.1047) = 1/(1+0.045) = 0.957 • Como a saída o2>01: – A classe estimada para o exemplo é a classe 2. Exemplo de MLP
  • 38. 38 • Rede Neural do tipo “feedfoward”: – Alimentação de entradas pela camada mais à esquerda; – Propagação dos sinais para frente da rede; – Neurônios entre camadas vizinhas estão completamente conectados. Características do MLP
  • 39. 39 1. Dado um conjunto de treinamento; 2. Gere um conjunto de pesos com valores aleatórios para a rede (por exemplo, entre 1 e -1); • Enquanto o critério de convergência não for alcançado faça: – Para todos os exemplos do conjunto de treinamento: 3. Apresente um exemplo para rede e calcule a saída: ○ A diferença entre a saída da rede e a saída desejada é considerada como valor de erro para essa iteração. 4. Ajuste os pesos da rede 5. Volte para o passo 3. Esquema de aprendizado para MLP
  • 41. 41 • Adaline = Adaptive Linear Neuron ou Adaptive Linear Element. • Surgiu quase que simultaneamente com o Perceptron, final da década de 50. • Assim como o Perceptron é um modelo baseado em elementos que executam operações sobre a soma ponderada de suas entradas – Operações não lineares, no caso do Perceptron e puramente lineares no caso do Adaline. Adaline
  • 42. 42 • Apesar das semelhanças, os trabalhos que descreveram o Perceptron e o Adaline surgiram em áreas diferentes e com enfoques diferentes: Adaline
  • 43. 43 • O algoritmo de treinamento do Adaline utiliza a informação contida no gradiente do erro para calcular o ajuste a ser aplicado ao vetor de pesos; • Esse algoritmo, conhecido como Regra Delta, deu origem ao primeiro algoritmo de treinamento de redes MLP, o Backpropagation. Adaline
  • 48. 48 • Método de treinamento conhecido como “retropropagação do erro” ou “regra delta generalizada”. – Atua como um minimizador do erro observado nas saídas de uma rede neural artificial. • Atua sobre uma arquitetura de rede neural de várias camadas (>=3), feedfoward e pode ser usado para resolver problemas em diferentes áreas. Algoritmo Backpropagation
  • 49. 49 • O treinamento envolve três estágios: – A passagem (feedforward) dos padrões de treinamento; – O cálculo e retropropagação do erro associado; – O ajuste de pesos. • Os neurônios fazem dois tipos de computação: – a clássica – ativação do neurônio mediante entradas e uma função de ativação não-linear – o cálculo do sinal de erro – computação de um vetor gradiente Algoritmo Backpropagation
  • 58. 58 Algoritmo Backpropagation Erro em uma camada: EQM observação: Erro médio treino: 1º: 2º: 3º: 4º: