SlideShare uma empresa Scribd logo
1 de 57
Mineração de Dados
Aula - 10
Prof. Paulo Salgado
psgmn@cin.ufpe.br
Mineração de Dados – Aula 10
Resumo
• Objetivo:
– Conceituar e conhecer as técnicas de Redes Neurais Artificiais.
• Conteúdo:
– Redes Neurais Artificiais
• Referências:
– Capítulos 1 a 4 do livro Braga, A. P.; Ponce de Leon, A. C. e
Ludermir, T.B. Redes Neurais Artificiais: Teoria e Aplicações
Mineração de Dados – Aula 10
O que é uma Rede Neural?
• Motivação para pesquisas em Redes Neurais Artificiais (RNAs):
– O cérebro humano processa informações de uma forma inteiramente
diferente de um computador digital convencional.
• O cérebro é um sistema de processamento de informação altamente
Complexo, Não-Linear e Paralelo.
• Seja uma tarefa de processamento que é realizada corriqueiramente
pelo cérebro: a visão humana.
– O reconhecimento perceptivo (exemplo, reconhecer um rosto familiar
em uma cena não-familiar) pode ser realizado pelo cérebro em poucos
milésimos de segundo.
– Como o computador digital convencional faz isso?
Mineração de Dados – Aula 10
O que é uma Rede Neural?
• Como...
– O cérebro é capaz de realizar o reconhecimento perceptivo, e outras
tantas tarefas complexas, em um intervalo tão curto de tempo?
– Ao passo que tarefas de complexidade muito menor podem levar dias
para serem executadas em um computador convencional?
• No momento do nascimento, o cérebro de uma criança tem uma
grande estrutura e a habilidade de desenvolver suas próprias
regras através do que usualmente denominamos “experiência”.
•
• Na sua forma geral, uma RNA é uma máquina projetada para
modelar/simular a maneira como o cérebro realiza uma tarefa
particular ou uma função de interesse.
Mineração de Dados – Aula 10
Inspiração Biológica
• Sinais eletroquímicos
• Limiar de disparo
Mineração de Dados – Aula 10
Inspiração Biológica
• Axônios – linhas de transmissão.
• Dendritos – zonas receptivas
• Os neurônios ficam contidos num ambiente líquido contendo
uma certa concentração de íons, que podem entrar ou sair
através dos canais iônicos.
– Tanto as transmissões de sinais nos axônios, como as sinapses
usam esses canais iônicos.
– Os canais iônicos podem ser modulados, permitindo ao cérebro
se adaptar a diferentes situações.
• A plasticidade sináptica é a capacidade das sinapses
sofrerem modificações.
Mineração de Dados – Aula 10
Inspiração Biológica
• Numa sinapse, dependendo da carga do íon, o fluxo resulta em aumentar
(excitação) ou diminuir (inibição) o potencial de membrana.
• O dendrito de um neurônio recebe íons de várias sinapses e o resultado
elétrico da concentração desses íons consiste no que se chama de
potencial de membrana.
– O potencial de membrana gera eventualmente um pulso elétrico de
disparo, denominado potencial de ação.
• A ativação de um neurônio ocorre apenas quando seu potencial de
membrana é maior do que um valor limiar (threshold).
• O potencial de ação é gerado no corpo celular e percorre o axônio até a
sua extremidade, que coincide com a sinapse, para atuar no neurônio pós-
sinaptico seguinte.
Mineração de Dados – Aula 10
Inspiração Biológica
• A aprendizagem é resultado de alterações locais nos neurônios.
• Fisicamente, existem diversas formas de modificações possíveis em
• um neurônio:
a) dendritos podem nascer, bem como serem removidos;
b) alguns dendritos se esticam ou se encolhem, permitindo ou
eliminando, respectivamente, a conexão com outras células;
c) novas sinapses podem ser criadas ou sofrer alterações;
d) sinapses também podem ser removidas; e
e) todo neurônio pode morrer e também se regenerar.
• A aprendizagem via modulação sináptica é o mecanismo mais
importante para as redes neurais, sejam elas biológicas ou
artificiais.
Mineração de Dados – Aula 10
Inspiração Biológica
• A memória também é resultado de um processo adaptativo
das sinapses.
• Um dos resultados de um processo de aprendizagem é a
criação de um padrão de conexões sinápticas duradouro, que
resulta na memorização de uma determinada experiência.
• A aprendizagem pode ser vista como o processo adaptativo
da estrutura sináptica, enquanto a memória é o resultado
deste processo adaptativo.
Mineração de Dados – Aula 10
Perceptron
• Funções de classificação binária
• Função de ativação
Mineração de Dados – Aula 10
Motivações
• No processo de aprendizado através de exemplos, as redes
neurais artificiais exibem uma outra característica muito
interessante: GENERALIZAÇÃO
• Isso significa que se a rede aprende a lidar com um certo
problema, e lhe é apresentado um similar, mas não
exatamente o mesmo, ela tende a reconhecer esse novo
problema, oferecendo solução semelhante.
• De forma análoga, os seres humanos tendem a aplicar os
conhecimentos anteriores para lidar com novos problemas.
Mineração de Dados – Aula 10
Motivações
• Alguns Benefícios das Redes Neurais Artificiais
– Adaptabilidade por intermédio de aprendizado.
– Capacidade de operar com conhecimento parcial.
– Tolerância a falhas.
– Generalização.
– Informação contextual.
– Mapeamento entrada-saída.
Mineração de Dados – Aula 10
Áreas de aplicação
• Classificação de padrões
• Clustering/categorização
• Aproximação de funções
• Previsão
• Otimização
• Memória endereçável pelo conteúdo
• Controle
• etc...
Mineração de Dados – Aula 10
Processo de Aprendizagem
• Uma rede neural artificial pode se encontrar em duas fases:
– A primeira fase é a de aprendizagem, ou treinamento, em que
a rede se encontra no processo de aprendizado, ajustando os
parâmetros livres, para poder posteriormente desempenhar a
função destinada; e
– A segunda fase é a de aplicação propriamente dita, na função
para a qual ela foi destinada, como de classificação de padrões
de vozes, imagens, etc.
Mineração de Dados – Aula 10
Processo de Aprendizagem
• O processo de aprendizagem implica na seguinte sequência de
eventos:
1. A rede neural é estimulada por um ambiente;
2. A rede neural sofre modificações nos seus parâmetros livres como
resultado desta estimulação;
3. A rede neural responde de uma maneira nova ao ambiente, devido
as modificações ocorridas na sua estrutura interna.
• O problema de aprendizagem é solucionado por um conjunto pré-
estabelecido de regras – o algoritmo de aprendizagem
• Outro fator a ser considerado na solução do problema de
aprendizagem é a maneira pela qual uma rede neural se relaciona
com seu ambiente – o paradigma (modelo) de aprendizagem
Mineração de Dados – Aula 10
Aprendizagem de Máquina
Mineração de Dados – Aula 10
Aprendizagem por Correção de Erro
• O sinal de saída do neurônio k é representado por yk(n), e a resposta
desejada por dk(n), produzido um sinal de erro:
– ek (n) = dk (n) – yk (n)
• O sinal de erro ek(n) aciona um mecanismo de controle, cujo propósito é
aplicar uma sequência de ajustes corretivos aos pesos sinápticos do
neurônio k. Os ajustes corretivos são projetados para aproximar, passo a
passo, o sinal de saída yk (n) da resposta desejada dk(n).
• Este objetivo é alcançado minimizando-se uma função de custo ou índice
de desempenho, E(n), definido em termos do sinal de erro como:
E (n) = ½ ek2(n)
Mineração de Dados – Aula 10
Aprendizagem por Correção de Erro
• Nota-se que o sinal de erro deve ser diretamente mensurável, ou
seja, a resposta desejada deve ser fornecida por alguma fonte
externa, e o neurônio k deve ser visível ao mundo externo.
• Tendo calculado o ajuste sináptico, o valor atualizado do peso
sináptico é determinado por:
wkj (n + 1) = wkj (n) + Δwkj (n).
Mineração de Dados – Aula 10
Paradigmas de Aprendizagem
Aprendizagem por
Reforço
Aprendizagem Não-Supervisionada
Aprendizagem
Supervisionada
Mineração de Dados – Aula 10
O Perceptron
• Perceptron de duas entradas e um bias
Mineração de Dados – Aula 10
O papel do bias
• O uso do bias permite que fixemos o valor de threshold
adotado em nossa função de ativação, sendo necessário
então atualizar somente os pesos e o bias na rede.
• Como o bias pode ser encarado como sendo o peso para um
neurônio cuja entrada é sempre 1, percebe-se que a mesma
regra para atualização dos pesos é válida também para a
atualização do bias.
Mineração de Dados – Aula 10
O papel do bias
• Exemplo
Mineração de Dados – Aula 10
O papel do bias
Mineração de Dados – Aula 10
Voltando ao Perceptron
• Perceptron de duas entradas e um bias
Mineração de Dados – Aula 10
Separação Linear
Mineração de Dados – Aula 10
Exemplo
Mineração de Dados – Aula 10
Problema do XOR (ou-exclusivo)
Mineração de Dados – Aula 10
Problema do XOR – Solução Perceptron Multicamadas
Mineração de Dados – Aula 10
Introdução
• Não linearidades são inerentes à maioria das situações e
problemas reais.
• Não linearidades são incorporadas através:
– De funções de ativação não lineares.
– Da composição de sucessivas camadas de neurônios.
• MLP (MultiLayer Perceptron):
– RNA composta por neurônios com
funções de ativação sigmoidais nas
camadas intermediárias.
Mineração de Dados – Aula 10
Introdução
• Perceptron:
– Aprendizado supervisionado e correção de erros
– Ajustes no vetor de pesos
– Saída desejada –> saída obtida
• MLP:
– Aplicado somente à última camada.
– Não há saídas desejadas para camadas intermediárias.
– Como calcular ou estimar o erro das camadas intermediárias?
Mineração de Dados – Aula 10
Introdução
• Algoritmo Back-propagation
– Década de 80. Novo “gás” para área de redes neurais.
• Gradiente descendente
– Estimação erro das camadas intermediárias pelo efeito que
estas causam no erro da camada de saída.
– Erro da camada de saída retroalimentado
para camadas intermediárias.
– Ajustes dos pesos proporcional aos
valores das conexões entre as camadas.
Mineração de Dados – Aula 10
Arquitetura
• Redes com duas camadas podem implementar qualquer
função seja ela linearmente separável ou não [Cybenko,1989].
• A qualidade da aproximação
obtida depende da complexidade
da rede.
• Número de camadas,
número de neurônios,
funções de ativação
Mineração de Dados – Aula 10
Arquitetura
• Número de camadas
– Maioria dos problemas práticos raramente precisam mais que
duas camadas.
– Primeira camada: cada neurônio contribui com retas para
formação da superfície no espaço de entrada.
– Segunda camada: cada neurônio combina as retas formando
regiões convexas
Mineração de Dados – Aula 10
Arquitetura
• Número de camadas
Mineração de Dados – Aula 10
Arquitetura
• Número de neurônios
– Refere-se a capacidade de generalização da rede.
– Quanto maior o número de neurônios, maior a capacidade de
resolver problemas.
– Não há na literatura definição formal acerca da quantidade de
neurônios.
– Empirismo: adiciona-se ou reduz-se de acordo com a medida de
tolerância da rede.
Mineração de Dados – Aula 10
Arquitetura
• Funções de ativação
– Sigmoidais nas camadas intermediárias e Lineares na camada de
saída.
– Semelhante a degrau, contudo possui região semilinear, que
pode ser importante na aproximação de funções contínuas.
Mineração de Dados – Aula 10
Aprendizado
• Uma RNA é composta por:
– Um conjunto de neurônios com capacidade de processamento.
– Uma topologia de conexão que defina como estes neurônios
estão conectados.
– Uma regra de aprendizado.
• Redes MLP:
– Diversos neurônios
– Topologia de duas ou mais camada
– Regra Delta Generalizada
Mineração de Dados – Aula 10
Aprendizado
• Treinamento em duas fases:
Mineração de Dados – Aula 10
Implementação do Algoritmo
• Fase Forward
– Inicializar η;
– Inicializar a matriz de pesos w com valores aleatórios;
– Apresentar entrada à primeira camada da rede...
– Após os neurônios da camada i calcularem seus sinais de saída,
os neurônios da camada i + 1 calculam seus sinais de saída...
– Saídas produzidas pelos neurônios da última camada são
comparadas às saídas desejadas...
– Erro para cada neurônio da camada de saída é calculado
Mineração de Dados – Aula 10
Treinamento
entrada saída
camada
escondida
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X1
X2
Mineração de Dados – Aula 10
Treinamento
bias
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X0
X1
X2
Mineração de Dados – Aula 10
Treinamento
w(1)
00
w(1)
01
w(1)
10
w(1)
11
w(1)
02
w(1)
12
w(1)
20
w(1)
21
w(1)
22
w(2)
01
w(2)
11
w(2)
21
pesos
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X0
X1
X2
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
1. Inicia todas as conexões com pesos aleatórios
η = 0,1
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X0
X1
X2
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
2. Para de entrada X é apresentado
η = 0,1
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
3. Calcula saída para 1ª camada
η = 0,1
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
u(1)
1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
η = 0,1
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
u(1)
1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517
u(1)
2 = (1*0,89) + (0,43*0,66) + (0,78*0,05) = 1,2128
3. Calcula saída para 1ª camada
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
η = 0,1
y(1)
1
y(1)
2
y(1)
3
y(2)
1
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
u(1)
1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517
u(1)
2 = (1*0,89) + (0,43*0,66) + (0,78*0,05) = 1,2128
u(1)
3 = (1*0,72) + (0,43*0,18) + (0,78*0,90) = 1,4994
3. Calcula saída para 1ª camada
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
4. Calcula saída da função de ativação
η = 0,1
y(1)
1 = 0,636
y(1)
2 = 0,838
y(1)
3 = 0,905
y(2)
1
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
u(1)
1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517
u(1)
2 = (1*0,89) + (0,43*0,66) + (0,78*0,05) = 1,2128
u(1)
3 = (1*0,72) + (0,43*0,18) + (0,78*0,90) = 1,4994
y(1)
1 = TANH(u(1)
1) = 0,636
y(1)
2 = TANH(u(1)
1) = 0,838
y(1)
3 = TANH(u(1)
1) = 0,905
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
5. Calcula saída para 2ª camada
η = 0,1
y(1)
1 = 0,636
y(1)
2 = 0,838
y(1)
3 = 0,905
y(2)
1 = 0,753
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
u(2)
1 = (0,636*0,19) + (0,838*0,94) + (0,905*0,08) = 0,981 y(2)
1 = TANH(u(2)
1) = 0,753
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
6. Calcula variação do erro
η = 0,1
y(2)
1 = 0,753
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
E(k) = ½ (0,247) 2 = 0,03
Ε(k) = 1/2 Σ (di (t) – yi (t))2
i =0
n
y(1)
1 = 0,636
y(1)
2 = 0,838
y(1)
3 = 0,905
Mineração de Dados – Aula 10
Implementação do Algoritmo
• Fase Backward
– A partir da última camada
• O nó ajusta seu peso de modo a reduzir o seu erro
• Nós das camadas anteriores tem seu erro definidos por:
– Erros dos nós da camada seguinte conectados a ele ponderados pelos pesos
das conexões entre eles
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,19
w(2)
11 = 0,94
w(2)
21 = 0,08
7. Calcula variação dos pesos da 2ª camada
η = 0,1
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
w(2) (t+1) = w(2) (t) + η δ2 y(1)(t)
w(2) (t) η δ(2) x(t) w(2) (t+1)
w(2)
01 0.19 0.1 0.2423 0.636 0.2054
w(2)
11 0.94 0.1 0.2423 0.838 0.9603
w(2)
21 0.08 0.1 0.2423 0.905 0.1019
δ(2)(t) = (d(t) – y(t)) * y’(2)
1
δ(2)(t) = 0,247 * ATANH(0,753)
δ(2)(t) = 0,247 * 0,981 = 0,2423
y(2)
1 = 0,753
y(1)
1 = 0,636
y(1)
2 = 0,838
y(1)
3 = 0,905
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,45
w(1)
01 = 0,89
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,72
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
w(2)
01 = 0,2054
w(2)
11 = 0,9603
w(2)
21 = 0,1019
7. Calcula variação dos pesos da 1ª camada
η = 0,1
y(2)
1 = 0,44
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
w(1) (t+1) = w(1) (t) + η δ1 x(t)
w(1) (t) η δ(1) x(t) w(1) (t+1)
w(1)
01 0.45 0.1 0.0374 1 0.4537
w(1)
11 0.89 0.1 0.0374 0.43 0.8916
w(1)
21 0.72 0.1 0.0374 0.78 0.7229
δ(1)
1(t) = (Σ δ(2)* Wkj
(2)) * y’(1)
1
k =1
n
δ(1)
1(t) = (0,2423 * 0,2054) * ATANH(0,636) = 0,0374
y(1)
1 = 0,636
y(1)
2 = 0,838
y(1)
3 = 0,905
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,4537
w(1)
01 = 0,8916
w(1)
10 = 0,23
w(1)
11 = 0,66
w(1)
02 = 0,7229
w(1)
12 = 0,18
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
7. Calcula variação dos pesos da 1ª camada
η = 0,1
y(2)
1 = 0,44
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
w(1) (t+1) = w(1) (t) + η δ1 x(t)
w(1) (t) η δ(1) x(t) w(1) (t+1)
w(1)
01 0.23 0.1 0.2821 1 0.2582
w(1)
11 0.66 0.1 0.2821 0.43 0.6721
w(1)
21 0.18 0.1 0.2821 0.78 0.2020
δ(1)
2(t) = (Σ δ(2)* Wkj
(2)) * y’(1)
1
k =1
n
δ(1)
2(t) = (0,2423 * 0,9603) * ATANH(0,838) = 0,2821
w(2)
01 = 0,2054
w(2)
11 = 0,9603
w(2)
21 = 0,1019
y(1)
1 = 0,636
y(1)
2 = 0,838
y(1)
3 = 0,905
Mineração de Dados – Aula 10
Treinamento
w(1)
00= 0,4501
w(1)
01 = 0,8907
w(1)
10 = 0,2311
w(1)
11 = 0,6644
w(1)
02 = 0,7214
w(1)
12 = 0,1880
w(1)
20 = 0,26
w(1)
21 = 0,05
w(1)
22 = 0,90
7. Calcula variação dos pesos da 1ª camada
η = 0,1
y(2)
1 = 0,44
X0 = 1
X1 = 0,43
X2= 0,78
d = 1
w(1) (t+1) = w(1) (t) + η δ1 x(t)
w(1) (t) η δ(1) x(t) w(1) (t+1)
w(1)
01 0.26 0.1 0.0370 1 0.2637
w(1)
11 0.05 0.1 0.0370 0.43 0.0515
w(1)
21 0.90 0.1 0.0370 0.78 0.9028
δ(1)
3(t) = (Σ δ(2)* Wkj
(2)) * y’(1)
1
k =1
n
δ(1)
3(t) = (0,2423 * 0,1019) * ATANH(0,905) = 0,0370
w(2)
01 = 0,2054
w(2)
11 = 0,9603
w(2)
21 = 0,1019
y(1)
1 = 0,636
y(1)
2 = 0,838
y(1)
3 = 0,905
Mineração de Dados – Aula 10
Treinamento
8. Repetir até k = número de interações desejada ou Erro = erro aceitável
...
Mineração de Dados – Aula 10
Revisão
• Objetivo:
– Conceituar e conhecer as técnicas de Redes Neurais Artificiais.
• Conteúdo:
– Redes Neurais Artificiais
• Referências:
– Capítulos 1 a 4 do livro Braga, A. P.; Ponce de Leon, A. C. e
Ludermir, T.B. Redes Neurais Artificiais: Teoria e Aplicações

Mais conteúdo relacionado

Semelhante a Redes Neurais Artificiais

Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...
Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...
Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...Sérgio Dias
 
[José Ahirton Lopes] Apresentação MLP
[José Ahirton Lopes] Apresentação MLP[José Ahirton Lopes] Apresentação MLP
[José Ahirton Lopes] Apresentação MLPAhirton Lopes
 
Redes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRedes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRenato Ximenes
 
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais ArtificiaisRicardo Zalla
 
Aula1 mba fiap_2018_redes_neurais
Aula1 mba fiap_2018_redes_neuraisAula1 mba fiap_2018_redes_neurais
Aula1 mba fiap_2018_redes_neuraisAhirton Lopes
 
18.ago ouro i 16.00_495_coelce
18.ago ouro i 16.00_495_coelce18.ago ouro i 16.00_495_coelce
18.ago ouro i 16.00_495_coelceitgfiles
 
Redes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e HopfieldRedes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e HopfieldLucas Sabadini
 
IA Redes Neurais Artificiais
IA Redes Neurais ArtificiaisIA Redes Neurais Artificiais
IA Redes Neurais Artificiaisrafael.joi
 
Banner sic 02
Banner sic 02Banner sic 02
Banner sic 02siridakis
 
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem VisualAhirton Lopes
 
Meta-aprendizado para otimização de parâmetros de redes neurais
Meta-aprendizado para otimização de parâmetros de redes neuraisMeta-aprendizado para otimização de parâmetros de redes neurais
Meta-aprendizado para otimização de parâmetros de redes neuraisOrlando Junior
 
Introdução a Deep Learning
Introdução a Deep LearningIntrodução a Deep Learning
Introdução a Deep LearningCristian Muñoz
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem VisualAhirton Lopes
 
Rede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de FacesRede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de FacesAdilmar Dantas
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem VisualAhirton Lopes
 

Semelhante a Redes Neurais Artificiais (20)

P910Aula05
P910Aula05P910Aula05
P910Aula05
 
Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...
Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...
Extração e Representação de Conhecimento de Redes Neurais Artificiais Utiliza...
 
[José Ahirton Lopes] Apresentação MLP
[José Ahirton Lopes] Apresentação MLP[José Ahirton Lopes] Apresentação MLP
[José Ahirton Lopes] Apresentação MLP
 
Apresentacao
ApresentacaoApresentacao
Apresentacao
 
Redes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRedes neurais e lógica fuzzy
Redes neurais e lógica fuzzy
 
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais Artificiais
 
Aula1 mba fiap_2018_redes_neurais
Aula1 mba fiap_2018_redes_neuraisAula1 mba fiap_2018_redes_neurais
Aula1 mba fiap_2018_redes_neurais
 
18.ago ouro i 16.00_495_coelce
18.ago ouro i 16.00_495_coelce18.ago ouro i 16.00_495_coelce
18.ago ouro i 16.00_495_coelce
 
Redes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e HopfieldRedes Neurais Perceptron e Hopfield
Redes Neurais Perceptron e Hopfield
 
Redes neurais
Redes neuraisRedes neurais
Redes neurais
 
IA Redes Neurais Artificiais
IA Redes Neurais ArtificiaisIA Redes Neurais Artificiais
IA Redes Neurais Artificiais
 
Redes neurais
Redes neuraisRedes neurais
Redes neurais
 
Banner sic 02
Banner sic 02Banner sic 02
Banner sic 02
 
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
 
Meta-aprendizado para otimização de parâmetros de redes neurais
Meta-aprendizado para otimização de parâmetros de redes neuraisMeta-aprendizado para otimização de parâmetros de redes neurais
Meta-aprendizado para otimização de parâmetros de redes neurais
 
20120305 - presentation
20120305 - presentation20120305 - presentation
20120305 - presentation
 
Introdução a Deep Learning
Introdução a Deep LearningIntrodução a Deep Learning
Introdução a Deep Learning
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
 
Rede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de FacesRede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de Faces
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
 

Último

Portfolio_Trilha_Meio_Ambiente_e_Sociedade.pdf
Portfolio_Trilha_Meio_Ambiente_e_Sociedade.pdfPortfolio_Trilha_Meio_Ambiente_e_Sociedade.pdf
Portfolio_Trilha_Meio_Ambiente_e_Sociedade.pdfjanainadfsilva
 
Mapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docxMapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docxBeatrizLittig1
 
Ácidos Nucleicos - DNA e RNA (Material Genético).pdf
Ácidos Nucleicos - DNA e RNA (Material Genético).pdfÁcidos Nucleicos - DNA e RNA (Material Genético).pdf
Ácidos Nucleicos - DNA e RNA (Material Genético).pdfJonathasAureliano1
 
A Arte de Escrever Poemas - Dia das Mães
A Arte de Escrever Poemas - Dia das MãesA Arte de Escrever Poemas - Dia das Mães
A Arte de Escrever Poemas - Dia das MãesMary Alvarenga
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...azulassessoria9
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...azulassessoria9
 
Pedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxPedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxleandropereira983288
 
Bullying - Texto e cruzadinha
Bullying        -     Texto e cruzadinhaBullying        -     Texto e cruzadinha
Bullying - Texto e cruzadinhaMary Alvarenga
 
PLANOS E EIXOS DO CORPO HUMANO.educacao física pptx
PLANOS E EIXOS DO CORPO HUMANO.educacao física pptxPLANOS E EIXOS DO CORPO HUMANO.educacao física pptx
PLANOS E EIXOS DO CORPO HUMANO.educacao física pptxSamiraMiresVieiradeM
 
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfPROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfMarianaMoraesMathias
 
CRUZADINHA - Leitura e escrita dos números
CRUZADINHA   -   Leitura e escrita dos números CRUZADINHA   -   Leitura e escrita dos números
CRUZADINHA - Leitura e escrita dos números Mary Alvarenga
 
interfaces entre psicologia e neurologia.pdf
interfaces entre psicologia e neurologia.pdfinterfaces entre psicologia e neurologia.pdf
interfaces entre psicologia e neurologia.pdfIvoneSantos45
 
A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.silves15
 
Música Meu Abrigo - Texto e atividade
Música   Meu   Abrigo  -   Texto e atividadeMúsica   Meu   Abrigo  -   Texto e atividade
Música Meu Abrigo - Texto e atividadeMary Alvarenga
 
Atividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas GeográficasAtividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas Geográficasprofcamilamanz
 
VARIEDADES LINGUÍSTICAS - 1. pptx
VARIEDADES        LINGUÍSTICAS - 1. pptxVARIEDADES        LINGUÍSTICAS - 1. pptx
VARIEDADES LINGUÍSTICAS - 1. pptxMarlene Cunhada
 
AULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptx
AULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptxAULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptx
AULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptxLaurindo6
 
Slide língua portuguesa português 8 ano.pptx
Slide língua portuguesa português 8 ano.pptxSlide língua portuguesa português 8 ano.pptx
Slide língua portuguesa português 8 ano.pptxssuserf54fa01
 
Livro O QUE É LUGAR DE FALA - Autora Djamila Ribeiro
Livro O QUE É LUGAR DE FALA  - Autora Djamila RibeiroLivro O QUE É LUGAR DE FALA  - Autora Djamila Ribeiro
Livro O QUE É LUGAR DE FALA - Autora Djamila RibeiroMarcele Ravasio
 
Slides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptx
Slides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptxSlides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptx
Slides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptxLuizHenriquedeAlmeid6
 

Último (20)

Portfolio_Trilha_Meio_Ambiente_e_Sociedade.pdf
Portfolio_Trilha_Meio_Ambiente_e_Sociedade.pdfPortfolio_Trilha_Meio_Ambiente_e_Sociedade.pdf
Portfolio_Trilha_Meio_Ambiente_e_Sociedade.pdf
 
Mapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docxMapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docx
 
Ácidos Nucleicos - DNA e RNA (Material Genético).pdf
Ácidos Nucleicos - DNA e RNA (Material Genético).pdfÁcidos Nucleicos - DNA e RNA (Material Genético).pdf
Ácidos Nucleicos - DNA e RNA (Material Genético).pdf
 
A Arte de Escrever Poemas - Dia das Mães
A Arte de Escrever Poemas - Dia das MãesA Arte de Escrever Poemas - Dia das Mães
A Arte de Escrever Poemas - Dia das Mães
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
 
Pedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxPedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptx
 
Bullying - Texto e cruzadinha
Bullying        -     Texto e cruzadinhaBullying        -     Texto e cruzadinha
Bullying - Texto e cruzadinha
 
PLANOS E EIXOS DO CORPO HUMANO.educacao física pptx
PLANOS E EIXOS DO CORPO HUMANO.educacao física pptxPLANOS E EIXOS DO CORPO HUMANO.educacao física pptx
PLANOS E EIXOS DO CORPO HUMANO.educacao física pptx
 
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfPROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
 
CRUZADINHA - Leitura e escrita dos números
CRUZADINHA   -   Leitura e escrita dos números CRUZADINHA   -   Leitura e escrita dos números
CRUZADINHA - Leitura e escrita dos números
 
interfaces entre psicologia e neurologia.pdf
interfaces entre psicologia e neurologia.pdfinterfaces entre psicologia e neurologia.pdf
interfaces entre psicologia e neurologia.pdf
 
A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.
 
Música Meu Abrigo - Texto e atividade
Música   Meu   Abrigo  -   Texto e atividadeMúsica   Meu   Abrigo  -   Texto e atividade
Música Meu Abrigo - Texto e atividade
 
Atividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas GeográficasAtividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas Geográficas
 
VARIEDADES LINGUÍSTICAS - 1. pptx
VARIEDADES        LINGUÍSTICAS - 1. pptxVARIEDADES        LINGUÍSTICAS - 1. pptx
VARIEDADES LINGUÍSTICAS - 1. pptx
 
AULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptx
AULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptxAULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptx
AULA SOBRE AMERICA LATINA E ANGLO SAXONICA.pptx
 
Slide língua portuguesa português 8 ano.pptx
Slide língua portuguesa português 8 ano.pptxSlide língua portuguesa português 8 ano.pptx
Slide língua portuguesa português 8 ano.pptx
 
Livro O QUE É LUGAR DE FALA - Autora Djamila Ribeiro
Livro O QUE É LUGAR DE FALA  - Autora Djamila RibeiroLivro O QUE É LUGAR DE FALA  - Autora Djamila Ribeiro
Livro O QUE É LUGAR DE FALA - Autora Djamila Ribeiro
 
Slides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptx
Slides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptxSlides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptx
Slides Lição 5, CPAD, Os Inimigos do Cristão, 2Tr24, Pr Henrique.pptx
 

Redes Neurais Artificiais

  • 1. Mineração de Dados Aula - 10 Prof. Paulo Salgado psgmn@cin.ufpe.br
  • 2. Mineração de Dados – Aula 10 Resumo • Objetivo: – Conceituar e conhecer as técnicas de Redes Neurais Artificiais. • Conteúdo: – Redes Neurais Artificiais • Referências: – Capítulos 1 a 4 do livro Braga, A. P.; Ponce de Leon, A. C. e Ludermir, T.B. Redes Neurais Artificiais: Teoria e Aplicações
  • 3. Mineração de Dados – Aula 10 O que é uma Rede Neural? • Motivação para pesquisas em Redes Neurais Artificiais (RNAs): – O cérebro humano processa informações de uma forma inteiramente diferente de um computador digital convencional. • O cérebro é um sistema de processamento de informação altamente Complexo, Não-Linear e Paralelo. • Seja uma tarefa de processamento que é realizada corriqueiramente pelo cérebro: a visão humana. – O reconhecimento perceptivo (exemplo, reconhecer um rosto familiar em uma cena não-familiar) pode ser realizado pelo cérebro em poucos milésimos de segundo. – Como o computador digital convencional faz isso?
  • 4. Mineração de Dados – Aula 10 O que é uma Rede Neural? • Como... – O cérebro é capaz de realizar o reconhecimento perceptivo, e outras tantas tarefas complexas, em um intervalo tão curto de tempo? – Ao passo que tarefas de complexidade muito menor podem levar dias para serem executadas em um computador convencional? • No momento do nascimento, o cérebro de uma criança tem uma grande estrutura e a habilidade de desenvolver suas próprias regras através do que usualmente denominamos “experiência”. • • Na sua forma geral, uma RNA é uma máquina projetada para modelar/simular a maneira como o cérebro realiza uma tarefa particular ou uma função de interesse.
  • 5. Mineração de Dados – Aula 10 Inspiração Biológica • Sinais eletroquímicos • Limiar de disparo
  • 6. Mineração de Dados – Aula 10 Inspiração Biológica • Axônios – linhas de transmissão. • Dendritos – zonas receptivas • Os neurônios ficam contidos num ambiente líquido contendo uma certa concentração de íons, que podem entrar ou sair através dos canais iônicos. – Tanto as transmissões de sinais nos axônios, como as sinapses usam esses canais iônicos. – Os canais iônicos podem ser modulados, permitindo ao cérebro se adaptar a diferentes situações. • A plasticidade sináptica é a capacidade das sinapses sofrerem modificações.
  • 7. Mineração de Dados – Aula 10 Inspiração Biológica • Numa sinapse, dependendo da carga do íon, o fluxo resulta em aumentar (excitação) ou diminuir (inibição) o potencial de membrana. • O dendrito de um neurônio recebe íons de várias sinapses e o resultado elétrico da concentração desses íons consiste no que se chama de potencial de membrana. – O potencial de membrana gera eventualmente um pulso elétrico de disparo, denominado potencial de ação. • A ativação de um neurônio ocorre apenas quando seu potencial de membrana é maior do que um valor limiar (threshold). • O potencial de ação é gerado no corpo celular e percorre o axônio até a sua extremidade, que coincide com a sinapse, para atuar no neurônio pós- sinaptico seguinte.
  • 8. Mineração de Dados – Aula 10 Inspiração Biológica • A aprendizagem é resultado de alterações locais nos neurônios. • Fisicamente, existem diversas formas de modificações possíveis em • um neurônio: a) dendritos podem nascer, bem como serem removidos; b) alguns dendritos se esticam ou se encolhem, permitindo ou eliminando, respectivamente, a conexão com outras células; c) novas sinapses podem ser criadas ou sofrer alterações; d) sinapses também podem ser removidas; e e) todo neurônio pode morrer e também se regenerar. • A aprendizagem via modulação sináptica é o mecanismo mais importante para as redes neurais, sejam elas biológicas ou artificiais.
  • 9. Mineração de Dados – Aula 10 Inspiração Biológica • A memória também é resultado de um processo adaptativo das sinapses. • Um dos resultados de um processo de aprendizagem é a criação de um padrão de conexões sinápticas duradouro, que resulta na memorização de uma determinada experiência. • A aprendizagem pode ser vista como o processo adaptativo da estrutura sináptica, enquanto a memória é o resultado deste processo adaptativo.
  • 10. Mineração de Dados – Aula 10 Perceptron • Funções de classificação binária • Função de ativação
  • 11. Mineração de Dados – Aula 10 Motivações • No processo de aprendizado através de exemplos, as redes neurais artificiais exibem uma outra característica muito interessante: GENERALIZAÇÃO • Isso significa que se a rede aprende a lidar com um certo problema, e lhe é apresentado um similar, mas não exatamente o mesmo, ela tende a reconhecer esse novo problema, oferecendo solução semelhante. • De forma análoga, os seres humanos tendem a aplicar os conhecimentos anteriores para lidar com novos problemas.
  • 12. Mineração de Dados – Aula 10 Motivações • Alguns Benefícios das Redes Neurais Artificiais – Adaptabilidade por intermédio de aprendizado. – Capacidade de operar com conhecimento parcial. – Tolerância a falhas. – Generalização. – Informação contextual. – Mapeamento entrada-saída.
  • 13. Mineração de Dados – Aula 10 Áreas de aplicação • Classificação de padrões • Clustering/categorização • Aproximação de funções • Previsão • Otimização • Memória endereçável pelo conteúdo • Controle • etc...
  • 14. Mineração de Dados – Aula 10 Processo de Aprendizagem • Uma rede neural artificial pode se encontrar em duas fases: – A primeira fase é a de aprendizagem, ou treinamento, em que a rede se encontra no processo de aprendizado, ajustando os parâmetros livres, para poder posteriormente desempenhar a função destinada; e – A segunda fase é a de aplicação propriamente dita, na função para a qual ela foi destinada, como de classificação de padrões de vozes, imagens, etc.
  • 15. Mineração de Dados – Aula 10 Processo de Aprendizagem • O processo de aprendizagem implica na seguinte sequência de eventos: 1. A rede neural é estimulada por um ambiente; 2. A rede neural sofre modificações nos seus parâmetros livres como resultado desta estimulação; 3. A rede neural responde de uma maneira nova ao ambiente, devido as modificações ocorridas na sua estrutura interna. • O problema de aprendizagem é solucionado por um conjunto pré- estabelecido de regras – o algoritmo de aprendizagem • Outro fator a ser considerado na solução do problema de aprendizagem é a maneira pela qual uma rede neural se relaciona com seu ambiente – o paradigma (modelo) de aprendizagem
  • 16. Mineração de Dados – Aula 10 Aprendizagem de Máquina
  • 17. Mineração de Dados – Aula 10 Aprendizagem por Correção de Erro • O sinal de saída do neurônio k é representado por yk(n), e a resposta desejada por dk(n), produzido um sinal de erro: – ek (n) = dk (n) – yk (n) • O sinal de erro ek(n) aciona um mecanismo de controle, cujo propósito é aplicar uma sequência de ajustes corretivos aos pesos sinápticos do neurônio k. Os ajustes corretivos são projetados para aproximar, passo a passo, o sinal de saída yk (n) da resposta desejada dk(n). • Este objetivo é alcançado minimizando-se uma função de custo ou índice de desempenho, E(n), definido em termos do sinal de erro como: E (n) = ½ ek2(n)
  • 18. Mineração de Dados – Aula 10 Aprendizagem por Correção de Erro • Nota-se que o sinal de erro deve ser diretamente mensurável, ou seja, a resposta desejada deve ser fornecida por alguma fonte externa, e o neurônio k deve ser visível ao mundo externo. • Tendo calculado o ajuste sináptico, o valor atualizado do peso sináptico é determinado por: wkj (n + 1) = wkj (n) + Δwkj (n).
  • 19. Mineração de Dados – Aula 10 Paradigmas de Aprendizagem Aprendizagem por Reforço Aprendizagem Não-Supervisionada Aprendizagem Supervisionada
  • 20. Mineração de Dados – Aula 10 O Perceptron • Perceptron de duas entradas e um bias
  • 21. Mineração de Dados – Aula 10 O papel do bias • O uso do bias permite que fixemos o valor de threshold adotado em nossa função de ativação, sendo necessário então atualizar somente os pesos e o bias na rede. • Como o bias pode ser encarado como sendo o peso para um neurônio cuja entrada é sempre 1, percebe-se que a mesma regra para atualização dos pesos é válida também para a atualização do bias.
  • 22. Mineração de Dados – Aula 10 O papel do bias • Exemplo
  • 23. Mineração de Dados – Aula 10 O papel do bias
  • 24. Mineração de Dados – Aula 10 Voltando ao Perceptron • Perceptron de duas entradas e um bias
  • 25. Mineração de Dados – Aula 10 Separação Linear
  • 26. Mineração de Dados – Aula 10 Exemplo
  • 27. Mineração de Dados – Aula 10 Problema do XOR (ou-exclusivo)
  • 28. Mineração de Dados – Aula 10 Problema do XOR – Solução Perceptron Multicamadas
  • 29. Mineração de Dados – Aula 10 Introdução • Não linearidades são inerentes à maioria das situações e problemas reais. • Não linearidades são incorporadas através: – De funções de ativação não lineares. – Da composição de sucessivas camadas de neurônios. • MLP (MultiLayer Perceptron): – RNA composta por neurônios com funções de ativação sigmoidais nas camadas intermediárias.
  • 30. Mineração de Dados – Aula 10 Introdução • Perceptron: – Aprendizado supervisionado e correção de erros – Ajustes no vetor de pesos – Saída desejada –> saída obtida • MLP: – Aplicado somente à última camada. – Não há saídas desejadas para camadas intermediárias. – Como calcular ou estimar o erro das camadas intermediárias?
  • 31. Mineração de Dados – Aula 10 Introdução • Algoritmo Back-propagation – Década de 80. Novo “gás” para área de redes neurais. • Gradiente descendente – Estimação erro das camadas intermediárias pelo efeito que estas causam no erro da camada de saída. – Erro da camada de saída retroalimentado para camadas intermediárias. – Ajustes dos pesos proporcional aos valores das conexões entre as camadas.
  • 32. Mineração de Dados – Aula 10 Arquitetura • Redes com duas camadas podem implementar qualquer função seja ela linearmente separável ou não [Cybenko,1989]. • A qualidade da aproximação obtida depende da complexidade da rede. • Número de camadas, número de neurônios, funções de ativação
  • 33. Mineração de Dados – Aula 10 Arquitetura • Número de camadas – Maioria dos problemas práticos raramente precisam mais que duas camadas. – Primeira camada: cada neurônio contribui com retas para formação da superfície no espaço de entrada. – Segunda camada: cada neurônio combina as retas formando regiões convexas
  • 34. Mineração de Dados – Aula 10 Arquitetura • Número de camadas
  • 35. Mineração de Dados – Aula 10 Arquitetura • Número de neurônios – Refere-se a capacidade de generalização da rede. – Quanto maior o número de neurônios, maior a capacidade de resolver problemas. – Não há na literatura definição formal acerca da quantidade de neurônios. – Empirismo: adiciona-se ou reduz-se de acordo com a medida de tolerância da rede.
  • 36. Mineração de Dados – Aula 10 Arquitetura • Funções de ativação – Sigmoidais nas camadas intermediárias e Lineares na camada de saída. – Semelhante a degrau, contudo possui região semilinear, que pode ser importante na aproximação de funções contínuas.
  • 37. Mineração de Dados – Aula 10 Aprendizado • Uma RNA é composta por: – Um conjunto de neurônios com capacidade de processamento. – Uma topologia de conexão que defina como estes neurônios estão conectados. – Uma regra de aprendizado. • Redes MLP: – Diversos neurônios – Topologia de duas ou mais camada – Regra Delta Generalizada
  • 38. Mineração de Dados – Aula 10 Aprendizado • Treinamento em duas fases:
  • 39. Mineração de Dados – Aula 10 Implementação do Algoritmo • Fase Forward – Inicializar η; – Inicializar a matriz de pesos w com valores aleatórios; – Apresentar entrada à primeira camada da rede... – Após os neurônios da camada i calcularem seus sinais de saída, os neurônios da camada i + 1 calculam seus sinais de saída... – Saídas produzidas pelos neurônios da última camada são comparadas às saídas desejadas... – Erro para cada neurônio da camada de saída é calculado
  • 40. Mineração de Dados – Aula 10 Treinamento entrada saída camada escondida y(1) 1 y(1) 2 y(1) 3 y(2) 1 X1 X2
  • 41. Mineração de Dados – Aula 10 Treinamento bias y(1) 1 y(1) 2 y(1) 3 y(2) 1 X0 X1 X2
  • 42. Mineração de Dados – Aula 10 Treinamento w(1) 00 w(1) 01 w(1) 10 w(1) 11 w(1) 02 w(1) 12 w(1) 20 w(1) 21 w(1) 22 w(2) 01 w(2) 11 w(2) 21 pesos y(1) 1 y(1) 2 y(1) 3 y(2) 1 X0 X1 X2
  • 43. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 1. Inicia todas as conexões com pesos aleatórios η = 0,1 y(1) 1 y(1) 2 y(1) 3 y(2) 1 X0 X1 X2
  • 44. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 2. Para de entrada X é apresentado η = 0,1 y(1) 1 y(1) 2 y(1) 3 y(2) 1 X0 = 1 X1 = 0,43 X2= 0,78 d = 1
  • 45. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 3. Calcula saída para 1ª camada η = 0,1 y(1) 1 y(1) 2 y(1) 3 y(2) 1 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 u(1) 1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517
  • 46. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 η = 0,1 y(1) 1 y(1) 2 y(1) 3 y(2) 1 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 u(1) 1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517 u(1) 2 = (1*0,89) + (0,43*0,66) + (0,78*0,05) = 1,2128 3. Calcula saída para 1ª camada
  • 47. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 η = 0,1 y(1) 1 y(1) 2 y(1) 3 y(2) 1 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 u(1) 1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517 u(1) 2 = (1*0,89) + (0,43*0,66) + (0,78*0,05) = 1,2128 u(1) 3 = (1*0,72) + (0,43*0,18) + (0,78*0,90) = 1,4994 3. Calcula saída para 1ª camada
  • 48. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 4. Calcula saída da função de ativação η = 0,1 y(1) 1 = 0,636 y(1) 2 = 0,838 y(1) 3 = 0,905 y(2) 1 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 u(1) 1 = (1*0,45) + (0,43*0,23) + (0,78*0,26) = 0,7517 u(1) 2 = (1*0,89) + (0,43*0,66) + (0,78*0,05) = 1,2128 u(1) 3 = (1*0,72) + (0,43*0,18) + (0,78*0,90) = 1,4994 y(1) 1 = TANH(u(1) 1) = 0,636 y(1) 2 = TANH(u(1) 1) = 0,838 y(1) 3 = TANH(u(1) 1) = 0,905
  • 49. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 5. Calcula saída para 2ª camada η = 0,1 y(1) 1 = 0,636 y(1) 2 = 0,838 y(1) 3 = 0,905 y(2) 1 = 0,753 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 u(2) 1 = (0,636*0,19) + (0,838*0,94) + (0,905*0,08) = 0,981 y(2) 1 = TANH(u(2) 1) = 0,753
  • 50. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 6. Calcula variação do erro η = 0,1 y(2) 1 = 0,753 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 E(k) = ½ (0,247) 2 = 0,03 Ε(k) = 1/2 Σ (di (t) – yi (t))2 i =0 n y(1) 1 = 0,636 y(1) 2 = 0,838 y(1) 3 = 0,905
  • 51. Mineração de Dados – Aula 10 Implementação do Algoritmo • Fase Backward – A partir da última camada • O nó ajusta seu peso de modo a reduzir o seu erro • Nós das camadas anteriores tem seu erro definidos por: – Erros dos nós da camada seguinte conectados a ele ponderados pelos pesos das conexões entre eles
  • 52. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,19 w(2) 11 = 0,94 w(2) 21 = 0,08 7. Calcula variação dos pesos da 2ª camada η = 0,1 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 w(2) (t+1) = w(2) (t) + η δ2 y(1)(t) w(2) (t) η δ(2) x(t) w(2) (t+1) w(2) 01 0.19 0.1 0.2423 0.636 0.2054 w(2) 11 0.94 0.1 0.2423 0.838 0.9603 w(2) 21 0.08 0.1 0.2423 0.905 0.1019 δ(2)(t) = (d(t) – y(t)) * y’(2) 1 δ(2)(t) = 0,247 * ATANH(0,753) δ(2)(t) = 0,247 * 0,981 = 0,2423 y(2) 1 = 0,753 y(1) 1 = 0,636 y(1) 2 = 0,838 y(1) 3 = 0,905
  • 53. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,45 w(1) 01 = 0,89 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,72 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 w(2) 01 = 0,2054 w(2) 11 = 0,9603 w(2) 21 = 0,1019 7. Calcula variação dos pesos da 1ª camada η = 0,1 y(2) 1 = 0,44 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 w(1) (t+1) = w(1) (t) + η δ1 x(t) w(1) (t) η δ(1) x(t) w(1) (t+1) w(1) 01 0.45 0.1 0.0374 1 0.4537 w(1) 11 0.89 0.1 0.0374 0.43 0.8916 w(1) 21 0.72 0.1 0.0374 0.78 0.7229 δ(1) 1(t) = (Σ δ(2)* Wkj (2)) * y’(1) 1 k =1 n δ(1) 1(t) = (0,2423 * 0,2054) * ATANH(0,636) = 0,0374 y(1) 1 = 0,636 y(1) 2 = 0,838 y(1) 3 = 0,905
  • 54. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,4537 w(1) 01 = 0,8916 w(1) 10 = 0,23 w(1) 11 = 0,66 w(1) 02 = 0,7229 w(1) 12 = 0,18 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 7. Calcula variação dos pesos da 1ª camada η = 0,1 y(2) 1 = 0,44 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 w(1) (t+1) = w(1) (t) + η δ1 x(t) w(1) (t) η δ(1) x(t) w(1) (t+1) w(1) 01 0.23 0.1 0.2821 1 0.2582 w(1) 11 0.66 0.1 0.2821 0.43 0.6721 w(1) 21 0.18 0.1 0.2821 0.78 0.2020 δ(1) 2(t) = (Σ δ(2)* Wkj (2)) * y’(1) 1 k =1 n δ(1) 2(t) = (0,2423 * 0,9603) * ATANH(0,838) = 0,2821 w(2) 01 = 0,2054 w(2) 11 = 0,9603 w(2) 21 = 0,1019 y(1) 1 = 0,636 y(1) 2 = 0,838 y(1) 3 = 0,905
  • 55. Mineração de Dados – Aula 10 Treinamento w(1) 00= 0,4501 w(1) 01 = 0,8907 w(1) 10 = 0,2311 w(1) 11 = 0,6644 w(1) 02 = 0,7214 w(1) 12 = 0,1880 w(1) 20 = 0,26 w(1) 21 = 0,05 w(1) 22 = 0,90 7. Calcula variação dos pesos da 1ª camada η = 0,1 y(2) 1 = 0,44 X0 = 1 X1 = 0,43 X2= 0,78 d = 1 w(1) (t+1) = w(1) (t) + η δ1 x(t) w(1) (t) η δ(1) x(t) w(1) (t+1) w(1) 01 0.26 0.1 0.0370 1 0.2637 w(1) 11 0.05 0.1 0.0370 0.43 0.0515 w(1) 21 0.90 0.1 0.0370 0.78 0.9028 δ(1) 3(t) = (Σ δ(2)* Wkj (2)) * y’(1) 1 k =1 n δ(1) 3(t) = (0,2423 * 0,1019) * ATANH(0,905) = 0,0370 w(2) 01 = 0,2054 w(2) 11 = 0,9603 w(2) 21 = 0,1019 y(1) 1 = 0,636 y(1) 2 = 0,838 y(1) 3 = 0,905
  • 56. Mineração de Dados – Aula 10 Treinamento 8. Repetir até k = número de interações desejada ou Erro = erro aceitável ...
  • 57. Mineração de Dados – Aula 10 Revisão • Objetivo: – Conceituar e conhecer as técnicas de Redes Neurais Artificiais. • Conteúdo: – Redes Neurais Artificiais • Referências: – Capítulos 1 a 4 do livro Braga, A. P.; Ponce de Leon, A. C. e Ludermir, T.B. Redes Neurais Artificiais: Teoria e Aplicações