Redes neurais
Redes neurais artificiais
Abstrações matemáticas de
neurônios biológicos
Redes neurais artificiais
Aprendem relações, não
conceitos
Aprendizado Hebbiniano
“Neurônios que disparam
juntos criam sinapses fortes”
Estrutura básica
● Topologia
● Algoritmo de treinamento
● Função de ativação
Química do aprendizado
Neurônio
1
Neurônio
2
↑Na+
Dentrito
↓K+
0mV
50mV
Disparo
0mV
↓Na+ K+
Axônio Sinapse
Perceptron - 1957
x1
y
xn
∑
w1
wn
b
wn+1
Perceptron - 1957 - Treinamento
Perceptron - 1957 - Ativação
Perceptron - 1957 - Pesos
Perceptron - Operador OR
0
0
0
(0.02*0)+
(-0.02*0)+
(-0.05*-1)
0.02
(0.05 > 0)?
Sim, ∴ 1
-0.02
-1
-0.05
Δwn
Perceptron - Operador OR
O treinamento é realizado até
o erro (gn-yn) ou o tempo t
atinja um limite
Nem tudo é fácil...
Perceptrons só aprendem
sobre dados que são
linearmente separáveis.
Nem tudo é fácil... - OR
1
1
0
0
1
x1 x2 y
0 0 0
1 0 1
0 1 1
1 1 1
Nem tudo é fácil... - XOR
1
1
0
0
1
x1 x2 y
0 0 0
1 0 1
0 1 1
1 1 0
?
Feedforward - Werbos - 1969
10
0
1
1
x1 x2 y
0 0 0
1 0 1
0 1 1
1 1 0
MLP - Minsky & Papert - 1975
x1
y
xn
h1
h2
h3
hn
wn
b
wn
Matematicamente,
Redes neurais “não-lineares”
são aproximadores
universais de funções
Prós
● Plasticidade
● Flexibilidade
● Paralelismo
Cons
● Normalização
● Treinamento
● Interpretação
2005-Hoje
● Deep Learning
○ Retornou o interesse por ANNs
○ Resolveu problemas de
profundidade
○ Permitiu escalabilidade
○ Redes convolucionais
○ Deep Belief Nets
Quem usa?
● Street View
● Otimização do Data
Center
● Reconhecimento
de voz
● Recomendações
● Previsões
Quem usa?
● Reconhecimento
facial
● Modelos de
personalidade
● Previsões

Redes neurais