O documento discute conceitos fundamentais de aprendizado de máquina profundo (deep learning), incluindo redes neurais convolucionais (CNNs) e sua aplicação em reconhecimento de imagens, como no conjunto de dados MNIST de dígitos manuscritos. Também aborda tópicos como inicialização de pesos, propagação reversa e funções de ativação em redes neurais artificiais.
Angular, React ou Vue? Comparando os favoritos do JS reativo
Aprendizado Profundo em Imagens
1. Redes Neurais de Aprendizado
Profundo (Deep Learning)
aplicadas a imagens.
Alexssandro Ferreira Cordeiro
2.
3. Inteligência Artificial - IA
Inteligência Artificial é a área de ciência da computação
concentrada em criar programas e máquinas que podem
exibir comportamentos considerados inteligentes. Ou, de
forma mais informal, IA é o conceito segundo o qual
"máquinas pensam como humanos."
4. IA
● Fundada a disciplina de IA em 1956.
● Jogar damas, xadrez e resolver problemas de lógicas.
● Otimização caminho mínimo (Teoria dos Grafos) Dijkstra.
O caminho mínimo entre D e E não é D-E,
mas sim D-F-E, com uma distância de 14.
5. IA
2016 - O jogo — chamado de Go, Weiqi ou Baduk — consiste em um tabuleiro de 19×19 quadros com
bolinhas brancas e pretas; o objetivo é cercar as peças do oponente. Existem mais de 10171 posições
possíveis, contra 1050 no xadrez.
O AlphaGo (Google) usou um conjunto de dados de mais
de 100 mil partidas entre dois humanos para aprender
as melhores táticas.
Fonte: https://tecnoblog.net/229517/alphazero-xadrez-ia-google/
12. Machine Learn - ML
Machine learning, ou aprendizado de máquina, é o uso de algoritmos para organizar dados, reconhecer
padrões e fazer com que computadores possam aprender com esses modelos e gerar insights inteligentes
sem necessidade de pré-programação.
14. Simulação Cérebro Humano - Blue Gene IBM
● Versão do supercomputador IBM Blue Gene L possui 131.000 processadores organizados em
1024 nós (2007).
● 2011: 4.5% do cérebro humano simulado e 100% do cérebro felino simulado.
● Um neurônio biológico é 20 milhões de vezes mais lento que um processador de
aproximadamente 2.2GHZ.
● Lentidão compensada pelo grande número de neurônios biológicos maciçamente conectados.
15. Neurônio artificial - Perceptron
● Classificações binárias.
● Separação linear.
● Curso Stanford CS231n:
A forma mais simples e
comum de inicializar
Bias(viés) é ajustá-los a
zero - já que a quebra de
assimetria é fornecida
pelos pequenos números
aleatórios inicializados
nos pesos.
20. Função de ativação
● Função de ativação: indica como vai ser feito o disparo
● Idealmente não-linear: grande maioria dos problemas práticos
● Exemplo a seguir: função passo (degrau, limiar,threshold), Softmax, RELU, leaky RELU, Sigmóide,
Linear, TanH...
21. Função de ativação
● SOFTMAX útil quando tentamos lidar com problemas de classificação.
● Funções Sigmóide e suas combinações geralmente funcionam melhor no caso de classificadores.
● Funções Sigmóide e Tanh às vezes são evitadas devido ao problema de Vanishing Gradient .
● A função ReLU é uma função de ativação geral e é usada na maioria dos casos atualmente.
● Se encontrarmos um caso de neurônios deficientes em nossas redes, a função Leaky ReLU é a
melhor escolha.
● Tenha sempre em mente que a função ReLU deve ser usada apenas nas camadas ocultas.
23. Deep Learn - DP
É parte do aprendizado de máquina e são algoritmos complexos construídos a partir de um
empilhamento de diversas camadas de “neurônios”, alimentados por quantidades imensas de dados, que
são capazes de reconhecer imagens e fala, processar a linguagem natural e aprender a realizar tarefas
extremamente avançadas sem interferência humana. A principal aplicação dos algoritmos de Deep
Learning são as tarefas de classificação, em especial, reconhecimento de imagens.
25. Feed Foward - Fully Connected
● Feed Foward (Alimentação para frente): o
sinal viaja da camada de entrada para a
camada de saída.
● Fully Connected (Totalmente
Conectada): um neurônio de uma dada
camada envia informação a todos os
neurônios da camada seguinte .
26. Back-Propagation
● É a essência do treinamento da rede neural. É a prática de afinar os pesos de uma rede neural com
base na taxa de erro (isto é, perda) obtida na época anterior (isto é, iteração). O ajuste adequado
dos pesos garante menores taxas de erro, tornando o modelo confiável, aumentando sua
generalização.
● Otimizar o caminho, escolher o caminho de menor erro!
39. Até que ponto uma caixa preta é confiável?
https://www.youtube.com/watch?v=izZofvgaIig
40. Deep fake
inteligência artificial é usado em
famosos e políticos, substituindo
rostos e vozes em videos
realistas.
Gerou debates sobre a ética
desses procedimentos.
41. Rio de Janeiro - Primeira prisão utilizando
reconhecimento facial.
https://www.techtudo.com.br/noticias/2019/07/policia-militar-do-rj-faz-primeira-prisao-usando-reconhecimento-facial.ghtml
47. Referências:
● Notas de aula do Prof. André de Carvalho (USP).
● Notas de aula do Prof. Arnaldo Candido Junior (UTFPR).
● https://www.salesforce.com/br/blog/2018/4/Machine-Learning-e-Deep-Learning-aprenda-as-diferencas.
html
● https://www.salesforce.com/br/blog/2016/10/o-que-e-inteligencia-artificial.html
● https://tecnoblog.net/192604/computador-google-vence-campeao-go/
● https://towardsdatascience.com/weight-initialization-techniques-in-neural-networks-26c649eb3b78
● https://towardsdatascience.com/neural-network-optimization-7ca72d4db3e0
● https://medium.com/@b.terryjack/introduction-to-deep-learning-feed-forward-neural-networks-ffnns-a-
k-a-c688d83a309d