SlideShare uma empresa Scribd logo
Classificação de texto com Deep Learning
Modelos de previsão de Ocorrências
Guttenberg Ferreira Passos
O presente artigo tem como objetivo a classificação de textos e a previsão das
categorias de ocorrências, através do estudo de modelos de Inteligência Artificial,
utilizando Machine Learning e Deep Learning para a classificação de textos e análise
das previsões, sugerindo-se a melhor opção com o menor erro.
A solução foi projetada para ser implementada em duas etapas: Aprendizado de
Máquina e Aplicação, de acordo com o diagrama abaixo da Data Science Academy.
Fonte: Data Science Academy
O foco desse artigo é a etapa de Aprendizado de Máquina, o desenvolvimento da
aplicação está fora do escopo e poderá ser objeto de um trabalho futuro.
A solução foi aplicada em um órgão do Estado de Minas Gerais com a coleta de três
conjuntos de dados contendo 5.000, 100.000 e 1.740.000 ocorrências
respectivamente.
O projeto de elaboração dos algoritmos da etapa de Aprendizado de Máquina foi
dividido em quatro fases:
1) Elaboração de um protótipo para aprovação do cliente, com a ferramenta
Orange, para o treinamento de uma amostra de 5.000 ocorrências e previsão
de 300 ocorrências. Nessa etapa foram utilizados algoritmos de Machine
Learnig.
2) Elaboração de um programa em Python para o treinamento de uma amostra de
100.000 ocorrências e previsão de 300 ocorrências. Nessa etapa foram
utilizados algoritmos de Deep Learnig.
3) Treinamento de uma amostra de 1.700.000 ocorrências e previsão de 300
ocorrências, utilizando o mesmo ambiente.
4) Treinamento de uma amostra de 1.700.000 ocorrências e previsão de 60.000
ocorrências, utilizando o mesmo ambiente.
Todos os modelos foram adaptados do site https://orangedatamining.com/, dos
vídeos:
https://www.youtube.com/watch?v=HXjnDIgGDuI&t=10s&ab_channel=OrangeDataMi
ning e das aulas do curso de Deep learning II da Data Science Academy:
https://www.datascienceacademy.com.br
Algoritmos de Machine Learning utilizados:
 AdaBoost
 kNN
 Logistic Regression
 Naive Bayes
 Random Forest
Algoritmos de Deep Learning utilizados:
 LSTM - Long short-term memory
 GRU - Gated Recurrent Unit
 CNN - Convolutional Neural Networks
AdaBoost
É um algoritmo de aprendizado de máquina, deriva de Adaptive Boosting (Impulso
adaptativo). O AdaBoost é adaptável no sentido de que as classificações subsequentes
feitas são ajustadas a favor das instâncias classificadas negativamente por
classificações anteriores.
O AdaBoost é sensível ao ruído nos dados e casos isolados. Entretanto para alguns
problemas é menos suscetível a perda da capacidade de generalização após o
aprendizado de muitos padrões de treino (overfitting) do que a maioria dos algoritmos
de aprendizado de máquina.
kNN
É um algoritmo de aprendizado de máquina, o algoritmo kNN procura k exemplos de
treinamento mais próximos no espaço de recursos e usa sua média como previsão.
Logistic Regression
O algoritmo de classificação de regressão logística com regularização LASSO (L1) ou
crista (L2). A regressão logística aprende um modelo de regressão logística a partir dos
dados. Funciona apenas para tarefas de classificação.
Naive Bayes
Um classificador probabilístico rápido e simples baseado no teorema de Bayes com a
suposição de independência de recurso. Funciona apenas para tarefas de classificação.
Random Forest
A Random Forest constrói um conjunto de árvores de decisão. Cada árvore é
desenvolvida a partir de uma amostra de bootstrap dos dados de treinamento. Ao
desenvolver árvores individuais, um subconjunto arbitrário de atributos é desenhado
(daí o termo “Aleatório”), a partir do qual o melhor atributo para a divisão é
selecionado. O modelo final é baseado na maioria dos votos de árvores desenvolvidas
individualmente na floresta.
Fonte dos algoritmos de Machine Learning: Wikipédia e
https://orange3.readthedocs.io/en/latest
LSTM
A rede Long Short-Term Memory - LSTM é uma rede neural recorrente, que é usada
em diversos cenários de Processamento de Linguagem Natural. A LSTM é uma
arquitetura de rede neural recorrente (RNN) que “lembra” valores em intervalos
arbitrários. A LSTM é bem adequada para classificar, processar e prever séries
temporais com intervalos de tempo de duração desconhecida. A insensibilidade
relativa ao comprimento do gap dá uma vantagem à LSTM em relação a RNNs
tradicionais (também chamadas “vanilla”), Modelos Ocultos de Markov (MOM) e
outros métodos de aprendizado de sequências.
GRU
A rede Gated Recurrent Unit - GRU visa resolver o problema da dissipação do
gradiente que é comum em uma rede neural recorrente padrão. A GRU também pode
ser considerada uma variação da LSTM porque ambas são projetadas de maneira
semelhante e, em alguns casos, produzem resultados igualmente excelentes.
CNN
A Rede Convolutional Neural Network - CNN é um algoritmo de Aprendizado Profundo
que pode captar uma imagem de entrada, atribuir importância (pesos e vieses que
podem ser aprendidos) a vários aspectos / objetos da imagem e ser capaz de
diferenciar um do outro. O pré-processamento exigido em uma CNN é muito menor
em comparação com outros algoritmos de classificação. Enquanto nos métodos
primitivos os filtros são feitos à mão, com treinamento suficiente, as CNN têm a
capacidade de aprender esses filtros / características.
Fonte dos algoritmos de Deep Learning: https://www.deeplearningbook.com.br
Redes neurais são sistemas de computação com nós interconectados que funcionam
como os neurônios do cérebro humano. Usando algoritmos, elas podem reconhecer
padrões escondidos e correlações em dados brutos, agrupá-los e classificá-los, e com o
tempo aprender e melhorar continuamente.
O Instituto Asimov https://www.asimovinstitute.org/neural-network-zoo/ publicou
uma folha de dicas contendo várias arquiteturas de rede neural, nos concentraremos
nas arquiteturas destacadas em vermelho LSTM, GRU e CNN.
Fonte: THE ASIMOV INSTITUTE
Deep Learning é uma das bases da Inteligência Artificial (IA), um tipo de aprendizado
de máquina (Machine Learning) que treina computadores para realizar tarefas como
seres humanos, o que inclui reconhecimento de fala, identificação de imagem e
previsões, aprendendo com o tempo. Podemos dizer que é uma Rede Neural com
várias camadas ocultas:
Fase 1
A fase 1 do projeto é o desenvolvimento de um protótipo para a apresentação da
solução e sua primeira aprovação pelo cliente. A ferramenta que foi escolhida para
essa fase é o Orange Canvas, por se tratar de um ambiente gráfico mais amigável.
Nesse ambiente os elementos são arrastados para o canvas sem a necessidade de
digitação de linhas de código.
O trabalho tem início pela Análise Exploratória dos Dados. Inicialmente foi constatado
que a primeira amostra de 5.000 ocorrências estava desbalanceada, figura abaixo.
Optou-se por descartar as ocorrências das categorias com menor volume de dados.
A primeira fase foi estruturada em três etapas: pré-processamento e análise dos
dados, treinamento dos modelos e previsão das categorias das ocorrências. As etapas
foram planejadas para facilitar o desenvolvimento e implementação do projeto por
serem independentes entre si e seu processamento ser concluído em cada etapa, não
necessitando ser repetido na etapa posterior.
Fase 1 - Etapa 1: Pré-processamento e análise dos dados
Na primeira etapa são realizados a coleta, o pré-processamento e a análise dos dados,
conforme a figura abaixo na ferramenta Orange.
Foram coletadas amostras de 5.000 ocorrências para o treinamento do modelo e 300
ocorrências para fazer a previsão, simulando um ambiente de produção.
Após a coleta, os dados são organizados em um Corpus para a realização do pré-
processamento executando-se as ações de Transformação, Tokenização e Filtragem
dos dados.
As palavras são organizadas em um formato Bag of Words (Saco de Palavras), uma
representação simplificadora usada no Processamento de Linguagem Natural - NLP.
Nesse modelo, um texto (como uma frase ou um documento) é representado como o
saco de suas palavras, desconsiderando a gramática e até mesmo a ordem das
palavras, mas mantendo a multiplicidade.
O aprendizado de máquina (Machine Learning) é um ramo da inteligência artificial
baseado na ideia de que sistemas podem aprender com dados, identificar padrões e
tomar decisões com o mínimo de intervenção humana. O aprendizado automático
explora o estudo e construção de algoritmos que podem aprender de seus erros e
fazer previsões sobre dados.
O aprendizado de máquina pode ser classificado em duas categorias:
Aprendizado supervisionado: São apresentadas ao computador exemplos de entradas
e saídas desejadas.
Aprendizado não supervisionado: Nenhum tipo de etiqueta é dado ao algoritmo de
aprendizado, deixando-o sozinho para encontrar padrões nas entradas fornecidas.
Através do aprendizado não supervisionado é possível identificar os Clusters
(Agrupamentos) e sua hierarquia.
Com o escalonamento multidimensional (MDS) tem-se um meio de visualizar o nível de
similaridade de casos individuais de um conjunto de dados e as regiões dos Clusters.
Além disso, tem-se também uma idéia da facilidade ou dificuldade do modelo em fazer
suas previsões, quanto mais agrupadas as ocorrências em determinada região maior
poderá ser a probabilidade de acerto do modelo.
Fase 1 - Etapa 2: Treinamento dos modelos
A segunda etapa é o treinamento dos modelos utilizando os seguintes algoritmos de
Machine Learning: AdaBoost, kNN, Logistic Regression, Naive Bayes e Random Forest.
A performance geral dos modelos pode ser medida através de sua Acurácia (CA),
proximidade de um resultado com o seu valor de referência real. Dessa forma, quanto
maior a acurácia, mais próximo da referência ou valor real é o resultado encontrado.
Os acertos e os erros identificados no resultado podem ser analisados através da
Matriz de Confusão. Na diagonal principal da matriz encontram-se os acertos,
previsões corretas de acordo com o conjunto real. Os erros estão fora da diagonal
principal, previsões incorretas de acordo com o conjunto real.
Fase 1 - Etapa 3: Previsão das categorias das ocorrências
A última etapa do protótipo, fase 1 do projeto, é a previsão das categorias das
ocorrências, realizadas por cada algoritmo de machine learning.
O resultado pode ser obtido através da classificação probabilística de observações,
caracterizando-as em classes pré-definidas. A classe prevista será a que possuir maior
probabilidade:
Fases 2, 3 e 4
Para as fases 2, 3 e 4 do projeto foram elaborados programas na linguagem Python
para análise, treinamento e previsão das ocorrências, utilizando os seguintes
algoritmos de Deep Learnig: LSTM, GRU e CNN.
Foram fornecidas amostras de 100.000 e 1.700.000 ocorrências para o treinamento e
para previsão amostras de 300 e 60.000 ocorrências, utilizando o mesmo ambiente.
As novas amostras de ocorrências foram pré-processadas e estavam balanceadas:
Os programas desenvolvidos foram estruturados respeitando as mesmas três etapas
da fase anterior: pré-processamento e análise dos dados, treinamento dos modelos e
previsão das categorias das ocorrências.
Na etapa 1 foram utilizadas diversas técnicas de pré-processamento dos dados
semelhantes ás utilizadas no ambiente Orange Canvas.
Na segunda etapa foram desenvolvidas diferentes arquiteturas para cada algoritmo de
Deep Learnig.
Modelo 1 LSTMs - Camadas da Rede Neural:
Model: "sequential"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding (Embedding) (None, 250, 100) 5000000
_________________________________________________________________
lstm (LSTM) (None, 100) 80400
_________________________________________________________________
dense (Dense) (None, 6) 606
=================================================================
Total params: 5,081,006
Trainable params: 5,081,006
Non-trainable params: 0
Modelo 2 LSTMs e CNNs - Camadas da Rede Neural:
Model: "sequential_1"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding_1 (Embedding) (None, 250, 100) 5000000
_________________________________________________________________
conv1d (Conv1D) (None, 250, 32) 9632
_________________________________________________________________
max_pooling1d (MaxPooling1D) (None, 125, 32) 0
_________________________________________________________________
lstm_1 (LSTM) (None, 125, 100) 53200
_________________________________________________________________
lstm_2 (LSTM) (None, 100) 80400
_________________________________________________________________
dense_1 (Dense) (None, 6) 606
=================================================================
Total params: 5,143,838
Trainable params: 5,143,838
Non-trainable params: 0
Modelo 3 LSTMs com Dropout - Camadas da Rede Neural:
Model: "sequential_2"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding_2 (Embedding) (None, 250, 100) 5000000
_________________________________________________________________
lstm_3 (LSTM) (None, 250, 200) 240800
_________________________________________________________________
lstm_4 (LSTM) (None, 200) 320800
_________________________________________________________________
dense_2 (Dense) (None, 6) 1206
=================================================================
Total params: 5,562,806
Trainable params: 5,562,806
Non-trainable params: 0
Modelo 4 GRU - Camadas da Rede Neural:
Model: "sequential_1"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding_1 (Embedding) (None, 250, 100) 5000000
_________________________________________________________________
gru (GRU) (None, 100) 60600
_________________________________________________________________
dense (Dense) (None, 6) 606
=================================================================
Total params: 5,061,206
Trainable params: 5,061,206
Non-trainable params: 0
Modelo 5 GRU e CNN - Camadas da Rede Neural:
Model: "sequential_2"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding_2 (Embedding) (None, 250, 100) 5000000
_________________________________________________________________
conv1d (Conv1D) (None, 250, 32) 9632
_________________________________________________________________
max_pooling1d (MaxPooling1D) (None, 125, 32) 0
_________________________________________________________________
gru_1 (GRU) (None, 125, 100) 40200
_________________________________________________________________
gru_2 (GRU) (None, 100) 60600
_________________________________________________________________
dense_1 (Dense) (None, 6) 606
=================================================================
Total params: 5,111,038
Trainable params: 5,111,038
Non-trainable params: 0
Modelo 6 GRU com Dropout - Camadas da Rede Neural:
Model: "sequential_3"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding_3 (Embedding) (None, 250, 100) 5000000
_________________________________________________________________
gru_3 (GRU) (None, 250, 200) 181200
_________________________________________________________________
gru_4 (GRU) (None, 200) 241200
_________________________________________________________________
dense_2 (Dense) (None, 6) 1206
=================================================================
Total params: 5,423,606
Trainable params: 5,423,606
Non-trainable params: 0
Conclusão
Neste trabalho, sem pretensão alguma de esgotar o assunto, demonstrou-se que os
modelos fundamentados em Deep Learning tiveram um resultado melhor que os
demais algoritmos, conforme figura abaixo:
Considera-se excelente o desempenho alcançado pela combinação dos algoritmos
LSTM e CNN, com acurácia de 97%. Recomenda-se, portanto, a adoção desse modelo
para o desenvolvimento da aplicação de Previsão de Ocorrências em produção.

Mais conteúdo relacionado

Mais procurados

Aula introducao-redes-neurais
Aula introducao-redes-neuraisAula introducao-redes-neurais
Aula introducao-redes-neurais
Leo Laurett
 
Aprendizagem Supervisionada II
Aprendizagem Supervisionada IIAprendizagem Supervisionada II
Aprendizagem Supervisionada II
Luís Nunes
 
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais Artificiais
Marcos Castro
 
INTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNAINTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNA
Carlos Cheth
 
A rede neural supervisionada chamada perceptron multicamadas
A rede neural supervisionada chamada perceptron multicamadasA rede neural supervisionada chamada perceptron multicamadas
A rede neural supervisionada chamada perceptron multicamadas
cesar do amaral
 
Generalização, validação e comparação de resultados
Generalização, validação e comparação de resultadosGeneralização, validação e comparação de resultados
Generalização, validação e comparação de resultados
Luís Nunes
 
Analise Algoritmos
Analise AlgoritmosAnalise Algoritmos
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais Artificiais
Ricardo Zalla
 
Comparativo bubble sort e quick sort
Comparativo bubble sort e quick sortComparativo bubble sort e quick sort
Comparativo bubble sort e quick sort
Daiana de Ávila
 
Análise de Algoritmos
Análise de AlgoritmosAnálise de Algoritmos
Análise de Algoritmos
Daniel Arndt Alves
 
Algoritmos
AlgoritmosAlgoritmos
Algoritmos
Muda Brasil
 
Scipy meetup-2020-02
Scipy meetup-2020-02Scipy meetup-2020-02
Scipy meetup-2020-02
Renato Candido
 
160277 redes neurais artificiais
160277 redes neurais artificiais160277 redes neurais artificiais
160277 redes neurais artificiais
Coegio São Pauloda Cruz
 
Redes neurais
Redes neuraisRedes neurais
Redes neurais
Edmilson Neto
 
Logica fuzzy Conceitos e Aplicações
Logica fuzzy   Conceitos e AplicaçõesLogica fuzzy   Conceitos e Aplicações
Logica fuzzy Conceitos e Aplicações
Toni Esteves
 
01 algorimos e complexidade introduç o
01   algorimos e complexidade introduç o01   algorimos e complexidade introduç o
01 algorimos e complexidade introduç o
Cravid Ekuikui
 
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...
Wilian França Costa
 
Análise de algoritmo
Análise de algoritmoAnálise de algoritmo
Análise de algoritmo
Caique Moretto
 
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDP
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDPPlanejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDP
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDP
Daniel Baptista Dias
 

Mais procurados (19)

Aula introducao-redes-neurais
Aula introducao-redes-neuraisAula introducao-redes-neurais
Aula introducao-redes-neurais
 
Aprendizagem Supervisionada II
Aprendizagem Supervisionada IIAprendizagem Supervisionada II
Aprendizagem Supervisionada II
 
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais Artificiais
 
INTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNAINTELIGENCIA ARTIFICIAL RNA
INTELIGENCIA ARTIFICIAL RNA
 
A rede neural supervisionada chamada perceptron multicamadas
A rede neural supervisionada chamada perceptron multicamadasA rede neural supervisionada chamada perceptron multicamadas
A rede neural supervisionada chamada perceptron multicamadas
 
Generalização, validação e comparação de resultados
Generalização, validação e comparação de resultadosGeneralização, validação e comparação de resultados
Generalização, validação e comparação de resultados
 
Analise Algoritmos
Analise AlgoritmosAnalise Algoritmos
Analise Algoritmos
 
Redes Neurais Artificiais
Redes Neurais ArtificiaisRedes Neurais Artificiais
Redes Neurais Artificiais
 
Comparativo bubble sort e quick sort
Comparativo bubble sort e quick sortComparativo bubble sort e quick sort
Comparativo bubble sort e quick sort
 
Análise de Algoritmos
Análise de AlgoritmosAnálise de Algoritmos
Análise de Algoritmos
 
Algoritmos
AlgoritmosAlgoritmos
Algoritmos
 
Scipy meetup-2020-02
Scipy meetup-2020-02Scipy meetup-2020-02
Scipy meetup-2020-02
 
160277 redes neurais artificiais
160277 redes neurais artificiais160277 redes neurais artificiais
160277 redes neurais artificiais
 
Redes neurais
Redes neuraisRedes neurais
Redes neurais
 
Logica fuzzy Conceitos e Aplicações
Logica fuzzy   Conceitos e AplicaçõesLogica fuzzy   Conceitos e Aplicações
Logica fuzzy Conceitos e Aplicações
 
01 algorimos e complexidade introduç o
01   algorimos e complexidade introduç o01   algorimos e complexidade introduç o
01 algorimos e complexidade introduç o
 
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...
 
Análise de algoritmo
Análise de algoritmoAnálise de algoritmo
Análise de algoritmo
 
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDP
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDPPlanejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDP
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDP
 

Semelhante a Modelos de previsão de Ocorrências

Sistemas de Recomendação
Sistemas de RecomendaçãoSistemas de Recomendação
Sistemas de Recomendação
Guttenberg Ferreira Passos
 
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
Ahirton Lopes
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
Ahirton Lopes
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
Ahirton Lopes
 
[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better Data[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better Data
Ahirton Lopes
 
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
Ahirton Lopes
 
Análise de Técnicas Computacionais para Classificação de Emoções
Análise de Técnicas Computacionais para Classificação de EmoçõesAnálise de Técnicas Computacionais para Classificação de Emoções
Análise de Técnicas Computacionais para Classificação de Emoções
Adilmar Dantas
 
ID3 Algorithm
ID3 AlgorithmID3 Algorithm
ID3 Algorithm
Michel Alves
 
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...
Ricardo Brasil
 
Detecção de Faces - Redes Neurais *MLP
Detecção de Faces - Redes Neurais *MLPDetecção de Faces - Redes Neurais *MLP
Detecção de Faces - Redes Neurais *MLP
Adilmar Dantas
 
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
Ahirton Lopes
 
Trabalho PI I
Trabalho PI ITrabalho PI I
Trabalho PI I
Vitor Savicki
 
Apresentacao
ApresentacaoApresentacao
Inteligência artificial para sistemas colaborativos
Inteligência artificial para sistemas colaborativosInteligência artificial para sistemas colaborativos
Inteligência artificial para sistemas colaborativos
Rodrigo de Oliveira
 
Rede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de FacesRede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de Faces
Adilmar Dantas
 
Clustering informatizado
Clustering  informatizadoClustering  informatizado
Clustering informatizado
Diêgo Maciel
 
Introdução a Deep Learning
Introdução a Deep LearningIntrodução a Deep Learning
Introdução a Deep Learning
Cristian Muñoz
 
Artigo tecnico RNA Iris
Artigo tecnico RNA IrisArtigo tecnico RNA Iris
Artigo tecnico RNA Iris
francisco da silva
 
Redes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRedes neurais e lógica fuzzy
Redes neurais e lógica fuzzy
Renato Ximenes
 
BSDDAY 2019 - Data Science e Artificial Intelligence usando Freebsd
BSDDAY 2019 - Data Science e Artificial Intelligence usando FreebsdBSDDAY 2019 - Data Science e Artificial Intelligence usando Freebsd
BSDDAY 2019 - Data Science e Artificial Intelligence usando Freebsd
Mauro Risonho de Paula Assumpcao
 

Semelhante a Modelos de previsão de Ocorrências (20)

Sistemas de Recomendação
Sistemas de RecomendaçãoSistemas de Recomendação
Sistemas de Recomendação
 
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem Visual
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
 
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem Visual
 
[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better Data[Jose Ahirton lopes] Do Big ao Better Data
[Jose Ahirton lopes] Do Big ao Better Data
 
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial -  Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
 
Análise de Técnicas Computacionais para Classificação de Emoções
Análise de Técnicas Computacionais para Classificação de EmoçõesAnálise de Técnicas Computacionais para Classificação de Emoções
Análise de Técnicas Computacionais para Classificação de Emoções
 
ID3 Algorithm
ID3 AlgorithmID3 Algorithm
ID3 Algorithm
 
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...
 
Detecção de Faces - Redes Neurais *MLP
Detecção de Faces - Redes Neurais *MLPDetecção de Faces - Redes Neurais *MLP
Detecção de Faces - Redes Neurais *MLP
 
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem Visual
 
Trabalho PI I
Trabalho PI ITrabalho PI I
Trabalho PI I
 
Apresentacao
ApresentacaoApresentacao
Apresentacao
 
Inteligência artificial para sistemas colaborativos
Inteligência artificial para sistemas colaborativosInteligência artificial para sistemas colaborativos
Inteligência artificial para sistemas colaborativos
 
Rede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de FacesRede Neural MLP para reconhecimento de Faces
Rede Neural MLP para reconhecimento de Faces
 
Clustering informatizado
Clustering  informatizadoClustering  informatizado
Clustering informatizado
 
Introdução a Deep Learning
Introdução a Deep LearningIntrodução a Deep Learning
Introdução a Deep Learning
 
Artigo tecnico RNA Iris
Artigo tecnico RNA IrisArtigo tecnico RNA Iris
Artigo tecnico RNA Iris
 
Redes neurais e lógica fuzzy
Redes neurais e lógica fuzzyRedes neurais e lógica fuzzy
Redes neurais e lógica fuzzy
 
BSDDAY 2019 - Data Science e Artificial Intelligence usando Freebsd
BSDDAY 2019 - Data Science e Artificial Intelligence usando FreebsdBSDDAY 2019 - Data Science e Artificial Intelligence usando Freebsd
BSDDAY 2019 - Data Science e Artificial Intelligence usando Freebsd
 

Mais de Guttenberg Ferreira Passos

Occurrence Prediction_NLP
Occurrence Prediction_NLPOccurrence Prediction_NLP
Occurrence Prediction_NLP
Guttenberg Ferreira Passos
 
Social_Distancing_DIS_Time_Series
Social_Distancing_DIS_Time_SeriesSocial_Distancing_DIS_Time_Series
Social_Distancing_DIS_Time_Series
Guttenberg Ferreira Passos
 
ICMS_Tax_Collection_Time_Series.pdf
ICMS_Tax_Collection_Time_Series.pdfICMS_Tax_Collection_Time_Series.pdf
ICMS_Tax_Collection_Time_Series.pdf
Guttenberg Ferreira Passos
 
Predictions with Deep Learning and System Dynamics - AIH
Predictions with Deep Learning and System Dynamics - AIHPredictions with Deep Learning and System Dynamics - AIH
Predictions with Deep Learning and System Dynamics - AIH
Guttenberg Ferreira Passos
 
Capacity prediction model
Capacity prediction modelCapacity prediction model
Capacity prediction model
Guttenberg Ferreira Passos
 
Problem Prediction Model with Changes and Incidents
Problem Prediction Model with Changes and IncidentsProblem Prediction Model with Changes and Incidents
Problem Prediction Model with Changes and Incidents
Guttenberg Ferreira Passos
 
Project Organizational Responsibility Model - ORM
Project Organizational Responsibility Model -  ORMProject Organizational Responsibility Model -  ORM
Project Organizational Responsibility Model - ORM
Guttenberg Ferreira Passos
 
Problem prediction model
Problem prediction modelProblem prediction model
Problem prediction model
Guttenberg Ferreira Passos
 
Modelo de Responsabilidade Organizacional e a Transformação Digital
Modelo de Responsabilidade Organizacional e a Transformação DigitalModelo de Responsabilidade Organizacional e a Transformação Digital
Modelo de Responsabilidade Organizacional e a Transformação Digital
Guttenberg Ferreira Passos
 
A transformação digital do tradicional para o exponencial - v2
A transformação digital do tradicional para o exponencial - v2A transformação digital do tradicional para o exponencial - v2
A transformação digital do tradicional para o exponencial - v2
Guttenberg Ferreira Passos
 
MRO predict
MRO predictMRO predict
MRO simula
MRO simulaMRO simula
O facin na prática com o projeto geo
O facin na prática com o projeto geoO facin na prática com o projeto geo
O facin na prática com o projeto geo
Guttenberg Ferreira Passos
 
Modelo em rede de maturidade em governança corporativa e a lei das estatais
Modelo em rede de maturidade em governança corporativa e a lei das estataisModelo em rede de maturidade em governança corporativa e a lei das estatais
Modelo em rede de maturidade em governança corporativa e a lei das estatais
Guttenberg Ferreira Passos
 
Análise da Dispersão dos Esforços dos Funcionários
Análise da Dispersão dos Esforços dos FuncionáriosAnálise da Dispersão dos Esforços dos Funcionários
Análise da Dispersão dos Esforços dos Funcionários
Guttenberg Ferreira Passos
 
Facin e Modelo de Responsabilidade Organizacional
Facin e Modelo de Responsabilidade OrganizacionalFacin e Modelo de Responsabilidade Organizacional
Facin e Modelo de Responsabilidade Organizacional
Guttenberg Ferreira Passos
 
Understanding why caries is still a public health problem
Understanding why caries is still a public health problemUnderstanding why caries is still a public health problem
Understanding why caries is still a public health problem
Guttenberg Ferreira Passos
 
Modelo em Rede de Alinhamento das Ações aos Pilares da Governança
Modelo em Rede de Alinhamento das Ações aos Pilares da GovernançaModelo em Rede de Alinhamento das Ações aos Pilares da Governança
Modelo em Rede de Alinhamento das Ações aos Pilares da Governança
Guttenberg Ferreira Passos
 
Cenários exploratórios da cadeia de valor
Cenários exploratórios da cadeia de valorCenários exploratórios da cadeia de valor
Cenários exploratórios da cadeia de valor
Guttenberg Ferreira Passos
 
Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...
Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...
Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...
Guttenberg Ferreira Passos
 

Mais de Guttenberg Ferreira Passos (20)

Occurrence Prediction_NLP
Occurrence Prediction_NLPOccurrence Prediction_NLP
Occurrence Prediction_NLP
 
Social_Distancing_DIS_Time_Series
Social_Distancing_DIS_Time_SeriesSocial_Distancing_DIS_Time_Series
Social_Distancing_DIS_Time_Series
 
ICMS_Tax_Collection_Time_Series.pdf
ICMS_Tax_Collection_Time_Series.pdfICMS_Tax_Collection_Time_Series.pdf
ICMS_Tax_Collection_Time_Series.pdf
 
Predictions with Deep Learning and System Dynamics - AIH
Predictions with Deep Learning and System Dynamics - AIHPredictions with Deep Learning and System Dynamics - AIH
Predictions with Deep Learning and System Dynamics - AIH
 
Capacity prediction model
Capacity prediction modelCapacity prediction model
Capacity prediction model
 
Problem Prediction Model with Changes and Incidents
Problem Prediction Model with Changes and IncidentsProblem Prediction Model with Changes and Incidents
Problem Prediction Model with Changes and Incidents
 
Project Organizational Responsibility Model - ORM
Project Organizational Responsibility Model -  ORMProject Organizational Responsibility Model -  ORM
Project Organizational Responsibility Model - ORM
 
Problem prediction model
Problem prediction modelProblem prediction model
Problem prediction model
 
Modelo de Responsabilidade Organizacional e a Transformação Digital
Modelo de Responsabilidade Organizacional e a Transformação DigitalModelo de Responsabilidade Organizacional e a Transformação Digital
Modelo de Responsabilidade Organizacional e a Transformação Digital
 
A transformação digital do tradicional para o exponencial - v2
A transformação digital do tradicional para o exponencial - v2A transformação digital do tradicional para o exponencial - v2
A transformação digital do tradicional para o exponencial - v2
 
MRO predict
MRO predictMRO predict
MRO predict
 
MRO simula
MRO simulaMRO simula
MRO simula
 
O facin na prática com o projeto geo
O facin na prática com o projeto geoO facin na prática com o projeto geo
O facin na prática com o projeto geo
 
Modelo em rede de maturidade em governança corporativa e a lei das estatais
Modelo em rede de maturidade em governança corporativa e a lei das estataisModelo em rede de maturidade em governança corporativa e a lei das estatais
Modelo em rede de maturidade em governança corporativa e a lei das estatais
 
Análise da Dispersão dos Esforços dos Funcionários
Análise da Dispersão dos Esforços dos FuncionáriosAnálise da Dispersão dos Esforços dos Funcionários
Análise da Dispersão dos Esforços dos Funcionários
 
Facin e Modelo de Responsabilidade Organizacional
Facin e Modelo de Responsabilidade OrganizacionalFacin e Modelo de Responsabilidade Organizacional
Facin e Modelo de Responsabilidade Organizacional
 
Understanding why caries is still a public health problem
Understanding why caries is still a public health problemUnderstanding why caries is still a public health problem
Understanding why caries is still a public health problem
 
Modelo em Rede de Alinhamento das Ações aos Pilares da Governança
Modelo em Rede de Alinhamento das Ações aos Pilares da GovernançaModelo em Rede de Alinhamento das Ações aos Pilares da Governança
Modelo em Rede de Alinhamento das Ações aos Pilares da Governança
 
Cenários exploratórios da cadeia de valor
Cenários exploratórios da cadeia de valorCenários exploratórios da cadeia de valor
Cenários exploratórios da cadeia de valor
 
Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...
Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...
Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...
 

Último

Escola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdf
Escola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdfEscola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdf
Escola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdf
Gabriel de Mattos Faustino
 
Segurança Digital Pessoal e Boas Práticas
Segurança Digital Pessoal e Boas PráticasSegurança Digital Pessoal e Boas Práticas
Segurança Digital Pessoal e Boas Práticas
Danilo Pinotti
 
Certificado Jornada Python Da Hashtag.pdf
Certificado Jornada Python Da Hashtag.pdfCertificado Jornada Python Da Hashtag.pdf
Certificado Jornada Python Da Hashtag.pdf
joaovmp3
 
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...
Faga1939
 
História da Rádio- 1936-1970 século XIX .2.pptx
História da Rádio- 1936-1970 século XIX   .2.pptxHistória da Rádio- 1936-1970 século XIX   .2.pptx
História da Rádio- 1936-1970 século XIX .2.pptx
TomasSousa7
 
Manual-de-Credenciamento ANATER 2023.pdf
Manual-de-Credenciamento ANATER 2023.pdfManual-de-Credenciamento ANATER 2023.pdf
Manual-de-Credenciamento ANATER 2023.pdf
WELITONNOGUEIRA3
 
Logica de Progamacao - Aula (1) (1).pptx
Logica de Progamacao - Aula (1) (1).pptxLogica de Progamacao - Aula (1) (1).pptx
Logica de Progamacao - Aula (1) (1).pptx
Momento da Informática
 
TOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdf
TOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdfTOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdf
TOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdf
Momento da Informática
 
DESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdf
DESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdfDESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdf
DESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdf
Momento da Informática
 
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docxATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx
2m Assessoria
 

Último (10)

Escola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdf
Escola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdfEscola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdf
Escola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdf
 
Segurança Digital Pessoal e Boas Práticas
Segurança Digital Pessoal e Boas PráticasSegurança Digital Pessoal e Boas Práticas
Segurança Digital Pessoal e Boas Práticas
 
Certificado Jornada Python Da Hashtag.pdf
Certificado Jornada Python Da Hashtag.pdfCertificado Jornada Python Da Hashtag.pdf
Certificado Jornada Python Da Hashtag.pdf
 
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...
 
História da Rádio- 1936-1970 século XIX .2.pptx
História da Rádio- 1936-1970 século XIX   .2.pptxHistória da Rádio- 1936-1970 século XIX   .2.pptx
História da Rádio- 1936-1970 século XIX .2.pptx
 
Manual-de-Credenciamento ANATER 2023.pdf
Manual-de-Credenciamento ANATER 2023.pdfManual-de-Credenciamento ANATER 2023.pdf
Manual-de-Credenciamento ANATER 2023.pdf
 
Logica de Progamacao - Aula (1) (1).pptx
Logica de Progamacao - Aula (1) (1).pptxLogica de Progamacao - Aula (1) (1).pptx
Logica de Progamacao - Aula (1) (1).pptx
 
TOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdf
TOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdfTOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdf
TOO - TÉCNICAS DE ORIENTAÇÃO A OBJETOS aula 1.pdf
 
DESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdf
DESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdfDESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdf
DESENVOLVIMENTO DE SOFTWARE I_aula1-2.pdf
 
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docxATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx
 

Modelos de previsão de Ocorrências

  • 1. Classificação de texto com Deep Learning Modelos de previsão de Ocorrências Guttenberg Ferreira Passos O presente artigo tem como objetivo a classificação de textos e a previsão das categorias de ocorrências, através do estudo de modelos de Inteligência Artificial, utilizando Machine Learning e Deep Learning para a classificação de textos e análise das previsões, sugerindo-se a melhor opção com o menor erro. A solução foi projetada para ser implementada em duas etapas: Aprendizado de Máquina e Aplicação, de acordo com o diagrama abaixo da Data Science Academy. Fonte: Data Science Academy O foco desse artigo é a etapa de Aprendizado de Máquina, o desenvolvimento da aplicação está fora do escopo e poderá ser objeto de um trabalho futuro. A solução foi aplicada em um órgão do Estado de Minas Gerais com a coleta de três conjuntos de dados contendo 5.000, 100.000 e 1.740.000 ocorrências respectivamente. O projeto de elaboração dos algoritmos da etapa de Aprendizado de Máquina foi dividido em quatro fases: 1) Elaboração de um protótipo para aprovação do cliente, com a ferramenta Orange, para o treinamento de uma amostra de 5.000 ocorrências e previsão de 300 ocorrências. Nessa etapa foram utilizados algoritmos de Machine Learnig. 2) Elaboração de um programa em Python para o treinamento de uma amostra de 100.000 ocorrências e previsão de 300 ocorrências. Nessa etapa foram utilizados algoritmos de Deep Learnig.
  • 2. 3) Treinamento de uma amostra de 1.700.000 ocorrências e previsão de 300 ocorrências, utilizando o mesmo ambiente. 4) Treinamento de uma amostra de 1.700.000 ocorrências e previsão de 60.000 ocorrências, utilizando o mesmo ambiente. Todos os modelos foram adaptados do site https://orangedatamining.com/, dos vídeos: https://www.youtube.com/watch?v=HXjnDIgGDuI&t=10s&ab_channel=OrangeDataMi ning e das aulas do curso de Deep learning II da Data Science Academy: https://www.datascienceacademy.com.br Algoritmos de Machine Learning utilizados:  AdaBoost  kNN  Logistic Regression  Naive Bayes  Random Forest Algoritmos de Deep Learning utilizados:  LSTM - Long short-term memory  GRU - Gated Recurrent Unit  CNN - Convolutional Neural Networks AdaBoost É um algoritmo de aprendizado de máquina, deriva de Adaptive Boosting (Impulso adaptativo). O AdaBoost é adaptável no sentido de que as classificações subsequentes feitas são ajustadas a favor das instâncias classificadas negativamente por classificações anteriores. O AdaBoost é sensível ao ruído nos dados e casos isolados. Entretanto para alguns problemas é menos suscetível a perda da capacidade de generalização após o aprendizado de muitos padrões de treino (overfitting) do que a maioria dos algoritmos de aprendizado de máquina. kNN É um algoritmo de aprendizado de máquina, o algoritmo kNN procura k exemplos de treinamento mais próximos no espaço de recursos e usa sua média como previsão.
  • 3. Logistic Regression O algoritmo de classificação de regressão logística com regularização LASSO (L1) ou crista (L2). A regressão logística aprende um modelo de regressão logística a partir dos dados. Funciona apenas para tarefas de classificação. Naive Bayes Um classificador probabilístico rápido e simples baseado no teorema de Bayes com a suposição de independência de recurso. Funciona apenas para tarefas de classificação. Random Forest A Random Forest constrói um conjunto de árvores de decisão. Cada árvore é desenvolvida a partir de uma amostra de bootstrap dos dados de treinamento. Ao desenvolver árvores individuais, um subconjunto arbitrário de atributos é desenhado (daí o termo “Aleatório”), a partir do qual o melhor atributo para a divisão é selecionado. O modelo final é baseado na maioria dos votos de árvores desenvolvidas individualmente na floresta. Fonte dos algoritmos de Machine Learning: Wikipédia e https://orange3.readthedocs.io/en/latest LSTM A rede Long Short-Term Memory - LSTM é uma rede neural recorrente, que é usada em diversos cenários de Processamento de Linguagem Natural. A LSTM é uma arquitetura de rede neural recorrente (RNN) que “lembra” valores em intervalos arbitrários. A LSTM é bem adequada para classificar, processar e prever séries temporais com intervalos de tempo de duração desconhecida. A insensibilidade relativa ao comprimento do gap dá uma vantagem à LSTM em relação a RNNs tradicionais (também chamadas “vanilla”), Modelos Ocultos de Markov (MOM) e outros métodos de aprendizado de sequências. GRU A rede Gated Recurrent Unit - GRU visa resolver o problema da dissipação do gradiente que é comum em uma rede neural recorrente padrão. A GRU também pode ser considerada uma variação da LSTM porque ambas são projetadas de maneira semelhante e, em alguns casos, produzem resultados igualmente excelentes. CNN A Rede Convolutional Neural Network - CNN é um algoritmo de Aprendizado Profundo que pode captar uma imagem de entrada, atribuir importância (pesos e vieses que podem ser aprendidos) a vários aspectos / objetos da imagem e ser capaz de
  • 4. diferenciar um do outro. O pré-processamento exigido em uma CNN é muito menor em comparação com outros algoritmos de classificação. Enquanto nos métodos primitivos os filtros são feitos à mão, com treinamento suficiente, as CNN têm a capacidade de aprender esses filtros / características. Fonte dos algoritmos de Deep Learning: https://www.deeplearningbook.com.br Redes neurais são sistemas de computação com nós interconectados que funcionam como os neurônios do cérebro humano. Usando algoritmos, elas podem reconhecer padrões escondidos e correlações em dados brutos, agrupá-los e classificá-los, e com o tempo aprender e melhorar continuamente. O Instituto Asimov https://www.asimovinstitute.org/neural-network-zoo/ publicou uma folha de dicas contendo várias arquiteturas de rede neural, nos concentraremos nas arquiteturas destacadas em vermelho LSTM, GRU e CNN. Fonte: THE ASIMOV INSTITUTE
  • 5. Deep Learning é uma das bases da Inteligência Artificial (IA), um tipo de aprendizado de máquina (Machine Learning) que treina computadores para realizar tarefas como seres humanos, o que inclui reconhecimento de fala, identificação de imagem e previsões, aprendendo com o tempo. Podemos dizer que é uma Rede Neural com várias camadas ocultas: Fase 1 A fase 1 do projeto é o desenvolvimento de um protótipo para a apresentação da solução e sua primeira aprovação pelo cliente. A ferramenta que foi escolhida para essa fase é o Orange Canvas, por se tratar de um ambiente gráfico mais amigável. Nesse ambiente os elementos são arrastados para o canvas sem a necessidade de digitação de linhas de código. O trabalho tem início pela Análise Exploratória dos Dados. Inicialmente foi constatado que a primeira amostra de 5.000 ocorrências estava desbalanceada, figura abaixo. Optou-se por descartar as ocorrências das categorias com menor volume de dados.
  • 6. A primeira fase foi estruturada em três etapas: pré-processamento e análise dos dados, treinamento dos modelos e previsão das categorias das ocorrências. As etapas foram planejadas para facilitar o desenvolvimento e implementação do projeto por serem independentes entre si e seu processamento ser concluído em cada etapa, não necessitando ser repetido na etapa posterior. Fase 1 - Etapa 1: Pré-processamento e análise dos dados Na primeira etapa são realizados a coleta, o pré-processamento e a análise dos dados, conforme a figura abaixo na ferramenta Orange. Foram coletadas amostras de 5.000 ocorrências para o treinamento do modelo e 300 ocorrências para fazer a previsão, simulando um ambiente de produção. Após a coleta, os dados são organizados em um Corpus para a realização do pré- processamento executando-se as ações de Transformação, Tokenização e Filtragem dos dados.
  • 7. As palavras são organizadas em um formato Bag of Words (Saco de Palavras), uma representação simplificadora usada no Processamento de Linguagem Natural - NLP. Nesse modelo, um texto (como uma frase ou um documento) é representado como o saco de suas palavras, desconsiderando a gramática e até mesmo a ordem das palavras, mas mantendo a multiplicidade. O aprendizado de máquina (Machine Learning) é um ramo da inteligência artificial baseado na ideia de que sistemas podem aprender com dados, identificar padrões e tomar decisões com o mínimo de intervenção humana. O aprendizado automático explora o estudo e construção de algoritmos que podem aprender de seus erros e fazer previsões sobre dados. O aprendizado de máquina pode ser classificado em duas categorias: Aprendizado supervisionado: São apresentadas ao computador exemplos de entradas e saídas desejadas. Aprendizado não supervisionado: Nenhum tipo de etiqueta é dado ao algoritmo de aprendizado, deixando-o sozinho para encontrar padrões nas entradas fornecidas. Através do aprendizado não supervisionado é possível identificar os Clusters (Agrupamentos) e sua hierarquia. Com o escalonamento multidimensional (MDS) tem-se um meio de visualizar o nível de similaridade de casos individuais de um conjunto de dados e as regiões dos Clusters. Além disso, tem-se também uma idéia da facilidade ou dificuldade do modelo em fazer suas previsões, quanto mais agrupadas as ocorrências em determinada região maior poderá ser a probabilidade de acerto do modelo.
  • 8. Fase 1 - Etapa 2: Treinamento dos modelos A segunda etapa é o treinamento dos modelos utilizando os seguintes algoritmos de Machine Learning: AdaBoost, kNN, Logistic Regression, Naive Bayes e Random Forest. A performance geral dos modelos pode ser medida através de sua Acurácia (CA), proximidade de um resultado com o seu valor de referência real. Dessa forma, quanto maior a acurácia, mais próximo da referência ou valor real é o resultado encontrado.
  • 9. Os acertos e os erros identificados no resultado podem ser analisados através da Matriz de Confusão. Na diagonal principal da matriz encontram-se os acertos, previsões corretas de acordo com o conjunto real. Os erros estão fora da diagonal principal, previsões incorretas de acordo com o conjunto real. Fase 1 - Etapa 3: Previsão das categorias das ocorrências A última etapa do protótipo, fase 1 do projeto, é a previsão das categorias das ocorrências, realizadas por cada algoritmo de machine learning.
  • 10. O resultado pode ser obtido através da classificação probabilística de observações, caracterizando-as em classes pré-definidas. A classe prevista será a que possuir maior probabilidade: Fases 2, 3 e 4 Para as fases 2, 3 e 4 do projeto foram elaborados programas na linguagem Python para análise, treinamento e previsão das ocorrências, utilizando os seguintes algoritmos de Deep Learnig: LSTM, GRU e CNN. Foram fornecidas amostras de 100.000 e 1.700.000 ocorrências para o treinamento e para previsão amostras de 300 e 60.000 ocorrências, utilizando o mesmo ambiente. As novas amostras de ocorrências foram pré-processadas e estavam balanceadas: Os programas desenvolvidos foram estruturados respeitando as mesmas três etapas da fase anterior: pré-processamento e análise dos dados, treinamento dos modelos e previsão das categorias das ocorrências. Na etapa 1 foram utilizadas diversas técnicas de pré-processamento dos dados semelhantes ás utilizadas no ambiente Orange Canvas. Na segunda etapa foram desenvolvidas diferentes arquiteturas para cada algoritmo de Deep Learnig.
  • 11. Modelo 1 LSTMs - Camadas da Rede Neural: Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding (Embedding) (None, 250, 100) 5000000 _________________________________________________________________ lstm (LSTM) (None, 100) 80400 _________________________________________________________________ dense (Dense) (None, 6) 606 ================================================================= Total params: 5,081,006 Trainable params: 5,081,006 Non-trainable params: 0 Modelo 2 LSTMs e CNNs - Camadas da Rede Neural: Model: "sequential_1" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_1 (Embedding) (None, 250, 100) 5000000 _________________________________________________________________ conv1d (Conv1D) (None, 250, 32) 9632 _________________________________________________________________ max_pooling1d (MaxPooling1D) (None, 125, 32) 0 _________________________________________________________________ lstm_1 (LSTM) (None, 125, 100) 53200 _________________________________________________________________ lstm_2 (LSTM) (None, 100) 80400 _________________________________________________________________ dense_1 (Dense) (None, 6) 606 ================================================================= Total params: 5,143,838 Trainable params: 5,143,838 Non-trainable params: 0 Modelo 3 LSTMs com Dropout - Camadas da Rede Neural: Model: "sequential_2" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_2 (Embedding) (None, 250, 100) 5000000 _________________________________________________________________ lstm_3 (LSTM) (None, 250, 200) 240800 _________________________________________________________________ lstm_4 (LSTM) (None, 200) 320800 _________________________________________________________________ dense_2 (Dense) (None, 6) 1206 ================================================================= Total params: 5,562,806 Trainable params: 5,562,806 Non-trainable params: 0
  • 12. Modelo 4 GRU - Camadas da Rede Neural: Model: "sequential_1" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_1 (Embedding) (None, 250, 100) 5000000 _________________________________________________________________ gru (GRU) (None, 100) 60600 _________________________________________________________________ dense (Dense) (None, 6) 606 ================================================================= Total params: 5,061,206 Trainable params: 5,061,206 Non-trainable params: 0 Modelo 5 GRU e CNN - Camadas da Rede Neural: Model: "sequential_2" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_2 (Embedding) (None, 250, 100) 5000000 _________________________________________________________________ conv1d (Conv1D) (None, 250, 32) 9632 _________________________________________________________________ max_pooling1d (MaxPooling1D) (None, 125, 32) 0 _________________________________________________________________ gru_1 (GRU) (None, 125, 100) 40200 _________________________________________________________________ gru_2 (GRU) (None, 100) 60600 _________________________________________________________________ dense_1 (Dense) (None, 6) 606 ================================================================= Total params: 5,111,038 Trainable params: 5,111,038 Non-trainable params: 0
  • 13. Modelo 6 GRU com Dropout - Camadas da Rede Neural: Model: "sequential_3" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_3 (Embedding) (None, 250, 100) 5000000 _________________________________________________________________ gru_3 (GRU) (None, 250, 200) 181200 _________________________________________________________________ gru_4 (GRU) (None, 200) 241200 _________________________________________________________________ dense_2 (Dense) (None, 6) 1206 ================================================================= Total params: 5,423,606 Trainable params: 5,423,606 Non-trainable params: 0 Conclusão Neste trabalho, sem pretensão alguma de esgotar o assunto, demonstrou-se que os modelos fundamentados em Deep Learning tiveram um resultado melhor que os demais algoritmos, conforme figura abaixo: Considera-se excelente o desempenho alcançado pela combinação dos algoritmos LSTM e CNN, com acurácia de 97%. Recomenda-se, portanto, a adoção desse modelo para o desenvolvimento da aplicação de Previsão de Ocorrências em produção.