O presente artigo tem como objetivo a classificação de textos e a previsão das categorias de ocorrências, através do estudo de modelos de Inteligência Artificial, utilizando Machine Learning e Deep Learning para a classificação de textos e análise das previsões, sugerindo-se a melhor opção com o menor erro.
O documento discute previsões de séries temporais utilizando modelos lineares e não lineares. É apresentada uma análise da arrecadação de ICMS usando métodos estatísticos como regressão linear e Exponential Smoothing, além de algoritmos de deep learning como LSTM e redes neurais recorrentes. Os resultados indicam que os modelos de IA como LSTM superaram os modelos estatísticos na previsão da arrecadação de ICMS.
O documento discute o uso de inteligência artificial e dinâmica de sistemas para simular cenários e estratégias de atendimento à população no combate à Covid-19 no Brasil. Os autores desenvolveram modelos preditivos com algoritmos como LSTM e redes neurais recorrentes para prever fatores como distanciamento social e ajudar na tomada de decisões. Os modelos foram adaptados de cursos de modelagem preditiva de séries temporais.
Data Mining e Machine Learning com Python - Mateus Grellert - Tchelinux Pelot...Tchelinux
Este documento apresenta um resumo sobre data mining e machine learning com Python. Ele introduz os conceitos de ciência de dados, data mining e machine learning, discute exemplos de aplicações e fontes de dados. Também aborda ferramentas em Python como pandas e scikit-learn, e o fluxo de projeto que inclui limpeza, visualização, transformação, treinamento e avaliação de modelos preditivos.
Guia completo para definição de estatística de modelos e algoritmos de machin...Geanderson Lenz
1. O documento apresenta um guia completo sobre definição de estatística e algoritmos de machine learning utilizados em projetos de data science para negócios.
2. Inclui seções sobre aprendizagem supervisionada, não supervisionada, reinforcement learning e drivers de escolha de modelos.
3. Fornece descrições de algoritmos como regressão linear, logística, árvores de decisão e random forest com códigos em R e Python.
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
SVM é um algoritmo de aprendizado de máquina supervisionado usado para classificação e regressão. Ele constrói um hiperplano que separa classes de dados rotulados no espaço de recursos. Os vetores de suporte são os pontos mais próximos do hiperplano e ajudam a definir sua posição. SVM busca o hiperplano que maximiza a margem entre classes.
O documento apresenta conceitos e métodos de aprendizado de máquina, incluindo: (1) definições de aprendizado supervisionado e não-supervisionado, (2) exemplos de problemas como classificação e regressão, (3) paradigmas como simbólico, estatístico e conexionista, e (4) árvores de decisão como método de aprendizado supervisionado.
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
O documento discute três algoritmos clássicos de inteligência artificial: árvores de decisão, máquinas de vetor de suporte e Naive Bayes. Árvores de decisão dividem recursivamente um problema em subproblemas mais simples. Máquinas de vetor de suporte constroem um hiperplano que separa classes de dados. Naive Bayes faz previsões com base na probabilidade condicional de recursos, supondo independência entre eles.
O documento discute previsões de séries temporais utilizando modelos lineares e não lineares. É apresentada uma análise da arrecadação de ICMS usando métodos estatísticos como regressão linear e Exponential Smoothing, além de algoritmos de deep learning como LSTM e redes neurais recorrentes. Os resultados indicam que os modelos de IA como LSTM superaram os modelos estatísticos na previsão da arrecadação de ICMS.
O documento discute o uso de inteligência artificial e dinâmica de sistemas para simular cenários e estratégias de atendimento à população no combate à Covid-19 no Brasil. Os autores desenvolveram modelos preditivos com algoritmos como LSTM e redes neurais recorrentes para prever fatores como distanciamento social e ajudar na tomada de decisões. Os modelos foram adaptados de cursos de modelagem preditiva de séries temporais.
Data Mining e Machine Learning com Python - Mateus Grellert - Tchelinux Pelot...Tchelinux
Este documento apresenta um resumo sobre data mining e machine learning com Python. Ele introduz os conceitos de ciência de dados, data mining e machine learning, discute exemplos de aplicações e fontes de dados. Também aborda ferramentas em Python como pandas e scikit-learn, e o fluxo de projeto que inclui limpeza, visualização, transformação, treinamento e avaliação de modelos preditivos.
Guia completo para definição de estatística de modelos e algoritmos de machin...Geanderson Lenz
1. O documento apresenta um guia completo sobre definição de estatística e algoritmos de machine learning utilizados em projetos de data science para negócios.
2. Inclui seções sobre aprendizagem supervisionada, não supervisionada, reinforcement learning e drivers de escolha de modelos.
3. Fornece descrições de algoritmos como regressão linear, logística, árvores de decisão e random forest com códigos em R e Python.
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
SVM é um algoritmo de aprendizado de máquina supervisionado usado para classificação e regressão. Ele constrói um hiperplano que separa classes de dados rotulados no espaço de recursos. Os vetores de suporte são os pontos mais próximos do hiperplano e ajudam a definir sua posição. SVM busca o hiperplano que maximiza a margem entre classes.
O documento apresenta conceitos e métodos de aprendizado de máquina, incluindo: (1) definições de aprendizado supervisionado e não-supervisionado, (2) exemplos de problemas como classificação e regressão, (3) paradigmas como simbólico, estatístico e conexionista, e (4) árvores de decisão como método de aprendizado supervisionado.
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
O documento discute três algoritmos clássicos de inteligência artificial: árvores de decisão, máquinas de vetor de suporte e Naive Bayes. Árvores de decisão dividem recursivamente um problema em subproblemas mais simples. Máquinas de vetor de suporte constroem um hiperplano que separa classes de dados. Naive Bayes faz previsões com base na probabilidade condicional de recursos, supondo independência entre eles.
1) O documento apresenta o programa da disciplina de Redes Neurais ministrada pelo professor Germano Vasconcelos, abordando os fundamentos, modelos, aplicações e projeto prático.
2) As aulas abordam tópicos como redes feedforward, recorrentes, auto-organizáveis e construtivas, além de aplicações como reconhecimento de padrões e previsão.
3) Os alunos deverão desenvolver um projeto aplicando redes neurais a um problema do mundo real.
1) O documento discute técnicas de aprendizagem automática supervisionada como regressão, classificação e redes neurais artificiais.
2) A retropropagação é descrita como um método para treinar redes neurais através da propagação de erros e atualização dos pesos para minimizar o erro.
3) Várias técnicas são discutidas para acelerar a convergência da retropropagação incluindo taxas de aprendizagem adaptativas e momento.
O documento descreve Redes Neurais Artificiais, incluindo que são modelos computacionais inspirados no sistema nervoso central capazes de aprendizado de máquina e reconhecimento de padrões. Exemplos de aplicação incluem reconhecimento de voz e escrita. O documento também discute como redes neurais artificiais são abstrações da biologia trazidas para a computação.
O documento discute redes neurais artificiais, definindo seus componentes e tipos de aprendizagem. Aprendizado supervisionado é usado para reconhecimento de padrões, enquanto aprendizado não supervisionado é usado quando as classes de padrões são desconhecidas. Aprendizado por reforço é usado para treinar comportamentos de robôs.
A rede neural supervisionada chamada perceptron multicamadascesar do amaral
1) O documento discute o uso de redes neurais supervisionadas e árvores de decisão para analisar os dados de uma concessionária de automóveis.
2) Os dados incluem informações sobre clientes e suas respostas a ofertas de garantia estendida.
3) As técnicas de aprendizagem de máquina são aplicadas usando o software Weka para identificar padrões nos dados e prever as respostas dos clientes.
Generalização, validação e comparação de resultadosLuís Nunes
O documento discute conceitos fundamentais de aprendizagem automática, incluindo generalização versus overfitting, avaliação de modelos em conjuntos de treino e teste, e validação cruzada para evitar overfitting. Ele também explica como calcular e interpretar intervalos de confiança para comparar resultados de modelos.
O documento discute algoritmos e análise de algoritmos. Explica que um algoritmo é uma sequência de instruções para resolver um problema e que estruturas de dados são formas de armazenar informações. Também aborda como analisar algoritmos, variáveis na análise como tempo e espaço, e conceitos como complexidade, notação O grande e técnicas de projeto de algoritmos.
1. O documento discute redes neurais artificiais, incluindo como funcionam, exemplos e aplicações.
2. Redes neurais são inspiradas no sistema nervoso biológico e podem resolver problemas complexos como classificação de imagens.
3. A aprendizagem em redes neurais envolve minimizar uma função de custo usando o método do gradiente e retropropagação da taxa de erro.
Bubble sort ordena elementos trocando adjacentes fora de ordem repetidamente até ordenar. Quick sort escolhe um pivô e particiona o array, ordenando subconjuntos separadamente de forma recursiva. Quick sort é mais rápido que bubble sort para grandes conjuntos, mas sua implementação é mais complexa.
O documento discute a análise de algoritmos. Ele explica que a análise de algoritmos avalia a complexidade dos algoritmos para entender sua eficiência. O objetivo da aula é desenvolver habilidades para julgar algoritmos de forma elementar, considerando critérios como tempo de execução e uso de memória. A complexidade é medida em termos do número de operações executadas em função do tamanho da entrada.
1. O documento descreve o plano de ensino de uma disciplina de Algoritmos e Estrutura de Dados I no curso de Engenharia de Computação. Ele inclui a ementa, objetivos, conteúdos, bibliografia e apêndice de exercícios.
2. Os conteúdos abordam tópicos como tipos de dados, variáveis, operadores, estruturas de controle de fluxo, estruturas de dados homogêneas e heterogêneas, subalgoritmos e linguagem de programação.
3. O
1 - Apresenta GANs como modelos gerativos baseados em redes neurais que treinam um gerador e um discriminador de forma adversária para gerar novos dados semelhantes aos reais.
2 - Explica que o gerador gera amostras e o discriminador identifica se as amostras são reais ou geradas, com o treinamento buscando enganar um ao outro de forma adversária.
3 - Demonstra uma implementação básica de GAN com PyTorch, apresentando o conjunto de dados, redes neural do gerador e discriminador, função custo, ot
O documento discute aprendizado de máquina, apresentando seus principais conceitos e técnicas. Aborda aprendizado supervisionado e não-supervisionado, exemplos, atributos e classes. Também explica árvores de decisão, redes neurais artificiais e os algoritmos de perceptron e backpropagation.
Este documento discute redes neurais artificiais, incluindo neurônios naturais e artificiais, o histórico do desenvolvimento de redes neurais, perceptrons, redes perceptron multicamadas e backpropagation. Exemplos recentes de aplicações de redes neurais como Neurogrid, redes sonhadoras do Google e sistemas de reconhecimento de voz e imagens também são discutidos.
Este documento discute a lógica fuzzy, definindo-a como uma lógica multivalorada que permite graus parciais de pertinência em conjuntos. Explica como a lógica fuzzy modela o raciocínio humano impreciso através de conjuntos fuzzy, regras fuzzy e um processo de inferência difusa estilo Mamdani. Finalmente, lista alguns domínios de aplicação como sistemas especialistas e controle inteligente.
O documento discute conceitos sobre algoritmos e complexidade algorítmica. Aborda o que é um algoritmo, análise de algoritmos, complexidade de algoritmos e critérios para escolha de algoritmos, enfatizando a importância da eficiência.
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...Wilian França Costa
O documento discute a representação de incertezas em serviços geoespaciais como Serviços de Observação de Sensores (SOS) e Geoprocessamento (WPS) utilizando o padrão UncertML. Apresenta a motivação para representar incertezas, exemplos, como a incerteza é representada atualmente e como pode ser representada utilizando UncertML, melhorando a interoperabilidade.
1. O documento apresenta os conceitos fundamentais de análise de algoritmos, incluindo definições de algoritmo, medidas de complexidade e notação O.
2. São discutidas várias funções de complexidade como n, n log n, n2, n3 e 2n e como elas afetam o tamanho dos problemas que podem ser resolvidos em determinados períodos de tempo.
3. A análise de complexidade é importante para escolher algoritmos eficientes e entender como melhorias na velocidade dos computadores podem afetar qual tamanho de problema cada algoritmo
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDPDaniel Baptista Dias
Este documento apresenta uma introdução aos Processos Markovianos de Decisão (MDPs), descrevendo: (1) O que são MDPs e como eles podem ser usados para modelar problemas de planejamento probabilístico; (2) O modelo formal de um MDP com estados, ações, funções de transição, recompensa e custo; (3) Como MDPs podem representar problemas como a navegação de um robô com incertezas.
O documento discute sistemas de recomendação utilizando machine learning e deep learning. Ele descreve o pré-processamento de dados, a aplicação de vários algoritmos de machine learning como kNN, XGBoost e random forest, e o desenvolvimento de um modelo de autoencoder para filtragem colaborativa usando deep learning. O documento conclui que o naive bayes teve o melhor desempenho entre os algoritmos de machine learning, mas que deep learning é uma boa solução para lidar com grandes volumes de dados.
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem VisualAhirton Lopes
O documento discute deep learning, incluindo conceitos como redes neurais profundas, aprendizagem profunda, aprendizagem por reforço profundo e aprendizagem não supervisionada. Também aborda ferramentas como computação quântica e chips cognitivos, além de aplicações atuais e futuras de deep learning.
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem VisualAhirton Lopes
Nesta palestra são apresentados os principais conceitos em Aprendizagem Profunda (do inglês, Deep Learning), ou seja, a utilização de topologias de Redes Neurais as quais envolvem várias camadas escondidas, tais como explanações quanto a estrutura de neurônios artificiais, funções de ativação, como se dá o fluxo de treinamento, regra do gradiente descendente bem como demonstração das principais aplicações tais como Deep Autoencoders (compressão e descompressão de arquivos de áudio, vídeo etc.), CNNs (redes neurais convolucionais), RNNs (redes neurais recorrentes) dentre outros se utilizando de Keras, TensorFlow etc.
1) O documento apresenta o programa da disciplina de Redes Neurais ministrada pelo professor Germano Vasconcelos, abordando os fundamentos, modelos, aplicações e projeto prático.
2) As aulas abordam tópicos como redes feedforward, recorrentes, auto-organizáveis e construtivas, além de aplicações como reconhecimento de padrões e previsão.
3) Os alunos deverão desenvolver um projeto aplicando redes neurais a um problema do mundo real.
1) O documento discute técnicas de aprendizagem automática supervisionada como regressão, classificação e redes neurais artificiais.
2) A retropropagação é descrita como um método para treinar redes neurais através da propagação de erros e atualização dos pesos para minimizar o erro.
3) Várias técnicas são discutidas para acelerar a convergência da retropropagação incluindo taxas de aprendizagem adaptativas e momento.
O documento descreve Redes Neurais Artificiais, incluindo que são modelos computacionais inspirados no sistema nervoso central capazes de aprendizado de máquina e reconhecimento de padrões. Exemplos de aplicação incluem reconhecimento de voz e escrita. O documento também discute como redes neurais artificiais são abstrações da biologia trazidas para a computação.
O documento discute redes neurais artificiais, definindo seus componentes e tipos de aprendizagem. Aprendizado supervisionado é usado para reconhecimento de padrões, enquanto aprendizado não supervisionado é usado quando as classes de padrões são desconhecidas. Aprendizado por reforço é usado para treinar comportamentos de robôs.
A rede neural supervisionada chamada perceptron multicamadascesar do amaral
1) O documento discute o uso de redes neurais supervisionadas e árvores de decisão para analisar os dados de uma concessionária de automóveis.
2) Os dados incluem informações sobre clientes e suas respostas a ofertas de garantia estendida.
3) As técnicas de aprendizagem de máquina são aplicadas usando o software Weka para identificar padrões nos dados e prever as respostas dos clientes.
Generalização, validação e comparação de resultadosLuís Nunes
O documento discute conceitos fundamentais de aprendizagem automática, incluindo generalização versus overfitting, avaliação de modelos em conjuntos de treino e teste, e validação cruzada para evitar overfitting. Ele também explica como calcular e interpretar intervalos de confiança para comparar resultados de modelos.
O documento discute algoritmos e análise de algoritmos. Explica que um algoritmo é uma sequência de instruções para resolver um problema e que estruturas de dados são formas de armazenar informações. Também aborda como analisar algoritmos, variáveis na análise como tempo e espaço, e conceitos como complexidade, notação O grande e técnicas de projeto de algoritmos.
1. O documento discute redes neurais artificiais, incluindo como funcionam, exemplos e aplicações.
2. Redes neurais são inspiradas no sistema nervoso biológico e podem resolver problemas complexos como classificação de imagens.
3. A aprendizagem em redes neurais envolve minimizar uma função de custo usando o método do gradiente e retropropagação da taxa de erro.
Bubble sort ordena elementos trocando adjacentes fora de ordem repetidamente até ordenar. Quick sort escolhe um pivô e particiona o array, ordenando subconjuntos separadamente de forma recursiva. Quick sort é mais rápido que bubble sort para grandes conjuntos, mas sua implementação é mais complexa.
O documento discute a análise de algoritmos. Ele explica que a análise de algoritmos avalia a complexidade dos algoritmos para entender sua eficiência. O objetivo da aula é desenvolver habilidades para julgar algoritmos de forma elementar, considerando critérios como tempo de execução e uso de memória. A complexidade é medida em termos do número de operações executadas em função do tamanho da entrada.
1. O documento descreve o plano de ensino de uma disciplina de Algoritmos e Estrutura de Dados I no curso de Engenharia de Computação. Ele inclui a ementa, objetivos, conteúdos, bibliografia e apêndice de exercícios.
2. Os conteúdos abordam tópicos como tipos de dados, variáveis, operadores, estruturas de controle de fluxo, estruturas de dados homogêneas e heterogêneas, subalgoritmos e linguagem de programação.
3. O
1 - Apresenta GANs como modelos gerativos baseados em redes neurais que treinam um gerador e um discriminador de forma adversária para gerar novos dados semelhantes aos reais.
2 - Explica que o gerador gera amostras e o discriminador identifica se as amostras são reais ou geradas, com o treinamento buscando enganar um ao outro de forma adversária.
3 - Demonstra uma implementação básica de GAN com PyTorch, apresentando o conjunto de dados, redes neural do gerador e discriminador, função custo, ot
O documento discute aprendizado de máquina, apresentando seus principais conceitos e técnicas. Aborda aprendizado supervisionado e não-supervisionado, exemplos, atributos e classes. Também explica árvores de decisão, redes neurais artificiais e os algoritmos de perceptron e backpropagation.
Este documento discute redes neurais artificiais, incluindo neurônios naturais e artificiais, o histórico do desenvolvimento de redes neurais, perceptrons, redes perceptron multicamadas e backpropagation. Exemplos recentes de aplicações de redes neurais como Neurogrid, redes sonhadoras do Google e sistemas de reconhecimento de voz e imagens também são discutidos.
Este documento discute a lógica fuzzy, definindo-a como uma lógica multivalorada que permite graus parciais de pertinência em conjuntos. Explica como a lógica fuzzy modela o raciocínio humano impreciso através de conjuntos fuzzy, regras fuzzy e um processo de inferência difusa estilo Mamdani. Finalmente, lista alguns domínios de aplicação como sistemas especialistas e controle inteligente.
O documento discute conceitos sobre algoritmos e complexidade algorítmica. Aborda o que é um algoritmo, análise de algoritmos, complexidade de algoritmos e critérios para escolha de algoritmos, enfatizando a importância da eficiência.
Apresentação Representação de Incertezas em OGC-SWE - SOS e WPS Services 52No...Wilian França Costa
O documento discute a representação de incertezas em serviços geoespaciais como Serviços de Observação de Sensores (SOS) e Geoprocessamento (WPS) utilizando o padrão UncertML. Apresenta a motivação para representar incertezas, exemplos, como a incerteza é representada atualmente e como pode ser representada utilizando UncertML, melhorando a interoperabilidade.
1. O documento apresenta os conceitos fundamentais de análise de algoritmos, incluindo definições de algoritmo, medidas de complexidade e notação O.
2. São discutidas várias funções de complexidade como n, n log n, n2, n3 e 2n e como elas afetam o tamanho dos problemas que podem ser resolvidos em determinados períodos de tempo.
3. A análise de complexidade é importante para escolher algoritmos eficientes e entender como melhorias na velocidade dos computadores podem afetar qual tamanho de problema cada algoritmo
Planejamento Probabilístico - Uma introdução aos MDPs e aos algoritmos IV e RTDPDaniel Baptista Dias
Este documento apresenta uma introdução aos Processos Markovianos de Decisão (MDPs), descrevendo: (1) O que são MDPs e como eles podem ser usados para modelar problemas de planejamento probabilístico; (2) O modelo formal de um MDP com estados, ações, funções de transição, recompensa e custo; (3) Como MDPs podem representar problemas como a navegação de um robô com incertezas.
O documento discute sistemas de recomendação utilizando machine learning e deep learning. Ele descreve o pré-processamento de dados, a aplicação de vários algoritmos de machine learning como kNN, XGBoost e random forest, e o desenvolvimento de um modelo de autoencoder para filtragem colaborativa usando deep learning. O documento conclui que o naive bayes teve o melhor desempenho entre os algoritmos de machine learning, mas que deep learning é uma boa solução para lidar com grandes volumes de dados.
[Ahirton Lopes e Rafael Arevalo] Deep Learning - Uma Abordagem VisualAhirton Lopes
O documento discute deep learning, incluindo conceitos como redes neurais profundas, aprendizagem profunda, aprendizagem por reforço profundo e aprendizagem não supervisionada. Também aborda ferramentas como computação quântica e chips cognitivos, além de aplicações atuais e futuras de deep learning.
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem VisualAhirton Lopes
Nesta palestra são apresentados os principais conceitos em Aprendizagem Profunda (do inglês, Deep Learning), ou seja, a utilização de topologias de Redes Neurais as quais envolvem várias camadas escondidas, tais como explanações quanto a estrutura de neurônios artificiais, funções de ativação, como se dá o fluxo de treinamento, regra do gradiente descendente bem como demonstração das principais aplicações tais como Deep Autoencoders (compressão e descompressão de arquivos de áudio, vídeo etc.), CNNs (redes neurais convolucionais), RNNs (redes neurais recorrentes) dentre outros se utilizando de Keras, TensorFlow etc.
[Jose Ahirton Lopes] Deep Learning - Uma Abordagem VisualAhirton Lopes
O documento resume os principais conceitos e aplicações de deep learning. Ele explica como as redes neurais profundas aprendem representações abstratas de dados através de múltiplas camadas e como são treinadas usando gradiente descendente. Também discute redes convolucionais, recorrentes e autoencoders, e como o deep learning está sendo aplicado em áreas como geração de legendas, processamento de linguagem natural e visão computacional.
[Jose Ahirton lopes] Do Big ao Better DataAhirton Lopes
Dia 09/04/2019 conseguimos lotar a IBM com muito conhecimento sobre Inteligência Artificial, Big Data e Tensorflow e eu estava mais que bem acompanhado pelos excelentes Sergio Gama, Fabio Gandour e Romeo Kienzler.
Nesta apresentação mostro o básico do desenvolvimento em Deep Learning, novas técnicas, aplicações atuais e futuras e faço algumas discussões a respeito do que vem por aí num futuro cada vez mais próximo.
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem VisualAhirton Lopes
A inteligência artificial (IA) é um campo multidisciplinar da ciência cujo objetivo é criar máquinas inteligentes; mais especificamente, IA é um multiplicador de forças no progresso tecnológico, tendo em vista nosso mundo cada vez mais digital e orientado a dados. A verdade é que tudo ao nosso redor hoje, desde a cultura até os produtos de consumo, são produtos da inteligência. Nesta apresentação pretende-se demonstrar um pouco do progresso exponencial em IA atual, com foco nos desenvolvimentos mais recentes.
Análise de Técnicas Computacionais para Classificação de EmoçõesAdilmar Dantas
1) O documento apresenta um estudo comparativo de algoritmos de classificação para detecção de emoções faciais, avaliando k-NN, SVM, NB, BN, MLP e LMT.
2) Foram realizados experimentos com a base de dados MUG para analisar a taxa de acerto dos algoritmos e seleção de atributos faciais.
3) O objetivo é investigar qual algoritmo tem melhor desempenho na classificação de sete emoções básicas a partir de coordenadas faciais.
One of the biggest dilemmas faced by decision-making systems is to determine an efficient means to produce classifiers from data base regarding the processing time and the form of simple symbolic representation understandable that facilitates the analysis of the problem in question. In this brief report we will discuss a very popular tool in knowledge discovery in databases process and thus aid in making decisions: the Decision Trees.
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...Ricardo Brasil
Este documento descreve diferentes tipos de redes neurais artificiais no software STATISTICA e aplica essas redes para modelar a expansão urbana da cidade de Maputo. Os autores treinam redes neurais com dados sobre declive, uso do solo e vias para Maputo em 1991 e 2001 e analisam os resultados para comparar os diferentes tipos de redes.
Este documento apresenta um algoritmo para detecção de faces em imagens utilizando redes neurais do tipo perceptron multicamadas (MLP). O algoritmo passa por etapas de captura de imagens, extração de características com filtros de Gabor, classificação com MLP e avaliação dos resultados. Testes com diferentes configurações da camada oculta mostraram que uma única unidade oculta obteve a melhor taxa de acerto de 97% com menos épocas de treinamento.
[Jose Ahirton Lopes] Inteligencia Artificial - Uma Abordagem VisualAhirton Lopes
O documento discute os conceitos e aplicações da inteligência artificial e aprendizagem profunda, incluindo redes neurais convolucionais, recorrentes e autoencoders. Também aborda tópicos como deep learning, hardware para IA, conclusões e desafios futuros.
O documento discute a aplicação da inteligência artificial para sistemas colaborativos, mencionando técnicas como ontologias, mineração de dados e redes neurais que podem apoiar a comunicação e coordenação entre pessoas. A inteligência artificial também pode ajudar na resolução de conflitos em trabalhos colaborativos.
Rede Neural MLP para reconhecimento de FacesAdilmar Dantas
Este documento apresenta um algoritmo de reconhecimento facial usando redes neurais MLP. É descrito o processo de extração de características das imagens, treinamento da rede neural e teste do sistema em diferentes configurações, alcançando taxa de acerto de até 98,33%.
Clustering é uma técnica de agrupamento de dados não supervisionado onde objetos similares são agrupados em clusters. Existem vários algoritmos de clustering que diferem na forma como formam os grupos e eficiência. Clustering é amplamente usado em mineração de dados e análise estatística.
O documento discute aprendizagem profunda (deep learning) e redes neurais artificiais. Aborda como os algoritmos de deep learning dependem de unidades não lineares estruturadas em múltiplas camadas e como isso permite representar regiões de dados de forma mais eficiente do que modelos menos profundos. Também explica como a aprendizagem de representações é fundamental para o deep learning, inspirando-se nos processos de aprendizagem visual no cérebro.
O documento descreve três ferramentas utilizadas: redes neurais, lógica fuzzy e mapas auto-organizáveis de Kohonen. Ele explica em detalhes como redes neurais artificiais funcionam de forma semelhante ao cérebro humano, aprendendo através de exemplos e armazenando conhecimento nos pesos sinápticos. Também descreve como mapas de Kohonen realizam agrupamento de dados de forma não supervisionada através de um processo de auto-organização.
O documento discute o aprendizado de máquina e ciência de dados usando FreeBSD. Ele fornece uma introdução ao aprendizado de máquina, incluindo coleta e preparação de dados, treinamento e avaliação de modelos. Também lista pacotes equivalentes em FreeBSD para os pacotes populares de ciência de dados em Anaconda.
Semelhante a Modelos de previsão de Ocorrências (20)
This article aims to classify texts and predict the categories of occurrences, through the study of Artificial Intelligence models, using Machine Learning and Deep Learning for the classification of texts and analysis of predictions, suggesting the best option with the smallest error.
The solution was designed to be implemented in two stages: Machine Learning and Application, according to the diagram below from the Data Science Academy.
This article aims to contribute to a population service strategy in the fight against Covid-19, through a scenario simulator with Artificial Intelligence and System Dynamics.
In February 2021, relevant changes were announced in Brazil in the fight against Covid-19, especially regarding vaccination. This article addresses a series of predictions to assist in the strategy of serving the population in the fight against this disease. It is a good opportunity to better understand the "invisible" factors that affect the people's contamination.
To help model these "invisible" factors, social distancing data was obtained, this data was passed as input to an Artificial Intelligence system and predictions were performed in Deep Learning (LSTM). The prediction of the social distancing variable was exported to calibrate the model in System Dynamics, with the Stella software, and the simulations were made with a Covid-19 model.
This document discusses developing a capacity prediction model for event management. It involves:
1. Developing a capacity model as part of event management to focus on major alarms from file system events monitored by Spectrum tool.
2. Correlating file system data with memory and CPU usage to predict the percentage of file system occupancy over time through statistical modeling.
3. The models generate predictions of when major alarms on file system partitions will occur based on the estimated average usage rate and time remaining until the alarm threshold is reached.
We are living in an era where changes are taking place very quickly.
Imagine a scenario where we can use Machine Learning to identify changes that are associated with incidents and problems.
Then classify them using the Cynefin framework to determine the context of change according to the 5 domains: simple, complicated, complex, chaotic and disorder (natural science).
Come up with a Decision Intelligence model that can provide the best answer to the potential problems caused by this ever evolving environment.
Finally add the Requests to the Incident Model, as ITSM focus, on IT4IT Value Stream Network!
Using Machine Learning embedded in Organizational Responsibility Model, added to the ten characteristics of the CIO Master and the twelve competencies of the workforce can help lead the Digital Transformation of the traditional public organizations to the Exponential.
The document describes a problem prediction model that uses artificial intelligence algorithms to evaluate changes made by an IT company and anticipate potential problems. The model analyzed 194 known problems, 2,400 past changes, and 201 predicted future changes. As a result, the model identified one change from October 29, 2019 that was likely to cause a problem. A team is investigating this potential issue. The document concludes that the naive Bayes classifier model is an important tool for change analysis and problem prediction.
O documento descreve um projeto de implantação do Modelo de Responsabilidade Organizacional na Prodemge entre 2015-2018, com o objetivo de preparar a organização para a transformação digital. O projeto envolveu a qualificação da demanda, plano de capacidade, acordos de nível operacional, otimização da produtividade, evolução dos empregados e loops entre áreas. A estratégia foi transpor dados da simulação do modelo para a realidade da empresa e usá-los em aprendizado de máquina para prever como atividades deveriam ser executadas no modo
Objetivando preparar as líderes e organizações para o futuro (do tradicional para o exponencial), o Modelo de Responsabilidade Organizacional foi adaptado para abranger além do contexto analítico, com Inteligência Artificial e Aprendizagem de Máquina, o contexto mais subjetivo com Dez Características do Mestre CIO (por Álvaro Mello), bem como as doze Competências da Força de Trabalho (por Lily Mok).
1. O documento apresenta análises exploratórias de dados e modelos de classificação para prever se uma organização é tradicional ou exponencial com base em suas características. 2. É treinado um modelo de floresta aleatória que identifica "Demandas Pendentes" como a característica mais importante. 3. Também é construída uma árvore de decisão para classificação e são comparadas suas previsões com as do modelo de floresta aleatória.
1. O documento descreve a análise exploratória de dados (EDA) de um modelo de responsabilidade organizacional simulado no NetLogo para identificar as variáveis mais importantes.
2. Uma árvore de decisão é treinada usando as variáveis do modelo e a importância das variáveis é calculada, com "Demandas Atendidas" e "Demandas Pendentes" sendo as mais importantes.
3. Um gráfico é gerado mostrando a estrutura da árvore de decisão treinada.
O documento descreve uma oficina realizada pela ABEP sobre o Framework de Arquitetura Corporativa para Interoperabilidade (FACIN). O objetivo da oficina foi ensinar órgãos estaduais de TIC a implementarem o FACIN para desenvolver aplicações interoperáveis e de baixo custo. Como exemplo, o documento detalha a aplicação do FACIN em um projeto do estado de Minas Gerais para implantar uma solução corporativa de geoprocessamento.
O documento discute um modelo de rede de maturidade em governança corporativa desenvolvido para mapear o alinhamento entre as recomendações do Decreto no 47.154 de Minas Gerais, que regulamenta a Lei das Estatais, e boas práticas de governança. O modelo consiste em dimensões e níveis de maturidade e permite visualizar as práticas associadas a cada nível e sua relação com os artigos do Decreto.
A Inteligência Artificial contribui para criar, ampliar e melhorar os sistemas de serviços, estabelecendo os algoritmos que irão subsidiar o processo de tomada de decisão no ambiente das organizações. Também contribuem para a solução dos problemas relacionados à gestão por resultados, visando à melhoria dos serviços públicos prestados, em face de uma demanda de serviços superior à capacidade instalada.
O documento descreve o Modelo de Conteúdo do Framework de Arquitetura Corporativa para Interoperabilidade (FACIN), apresentando suas nove visões e detalhando alguns elementos da Visão de Negócios, como capacidades de negócio, serviços, clientes e processos.
O documento discute o II Fórum de Governança e o alinhamento de ações governamentais aos pilares da governança corporativa. É apresentado um modelo para representar as relações entre diversas ações de governo voltadas para melhoria da gestão e governança. O modelo pode ser usado como padrão e estendido para outras entidades, visando maior participação social e benefícios para cidadãos.
Este documento apresenta uma monografia sobre cenários exploratórios da cadeia de valor utilizando a dinâmica de sistemas e o modelo da quinta disciplina. A monografia discute conceitos como feedback loops, atrasos, as cinco disciplinas da organização de aprendizagem e descreve três cenários exploratórios.
Operational Level Agreements (OLAs) of Pool of People applied in Project Mana...Guttenberg Ferreira Passos
This document provides a summary of an operational level agreements (OLA) document for pool of people applied in project management complexes. It outlines the current problem of insufficient capacity to meet service demands on time. It describes stakeholders and their needs. It also reviews relevant literature on organizational responsibility models, leadership decision making frameworks, and project management methods. Finally, it provides an overview of the proposed solution to implement OLAs between areas to share resources and meet deadlines through improved communication and responsibility.
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
A linguagem C# aproveita conceitos de muitas outras linguagens,
mas especialmente de C++ e Java. Sua sintaxe é relativamente fácil, o que
diminui o tempo de aprendizado. Todos os programas desenvolvidos devem
ser compilados, gerando um arquivo com a extensão DLL ou EXE. Isso torna a
execução dos programas mais rápida se comparados com as linguagens de
script (VBScript , JavaScript) que atualmente utilizamos na internet
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx2m Assessoria
Em determinadas ocasiões, dependendo dos requisitos de uma aplicação, pode ser preciso percorrer todos os elementos de uma árvore para, por exemplo, exibir todo o seu conteúdo ao usuário. De acordo com a ordem de visitação dos nós, o usuário pode ter visões distintas de uma mesma árvore.
Imagine que, para percorrer uma árvore, tomemos o nó raiz como nó inicial e, a partir dele, comecemos a visitar todos os nós adjacentes a ele para, só então, começar a investigar os outros nós da árvore. Por outro lado, imagine que tomamos um nó folha como ponto de partida e caminhemos em direção à raiz, visitando apenas o ramo da árvore que leva o nó folha à raiz. São maneiras distintas de se visualizar a mesma árvore.
Tome a árvore binária a seguir como base para realizar percursos que partirão sempre da raiz (nó 1).
Figura 1 - Árvore binária
Fonte: OLIVEIRA, P. M. de; PEREIRA, R. de L. Estruturas de Dados II. Maringá: UniCesumar, 2019. p. .
Com base na árvore anterior, responda quais seriam as ordens de visitação, partindo da raiz:
a) Percorrendo a árvore pelo algoritmo Pré-Ordem.
b) Percorrendo a árvore pelo algoritmo Em-Ordem.
c) Percorrendo a árvore pelo algoritmo Pós-Ordem.
Obs.: como resposta, informar apenas os caminhos percorridos em cada Situação:
a) Pré-ordem: X - Y - Z.
b) Em-ordem: X - Y - Z.
c) Pós-ordem: X - Y - Z.
ATENÇÃO!
- Você poderá elaborar sua resposta em um arquivo de texto .txt e, após revisado, copiar e colar no campo destinado à resposta na própria atividade em seu STUDEO.
- Plágios e cópias indevidas serão penalizados com nota zero.
- As perguntas devem ser respondidas de forma adequada, ou seja, precisam ser coerentes.
- Antes de enviar sua atividade, certifique-se de que respondeu todas as perguntas e não se esqueceu nenhum detalhe. Após o envio, não são permitidas alterações. Por favor, não insista.
- Não são permitidas correções parciais no decorrer do módulo, isso invalida seu processo avaliativo. A interpretação da atividade faz parte da avaliação.
- Atenção ao prazo de entrega da atividade. Sugerimos que envie sua atividade antes do prazo final para evitar transtornos e lentidão nos servidores. Evite o envio de atividade em cima do prazo.
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx
Modelos de previsão de Ocorrências
1. Classificação de texto com Deep Learning
Modelos de previsão de Ocorrências
Guttenberg Ferreira Passos
O presente artigo tem como objetivo a classificação de textos e a previsão das
categorias de ocorrências, através do estudo de modelos de Inteligência Artificial,
utilizando Machine Learning e Deep Learning para a classificação de textos e análise
das previsões, sugerindo-se a melhor opção com o menor erro.
A solução foi projetada para ser implementada em duas etapas: Aprendizado de
Máquina e Aplicação, de acordo com o diagrama abaixo da Data Science Academy.
Fonte: Data Science Academy
O foco desse artigo é a etapa de Aprendizado de Máquina, o desenvolvimento da
aplicação está fora do escopo e poderá ser objeto de um trabalho futuro.
A solução foi aplicada em um órgão do Estado de Minas Gerais com a coleta de três
conjuntos de dados contendo 5.000, 100.000 e 1.740.000 ocorrências
respectivamente.
O projeto de elaboração dos algoritmos da etapa de Aprendizado de Máquina foi
dividido em quatro fases:
1) Elaboração de um protótipo para aprovação do cliente, com a ferramenta
Orange, para o treinamento de uma amostra de 5.000 ocorrências e previsão
de 300 ocorrências. Nessa etapa foram utilizados algoritmos de Machine
Learnig.
2) Elaboração de um programa em Python para o treinamento de uma amostra de
100.000 ocorrências e previsão de 300 ocorrências. Nessa etapa foram
utilizados algoritmos de Deep Learnig.
2. 3) Treinamento de uma amostra de 1.700.000 ocorrências e previsão de 300
ocorrências, utilizando o mesmo ambiente.
4) Treinamento de uma amostra de 1.700.000 ocorrências e previsão de 60.000
ocorrências, utilizando o mesmo ambiente.
Todos os modelos foram adaptados do site https://orangedatamining.com/, dos
vídeos:
https://www.youtube.com/watch?v=HXjnDIgGDuI&t=10s&ab_channel=OrangeDataMi
ning e das aulas do curso de Deep learning II da Data Science Academy:
https://www.datascienceacademy.com.br
Algoritmos de Machine Learning utilizados:
AdaBoost
kNN
Logistic Regression
Naive Bayes
Random Forest
Algoritmos de Deep Learning utilizados:
LSTM - Long short-term memory
GRU - Gated Recurrent Unit
CNN - Convolutional Neural Networks
AdaBoost
É um algoritmo de aprendizado de máquina, deriva de Adaptive Boosting (Impulso
adaptativo). O AdaBoost é adaptável no sentido de que as classificações subsequentes
feitas são ajustadas a favor das instâncias classificadas negativamente por
classificações anteriores.
O AdaBoost é sensível ao ruído nos dados e casos isolados. Entretanto para alguns
problemas é menos suscetível a perda da capacidade de generalização após o
aprendizado de muitos padrões de treino (overfitting) do que a maioria dos algoritmos
de aprendizado de máquina.
kNN
É um algoritmo de aprendizado de máquina, o algoritmo kNN procura k exemplos de
treinamento mais próximos no espaço de recursos e usa sua média como previsão.
3. Logistic Regression
O algoritmo de classificação de regressão logística com regularização LASSO (L1) ou
crista (L2). A regressão logística aprende um modelo de regressão logística a partir dos
dados. Funciona apenas para tarefas de classificação.
Naive Bayes
Um classificador probabilístico rápido e simples baseado no teorema de Bayes com a
suposição de independência de recurso. Funciona apenas para tarefas de classificação.
Random Forest
A Random Forest constrói um conjunto de árvores de decisão. Cada árvore é
desenvolvida a partir de uma amostra de bootstrap dos dados de treinamento. Ao
desenvolver árvores individuais, um subconjunto arbitrário de atributos é desenhado
(daí o termo “Aleatório”), a partir do qual o melhor atributo para a divisão é
selecionado. O modelo final é baseado na maioria dos votos de árvores desenvolvidas
individualmente na floresta.
Fonte dos algoritmos de Machine Learning: Wikipédia e
https://orange3.readthedocs.io/en/latest
LSTM
A rede Long Short-Term Memory - LSTM é uma rede neural recorrente, que é usada
em diversos cenários de Processamento de Linguagem Natural. A LSTM é uma
arquitetura de rede neural recorrente (RNN) que “lembra” valores em intervalos
arbitrários. A LSTM é bem adequada para classificar, processar e prever séries
temporais com intervalos de tempo de duração desconhecida. A insensibilidade
relativa ao comprimento do gap dá uma vantagem à LSTM em relação a RNNs
tradicionais (também chamadas “vanilla”), Modelos Ocultos de Markov (MOM) e
outros métodos de aprendizado de sequências.
GRU
A rede Gated Recurrent Unit - GRU visa resolver o problema da dissipação do
gradiente que é comum em uma rede neural recorrente padrão. A GRU também pode
ser considerada uma variação da LSTM porque ambas são projetadas de maneira
semelhante e, em alguns casos, produzem resultados igualmente excelentes.
CNN
A Rede Convolutional Neural Network - CNN é um algoritmo de Aprendizado Profundo
que pode captar uma imagem de entrada, atribuir importância (pesos e vieses que
podem ser aprendidos) a vários aspectos / objetos da imagem e ser capaz de
4. diferenciar um do outro. O pré-processamento exigido em uma CNN é muito menor
em comparação com outros algoritmos de classificação. Enquanto nos métodos
primitivos os filtros são feitos à mão, com treinamento suficiente, as CNN têm a
capacidade de aprender esses filtros / características.
Fonte dos algoritmos de Deep Learning: https://www.deeplearningbook.com.br
Redes neurais são sistemas de computação com nós interconectados que funcionam
como os neurônios do cérebro humano. Usando algoritmos, elas podem reconhecer
padrões escondidos e correlações em dados brutos, agrupá-los e classificá-los, e com o
tempo aprender e melhorar continuamente.
O Instituto Asimov https://www.asimovinstitute.org/neural-network-zoo/ publicou
uma folha de dicas contendo várias arquiteturas de rede neural, nos concentraremos
nas arquiteturas destacadas em vermelho LSTM, GRU e CNN.
Fonte: THE ASIMOV INSTITUTE
5. Deep Learning é uma das bases da Inteligência Artificial (IA), um tipo de aprendizado
de máquina (Machine Learning) que treina computadores para realizar tarefas como
seres humanos, o que inclui reconhecimento de fala, identificação de imagem e
previsões, aprendendo com o tempo. Podemos dizer que é uma Rede Neural com
várias camadas ocultas:
Fase 1
A fase 1 do projeto é o desenvolvimento de um protótipo para a apresentação da
solução e sua primeira aprovação pelo cliente. A ferramenta que foi escolhida para
essa fase é o Orange Canvas, por se tratar de um ambiente gráfico mais amigável.
Nesse ambiente os elementos são arrastados para o canvas sem a necessidade de
digitação de linhas de código.
O trabalho tem início pela Análise Exploratória dos Dados. Inicialmente foi constatado
que a primeira amostra de 5.000 ocorrências estava desbalanceada, figura abaixo.
Optou-se por descartar as ocorrências das categorias com menor volume de dados.
6. A primeira fase foi estruturada em três etapas: pré-processamento e análise dos
dados, treinamento dos modelos e previsão das categorias das ocorrências. As etapas
foram planejadas para facilitar o desenvolvimento e implementação do projeto por
serem independentes entre si e seu processamento ser concluído em cada etapa, não
necessitando ser repetido na etapa posterior.
Fase 1 - Etapa 1: Pré-processamento e análise dos dados
Na primeira etapa são realizados a coleta, o pré-processamento e a análise dos dados,
conforme a figura abaixo na ferramenta Orange.
Foram coletadas amostras de 5.000 ocorrências para o treinamento do modelo e 300
ocorrências para fazer a previsão, simulando um ambiente de produção.
Após a coleta, os dados são organizados em um Corpus para a realização do pré-
processamento executando-se as ações de Transformação, Tokenização e Filtragem
dos dados.
7. As palavras são organizadas em um formato Bag of Words (Saco de Palavras), uma
representação simplificadora usada no Processamento de Linguagem Natural - NLP.
Nesse modelo, um texto (como uma frase ou um documento) é representado como o
saco de suas palavras, desconsiderando a gramática e até mesmo a ordem das
palavras, mas mantendo a multiplicidade.
O aprendizado de máquina (Machine Learning) é um ramo da inteligência artificial
baseado na ideia de que sistemas podem aprender com dados, identificar padrões e
tomar decisões com o mínimo de intervenção humana. O aprendizado automático
explora o estudo e construção de algoritmos que podem aprender de seus erros e
fazer previsões sobre dados.
O aprendizado de máquina pode ser classificado em duas categorias:
Aprendizado supervisionado: São apresentadas ao computador exemplos de entradas
e saídas desejadas.
Aprendizado não supervisionado: Nenhum tipo de etiqueta é dado ao algoritmo de
aprendizado, deixando-o sozinho para encontrar padrões nas entradas fornecidas.
Através do aprendizado não supervisionado é possível identificar os Clusters
(Agrupamentos) e sua hierarquia.
Com o escalonamento multidimensional (MDS) tem-se um meio de visualizar o nível de
similaridade de casos individuais de um conjunto de dados e as regiões dos Clusters.
Além disso, tem-se também uma idéia da facilidade ou dificuldade do modelo em fazer
suas previsões, quanto mais agrupadas as ocorrências em determinada região maior
poderá ser a probabilidade de acerto do modelo.
8. Fase 1 - Etapa 2: Treinamento dos modelos
A segunda etapa é o treinamento dos modelos utilizando os seguintes algoritmos de
Machine Learning: AdaBoost, kNN, Logistic Regression, Naive Bayes e Random Forest.
A performance geral dos modelos pode ser medida através de sua Acurácia (CA),
proximidade de um resultado com o seu valor de referência real. Dessa forma, quanto
maior a acurácia, mais próximo da referência ou valor real é o resultado encontrado.
9. Os acertos e os erros identificados no resultado podem ser analisados através da
Matriz de Confusão. Na diagonal principal da matriz encontram-se os acertos,
previsões corretas de acordo com o conjunto real. Os erros estão fora da diagonal
principal, previsões incorretas de acordo com o conjunto real.
Fase 1 - Etapa 3: Previsão das categorias das ocorrências
A última etapa do protótipo, fase 1 do projeto, é a previsão das categorias das
ocorrências, realizadas por cada algoritmo de machine learning.
10. O resultado pode ser obtido através da classificação probabilística de observações,
caracterizando-as em classes pré-definidas. A classe prevista será a que possuir maior
probabilidade:
Fases 2, 3 e 4
Para as fases 2, 3 e 4 do projeto foram elaborados programas na linguagem Python
para análise, treinamento e previsão das ocorrências, utilizando os seguintes
algoritmos de Deep Learnig: LSTM, GRU e CNN.
Foram fornecidas amostras de 100.000 e 1.700.000 ocorrências para o treinamento e
para previsão amostras de 300 e 60.000 ocorrências, utilizando o mesmo ambiente.
As novas amostras de ocorrências foram pré-processadas e estavam balanceadas:
Os programas desenvolvidos foram estruturados respeitando as mesmas três etapas
da fase anterior: pré-processamento e análise dos dados, treinamento dos modelos e
previsão das categorias das ocorrências.
Na etapa 1 foram utilizadas diversas técnicas de pré-processamento dos dados
semelhantes ás utilizadas no ambiente Orange Canvas.
Na segunda etapa foram desenvolvidas diferentes arquiteturas para cada algoritmo de
Deep Learnig.
13. Modelo 6 GRU com Dropout - Camadas da Rede Neural:
Model: "sequential_3"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding_3 (Embedding) (None, 250, 100) 5000000
_________________________________________________________________
gru_3 (GRU) (None, 250, 200) 181200
_________________________________________________________________
gru_4 (GRU) (None, 200) 241200
_________________________________________________________________
dense_2 (Dense) (None, 6) 1206
=================================================================
Total params: 5,423,606
Trainable params: 5,423,606
Non-trainable params: 0
Conclusão
Neste trabalho, sem pretensão alguma de esgotar o assunto, demonstrou-se que os
modelos fundamentados em Deep Learning tiveram um resultado melhor que os
demais algoritmos, conforme figura abaixo:
Considera-se excelente o desempenho alcançado pela combinação dos algoritmos
LSTM e CNN, com acurácia de 97%. Recomenda-se, portanto, a adoção desse modelo
para o desenvolvimento da aplicação de Previsão de Ocorrências em produção.