O documento discute previsões de séries temporais utilizando modelos lineares e não lineares. É apresentada uma análise da arrecadação de ICMS usando métodos estatísticos como regressão linear e Exponential Smoothing, além de algoritmos de deep learning como LSTM e redes neurais recorrentes. Os resultados indicam que os modelos de IA como LSTM superaram os modelos estatísticos na previsão da arrecadação de ICMS.
O presente artigo tem como objetivo a classificação de textos e a previsão das categorias de ocorrências, através do estudo de modelos de Inteligência Artificial, utilizando Machine Learning e Deep Learning para a classificação de textos e análise das previsões, sugerindo-se a melhor opção com o menor erro.
O documento discute o uso de inteligência artificial e dinâmica de sistemas para simular cenários e estratégias de atendimento à população no combate à Covid-19 no Brasil. Os autores desenvolveram modelos preditivos com algoritmos como LSTM e redes neurais recorrentes para prever fatores como distanciamento social e ajudar na tomada de decisões. Os modelos foram adaptados de cursos de modelagem preditiva de séries temporais.
Data Mining e Machine Learning com Python - Mateus Grellert - Tchelinux Pelot...Tchelinux
Este documento apresenta um resumo sobre data mining e machine learning com Python. Ele introduz os conceitos de ciência de dados, data mining e machine learning, discute exemplos de aplicações e fontes de dados. Também aborda ferramentas em Python como pandas e scikit-learn, e o fluxo de projeto que inclui limpeza, visualização, transformação, treinamento e avaliação de modelos preditivos.
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
SVM é um algoritmo de aprendizado de máquina supervisionado usado para classificação e regressão. Ele constrói um hiperplano que separa classes de dados rotulados no espaço de recursos. Os vetores de suporte são os pontos mais próximos do hiperplano e ajudam a definir sua posição. SVM busca o hiperplano que maximiza a margem entre classes.
Guia completo para definição de estatística de modelos e algoritmos de machin...Geanderson Lenz
1. O documento apresenta um guia completo sobre definição de estatística e algoritmos de machine learning utilizados em projetos de data science para negócios.
2. Inclui seções sobre aprendizagem supervisionada, não supervisionada, reinforcement learning e drivers de escolha de modelos.
3. Fornece descrições de algoritmos como regressão linear, logística, árvores de decisão e random forest com códigos em R e Python.
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
O documento discute três algoritmos clássicos de inteligência artificial: árvores de decisão, máquinas de vetor de suporte e Naive Bayes. Árvores de decisão dividem recursivamente um problema em subproblemas mais simples. Máquinas de vetor de suporte constroem um hiperplano que separa classes de dados. Naive Bayes faz previsões com base na probabilidade condicional de recursos, supondo independência entre eles.
O documento apresenta conceitos e métodos de aprendizado de máquina, incluindo: (1) definições de aprendizado supervisionado e não-supervisionado, (2) exemplos de problemas como classificação e regressão, (3) paradigmas como simbólico, estatístico e conexionista, e (4) árvores de decisão como método de aprendizado supervisionado.
O presente artigo tem como objetivo a classificação de textos e a previsão das categorias de ocorrências, através do estudo de modelos de Inteligência Artificial, utilizando Machine Learning e Deep Learning para a classificação de textos e análise das previsões, sugerindo-se a melhor opção com o menor erro.
O documento discute o uso de inteligência artificial e dinâmica de sistemas para simular cenários e estratégias de atendimento à população no combate à Covid-19 no Brasil. Os autores desenvolveram modelos preditivos com algoritmos como LSTM e redes neurais recorrentes para prever fatores como distanciamento social e ajudar na tomada de decisões. Os modelos foram adaptados de cursos de modelagem preditiva de séries temporais.
Data Mining e Machine Learning com Python - Mateus Grellert - Tchelinux Pelot...Tchelinux
Este documento apresenta um resumo sobre data mining e machine learning com Python. Ele introduz os conceitos de ciência de dados, data mining e machine learning, discute exemplos de aplicações e fontes de dados. Também aborda ferramentas em Python como pandas e scikit-learn, e o fluxo de projeto que inclui limpeza, visualização, transformação, treinamento e avaliação de modelos preditivos.
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
SVM é um algoritmo de aprendizado de máquina supervisionado usado para classificação e regressão. Ele constrói um hiperplano que separa classes de dados rotulados no espaço de recursos. Os vetores de suporte são os pontos mais próximos do hiperplano e ajudam a definir sua posição. SVM busca o hiperplano que maximiza a margem entre classes.
Guia completo para definição de estatística de modelos e algoritmos de machin...Geanderson Lenz
1. O documento apresenta um guia completo sobre definição de estatística e algoritmos de machine learning utilizados em projetos de data science para negócios.
2. Inclui seções sobre aprendizagem supervisionada, não supervisionada, reinforcement learning e drivers de escolha de modelos.
3. Fornece descrições de algoritmos como regressão linear, logística, árvores de decisão e random forest com códigos em R e Python.
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
O documento discute três algoritmos clássicos de inteligência artificial: árvores de decisão, máquinas de vetor de suporte e Naive Bayes. Árvores de decisão dividem recursivamente um problema em subproblemas mais simples. Máquinas de vetor de suporte constroem um hiperplano que separa classes de dados. Naive Bayes faz previsões com base na probabilidade condicional de recursos, supondo independência entre eles.
O documento apresenta conceitos e métodos de aprendizado de máquina, incluindo: (1) definições de aprendizado supervisionado e não-supervisionado, (2) exemplos de problemas como classificação e regressão, (3) paradigmas como simbólico, estatístico e conexionista, e (4) árvores de decisão como método de aprendizado supervisionado.
1) O documento discute técnicas de aprendizagem automática supervisionada como regressão, classificação e redes neurais artificiais.
2) A retropropagação é descrita como um método para treinar redes neurais através da propagação de erros e atualização dos pesos para minimizar o erro.
3) Várias técnicas são discutidas para acelerar a convergência da retropropagação incluindo taxas de aprendizagem adaptativas e momento.
O documento discute redes neurais artificiais, incluindo sua história, princípios, aplicações e modelos. Aborda conceitos como perceptrons, mapas de Kohonen, backpropagation e redes neurais recorrentes, além de aplicações como reconhecimento de padrões, imagens, voz e simulação/controle de sistemas dinâmicos.
O documento discute algoritmos e análise de algoritmos. Explica que um algoritmo é uma sequência de instruções para resolver um problema e que estruturas de dados são formas de armazenar informações. Também aborda como analisar algoritmos, variáveis na análise como tempo e espaço, e conceitos como complexidade, notação O grande e técnicas de projeto de algoritmos.
Generalização, validação e comparação de resultadosLuís Nunes
O documento discute conceitos fundamentais de aprendizagem automática, incluindo generalização versus overfitting, avaliação de modelos em conjuntos de treino e teste, e validação cruzada para evitar overfitting. Ele também explica como calcular e interpretar intervalos de confiança para comparar resultados de modelos.
Bubble sort ordena elementos trocando adjacentes fora de ordem repetidamente até ordenar. Quick sort escolhe um pivô e particiona o array, ordenando subconjuntos separadamente de forma recursiva. Quick sort é mais rápido que bubble sort para grandes conjuntos, mas sua implementação é mais complexa.
O documento discute a análise de algoritmos. Ele explica que a análise de algoritmos avalia a complexidade dos algoritmos para entender sua eficiência. O objetivo da aula é desenvolver habilidades para julgar algoritmos de forma elementar, considerando critérios como tempo de execução e uso de memória. A complexidade é medida em termos do número de operações executadas em função do tamanho da entrada.
Aplicações de Inteligência Artificial em Rádios CognitivosRamon Mayor Martins
O documento discute as aplicações de inteligência artificial em rádios cognitivos, incluindo algoritmos de metaheurística, busca baseada em casos, lógica fuzzy, teoria dos jogos e redes neurais artificiais. Estas técnicas podem ser usadas para reconhecimento de modulação, handoff de espectro e adaptação de parâmetros do rádio.
A rede neural supervisionada chamada perceptron multicamadascesar do amaral
1) O documento discute o uso de redes neurais supervisionadas e árvores de decisão para analisar os dados de uma concessionária de automóveis.
2) Os dados incluem informações sobre clientes e suas respostas a ofertas de garantia estendida.
3) As técnicas de aprendizagem de máquina são aplicadas usando o software Weka para identificar padrões nos dados e prever as respostas dos clientes.
1. O documento descreve o plano de ensino de uma disciplina de Algoritmos e Estrutura de Dados I no curso de Engenharia de Computação. Ele inclui a ementa, objetivos, conteúdos, bibliografia e apêndice de exercícios.
2. Os conteúdos abordam tópicos como tipos de dados, variáveis, operadores, estruturas de controle de fluxo, estruturas de dados homogêneas e heterogêneas, subalgoritmos e linguagem de programação.
3. O
O documento discute conceitos sobre algoritmos e complexidade algorítmica. Aborda o que é um algoritmo, análise de algoritmos, complexidade de algoritmos e critérios para escolha de algoritmos, enfatizando a importância da eficiência.
O documento descreve a técnica de Slow Feature Analysis (SFA) para extrair características invariantes de sinais sensoriais que variam rapidamente. O SFA mapeia sinais de entrada em saídas ordenadas por "lentidão" através de uma combinação linear de funções não-lineares. Experimentos mostram que o SFA é capaz de extrair características que representam objetos, ações e gestos sob diferentes condições.
1 - Apresenta GANs como modelos gerativos baseados em redes neurais que treinam um gerador e um discriminador de forma adversária para gerar novos dados semelhantes aos reais.
2 - Explica que o gerador gera amostras e o discriminador identifica se as amostras são reais ou geradas, com o treinamento buscando enganar um ao outro de forma adversária.
3 - Demonstra uma implementação básica de GAN com PyTorch, apresentando o conjunto de dados, redes neural do gerador e discriminador, função custo, ot
Este documento discute a lógica fuzzy, definindo-a como uma lógica multivalorada que permite graus parciais de pertinência em conjuntos. Explica como a lógica fuzzy modela o raciocínio humano impreciso através de conjuntos fuzzy, regras fuzzy e um processo de inferência difusa estilo Mamdani. Finalmente, lista alguns domínios de aplicação como sistemas especialistas e controle inteligente.
Análise empírica de algoritmos de ordenaçãoOrlando Junior
Trabalho apresentado à Universidade Federal do ABC como parte para aprovação no curso de Análise de Algoritmos e Estrutura de Dados.
O objetivo principal deste trabalho é estudar empiricamente a complexidade de tempo dos algoritmos de ordenação interna.
O documento discute (1) o modelo WRF de previsão numérica do tempo, (2) métodos de verificação de qualidade de previsão, e (3) técnicas de assimilação de dados e redes neurais artificiais para melhoria de previsões.
1. O documento apresenta os conceitos fundamentais de análise de algoritmos, incluindo definições de algoritmo, medidas de complexidade e notação O.
2. São discutidas várias funções de complexidade como n, n log n, n2, n3 e 2n e como elas afetam o tamanho dos problemas que podem ser resolvidos em determinados períodos de tempo.
3. A análise de complexidade é importante para escolher algoritmos eficientes e entender como melhorias na velocidade dos computadores podem afetar qual tamanho de problema cada algoritmo
1. O documento discute redes neurais artificiais, incluindo como funcionam, exemplos e aplicações.
2. Redes neurais são inspiradas no sistema nervoso biológico e podem resolver problemas complexos como classificação de imagens.
3. A aprendizagem em redes neurais envolve minimizar uma função de custo usando o método do gradiente e retropropagação da taxa de erro.
O documento discute diferentes formas de representar algoritmos, incluindo descrição narrativa, fluxogramas e pseudocódigo. Ele também explica conceitos-chave como variáveis, tipos de dados, operadores e declaração de variáveis em algoritmos.
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...Ricardo Brasil
Este documento descreve diferentes tipos de redes neurais artificiais no software STATISTICA e aplica essas redes para modelar a expansão urbana da cidade de Maputo. Os autores treinam redes neurais com dados sobre declive, uso do solo e vias para Maputo em 1991 e 2001 e analisam os resultados para comparar os diferentes tipos de redes.
Este documento descreve uma estratégia baseada em redes neurais artificiais para seleção on-line de controladores para sistemas não-lineares. O método é aplicado a um tanque esférico sujeito a perturbações, onde diferentes controladores PID são avaliados e uma rede neural é treinada para selecionar o melhor controlador com base em critérios de desempenho. Resultados de simulação demonstram a capacidade da rede neural em alternar entre controladores para manter o desempenho do sistema.
1) O documento discute técnicas de aprendizagem automática supervisionada como regressão, classificação e redes neurais artificiais.
2) A retropropagação é descrita como um método para treinar redes neurais através da propagação de erros e atualização dos pesos para minimizar o erro.
3) Várias técnicas são discutidas para acelerar a convergência da retropropagação incluindo taxas de aprendizagem adaptativas e momento.
O documento discute redes neurais artificiais, incluindo sua história, princípios, aplicações e modelos. Aborda conceitos como perceptrons, mapas de Kohonen, backpropagation e redes neurais recorrentes, além de aplicações como reconhecimento de padrões, imagens, voz e simulação/controle de sistemas dinâmicos.
O documento discute algoritmos e análise de algoritmos. Explica que um algoritmo é uma sequência de instruções para resolver um problema e que estruturas de dados são formas de armazenar informações. Também aborda como analisar algoritmos, variáveis na análise como tempo e espaço, e conceitos como complexidade, notação O grande e técnicas de projeto de algoritmos.
Generalização, validação e comparação de resultadosLuís Nunes
O documento discute conceitos fundamentais de aprendizagem automática, incluindo generalização versus overfitting, avaliação de modelos em conjuntos de treino e teste, e validação cruzada para evitar overfitting. Ele também explica como calcular e interpretar intervalos de confiança para comparar resultados de modelos.
Bubble sort ordena elementos trocando adjacentes fora de ordem repetidamente até ordenar. Quick sort escolhe um pivô e particiona o array, ordenando subconjuntos separadamente de forma recursiva. Quick sort é mais rápido que bubble sort para grandes conjuntos, mas sua implementação é mais complexa.
O documento discute a análise de algoritmos. Ele explica que a análise de algoritmos avalia a complexidade dos algoritmos para entender sua eficiência. O objetivo da aula é desenvolver habilidades para julgar algoritmos de forma elementar, considerando critérios como tempo de execução e uso de memória. A complexidade é medida em termos do número de operações executadas em função do tamanho da entrada.
Aplicações de Inteligência Artificial em Rádios CognitivosRamon Mayor Martins
O documento discute as aplicações de inteligência artificial em rádios cognitivos, incluindo algoritmos de metaheurística, busca baseada em casos, lógica fuzzy, teoria dos jogos e redes neurais artificiais. Estas técnicas podem ser usadas para reconhecimento de modulação, handoff de espectro e adaptação de parâmetros do rádio.
A rede neural supervisionada chamada perceptron multicamadascesar do amaral
1) O documento discute o uso de redes neurais supervisionadas e árvores de decisão para analisar os dados de uma concessionária de automóveis.
2) Os dados incluem informações sobre clientes e suas respostas a ofertas de garantia estendida.
3) As técnicas de aprendizagem de máquina são aplicadas usando o software Weka para identificar padrões nos dados e prever as respostas dos clientes.
1. O documento descreve o plano de ensino de uma disciplina de Algoritmos e Estrutura de Dados I no curso de Engenharia de Computação. Ele inclui a ementa, objetivos, conteúdos, bibliografia e apêndice de exercícios.
2. Os conteúdos abordam tópicos como tipos de dados, variáveis, operadores, estruturas de controle de fluxo, estruturas de dados homogêneas e heterogêneas, subalgoritmos e linguagem de programação.
3. O
O documento discute conceitos sobre algoritmos e complexidade algorítmica. Aborda o que é um algoritmo, análise de algoritmos, complexidade de algoritmos e critérios para escolha de algoritmos, enfatizando a importância da eficiência.
O documento descreve a técnica de Slow Feature Analysis (SFA) para extrair características invariantes de sinais sensoriais que variam rapidamente. O SFA mapeia sinais de entrada em saídas ordenadas por "lentidão" através de uma combinação linear de funções não-lineares. Experimentos mostram que o SFA é capaz de extrair características que representam objetos, ações e gestos sob diferentes condições.
1 - Apresenta GANs como modelos gerativos baseados em redes neurais que treinam um gerador e um discriminador de forma adversária para gerar novos dados semelhantes aos reais.
2 - Explica que o gerador gera amostras e o discriminador identifica se as amostras são reais ou geradas, com o treinamento buscando enganar um ao outro de forma adversária.
3 - Demonstra uma implementação básica de GAN com PyTorch, apresentando o conjunto de dados, redes neural do gerador e discriminador, função custo, ot
Este documento discute a lógica fuzzy, definindo-a como uma lógica multivalorada que permite graus parciais de pertinência em conjuntos. Explica como a lógica fuzzy modela o raciocínio humano impreciso através de conjuntos fuzzy, regras fuzzy e um processo de inferência difusa estilo Mamdani. Finalmente, lista alguns domínios de aplicação como sistemas especialistas e controle inteligente.
Análise empírica de algoritmos de ordenaçãoOrlando Junior
Trabalho apresentado à Universidade Federal do ABC como parte para aprovação no curso de Análise de Algoritmos e Estrutura de Dados.
O objetivo principal deste trabalho é estudar empiricamente a complexidade de tempo dos algoritmos de ordenação interna.
O documento discute (1) o modelo WRF de previsão numérica do tempo, (2) métodos de verificação de qualidade de previsão, e (3) técnicas de assimilação de dados e redes neurais artificiais para melhoria de previsões.
1. O documento apresenta os conceitos fundamentais de análise de algoritmos, incluindo definições de algoritmo, medidas de complexidade e notação O.
2. São discutidas várias funções de complexidade como n, n log n, n2, n3 e 2n e como elas afetam o tamanho dos problemas que podem ser resolvidos em determinados períodos de tempo.
3. A análise de complexidade é importante para escolher algoritmos eficientes e entender como melhorias na velocidade dos computadores podem afetar qual tamanho de problema cada algoritmo
1. O documento discute redes neurais artificiais, incluindo como funcionam, exemplos e aplicações.
2. Redes neurais são inspiradas no sistema nervoso biológico e podem resolver problemas complexos como classificação de imagens.
3. A aprendizagem em redes neurais envolve minimizar uma função de custo usando o método do gradiente e retropropagação da taxa de erro.
O documento discute diferentes formas de representar algoritmos, incluindo descrição narrativa, fluxogramas e pseudocódigo. Ele também explica conceitos-chave como variáveis, tipos de dados, operadores e declaração de variáveis em algoritmos.
Aplicação das Redes Neuronais Artificiais do software STATISTICA 7.0: O caso ...Ricardo Brasil
Este documento descreve diferentes tipos de redes neurais artificiais no software STATISTICA e aplica essas redes para modelar a expansão urbana da cidade de Maputo. Os autores treinam redes neurais com dados sobre declive, uso do solo e vias para Maputo em 1991 e 2001 e analisam os resultados para comparar os diferentes tipos de redes.
Este documento descreve uma estratégia baseada em redes neurais artificiais para seleção on-line de controladores para sistemas não-lineares. O método é aplicado a um tanque esférico sujeito a perturbações, onde diferentes controladores PID são avaliados e uma rede neural é treinada para selecionar o melhor controlador com base em critérios de desempenho. Resultados de simulação demonstram a capacidade da rede neural em alternar entre controladores para manter o desempenho do sistema.
TDC2016SP - SparkMLlib Machine Learning na Práticatdc-globalcode
O documento apresenta um caso de uso de machine learning na Movile para monitoramento de sua plataforma de tarifação. Foi desenvolvido o Watcher-AI, que usa regressão linear com Spark MLlib para prever métricas e detectar possíveis problemas com base nos dados históricos. O modelo treinado é implementado em Java para notificar a equipe quando há discrepâncias.
[Pereira, IC'2013] Uma nova abordagem para detecção e extracao de paralelismo...Marcio Machado Pereira
Este documento apresenta uma nova abordagem para detecção e extração de paralelismo em programas Java baseada em transações de software. A proposta encapsula partes do corpo de laços em transações para executá-las em paralelo, garantindo a semântica sequencial através de um modelo de transações ordenadas. Dois linhas de pesquisa são apresentadas: paralelização com suporte de STM e seleção e especulação de arestas críticas nos grafos de dependência para aumentar o paralelismo. Experimentos pretendem medir o ganho de
O documento discute a implementação de um sistema de monitoração inteligente na Globo.com. Ele apresenta a motivação, a arquitetura orientada a eventos proposta, as tecnologias de correlação de eventos e aprendizado de máquina utilizadas, e os próximos passos do projeto, como escalonamento, melhoria de algoritmos e inserção de camadas supervisionadas.
[TDC2016] Apache SparkMLlib: Machine Learning na PráticaEiti Kimura
Presented with Flavio Clésio at TDCSP2016 showing a Machine Learning solution for tracking and monitoring a critical billing platform.
Code repository:
https://github.com/eiti-kimura-movile/spark-mllib-sample
Este documento discute a otimização em negócios, incluindo:
1) A motivação para usar ferramentas analíticas de planejamento devido à mudança na natureza da competição;
2) Exemplos de problemas acadêmicos de otimização e como eles se aplicam a problemas reais de negócios;
3) O rápido progresso nos algoritmos de otimização e no poder de computação, permitindo resolver problemas cada vez maiores.
Este relatório apresenta o trabalho de identificação e controlo de um processo térmico. O relatório descreve a identificação recursiva do sistema usando uma estrutura ARX, a determinação de um controlador por colocação de pólos e os resultados dos testes aos controladores não adaptativo e adaptativo no sistema real.
TCC_-_IoT aplicada no monitoramento da saúde de pessoas idosas - detecção de ...GiseliSiqueira1
Este documento descreve um sistema para identificar quedas de idosos usando dispositivos vestíveis como smartwatches. O sistema usa limites de aceleração e janelas de tempo para caracterizar quedas e foi testado em uma base de dados simulada. Os resultados mostraram que o sistema pode identificar quedas com até 98% de acurácia dependendo do local do dispositivo, com desempenho melhor em áreas menos móveis do corpo.
O documento descreve como implementar redes neurais artificiais utilizando a Neural Network Toolbox do MATLAB. Inicialmente, apresenta os principais passos para implementação: inicialização da rede, treinamento e execução. Em seguida, detalha funções específicas para cada etapa como feedforwardnet(), train() e net(). Por fim, exemplifica o treinamento de uma rede para aprender a função seno.
Este documento descreve a metodologia utilizada para implantar programas de análise de redes da CEPEL na Eletronorte, incluindo o Configurador de Redes e o Estimador de Estados. Inicialmente, tentou-se utilizar o ambiente SCADA existente, mas isso trouxe problemas como identificadores de variáveis duplicados e necessidade de muitos reinícios. Posteriormente, criou-se uma plataforma de teste separada para desenvolvimento. Atualmente, o desenvolvimento é centralizado na sede da empresa.
O documento discute a implementação de uma rede GDPS no Banco Nossa Caixa para fornecer alta disponibilidade e desempenho. A rede foi dividida em dois ambientes separados de teste e produção, cada um com dois sistemas de rede e aplicativos, um em cada site. Os sistemas de rede foram configurados como CMCs para gerenciar os recursos de rede de forma isolada dos sistemas de aplicativos e dados.
Estudo e Avaliação do Problema de Otimização da Multiplicação de Cadeias de M...Eduardo de Lucena Falcão
Este documento discute várias abordagens para resolver o problema da multiplicação de cadeias de matrizes de forma otimizada, incluindo: (1) programação dinâmica para encontrar a ordem ótima de multiplicação, (2) minimização de cache miss ao modificar a ordem de loops, e (3) uso de threads para explorar processadores multicore. O objetivo é analisar esses métodos e medir seu impacto no desempenho.
QConSP 2014 SambaTech Analytics: Arquiteturas e tecnologias por trás da análi...Samba Tech
Arquiteturas e tecnologias por trás da análise de vídeos online em larga escala.
Para suportar um grande volume de requisições, a solução foi desenvolvida sobre uma infraestrutura elástica, com provisionamento automático de recursos. A utilização de uma nuvem híbrida permitiu a aplicação obter alto desempenho e disponibilidade.
1) O documento propõe duas novas técnicas de equalização de canal de comunicação digital usando processamento largamente linear.
2) A primeira técnica combina a transformada multi-split com um equalizador supervisionado largamente linear para melhorar a taxa de convergência do algoritmo LMS.
3) A segunda técnica consiste em um filtro de erro de predição largamente linear não supervisionado que usa um algoritmo LMS de passo variável para equalizar canais.
O documento discute o Controle Estatístico de Processos (CEP) e fornece ferramentas para analisar a variação em processos. Ele explica como criar e interpretar gráficos de controle como Xbar-R e I-MR para monitorar processos e identificar causas especiais de variação. O objetivo do CEP é manter processos sob controle e minimizar variação através do uso de dados para tomar decisões.
O documento discute o Controle Estatístico de Processos (CEP) e fornece ferramentas para analisar a variação em processos. Ele explica como criar e interpretar gráficos de controle como Xbar-R e I-MR para monitorar processos e identificar causas especiais de variação. O objetivo do CEP é manter processos sob controle e minimizar variação através do uso de dados para tomar decisões.
Semelhante a Inteligência Artificial em Séries Temporais na Arrecadação (20)
O documento discute sistemas de recomendação utilizando machine learning e deep learning. Ele descreve o pré-processamento de dados, a aplicação de vários algoritmos de machine learning como kNN, XGBoost e random forest, e o desenvolvimento de um modelo de autoencoder para filtragem colaborativa usando deep learning. O documento conclui que o naive bayes teve o melhor desempenho entre os algoritmos de machine learning, mas que deep learning é uma boa solução para lidar com grandes volumes de dados.
This article aims to classify texts and predict the categories of occurrences, through the study of Artificial Intelligence models, using Machine Learning and Deep Learning for the classification of texts and analysis of predictions, suggesting the best option with the smallest error.
The solution was designed to be implemented in two stages: Machine Learning and Application, according to the diagram below from the Data Science Academy.
This article aims to contribute to a population service strategy in the fight against Covid-19, through a scenario simulator with Artificial Intelligence and System Dynamics.
In February 2021, relevant changes were announced in Brazil in the fight against Covid-19, especially regarding vaccination. This article addresses a series of predictions to assist in the strategy of serving the population in the fight against this disease. It is a good opportunity to better understand the "invisible" factors that affect the people's contamination.
To help model these "invisible" factors, social distancing data was obtained, this data was passed as input to an Artificial Intelligence system and predictions were performed in Deep Learning (LSTM). The prediction of the social distancing variable was exported to calibrate the model in System Dynamics, with the Stella software, and the simulations were made with a Covid-19 model.
This document discusses developing a capacity prediction model for event management. It involves:
1. Developing a capacity model as part of event management to focus on major alarms from file system events monitored by Spectrum tool.
2. Correlating file system data with memory and CPU usage to predict the percentage of file system occupancy over time through statistical modeling.
3. The models generate predictions of when major alarms on file system partitions will occur based on the estimated average usage rate and time remaining until the alarm threshold is reached.
We are living in an era where changes are taking place very quickly.
Imagine a scenario where we can use Machine Learning to identify changes that are associated with incidents and problems.
Then classify them using the Cynefin framework to determine the context of change according to the 5 domains: simple, complicated, complex, chaotic and disorder (natural science).
Come up with a Decision Intelligence model that can provide the best answer to the potential problems caused by this ever evolving environment.
Finally add the Requests to the Incident Model, as ITSM focus, on IT4IT Value Stream Network!
Using Machine Learning embedded in Organizational Responsibility Model, added to the ten characteristics of the CIO Master and the twelve competencies of the workforce can help lead the Digital Transformation of the traditional public organizations to the Exponential.
The document describes a problem prediction model that uses artificial intelligence algorithms to evaluate changes made by an IT company and anticipate potential problems. The model analyzed 194 known problems, 2,400 past changes, and 201 predicted future changes. As a result, the model identified one change from October 29, 2019 that was likely to cause a problem. A team is investigating this potential issue. The document concludes that the naive Bayes classifier model is an important tool for change analysis and problem prediction.
O documento descreve um projeto de implantação do Modelo de Responsabilidade Organizacional na Prodemge entre 2015-2018, com o objetivo de preparar a organização para a transformação digital. O projeto envolveu a qualificação da demanda, plano de capacidade, acordos de nível operacional, otimização da produtividade, evolução dos empregados e loops entre áreas. A estratégia foi transpor dados da simulação do modelo para a realidade da empresa e usá-los em aprendizado de máquina para prever como atividades deveriam ser executadas no modo
Objetivando preparar as líderes e organizações para o futuro (do tradicional para o exponencial), o Modelo de Responsabilidade Organizacional foi adaptado para abranger além do contexto analítico, com Inteligência Artificial e Aprendizagem de Máquina, o contexto mais subjetivo com Dez Características do Mestre CIO (por Álvaro Mello), bem como as doze Competências da Força de Trabalho (por Lily Mok).
1. O documento apresenta análises exploratórias de dados e modelos de classificação para prever se uma organização é tradicional ou exponencial com base em suas características. 2. É treinado um modelo de floresta aleatória que identifica "Demandas Pendentes" como a característica mais importante. 3. Também é construída uma árvore de decisão para classificação e são comparadas suas previsões com as do modelo de floresta aleatória.
1. O documento descreve a análise exploratória de dados (EDA) de um modelo de responsabilidade organizacional simulado no NetLogo para identificar as variáveis mais importantes.
2. Uma árvore de decisão é treinada usando as variáveis do modelo e a importância das variáveis é calculada, com "Demandas Atendidas" e "Demandas Pendentes" sendo as mais importantes.
3. Um gráfico é gerado mostrando a estrutura da árvore de decisão treinada.
O documento descreve uma oficina realizada pela ABEP sobre o Framework de Arquitetura Corporativa para Interoperabilidade (FACIN). O objetivo da oficina foi ensinar órgãos estaduais de TIC a implementarem o FACIN para desenvolver aplicações interoperáveis e de baixo custo. Como exemplo, o documento detalha a aplicação do FACIN em um projeto do estado de Minas Gerais para implantar uma solução corporativa de geoprocessamento.
O documento discute um modelo de rede de maturidade em governança corporativa desenvolvido para mapear o alinhamento entre as recomendações do Decreto no 47.154 de Minas Gerais, que regulamenta a Lei das Estatais, e boas práticas de governança. O modelo consiste em dimensões e níveis de maturidade e permite visualizar as práticas associadas a cada nível e sua relação com os artigos do Decreto.
A Inteligência Artificial contribui para criar, ampliar e melhorar os sistemas de serviços, estabelecendo os algoritmos que irão subsidiar o processo de tomada de decisão no ambiente das organizações. Também contribuem para a solução dos problemas relacionados à gestão por resultados, visando à melhoria dos serviços públicos prestados, em face de uma demanda de serviços superior à capacidade instalada.
O documento descreve o Modelo de Conteúdo do Framework de Arquitetura Corporativa para Interoperabilidade (FACIN), apresentando suas nove visões e detalhando alguns elementos da Visão de Negócios, como capacidades de negócio, serviços, clientes e processos.
O documento discute o II Fórum de Governança e o alinhamento de ações governamentais aos pilares da governança corporativa. É apresentado um modelo para representar as relações entre diversas ações de governo voltadas para melhoria da gestão e governança. O modelo pode ser usado como padrão e estendido para outras entidades, visando maior participação social e benefícios para cidadãos.
Este documento apresenta uma monografia sobre cenários exploratórios da cadeia de valor utilizando a dinâmica de sistemas e o modelo da quinta disciplina. A monografia discute conceitos como feedback loops, atrasos, as cinco disciplinas da organização de aprendizagem e descreve três cenários exploratórios.
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
Inteligência Artificial em Séries Temporais na Arrecadação
1. Forecasting - Previsões em Séries Temporais
Arrecadação de ICMS
Guttenberg Ferreira Passos
Modelagens lineares e não lineares com séries temporais.
Para modelos lineares usaremos Estatística com Análise de Tendências;
Para modelos não lineares usaremos Métodos Estatísticos, Inteligência Artificial,
Machine Learning e Deep Learning, algoritmos:
Naive;
Exponential Smoothing;
ARMA - Autoregressive Moving Average;
ARIMA - Autoregressive Integrated Moving Average;
SARIMAX – Seasonal Autoregressive Integrated Moving Average;
DeepAR – GluonTS - Probabilistic Time Series Modeling;
MLP - Multilayer Perceptron;
LSTM - Long short-term memory.
A Análise de Tendências é um aspecto da análise de negócios que tenta prever o movimento
futuro de um produto ou serviço com base nos dados históricos e estatísticos. Com isso, é
possível definir estratégias de atuação, planos de ação e tomada de decisão.
Uma dessas tendências é a Análise de Regressão, que estuda a relação entre uma variável
dependente e outras independentes. A relação entre elas é representada por um modelo
matemático. Este modelo é designado por Modelo de Regressão Linear Simples (MRLS), o qual
define uma relação linear entre a variável dependente e uma variável independente.
Modelo de Regressão Linear Simples MRLS:
Neurônio Biológico
O Deep Learning Book Brasil é uma iniciativa da Data Science Academy, com o objetivo de
ajudar a difundir o Deep Learning, uma das tecnologias mais revolucionárias do nosso tempo
usada na construção de aplicações de Inteligência Artificial.
2. De acordo o com o Deep Learning Book, o neurônio biológico é uma célula, que pode ser
dividida em três seções: o corpo da célula, os dendritos e o axônio, cada uma com funções
específicas, porém complementares.
Fonte: Data Science Academy - DSA
Neurônio Artificial
Um neurônio artificial representa a base de uma Rede Neural Artificial (RNA), um modelo da
neuroinformática orientado nas redes neurais biológicas.
Fonte: Data Science Academy - DSA
O conhecimento de uma RNA está codificado na estrutura da rede, onde se destacam as
conexões (sinapses) entre as unidades (neurônios) que a compõe.
Fonte: Data Science Academy - DSA
No aprendizado de máquina, o Perceptron é um algoritmo de aprendizado supervisionado de
classificadores binários. Um classificador binário é uma função que pode decidir se uma
entrada, representada por um vetor de números, pertence ou não a alguma classe específica.
É um tipo de classificador linear, ou seja, um algoritmo de classificação que faz suas previsões
com base em uma função de preditor linear combinando um conjunto de pesos com o vetor
de características.
3. Redes Neurais
Redes neurais são sistemas de computação com nós interconectados que funcionam como os
neurônios do cérebro humano. Usando algoritmos, elas podem reconhecer padrões
escondidos e correlações em dados brutos, agrupá-los e classificá-los, e com o tempo aprender
e melhorar continuamente.
O Instituto Asimov https://www.asimovinstitute.org/neural-network-zoo/ publicou uma folha
de dicas contendo várias arquiteturas de rede neural, nos concentraremos nas arquiteturas
abaixo com foco em Perceptron(P), Feed Foward (FF), Recurrent Neural Network (RNN) e Long
Short Term Memory (LSTM):
Fonte: THE ASIMOV INSTITUTE
Deep learning é uma das bases da Inteligência Artificial (IA), um tipo de aprendizado de
máquina (Machine Learning) que treina computadores para realizar tarefas como seres
humanos, o que inclui reconhecimento de fala, identificação de imagem e previsões,
aprendendo com o tempo. Podemos dizer que é uma Rede Neural com várias camadas ocultas:
4. Modelo Base
Definição do Problema de Negócio
Previsão de arrecadação de ICMS.
Conjunto de Dados
Usaremos conjuntos de dados que mostram a arrecadação de ICMS. Os dados tem registros
dos anos de 2010 a 2015.
Base de dados com 1 dataset com 2 colunas, data e arrecadação de ICMS com 96 registros:
Percebemos que há uma tendência de aumento da arrecadação de ICMS ao longo do tempo.
Análise Exploratória dos Dados
Vamos testar a estacionaridade da série.
O gráfico ACF permite a avaliação da diferenciação mínima necessária para obter uma série
estacionária (Parâmetro d para o Modelo ARIMA):
5. Para a execução dos modelos utilizando Métodos Estatísticos os dados foram separados em:
72 registros de treino e
24 registros de validação.
Modelo 01 – Previsões Método de Regressão Linear Simples MRLS
Modelo 11 – Previsões Método Naive
7. Modelos utilizando
Inteligência Artificial - IA
22 – LSTM - IA (5 repetições)
23 – LSTM otimizado - IA
25 – LSTM Bidirecional – IA
RNN01 – MLP Vanilla – IA –
22 – LSTM - IA (20 repetições)
24 – Stacked LSTM - IA
25 – DeepAR – IA
RNN01 – MLP Window – IA –
Previsões utilizando Inteligência Artificial - IA - Deep Learning
8. RNN02 – LSTM Vanilla IA – Validação
Epoch = 130 - evita o Overfitting
RNN02 – LSTM Vanilla IA – Validação
Epoch = 200
RNN02 – LSTM Window IA– Validação
RNN02– LSTM Time Steps IA Validação
RNN02 – LSTM Stateful IA – Validação
RNN02 – LSTM Stacked IA – Validação
RNN02 – LSTM Vanilla IA – Teste
Epoch = 130 - evita o Overfitting
RNN02 – LSTM Vanilla IA – Teste
Epoch = 200
RNN02 – LSTM Window IA – Teste
RNN02 – LSTM Time Steps IA – Teste
RNN02 – LSTM Stateful IA – Teste
RNN02 – LSTM Stacked IA – Teste
9. Modelo RNN02 – LSTM Vanilla IA – Epoch = 130 – evita o Overfitting
Modelo RNN02 – LSTM Vanilla IA – Epoch = 200
Modelo RNN02 – LSTM Window IA
Modelo RNN02– LSTM Time Steps