O documento discute o uso de inteligência artificial e dinâmica de sistemas para simular cenários e estratégias de atendimento à população no combate à Covid-19 no Brasil. Os autores desenvolveram modelos preditivos com algoritmos como LSTM e redes neurais recorrentes para prever fatores como distanciamento social e ajudar na tomada de decisões. Os modelos foram adaptados de cursos de modelagem preditiva de séries temporais.
O documento discute previsões de séries temporais utilizando modelos lineares e não lineares. É apresentada uma análise da arrecadação de ICMS usando métodos estatísticos como regressão linear e Exponential Smoothing, além de algoritmos de deep learning como LSTM e redes neurais recorrentes. Os resultados indicam que os modelos de IA como LSTM superaram os modelos estatísticos na previsão da arrecadação de ICMS.
O presente artigo tem como objetivo a classificação de textos e a previsão das categorias de ocorrências, através do estudo de modelos de Inteligência Artificial, utilizando Machine Learning e Deep Learning para a classificação de textos e análise das previsões, sugerindo-se a melhor opção com o menor erro.
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
SVM é um algoritmo de aprendizado de máquina supervisionado usado para classificação e regressão. Ele constrói um hiperplano que separa classes de dados rotulados no espaço de recursos. Os vetores de suporte são os pontos mais próximos do hiperplano e ajudam a definir sua posição. SVM busca o hiperplano que maximiza a margem entre classes.
Data Mining e Machine Learning com Python - Mateus Grellert - Tchelinux Pelot...Tchelinux
Este documento apresenta um resumo sobre data mining e machine learning com Python. Ele introduz os conceitos de ciência de dados, data mining e machine learning, discute exemplos de aplicações e fontes de dados. Também aborda ferramentas em Python como pandas e scikit-learn, e o fluxo de projeto que inclui limpeza, visualização, transformação, treinamento e avaliação de modelos preditivos.
Guia completo para definição de estatística de modelos e algoritmos de machin...Geanderson Lenz
1. O documento apresenta um guia completo sobre definição de estatística e algoritmos de machine learning utilizados em projetos de data science para negócios.
2. Inclui seções sobre aprendizagem supervisionada, não supervisionada, reinforcement learning e drivers de escolha de modelos.
3. Fornece descrições de algoritmos como regressão linear, logística, árvores de decisão e random forest com códigos em R e Python.
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
O documento discute três algoritmos clássicos de inteligência artificial: árvores de decisão, máquinas de vetor de suporte e Naive Bayes. Árvores de decisão dividem recursivamente um problema em subproblemas mais simples. Máquinas de vetor de suporte constroem um hiperplano que separa classes de dados. Naive Bayes faz previsões com base na probabilidade condicional de recursos, supondo independência entre eles.
1) O documento discute técnicas de aprendizagem automática supervisionada como regressão, classificação e redes neurais artificiais.
2) A retropropagação é descrita como um método para treinar redes neurais através da propagação de erros e atualização dos pesos para minimizar o erro.
3) Várias técnicas são discutidas para acelerar a convergência da retropropagação incluindo taxas de aprendizagem adaptativas e momento.
O documento discute algoritmos e análise de algoritmos. Explica que um algoritmo é uma sequência de instruções para resolver um problema e que estruturas de dados são formas de armazenar informações. Também aborda como analisar algoritmos, variáveis na análise como tempo e espaço, e conceitos como complexidade, notação O grande e técnicas de projeto de algoritmos.
O documento discute previsões de séries temporais utilizando modelos lineares e não lineares. É apresentada uma análise da arrecadação de ICMS usando métodos estatísticos como regressão linear e Exponential Smoothing, além de algoritmos de deep learning como LSTM e redes neurais recorrentes. Os resultados indicam que os modelos de IA como LSTM superaram os modelos estatísticos na previsão da arrecadação de ICMS.
O presente artigo tem como objetivo a classificação de textos e a previsão das categorias de ocorrências, através do estudo de modelos de Inteligência Artificial, utilizando Machine Learning e Deep Learning para a classificação de textos e análise das previsões, sugerindo-se a melhor opção com o menor erro.
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
SVM é um algoritmo de aprendizado de máquina supervisionado usado para classificação e regressão. Ele constrói um hiperplano que separa classes de dados rotulados no espaço de recursos. Os vetores de suporte são os pontos mais próximos do hiperplano e ajudam a definir sua posição. SVM busca o hiperplano que maximiza a margem entre classes.
Data Mining e Machine Learning com Python - Mateus Grellert - Tchelinux Pelot...Tchelinux
Este documento apresenta um resumo sobre data mining e machine learning com Python. Ele introduz os conceitos de ciência de dados, data mining e machine learning, discute exemplos de aplicações e fontes de dados. Também aborda ferramentas em Python como pandas e scikit-learn, e o fluxo de projeto que inclui limpeza, visualização, transformação, treinamento e avaliação de modelos preditivos.
Guia completo para definição de estatística de modelos e algoritmos de machin...Geanderson Lenz
1. O documento apresenta um guia completo sobre definição de estatística e algoritmos de machine learning utilizados em projetos de data science para negócios.
2. Inclui seções sobre aprendizagem supervisionada, não supervisionada, reinforcement learning e drivers de escolha de modelos.
3. Fornece descrições de algoritmos como regressão linear, logística, árvores de decisão e random forest com códigos em R e Python.
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
O documento discute três algoritmos clássicos de inteligência artificial: árvores de decisão, máquinas de vetor de suporte e Naive Bayes. Árvores de decisão dividem recursivamente um problema em subproblemas mais simples. Máquinas de vetor de suporte constroem um hiperplano que separa classes de dados. Naive Bayes faz previsões com base na probabilidade condicional de recursos, supondo independência entre eles.
1) O documento discute técnicas de aprendizagem automática supervisionada como regressão, classificação e redes neurais artificiais.
2) A retropropagação é descrita como um método para treinar redes neurais através da propagação de erros e atualização dos pesos para minimizar o erro.
3) Várias técnicas são discutidas para acelerar a convergência da retropropagação incluindo taxas de aprendizagem adaptativas e momento.
O documento discute algoritmos e análise de algoritmos. Explica que um algoritmo é uma sequência de instruções para resolver um problema e que estruturas de dados são formas de armazenar informações. Também aborda como analisar algoritmos, variáveis na análise como tempo e espaço, e conceitos como complexidade, notação O grande e técnicas de projeto de algoritmos.
Generalização, validação e comparação de resultadosLuís Nunes
O documento discute conceitos fundamentais de aprendizagem automática, incluindo generalização versus overfitting, avaliação de modelos em conjuntos de treino e teste, e validação cruzada para evitar overfitting. Ele também explica como calcular e interpretar intervalos de confiança para comparar resultados de modelos.
O documento discute conceitos sobre algoritmos e complexidade algorítmica. Aborda o que é um algoritmo, análise de algoritmos, complexidade de algoritmos e critérios para escolha de algoritmos, enfatizando a importância da eficiência.
ICC - Aula 02 - Algoritmo estruturado, constantes, variáveis e comentáriosFelipe J. R. Vieira
Aula 02 da disciplina de Introdução a Ciência da Computação, ministrada pelo Departamento de Computação da Universidade Federal de Sergipe.
Apresenta algoritmo estruturado, constantes, variáveis e comentários.
1. O documento descreve o plano de ensino de uma disciplina de Algoritmos e Estrutura de Dados I no curso de Engenharia de Computação. Ele inclui a ementa, objetivos, conteúdos, bibliografia e apêndice de exercícios.
2. Os conteúdos abordam tópicos como tipos de dados, variáveis, operadores, estruturas de controle de fluxo, estruturas de dados homogêneas e heterogêneas, subalgoritmos e linguagem de programação.
3. O
O documento descreve a história e os conceitos básicos de redes neurais artificiais. Começa com as diferenças entre IA simbólica e conexionista, e continua com o histórico das redes neurais desde os anos 1940. Também explica como neurônios naturais e artificiais funcionam, além de aspectos, aplicações, aprendizado e vantagens/limitações das redes neurais.
1. O documento apresenta os conceitos fundamentais de análise de algoritmos, incluindo definições de algoritmo, medidas de complexidade e notação O.
2. São discutidas várias funções de complexidade como n, n log n, n2, n3 e 2n e como elas afetam o tamanho dos problemas que podem ser resolvidos em determinados períodos de tempo.
3. A análise de complexidade é importante para escolher algoritmos eficientes e entender como melhorias na velocidade dos computadores podem afetar qual tamanho de problema cada algoritmo
O documento discute diferentes formas de representar algoritmos, incluindo descrição narrativa, fluxogramas e pseudocódigo. Ele também explica conceitos-chave como variáveis, tipos de dados, operadores e declaração de variáveis em algoritmos.
Análise empírica de algoritmos de ordenaçãoOrlando Junior
Trabalho apresentado à Universidade Federal do ABC como parte para aprovação no curso de Análise de Algoritmos e Estrutura de Dados.
O objetivo principal deste trabalho é estudar empiricamente a complexidade de tempo dos algoritmos de ordenação interna.
Este documento discute a lógica fuzzy, definindo-a como uma lógica multivalorada que permite graus parciais de pertinência em conjuntos. Explica como a lógica fuzzy modela o raciocínio humano impreciso através de conjuntos fuzzy, regras fuzzy e um processo de inferência difusa estilo Mamdani. Finalmente, lista alguns domínios de aplicação como sistemas especialistas e controle inteligente.
O documento discute várias ferramentas da qualidade como PDCA, MASP, estratificação, lista de verificação, gráfico de Pareto, diagrama de causa e efeito e histograma que podem ser usadas para identificar e resolver problemas de qualidade de forma sistemática.
1) O documento discute técnicas de análise de séries temporais, com foco nos modelos de Box & Jenkins e redes neurais artificiais. 2) É definido o que são séries temporais e discutidas suas características, incluindo tendência, ciclo e sazonalidade. 3) Os modelos ARIMA de Box & Jenkins são explicados, incluindo suas etapas de identificação, estimativa, verificação e previsão.
O documento discute modelagem e simulação. A simulação permite gerar cenários para orientar decisões, analisar sistemas e propor melhorias. Historicamente, a simulação foi usada desde a década de 60 em indústrias e projetos. Atualmente, é usada em diversas áreas como entretenimento, fisioterapia, aeronáutica e logística. A simulação permite analisar e projetar diversos sistemas complexos.
Este documento fornece uma introdução à estatística descritiva e indutiva. Abrange definições gerais de população, variáveis e amostragem, e descreve as principais medidas estatísticas como média, mediana, moda, dispersão e concentração. Também discute representações gráficas como histogramas e curvas de Lorenz.
Este documento fornece uma introdução à estatística descritiva e indutiva. Apresenta definições gerais de termos estatísticos como população, variáveis e amostragem. Descreve as etapas de um estudo estatístico, incluindo definição do problema, coleta de dados, tratamento e apresentação de dados, e análise e interpretação. Também diferencia entre estatística descritiva, que descreve os dados, e estatística indutiva, que faz inferências sobre a população a partir
Este documento descreve o programa de Programação I da Faculdade de Ciências da Universidade Agostinho Neto. O curso é para Ciências da Computação e inclui aulas teóricas e práticas semanais sobre tópicos como algoritmos, tipos de dados, variáveis e expressões. A avaliação é baseada em um exame escrito e um projeto, com pesos de 60% e 40%, respectivamente.
Este documento apresenta os principais conceitos e técnicas da estatística descritiva. Inclui definições de variáveis qualitativas, quantitativas discretas e contínuas, e descreve medidas de localização, dispersão, concentração e representações gráficas de dados estatísticos.
O documento apresenta o ProConf, um software para análise de confiabilidade que ajusta distribuições de tempo de falha a dados. O ProConf oferece funções para escolher o melhor modelo de distribuição, estimar parâmetros, gerar gráficos e testar o ajuste. Um estudo de caso ilustra a análise de dados reais de tempo de vida de motores usando o ProConf.
O documento apresenta os principais conceitos e técnicas da estatística descritiva, incluindo medidas de posição central e dispersão para resumir conjuntos de dados, além de métodos de amostragem e organização de dados em tabelas de frequência e gráficos.
Previsão de vendas utilizando séries temporaisPedro Sobreiro
Este documento apresenta um estudo sobre previsão de vendas numa empresa de TI utilizando séries temporais. Foram aplicados algoritmos de Exponencial Smoothing, ARIMA e Redes Neurais Artificiais para prever vendas nos próximos 12 meses. As Redes Neurais Artificiais apresentaram o melhor desempenho, sendo úteis quando há dados mas poucos pressupostos teóricos. Futuramente, pretende-se desenvolver um modelo de previsão fiável incorporado em aplicações de suporte à decisão.
O documento introduz conceitos básicos de estatística, incluindo: (1) estatística descritiva e inferencial, (2) população e amostra, (3) variáveis qualitativas e quantitativas, e (4) medidas de posição como média, mediana e moda e medidas de dispersão como variância e desvio padrão.
O documento apresenta um manual de estatística aplicada, abordando os seguintes tópicos:
1) Introdução à estatística, definindo conceitos como população, variáveis, amostragem.
2) Estatística descritiva, incluindo medidas de localização, dispersão, concentração e análise bidimensional.
3) Estatística indutiva, abordando probabilidades, estimação por intervalos, testes de hipóteses e aplicações como fiabilidade, controlo de qualidade e tratamento de inquéritos
Generalização, validação e comparação de resultadosLuís Nunes
O documento discute conceitos fundamentais de aprendizagem automática, incluindo generalização versus overfitting, avaliação de modelos em conjuntos de treino e teste, e validação cruzada para evitar overfitting. Ele também explica como calcular e interpretar intervalos de confiança para comparar resultados de modelos.
O documento discute conceitos sobre algoritmos e complexidade algorítmica. Aborda o que é um algoritmo, análise de algoritmos, complexidade de algoritmos e critérios para escolha de algoritmos, enfatizando a importância da eficiência.
ICC - Aula 02 - Algoritmo estruturado, constantes, variáveis e comentáriosFelipe J. R. Vieira
Aula 02 da disciplina de Introdução a Ciência da Computação, ministrada pelo Departamento de Computação da Universidade Federal de Sergipe.
Apresenta algoritmo estruturado, constantes, variáveis e comentários.
1. O documento descreve o plano de ensino de uma disciplina de Algoritmos e Estrutura de Dados I no curso de Engenharia de Computação. Ele inclui a ementa, objetivos, conteúdos, bibliografia e apêndice de exercícios.
2. Os conteúdos abordam tópicos como tipos de dados, variáveis, operadores, estruturas de controle de fluxo, estruturas de dados homogêneas e heterogêneas, subalgoritmos e linguagem de programação.
3. O
O documento descreve a história e os conceitos básicos de redes neurais artificiais. Começa com as diferenças entre IA simbólica e conexionista, e continua com o histórico das redes neurais desde os anos 1940. Também explica como neurônios naturais e artificiais funcionam, além de aspectos, aplicações, aprendizado e vantagens/limitações das redes neurais.
1. O documento apresenta os conceitos fundamentais de análise de algoritmos, incluindo definições de algoritmo, medidas de complexidade e notação O.
2. São discutidas várias funções de complexidade como n, n log n, n2, n3 e 2n e como elas afetam o tamanho dos problemas que podem ser resolvidos em determinados períodos de tempo.
3. A análise de complexidade é importante para escolher algoritmos eficientes e entender como melhorias na velocidade dos computadores podem afetar qual tamanho de problema cada algoritmo
O documento discute diferentes formas de representar algoritmos, incluindo descrição narrativa, fluxogramas e pseudocódigo. Ele também explica conceitos-chave como variáveis, tipos de dados, operadores e declaração de variáveis em algoritmos.
Análise empírica de algoritmos de ordenaçãoOrlando Junior
Trabalho apresentado à Universidade Federal do ABC como parte para aprovação no curso de Análise de Algoritmos e Estrutura de Dados.
O objetivo principal deste trabalho é estudar empiricamente a complexidade de tempo dos algoritmos de ordenação interna.
Este documento discute a lógica fuzzy, definindo-a como uma lógica multivalorada que permite graus parciais de pertinência em conjuntos. Explica como a lógica fuzzy modela o raciocínio humano impreciso através de conjuntos fuzzy, regras fuzzy e um processo de inferência difusa estilo Mamdani. Finalmente, lista alguns domínios de aplicação como sistemas especialistas e controle inteligente.
O documento discute várias ferramentas da qualidade como PDCA, MASP, estratificação, lista de verificação, gráfico de Pareto, diagrama de causa e efeito e histograma que podem ser usadas para identificar e resolver problemas de qualidade de forma sistemática.
1) O documento discute técnicas de análise de séries temporais, com foco nos modelos de Box & Jenkins e redes neurais artificiais. 2) É definido o que são séries temporais e discutidas suas características, incluindo tendência, ciclo e sazonalidade. 3) Os modelos ARIMA de Box & Jenkins são explicados, incluindo suas etapas de identificação, estimativa, verificação e previsão.
O documento discute modelagem e simulação. A simulação permite gerar cenários para orientar decisões, analisar sistemas e propor melhorias. Historicamente, a simulação foi usada desde a década de 60 em indústrias e projetos. Atualmente, é usada em diversas áreas como entretenimento, fisioterapia, aeronáutica e logística. A simulação permite analisar e projetar diversos sistemas complexos.
Este documento fornece uma introdução à estatística descritiva e indutiva. Abrange definições gerais de população, variáveis e amostragem, e descreve as principais medidas estatísticas como média, mediana, moda, dispersão e concentração. Também discute representações gráficas como histogramas e curvas de Lorenz.
Este documento fornece uma introdução à estatística descritiva e indutiva. Apresenta definições gerais de termos estatísticos como população, variáveis e amostragem. Descreve as etapas de um estudo estatístico, incluindo definição do problema, coleta de dados, tratamento e apresentação de dados, e análise e interpretação. Também diferencia entre estatística descritiva, que descreve os dados, e estatística indutiva, que faz inferências sobre a população a partir
Este documento descreve o programa de Programação I da Faculdade de Ciências da Universidade Agostinho Neto. O curso é para Ciências da Computação e inclui aulas teóricas e práticas semanais sobre tópicos como algoritmos, tipos de dados, variáveis e expressões. A avaliação é baseada em um exame escrito e um projeto, com pesos de 60% e 40%, respectivamente.
Este documento apresenta os principais conceitos e técnicas da estatística descritiva. Inclui definições de variáveis qualitativas, quantitativas discretas e contínuas, e descreve medidas de localização, dispersão, concentração e representações gráficas de dados estatísticos.
O documento apresenta o ProConf, um software para análise de confiabilidade que ajusta distribuições de tempo de falha a dados. O ProConf oferece funções para escolher o melhor modelo de distribuição, estimar parâmetros, gerar gráficos e testar o ajuste. Um estudo de caso ilustra a análise de dados reais de tempo de vida de motores usando o ProConf.
O documento apresenta os principais conceitos e técnicas da estatística descritiva, incluindo medidas de posição central e dispersão para resumir conjuntos de dados, além de métodos de amostragem e organização de dados em tabelas de frequência e gráficos.
Previsão de vendas utilizando séries temporaisPedro Sobreiro
Este documento apresenta um estudo sobre previsão de vendas numa empresa de TI utilizando séries temporais. Foram aplicados algoritmos de Exponencial Smoothing, ARIMA e Redes Neurais Artificiais para prever vendas nos próximos 12 meses. As Redes Neurais Artificiais apresentaram o melhor desempenho, sendo úteis quando há dados mas poucos pressupostos teóricos. Futuramente, pretende-se desenvolver um modelo de previsão fiável incorporado em aplicações de suporte à decisão.
O documento introduz conceitos básicos de estatística, incluindo: (1) estatística descritiva e inferencial, (2) população e amostra, (3) variáveis qualitativas e quantitativas, e (4) medidas de posição como média, mediana e moda e medidas de dispersão como variância e desvio padrão.
O documento apresenta um manual de estatística aplicada, abordando os seguintes tópicos:
1) Introdução à estatística, definindo conceitos como população, variáveis, amostragem.
2) Estatística descritiva, incluindo medidas de localização, dispersão, concentração e análise bidimensional.
3) Estatística indutiva, abordando probabilidades, estimação por intervalos, testes de hipóteses e aplicações como fiabilidade, controlo de qualidade e tratamento de inquéritos
O texto visa explicar os passos utilizados para a seleção dos modelos via a metodologia de Box & Jenkins de maneira aplicada (documento compilado para o ensino de cursos introdutórios do assunto para a graduação). Eventuais imprecisões são de responsabilidade do autor
O documento discute os conceitos de controle estatístico de processo (CEP) e qualidade. O CEP envolve a coleta de dados estatísticos de amostras para monitorar processos de produção e identificar variações significativas que precisam ser eliminadas. O documento explica termos como média, desvio padrão e gráficos de controle usados no CEP para manter a qualidade dentro dos padrões especificados.
O documento discute os tipos de dados em programação, incluindo inteiros, reais, caracteres e lógicos. Variáveis armazenam dados na memória e precisam ser definidas antes do uso, incluindo nome, tipo e valor. Constantes são valores fixos também definidos no início do programa.
O documento discute os tipos de dados em programação, incluindo inteiros, reais, caracteres e lógicos. Variáveis armazenam dados na memória e precisam ser definidas antes do uso, incluindo nome, tipo e valor. Constantes são valores fixos também definidos no início do programa.
O documento discute os tipos de dados em programação, incluindo inteiros, reais, caracteres e lógicos. Variáveis armazenam dados na memória e precisam ser definidas antes do uso, incluindo nome, tipo e valor. Constantes são valores fixos também definidos no início do programa.
O documento introduz os principais conceitos estatísticos, como: estatística serve para coletar, organizar e analisar dados para apresentar resultados conclusivos de pesquisas; população e amostra; variáveis qualitativas e quantitativas; frequência absoluta e relativa; medidas de tendência central como média, mediana e moda.
1. O documento apresenta notas de aula sobre estatística. 2. As notas de aula abordam tópicos como conceitos básicos de estatística, apresentação de dados, distribuição de frequências, medidas de tendência central e dispersão, teoria da probabilidade, variáveis aleatórias, modelos de probabilidade, inferência estatística e análise de correlação e regressão. 3. O documento serve como guia para estudantes aprenderem os principais conceitos e técnicas da estatística.
Semelhante a Inteligencia artificial serie_temporal_ dis_v1 (20)
O documento discute sistemas de recomendação utilizando machine learning e deep learning. Ele descreve o pré-processamento de dados, a aplicação de vários algoritmos de machine learning como kNN, XGBoost e random forest, e o desenvolvimento de um modelo de autoencoder para filtragem colaborativa usando deep learning. O documento conclui que o naive bayes teve o melhor desempenho entre os algoritmos de machine learning, mas que deep learning é uma boa solução para lidar com grandes volumes de dados.
This article aims to classify texts and predict the categories of occurrences, through the study of Artificial Intelligence models, using Machine Learning and Deep Learning for the classification of texts and analysis of predictions, suggesting the best option with the smallest error.
The solution was designed to be implemented in two stages: Machine Learning and Application, according to the diagram below from the Data Science Academy.
This article aims to contribute to a population service strategy in the fight against Covid-19, through a scenario simulator with Artificial Intelligence and System Dynamics.
In February 2021, relevant changes were announced in Brazil in the fight against Covid-19, especially regarding vaccination. This article addresses a series of predictions to assist in the strategy of serving the population in the fight against this disease. It is a good opportunity to better understand the "invisible" factors that affect the people's contamination.
To help model these "invisible" factors, social distancing data was obtained, this data was passed as input to an Artificial Intelligence system and predictions were performed in Deep Learning (LSTM). The prediction of the social distancing variable was exported to calibrate the model in System Dynamics, with the Stella software, and the simulations were made with a Covid-19 model.
This document discusses developing a capacity prediction model for event management. It involves:
1. Developing a capacity model as part of event management to focus on major alarms from file system events monitored by Spectrum tool.
2. Correlating file system data with memory and CPU usage to predict the percentage of file system occupancy over time through statistical modeling.
3. The models generate predictions of when major alarms on file system partitions will occur based on the estimated average usage rate and time remaining until the alarm threshold is reached.
We are living in an era where changes are taking place very quickly.
Imagine a scenario where we can use Machine Learning to identify changes that are associated with incidents and problems.
Then classify them using the Cynefin framework to determine the context of change according to the 5 domains: simple, complicated, complex, chaotic and disorder (natural science).
Come up with a Decision Intelligence model that can provide the best answer to the potential problems caused by this ever evolving environment.
Finally add the Requests to the Incident Model, as ITSM focus, on IT4IT Value Stream Network!
Using Machine Learning embedded in Organizational Responsibility Model, added to the ten characteristics of the CIO Master and the twelve competencies of the workforce can help lead the Digital Transformation of the traditional public organizations to the Exponential.
The document describes a problem prediction model that uses artificial intelligence algorithms to evaluate changes made by an IT company and anticipate potential problems. The model analyzed 194 known problems, 2,400 past changes, and 201 predicted future changes. As a result, the model identified one change from October 29, 2019 that was likely to cause a problem. A team is investigating this potential issue. The document concludes that the naive Bayes classifier model is an important tool for change analysis and problem prediction.
O documento descreve um projeto de implantação do Modelo de Responsabilidade Organizacional na Prodemge entre 2015-2018, com o objetivo de preparar a organização para a transformação digital. O projeto envolveu a qualificação da demanda, plano de capacidade, acordos de nível operacional, otimização da produtividade, evolução dos empregados e loops entre áreas. A estratégia foi transpor dados da simulação do modelo para a realidade da empresa e usá-los em aprendizado de máquina para prever como atividades deveriam ser executadas no modo
Objetivando preparar as líderes e organizações para o futuro (do tradicional para o exponencial), o Modelo de Responsabilidade Organizacional foi adaptado para abranger além do contexto analítico, com Inteligência Artificial e Aprendizagem de Máquina, o contexto mais subjetivo com Dez Características do Mestre CIO (por Álvaro Mello), bem como as doze Competências da Força de Trabalho (por Lily Mok).
1. O documento apresenta análises exploratórias de dados e modelos de classificação para prever se uma organização é tradicional ou exponencial com base em suas características. 2. É treinado um modelo de floresta aleatória que identifica "Demandas Pendentes" como a característica mais importante. 3. Também é construída uma árvore de decisão para classificação e são comparadas suas previsões com as do modelo de floresta aleatória.
1. O documento descreve a análise exploratória de dados (EDA) de um modelo de responsabilidade organizacional simulado no NetLogo para identificar as variáveis mais importantes.
2. Uma árvore de decisão é treinada usando as variáveis do modelo e a importância das variáveis é calculada, com "Demandas Atendidas" e "Demandas Pendentes" sendo as mais importantes.
3. Um gráfico é gerado mostrando a estrutura da árvore de decisão treinada.
O documento descreve uma oficina realizada pela ABEP sobre o Framework de Arquitetura Corporativa para Interoperabilidade (FACIN). O objetivo da oficina foi ensinar órgãos estaduais de TIC a implementarem o FACIN para desenvolver aplicações interoperáveis e de baixo custo. Como exemplo, o documento detalha a aplicação do FACIN em um projeto do estado de Minas Gerais para implantar uma solução corporativa de geoprocessamento.
O documento discute um modelo de rede de maturidade em governança corporativa desenvolvido para mapear o alinhamento entre as recomendações do Decreto no 47.154 de Minas Gerais, que regulamenta a Lei das Estatais, e boas práticas de governança. O modelo consiste em dimensões e níveis de maturidade e permite visualizar as práticas associadas a cada nível e sua relação com os artigos do Decreto.
A Inteligência Artificial contribui para criar, ampliar e melhorar os sistemas de serviços, estabelecendo os algoritmos que irão subsidiar o processo de tomada de decisão no ambiente das organizações. Também contribuem para a solução dos problemas relacionados à gestão por resultados, visando à melhoria dos serviços públicos prestados, em face de uma demanda de serviços superior à capacidade instalada.
O documento descreve o Modelo de Conteúdo do Framework de Arquitetura Corporativa para Interoperabilidade (FACIN), apresentando suas nove visões e detalhando alguns elementos da Visão de Negócios, como capacidades de negócio, serviços, clientes e processos.
O documento discute o II Fórum de Governança e o alinhamento de ações governamentais aos pilares da governança corporativa. É apresentado um modelo para representar as relações entre diversas ações de governo voltadas para melhoria da gestão e governança. O modelo pode ser usado como padrão e estendido para outras entidades, visando maior participação social e benefícios para cidadãos.
Este documento apresenta uma monografia sobre cenários exploratórios da cadeia de valor utilizando a dinâmica de sistemas e o modelo da quinta disciplina. A monografia discute conceitos como feedback loops, atrasos, as cinco disciplinas da organização de aprendizagem e descreve três cenários exploratórios.
A linguagem C# aproveita conceitos de muitas outras linguagens,
mas especialmente de C++ e Java. Sua sintaxe é relativamente fácil, o que
diminui o tempo de aprendizado. Todos os programas desenvolvidos devem
ser compilados, gerando um arquivo com a extensão DLL ou EXE. Isso torna a
execução dos programas mais rápida se comparados com as linguagens de
script (VBScript , JavaScript) que atualmente utilizamos na internet
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
1. Estratégia de Atendimento à População no Combate à Covid-19
Simulador de Cenários com Inteligência Artificial e Dinâmica de Sistemas
Guttenberg Ferreira Passos
Ilan Chamovitz
Suellen Teixeira Zavadzki de Pauli
Paulo Edy Nakamura
Leonardo Grandinetti Chaves
O presente artigo tem como objetivo contribuir para uma estratégia de atendimento à
população no combate à Covid-19, através de um simulador de cenários com Inteligência
Artificial e Dinâmica de Sistemas.
Em fevereiro de 2021 foram anunciadas no Brasil mudanças relevantes no combate à Covid-19,
especialmente quanto à vacinação. Aborda-se nesse artigo uma série de previsões para auxiliar
na estratégia de atendimento à população no combate a esta doença, é uma boa
oportunidade para entender melhor os fatores "invisíveis" que afetam a contaminação das
pessoas.
Para ajudar a modelar esses fatores "invisíveis", partiu-se da obtenção de dados de
distanciamento social, esses dados foram passados como entrada em um sistema de
Inteligência Artificial e foram executadas previsões em Deep Learning (LSTM). A previsão da
variável distanciamento social foi exportada para calibrar o modelo em Systems Dynamics,
com o software Stella, e as simulações foram feitas com um modelo de Covid-19. Como
trabalho futuro, o resultado dessas simulações serão plotados em um mapa de um telefone
celular através de geoprocessamento.
Todos os modelos foram adaptados das aulas do curso de Modelagem Preditiva de Séries
Temporais que podem ser encontradas na timeline da Comunidade da Data Science Academy
no portal: www.datascienceacademy.com.br.
Séries Temporais
Uma série temporal é um conjunto sequencial de pontos de dados, medido tipicamente em
tempos sucessivos.É matematicamente definido como um conjunto de vetores x (t), t = 0,1,2,
... onde t representa o tempo decorrido. A variável x(t) é tratada como uma variável aleatória.
Uma variável aleatória é uma variável quantitativa, cujo resultado (valor) depende de fatores
aleatórios.
As medições realizadas durante um evento em uma série temporal são organizadas em uma
ordem cronológica adequada.Uma série temporal contendo registros de uma única variável é
denominada como univariada e mais de uma variável como multivariada.
As séries temporais adicionam uma dependência explícita da ordem entre as observações:
uma dimensão temporal. Essa dimensão adicional é uma restrição e uma estrutura que
fornece uma fonte de informações adicionais. E muito, muito valiosa.
2. A análise de séries temporais envolve o desenvolvimento de modelos que melhor capturam ou
descrevem uma série temporal observada para entender as causas. Este campo de estudo
busca o "porquê" por trás de um conjunto de dados de séries temporais.
A qualidade de um modelo descritivo é determinada por quão bem ele descreve todos os
dados disponíveis e a interpretação que fornece para melhor informar o domínio do problema.
O objetivo principal da análise de séries temporais é desenvolver modelos matemáticos que
forneçam descrições plausíveis a partir de dados de amostra.
Fazer previsões sobre o futuro é chamado de extrapolação no tratamento estatístico clássico
de dados de séries temporais. Os campos mais modernos se concentram no tópico e se
referem a ele como previsão de séries temporais. A previsão envolve ajustar os modelos aos
dados históricos e usá-los para prever observações futuras.
Uma distinção importante na previsão é que o futuro está completamente indisponível e só
deve ser estimado a partir do que já aconteceu. O objetivo da análise de séries temporais é
geralmente duplo: entender ou modelar os mecanismos estocásticos que dão origem a uma
série observada e prever os valores futuros de uma série com base no histórico dessa série.
Isso é o que chamamos de Modelagem Preditiva.
Modelagens Preditivas não lineares com séries temporais.
Para modelos preditivos não lineares usa-se Métodos Estatísticos, Inteligência
Artificial, Machine Learning e Deep Learning, tais como os seguintes algoritmos:
Naive;
ExponentialSmoothing;
ARMA - Autoregressive Moving Average;
ARIMA - Autoregressive Integrated Moving Average;
SARIMAX – Seasonal Autoregressive Integrated Moving Average;
DeepAR–GluonTS - Probabilistic Time Series Modeling;
MLP - MultilayerPerceptron;
LSTM - Long short-term memory.
Algoritmo Naive
É o modelo preditivo mais simples que se pode criar. Baseia-se em uma técnica de estimativa
na qual os dados reais do último período são usados como previsão desse período, sem ajustá-
los ou tentar estabelecer fatores causais. É usado apenas para comparação com as previsões
geradas pelas melhores técnicas (sofisticadas).
Naivesignifica ingênuo, portanto, não há técnica avançada aqui é apenas usadocomo ponto de
partida, uma referência para os demais modelos. Qualquer modelo mais avançado deve
apresentar resultados superiores ao AlgoritmoNaive.
3. Algoritmo ExponentialSmoothing
Smoothing (Suavização ou Alisamento) em séries temporais é um conjunto de métodos para
suavizar séries temporais eliminando "saltos". Existem várias maneiras de fazer isso. Talvez o
mais fácil seja calcular a média móvel simples (SimpleMovingAverage).
A suavização é basicamente uma técnica usada para ver a tendência de longo prazo nos dados,
diminuindo os efeitos dos componentes periódicos / sazonais dos dados. Basicamente, usa-se
a suavização quando se quer remover as flutuações nos dados e focar apenas em preservar as
tendências de longo prazo.
O objetivo de suavizar é remover o ruído e expor melhor o sinal dos processos. As médias
móveis são um tipo simples e comum de suavização usado na análise de séries temporais e na
previsão de séries temporais. O cálculo de uma média móvel envolve a criação de uma nova
série em que os valores são compostos da média de observações brutas na série temporal
original.
A suavização da média móvel (MovingAverageSmoothing) é uma técnica eficaz na previsão de
séries temporais também, ou seja, pode ser usado para preparação de dados, engenharia de
recursos e até diretamente para fazer previsões. Uma média móvel requer que você
especifique um tamanho de janela chamado largura da janela. Isso define o número de
observações brutas usadas para calcular o valor da média móvel.
A parte "móvel" na média móvel refere-se ao fato de que a janela definida pela largura da
janela é deslizada ao longo da série temporal para calcular os valores médios na nova série.
Algoritmo ARMA
Auto RegressiveMovingAverage - ARMA é um modelo de média móvel auto-regressiva. É
simplesmente a fusão entre os modelos AR (p) e MA (q). O modelo AR (p) tenta explicar o
momento e os efeitos médios da reversão frequentemente observados nos mercados (efeitos
dos participantes do mercado). O modelo MA (q) tenta capturar os efeitos de choque
observados em termos de ruído branco. Estes efeitos de choque podem ser considerados
eventos inesperados que afetam o processo de observação, p, como ganhos repentinos,
guerras, ataques, etc.
O modelo ARMA tenta capturar esses dois aspectos ao modelar séries temporais, não leva em
consideração o agrupamento de volatilidade, um fenômeno empírico essencial de muitas
séries temporais financeiras.
O Modelo ARMA(1,1) é representado como: x(t) = ax(t-1) + be(t-1) + e(t), onde e(t) é o ruído
branco com E [e(t)] = 0.
Um modelo ARMA geralmente requer menos parâmetros que um modelo AR (p) ou um
modelo MA (q) individual.
4. Algoritmo ARIMA
AutoregressiveIntegratedMovingAverage - ARIMAé um modelo de média móvel integrada
auto-regressiva, uma generalização de um modelo ARMA.
Ambos os modelos são ajustados a dados de séries temporais para melhor entender os dados
ou para prever pontos futuros na série (previsão). Os modelos ARIMA são aplicados em alguns
casos em que os dados mostram evidências de não estacionariedade, onde uma etapa inicial
de diferenciação (correspondente à parte "integrada" do modelo) pode ser aplicada uma ou
mais vezes para eliminar a não estacionariedade.
A parte AR do ARIMA indica que a variável de interesse em evolução é regredida com seus
próprios valores defasados (isto é, anteriores). O I (para "integrado") indica que os valores dos
dados foram substituídos pela diferença entre seus valores e os valores anteriores (e esse
processo de diferenciação pode ter sido executado mais de uma vez). O objetivo de cada um
desses recursos é fazer com que o modelo ajuste os dados da melhor maneira possível. A parte
MA indica que o erro de regressão é na verdade uma combinação linear de termos de erro
cujos valores ocorreram contemporaneamente e em vários momentos no passado.
Modelos ARIMA não sazonais são geralmente designados ARIMA(p, d, q), em que os
parâmetros p, d e q são números inteiros não negativos, p é a ordem (número de intervalos de
tempo) do modelo autoregressivo, d é o grau de diferenciação (o número de vezes que os
dados tiveram valores passados subtraídos) e q é a ordem do modelo de média móvel.
Algoritmo SARIMAX
SeasonalAutoregressiveIntegratedMovingAverage- SARIMAX é um modelo sazonal de média
móvel integrada auto-regressivacom os parâmetros (p, d, q) (P, D, Q) m, em que m refere-se
ao número de períodos em cada sazonalidade e os maiúsculos P, D, Q referem-se ao
autorregressivo, diferenciado, e termos da média móvel da parte sazonal do modelo ARIMA.
Algoritmo DeepAR-GluonTS
O DeepARfoi lançado pela Amazon, sendo integrado ao SageMaker. Seu objetivo é prever a
cada etapa o seguinte (horizonte = 1). Isso significa que a rede deve receber na entrada a
observação anterior (no atraso = 1) z_t-1, juntamente com um conjunto de covariáveis
opcionais x_i. As informações são propagadas para a camada oculta e até a função de
verossimilhança (que é uma função de pontuação usada no nível de uma função de perda). A
função de probabilidade pode ser binomial gaussiana ou negativa. O erro é calculado usando a
parametrização atual da probabilidade. Facilmente, isso é representado por mu e sigma no
caso de uma probabilidade gaussiana. Isso significa que, durante a execução do
backpropagation, estamos ajustando os parâmetros de rede (pesos w) que alteram a
parametrização de todos os exemplos.
O DeepAR pode ser implementado com o Gluon Time Series - GluonTS, uma biblioteca para
modelagem de séries temporais baseada em Deep Learning, simplifica o desenvolvimento e a
experimentação de modelos de séries temporais para tarefas comuns, como previsão ou
detecção de anomalias. Ele fornece todos os componentes e ferramentas necessários que os
5. Cientistas de Dados precisam para criar rapidamente novos modelos, executar e analisar
experimentos com eficiência e avaliar a precisão do modelo.
Algoritmo MLP
Uma rede padrão MultilayerPerceptron- MLPé uma rede neural recorrente - RNNprojetada
para problemas seqüenciais,pode ser pensada como a adição de loops à arquitetura. Por
exemplo, em uma dada camada, cada neurônio pode passar seu sinal para frente (feed-
forward) e também para o lado.
Uma Rede Neural Recorrente é basicamente uma rede neural que pode ser usada quando seus
dados são tratados como uma sequência, onde a ordem particular dos pontos de dados é
importante e esta sequência pode ser de comprimento arbitrário.
O exemplo mais claro é talvez uma série temporal de números, onde a tarefa é prever o
próximo valor de acordo com valores anteriores. A entrada para a RNN em cada passo de
tempo é o valor atual, bem como um vetor de estado que representa o que a rede "viu" no
tempo - etapas anteriores. Este estado-vetor é a memória codificada da RNN, inicialmente
definida como zero.
Algoritmo LSTM
A rede Long Short-TermMemory- LSTMé uma rede neural recorrente treinada usando
BackpropagationThrough Time e supera o problema da dissipação do gradiente.Como tal, o
modelo pode ser usado para criar grandes redes recorrentes que, por sua vez, podem ser
usadas para resolver problemas de sequência difíceis no aprendizado de máquina e obter
resultados de última geração.
Em vez de neurônios, as redes LSTM possuem blocos de memória conectados através de
camadas.Um bloco possui componentes que o tornam mais inteligente que um neurônio
clássico e uma memória para sequências recentes. Um bloco contém portas que gerenciam o
estado e a saída do bloco. Um bloco opera sobre uma sequência de entrada e cada porta
dentro de um bloco usa as unidades de ativação sigmóide para controlar se são acionadas ou
não, condicionando a mudança de estado e a adição de informações que fluem através do
bloco.
Neurônio Biológico
O Deep Learning Book Brasil é uma iniciativa da Data Science Academy, com o objetivo de
ajudar a difundir o Deep Learning, uma das tecnologias mais revolucionárias do nosso tempo
usada na construção de aplicações de Inteligência Artificial.
De acordo o com o Deep Learning Book, o neurônio biológico é uma célula, que pode ser
dividida em três seções: o corpo da célula, os dendritos e o axônio, cada uma com funções
específicas, porém complementares.
6. Fonte: Data Science Academy- DSA
Neurônio Artificial
Um neurônio artificial representa a base de uma Rede Neural Artificial (RNA), um modelo da
neuroinformática orientado nas redes neurais biológicas.
Fonte: Data Science Academy - DSA
O conhecimento de uma RNA está codificado na estrutura da rede,onde se destacam as
conexões (sinapses)entre as unidades (neurônios) que a compõe.
Fonte: Data Science Academy - DSA
No aprendizado de máquina, o Perceptron é um algoritmo de aprendizado supervisionado de
classificadores binários. Um classificador binário é uma função que pode decidir se uma
entrada, representada por um vetor de números, pertence ou não a alguma classe específica.
É um tipo de classificador linear, ou seja, um algoritmo de classificação que faz suas previsões
com base em uma função de preditor linear combinando um conjunto de pesos com o vetor
de características.
Redes Neurais
Redes neurais são sistemas de computação com nós interconectados que funcionam como os
neurônios do cérebro humano. Usando algoritmos, elas podem reconhecer padrões
7. escondidos e correlações em dados brutos, agrupá-los e classificá-los, e com o tempo aprender
e melhorar continuamente.
O Instituto Asimov https://www.asimovinstitute.org/neural-network-zoo/ publicou uma folha
de dicas contendo várias arquiteturas de rede neural, nos concentraremos nas arquiteturas
abaixo com foco em Perceptron(P), FeedFoward (FF), Recurrent Neural Network (RNN) e Long
Short TermMemory (LSTM):
Fonte: THE ASIMOV INSTITUTE
Deep Learning é uma das bases da Inteligência Artificial (IA), um tipo de aprendizado de
máquina (MachineLearning) que treina computadores para realizar tarefas como seres
humanos, o que inclui reconhecimento de fala, identificação de imagem e previsões,
aprendendo com o tempo. Podemos dizer que é uma Rede Neural com várias camadas ocultas:
8. Modelo Base
Definição do Problema de Negócio
Previsão do distanciamento social em Minas Gerais.
Conjunto de Dados
Usaremos conjuntos de dados que mostram o distanciamento social em Minas Gerais. Os
dados têm registros de 15/02/2020 a 29/01/2021.
Análise Exploratória dos Dados
Decomposição da Série Temporal
Pode-se usar os modelos estatísticos para realizar uma decomposição dessa série cronológica.
A decomposição de séries temporais é uma tarefa estatística que desconstrói uma série
temporal em vários componentes, cada um representando uma das categorias de padrões.
Com os modelos de estatísticas, poderemos ver a tendência, os componentes sazonais e
residuais de nossos dados. Pode-se fazer uma decomposição clássica de uma série temporal,
considerando a série como uma combinação aditiva ou multiplicativa do nível base, tendência,
índice sazonal e residual.
Segue abaixo a decomposição da série temporal:
9. O gráfico acima mostra 2 componentes da série: Sazonalidade e Tendência.
Sazonalidade - o fenômeno se repete em períodos fixos.
Tendência - ao longo do tempo, a série segue uma tendência de crescimento.
Estacionaridade da série.
A estacionariedade é um importante conceito na modelagem de séries temporais e é
caracterizada por uma variável que se comporta de forma aleatória ao longo do tempo ao
redor de uma média constante. Uma série temporal é considerada estacionária se suas
propriedades estatísticas, como média e variância, permanecerem constantes ao longo do
tempo. Intuitivamente, podemos dizer que, se uma série temporal tem um comportamento
específico ao longo do tempo, há uma probabilidade muito alta de que ela siga o mesmo no
futuro.
Basicamente, séries temporais que possuem tendência e/ou sazonalidade não são
estacionárias e é necessário o uso de técnicas adequadas a tal situação.
10. O gráfico ACF permite a avaliação da diferenciação mínima necessária para obter uma série
estacionária (Parâmetro d para o Modelo ARIMA):
Para a execução dos modelos utilizando Métodos Estatísticos os dados foram separados em:
262 registros de treino e
88 registros de validação.
Modelo 11 – Previsões Método Naive