O documento apresenta informações sobre uma organização que apoia eventos sobre In-Memory OLTP no SQL Server. A agenda inclui tópicos como conceitos, arquitetura, demonstrações e casos reais de implementação. Dois palestrantes são apresentados com suas credenciais e contatos.
O documento apresenta o banco de dados não relacional CouchDb. Resume o que é CouchDb, como funciona armazenando documentos de forma autocontida sem esquema pré-definido e manipulando os dados através de requisições HTTP em formato JSON de forma independente da linguagem. Apresenta um exemplo HelloWorld com PHP que armazena e lê tweets com uma hashtag do CouchDb.
1) O documento discute bancos de dados orientados a documentos como o CouchDB, onde cada registro é armazenado como um documento com características próprias ao invés de tabelas com campos fixos.
2) Esses bancos não possuem esquema fixo, permitindo que documentos tenham campos diferentes e sejam adicionados dinamicamente.
3) Isso traz flexibilidade e escalabilidade, tornando esses bancos adequados para armazenar dados da web que são voláteis e sem estrutura definida.
Este documento apresenta o Apache CouchDB, um banco de dados não-relacional (NoSQL) que armazena dados em formato de documentos JSON. Ele descreve as principais características do CouchDB, incluindo armazenamento flexível em documentos, consultas em JavaScript, replicação e API RESTful. Além disso, explica as diferenças entre bancos de dados relacionais e documentais e fornece um exemplo simples de uso do MapReduce no CouchDB.
Este documento fornece uma introdução à análise de desempenho usando ferramentas de sistema operacional. Ele discute métodos e ferramentas para monitorar CPUs, memória, E/S de disco e rede em sistemas Linux e Windows. O documento enfatiza a importância de planejar os contadores a serem observados, saber onde procurar problemas e manter registros históricos.
CouchDB é um banco de dados orientado a documentos escrito em Erlang. Ele armazena dados flexíveis em formato JSON e fornece recursos como views, replicação, segurança e validação através de JavaScript. CouchDB é usado por aplicativos do Facebook e BBC devido à sua escalabilidade e desempenho.
Interoperabilidade entre bancos de dadospichiliani
O documento discute a interoperabilidade entre bancos de dados de diferentes fornecedores. Ele explica que ambientes multi-banco são comuns e discute conceitos comuns e desafios de interoperabilidade na administração e troca de dados entre bancos. O documento também analisa ferramentas e técnicas para replicação heterogênea e conversão de instruções SQL entre bancos de dados.
O documento descreve a evolução do Oracle Database ao longo dos anos, incluindo novas funcionalidades em cada versão. Também discute como o trabalho do DBA mudou de administrar manaulmente bancos de dados individuais para gerenciar ambientes complexos de banco de dados, requerendo conhecimentos em várias tecnologias.
1) O documento discute conceitos relacionados a bancos de dados relacionais, incluindo RDBMS, modelo de dados, linguagem SQL e arquitetura de bancos de dados.
2) Banco de dados objeto-relacional (BDOR) é discutido, combinando características de bancos de dados relacionais e orientados a objetos.
3) Diferentes tipos de dados, como arrays, podem ser armazenados em BDORs para aplicações complexas.
O documento apresenta o banco de dados não relacional CouchDb. Resume o que é CouchDb, como funciona armazenando documentos de forma autocontida sem esquema pré-definido e manipulando os dados através de requisições HTTP em formato JSON de forma independente da linguagem. Apresenta um exemplo HelloWorld com PHP que armazena e lê tweets com uma hashtag do CouchDb.
1) O documento discute bancos de dados orientados a documentos como o CouchDB, onde cada registro é armazenado como um documento com características próprias ao invés de tabelas com campos fixos.
2) Esses bancos não possuem esquema fixo, permitindo que documentos tenham campos diferentes e sejam adicionados dinamicamente.
3) Isso traz flexibilidade e escalabilidade, tornando esses bancos adequados para armazenar dados da web que são voláteis e sem estrutura definida.
Este documento apresenta o Apache CouchDB, um banco de dados não-relacional (NoSQL) que armazena dados em formato de documentos JSON. Ele descreve as principais características do CouchDB, incluindo armazenamento flexível em documentos, consultas em JavaScript, replicação e API RESTful. Além disso, explica as diferenças entre bancos de dados relacionais e documentais e fornece um exemplo simples de uso do MapReduce no CouchDB.
Este documento fornece uma introdução à análise de desempenho usando ferramentas de sistema operacional. Ele discute métodos e ferramentas para monitorar CPUs, memória, E/S de disco e rede em sistemas Linux e Windows. O documento enfatiza a importância de planejar os contadores a serem observados, saber onde procurar problemas e manter registros históricos.
CouchDB é um banco de dados orientado a documentos escrito em Erlang. Ele armazena dados flexíveis em formato JSON e fornece recursos como views, replicação, segurança e validação através de JavaScript. CouchDB é usado por aplicativos do Facebook e BBC devido à sua escalabilidade e desempenho.
Interoperabilidade entre bancos de dadospichiliani
O documento discute a interoperabilidade entre bancos de dados de diferentes fornecedores. Ele explica que ambientes multi-banco são comuns e discute conceitos comuns e desafios de interoperabilidade na administração e troca de dados entre bancos. O documento também analisa ferramentas e técnicas para replicação heterogênea e conversão de instruções SQL entre bancos de dados.
O documento descreve a evolução do Oracle Database ao longo dos anos, incluindo novas funcionalidades em cada versão. Também discute como o trabalho do DBA mudou de administrar manaulmente bancos de dados individuais para gerenciar ambientes complexos de banco de dados, requerendo conhecimentos em várias tecnologias.
1) O documento discute conceitos relacionados a bancos de dados relacionais, incluindo RDBMS, modelo de dados, linguagem SQL e arquitetura de bancos de dados.
2) Banco de dados objeto-relacional (BDOR) é discutido, combinando características de bancos de dados relacionais e orientados a objetos.
3) Diferentes tipos de dados, como arrays, podem ser armazenados em BDORs para aplicações complexas.
Slides para discutir a arquitetura do SQL Server, alguns dos principais slides a idéia principal foi retirada da explicacação sencacional fornecida pelo Fabricio Catae na série Fundamentos de Bancos de Dados - https://blogs.msdn.microsoft.com/fcatae/2014/04/29/vdeos-de-fundamentos-banco-de-dados/
O documento descreve os principais conceitos e estruturas do banco de dados Oracle, incluindo sua arquitetura de camadas física e lógica, tipos de tabelas como tabelas temporárias e particionadas, e restrições como chave primária e estrangeira.
Oracle 11g – Inteligência em Banco de DadosDaniela Macedo
O documento descreve as principais características da versão 11g do banco de dados Oracle, incluindo melhorias em performance, armazenamento, diagnóstico e disponibilidade com foco em automação, inteligência e autogerenciamento.
O documento fornece uma introdução sobre o Oracle, incluindo conceitos de banco de dados, arquitetura cliente-servidor e componentes da instância Oracle como o buffer cache e processos. Também discute estruturas lógicas como tablespaces e segmentos, além de privilégios e linguagem SQL.
Cenário das Plataformas de Dados 2017/2018Raul Oliveira
O documento apresenta as principais tecnologias de bancos de dados estratégicas para 2017 de acordo com a Gartner, incluindo aprendizado de máquina e inteligência artificial, aplicativos e coisas inteligentes, realidade virtual e aumentada e sistemas conversacionais. Também discute opções de bancos de dados open source como MySQL, PostgreSQL e Greenplum e as últimas versões do SQL Server.
O documento discute o MySQL, incluindo sua popularidade no mercado, características gerais, estruturas de armazenamento como InnoDB, técnicas para grandes volumes de dados como partições, e conclusões sobre seus pontos fortes como desempenho e abertura e fracos como falta de funcionalidades avançadas.
O documento apresenta uma introdução ao Oracle Express 11g, incluindo como obter, instalar e utilizar o software. É descrito o que é um sistema de gerenciamento de banco de dados e como funciona o Oracle Database, além de demonstrações da interface Apex e de comandos SQL básicos.
Projeto Octopus - Database Sharding para ActiveRecordtchandy
O documento discute Active Record e o projeto Octopus. Active Record é um padrão de mapeamento objeto-relacional usado no framework Rails que mapeia classes e objetos para tabelas e registros de banco de dados. O projeto Octopus é uma biblioteca que adiciona suporte a sharding de banco de dados para Active Record, permitindo que dados sejam particionados em vários bancos de dados.
O documento descreve as principais funcionalidades do sistema gerenciador de banco de dados Oracle, incluindo sua história, organização física e lógica, objetos lógicos como tabelas e índices, linguagem PL/SQL, gerenciamento de usuários e privilégios.
Este documento fornece uma introdução ao Oracle SQL e PL/SQL, incluindo objetivos, mapa do curso, conceitos básicos de banco de dados, instruções SQL e PL/SQL.
O documento resume os principais pontos sobre performance no MongoDB, incluindo:
1) Fatores que afetam a performance como hardware, armazenamento, indexação e replicação;
2) Ferramentas para análise como Explain(), profiling e benchmarking;
3) Conceitos-chave como modelagem de dados, replica sets, sharding e query planner.
O documento discute sobre otimização de desempenho em bancos de dados MySQL. Aborda tópicos como indexação de tabelas, particionamento de tabelas e otimização de consultas para melhorar a performance, como criar índices para campos frequentemente usados em consultas e usar o menor tipo de dados possível para economizar espaço.
1) O documento apresenta uma proposta de arquitetura para sistemas multiagentes baseados em ontologias, abordando questões de persistência e acesso concorrente às bases de conhecimento.
2) A arquitetura inclui um Agente Bibliotecário responsável por persistir as ontologias de forma centralizada e distribuir atualizações para as cópias locais mantidas pelos demais agentes.
3) A implementação do protótipo utilizou o framework DiSEN Agency e o triple store Jena TDB para avaliar a viabilidade da proposta.
[1] O DBFS será necessário para transportar arquivos para dentro do Oracle Exadata para carregar DUMP/Flat Files ou arquivos necessários pela aplicação. [2] Dependendo da arquitetura e do modelo de dados da aplicação, como utilização de índices, uso do DoP ou serialização podem ficar muito lento no Oracle exadata. [3] O Modelo de dados e principalmente a utilização dos índices devem ser revistos pelas equipes de desenvolvimento e DBA
Fornece uma completa visão das novas funcionalidades e dos principais benefícios da utilização do PPAS - Postgres Plus Advanced Server 9.4 e do PEM - Postgres Enterprise Manager 5.0.
O PPAS - Postgres Plus Advanced Server auxilia as organizações que buscam economia com de banco de dados, através da implantação de uma alternativa capaz e de baixo custo no lugar de bases de dados proprietárias e caras.
Sua poderosa combinação, de tecnologias de banco de dados não estruturados e relacionais em um único sistema de gerenciamento de banco de dados, fornece a liberdade, flexibilidade e desempenho para a manipulação de dados não estruturados e semi-estruturados.
O PEM - Postgres Enterprise Manager é uma solução que permite que você, monitore, gerencie e consiga ajustar um grande número de servidores de banco de dados Postgres espalhados geograficamente de forma integrada e através de uma console gráfica.
O documento fornece um resumo de 10 minutos sobre o Oracle Exadata, incluindo sua estrutura, tecnologias e arquitetura de I/O. É descrito que o Exadata é uma máquina customizada para bancos de dados que fornece alta performance para ambientes OLTP e data warehouse utilizando tecnologias como Smart Flash Cache, Smart Scan, Storage Index e EHCC.
O documento discute melhorias de performance no MySQL 5.6, incluindo: (1) melhorias no otimizador para lidar com subqueries e ordenação de arquivos; (2) novas funcionalidades como thread pool plug-in e performance schema; (3) dicas de tuning do servidor MySQL, como configuração de hardware e variáveis.
Este documento resume as principais características e funcionalidades do Oracle Exadata X2-2 e do Oracle Enterprise Manager Grid Control, incluindo sua arquitetura, recursos para DBAs e integração com ferramentas Oracle.
O documento descreve o SQLite, um banco de dados SQL leve e open source. Ele define o SQLite como uma biblioteca que armazena e recupera dados diretamente de um arquivo no disco, sem necessidade de configuração ou servidor. O documento também discute a história, características, instalação e uso do SQLite.
Exadata - O Todo é maior que a soma das PartesLuis Marques
O documento discute as características principais do Exadata. Resume que o Exadata consiste em duas camadas - uma camada de armazenamento e uma camada de banco de dados - que se comunicam através do protocolo IDB para melhorar o desempenho. O offloading/Smart Scan processa consultas nas células de armazenamento para reduzir dados transferidos e uso de CPU. O Exadata também usa compressão híbrida colunar, índices de armazenamento e cache flash inteligente para melhorar o desempenho ainda mais.
Esta palestra abordará conceitos e práticas sobre índices no PostgreSQL, incluindo: (1) a teoria por trás dos índices B-tree, (2) casos práticos como índices compostos e parciais, e (3) quando utilizá-los para obter melhor performance. Além disso, serão discutidos outros métodos de acesso como GiST, GIN, Hash e SP-GiST.
Slides para discutir a arquitetura do SQL Server, alguns dos principais slides a idéia principal foi retirada da explicacação sencacional fornecida pelo Fabricio Catae na série Fundamentos de Bancos de Dados - https://blogs.msdn.microsoft.com/fcatae/2014/04/29/vdeos-de-fundamentos-banco-de-dados/
O documento descreve os principais conceitos e estruturas do banco de dados Oracle, incluindo sua arquitetura de camadas física e lógica, tipos de tabelas como tabelas temporárias e particionadas, e restrições como chave primária e estrangeira.
Oracle 11g – Inteligência em Banco de DadosDaniela Macedo
O documento descreve as principais características da versão 11g do banco de dados Oracle, incluindo melhorias em performance, armazenamento, diagnóstico e disponibilidade com foco em automação, inteligência e autogerenciamento.
O documento fornece uma introdução sobre o Oracle, incluindo conceitos de banco de dados, arquitetura cliente-servidor e componentes da instância Oracle como o buffer cache e processos. Também discute estruturas lógicas como tablespaces e segmentos, além de privilégios e linguagem SQL.
Cenário das Plataformas de Dados 2017/2018Raul Oliveira
O documento apresenta as principais tecnologias de bancos de dados estratégicas para 2017 de acordo com a Gartner, incluindo aprendizado de máquina e inteligência artificial, aplicativos e coisas inteligentes, realidade virtual e aumentada e sistemas conversacionais. Também discute opções de bancos de dados open source como MySQL, PostgreSQL e Greenplum e as últimas versões do SQL Server.
O documento discute o MySQL, incluindo sua popularidade no mercado, características gerais, estruturas de armazenamento como InnoDB, técnicas para grandes volumes de dados como partições, e conclusões sobre seus pontos fortes como desempenho e abertura e fracos como falta de funcionalidades avançadas.
O documento apresenta uma introdução ao Oracle Express 11g, incluindo como obter, instalar e utilizar o software. É descrito o que é um sistema de gerenciamento de banco de dados e como funciona o Oracle Database, além de demonstrações da interface Apex e de comandos SQL básicos.
Projeto Octopus - Database Sharding para ActiveRecordtchandy
O documento discute Active Record e o projeto Octopus. Active Record é um padrão de mapeamento objeto-relacional usado no framework Rails que mapeia classes e objetos para tabelas e registros de banco de dados. O projeto Octopus é uma biblioteca que adiciona suporte a sharding de banco de dados para Active Record, permitindo que dados sejam particionados em vários bancos de dados.
O documento descreve as principais funcionalidades do sistema gerenciador de banco de dados Oracle, incluindo sua história, organização física e lógica, objetos lógicos como tabelas e índices, linguagem PL/SQL, gerenciamento de usuários e privilégios.
Este documento fornece uma introdução ao Oracle SQL e PL/SQL, incluindo objetivos, mapa do curso, conceitos básicos de banco de dados, instruções SQL e PL/SQL.
O documento resume os principais pontos sobre performance no MongoDB, incluindo:
1) Fatores que afetam a performance como hardware, armazenamento, indexação e replicação;
2) Ferramentas para análise como Explain(), profiling e benchmarking;
3) Conceitos-chave como modelagem de dados, replica sets, sharding e query planner.
O documento discute sobre otimização de desempenho em bancos de dados MySQL. Aborda tópicos como indexação de tabelas, particionamento de tabelas e otimização de consultas para melhorar a performance, como criar índices para campos frequentemente usados em consultas e usar o menor tipo de dados possível para economizar espaço.
1) O documento apresenta uma proposta de arquitetura para sistemas multiagentes baseados em ontologias, abordando questões de persistência e acesso concorrente às bases de conhecimento.
2) A arquitetura inclui um Agente Bibliotecário responsável por persistir as ontologias de forma centralizada e distribuir atualizações para as cópias locais mantidas pelos demais agentes.
3) A implementação do protótipo utilizou o framework DiSEN Agency e o triple store Jena TDB para avaliar a viabilidade da proposta.
[1] O DBFS será necessário para transportar arquivos para dentro do Oracle Exadata para carregar DUMP/Flat Files ou arquivos necessários pela aplicação. [2] Dependendo da arquitetura e do modelo de dados da aplicação, como utilização de índices, uso do DoP ou serialização podem ficar muito lento no Oracle exadata. [3] O Modelo de dados e principalmente a utilização dos índices devem ser revistos pelas equipes de desenvolvimento e DBA
Fornece uma completa visão das novas funcionalidades e dos principais benefícios da utilização do PPAS - Postgres Plus Advanced Server 9.4 e do PEM - Postgres Enterprise Manager 5.0.
O PPAS - Postgres Plus Advanced Server auxilia as organizações que buscam economia com de banco de dados, através da implantação de uma alternativa capaz e de baixo custo no lugar de bases de dados proprietárias e caras.
Sua poderosa combinação, de tecnologias de banco de dados não estruturados e relacionais em um único sistema de gerenciamento de banco de dados, fornece a liberdade, flexibilidade e desempenho para a manipulação de dados não estruturados e semi-estruturados.
O PEM - Postgres Enterprise Manager é uma solução que permite que você, monitore, gerencie e consiga ajustar um grande número de servidores de banco de dados Postgres espalhados geograficamente de forma integrada e através de uma console gráfica.
O documento fornece um resumo de 10 minutos sobre o Oracle Exadata, incluindo sua estrutura, tecnologias e arquitetura de I/O. É descrito que o Exadata é uma máquina customizada para bancos de dados que fornece alta performance para ambientes OLTP e data warehouse utilizando tecnologias como Smart Flash Cache, Smart Scan, Storage Index e EHCC.
O documento discute melhorias de performance no MySQL 5.6, incluindo: (1) melhorias no otimizador para lidar com subqueries e ordenação de arquivos; (2) novas funcionalidades como thread pool plug-in e performance schema; (3) dicas de tuning do servidor MySQL, como configuração de hardware e variáveis.
Este documento resume as principais características e funcionalidades do Oracle Exadata X2-2 e do Oracle Enterprise Manager Grid Control, incluindo sua arquitetura, recursos para DBAs e integração com ferramentas Oracle.
O documento descreve o SQLite, um banco de dados SQL leve e open source. Ele define o SQLite como uma biblioteca que armazena e recupera dados diretamente de um arquivo no disco, sem necessidade de configuração ou servidor. O documento também discute a história, características, instalação e uso do SQLite.
Exadata - O Todo é maior que a soma das PartesLuis Marques
O documento discute as características principais do Exadata. Resume que o Exadata consiste em duas camadas - uma camada de armazenamento e uma camada de banco de dados - que se comunicam através do protocolo IDB para melhorar o desempenho. O offloading/Smart Scan processa consultas nas células de armazenamento para reduzir dados transferidos e uso de CPU. O Exadata também usa compressão híbrida colunar, índices de armazenamento e cache flash inteligente para melhorar o desempenho ainda mais.
Esta palestra abordará conceitos e práticas sobre índices no PostgreSQL, incluindo: (1) a teoria por trás dos índices B-tree, (2) casos práticos como índices compostos e parciais, e (3) quando utilizá-los para obter melhor performance. Além disso, serão discutidos outros métodos de acesso como GiST, GIN, Hash e SP-GiST.
O documento discute as funcionalidades do In-Memory OLTP no SQL Server 2016, incluindo: 1) Armazenamento de dados diretamente na memória ao invés de páginas; 2) Novos tipos de índices como Hash e Range para melhor desempenho; 3) Procedures compiladas nativamente para execução em nível de máquina.
Interoperabilidade entre bancos de dadospichiliani
Este documento discute a interoperabilidade entre bancos de dados de diferentes fornecedores. Ele explica que cenários multi-banco são comuns e discute conceitos comuns entre bancos de dados. Também aborda como trocar objetos, dados e instruções entre bancos de dados heterogêneos, incluindo recursos de replicação e ferramentas para conversão de SQL.
A apresentação discute estratégias para desenvolver aplicações PHP de forma escalável e alta performance, abordando tópicos como camadas de execução, configuração de webservers, bancos de dados, codificação, cache, balanceamento de carga e otimizações do lado do cliente.
A apresentação discute estratégias para desenvolver aplicações PHP de forma escalável e de alto desempenho, abordando tópicos como camadas de execução, configuração de webservers, bancos de dados, codificação, cache, balanceamento de carga e otimizações do lado do cliente.
O documento resume as principais novidades do SQL Server 2016, incluindo melhorias no ColumnStore, In-Memory OLTP, Query Store, Temporal Tables, Always Encrypted, Stretch Database e outras funcionalidades. Ele também fornece detalhes sobre como testar as novas funcionalidades e links para obter mais informações.
PostgreSQL Tuning: O elefante mais rápido que um leopardoelliando dias
O documento fornece dicas sobre como otimizar o desempenho de um banco de dados PostgreSQL. Ele discute problemas comuns de desempenho, escolhas de configuração erradas, melhorias de hardware e software, parâmetros do sistema operacional e do PostgreSQL, ferramentas de teste de desempenho e escalabilidade.
Este documento apresenta uma introdução ao MongoDB, incluindo: (1) o que é NoSQL e MongoDB, (2) tipos de dados NoSQL, (3) modelagem de dados no MongoDB, (4) operações CRUD e (5) operadores lógicos. O documento também fornece instruções sobre como inicializar e usar o MongoDB.
O documento discute técnicas para otimizar o desempenho de websites desenvolvidos em PHP. Ele aborda ajustes que podem ser feitos no servidor web e no banco de dados para melhorar a performance, como utilização de módulos do Apache, configuração do MySQL e uso de cache. Além disso, apresenta técnicas de profiling em PHP para identificar gargalos e otimizações como compactação de arquivos e static assets.
Este documento discute os benefícios de usar bancos de dados NoSQL e apresenta vários estudos de caso de empresas que migraram com sucesso para sistemas NoSQL como MongoDB e Redis. Ele também aborda desafios comuns como importação e exportação de dados, recuperação em caso de falha e questões de escalabilidade.
O documento apresenta a arquitetura de memória do PostgreSQL, discutindo como os dados são alocados e armazenados na memória e como a memória é dividida e configurada entre os subsistemas. É apresentada a hierarquia de memória do sistema e como os dados são carregados da memória secundária para a memória principal.
Coisas básicas sobre as características dos banco de dados, muito importante antes mesmo de planejar a modelagem.Conhecer o banco em relação o seu projeto é mais importante por causa do que voce irá fazer com seus dados
Este documento fornece um resumo das principais novidades do MySQL 5.6, incluindo melhorias no otimizador de consultas, no storage engine InnoDB, no particionamento de tabelas e na replicação de dados, com recursos como index condition pushdown, multi-threaded slaves e replication checksums.
Monitorando os Recursos e Processos do Servidor, através do Power BISulamita Dantas
O documento discute como monitorar recursos e processos do servidor através do Power BI. Apresenta como configurar o Perfmon e Relog para coletar métricas e importá-las para o SQL Server. Em seguida, cria dashboards no Power BI para visualizar e analisar os dados coletados.
O documento discute o banco de dados em memória TimesTen da Oracle, que fornece tempos de resposta extremamente baixos. Ele explica como o TimesTen funciona como um cache para dados do banco de dados Oracle, melhorando significativamente o desempenho de consultas. Além disso, descreve casos reais de uso do TimesTen na Dell para fornecer visibilidade global de pedidos aos clientes em segundos.
Este documento fornece uma introdução a bancos de dados NoSQL e ao MongoDB. Ele discute as limitações dos bancos de dados relacionais SQL, as características e tipos de bancos de dados NoSQL, e fornece detalhes sobre como instalar e usar o MongoDB, incluindo como criar bancos de dados, coleções e documentos, e executar consultas e operações.
Semelhante a Otimizando a performance com in-memory no SQL 2016 (20)
O documento discute arquiteturas de streaming e clusters de big data. Ele explica porque o streaming de dados é importante, apresenta o Apache Kafka como uma plataforma de streaming e discute as arquiteturas Lambda e Kappa. Também descreve os Clusters de Big Data do SQL Server 2019 como uma plataforma unificada para dados estruturados e não estruturados que integra fontes de dados e fornece ferramentas como Spark e HDFS.
O documento discute Planejando Data Lake com Big Data Clusters. Explica o que é Big Data e os Vs do Big Data. Também define o que é um Data Lake e suas principais características. Por fim, descreve o que são Big Data Clusters, sua arquitetura e como podem ser usados para criar pipelines de dados e ambientes para IA/ML, processando dados de forma escalável.
O documento discute a arquitetura de um Data Lake multicloud. Primeiro, explica os conceitos de Data Lake e as diferenças em relação a data warehouse. Em seguida, aborda os desafios na arquitetura de um Data Lake multicloud, incluindo a captura e processamento de dados de múltiplas fontes, o consumo dos dados e a governança. Por fim, apresenta exemplos de arquiteturas em nuvens diferentes e estratégias como virtualização e gravidade dos dados.
Apresentação realizada no Meetup FCamara (06/02/2020)
Sobre Data Lake e suas implementações.
Conceitos e implementações utilizando Azure, AWS e Big Data Clusters com o SQL Server 2019.
O documento discute a importância da redundância de dados e do disaster recovery após os ataques de 11 de setembro, quando muitas empresas perderam dados ou foram à falência devido à falta de planejamento. Também relata um incidente onde uma empresa teve um impacto financeiro de R$250.000 e tempo de recuperação de 18 horas, mas depois investiu R$2 milhões em TI reconhecendo sua importância para os negócios.
1) O documento discute Big Data Clusters no SQL Server 2019, que integra o Apache Spark e HDFS para fornecer uma plataforma de dados unificada capaz de lidar com dados estruturados e não estruturados.
2) Big Data Clusters fornecem flexibilidade para interagir com várias fontes de dados através de virtualização e federação via Polybase, além de criação de pipelines de dados e escalabilidade gerenciada por Kubernetes.
3) Uma demonstração é apresentada utilizando dados de políticos, eleitores e vota
SQL Server 2019 introduz Big Data Clusters, permitindo implantar clusters escalonáveis de contêineres SQL Server, Spark e HDFS em execução no Kubernetes. Isso permite integrar dados estruturados e não estruturados de várias fontes, como SQL Server, Oracle, Teradata, MongoDB e HDFS. O Big Data Cluster une o SQL Server às ferramentas de Big Data padrão do setor em um pacote suportado pela Microsoft.
1) O documento discute Big Data Clusters no SQL Server 2019, que integra o Apache Spark e HDFS para fornecer uma plataforma de dados unificada capaz de lidar com dados estruturados e não estruturados.
2) Big Data Clusters permite a virtualização e federação de dados através do Polybase, além de criar pipelines de dados e escalar o processamento em cluster gerenciado pelo Kubernetes.
3) Uma demonstração é apresentada utilizando dados de políticos, eleitores e votação armazenados em SQL Server, MongoDB
SQL Server 2019 introduz o Big Data Cluster, permitindo implantar clusters escalonáveis de contêineres SQL Server, Spark e HDFS em execução no Kubernetes. O Big Data Cluster integra dados estruturados e não estruturados através do PolyBase e permite processamento distribuído de grandes volumes de dados. A arquitetura do Big Data Cluster separa os planos de controle, computação e armazenamento de dados para gerenciar e processar dados de forma escalável.
Luiz Henrique Garetti apresenta sobre a importância da alta disponibilidade e recuperação de desastres para proteger dados e informações cruciais. Ele discute casos reais de perdas de dados devido a desastres naturais e falhas de hardware, e como soluções como AlwaysOn do SQL Server podem ajudar a prevenir perdas de dados e manter sistemas em funcionamento.
Os Dados da sua empresa são importantes? Se sua empresa perder um dia de informação o que acontece? com essas duas perguntas inicio a sessão e entro em uma longa conversa e troca de experiencias sobre HA e DR.
Explicando a diferença entre HA e DR. E qual o benefícios de utilizar e não esses conceitos.
Exemplificando com conceitos oficiais as consequências de empresas que perderam dados pois não existia uma disponibilidade de informações ou plano de recuperação de desastre.
Aplicando HA e DR com Alwayson, para exemplificar na pratica o funcionamento de cada um deles.
O documento apresenta a agenda de uma palestra sobre AlwaysOn no SQL Saturday em Bogotá, Colômbia. A agenda inclui tópicos como introdução ao AlwaysOn, tipos de implementações, características-chave, sincronização e failover. O documento também fornece detalhes sobre o palestrante Luiz Henrique Garetti.
ATIVIDADE 1 - ADSIS - ESTRUTURA DE DADOS II - 52_2024.docx2m Assessoria
Em determinadas ocasiões, dependendo dos requisitos de uma aplicação, pode ser preciso percorrer todos os elementos de uma árvore para, por exemplo, exibir todo o seu conteúdo ao usuário. De acordo com a ordem de visitação dos nós, o usuário pode ter visões distintas de uma mesma árvore.
Imagine que, para percorrer uma árvore, tomemos o nó raiz como nó inicial e, a partir dele, comecemos a visitar todos os nós adjacentes a ele para, só então, começar a investigar os outros nós da árvore. Por outro lado, imagine que tomamos um nó folha como ponto de partida e caminhemos em direção à raiz, visitando apenas o ramo da árvore que leva o nó folha à raiz. São maneiras distintas de se visualizar a mesma árvore.
Tome a árvore binária a seguir como base para realizar percursos que partirão sempre da raiz (nó 1).
Figura 1 - Árvore binária
Fonte: OLIVEIRA, P. M. de; PEREIRA, R. de L. Estruturas de Dados II. Maringá: UniCesumar, 2019. p. .
Com base na árvore anterior, responda quais seriam as ordens de visitação, partindo da raiz:
a) Percorrendo a árvore pelo algoritmo Pré-Ordem.
b) Percorrendo a árvore pelo algoritmo Em-Ordem.
c) Percorrendo a árvore pelo algoritmo Pós-Ordem.
Obs.: como resposta, informar apenas os caminhos percorridos em cada Situação:
a) Pré-ordem: X - Y - Z.
b) Em-ordem: X - Y - Z.
c) Pós-ordem: X - Y - Z.
ATENÇÃO!
- Você poderá elaborar sua resposta em um arquivo de texto .txt e, após revisado, copiar e colar no campo destinado à resposta na própria atividade em seu STUDEO.
- Plágios e cópias indevidas serão penalizados com nota zero.
- As perguntas devem ser respondidas de forma adequada, ou seja, precisam ser coerentes.
- Antes de enviar sua atividade, certifique-se de que respondeu todas as perguntas e não se esqueceu nenhum detalhe. Após o envio, não são permitidas alterações. Por favor, não insista.
- Não são permitidas correções parciais no decorrer do módulo, isso invalida seu processo avaliativo. A interpretação da atividade faz parte da avaliação.
- Atenção ao prazo de entrega da atividade. Sugerimos que envie sua atividade antes do prazo final para evitar transtornos e lentidão nos servidores. Evite o envio de atividade em cima do prazo.
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
A linguagem C# aproveita conceitos de muitas outras linguagens,
mas especialmente de C++ e Java. Sua sintaxe é relativamente fácil, o que
diminui o tempo de aprendizado. Todos os programas desenvolvidos devem
ser compilados, gerando um arquivo com a extensão DLL ou EXE. Isso torna a
execução dos programas mais rápida se comparados com as linguagens de
script (VBScript , JavaScript) que atualmente utilizamos na internet
5. FELIPE DE ASSIS
• Database Administrator na DataEX (SP)
• Graduação em Ciência da Computação
• MBA em Arquitetura e Gestão de Infraestrutura – FIAP
• Palestrante PASS - SQL Saturdays (Brasília e Rio de Janeiro)
• MCTS, MCITP, MCSA, MCSE Data Platform e MCT
• Blog: felipedba.wordpress.com
• E-mail: felipe.assis@outlook.com
6. LUIZ HENRIQUE GARRETTI
• Graduado em Ciência da Computação.
• MBA em Business Intelligence - IBTA
• Pós Graduação em Gerenciamento De Banco de Dados – Unicamp.
• Palestrante PASS, Brasília e Bogotá (Colombia).
• Colunista no site Imasters e Revista SQL Magazine.
• MTA, MCTS, MCSA
• Blog www.lhgaretti.wordpress.com – Bit a Bit com SQL Server
• E-mail: luizh.rosario@gmail.com
7. AGENDA • BEGIN TRANSACTION
1- Introdução ao In-Memory OLTP
2- Principais conceitos
3- Arquitetura de funcionamento
4- Demonstrações
5- Resultados obtidos em Casos Reais
6- Esforço de Implementação
7- Evolução (SQL 2014 / 2016)
8- Expectativas para o futuro
9- Conclusão
• COMMIT TRANSACTION
8. VAMOS VER NA PRÁTICA?
DEMO TIME!
O QUE É IN-MEMORY OLTP?
Referência: https://msdn.microsoft.com/en-us/library/dn133171.aspx
DEMO
9. INTRODUÇÃO AO IN-MEMORY OLTP
• Funcionalidade disponível a partir do SQL Server 2014
• Processamento transacional de alta performance
• (até 100 vezes mais rápido)
• Mecanismos de funcionamento totalmente repensados
• Novo conceito de armazenamento de dados
• Novo modelo otimista de concorrência
• Pode ser implantado de forma transparente às aplicações
• Integrado com os outros principais recursos do SQL Server
10. CONCEITOS PRINCIPAIS
• O In-Memory OLTP é composto por:
• Novo tipo de tabela (In-Memory)
• Dois novos tipos de índices
• Novo tipo de procedure (nativamente compilada)
• Novo modelo de concorrência otimista
• Novo formato de armazenamento de dados:
• Em memória (registros ao invés de páginas)
• Em disco (checkpoint files, append-only, data e delta)
11. OVERVIEW DA ARQUITETURA
DatafileLogfileIn-Memory FG
tabelas e índices in-memory query
interop
tabelas e índices disk-
based
execução de queries t-
sql
parser,
catalog,
optimizer
Compilador
in-memory
SPs nativamente
compiladas
tds handler
T1 IX1
T1 IX1T1 IX1
T2 IX2
T2 T2
• Disk-Based
• In-Memory
• Interop
12. CREATE DATABASE [Corporativo]
ON PRIMARY
(NAME = N‘Copor1',FILENAME = N'C:DataCoporrativo1.mdf'),
FILEGROUP [Hekaton_InMemory]
CONTAINS MEMORY_OPTIMIZED_DATA
(NAME = N‘Corp2', FILENAME = N'C:DataMemCorp2')
LOG ON (NAME = N‘Corp_log', FILENAME =
N'C:DataLogCorplog.ldf')
ESTRUTURA IN-MEMORY
Filegroup Container
Create
Table DDL
Code
Generated
and
Compiled
Table DLL
is created
Table DLL
loaded in
memory
14. TABELAS EM MEMÓRIA
• Tipos de Tabela:
• SCHEMA_AND_DATA
• Mantém a estrutura (CREATE TABLE) .
• Dados são persistidos no Filegroup In-Memory.
• Constraint Primary Key requerida.
• SCHEMA_ONLY
• Mantém somente a estrutura da tabela (CREATE TABLE).
• Índice requerido.
15. CREATE TABLE Example01_Data
(
Codigo INT NOT NULL IDENTITY,
Nome VARCHAR(100) COLLATE Latin1_General_100_BIN2 NOT NULL,
DataNasc DATETIME NOT NULL,
Endereco VARCHAR(100) NOT NULL,
Cidade VARCHAR(100) NOT NULL,
CONSTRAINT PK_Example01_Codigo
PRIMARY KEY NONCLUSTERED HASH (Codigo)
WITH (BUCKET_COUNT = 100),
INDEX IX_Nome NONCLUSTERED (Nome)
) WITH( MEMORY_OPTIMIZED = ON, DURABILITY = SCHEMA_AND_DATA )
GO
Collation *BIN2 necessário no
SQL Server 2014 para colunas
indexadas tipo texto.
Na versão 2016, outros
collations são suportados, mas o
BIN ainda é ligeiramente mais
rápido.
Definição da Tabela como
Memory Optimized
Durabilidade:
SCHEMA_AND_DATA ou SCHEMA_ONLY
Índice na coluna Nome
Pré-Requisito:
PK ou 1 índice
CRIANDO TABELAS EM MEMÓRIA
16. Buffer Cache
Data
Page
8KB
Data
Page
8KB
Index
Page
8KB
Buffer Buffer Buffer
Data
Page
8KB
Data
Page
8KB
Index
Page
8KB
Buffer Buffer Buffer
Data
Page
8KB
Data
Page
8KB
Data
Page
8KB
Buffer BufferBuffer
Data
Page
8KB
Data
Page
8KB
Data
Page
8KB
Buffer BufferBuffer
Datafile(s) mdf ou ndf
Data
Page
8KB
Data
Page
8KB
Data
Page
8KB
Index
Page
8KB
Data
Page
8KB
Data
Page
8KB
Data
Page
8KB
Index
Page
8KB
ARMAZENAMENTO DE DADOS DISK-BASED
17. ARMAZENAMENTO DE DADOS IN-MEMORY
• In-Memory OLTP não utiliza
páginas e extents
• Ao invés disso, armazena os
registros individualmente
em memória
• Índices são utilizados para
conectar registros da
mesma tabela
• Por não possuir estruturas
de páginas, não há
necessidade de latches
• Devido ao modelo otimista
de concorrência, não há
necessidade de locks
Memória
Row 1
Row 2
Row 3
Row 4
Row 5
Row 6
Row 7
Row 8
Tabela A
Tabela B
18. ÍNDICES TRADICIONAIS (DISK-BASED)
Conhecemos índices no SQL Server, como estruturas B-Tree...
Intermediate
LEAF LEAF LEAF LEAF LEAF
ROOT
Intermediate Intermediate Intermediate
Mas no In-Memory OLTP, os índices funcionam um pouco diferente...
Vamos ver...
19. RECORDS IN-MEMORY
End Ts StmIdBegin Ts IdxLinkCount
{
8 bytes
{
{4 bytes
{
2 bytes
Padding
8 bytes
KeyRow Header Payload
8 bytes * (idxLinkCount -1)
{
2 bytes
• Sem Páginas de Dados, sem extents...
20. TIPOS DE ÍNDICES IN-MEMORY
Recomendado para endereçar as
seguintes situações:
• Queries que recuperam registros
específicos (Lookups)
• Queries que procuram registros
usando igualdade ( = )
• Colunas com alta cardinalidade
(poucos valores repetidos)
• Usa o conceito de Hash Tables
and Hash Function
Hash Indexes Range Indexes
Mais adequado para os seguintes
cenários:
• Queries que pesquisam por
intervalos de registros
• Queries que utilizam predicados
como >, <, >=, <=, BETWEEN
• Queries onde a quantidade de
registros é desconhecida
• Usam um novo tipo de árvore
balanceada chamada Bw-Trees
A partir do SQL Server 2016, também são suportados os
Columnstore Indexes
21. TIPOS DE ÍNDICES – HASH INDEX
Hash Index
Coluna Nome
1
0
3
2
5
4
7
6
Neymar Ed. Fisica60, ...
Index Pointer StudentTimestamps Class
Gabigol Psicologia7, ...
Array de Ponteiros (Buckets)
Gabriel Jesus Teologia7, ...
RowChain
22. TIPOS DE ÍNDICES – RANGE INDEX
1
3
4
5
6
Page Mapping TabIe (Memory Addresses)
2
7
8
DG
ABCD EFG
JP
HIJ KLMNOP
GPZ
UZ
QRSTU CWXYZ
PID3 PID1 PID4
Root
PID0
0 Novo Conceito: BW-Tree
M
M
M
M
Data Rows
(Chain)
23. PROCEDURES NATIVAS IN-MEMORY
• T-SQL compilado em tempo de
execução.
• Acessa todas as tabelas (Disk-Based
and Memory)
• Contempla todos os comandos T-SQL
• Plano de execução estimado e real
disponíveis
Modelo Transacional In-Memory
• T-SQL compilado em DDL (C++) .
• Executado em baixo nível direto
Processador (Linguagem de Maquina)
• Acessa somente Tabelas In-Memory.
• T-SQL com limitações
• Parâmetro NATIVE_COMPILATION
• Apenas plano de execução estimado
O fluxo interno de criação de ambos os modelos seguem *praticamente* o mesmo fluxo.
CREATE PROC
DDL
(T-SQL)
In Memory
OLTP
Runtime
In Memory
OLTP
Compiler
DLL
Parser /
Algebrizer
Query
Optimizer
Query
Plan
Query
Tree
24. PROCEDURES NATIVAS IN-MEMORY
CREATE PROCEDURE [dbo].[InsertOrder] (@id INT, @date DATETIME)
WITH
NATIVE_COMPILATION,
SCHEMABINDING,
EXECUTE AS OWNER
AS
BEGIN ATOMIC
WITH
(TRANSACTION ISOLATION LEVEL = SNAPSHOT,
LANGUAGE = N'us_english')
-- Insert T-SQL…
Select @@Version;
END
Identifica uma Proc Nativamente
Compilada em Memoria
Requerido
Cria uma transação se
não houver nenhuma.
Caso contrário, cria
apenas um savepoint.
25. UTILIZAÇÃO DO TRANSACTION LOG
Transaction Log
T1 IX1 T2 IX2
UPDATE Example01
SET Descricao = 'Novo Valor'
WHERE Codigo = 1
Disk-Based In-Memory
In-Memory FG
Data Delta
In-Memory Checkpoint
• Transações In-Memory são
registradas no mesmo TLOG
• Apenas modificações
confirmadas (commit) são
registradas
• Escrita mais eficiente obtida
através de compressão
26. UTILIZAÇÃO DO TRANSACTION LOG
IN MEMORY
Adaptado de “SQL Server In-Memory OLTP Internals – Kalen Delaney”
DEMO
27. CHECKPOINT FILES - ARQUITETURA
T2
Optimized Table
SCHEMA_ONLY
T1
Optimized Table
SCHEMA_AND_DATA
In-Memory FG
Data Data
Delta Delta
IX1 IX2
Checkpoint Thread
- Checkpoint
- Log cresce 512 MB (2014)
- Log cresce 1.5 GB (2016)
Checkpoint Files
- Append Only
- Filestream (2014)
- Código Próprio (2016)
- Gerenciados em pares:
- Data Files: Inserts
- Delta Files: Deletes
- Update gerenciados como
Inserts e Deletes
28. CHECKPOINT FILES - FUNCIONAMENTO
Codigo Nome Disciplina
1 Neymar Ed. Física
Memória
Checkpoint
Files
(Disco)
2 Gabriel Jesus Teologia
3 Gabigol Psicologia
Checkpoint
Thread
Codigo Nome Disciplina
1 Neymar Ed. Física
2 Gabriel Jesus Teologia
3 Gabigol Psicologia
Inserts
Deletes
3
Data Files
Delta Files
29. GARBAGE COLLECTOR
• Dois tipos de Garbage Collector
• Limpeza de memória inteligente
• Feita pelos próprios processos de usuário
• Automaticamente por uma thread dedicada, acionada em um
Checkpoint manual ou quando a ocupação do Transaction Log
cresce 512 MB (2014) / 1.5 GB (2016)
• Gerenciamento dos Checkpoint Files
• Responsáveis por criar, consolidar e excluir Data/Delta Files
• Acionado pelo checkpoint ou automaticamente pelo engine
32. EVOLUÇÃO SQL SERVER 2016
• Capacidade máxima de armazenamento de dados
em memória: 256 GB
• Collation BIN2 requerido para colunas do tipo
texto que precisem ser indexadas
• Foreign Keys não suportadas
• ALTER TABLE não suportado (necessário salvar os
dados, excluir a tabela e criá-la novamente)
• Índices somente em colunas com NOT NULL
• ALTER PROC não suportado
• TDE não suportado
• Somente Procedures nativamente compiladas
• Paralelismo não suportado
SQL Server 2014 SQL Server 2016
• Capacidade máxima de armazenamento de dados em
memória: 2 TB (4 TB*)
• Todos os principais collations são suportados, mas o
collation binário ainda funciona melhor
• Foreign Keys suportadas entre tabelas In-Memory
• ALTER TABLE suportado, mas apenas automatiza o
trabalho manual que era necessário no SQL Server 2014
• Índices suportados em todas as colunas
• ALTER PROC suportado
• TDE suportado
• + Triggers e functions nativamente compiladas
• Paralelismo suportado para algumas operações
http://sqlperformance.com/2015/11/sql-server-2016/in-memory-oltp-enhancements
33. CONSIDERAÇÕES ADICIONAIS
• Quantidade de Memória Recomendada
• 2x Volumetria dos dados
• Dados armazenados em memória
• Versionamento dos registros
• Movimentações internas dos processos do In-Memory
• Nota: Não é todo banco de dados ou aplicação que vai
se beneficiar significativemente do In-Memory OLTP
34. CASE – ENVIO DE SMS
Após mudar a arquitetura para utilizar in-memory (em uma
implementação conhecida como Shock Absorber) o limite de
throughput de envio de SMS passou de 1000 SMS/hora para 850 mil
SMS/hora.
Impacto positivo de 450% na receita da empresa.
35. CASE – DIMINUIÇÃO DE FILAS
Com a implementação do In-Memory, a liberação de medicamentos
passou a ser mais rápida, diminuindo filas e impactando positivamente
o cliente final (cidadão).
O Sistema atende 864 Farmácias em todo o estado.
Aproximadamente 25 mil pacientes dia.
O “tempo média de espera” caiu de 11 minutos
para 2 minutos.
36. CASE – TABELA SCHEMA_ONLY
Disk
Writes/
Sec
(total)
Disk
Reads/
Sec
(total)
Procedure
de Insert
AVG Time
(2 Sessões paralelas)
Média CPU
(micro seg)
Disk-Based T-SQL 4025 ms 1.974.912
In-Memory T-SQL 708 ms 366.233
Onde:
Empresa de processamento de
transações de crédito.
Resultado:
Throughput de processamento
otimizado em mais de 400%.
37. MAIS DÚVIDAS?
3
• Entre em contato:
Felipe
felipe.assis@outlook.com
Luiz
luizh.rosario@gmail.com
38. LINKS INTERESSANTES E REFERÊNCIAS
White Paper: SQL Server 2016 CTP 3 In-Memory OLTP Internals
http://sqlblog.com/blogs/kalen_delaney/archive/2016/01/19/sql-server-2016-
ctp3-in-memory-oltp-internals-whitepaper.aspx
Book: SQL Server Internals: In-Memory OLTP
http://www.red-gate.com/library/sql-server-internals-in-memory-oltp
Shock Absorber
https://blogs.technet.microsoft.com/dataplatforminsider/2013/09/19/in-
memory-oltp-common-design-pattern-high-data-input-rateshock-absorber/
Calling Native Compiled Procedures Best Practices
http://sqlperformance.com/2015/06/t-sql-queries/how-not-to-call-hekaton-
procedures
Felipe de Assis – Série sobre In Memory OLTP
https://felipedba.wordpress.com/category/in-memory-oltp
39. STAY INVOLVED !
• Sign up for a free membership today at sqlpass.org.
• Linked In: http://www.sqlpass.org/linkedin
• Facebook: http://www.sqlpass.org/facebook
• Twitter: @SQLPASS
• PASS: http://www.sqlpass.org