Apresentação sobre estratégias para o armazenamento de dados experimentais em neurociência, questionários digitais para a coleta e armazenamento de dados experimentais e meta-dados e ferramentas para o gerenciamento de arquivos.
Introdução ao Armazenamento de Dados de Experimentos em Neurociência - Parte 03NeuroMat
O documento discute ferramentas para gerenciamento de questionários eletrônicos e arquivos digitais, incluindo sistemas gratuitos como o LimeSurvey e PyDio. Também fornece critérios para escolher um sistema de questionários e descreve sistemas de gerenciamento de workflows científicos.
O documento discute as principais técnicas de mineração de dados, incluindo classificação, clusterização, associação e sequência. A classificação é usada para prever grupos de objetos, enquanto a clusterização agrupa objetos similares. Associações identificam relacionamentos entre itens e sequências determinam padrões temporais. O documento também discute os desafios da análise de dados, como a necessidade de dados limpos e a explicação de resultados.
Introdução elementar à modelagem estocástica de cadeias simbólicasNeuroMat
A class on statistical regularities and statistical model selection. Lecturer: Prof. Antonio Galves, NeuroMat principal investigator and professor at the University of São Paulo's Institute of Mathematics and Statistics.
Introdução ao Armazenamento de Dados de Experimentos em Neurociência - Parte 01NeuroMat
Este documento discute estratégias para armazenamento de dados de experimentos em neurociência. Apresenta os tipos de dados gerados em experimentos e as vantagens e desvantagens de métodos tradicionais de armazenamento e compartilhamento de dados. Também discute a importância de agregar valores aos dados, como facilidade de uso, recuperação e compartilhamento, para permitir a reprodutibilidade e meta-análises. Questionários eletrônicos e bancos de dados são apresentados como alternativas para gerenciar dados de forma pad
Perspectives on Applications of a Stochastic Spiking Neuron Model to Neural N...NeuroMat
This document summarizes research on applying a stochastic spiking neuron model to neural network modeling. It describes the stochastic model, which represents spike generation as a stochastic process, and analyzes network properties like the potential distribution and activity. Mean-field analysis is applied to a fully connected network. The model exhibits phase transitions and critical behavior like neuronal avalanches. Simulations with realistic connectivity including excitatory and inhibitory neurons are also discussed. The stochastic model provides exact analytical results and efficient simulations compared to deterministic models.
Desafios matemáticos e computacionais da neurociênciaNeuroMat
O documento discute os desafios matemáticos e computacionais da neurociência. Apresenta exemplos como o transtorno do déficit de atenção e a necessidade de modelos que considerem as diferenças individuais no processamento cerebral. Também destaca a importância de compartilhar e padronizar dados científicos para permitir novas descobertas. O projeto NeuroMat busca criar um banco de dados aberto e ferramentas para armazenar e analisar experimentos neurológicos.
The aim of this presentation is to revise the functional regression models with scalar response (Linear, Nonlinear and Semilinear) and the extension to the more general case where the response belongs to the exponential family (binomial, poisson, gamma, ...). This extension allows to develop new functional classification methods based on this regression models. Some examples along with code implementation in R are provided during the talk. Lecturer: Manuel Febrero Bande, Univ. de Santiago de Compostela, Spain.
O documento discute a curadoria de dados de pesquisa, abordando tópicos como a produção, gestão e plano de gestão de dados. Apresenta o ciclo de vida dos dados segundo o modelo DCC e destaca a importância de planejar a identificação, descrição, armazenamento, preservação, compartilhamento e avaliação dos dados de acordo com princípios como FAIR, visando torná-los acessíveis e reutilizáveis.
Introdução ao Armazenamento de Dados de Experimentos em Neurociência - Parte 03NeuroMat
O documento discute ferramentas para gerenciamento de questionários eletrônicos e arquivos digitais, incluindo sistemas gratuitos como o LimeSurvey e PyDio. Também fornece critérios para escolher um sistema de questionários e descreve sistemas de gerenciamento de workflows científicos.
O documento discute as principais técnicas de mineração de dados, incluindo classificação, clusterização, associação e sequência. A classificação é usada para prever grupos de objetos, enquanto a clusterização agrupa objetos similares. Associações identificam relacionamentos entre itens e sequências determinam padrões temporais. O documento também discute os desafios da análise de dados, como a necessidade de dados limpos e a explicação de resultados.
Introdução elementar à modelagem estocástica de cadeias simbólicasNeuroMat
A class on statistical regularities and statistical model selection. Lecturer: Prof. Antonio Galves, NeuroMat principal investigator and professor at the University of São Paulo's Institute of Mathematics and Statistics.
Introdução ao Armazenamento de Dados de Experimentos em Neurociência - Parte 01NeuroMat
Este documento discute estratégias para armazenamento de dados de experimentos em neurociência. Apresenta os tipos de dados gerados em experimentos e as vantagens e desvantagens de métodos tradicionais de armazenamento e compartilhamento de dados. Também discute a importância de agregar valores aos dados, como facilidade de uso, recuperação e compartilhamento, para permitir a reprodutibilidade e meta-análises. Questionários eletrônicos e bancos de dados são apresentados como alternativas para gerenciar dados de forma pad
Perspectives on Applications of a Stochastic Spiking Neuron Model to Neural N...NeuroMat
This document summarizes research on applying a stochastic spiking neuron model to neural network modeling. It describes the stochastic model, which represents spike generation as a stochastic process, and analyzes network properties like the potential distribution and activity. Mean-field analysis is applied to a fully connected network. The model exhibits phase transitions and critical behavior like neuronal avalanches. Simulations with realistic connectivity including excitatory and inhibitory neurons are also discussed. The stochastic model provides exact analytical results and efficient simulations compared to deterministic models.
Desafios matemáticos e computacionais da neurociênciaNeuroMat
O documento discute os desafios matemáticos e computacionais da neurociência. Apresenta exemplos como o transtorno do déficit de atenção e a necessidade de modelos que considerem as diferenças individuais no processamento cerebral. Também destaca a importância de compartilhar e padronizar dados científicos para permitir novas descobertas. O projeto NeuroMat busca criar um banco de dados aberto e ferramentas para armazenar e analisar experimentos neurológicos.
The aim of this presentation is to revise the functional regression models with scalar response (Linear, Nonlinear and Semilinear) and the extension to the more general case where the response belongs to the exponential family (binomial, poisson, gamma, ...). This extension allows to develop new functional classification methods based on this regression models. Some examples along with code implementation in R are provided during the talk. Lecturer: Manuel Febrero Bande, Univ. de Santiago de Compostela, Spain.
O documento discute a curadoria de dados de pesquisa, abordando tópicos como a produção, gestão e plano de gestão de dados. Apresenta o ciclo de vida dos dados segundo o modelo DCC e destaca a importância de planejar a identificação, descrição, armazenamento, preservação, compartilhamento e avaliação dos dados de acordo com princípios como FAIR, visando torná-los acessíveis e reutilizáveis.
Estratégia Institucional para a gestão de dados de investigação na UMINHO: o ...Pedro Príncipe
O documento descreve os planos da Universidade do Minho para desenvolver uma estratégia institucional para a gestão de dados de pesquisa. Os Serviços de Documentação Universitária de Minho (SDUM) irão implementar serviços de suporte, como um sistema de repositório de dados abertos usando o software Dataverse, e realizar diagnósticos e auditorias de dados em comunidades piloto.
Marcondes - Curadoria de dados de Pesquisa, Semana do Bibliotecário ECI-UFMG ...CarlosMarcondes17
Discutir os impacto da grande disponibilidade de dados de pesquisa sobre o trabalho dos profissionais de informação; levantar diretrizes práticas para a gestão de dados de pesquisa no ambiente das bibliotecas universitárias; sugerir novos espaços para atuação do profissional de informação
O esboço da solução parece razoável. Algumas sugestões:
- Especificar quais dados serão preparados (lista de mutações, sequências de mamíferos)
- No ciclo interno, verificar se a mutação existe na sequência do mamífero, não só se existe sequência
- Registar/armazenar os resultados da comparação para cada par mutação-mamífero
- No final, gerar/escrever a folha de cálculo com os resultados como especificado no problema
- Poderia incluir também validações dos dados de entrada e saida
-
Para que um resultado de uma pesquisa científica possa ser considerado como válido, é necessário que este resultado possa ser replicado por diversos cientistas. A replicação é um dos pilares fundamentais da ciência. Basicamente é necessário que diversos cientistas coletem e analisem dados de forma independente, e cheguem no mesmo resultado.
A replicação na ciência têm sido praticada há muitos anos. No entanto, hojem em dia esta prática tem se tornado cada vez mais desafiadora, uma vez que os estudos estão se tornando cada vez maiores e mais caros, e a disponibilidade de recursos financeiros para pesquisas cada vez mais escassa.
Este documento discute técnicas para levantamento de requisitos em sistemas de software. A amostragem é apresentada como uma técnica fundamental para guiar o processo de levantamento de requisitos, auxiliando na seleção de documentos e pessoas a serem investigados. São descritos os principais tipos de amostragem e como calcular o tamanho adequado da amostra. Posteriormente, são apresentadas técnicas específicas como investigação, entrevistas, questionários e observação.
Programa de diagnóstico dos SDUM na gestão de dados de investigação: comunid...Pedro Príncipe
Este documento descreve o programa de diagnóstico dos Sistemas de Dados e Unidades de Informação (SDUM) na Universidade do Minho para avaliar as práticas de gestão de dados de pesquisa. O programa visa complementar um estudo anterior sobre dados de pesquisa e apoiar o desenvolvimento de uma estratégia de gestão de dados. O programa inclui inquéritos e entrevistas com pesquisadores em várias unidades piloto para caracterizar seus processos e necessidades de gestão de dados.
A palestra discute o uso de ferramentas de acesso geral e ferramentas à medida em bioinformática. Apresenta exemplos de ferramentas de acesso geral como GenBank, EMBL e UniProt que fornecem acesso a bancos de dados biológicos. Também discute o desenvolvimento de uma ferramenta à medida para analisar mutações em sequências proteicas de mamíferos.
Desafios da preservação de dados de pesquisa no BrasilCariniana Rede
O documento discute dados de pesquisa, gestão de dados, repositórios de dados e preservação digital no Brasil. Ele explica que dados de pesquisa incluem qualquer informação digital produzida por pesquisas e a importância da gestão e armazenamento desses dados em repositórios. Também descreve os esforços da Rede Cariniana para promover a preservação e o compartilhamento de dados de pesquisa entre instituições brasileiras.
2021 10 03 Pesquisa e Sistema de Compra do Consumidor Aula 7.pptFloraGoncalvesChele
O documento discute pesquisa de marketing e sistemas de informação de marketing. Ele define sistemas de informação de marketing, descreve suas funções e componentes. Também explica o processo de pesquisa de marketing, incluindo identificação de problemas, objetivos, desenvolvimento de planos de pesquisa, coleta e análise de dados.
1. O documento apresenta técnicas para levantamento de requisitos, incluindo amostragem, investigação, entrevistas, questionários e observação.
2. A amostragem é útil para selecionar documentos e pessoas a serem analisados de forma sistemática e representativa. Existem diferentes tipos de amostra, como intencional, randômica simples e randômica complexa.
3. O tamanho da amostra depende do custo, tempo e tipo de informação desejada, como percentuais ou médias.
Este documento descreve um trabalho de graduação que define métricas para avaliar a qualidade da persistência de dados em ambientes objeto-relacionais. Os autores construíram aplicações modelo usando Hibernate, TopLink e Active Record e testaram suas performances em diferentes operações usando o framework Poleposition. O trabalho analisou os resultados para comparar as ferramentas de mapeamento objeto-relacional.
O documento discute os conceitos e processos de mineração de dados. Apresenta os objetivos da mineração de dados de extrair conhecimento de grandes volumes de dados usando algoritmos de aprendizagem. Também descreve as etapas do processo de descoberta de conhecimento em dados (KDD) incluindo pré-processamento, transformação, mineração de dados e interpretação.
Este documento apresenta um trabalho sobre sistemas periciais para gestão da informação em bibliotecas. Propõe um modelo de sistema que reconhece o utilizador e fornece informações personalizadas sobre livros, revistas e jornais de acordo com as preferências do utilizador. O sistema guiaria o utilizador através de perguntas até encontrar a solução mais adequada para a sua pesquisa.
1) O documento apresenta uma análise de desempenho do SensorML e do banco de dados NoSQL MongoDB como soluções para o desenvolvimento de catálogos de produtores de dados para Internet das Coisas.
2) A análise foi realizada através de simulações que avaliaram a robustez e flexibilidade das soluções ao lidar com requisições frequentes e heterogeneidade de dados.
3) Os resultados das simulações mostraram que o SensorML e o MongoDB oferecem suporte viável para o registro e descoberta flexível de produtores de
Esquema de suporte e gestão de dados científicos em organizações de pesquisae...Cariniana Rede
Apresentação no I SEMINÁRIO Suporte à pesquisa e gestão de dados científicos: panorama Atual e Desafios Mesa Redonda Panorama nacional e internacional da gestão de dados e suporte à pesquisa. UFSC, 18 de setembro de 2017
Este documento descreve a realização de uma entrevista semi-estruturada online com uma professora sobre o uso de redes sociais no contexto educativo. O autor detalha a preparação da entrevista, incluindo a estrutura da mesma, a seleção e contato com a entrevistada, e a ferramenta utilizada. Ele também fornece a transcrição e análise da entrevista, bem como considerações sobre limitações da técnica.
The mathematician M. Gromov stands among geometers as one of the most original and productive researcher, with unique contributions to the field of geometric group theory. In the recent years, he turned his attention towards the applications of mathematics to neuroscience. His ideas have been collected in a series of articles that form a kind of mathematical diary. In this introductory talk, we will provide some pointers to these texts and work out one example of application of geometric group theory to the large scale structure of neural pathways.
The document discusses using hidden context tree modeling (HCTM) to analyze EEG data recorded during exposure to auditory stimuli sequences generated by random sources. Context tree models define stochastic chains with memory of variable length generated by probabilistic context trees. The goal is to retrieve the structure of the random source (context tree) from the EEG data, to provide evidence that the brain acts as a statistician by learning the statistical structure or model of stimuli sequences. HCTM defines a joint stochastic process over stimuli sequences and EEG responses that is compatible with a given context tree model.
Mais conteúdo relacionado
Semelhante a Introdução ao Armazenamento de Dados de Experimentos em Neurociência - Parte 02
Estratégia Institucional para a gestão de dados de investigação na UMINHO: o ...Pedro Príncipe
O documento descreve os planos da Universidade do Minho para desenvolver uma estratégia institucional para a gestão de dados de pesquisa. Os Serviços de Documentação Universitária de Minho (SDUM) irão implementar serviços de suporte, como um sistema de repositório de dados abertos usando o software Dataverse, e realizar diagnósticos e auditorias de dados em comunidades piloto.
Marcondes - Curadoria de dados de Pesquisa, Semana do Bibliotecário ECI-UFMG ...CarlosMarcondes17
Discutir os impacto da grande disponibilidade de dados de pesquisa sobre o trabalho dos profissionais de informação; levantar diretrizes práticas para a gestão de dados de pesquisa no ambiente das bibliotecas universitárias; sugerir novos espaços para atuação do profissional de informação
O esboço da solução parece razoável. Algumas sugestões:
- Especificar quais dados serão preparados (lista de mutações, sequências de mamíferos)
- No ciclo interno, verificar se a mutação existe na sequência do mamífero, não só se existe sequência
- Registar/armazenar os resultados da comparação para cada par mutação-mamífero
- No final, gerar/escrever a folha de cálculo com os resultados como especificado no problema
- Poderia incluir também validações dos dados de entrada e saida
-
Para que um resultado de uma pesquisa científica possa ser considerado como válido, é necessário que este resultado possa ser replicado por diversos cientistas. A replicação é um dos pilares fundamentais da ciência. Basicamente é necessário que diversos cientistas coletem e analisem dados de forma independente, e cheguem no mesmo resultado.
A replicação na ciência têm sido praticada há muitos anos. No entanto, hojem em dia esta prática tem se tornado cada vez mais desafiadora, uma vez que os estudos estão se tornando cada vez maiores e mais caros, e a disponibilidade de recursos financeiros para pesquisas cada vez mais escassa.
Este documento discute técnicas para levantamento de requisitos em sistemas de software. A amostragem é apresentada como uma técnica fundamental para guiar o processo de levantamento de requisitos, auxiliando na seleção de documentos e pessoas a serem investigados. São descritos os principais tipos de amostragem e como calcular o tamanho adequado da amostra. Posteriormente, são apresentadas técnicas específicas como investigação, entrevistas, questionários e observação.
Programa de diagnóstico dos SDUM na gestão de dados de investigação: comunid...Pedro Príncipe
Este documento descreve o programa de diagnóstico dos Sistemas de Dados e Unidades de Informação (SDUM) na Universidade do Minho para avaliar as práticas de gestão de dados de pesquisa. O programa visa complementar um estudo anterior sobre dados de pesquisa e apoiar o desenvolvimento de uma estratégia de gestão de dados. O programa inclui inquéritos e entrevistas com pesquisadores em várias unidades piloto para caracterizar seus processos e necessidades de gestão de dados.
A palestra discute o uso de ferramentas de acesso geral e ferramentas à medida em bioinformática. Apresenta exemplos de ferramentas de acesso geral como GenBank, EMBL e UniProt que fornecem acesso a bancos de dados biológicos. Também discute o desenvolvimento de uma ferramenta à medida para analisar mutações em sequências proteicas de mamíferos.
Desafios da preservação de dados de pesquisa no BrasilCariniana Rede
O documento discute dados de pesquisa, gestão de dados, repositórios de dados e preservação digital no Brasil. Ele explica que dados de pesquisa incluem qualquer informação digital produzida por pesquisas e a importância da gestão e armazenamento desses dados em repositórios. Também descreve os esforços da Rede Cariniana para promover a preservação e o compartilhamento de dados de pesquisa entre instituições brasileiras.
2021 10 03 Pesquisa e Sistema de Compra do Consumidor Aula 7.pptFloraGoncalvesChele
O documento discute pesquisa de marketing e sistemas de informação de marketing. Ele define sistemas de informação de marketing, descreve suas funções e componentes. Também explica o processo de pesquisa de marketing, incluindo identificação de problemas, objetivos, desenvolvimento de planos de pesquisa, coleta e análise de dados.
1. O documento apresenta técnicas para levantamento de requisitos, incluindo amostragem, investigação, entrevistas, questionários e observação.
2. A amostragem é útil para selecionar documentos e pessoas a serem analisados de forma sistemática e representativa. Existem diferentes tipos de amostra, como intencional, randômica simples e randômica complexa.
3. O tamanho da amostra depende do custo, tempo e tipo de informação desejada, como percentuais ou médias.
Este documento descreve um trabalho de graduação que define métricas para avaliar a qualidade da persistência de dados em ambientes objeto-relacionais. Os autores construíram aplicações modelo usando Hibernate, TopLink e Active Record e testaram suas performances em diferentes operações usando o framework Poleposition. O trabalho analisou os resultados para comparar as ferramentas de mapeamento objeto-relacional.
O documento discute os conceitos e processos de mineração de dados. Apresenta os objetivos da mineração de dados de extrair conhecimento de grandes volumes de dados usando algoritmos de aprendizagem. Também descreve as etapas do processo de descoberta de conhecimento em dados (KDD) incluindo pré-processamento, transformação, mineração de dados e interpretação.
Este documento apresenta um trabalho sobre sistemas periciais para gestão da informação em bibliotecas. Propõe um modelo de sistema que reconhece o utilizador e fornece informações personalizadas sobre livros, revistas e jornais de acordo com as preferências do utilizador. O sistema guiaria o utilizador através de perguntas até encontrar a solução mais adequada para a sua pesquisa.
1) O documento apresenta uma análise de desempenho do SensorML e do banco de dados NoSQL MongoDB como soluções para o desenvolvimento de catálogos de produtores de dados para Internet das Coisas.
2) A análise foi realizada através de simulações que avaliaram a robustez e flexibilidade das soluções ao lidar com requisições frequentes e heterogeneidade de dados.
3) Os resultados das simulações mostraram que o SensorML e o MongoDB oferecem suporte viável para o registro e descoberta flexível de produtores de
Esquema de suporte e gestão de dados científicos em organizações de pesquisae...Cariniana Rede
Apresentação no I SEMINÁRIO Suporte à pesquisa e gestão de dados científicos: panorama Atual e Desafios Mesa Redonda Panorama nacional e internacional da gestão de dados e suporte à pesquisa. UFSC, 18 de setembro de 2017
Este documento descreve a realização de uma entrevista semi-estruturada online com uma professora sobre o uso de redes sociais no contexto educativo. O autor detalha a preparação da entrevista, incluindo a estrutura da mesma, a seleção e contato com a entrevistada, e a ferramenta utilizada. Ele também fornece a transcrição e análise da entrevista, bem como considerações sobre limitações da técnica.
Semelhante a Introdução ao Armazenamento de Dados de Experimentos em Neurociência - Parte 02 (20)
The mathematician M. Gromov stands among geometers as one of the most original and productive researcher, with unique contributions to the field of geometric group theory. In the recent years, he turned his attention towards the applications of mathematics to neuroscience. His ideas have been collected in a series of articles that form a kind of mathematical diary. In this introductory talk, we will provide some pointers to these texts and work out one example of application of geometric group theory to the large scale structure of neural pathways.
The document discusses using hidden context tree modeling (HCTM) to analyze EEG data recorded during exposure to auditory stimuli sequences generated by random sources. Context tree models define stochastic chains with memory of variable length generated by probabilistic context trees. The goal is to retrieve the structure of the random source (context tree) from the EEG data, to provide evidence that the brain acts as a statistician by learning the statistical structure or model of stimuli sequences. HCTM defines a joint stochastic process over stimuli sequences and EEG responses that is compatible with a given context tree model.
Goodness–of–fit tests for regression models: the functional data caseNeuroMat
In this talk the topic of the goodness–of–fit for regression models with functional covariates is considered. Although several papers have been published in the last two decades for the checking of regression models, the case where the covariates are functional is quite recent and has became of interest in the last years. We will review the very recent advances in this area and we will propose a new goodness–of–fit test for the null hypothesis of a functional linear model with scalar response. Our test is based on a generalization to the functional framework of a previous one, designed for the goodness–of–fit of regression models with multivariate covariates using random projections. The test statistic is easy to compute using geometrical and matrix arguments, and simple to calibrate in its distribution by a wild bootstrap on the residuals. Some theoretical aspects are derived and the finite sample properties of the test are illustrated by a simulation study. Finally, the test is applied to real data for checking the assumption of the functional linear model and a graphical tool is introduced. Lecturer: Wenceslao González-Manteiga, Univ. de Santiago de Compostela, Spain.
MEPHunter: Making things easier for signal visualization and analysisNeuroMat
MEPHunter is a software developed to aid in the visualization and analysis of biomedical signals. It provides a graphical user interface and independent modules to easily view, preprocess, and extract information from experimental data. MEPHunter has been used for transcranial magnetic stimulation and electromyography studies to analyze motor evoked potentials, map muscle activation patterns, and perform quality control of stimulation pulses. Ongoing work is applying MEPHunter and developing new techniques for spatial localization of brain stimulation sites in animals and magnetic field mapping of transcranial magnetic stimulation coils.
Neuroscience Experiments System - NES - Versão 0.1NeuroMat
O documento apresenta o sistema Neuroscience Experiments System versão 0.1, desenvolvido para gerenciar experimentos neurológicos. O sistema permite cadastrar pacientes, realizar avaliações médicas, configurar questionários para experimentos e acompanhar o preenchimento pelos participantes. Ainda inclui administração de usuários e detalhes técnicos sobre restrições e configurações necessárias para o uso correto do sistema.
Spike sorting: What is it? Why do we need it? Where does it come from? How is...NeuroMat
This document discusses spike sorting and stochastic modeling of spike trains. It proposes using a more realistic model that accounts for the log-normal distribution of inter-spike intervals and the exponential relaxation of spike amplitudes over time. This model is formulated within a Bayesian framework, where the spike sorting problem amounts to estimating the configuration of neuron identities for each spike. Computing the posterior configuration probability is challenging due to combinatorial explosion, but can be addressed using Markov chain Monte Carlo methods like the Metropolis-Hastings algorithm.
Spike sorting: What is it? Why do we need it? Where does it come from? How is...NeuroMat
This document provides an overview of spike sorting, including what it is, why it is needed, the history of the field, and how it is done. Spike sorting involves using features like spike amplitude, timing, and shape across multiple recording channels to classify which neuron each recorded action potential came from. It originated from neurophysiologists sorting spikes by eye but now uses automated algorithms. Common approaches include template matching, dimensionality reduction, clustering algorithms like k-means, and Gaussian mixture models.
Data Provenance and Scientific Workflow ManagementNeuroMat
Introductory class on techniques and tools to manage scientific data, focusing on sources of information and data analysis. Lecturer: Prof. Kelly Rosa Braghetto, a NeuroMat associate investigator and a professor at the University of São Paulo's Department of Computer Science.
Slides Lição 11, CPAD, A Realidade Bíblica do Inferno, 2Tr24.pptxLuizHenriquedeAlmeid6
Slideshare Lição 11, CPAD, A Realidade Bíblica do Inferno, 2Tr24, Pr Henrique, EBD NA TV, Lições Bíblicas, 2º Trimestre de 2024, adultos, Tema, A CARREIRA QUE NOS ESTÁ PROPOSTA, O CAMINHO DA SALVAÇÃO, SANTIDADE E PERSEVERANÇA PARA CHEGAR AO CÉU, Coment Osiel Gomes, estudantes, professores, Ervália, MG, Imperatriz, MA, Cajamar, SP, estudos bíblicos, gospel, DEUS, ESPÍRITO SANTO, JESUS CRISTO, Com. Extra Pr. Luiz Henrique, de Almeida Silva, tel-What, 99-99152-0454, Canal YouTube, Henriquelhas, @PrHenrique, https://ebdnatv.blogspot.com/
LIVRO MPARADIDATICO SOBRE BULLYING PARA TRABALHAR COM ALUNOS EM SALA DE AULA OU LEITURA EXTRA CLASSE, COM FOCO NUM PROBLEMA CRUCIAL E QUE ESTÁ TÃO PRESENTE NAS ESCOLAS BRASILEIRAS. OS ALUNOS PODEM LER EM SALA DE AULA. MATERIAL EXCELENTE PARA SER ADOTADO NAS ESCOLAS
O Que é Um Ménage à Trois?
A sociedade contemporânea está passando por grandes mudanças comportamentais no âmbito da sexualidade humana, tendo inversão de valores indescritíveis, que assusta as famílias tradicionais instituídas na Palavra de Deus.
Atividade letra da música - Espalhe Amor, Anavitória.Mary Alvarenga
A música 'Espalhe Amor', interpretada pela cantora Anavitória é uma celebração do amor e de sua capacidade de transformar e conectar as pessoas. A letra sugere uma reflexão sobre como o amor, quando verdadeiramente compartilhado, pode ultrapassar barreiras alcançando outros corações e provocando mudanças positivas.
Folheto | Centro de Informação Europeia Jacques Delors (junho/2024)Centro Jacques Delors
Estrutura de apresentação:
- Apresentação do Centro de Informação Europeia Jacques Delors (CIEJD);
- Documentação;
- Informação;
- Atividade editorial;
- Atividades pedagógicas, formativas e conteúdos;
- O CIEJD Digital;
- Contactos.
Para mais informações, consulte o portal Eurocid:
- https://eurocid.mne.gov.pt/quem-somos
Autor: Centro de Informação Europeia Jacques Delors
Fonte: https://infoeuropa.mne.gov.pt/Nyron/Library/Catalog/winlibimg.aspx?doc=48197&img=9267
Versão em inglês [EN] também disponível em:
https://infoeuropa.mne.gov.pt/Nyron/Library/Catalog/winlibimg.aspx?doc=48197&img=9266
Data de conceção: setembro/2019.
Data de atualização: maio-junho 2024.
Introdução ao Armazenamento de Dados de Experimentos em Neurociência - Parte 02
1. Introdução ao Armazenamento de Dados
de Experimentos em Neurociência
Amanda S. Nascimento
DCC/UFOP
Kelly R. Braghetto
DCC- IME/USP
12 de setembro de 2014
XXXVIII Reunião Anual da SBNeC
Parte 2: Uso de questionários digitais para coletar e armazenar
dados e metadados de experimentos em Neurociência
2. Sobre o Curso
● Material disponível em:
http://www.ime.usp.br/~kellyrb/sbnec2014/
3. Neste Curso Veremos ...
● Como usar questionários eletrônicos para gerenciar
dados de experimentos;
● Quais critérios usar na escolha de um Sistema de
Gerenciamento de Questionários Eletrônicos que seja
apropriado aos propósitos de um contexto de uso
específico;
● Como usar sistemas de compartilhamento de
arquivos.
4. Experiência no NeuroMat / INDC - UFRJ
Trabalho de desenvolvimento de um banco de dados para
armazenar de forma padronizada e segura o conjunto de
dados coletados no
Laboratório de Neurociência e Reabilitação (LabNeR)
do Instituto de Neurologia Deolindo Couto (INDC) da
UFRJ, facilitando o compartilhamento e reuso desses
dados.
5. Experiência no NeuroMat / INDC - UFRJ
Questionários eletrônicos (fichas de avaliação)
desenvolvidos:
● Exame físico (longitudinal)
● Avaliação da fisioterapia (longitudinal)
● Ficha de Cirurgia (procedimentos cirúrgicos
realizados e grau da lesão)
● Escala de equilíbrio de Berg, DN4, DASH,
Avaliação de lateralidade (Oldfield), ...
6. Antes de Começar a Criar
um Questionário Eletrônico ...
● Definir quais são os dados que se deseja coletar
– Tarefa bem difícil!
● Definir o formato de um (ou mais) questionários para a
coleta dos dados
– Tarefa ainda mais difícil!
– Coleta de metadados vs. Coleta de dados brutos
7. Para a Coleta de Metadados
Minimum Information (MI) Checklists
● Objetivo: promover alguma “padronização” na forma como
os experimentos são descritos, de forma a facilitar a sua
verificação, análise e interpretação pela comunidade
científica.
● Facilitam ainda a construção de base de dados estruturadas,
repositórios públicos e o desenvolvimento de ferramentas de
análise.
8. MIBBI
The Minimum Information for Biological and Biomedical
Investigations (MIBBI) project*:
“promotes extant efforts developing minimum information
(MI) guidelines for the reporting of biological and biomedical
science to the wider community.”
Exemplos de diretrizes MI relacionadas a Neurociência
contempladas pelo projeto MIBBI:
MINI – para experimentos de eletrofisiologia.
MINEMO – para experimentos de potencial evocado (ERP) /
EEG.
MifMRI – para experimentos de fMRI.
*http://www.biosharing.org/standards/mibbi
9. O Projeto CARMEN* e as Diretrizes
MINI**
Checklist que identifica “informações mínimas” necessárias para
reportar o uso de eletrofisiologia em estudos de neurociência.
...
* Code Analysis, Repository & Modelling for ENeuroscience: http://www.carmen.org.uk/
** http://www.carmen.org.uk/standards/mini.pdf
...
10. O Projeto NEMO* e as Diretrizes
MINEMO**
* Neural ElectroMagnetic Ontologies: http://nemo.nic.uoregon.edu/wiki/NEMO
** http://www.ncbi.nlm.nih.gov/pubmed/22180824
MINEMO estende MINI
(Minimal Information for
Neuroscience
Investigations) para o
domínio de ERP.
Termos das diretrizes são
explicados no NEMO, uma
ontologia formal que foi
projetada para permitir o
compartilhamento e
integração de dados de
ERP.
12. Diretrizes do Tipo “MI”
● São uma boa referência sobre os metadados que são
indispensáveis de se armazenar
● Mas não definem:
– Como armazenar os dados
– Quais metadados são necessários para garantir a
reprodutibilidade do experimento, a possibilidade de
reúso dos dados, etc.
13. Para a Coleta de Dados “Brutos”
Questionários Padrão
● Oldfield (para quantificar lateralidade);
● Berg Balance Scale (para avaliar habilidades estáticas
e dinâmicas de equilíbrio);
● DN4 (Douleur Neurophatique 4) para diagnósticar
dores neuropáticas;
● DASH (Disabilities of the Arm, Shoulder and Hand);
...
14. Antes de Começar a Criar um
Questionário Eletrônico ...
● É sempre importante verificar se já existem:
– Questionários padrão para o tipo de dado que se deseja
coletar.
– Diretrizes para reportar experimentos no domínio abordado.
●
Há na literatura diretrizes para especificar a estrutura
geral de um questionário a fim de garantir que:
– ele de fato avalie o que se pretende avaliar e
– que isso seja feito de forma confiável.
15. Estrutura de um Questionário
● Quais são os tipos de questões?
– Preenchimento livre
– Resposta prefixada
● Seleção única
● Múltipla escolha
…
●
Como as questões devem ser agrupadas?
● Qual a melhor ordem de apresentação das questões?
Para saber mais:
Edwards, P. (2010). Questionnaires in clinical trials: guidelines for optimal
design and administration. Trials, 11(1):1–8.
16. Validação de um Questionário
● Como projetar e desenvolver questionários?
● Como realizar testes pilotos para
– testar,
– revisar e
– validar
questionários?
Para saber mais:
Rattray, J. and Jones, M. C. (2007). Essential elements of questionnaire
design and development. J ClinNurs, 16(2):234–43.
17. Refinamento do Questionário
● Depois de especificar a estrutura geral do questionário, é
preciso refinar as características dos tipos de dados aceitos
como resposta para as questões :
– Tipos (número inteiro, número real, texto, data, etc.)
– Formatos (quantidade de digítos, caracteres separadores,
etc.)
– Valores válidos (valor mínimo, valor máximo, aceita
nulos?)
– Há outras restrições que se aplicam?
18. Controle do Acesso ao Questionário
● Definir quem do grupo de pesquisa vai “interagir” com os
questionários:
– Quem cria os questionários no formato eletrônico?
– Quem pode modificá-los?
– Quem pode preenchê-los?
– Quem deve ter acesso às respostas?
19. Questionários ou Grupos de
Perguntas Padrão
● Recomenda-se que cada laboratório ou grupo de pesquisa
defina questionários eletrônicos ou grupos de perguntas que
possam ser usados para padronizar a coleta de seus dados de
experimentos.
● Exemplo: nos questionários aplicados a voluntários de um
experimento, é necessário ter grupos padronizados de
perguntas relacionados à identificação:
– do voluntário
– do experimento
– do responsável pela aplicação do questionário
20. Introdução ao Armazenamento de Dados
de Experimentos em Neurociência
Dúvidas?
Parte 2: Uso de questionários digitais para coletar e armazenar
dados e metadados de experimentos em Neurociência