SlideShare uma empresa Scribd logo
1 de 20
Discentes: Eliseu Gouveia
Docente:
Prof. Dr. Eduardo Contani
Disciplina:
2ADM552 - Estudos Quantitativos em Organizações
ENCONTRO 6
29.09.2023
Um teste paramétrico é um tipo de teste estatístico utilizado na análise de dados para fazer
inferências sobre parâmetros específicos de uma população, como médias, variâncias e
proporções.
Eles são chamados de "paramétricos" porque assumem que os dados seguem uma
distribuição de probabilidade específica, geralmente a distribuição normal (ou gaussiana),
e que os parâmetros dessa distribuição (como a média e o desvio padrão) são conhecidos ou
estimados a partir dos dados.
Teste Paramétricos
Teste Paramétricos
Alguns exemplos comuns de testes paramétricos incluem:
• Teste t de Student: Usado para comparar as médias de duas
amostras independentes ou testar a diferença entre a média de
uma amostra e um valor conhecido.
• Análise de Variância (ANOVA): Utilizada para comparar as
médias de três ou mais grupos independentes.
• Teste de Regressão Linear: Usado para modelar a relação
entre uma variável dependente e uma ou mais variáveis
independentes.
• Teste Z: Similar ao teste t, mas usado quando a variância
populacional é conhecida.
• Teste Qui-Quadrado: Usado para testar a independência entre
duas variáveis categóricas.
Teste Paramétricos
Os testes paramétricos são apropriados quando se satisfazem as
seguintes suposições:
• Normalidade: Os dados seguem uma distribuição normal. Isso
significa que a distribuição dos dados é aproximadamente em
forma de sino.
• Homogeneidade das Variâncias: As variâncias das diferentes
amostras a serem comparadas são aproximadamente iguais.
• Independência: As observações ou medidas são
independentes umas das outras.
Dessa forma, é importante que você verifique as hipóteses antes de decidir qual
teste estatístico é apropriado.
Dados normalmente distribuídos
• Assume-se que os dados foram obtidos de uma ou mais populações normais.
• O fundamento dos testes de hipóteses baseia-se em ter populações distribuídas normalmente.
• Muitos pesquisadores verificam suas amostras (utilizando um histograma) e se a amostra
parece aproximadamente normal, eles assumem que as populações também serão.
Dados normalmente distribuídos
Olhar para os histogramas é uma opção, mas eles nada informam sobre a distribuição estar
próxima o suficiente da normalidade.
Os testes de Kolmogorov-Smirnov e de Shapiro-Wilk fazem justamente isso: eles comparam
escores de uma amostra a uma distribuição normal modelo de mesma média e variância
dos valores encontrados na amostra.
Se o teste é não-significativo (p > 0,05), ele nos informa que os dados da amostra não
diferem significativamente de uma distribuição normal (isto é, eles podem ser normais). Por
outro lado, se o teste é significativo (p < 0,05), a distribuição em questão é
significativamente diferente de uma distribuição normal (isto é, ela é não-normal).
A percentagem no exame do SPSS,
D(100) = 0,10, p < 0,05, e para os
escores da numerácia, D(100) = 0,15, p
< 0,001, foram ambos
significativamente não-normais.
TESTANDO A HOMOGENEIDADE DA VARIÂNCIA
Essa hipótese significa que à medida que você avança entre os níveis de uma variável, a variância da outra
não deve mudar.
Se você coletou grupos de dados, isso significa que a variância da sua variável ou variável de saída deve
ser a mesma em cada um desses grupos. Se você coletou dados contínuos (como os delineamentos
intercorrelacionais), essa suposição significa que a variância de uma variável deve ser estável em todos os
níveis da outra variável.
Teste Não Paramétricos
Um teste não paramétrico é um tipo de teste estatístico usado na
análise de dados quando as suposições dos testes paramétricos
não são atendidas.
Ao contrário dos testes paramétricos, os testes não paramétricos
não fazem suposições específicas sobre a distribuição dos dados
ou sobre os parâmetros populacionais, como média e variância.
Isso os torna úteis em situações em que os dados não seguem
uma distribuição normal ou quando outras suposições
paramétricas não são atendidas.
Os testes não paramétricos são frequentemente usados quando os dados são categóricos, ordinais ou
quando a escala de medição dos dados não permite a aplicação dos testes paramétricos. Alguns
exemplos de testes não paramétricos incluem:
Teste Não Paramétricos
• Teste de Wilcoxon (Mann-Whitney U): Usado para comparar duas amostras independentes quando a suposição de
normalidade não é atendida. Ele testa se uma amostra tende a ter valores maiores do que a outra.
• Teste de Wilcoxon para amostras pareadas: Similar ao teste de Wilcoxon, mas usado quando se deseja comparar duas
amostras pareadas ou relacionadas.
• Teste de Kruskal-Wallis: Uma versão não paramétrica da análise de variância (ANOVA), usado para comparar três ou
mais grupos independentes.
• Teste de qui-quadrado: Usado para testar a independência entre variáveis categóricas em uma tabela de contingência.
• Teste de Fisher exato: Um teste não paramétrico utilizado quando as condições para o teste qui-quadrado não são
atendidas, especialmente em amostras pequenas.
• Teste de assinatura de postos de Wilcoxon: Uma alternativa não paramétrica ao teste t de Student para amostras
pareadas.
• Teste de Kolmogorov-Smirnov: Usado para testar se uma amostra segue uma distribuição específica, como a
distribuição normal.
O teste t, também conhecido como o teste t de Student, é um
teste estatístico paramétrico usado para comparar as médias
de duas amostras independentes e determinar se há uma
diferença significativa entre elas. É uma ferramenta útil
quando você deseja saber se a diferença nas médias entre
dois grupos é estatisticamente significativa.
Teste T
• O teste t para amostras independentes: Esse teste é usado quando existem duas condições
experimentais e diferentes participantes foram designados para cada condição (isso às vezes é
chamado de teste t de medidas independentes ou amostras independentes).
• O teste t para amostras dependentes: Esse teste é usado quando existem duas condições
experimentais e os mesmos participantes tomaram parte em ambas as condições (esse teste, às
vezes, é referido como o teste t para amostras emparelhadas).
Existem dois tipos de testes t e qual você usará irá depender de como a variável independente foi
manipulada, se com os mesmos ou diferentes participantes:
Os dois testes tem uma fundamentação semelhante:
Duas amostras de dados são coletadas e a média das amostras é calculada. Essas médias podem
diferir pouco ou muito. Se as amostras vêm da mesma população, esperamos que suas médias
sejam praticamente iguais. Embora seja possível que as médias difiram somente pelo acaso, grandes
diferenças entre as médias amostrais não devem ocorrer com frequência. Sob o que é conhecido como
hipótese nula, presumimos que a manipulação experimental não tenha efeito nos participantes:
portanto, esperamos que as médias das amostras sejam similares.
Teste T
manipular uma só variável de duas maneiras apenas e medir somente uma saída. A manipulação da
variável independente em geral envolve ter uma condição experimental e um grupo-controle
• O filme Pânico 2 é mais assustador do que o Pânico original? Podemos medir os batimentos
cardíacos (que indicam ansiedade) durante ambos os filmes e compará-los.
• Escutar música enquanto você trabalha melhora o seu desempenho? Você poderia pedir para
algumas pessoas escreverem um artigo (ou livro!) escutando sua música favorita e, então,
escreverem outro artigo trabalhando em silêncio (isso é um grupo-controle). Depois, você poderia
comparar as notas dos artigos!
• Escutar a música favorita do Andy melhora o seu desempenho?
Teste T
Comparamos a diferença entre as médias das amostras que coletamos com a diferença entre as médias das
amostras que esperamos obter somente pelo acaso. Usamos o erro padrão como uma medida da variabilidade
entre as médias das amostras. Se o erro padrão é pequeno, esperamos que a maioria das amostras tenham
médias similares. Quando o erro padrão é grande, esperamos obter grandes diferenças nas médias das
amostras somente pelo acaso.
Se a diferença entre as amostras que coletamos for maior do que esperamos no
erro padrão, podemos presumir uma de duas coisas:
a) Que as médias das amostras na nossa população flutuam muito somente por acaso e temos, por acaso,
coletado duas amostras que são atípicas da população de onde foram retiradas.
b) As duas amostras vêm de populações diferentes, mas são típicas das suas respectivas populações
originais. Nesse cenário, a diferença entre amostras representa uma diferença genuína entre as amostras (e,
assim, a hipótese nula é incorreta).
Teste T
À medida que a diferença observada entre as médias das amostras aumenta mais confiante ficamos de que a
hipótese nula deva ser rejeitada. Se a hipótese nula é incorreta, aceitamos o que é denominado de hipótese
experimental (também chamada de hipótese alternativa ou algo semelhante), isto é, que as médias das duas
amostras diferem por causa da manipulação diferenciada que foi imposta a cada uma das amostras.
Resumindo, calculamos o teste t usando a equação mas a forma exata que essa equação tomará vai depender
de como os dados foram coletados (isto é, se os mesmos ou diferentes participantes foram usados em cada
condição experimental).
1.Formulação das Hipóteses:
1. Hipótese Nula (H0): A hipótese nula afirma que não há diferença significativa entre as médias das duas amostras. Em termos
estatísticos, isso pode ser expresso como: μ1 = μ2, onde μ1 é a média da primeira amostra e μ2 é a média da segunda amostra.
2. Hipótese Alternativa (H1): A hipótese alternativa sugere que há uma diferença significativa entre as médias das duas amostras.
2.Coleta de Dados: Colete dados independentes para as duas amostras que deseja comparar. As amostras devem ser mutuamente
exclusivas e representativas da população de interesse. Certifique-se de que os dados estejam distribuídos aproximadamente de forma
normal.
3.Cálculo das Médias e Desvios Padrão: Calcule as médias (x
̄ 1 e x
̄ 2) e os desvios padrão (s1 e s2) das duas amostras.
4.Cálculo da Estatística do Teste t: A estatística do teste t é calculada usando a fórmula:
1.Onde:
1. x1 e x2 são as médias das duas amostras.
2. s1 e s2 são os desvios padrão das duas amostras.
3. n1 e n2 são os tamanhos das amostras (número de observações em cada amostra).
2.Determinação dos Graus de Liberdade: Os graus de liberdade (df) são usados para encontrar o valor crítico t da tabela t de Student.
Os graus de liberdade são geralmente calculados como df=n1+n2−2.
3.Determinação do Valor-p: Compare a estatística do teste t calculada com o valor crítico t da tabela t de Student para o seu nível de
significância (geralmente 0,05). Em seguida, calcule o valor-p associado ao valor t calculado.
4.Tomada de Decisão: Compare o valor-p com o nível de significância (alpha) predefinido. Se o valor-p for menor que alpha, rejeita-se a
hipótese nula, o que significa que há evidências estatísticas de que as médias das duas amostras são diferentes. Caso contrário, não há
evidências suficientes para rejeitar a hipótese nula.
5.Interpretação: Se a hipótese nula for rejeitada, isso indica que há uma diferença significativa entre as médias das duas amostras. Você
pode então examinar a magnitude dessa diferença usando intervalos de confiança ou outras análises relevantes.
ANOVA
Imagine uma situação em que existem três condições experimentais e estamos interessados nas diferenças entre esses
três grupos. Se executássemos testes t para cada par de grupos, seria necessário executar três testes: um para comparar
os grupos 1 e 2, outro para comparar os grupos 1 e 3 e um para comparar os grupos 2 e 3. Se cada um desses testes t
utilizasse uma significância de 5%, a probabilidade de falsamente rejeitar a hipótese nula (conhecido como erro do Tipo I)
para cada teste seria de somente 5%. Dessa forma, a probabilidade de não cometer o erro do Tipo I seria 0,95 (95%) para
cada teste.
O teste ANOVA é uma técnica estatística usada para comparar as médias de três ou mais grupos independentes para
determinar se há diferenças estatisticamente significativas entre eles. Em outras palavras, ele ajuda a responder se os
grupos são diferentes o suficiente em termos de médias para considerarmos que essas diferenças não ocorreram
apenas por acaso.
Quando executamos testes t, testamos a hipótese de que as duas populações de onde as amostras foram retiradas
apresentam a mesma média. Da mesma maneira, a ANOVA nos informa se três ou mais médias populacionais são iguais.
Uma ANOVA testa a hipótese de que as médias de todas as condições são iguais.
Uma ANOVA produz uma estatística F ou razão F que é semelhante a estatística t pois ela compara a variância
sistemática nos dados com a variância não-sistemática. Contudo a ANOVA é um teste abrangente (omnibus), o que
significa que ela testa um efeito experimental de forma global: assim, existem coisas que a ANOVA não nos informa.
Embora a ANOVA nos informe se a manipulação experimental teve sucesso, ela não fornece informações específicas
sobre quais grupos foram afetados.
Muitos cientistas sociais não se dão conta de que a ANOVA e a análise de regressão são
conceitualmente o mesmo procedimento.
1.Formulação das Hipóteses:
1.Hipótese Nula (H0): A hipótese nula afirma que não há diferença significativa entre as médias dos grupos.
Em termos estatísticos, isso pode ser expresso como: μ1 = μ2 = μ3 = ... = μk, onde μ1, μ2, μ3, etc.,
representam as médias dos diferentes grupos.
2.Hipótese Alternativa (H1): A hipótese alternativa sugere que pelo menos um grupo difere significativamente
das outras médias.
2.Coleta de Dados: Colete dados independentes para cada grupo. Certifique-se de que os grupos sejam
mutuamente exclusivos e que os dados estejam distribuídos normalmente.
3.Teste de Variância: ANOVA avalia as diferenças entre as médias dos grupos em relação à variabilidade dentro
dos grupos. Ele calcula duas estimativas de variância:
1.Variância entre grupos (SSB): Mede o quanto as médias dos grupos diferem entre si.
2.Variância dentro dos grupos (SSW): Mede a variação dos dados dentro de cada grupo.
4.Cálculo da Estatística de Teste F: O teste F é calculado dividindo a variância entre grupos pela variância
dentro dos grupos.
1.O grau de liberdade entre grupos é igual ao número de grupos - 1, e o grau de liberdade dentro dos grupos é
igual ao número total de observações menos o número de grupos.
2.Determinação do Valor-p: Uma vez calculado o valor F, você pode procurar na tabela F para encontrar o valor
crítico de F para o seu nível de significância (geralmente 0,05). Em seguida, calcule o valor-p associado ao valor F
calculado.
3.Tomada de Decisão: Compare o valor-p com o nível de significância (alpha) predefinido. Se o valor-p for menor
que alpha, rejeita-se a hipótese nula, o que significa que há evidências estatísticas de que pelo menos um grupo
difere significativamente dos outros.
4.Análise Post Hoc (se necessário): Se o teste ANOVA mostrar diferenças significativas entre grupos, você pode
realizar análises adicionais, como testes de comparações múltiplas (por exemplo, teste de Tukey), para
determinar quais grupos específicos diferem entre si.
Possibilidades:
Supondo que um experimento tenha sido realizado com três grupos diferentes, a razão simplesmente nos
informa que as médias das três populações de onde os grupos foram retirados são diferentes (isto é, m1 =
m2 = m3 não é verdadeiro). Contudo, as médias podem diferir de várias maneiras.
A primeira possibilidade é que as três médias sejam significativamente diferentes (m1 ≠ m2 ≠ m3 ).
Uma segunda possibilidade é que as médias das populações 1 e 2 não sejam diferentes mas tenham uma
diferença significativa em relação à terceira população (m1 = m2 ≠ m3 ).
Outra possibilidade é que as populações 2 e 3 não difiram mas sejam significativamente diferente da
média da população 1 (m1 ≠ m2 = m3 ).
Finalmente os grupos 1 e 3 podem indicar médias semelhantes mas o grupo 2 indica diferença
significativa das populações 1 e 3 (m1 = m3 ≠ m2).
Assim, a razão F informa apenas que a manipulação experimental tem algum efeito, mas não nos informa
especificamente qual é esse efeito.
Apresentação Testes parametricos para aplicação cientifica.pptx
Apresentação Testes parametricos para aplicação cientifica.pptx

Mais conteúdo relacionado

Semelhante a Apresentação Testes parametricos para aplicação cientifica.pptx

Outros testes não-paramétricos
Outros testes não-paramétricosOutros testes não-paramétricos
Outros testes não-paramétricosguest422f98
 
Estatística Aplicada à Administração - Aula 17: Testes de Hipóteses
Estatística Aplicada à Administração - Aula 17: Testes de HipótesesEstatística Aplicada à Administração - Aula 17: Testes de Hipóteses
Estatística Aplicada à Administração - Aula 17: Testes de HipótesesMarcus Araújo
 
Hipóteses e Estimativa do tamanho da amostra (aula 6)
Hipóteses e Estimativa do tamanho da amostra (aula 6)Hipóteses e Estimativa do tamanho da amostra (aula 6)
Hipóteses e Estimativa do tamanho da amostra (aula 6)Sandra Lago Moraes
 
Cap5 - Parte 1 - Conceitos
Cap5 - Parte 1 - ConceitosCap5 - Parte 1 - Conceitos
Cap5 - Parte 1 - ConceitosRegis Andrade
 
Pesquisa Experimental em Marketing
Pesquisa Experimental em MarketingPesquisa Experimental em Marketing
Pesquisa Experimental em MarketingGraziela Rodrigues
 
Cap10 - Parte 1 - Anova Conceitos
Cap10 - Parte 1 - Anova ConceitosCap10 - Parte 1 - Anova Conceitos
Cap10 - Parte 1 - Anova ConceitosRegis Andrade
 
Testes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitneyTestes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitneyCeiça Correia
 
Testes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitneyTestes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitneyCeiça Correia
 
Tecnicas de Pesquisa em Psicologia 6
Tecnicas de Pesquisa em Psicologia 6Tecnicas de Pesquisa em Psicologia 6
Tecnicas de Pesquisa em Psicologia 6Alex Rilie
 
My arquivo Amostragem_slides alunos.ppt
My arquivo Amostragem_slides alunos.pptMy arquivo Amostragem_slides alunos.ppt
My arquivo Amostragem_slides alunos.pptssuser9f513e
 
Cap5 - Parte 2 - Intervalo De Confiança 1
Cap5 - Parte 2 - Intervalo De Confiança 1Cap5 - Parte 2 - Intervalo De Confiança 1
Cap5 - Parte 2 - Intervalo De Confiança 1Regis Andrade
 
Poder Amostral e Estatística
Poder Amostral e EstatísticaPoder Amostral e Estatística
Poder Amostral e EstatísticaSandro Esteves
 
EstatíStica Aula 00
EstatíStica Aula 00EstatíStica Aula 00
EstatíStica Aula 00educacao f
 
Modelos de Pesquisa Científica de Abordagem Quantitativa
Modelos de Pesquisa Científica de Abordagem QuantitativaModelos de Pesquisa Científica de Abordagem Quantitativa
Modelos de Pesquisa Científica de Abordagem QuantitativaRilva Lopes de Sousa Muñoz
 
Apostila de Estatistica
Apostila de EstatisticaApostila de Estatistica
Apostila de EstatisticaGiselle Onuki
 
Estatística descritiva e inferencial Cozby Revisão
Estatística descritiva e inferencial Cozby RevisãoEstatística descritiva e inferencial Cozby Revisão
Estatística descritiva e inferencial Cozby Revisãojoaopss
 
1 delineamentos experimentais
1 delineamentos experimentais1 delineamentos experimentais
1 delineamentos experimentaisluispaulos
 
Aula 2 Teoria Da Amostragem Daniel
Aula 2 Teoria Da Amostragem DanielAula 2 Teoria Da Amostragem Daniel
Aula 2 Teoria Da Amostragem Danielguest8af68839
 

Semelhante a Apresentação Testes parametricos para aplicação cientifica.pptx (20)

Outros testes não-paramétricos
Outros testes não-paramétricosOutros testes não-paramétricos
Outros testes não-paramétricos
 
Estatística Aplicada à Administração - Aula 17: Testes de Hipóteses
Estatística Aplicada à Administração - Aula 17: Testes de HipótesesEstatística Aplicada à Administração - Aula 17: Testes de Hipóteses
Estatística Aplicada à Administração - Aula 17: Testes de Hipóteses
 
Hipóteses e Estimativa do tamanho da amostra (aula 6)
Hipóteses e Estimativa do tamanho da amostra (aula 6)Hipóteses e Estimativa do tamanho da amostra (aula 6)
Hipóteses e Estimativa do tamanho da amostra (aula 6)
 
Cap5 - Parte 1 - Conceitos
Cap5 - Parte 1 - ConceitosCap5 - Parte 1 - Conceitos
Cap5 - Parte 1 - Conceitos
 
08 testes hipoteses_anova
08 testes hipoteses_anova08 testes hipoteses_anova
08 testes hipoteses_anova
 
Pesquisa Experimental em Marketing
Pesquisa Experimental em MarketingPesquisa Experimental em Marketing
Pesquisa Experimental em Marketing
 
Cap10 - Parte 1 - Anova Conceitos
Cap10 - Parte 1 - Anova ConceitosCap10 - Parte 1 - Anova Conceitos
Cap10 - Parte 1 - Anova Conceitos
 
Testes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitneyTestes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitney
 
Testes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitneyTestes nao parametricos_mann-whitney
Testes nao parametricos_mann-whitney
 
Tecnicas de Pesquisa em Psicologia 6
Tecnicas de Pesquisa em Psicologia 6Tecnicas de Pesquisa em Psicologia 6
Tecnicas de Pesquisa em Psicologia 6
 
My arquivo Amostragem_slides alunos.ppt
My arquivo Amostragem_slides alunos.pptMy arquivo Amostragem_slides alunos.ppt
My arquivo Amostragem_slides alunos.ppt
 
Cap5 - Parte 2 - Intervalo De Confiança 1
Cap5 - Parte 2 - Intervalo De Confiança 1Cap5 - Parte 2 - Intervalo De Confiança 1
Cap5 - Parte 2 - Intervalo De Confiança 1
 
Poder Amostral e Estatística
Poder Amostral e EstatísticaPoder Amostral e Estatística
Poder Amostral e Estatística
 
EstatíStica Aula 00
EstatíStica Aula 00EstatíStica Aula 00
EstatíStica Aula 00
 
Modelos de Pesquisa Científica de Abordagem Quantitativa
Modelos de Pesquisa Científica de Abordagem QuantitativaModelos de Pesquisa Científica de Abordagem Quantitativa
Modelos de Pesquisa Científica de Abordagem Quantitativa
 
Apostila de Estatistica
Apostila de EstatisticaApostila de Estatistica
Apostila de Estatistica
 
Estatística descritiva e inferencial Cozby Revisão
Estatística descritiva e inferencial Cozby RevisãoEstatística descritiva e inferencial Cozby Revisão
Estatística descritiva e inferencial Cozby Revisão
 
1 delineamentos experimentais
1 delineamentos experimentais1 delineamentos experimentais
1 delineamentos experimentais
 
Aula7
Aula7Aula7
Aula7
 
Aula 2 Teoria Da Amostragem Daniel
Aula 2 Teoria Da Amostragem DanielAula 2 Teoria Da Amostragem Daniel
Aula 2 Teoria Da Amostragem Daniel
 

Apresentação Testes parametricos para aplicação cientifica.pptx

  • 1. Discentes: Eliseu Gouveia Docente: Prof. Dr. Eduardo Contani Disciplina: 2ADM552 - Estudos Quantitativos em Organizações ENCONTRO 6 29.09.2023
  • 2. Um teste paramétrico é um tipo de teste estatístico utilizado na análise de dados para fazer inferências sobre parâmetros específicos de uma população, como médias, variâncias e proporções. Eles são chamados de "paramétricos" porque assumem que os dados seguem uma distribuição de probabilidade específica, geralmente a distribuição normal (ou gaussiana), e que os parâmetros dessa distribuição (como a média e o desvio padrão) são conhecidos ou estimados a partir dos dados. Teste Paramétricos
  • 3. Teste Paramétricos Alguns exemplos comuns de testes paramétricos incluem: • Teste t de Student: Usado para comparar as médias de duas amostras independentes ou testar a diferença entre a média de uma amostra e um valor conhecido. • Análise de Variância (ANOVA): Utilizada para comparar as médias de três ou mais grupos independentes. • Teste de Regressão Linear: Usado para modelar a relação entre uma variável dependente e uma ou mais variáveis independentes. • Teste Z: Similar ao teste t, mas usado quando a variância populacional é conhecida. • Teste Qui-Quadrado: Usado para testar a independência entre duas variáveis categóricas.
  • 4. Teste Paramétricos Os testes paramétricos são apropriados quando se satisfazem as seguintes suposições: • Normalidade: Os dados seguem uma distribuição normal. Isso significa que a distribuição dos dados é aproximadamente em forma de sino. • Homogeneidade das Variâncias: As variâncias das diferentes amostras a serem comparadas são aproximadamente iguais. • Independência: As observações ou medidas são independentes umas das outras. Dessa forma, é importante que você verifique as hipóteses antes de decidir qual teste estatístico é apropriado.
  • 5. Dados normalmente distribuídos • Assume-se que os dados foram obtidos de uma ou mais populações normais. • O fundamento dos testes de hipóteses baseia-se em ter populações distribuídas normalmente. • Muitos pesquisadores verificam suas amostras (utilizando um histograma) e se a amostra parece aproximadamente normal, eles assumem que as populações também serão.
  • 6. Dados normalmente distribuídos Olhar para os histogramas é uma opção, mas eles nada informam sobre a distribuição estar próxima o suficiente da normalidade. Os testes de Kolmogorov-Smirnov e de Shapiro-Wilk fazem justamente isso: eles comparam escores de uma amostra a uma distribuição normal modelo de mesma média e variância dos valores encontrados na amostra. Se o teste é não-significativo (p > 0,05), ele nos informa que os dados da amostra não diferem significativamente de uma distribuição normal (isto é, eles podem ser normais). Por outro lado, se o teste é significativo (p < 0,05), a distribuição em questão é significativamente diferente de uma distribuição normal (isto é, ela é não-normal). A percentagem no exame do SPSS, D(100) = 0,10, p < 0,05, e para os escores da numerácia, D(100) = 0,15, p < 0,001, foram ambos significativamente não-normais.
  • 7. TESTANDO A HOMOGENEIDADE DA VARIÂNCIA Essa hipótese significa que à medida que você avança entre os níveis de uma variável, a variância da outra não deve mudar. Se você coletou grupos de dados, isso significa que a variância da sua variável ou variável de saída deve ser a mesma em cada um desses grupos. Se você coletou dados contínuos (como os delineamentos intercorrelacionais), essa suposição significa que a variância de uma variável deve ser estável em todos os níveis da outra variável.
  • 8. Teste Não Paramétricos Um teste não paramétrico é um tipo de teste estatístico usado na análise de dados quando as suposições dos testes paramétricos não são atendidas. Ao contrário dos testes paramétricos, os testes não paramétricos não fazem suposições específicas sobre a distribuição dos dados ou sobre os parâmetros populacionais, como média e variância. Isso os torna úteis em situações em que os dados não seguem uma distribuição normal ou quando outras suposições paramétricas não são atendidas.
  • 9. Os testes não paramétricos são frequentemente usados quando os dados são categóricos, ordinais ou quando a escala de medição dos dados não permite a aplicação dos testes paramétricos. Alguns exemplos de testes não paramétricos incluem: Teste Não Paramétricos • Teste de Wilcoxon (Mann-Whitney U): Usado para comparar duas amostras independentes quando a suposição de normalidade não é atendida. Ele testa se uma amostra tende a ter valores maiores do que a outra. • Teste de Wilcoxon para amostras pareadas: Similar ao teste de Wilcoxon, mas usado quando se deseja comparar duas amostras pareadas ou relacionadas. • Teste de Kruskal-Wallis: Uma versão não paramétrica da análise de variância (ANOVA), usado para comparar três ou mais grupos independentes. • Teste de qui-quadrado: Usado para testar a independência entre variáveis categóricas em uma tabela de contingência. • Teste de Fisher exato: Um teste não paramétrico utilizado quando as condições para o teste qui-quadrado não são atendidas, especialmente em amostras pequenas. • Teste de assinatura de postos de Wilcoxon: Uma alternativa não paramétrica ao teste t de Student para amostras pareadas. • Teste de Kolmogorov-Smirnov: Usado para testar se uma amostra segue uma distribuição específica, como a distribuição normal.
  • 10. O teste t, também conhecido como o teste t de Student, é um teste estatístico paramétrico usado para comparar as médias de duas amostras independentes e determinar se há uma diferença significativa entre elas. É uma ferramenta útil quando você deseja saber se a diferença nas médias entre dois grupos é estatisticamente significativa. Teste T
  • 11. • O teste t para amostras independentes: Esse teste é usado quando existem duas condições experimentais e diferentes participantes foram designados para cada condição (isso às vezes é chamado de teste t de medidas independentes ou amostras independentes). • O teste t para amostras dependentes: Esse teste é usado quando existem duas condições experimentais e os mesmos participantes tomaram parte em ambas as condições (esse teste, às vezes, é referido como o teste t para amostras emparelhadas). Existem dois tipos de testes t e qual você usará irá depender de como a variável independente foi manipulada, se com os mesmos ou diferentes participantes: Os dois testes tem uma fundamentação semelhante: Duas amostras de dados são coletadas e a média das amostras é calculada. Essas médias podem diferir pouco ou muito. Se as amostras vêm da mesma população, esperamos que suas médias sejam praticamente iguais. Embora seja possível que as médias difiram somente pelo acaso, grandes diferenças entre as médias amostrais não devem ocorrer com frequência. Sob o que é conhecido como hipótese nula, presumimos que a manipulação experimental não tenha efeito nos participantes: portanto, esperamos que as médias das amostras sejam similares. Teste T
  • 12. manipular uma só variável de duas maneiras apenas e medir somente uma saída. A manipulação da variável independente em geral envolve ter uma condição experimental e um grupo-controle • O filme Pânico 2 é mais assustador do que o Pânico original? Podemos medir os batimentos cardíacos (que indicam ansiedade) durante ambos os filmes e compará-los. • Escutar música enquanto você trabalha melhora o seu desempenho? Você poderia pedir para algumas pessoas escreverem um artigo (ou livro!) escutando sua música favorita e, então, escreverem outro artigo trabalhando em silêncio (isso é um grupo-controle). Depois, você poderia comparar as notas dos artigos! • Escutar a música favorita do Andy melhora o seu desempenho? Teste T
  • 13. Comparamos a diferença entre as médias das amostras que coletamos com a diferença entre as médias das amostras que esperamos obter somente pelo acaso. Usamos o erro padrão como uma medida da variabilidade entre as médias das amostras. Se o erro padrão é pequeno, esperamos que a maioria das amostras tenham médias similares. Quando o erro padrão é grande, esperamos obter grandes diferenças nas médias das amostras somente pelo acaso. Se a diferença entre as amostras que coletamos for maior do que esperamos no erro padrão, podemos presumir uma de duas coisas: a) Que as médias das amostras na nossa população flutuam muito somente por acaso e temos, por acaso, coletado duas amostras que são atípicas da população de onde foram retiradas. b) As duas amostras vêm de populações diferentes, mas são típicas das suas respectivas populações originais. Nesse cenário, a diferença entre amostras representa uma diferença genuína entre as amostras (e, assim, a hipótese nula é incorreta). Teste T
  • 14. À medida que a diferença observada entre as médias das amostras aumenta mais confiante ficamos de que a hipótese nula deva ser rejeitada. Se a hipótese nula é incorreta, aceitamos o que é denominado de hipótese experimental (também chamada de hipótese alternativa ou algo semelhante), isto é, que as médias das duas amostras diferem por causa da manipulação diferenciada que foi imposta a cada uma das amostras. Resumindo, calculamos o teste t usando a equação mas a forma exata que essa equação tomará vai depender de como os dados foram coletados (isto é, se os mesmos ou diferentes participantes foram usados em cada condição experimental).
  • 15. 1.Formulação das Hipóteses: 1. Hipótese Nula (H0): A hipótese nula afirma que não há diferença significativa entre as médias das duas amostras. Em termos estatísticos, isso pode ser expresso como: μ1 = μ2, onde μ1 é a média da primeira amostra e μ2 é a média da segunda amostra. 2. Hipótese Alternativa (H1): A hipótese alternativa sugere que há uma diferença significativa entre as médias das duas amostras. 2.Coleta de Dados: Colete dados independentes para as duas amostras que deseja comparar. As amostras devem ser mutuamente exclusivas e representativas da população de interesse. Certifique-se de que os dados estejam distribuídos aproximadamente de forma normal. 3.Cálculo das Médias e Desvios Padrão: Calcule as médias (x ̄ 1 e x ̄ 2) e os desvios padrão (s1 e s2) das duas amostras. 4.Cálculo da Estatística do Teste t: A estatística do teste t é calculada usando a fórmula: 1.Onde: 1. x1 e x2 são as médias das duas amostras. 2. s1 e s2 são os desvios padrão das duas amostras. 3. n1 e n2 são os tamanhos das amostras (número de observações em cada amostra). 2.Determinação dos Graus de Liberdade: Os graus de liberdade (df) são usados para encontrar o valor crítico t da tabela t de Student. Os graus de liberdade são geralmente calculados como df=n1+n2−2. 3.Determinação do Valor-p: Compare a estatística do teste t calculada com o valor crítico t da tabela t de Student para o seu nível de significância (geralmente 0,05). Em seguida, calcule o valor-p associado ao valor t calculado. 4.Tomada de Decisão: Compare o valor-p com o nível de significância (alpha) predefinido. Se o valor-p for menor que alpha, rejeita-se a hipótese nula, o que significa que há evidências estatísticas de que as médias das duas amostras são diferentes. Caso contrário, não há evidências suficientes para rejeitar a hipótese nula. 5.Interpretação: Se a hipótese nula for rejeitada, isso indica que há uma diferença significativa entre as médias das duas amostras. Você pode então examinar a magnitude dessa diferença usando intervalos de confiança ou outras análises relevantes.
  • 16. ANOVA Imagine uma situação em que existem três condições experimentais e estamos interessados nas diferenças entre esses três grupos. Se executássemos testes t para cada par de grupos, seria necessário executar três testes: um para comparar os grupos 1 e 2, outro para comparar os grupos 1 e 3 e um para comparar os grupos 2 e 3. Se cada um desses testes t utilizasse uma significância de 5%, a probabilidade de falsamente rejeitar a hipótese nula (conhecido como erro do Tipo I) para cada teste seria de somente 5%. Dessa forma, a probabilidade de não cometer o erro do Tipo I seria 0,95 (95%) para cada teste. O teste ANOVA é uma técnica estatística usada para comparar as médias de três ou mais grupos independentes para determinar se há diferenças estatisticamente significativas entre eles. Em outras palavras, ele ajuda a responder se os grupos são diferentes o suficiente em termos de médias para considerarmos que essas diferenças não ocorreram apenas por acaso. Quando executamos testes t, testamos a hipótese de que as duas populações de onde as amostras foram retiradas apresentam a mesma média. Da mesma maneira, a ANOVA nos informa se três ou mais médias populacionais são iguais. Uma ANOVA testa a hipótese de que as médias de todas as condições são iguais. Uma ANOVA produz uma estatística F ou razão F que é semelhante a estatística t pois ela compara a variância sistemática nos dados com a variância não-sistemática. Contudo a ANOVA é um teste abrangente (omnibus), o que significa que ela testa um efeito experimental de forma global: assim, existem coisas que a ANOVA não nos informa. Embora a ANOVA nos informe se a manipulação experimental teve sucesso, ela não fornece informações específicas sobre quais grupos foram afetados. Muitos cientistas sociais não se dão conta de que a ANOVA e a análise de regressão são conceitualmente o mesmo procedimento.
  • 17. 1.Formulação das Hipóteses: 1.Hipótese Nula (H0): A hipótese nula afirma que não há diferença significativa entre as médias dos grupos. Em termos estatísticos, isso pode ser expresso como: μ1 = μ2 = μ3 = ... = μk, onde μ1, μ2, μ3, etc., representam as médias dos diferentes grupos. 2.Hipótese Alternativa (H1): A hipótese alternativa sugere que pelo menos um grupo difere significativamente das outras médias. 2.Coleta de Dados: Colete dados independentes para cada grupo. Certifique-se de que os grupos sejam mutuamente exclusivos e que os dados estejam distribuídos normalmente. 3.Teste de Variância: ANOVA avalia as diferenças entre as médias dos grupos em relação à variabilidade dentro dos grupos. Ele calcula duas estimativas de variância: 1.Variância entre grupos (SSB): Mede o quanto as médias dos grupos diferem entre si. 2.Variância dentro dos grupos (SSW): Mede a variação dos dados dentro de cada grupo. 4.Cálculo da Estatística de Teste F: O teste F é calculado dividindo a variância entre grupos pela variância dentro dos grupos. 1.O grau de liberdade entre grupos é igual ao número de grupos - 1, e o grau de liberdade dentro dos grupos é igual ao número total de observações menos o número de grupos. 2.Determinação do Valor-p: Uma vez calculado o valor F, você pode procurar na tabela F para encontrar o valor crítico de F para o seu nível de significância (geralmente 0,05). Em seguida, calcule o valor-p associado ao valor F calculado. 3.Tomada de Decisão: Compare o valor-p com o nível de significância (alpha) predefinido. Se o valor-p for menor que alpha, rejeita-se a hipótese nula, o que significa que há evidências estatísticas de que pelo menos um grupo difere significativamente dos outros. 4.Análise Post Hoc (se necessário): Se o teste ANOVA mostrar diferenças significativas entre grupos, você pode realizar análises adicionais, como testes de comparações múltiplas (por exemplo, teste de Tukey), para determinar quais grupos específicos diferem entre si.
  • 18. Possibilidades: Supondo que um experimento tenha sido realizado com três grupos diferentes, a razão simplesmente nos informa que as médias das três populações de onde os grupos foram retirados são diferentes (isto é, m1 = m2 = m3 não é verdadeiro). Contudo, as médias podem diferir de várias maneiras. A primeira possibilidade é que as três médias sejam significativamente diferentes (m1 ≠ m2 ≠ m3 ). Uma segunda possibilidade é que as médias das populações 1 e 2 não sejam diferentes mas tenham uma diferença significativa em relação à terceira população (m1 = m2 ≠ m3 ). Outra possibilidade é que as populações 2 e 3 não difiram mas sejam significativamente diferente da média da população 1 (m1 ≠ m2 = m3 ). Finalmente os grupos 1 e 3 podem indicar médias semelhantes mas o grupo 2 indica diferença significativa das populações 1 e 3 (m1 = m3 ≠ m2). Assim, a razão F informa apenas que a manipulação experimental tem algum efeito, mas não nos informa especificamente qual é esse efeito.