2. Um teste paramétrico é um tipo de teste estatístico utilizado na análise de dados para fazer
inferências sobre parâmetros específicos de uma população, como médias, variâncias e
proporções.
Eles são chamados de "paramétricos" porque assumem que os dados seguem uma
distribuição de probabilidade específica, geralmente a distribuição normal (ou gaussiana),
e que os parâmetros dessa distribuição (como a média e o desvio padrão) são conhecidos ou
estimados a partir dos dados.
Teste Paramétricos
3. Teste Paramétricos
Alguns exemplos comuns de testes paramétricos incluem:
• Teste t de Student: Usado para comparar as médias de duas
amostras independentes ou testar a diferença entre a média de
uma amostra e um valor conhecido.
• Análise de Variância (ANOVA): Utilizada para comparar as
médias de três ou mais grupos independentes.
• Teste de Regressão Linear: Usado para modelar a relação
entre uma variável dependente e uma ou mais variáveis
independentes.
• Teste Z: Similar ao teste t, mas usado quando a variância
populacional é conhecida.
• Teste Qui-Quadrado: Usado para testar a independência entre
duas variáveis categóricas.
4. Teste Paramétricos
Os testes paramétricos são apropriados quando se satisfazem as
seguintes suposições:
• Normalidade: Os dados seguem uma distribuição normal. Isso
significa que a distribuição dos dados é aproximadamente em
forma de sino.
• Homogeneidade das Variâncias: As variâncias das diferentes
amostras a serem comparadas são aproximadamente iguais.
• Independência: As observações ou medidas são
independentes umas das outras.
Dessa forma, é importante que você verifique as hipóteses antes de decidir qual
teste estatístico é apropriado.
5. Dados normalmente distribuídos
• Assume-se que os dados foram obtidos de uma ou mais populações normais.
• O fundamento dos testes de hipóteses baseia-se em ter populações distribuídas normalmente.
• Muitos pesquisadores verificam suas amostras (utilizando um histograma) e se a amostra
parece aproximadamente normal, eles assumem que as populações também serão.
6. Dados normalmente distribuídos
Olhar para os histogramas é uma opção, mas eles nada informam sobre a distribuição estar
próxima o suficiente da normalidade.
Os testes de Kolmogorov-Smirnov e de Shapiro-Wilk fazem justamente isso: eles comparam
escores de uma amostra a uma distribuição normal modelo de mesma média e variância
dos valores encontrados na amostra.
Se o teste é não-significativo (p > 0,05), ele nos informa que os dados da amostra não
diferem significativamente de uma distribuição normal (isto é, eles podem ser normais). Por
outro lado, se o teste é significativo (p < 0,05), a distribuição em questão é
significativamente diferente de uma distribuição normal (isto é, ela é não-normal).
A percentagem no exame do SPSS,
D(100) = 0,10, p < 0,05, e para os
escores da numerácia, D(100) = 0,15, p
< 0,001, foram ambos
significativamente não-normais.
7. TESTANDO A HOMOGENEIDADE DA VARIÂNCIA
Essa hipótese significa que à medida que você avança entre os níveis de uma variável, a variância da outra
não deve mudar.
Se você coletou grupos de dados, isso significa que a variância da sua variável ou variável de saída deve
ser a mesma em cada um desses grupos. Se você coletou dados contínuos (como os delineamentos
intercorrelacionais), essa suposição significa que a variância de uma variável deve ser estável em todos os
níveis da outra variável.
8. Teste Não Paramétricos
Um teste não paramétrico é um tipo de teste estatístico usado na
análise de dados quando as suposições dos testes paramétricos
não são atendidas.
Ao contrário dos testes paramétricos, os testes não paramétricos
não fazem suposições específicas sobre a distribuição dos dados
ou sobre os parâmetros populacionais, como média e variância.
Isso os torna úteis em situações em que os dados não seguem
uma distribuição normal ou quando outras suposições
paramétricas não são atendidas.
9. Os testes não paramétricos são frequentemente usados quando os dados são categóricos, ordinais ou
quando a escala de medição dos dados não permite a aplicação dos testes paramétricos. Alguns
exemplos de testes não paramétricos incluem:
Teste Não Paramétricos
• Teste de Wilcoxon (Mann-Whitney U): Usado para comparar duas amostras independentes quando a suposição de
normalidade não é atendida. Ele testa se uma amostra tende a ter valores maiores do que a outra.
• Teste de Wilcoxon para amostras pareadas: Similar ao teste de Wilcoxon, mas usado quando se deseja comparar duas
amostras pareadas ou relacionadas.
• Teste de Kruskal-Wallis: Uma versão não paramétrica da análise de variância (ANOVA), usado para comparar três ou
mais grupos independentes.
• Teste de qui-quadrado: Usado para testar a independência entre variáveis categóricas em uma tabela de contingência.
• Teste de Fisher exato: Um teste não paramétrico utilizado quando as condições para o teste qui-quadrado não são
atendidas, especialmente em amostras pequenas.
• Teste de assinatura de postos de Wilcoxon: Uma alternativa não paramétrica ao teste t de Student para amostras
pareadas.
• Teste de Kolmogorov-Smirnov: Usado para testar se uma amostra segue uma distribuição específica, como a
distribuição normal.
10. O teste t, também conhecido como o teste t de Student, é um
teste estatístico paramétrico usado para comparar as médias
de duas amostras independentes e determinar se há uma
diferença significativa entre elas. É uma ferramenta útil
quando você deseja saber se a diferença nas médias entre
dois grupos é estatisticamente significativa.
Teste T
11. • O teste t para amostras independentes: Esse teste é usado quando existem duas condições
experimentais e diferentes participantes foram designados para cada condição (isso às vezes é
chamado de teste t de medidas independentes ou amostras independentes).
• O teste t para amostras dependentes: Esse teste é usado quando existem duas condições
experimentais e os mesmos participantes tomaram parte em ambas as condições (esse teste, às
vezes, é referido como o teste t para amostras emparelhadas).
Existem dois tipos de testes t e qual você usará irá depender de como a variável independente foi
manipulada, se com os mesmos ou diferentes participantes:
Os dois testes tem uma fundamentação semelhante:
Duas amostras de dados são coletadas e a média das amostras é calculada. Essas médias podem
diferir pouco ou muito. Se as amostras vêm da mesma população, esperamos que suas médias
sejam praticamente iguais. Embora seja possível que as médias difiram somente pelo acaso, grandes
diferenças entre as médias amostrais não devem ocorrer com frequência. Sob o que é conhecido como
hipótese nula, presumimos que a manipulação experimental não tenha efeito nos participantes:
portanto, esperamos que as médias das amostras sejam similares.
Teste T
12. manipular uma só variável de duas maneiras apenas e medir somente uma saída. A manipulação da
variável independente em geral envolve ter uma condição experimental e um grupo-controle
• O filme Pânico 2 é mais assustador do que o Pânico original? Podemos medir os batimentos
cardíacos (que indicam ansiedade) durante ambos os filmes e compará-los.
• Escutar música enquanto você trabalha melhora o seu desempenho? Você poderia pedir para
algumas pessoas escreverem um artigo (ou livro!) escutando sua música favorita e, então,
escreverem outro artigo trabalhando em silêncio (isso é um grupo-controle). Depois, você poderia
comparar as notas dos artigos!
• Escutar a música favorita do Andy melhora o seu desempenho?
Teste T
13. Comparamos a diferença entre as médias das amostras que coletamos com a diferença entre as médias das
amostras que esperamos obter somente pelo acaso. Usamos o erro padrão como uma medida da variabilidade
entre as médias das amostras. Se o erro padrão é pequeno, esperamos que a maioria das amostras tenham
médias similares. Quando o erro padrão é grande, esperamos obter grandes diferenças nas médias das
amostras somente pelo acaso.
Se a diferença entre as amostras que coletamos for maior do que esperamos no
erro padrão, podemos presumir uma de duas coisas:
a) Que as médias das amostras na nossa população flutuam muito somente por acaso e temos, por acaso,
coletado duas amostras que são atípicas da população de onde foram retiradas.
b) As duas amostras vêm de populações diferentes, mas são típicas das suas respectivas populações
originais. Nesse cenário, a diferença entre amostras representa uma diferença genuína entre as amostras (e,
assim, a hipótese nula é incorreta).
Teste T
14. À medida que a diferença observada entre as médias das amostras aumenta mais confiante ficamos de que a
hipótese nula deva ser rejeitada. Se a hipótese nula é incorreta, aceitamos o que é denominado de hipótese
experimental (também chamada de hipótese alternativa ou algo semelhante), isto é, que as médias das duas
amostras diferem por causa da manipulação diferenciada que foi imposta a cada uma das amostras.
Resumindo, calculamos o teste t usando a equação mas a forma exata que essa equação tomará vai depender
de como os dados foram coletados (isto é, se os mesmos ou diferentes participantes foram usados em cada
condição experimental).
15. 1.Formulação das Hipóteses:
1. Hipótese Nula (H0): A hipótese nula afirma que não há diferença significativa entre as médias das duas amostras. Em termos
estatísticos, isso pode ser expresso como: μ1 = μ2, onde μ1 é a média da primeira amostra e μ2 é a média da segunda amostra.
2. Hipótese Alternativa (H1): A hipótese alternativa sugere que há uma diferença significativa entre as médias das duas amostras.
2.Coleta de Dados: Colete dados independentes para as duas amostras que deseja comparar. As amostras devem ser mutuamente
exclusivas e representativas da população de interesse. Certifique-se de que os dados estejam distribuídos aproximadamente de forma
normal.
3.Cálculo das Médias e Desvios Padrão: Calcule as médias (x
̄ 1 e x
̄ 2) e os desvios padrão (s1 e s2) das duas amostras.
4.Cálculo da Estatística do Teste t: A estatística do teste t é calculada usando a fórmula:
1.Onde:
1. x1 e x2 são as médias das duas amostras.
2. s1 e s2 são os desvios padrão das duas amostras.
3. n1 e n2 são os tamanhos das amostras (número de observações em cada amostra).
2.Determinação dos Graus de Liberdade: Os graus de liberdade (df) são usados para encontrar o valor crítico t da tabela t de Student.
Os graus de liberdade são geralmente calculados como df=n1+n2−2.
3.Determinação do Valor-p: Compare a estatística do teste t calculada com o valor crítico t da tabela t de Student para o seu nível de
significância (geralmente 0,05). Em seguida, calcule o valor-p associado ao valor t calculado.
4.Tomada de Decisão: Compare o valor-p com o nível de significância (alpha) predefinido. Se o valor-p for menor que alpha, rejeita-se a
hipótese nula, o que significa que há evidências estatísticas de que as médias das duas amostras são diferentes. Caso contrário, não há
evidências suficientes para rejeitar a hipótese nula.
5.Interpretação: Se a hipótese nula for rejeitada, isso indica que há uma diferença significativa entre as médias das duas amostras. Você
pode então examinar a magnitude dessa diferença usando intervalos de confiança ou outras análises relevantes.
16. ANOVA
Imagine uma situação em que existem três condições experimentais e estamos interessados nas diferenças entre esses
três grupos. Se executássemos testes t para cada par de grupos, seria necessário executar três testes: um para comparar
os grupos 1 e 2, outro para comparar os grupos 1 e 3 e um para comparar os grupos 2 e 3. Se cada um desses testes t
utilizasse uma significância de 5%, a probabilidade de falsamente rejeitar a hipótese nula (conhecido como erro do Tipo I)
para cada teste seria de somente 5%. Dessa forma, a probabilidade de não cometer o erro do Tipo I seria 0,95 (95%) para
cada teste.
O teste ANOVA é uma técnica estatística usada para comparar as médias de três ou mais grupos independentes para
determinar se há diferenças estatisticamente significativas entre eles. Em outras palavras, ele ajuda a responder se os
grupos são diferentes o suficiente em termos de médias para considerarmos que essas diferenças não ocorreram
apenas por acaso.
Quando executamos testes t, testamos a hipótese de que as duas populações de onde as amostras foram retiradas
apresentam a mesma média. Da mesma maneira, a ANOVA nos informa se três ou mais médias populacionais são iguais.
Uma ANOVA testa a hipótese de que as médias de todas as condições são iguais.
Uma ANOVA produz uma estatística F ou razão F que é semelhante a estatística t pois ela compara a variância
sistemática nos dados com a variância não-sistemática. Contudo a ANOVA é um teste abrangente (omnibus), o que
significa que ela testa um efeito experimental de forma global: assim, existem coisas que a ANOVA não nos informa.
Embora a ANOVA nos informe se a manipulação experimental teve sucesso, ela não fornece informações específicas
sobre quais grupos foram afetados.
Muitos cientistas sociais não se dão conta de que a ANOVA e a análise de regressão são
conceitualmente o mesmo procedimento.
17. 1.Formulação das Hipóteses:
1.Hipótese Nula (H0): A hipótese nula afirma que não há diferença significativa entre as médias dos grupos.
Em termos estatísticos, isso pode ser expresso como: μ1 = μ2 = μ3 = ... = μk, onde μ1, μ2, μ3, etc.,
representam as médias dos diferentes grupos.
2.Hipótese Alternativa (H1): A hipótese alternativa sugere que pelo menos um grupo difere significativamente
das outras médias.
2.Coleta de Dados: Colete dados independentes para cada grupo. Certifique-se de que os grupos sejam
mutuamente exclusivos e que os dados estejam distribuídos normalmente.
3.Teste de Variância: ANOVA avalia as diferenças entre as médias dos grupos em relação à variabilidade dentro
dos grupos. Ele calcula duas estimativas de variância:
1.Variância entre grupos (SSB): Mede o quanto as médias dos grupos diferem entre si.
2.Variância dentro dos grupos (SSW): Mede a variação dos dados dentro de cada grupo.
4.Cálculo da Estatística de Teste F: O teste F é calculado dividindo a variância entre grupos pela variância
dentro dos grupos.
1.O grau de liberdade entre grupos é igual ao número de grupos - 1, e o grau de liberdade dentro dos grupos é
igual ao número total de observações menos o número de grupos.
2.Determinação do Valor-p: Uma vez calculado o valor F, você pode procurar na tabela F para encontrar o valor
crítico de F para o seu nível de significância (geralmente 0,05). Em seguida, calcule o valor-p associado ao valor F
calculado.
3.Tomada de Decisão: Compare o valor-p com o nível de significância (alpha) predefinido. Se o valor-p for menor
que alpha, rejeita-se a hipótese nula, o que significa que há evidências estatísticas de que pelo menos um grupo
difere significativamente dos outros.
4.Análise Post Hoc (se necessário): Se o teste ANOVA mostrar diferenças significativas entre grupos, você pode
realizar análises adicionais, como testes de comparações múltiplas (por exemplo, teste de Tukey), para
determinar quais grupos específicos diferem entre si.
18. Possibilidades:
Supondo que um experimento tenha sido realizado com três grupos diferentes, a razão simplesmente nos
informa que as médias das três populações de onde os grupos foram retirados são diferentes (isto é, m1 =
m2 = m3 não é verdadeiro). Contudo, as médias podem diferir de várias maneiras.
A primeira possibilidade é que as três médias sejam significativamente diferentes (m1 ≠ m2 ≠ m3 ).
Uma segunda possibilidade é que as médias das populações 1 e 2 não sejam diferentes mas tenham uma
diferença significativa em relação à terceira população (m1 = m2 ≠ m3 ).
Outra possibilidade é que as populações 2 e 3 não difiram mas sejam significativamente diferente da
média da população 1 (m1 ≠ m2 = m3 ).
Finalmente os grupos 1 e 3 podem indicar médias semelhantes mas o grupo 2 indica diferença
significativa das populações 1 e 3 (m1 = m3 ≠ m2).
Assim, a razão F informa apenas que a manipulação experimental tem algum efeito, mas não nos informa
especificamente qual é esse efeito.