Experimentação Agrícola
Comparação de Médias
Profa. Dra. Sabrina L. Caetano
Planejamento  Coleta ou observação dos dados 
Organização dos dados Análise  Interpretação
Planejamento
Definir os Objetivos da Pesquisa/Projeto
Fazer o levantamento das variáveis que serão estudadas
Variáveis Estatísticas
As variáveis estatísticas devem ser identificadas já no
planejamento, devido as etapas seguintes serem diferenciadas
dependendo de sua classificação.
Classificação:
QUALITATIVA: Ordinal ou Nominal
QUANTITATIVA: Discreta ou Contínua
Planejamento  Coleta ou observação dos dados 
Organização dos dados Análise  Interpretação
Coleta ou observação de Dados
População
Amostra
Casual Simples
Estratificada
Conglomerado
Sistemática
Não Probabilística
Qual a sua opinião sobre coletar dados da População????
Pros e contras...
Tempo de Dinheiro inviabilizam
Planejamento  Coleta ou observação dos dados 
Organização dos dados Análise  Interpretação
Organização dos Dados
Em arquivos específicos
Tabela
Gráficos
Planejamento  Coleta ou observação dos dados 
Organização dos dados Análise  Interpretação
Análise
Medidas de Tendência Central
Medidas de Variabilidade  Estatística Descritiva
Planejamento  Coleta ou observação dos dados 
Organização dos dados Análise  Interpretação
Análise
Intervalo de Confiança
Teste de hipótese
Correlação
Regressão
Delineamentos
Multivariada
Redes Neurais
Sobrevivência
Bayesiana
Séries Temporais
...
Delineamento de Experimentos
Inferência Estatística  Interpretação
Termos Técnicos
Experimento
Unidade Experimental
Variável independente
Variável dependente
Grupo Controle ou testemunha
Variáveis de Confusão (confounding variables)
Princípio da repetição
Princípio da casualização
Princípio do controle local
Para tanto, torna-se
necessário a formulação de
hipóteses ou suposições
relativas às populações.
•Essas suposições, que podem
ou não ser verdadeiras, são
chamadas de hipóteses
estatísticas e constituem,
geralmente, em considerações
a respeito das distribuições de
probabilidade das populações.
Análise de Variância (ANOVA)
ANOVA é uma técnica estatística usada para comparar as médias
de diferentes grupos e verificar se existem diferenças
significativas entre eles.
Critério do teste
Pressuposições Básicas para Modelos de Experimentação
 A variável dependente deve ser contínua
 A variável independente deve ser qualitativa
 Não deve haver dados discrepantes.
 Os erros devem ser independentes
 Os erro devem ter distribuição normal
 Os tratamentos devem ter variâncias homogêneas
O modelo estatístico de um experimento ao
acaso é:
𝑌 = 𝜇 + 𝜏 + 𝜀
Se imaginarmos infinitos experimentos conduzidos nas
mesmas condições teríamos o valor verdadeiro da média geral
𝜇 e dos efeitos dos tratamentos. Então teríamos os erros e não
simplesmente os resíduos.
Pressuposições para Anova
Variável dependente:
Quantitativa
Variável independente:
Qualitativa
Ausência de dados
discrepantes
Independência
dos erros
Distribuição normal
dos erros
Variância
homogênea
 Resíduos
padronizados
 Teste de
Grubbs
 Gráfico de
resíduos
 Teste de
Durbin-
Watson
 Q-Q plot
 Teste de Shapiro-Wilk
 Valores
ajustados (fitted)
versus os
resíduos
 Teste de Bartlett
Quando as suposições da ANOVA não são atendidas, você
pode considerar:
 transformações nos dados
 aplicar testes não paramétricos
 ou utilizar alternativas mais robustas como modelos
lineares mistos ou versões ajustadas da ANOVA.
O melhor caminho depende da natureza dos dados e do
tipo de violação das suposições.
Comparação de Médias
Utilizado para determinar qual é a média ou quais são as
médias que diferem entre si.
Iremos considerar o teste de Tukey e o teste de Dunnett
1. Teste de Tukey:
 Objetivo: O teste de Tukey é usado para comparar todas as
médias de pares de grupos e verificar se existem diferenças
significativas entre qualquer combinação de tratamentos.
 Quando usar: É utilizado quando você tem mais de dois
grupos e deseja comparar todos os pares possíveis de grupos
para ver se algum deles difere significativamente dos outros.
Características:
 Realiza comparações múltiplas entre todas as combinações de
grupos.
 O nível de significância (α) é ajustado para garantir que a
probabilidade de cometer um erro tipo I (rejeitar uma hipótese
nula verdadeira) seja controlada, dado o grande número de
comparações feitas.
 Ideal para quando você não tem um grupo específico de referência
e deseja explorar todas as diferenças possíveis entre os grupos.
Hipóteses:
 Hipótese nula (H₀): Não há diferença significativa entre as médias
de dois grupos quaisquer.
 Hipótese alternativa (H₁): Existe uma diferença significativa entre
as médias de dois grupos quaisquer.
O teste de Tukey
Para obter a diferença honestamente significativa (HSD) pelo
teste de Tukey basta calcular:
𝐻𝑆𝐷 = 𝑞( , , )
𝑄𝑀𝑅
𝑟
em que q é o valor dado na tabela ao nível de significância 𝝰
estabelecido, a t tratamentos e ao número de graus de liberdade do
resíduo, QMR é quadrado médio do resíduo da ANOVA e r é o
número de repetições.
Se o valor absoluto da diferença entre média
dos tratamentos for igual ou maior ao HSD ,
consideramos elas estatisticamente diferentes.
Número de
Tratamentos
gl dos resíduos
Na prática
Considere a seguinte situação:
O estudo teve como objetivo avaliar o efeito de diferentes
dietas alimentares no ganho de peso de animais. Cinco
diferentes tratamentos alimentares (A, B, C, D, E) foram
testados, e um grupo testemunha, que não recebeu nenhum
tratamento específico, foi mantido para comparação. Cada grupo
foi alimentado de acordo com o tratamento designado durante
um período de 30 dias, e o ganho de peso dos animais foi
registrado ao final do período.
Compreendendo o experimento:
Planejamento, com objetivo e variáveis (classificar), tipo de
delineamento;
Como foi realizada a coleta de dados, população ou Amostra;
Como deverá ser realizada a organização dos dados, gráficos e
tabelas;
Como será realizada a Análise- tipo de Análise, falar do nível de
significância, pré-suposições do Modelo;
Interpretação, tomada de decisão e conclusões;
Não esquecer dos termos técnicos e também verificar se atende os
princípios da experimentação;
Atividade
Testemunha
E
D
C
B
A
8
11
23
18
10
25
-6
23
29
8
-2
17
6
5
25
4
12
27
0
17
35
14
4
21
2
9
33
6
16
15
Pressuposições para Anova
Variável dependente:
Quantitativa
Variável independente:
Qualitativa
Ausência de dados
discrepantes
Independência
dos erros
Distribuição normal
dos erros
Variância
homogênea
 Resíduos
padronizados
 Teste de
Grubbs
 Gráfico de
resíduos
 Teste de
Durbin-
Watson
 Q-Q plot
 Teste de Shapiro-Wilk
 Valores
ajustados (fitted)
versus os
resíduos
 Teste de Bartlett
# Dados
A <- c(25, 17, 27, 21, 15)
B <- c(10, -2, 12, 4, 16)
C <- c(18, 8, 4, 14, 6)
D <- c(23, 29, 25, 35, 33)
E <- c(11, 23, 5, 17, 9)
Testemunha <- c(8, -6, 6, 0, 2)
# Organizando os dados em um data frame
dados <- data.frame(
ganho_peso = c(A, B, C, D, E, Testemunha),
tratamento = factor(rep(c("A", "B", "C", "D", "E", "Testemunha"), each =
5))
)
# Realizando a ANOVA
anova_result <- aov(ganho_peso ~ tratamento, data = dados)
# Exibindo o resumo da ANOVA
summary(anova_result)
# Carregar a biblioteca ggplot2
library(ggplot2)
# Criando o boxplot com ggplot2
ggplot(dados, aes(x = tratamento, y = ganho_peso, fill =
tratamento)) +
geom_boxplot() +
labs(title = "Distribuição de Ganho de Peso por Tratamento",
x = "Tratamento",
y = "Ganho de Peso") +
theme_minimal() # Usando tema minimalista
Testemunha
E
D
C
B
A
8
11
23
18
10
25
-6
23
29
8
-2
17
6
5
25
4
12
27
0
17
35
14
4
21
2
9
33
6
16
15
média
2
13
29
10
8
21
diferença de médias
comparação
21-8= 13*
A-B
21-10= 11
A-C
21-29= -8
A-D
21-13= 8
A-E
21-2= 19*
A-Controle
8-10= -2
B-C
8-29= -21*
B-D
8-13= -5
B-E
8-2= 6
B-Controle
10- 29= -19*
C-D
10-13=-3
C-E
10-2= 8
C-Controle
29-13= 16*
D-E
29-2= 27*
D-Controle
13-2= 11
E-Controle
𝐻𝑆𝐷 = 𝑞( , , )
𝑄𝑀𝑅
𝑟
𝐻𝑆𝐷 = 4,37
36,00
5
= 11,73
Existe diferença significativa (5%)
entre os tratamentos A-B, A-D, A-
Controle, B-D, C-D, D-E e D-
Controle.
# Realizando o teste de Tukey para comparações múltiplas
tukey_result <- TukeyHSD(anova_result)
2. Teste de Dunnett:
 Objetivo: O teste de Dunnett é utilizado para comparar cada
grupo de tratamento com um grupo de controle específico. Ou
seja, ele realiza comparações entre os tratamentos e um grupo
de controle, mas não compara os tratamentos entre si.
 Quando usar: Esse teste é útil quando você tem um grupo
controle (que geralmente representa a condição padrão ou de
referência) e deseja testar se os tratamentos (novos grupos)
diferem significativamente do controle.
Hipóteses:
 Hipótese nula (H₀): Não há diferença significativa entre o
tratamento e o grupo controle.
 Hipótese alternativa (H₁): Existe uma diferença significativa entre
o tratamento e o grupo controle.
Características:
 Somente comparações com o controle. O Dunnett realiza
comparações do controle com cada um dos tratamentos, sem
comparar os tratamentos entre si.
 O número de comparações é menor em relação ao teste de Tukey,
já que ele compara os tratamentos com apenas o grupo controle e
não entre todos os tratamentos.
 O nível de significância é ajustado para controlar o erro tipo I,
mas o número de comparações é menor porque há apenas uma
comparação para cada tratamento com o controle.
Teste de Dunnett
Teste de Tukey
Característica
Comparar cada grupo
com um grupo controle
Comparar todas as
médias de todos os
grupos
Objetivo
Comparações entre os
tratamentos e o
controle
Comparações entre
todos os pares de
grupos
Número de
Comparações
Quando há um grupo
controle e você quer
comparar cada
tratamento com o
controle
Quando não há grupo
controle específico e
você quer comparar
todos os grupos entre si
Quando usar
Comparação
tratamento vs controle
Comparações pares a
pares
Tipo de Comparação
Comparar diferentes
dietas (A, B, C) com
uma dieta controle para
verificar se algum
tratamento difere
significativamente
Comparar diferentes
dietas (A, B, C, D, E)
para ver qual é a mais
eficaz em relação a
todas as outras
Exemplo de Uso
Conclusão:
 Teste de Tukey é mais adequado quando você tem vários
tratamentos e quer comparar todas as combinações possíveis de
tratamentos para ver se há diferenças significativas entre eles.
 Teste de Dunnett é ideal quando você tem um grupo controle e
quer comparar cada tratamento com o controle de forma
específica, sem fazer comparações entre os tratamentos
Escolha entre os testes dependendo do seu objetivo e
do tipo de comparação que você deseja realizar após
uma ANOVA.
Delineamento em Blocos Completos
Blocos: São grupos homogêneos de unidades experimentais,
que apresentam características semelhantes entre si. O objetivo
é que as variações dentro de um bloco sejam menores do que as
variações entre blocos.
Aleatoriedade: A alocação dos tratamentos dentro de cada
bloco é feita aleatoriamente. Isso ajuda a evitar qualquer viés na
aplicação dos tratamentos.
Tratamentos: São as condições ou variáveis independentes que
estão sendo testadas no experimento. Cada tratamento é
aplicado dentro de cada bloco.
A diferença entre Delineamento Inteiramente Casualizado
(DIC) e Delineamento em Blocos Casualizados (DBC) está na
organização e controle da variabilidade dos experimentos.
Delineamento Inteiramente Casualizado (DIC):
•Estrutura: Neste delineamento, os tratamentos são alocados
aleatoriamente em todas as unidades experimentais, sem considerar
qualquer agrupamento ou fator de estratificação (como blocos). Ou
seja, as unidades experimentais são tratadas de forma
completamente aleatória.
•Objetivo: A principal vantagem é a simplicidade, pois todos os
tratamentos têm as mesmas chances de serem alocados a qualquer
unidade experimental.
•Uso: É utilizado quando não se espera que haja variação
significativa entre as unidades experimentais, ou quando o controle
de fatores externos não é necessário.
Delineamento em Blocos Casualizados (DBC):
•Estrutura: as unidades experimentais são agrupadas em blocos que são
homogêneos entre si, com base em uma característica que pode
influenciar os resultados (como tipo de solo, condição climática, etc.).
Dentro de cada bloco, os tratamentos são alocados aleatoriamente.
•Objetivo: O principal objetivo é controlar a variação entre os blocos.
Cada bloco é tratado como um "subgrupo" que é mais homogêneo, de
modo que a variação dentro do bloco seja menor do que entre os blocos.
Isso permite que se foque nas diferenças entre os tratamentos,
minimizando o impacto de fatores externos.
•Uso: Utilizado quando há fontes de variabilidade que podem afetar os
resultados do experimento (como diferentes condições ambientais ou
características específicas de grupos), e essas fontes precisam ser
controladas.
DIC (Delineamento Inteiramente Casualizado): Todos os
tratamentos são alocados aleatoriamente em todas as unidades
experimentais, sem considerar blocos. Mais simples, mas não
controla variações entre grupos.
DBC (Delineamento em Blocos Casualizados): As unidades
experimentais são agrupadas em blocos homogêneos, e os
tratamentos são aleatoriamente distribuídos dentro de cada bloco.
Controla variações entre grupos e é mais eficaz quando há fontes de
variabilidade externas.
Exemplo: Efeito de diferentes rações em bovinos de corte
Imagine que você está realizando um experimento para testar três tipos
de rações em bovinos de corte com o objetivo de avaliar o ganho de
peso dos animais. O experimento será conduzido em uma fazenda, e a
variável de interesse é o ganho de peso dos animais.
DIC Você tem 30 bovinos e distribui aleatoriamente 10 bovinos para cada
uma das 3 rações diferentes. O tratamento é completamente aleatório, sem
agrupar os animais com base em características como peso ou idade.
DBC Suponha que você tenha 30 bovinos e decide agrupá-los em 3 blocos,
com 10 bovinos em cada bloco. Cada bloco tem bovinos com pesos
semelhantes (por exemplo, 200-250 kg, 250-300 kg, e 300-350 kg). Dentro
de cada bloco, os bovinos recebem aleatoriamente uma das três rações.
Vantagem: O DBC permite controlar a variabilidade que poderia
ser causada por fatores como peso ou idade. Dessa forma, você
pode garantir que qualquer diferença observada no ganho de peso
entre as rações seja devida à diferença nas rações, e não a
diferenças nos animais.
Limitação: Esse delineamento é mais complexo, pois exige que
você faça uma classificação prévia dos animais e organize os
blocos adequadamente.
Dados precisam ser coletados e organizados em um tabela para facilitar.
Considere que seja-se comparar a produtividade média de quatro
cultivares de soja, chamaremos de A, B, C e D, você fez um
experimento em uma área que comportava 20 parcelas. Como essa área
tem leve inclinação deve considerar o fluxo gravimétrico de nutrientes,
a fertilidade do solo no topo seria menor que a do solo na baixada.
Então cinco blocos foram organizados, cada um com quatro parcelas de
mesmo tamanho, em que sorteou os quatro tratamentos (cultivares).
Cultivar
D
C
B
A
Bloco
23
37
26
34
I
28
45
37
26
II
30
39
42
33
III
37
41
34
36
IV
32
53
36
31
V
Repetição
Compreendendo o experimento:
Planejamento, com objetivo e variáveis (classificar), tipo de
delineamento;
Como foi realizada a coleta de dados, população ou Amostra;
Como foi realizada a organização dos dados, gráficos e tabelas;
Como será realizada a Análise- tipo de Análise, falar do nível de
significância, pré-suposições do Modelo;
Interpretação, tomada de decisão e conclusões;
Não esquecer dos termos técnicos e também verificar se atende os
princípios da experimentação;
Atividade como DIC
Cultivar
D
C
B
A
Estatística
5
5
5
5
Número de repetições
30
43
35
32
Média
5,15
6,32
5,83
3,81
Desvio Padrão
Pressuposições para Anova
Variável dependente:
Quantitativa
Variável independente:
Qualitativa
Ausência de dados
discrepantes
Independência
dos erros
Distribuição normal
dos erros
Variância
homogênea
 Resíduos
padronizados
 Teste de
Grubbs
 Gráfico de
resíduos
 Teste de
Durbin-
Watson
 Q-Q plot
 Teste de Shapiro-Wilk
 Valores
ajustados (fitted)
versus os
resíduos
 Teste de Bartlett
Verificando Outliers
# Instalar e carregar o pacote 'outliers' se necessário
install.packages("outliers")
library(outliers)
# Supondo que você tenha um vetor de dados com os rendimentos
dados_rendimento <- c(34, 26, 37, 23, 26, 37, 45, 28, 33, 42, 39, 30, 36, 34, 41,
37, 31, 36, 53, 32)
# Teste de Grubbs
grubbs.test(dados_rendimento)
P-valor maior que 5%, então não rejeitamos a hipótese
de ter dados sem outliers
# Criando o data frame com os dados fornecidos
dados <- data.frame(
Cultivar = rep(c("A", "B", "C", "D"), times = 5),
Rendimento = c(34, 26, 37, 23,
26, 37, 45, 28,
33, 42, 39, 30,
36, 34, 41, 37,
31, 36, 53, 32)
)
# Ajustando o modelo de ANOVA sem blocos (DIC)
modelo_anova <- aov(Rendimento ~ Cultivar, data = dados)
# Resumo do modelo de ANOVA
summary(modelo_anova)
# Extraindo os resíduos do modelo de ANOVA
residuos_anova <- residuals(modelo_anova)
# Carregar o pacote necessário para Durbin-Watson
install.packages("car")
library(car)
# Teste de Durbin-Watson nos resíduos da ANOVA
durbinWatsonTest(modelo_anova)
P-valor maior que 5% então não rejeitamos a
hipótese de Independência dos erros
# Teste de Shapiro-Wilk nos resíduos da ANOVA
shapiro.test(residuos_anova)
# QQ-Plot dos resíduos
qqnorm(residuos_anova, main = "QQ-Plot
dos Resíduos da ANOVA", col = "blue")
qqline(residuos_anova, col = "red", lwd =
2)
P-valor maior que 5% não rejeitamos a
hipótese dos erros serem normais
# Teste de Bartlett para homogeneidade das variâncias
bartlett.test(Rendimento ~ Cultivar, data = dados)
P-valor maior que 5% não rejeitamos a hipótese de
homogeneidade de variância dos dados
Pressuposições Verificadas e o Modelo é Adequado para
realizar as interpretações.
Verifica-se que existe diferença
entre os tratamentos (cultivares).
# Realizando o Teste de Tukey
tukey_resultados <- TukeyHSD(modelo_anova, "Cultivar")
tukey_resultados
Existe diferença significativa entre os
cultivares C-A e D-C
Atividade em Sala e Revisão Prova
Realize os Cálculos Manualmente da Anova e
do Tukey e Interprete os resultados
Será realizada uma Análise de Variância.
a) Graus de liberdade
de tratamentos: t-1 t é o número de tratamentos
do total: n-1 n é o número total de observações
do resíduo: n-t
b) Fator de correção
𝐶 =
(∑ ∑ )
y são as observações
r é o número de blocos
Manualmente:
c) Soma de quadrados total
SQT= ∑ ∑ 𝑦 − 𝐶
d) Soma de quadrados de tratamentos
SQTR=∑ ∑ 𝑦 − 𝐶
e) Soma de quadrados de resíduo
SQR= SQT-SQTR
f) Quadrado médio de tratamentos
𝑄𝑀𝑇𝑅 =
𝑆𝑄𝑇𝑅
𝑡 − 1
g) Quadrado médio do resíduo
𝑄𝑀𝑅 =
𝑆𝑄𝑅
𝑛 − 𝑡
h) Valor de F
𝐹 =
𝑄𝑀𝑇𝑅
𝑄𝑀𝑅
O valor do F será comparado com a estatística F tabelada de acordo
com o número de grau de liberdade do numerador e do denominador.
O valor do F será comparado
com a estatística F tabelada
de acordo com o número de
grau de liberdade do
numerador e do denominador.
Conclui-se que por meio
dessa Amostra REJEITA ou
não H₀
O teste de Tukey
Para obter a diferença honestamente significativa (HSD) pelo
teste de Tukey basta calcular:
𝐻𝑆𝐷 = 𝑞( , , )
𝑄𝑀𝑅
𝑟
em que q é o valor dado na tabela ao nível de significância 𝝰
estabelecido, a t tratamentos e ao número de graus de liberdade do
resíduo, QMR é quadrado médio do resíduo da ANOVA e r é o
número de repetições.
Se o valor absoluto da diferença entre média
dos tratamentos for igual ou maior ao HSD ,
consideramos elas estatisticamente diferentes.

aula sobre estatica e experomentação voltada ao curso de agronomia

  • 1.
    Experimentação Agrícola Comparação deMédias Profa. Dra. Sabrina L. Caetano
  • 2.
    Planejamento  Coletaou observação dos dados  Organização dos dados Análise  Interpretação Planejamento Definir os Objetivos da Pesquisa/Projeto Fazer o levantamento das variáveis que serão estudadas
  • 3.
    Variáveis Estatísticas As variáveisestatísticas devem ser identificadas já no planejamento, devido as etapas seguintes serem diferenciadas dependendo de sua classificação. Classificação: QUALITATIVA: Ordinal ou Nominal QUANTITATIVA: Discreta ou Contínua
  • 4.
    Planejamento  Coletaou observação dos dados  Organização dos dados Análise  Interpretação Coleta ou observação de Dados População Amostra Casual Simples Estratificada Conglomerado Sistemática Não Probabilística
  • 5.
    Qual a suaopinião sobre coletar dados da População???? Pros e contras... Tempo de Dinheiro inviabilizam
  • 6.
    Planejamento  Coletaou observação dos dados  Organização dos dados Análise  Interpretação Organização dos Dados Em arquivos específicos Tabela Gráficos
  • 7.
    Planejamento  Coletaou observação dos dados  Organização dos dados Análise  Interpretação Análise Medidas de Tendência Central Medidas de Variabilidade  Estatística Descritiva
  • 8.
    Planejamento  Coletaou observação dos dados  Organização dos dados Análise  Interpretação Análise Intervalo de Confiança Teste de hipótese Correlação Regressão Delineamentos Multivariada Redes Neurais Sobrevivência Bayesiana Séries Temporais ... Delineamento de Experimentos
  • 9.
  • 10.
    Termos Técnicos Experimento Unidade Experimental Variávelindependente Variável dependente Grupo Controle ou testemunha Variáveis de Confusão (confounding variables) Princípio da repetição Princípio da casualização Princípio do controle local
  • 11.
    Para tanto, torna-se necessárioa formulação de hipóteses ou suposições relativas às populações. •Essas suposições, que podem ou não ser verdadeiras, são chamadas de hipóteses estatísticas e constituem, geralmente, em considerações a respeito das distribuições de probabilidade das populações.
  • 12.
    Análise de Variância(ANOVA) ANOVA é uma técnica estatística usada para comparar as médias de diferentes grupos e verificar se existem diferenças significativas entre eles.
  • 14.
  • 15.
    Pressuposições Básicas paraModelos de Experimentação  A variável dependente deve ser contínua  A variável independente deve ser qualitativa  Não deve haver dados discrepantes.  Os erros devem ser independentes  Os erro devem ter distribuição normal  Os tratamentos devem ter variâncias homogêneas
  • 16.
    O modelo estatísticode um experimento ao acaso é: 𝑌 = 𝜇 + 𝜏 + 𝜀 Se imaginarmos infinitos experimentos conduzidos nas mesmas condições teríamos o valor verdadeiro da média geral 𝜇 e dos efeitos dos tratamentos. Então teríamos os erros e não simplesmente os resíduos.
  • 17.
    Pressuposições para Anova Variáveldependente: Quantitativa Variável independente: Qualitativa Ausência de dados discrepantes Independência dos erros Distribuição normal dos erros Variância homogênea  Resíduos padronizados  Teste de Grubbs  Gráfico de resíduos  Teste de Durbin- Watson  Q-Q plot  Teste de Shapiro-Wilk  Valores ajustados (fitted) versus os resíduos  Teste de Bartlett
  • 18.
    Quando as suposiçõesda ANOVA não são atendidas, você pode considerar:  transformações nos dados  aplicar testes não paramétricos  ou utilizar alternativas mais robustas como modelos lineares mistos ou versões ajustadas da ANOVA. O melhor caminho depende da natureza dos dados e do tipo de violação das suposições.
  • 19.
    Comparação de Médias Utilizadopara determinar qual é a média ou quais são as médias que diferem entre si. Iremos considerar o teste de Tukey e o teste de Dunnett
  • 20.
    1. Teste deTukey:  Objetivo: O teste de Tukey é usado para comparar todas as médias de pares de grupos e verificar se existem diferenças significativas entre qualquer combinação de tratamentos.  Quando usar: É utilizado quando você tem mais de dois grupos e deseja comparar todos os pares possíveis de grupos para ver se algum deles difere significativamente dos outros.
  • 21.
    Características:  Realiza comparaçõesmúltiplas entre todas as combinações de grupos.  O nível de significância (α) é ajustado para garantir que a probabilidade de cometer um erro tipo I (rejeitar uma hipótese nula verdadeira) seja controlada, dado o grande número de comparações feitas.  Ideal para quando você não tem um grupo específico de referência e deseja explorar todas as diferenças possíveis entre os grupos. Hipóteses:  Hipótese nula (H₀): Não há diferença significativa entre as médias de dois grupos quaisquer.  Hipótese alternativa (H₁): Existe uma diferença significativa entre as médias de dois grupos quaisquer.
  • 22.
    O teste deTukey Para obter a diferença honestamente significativa (HSD) pelo teste de Tukey basta calcular: 𝐻𝑆𝐷 = 𝑞( , , ) 𝑄𝑀𝑅 𝑟 em que q é o valor dado na tabela ao nível de significância 𝝰 estabelecido, a t tratamentos e ao número de graus de liberdade do resíduo, QMR é quadrado médio do resíduo da ANOVA e r é o número de repetições. Se o valor absoluto da diferença entre média dos tratamentos for igual ou maior ao HSD , consideramos elas estatisticamente diferentes.
  • 23.
  • 24.
    Na prática Considere aseguinte situação: O estudo teve como objetivo avaliar o efeito de diferentes dietas alimentares no ganho de peso de animais. Cinco diferentes tratamentos alimentares (A, B, C, D, E) foram testados, e um grupo testemunha, que não recebeu nenhum tratamento específico, foi mantido para comparação. Cada grupo foi alimentado de acordo com o tratamento designado durante um período de 30 dias, e o ganho de peso dos animais foi registrado ao final do período.
  • 25.
    Compreendendo o experimento: Planejamento,com objetivo e variáveis (classificar), tipo de delineamento; Como foi realizada a coleta de dados, população ou Amostra; Como deverá ser realizada a organização dos dados, gráficos e tabelas; Como será realizada a Análise- tipo de Análise, falar do nível de significância, pré-suposições do Modelo; Interpretação, tomada de decisão e conclusões; Não esquecer dos termos técnicos e também verificar se atende os princípios da experimentação; Atividade
  • 26.
  • 27.
    Pressuposições para Anova Variáveldependente: Quantitativa Variável independente: Qualitativa Ausência de dados discrepantes Independência dos erros Distribuição normal dos erros Variância homogênea  Resíduos padronizados  Teste de Grubbs  Gráfico de resíduos  Teste de Durbin- Watson  Q-Q plot  Teste de Shapiro-Wilk  Valores ajustados (fitted) versus os resíduos  Teste de Bartlett
  • 28.
    # Dados A <-c(25, 17, 27, 21, 15) B <- c(10, -2, 12, 4, 16) C <- c(18, 8, 4, 14, 6) D <- c(23, 29, 25, 35, 33) E <- c(11, 23, 5, 17, 9) Testemunha <- c(8, -6, 6, 0, 2) # Organizando os dados em um data frame dados <- data.frame( ganho_peso = c(A, B, C, D, E, Testemunha), tratamento = factor(rep(c("A", "B", "C", "D", "E", "Testemunha"), each = 5)) ) # Realizando a ANOVA anova_result <- aov(ganho_peso ~ tratamento, data = dados) # Exibindo o resumo da ANOVA summary(anova_result)
  • 29.
    # Carregar abiblioteca ggplot2 library(ggplot2) # Criando o boxplot com ggplot2 ggplot(dados, aes(x = tratamento, y = ganho_peso, fill = tratamento)) + geom_boxplot() + labs(title = "Distribuição de Ganho de Peso por Tratamento", x = "Tratamento", y = "Ganho de Peso") + theme_minimal() # Usando tema minimalista
  • 31.
    Testemunha E D C B A 8 11 23 18 10 25 -6 23 29 8 -2 17 6 5 25 4 12 27 0 17 35 14 4 21 2 9 33 6 16 15 média 2 13 29 10 8 21 diferença de médias comparação 21-8=13* A-B 21-10= 11 A-C 21-29= -8 A-D 21-13= 8 A-E 21-2= 19* A-Controle 8-10= -2 B-C 8-29= -21* B-D 8-13= -5 B-E 8-2= 6 B-Controle 10- 29= -19* C-D 10-13=-3 C-E 10-2= 8 C-Controle 29-13= 16* D-E 29-2= 27* D-Controle 13-2= 11 E-Controle 𝐻𝑆𝐷 = 𝑞( , , ) 𝑄𝑀𝑅 𝑟 𝐻𝑆𝐷 = 4,37 36,00 5 = 11,73 Existe diferença significativa (5%) entre os tratamentos A-B, A-D, A- Controle, B-D, C-D, D-E e D- Controle.
  • 33.
    # Realizando oteste de Tukey para comparações múltiplas tukey_result <- TukeyHSD(anova_result)
  • 34.
    2. Teste deDunnett:  Objetivo: O teste de Dunnett é utilizado para comparar cada grupo de tratamento com um grupo de controle específico. Ou seja, ele realiza comparações entre os tratamentos e um grupo de controle, mas não compara os tratamentos entre si.  Quando usar: Esse teste é útil quando você tem um grupo controle (que geralmente representa a condição padrão ou de referência) e deseja testar se os tratamentos (novos grupos) diferem significativamente do controle.
  • 35.
    Hipóteses:  Hipótese nula(H₀): Não há diferença significativa entre o tratamento e o grupo controle.  Hipótese alternativa (H₁): Existe uma diferença significativa entre o tratamento e o grupo controle. Características:  Somente comparações com o controle. O Dunnett realiza comparações do controle com cada um dos tratamentos, sem comparar os tratamentos entre si.  O número de comparações é menor em relação ao teste de Tukey, já que ele compara os tratamentos com apenas o grupo controle e não entre todos os tratamentos.  O nível de significância é ajustado para controlar o erro tipo I, mas o número de comparações é menor porque há apenas uma comparação para cada tratamento com o controle.
  • 36.
    Teste de Dunnett Testede Tukey Característica Comparar cada grupo com um grupo controle Comparar todas as médias de todos os grupos Objetivo Comparações entre os tratamentos e o controle Comparações entre todos os pares de grupos Número de Comparações Quando há um grupo controle e você quer comparar cada tratamento com o controle Quando não há grupo controle específico e você quer comparar todos os grupos entre si Quando usar Comparação tratamento vs controle Comparações pares a pares Tipo de Comparação Comparar diferentes dietas (A, B, C) com uma dieta controle para verificar se algum tratamento difere significativamente Comparar diferentes dietas (A, B, C, D, E) para ver qual é a mais eficaz em relação a todas as outras Exemplo de Uso
  • 37.
    Conclusão:  Teste deTukey é mais adequado quando você tem vários tratamentos e quer comparar todas as combinações possíveis de tratamentos para ver se há diferenças significativas entre eles.  Teste de Dunnett é ideal quando você tem um grupo controle e quer comparar cada tratamento com o controle de forma específica, sem fazer comparações entre os tratamentos Escolha entre os testes dependendo do seu objetivo e do tipo de comparação que você deseja realizar após uma ANOVA.
  • 38.
    Delineamento em BlocosCompletos Blocos: São grupos homogêneos de unidades experimentais, que apresentam características semelhantes entre si. O objetivo é que as variações dentro de um bloco sejam menores do que as variações entre blocos. Aleatoriedade: A alocação dos tratamentos dentro de cada bloco é feita aleatoriamente. Isso ajuda a evitar qualquer viés na aplicação dos tratamentos. Tratamentos: São as condições ou variáveis independentes que estão sendo testadas no experimento. Cada tratamento é aplicado dentro de cada bloco.
  • 39.
    A diferença entreDelineamento Inteiramente Casualizado (DIC) e Delineamento em Blocos Casualizados (DBC) está na organização e controle da variabilidade dos experimentos.
  • 40.
    Delineamento Inteiramente Casualizado(DIC): •Estrutura: Neste delineamento, os tratamentos são alocados aleatoriamente em todas as unidades experimentais, sem considerar qualquer agrupamento ou fator de estratificação (como blocos). Ou seja, as unidades experimentais são tratadas de forma completamente aleatória. •Objetivo: A principal vantagem é a simplicidade, pois todos os tratamentos têm as mesmas chances de serem alocados a qualquer unidade experimental. •Uso: É utilizado quando não se espera que haja variação significativa entre as unidades experimentais, ou quando o controle de fatores externos não é necessário.
  • 41.
    Delineamento em BlocosCasualizados (DBC): •Estrutura: as unidades experimentais são agrupadas em blocos que são homogêneos entre si, com base em uma característica que pode influenciar os resultados (como tipo de solo, condição climática, etc.). Dentro de cada bloco, os tratamentos são alocados aleatoriamente. •Objetivo: O principal objetivo é controlar a variação entre os blocos. Cada bloco é tratado como um "subgrupo" que é mais homogêneo, de modo que a variação dentro do bloco seja menor do que entre os blocos. Isso permite que se foque nas diferenças entre os tratamentos, minimizando o impacto de fatores externos. •Uso: Utilizado quando há fontes de variabilidade que podem afetar os resultados do experimento (como diferentes condições ambientais ou características específicas de grupos), e essas fontes precisam ser controladas.
  • 42.
    DIC (Delineamento InteiramenteCasualizado): Todos os tratamentos são alocados aleatoriamente em todas as unidades experimentais, sem considerar blocos. Mais simples, mas não controla variações entre grupos. DBC (Delineamento em Blocos Casualizados): As unidades experimentais são agrupadas em blocos homogêneos, e os tratamentos são aleatoriamente distribuídos dentro de cada bloco. Controla variações entre grupos e é mais eficaz quando há fontes de variabilidade externas.
  • 43.
    Exemplo: Efeito dediferentes rações em bovinos de corte Imagine que você está realizando um experimento para testar três tipos de rações em bovinos de corte com o objetivo de avaliar o ganho de peso dos animais. O experimento será conduzido em uma fazenda, e a variável de interesse é o ganho de peso dos animais. DIC Você tem 30 bovinos e distribui aleatoriamente 10 bovinos para cada uma das 3 rações diferentes. O tratamento é completamente aleatório, sem agrupar os animais com base em características como peso ou idade. DBC Suponha que você tenha 30 bovinos e decide agrupá-los em 3 blocos, com 10 bovinos em cada bloco. Cada bloco tem bovinos com pesos semelhantes (por exemplo, 200-250 kg, 250-300 kg, e 300-350 kg). Dentro de cada bloco, os bovinos recebem aleatoriamente uma das três rações.
  • 44.
    Vantagem: O DBCpermite controlar a variabilidade que poderia ser causada por fatores como peso ou idade. Dessa forma, você pode garantir que qualquer diferença observada no ganho de peso entre as rações seja devida à diferença nas rações, e não a diferenças nos animais. Limitação: Esse delineamento é mais complexo, pois exige que você faça uma classificação prévia dos animais e organize os blocos adequadamente.
  • 45.
    Dados precisam sercoletados e organizados em um tabela para facilitar. Considere que seja-se comparar a produtividade média de quatro cultivares de soja, chamaremos de A, B, C e D, você fez um experimento em uma área que comportava 20 parcelas. Como essa área tem leve inclinação deve considerar o fluxo gravimétrico de nutrientes, a fertilidade do solo no topo seria menor que a do solo na baixada. Então cinco blocos foram organizados, cada um com quatro parcelas de mesmo tamanho, em que sorteou os quatro tratamentos (cultivares). Cultivar D C B A Bloco 23 37 26 34 I 28 45 37 26 II 30 39 42 33 III 37 41 34 36 IV 32 53 36 31 V Repetição
  • 46.
    Compreendendo o experimento: Planejamento,com objetivo e variáveis (classificar), tipo de delineamento; Como foi realizada a coleta de dados, população ou Amostra; Como foi realizada a organização dos dados, gráficos e tabelas; Como será realizada a Análise- tipo de Análise, falar do nível de significância, pré-suposições do Modelo; Interpretação, tomada de decisão e conclusões; Não esquecer dos termos técnicos e também verificar se atende os princípios da experimentação; Atividade como DIC
  • 47.
  • 48.
    Pressuposições para Anova Variáveldependente: Quantitativa Variável independente: Qualitativa Ausência de dados discrepantes Independência dos erros Distribuição normal dos erros Variância homogênea  Resíduos padronizados  Teste de Grubbs  Gráfico de resíduos  Teste de Durbin- Watson  Q-Q plot  Teste de Shapiro-Wilk  Valores ajustados (fitted) versus os resíduos  Teste de Bartlett
  • 49.
    Verificando Outliers # Instalare carregar o pacote 'outliers' se necessário install.packages("outliers") library(outliers) # Supondo que você tenha um vetor de dados com os rendimentos dados_rendimento <- c(34, 26, 37, 23, 26, 37, 45, 28, 33, 42, 39, 30, 36, 34, 41, 37, 31, 36, 53, 32) # Teste de Grubbs grubbs.test(dados_rendimento) P-valor maior que 5%, então não rejeitamos a hipótese de ter dados sem outliers
  • 50.
    # Criando odata frame com os dados fornecidos dados <- data.frame( Cultivar = rep(c("A", "B", "C", "D"), times = 5), Rendimento = c(34, 26, 37, 23, 26, 37, 45, 28, 33, 42, 39, 30, 36, 34, 41, 37, 31, 36, 53, 32) ) # Ajustando o modelo de ANOVA sem blocos (DIC) modelo_anova <- aov(Rendimento ~ Cultivar, data = dados) # Resumo do modelo de ANOVA summary(modelo_anova)
  • 51.
    # Extraindo osresíduos do modelo de ANOVA residuos_anova <- residuals(modelo_anova) # Carregar o pacote necessário para Durbin-Watson install.packages("car") library(car) # Teste de Durbin-Watson nos resíduos da ANOVA durbinWatsonTest(modelo_anova) P-valor maior que 5% então não rejeitamos a hipótese de Independência dos erros
  • 52.
    # Teste deShapiro-Wilk nos resíduos da ANOVA shapiro.test(residuos_anova) # QQ-Plot dos resíduos qqnorm(residuos_anova, main = "QQ-Plot dos Resíduos da ANOVA", col = "blue") qqline(residuos_anova, col = "red", lwd = 2) P-valor maior que 5% não rejeitamos a hipótese dos erros serem normais
  • 53.
    # Teste deBartlett para homogeneidade das variâncias bartlett.test(Rendimento ~ Cultivar, data = dados) P-valor maior que 5% não rejeitamos a hipótese de homogeneidade de variância dos dados Pressuposições Verificadas e o Modelo é Adequado para realizar as interpretações.
  • 54.
    Verifica-se que existediferença entre os tratamentos (cultivares).
  • 55.
    # Realizando oTeste de Tukey tukey_resultados <- TukeyHSD(modelo_anova, "Cultivar") tukey_resultados Existe diferença significativa entre os cultivares C-A e D-C
  • 56.
    Atividade em Salae Revisão Prova Realize os Cálculos Manualmente da Anova e do Tukey e Interprete os resultados
  • 57.
    Será realizada umaAnálise de Variância. a) Graus de liberdade de tratamentos: t-1 t é o número de tratamentos do total: n-1 n é o número total de observações do resíduo: n-t b) Fator de correção 𝐶 = (∑ ∑ ) y são as observações r é o número de blocos Manualmente:
  • 58.
    c) Soma dequadrados total SQT= ∑ ∑ 𝑦 − 𝐶 d) Soma de quadrados de tratamentos SQTR=∑ ∑ 𝑦 − 𝐶 e) Soma de quadrados de resíduo SQR= SQT-SQTR
  • 59.
    f) Quadrado médiode tratamentos 𝑄𝑀𝑇𝑅 = 𝑆𝑄𝑇𝑅 𝑡 − 1 g) Quadrado médio do resíduo 𝑄𝑀𝑅 = 𝑆𝑄𝑅 𝑛 − 𝑡 h) Valor de F 𝐹 = 𝑄𝑀𝑇𝑅 𝑄𝑀𝑅 O valor do F será comparado com a estatística F tabelada de acordo com o número de grau de liberdade do numerador e do denominador. O valor do F será comparado com a estatística F tabelada de acordo com o número de grau de liberdade do numerador e do denominador. Conclui-se que por meio dessa Amostra REJEITA ou não H₀
  • 60.
    O teste deTukey Para obter a diferença honestamente significativa (HSD) pelo teste de Tukey basta calcular: 𝐻𝑆𝐷 = 𝑞( , , ) 𝑄𝑀𝑅 𝑟 em que q é o valor dado na tabela ao nível de significância 𝝰 estabelecido, a t tratamentos e ao número de graus de liberdade do resíduo, QMR é quadrado médio do resíduo da ANOVA e r é o número de repetições. Se o valor absoluto da diferença entre média dos tratamentos for igual ou maior ao HSD , consideramos elas estatisticamente diferentes.