SlideShare uma empresa Scribd logo
1 de 32
Baixar para ler offline
UNIVERSIDADE FEDERAL DO PARANÁ
       DEPARTAMENTO DE ESTATÍSTICA




Nota Metodológica sobre Modelos Lineares Mistos


         Professor Jomar Antonio Camarinha Filho




                CURITIBA - PARANÁ
                   SETEMBRO/2003
Modelos Mistos                                                                                                                                                                i


                                                                              ÍNDICE



MODELOS LINEARES MISTOS ...............................................................................................................................1


1. INTRODUÇÃO.............................................................................................................................................................1


2. DERIVAÇÃO DAS EQUAÇÕES DE MODELOS MISTOS...........................................................................3


3. SOLUÇÕES PARA OS EFEITOS FIXOS E PREDIÇÕES DOS EFEITOS ALEATÓRIOS ...............5

    3.1 A LGUMAS PROPRIEDADES DAS SOLUÇÕES PARA OS EFEITOS FIXOS................................................................. 7
    3.2. A LGUMAS PROPRIEDADES DA PREDIÇÃO PARA OS EFEITOS ALEATÓRIOS ...................................................... 9

4. ESPERANÇAS MATEMÁTICAS DOS QUADRADOS MÉDIOS .............................................................11


5. TESTES DE HIPÓTESES .......................................................................................................................................13

    5.1. EFEITOS FIXOS....................................................................................................................................................... 13
    5.2. EFEITOS ALEATÓRIOS........................................................................................................................................... 15

6. ESTIMAÇÃO DE COMPONENTES DE VARIÂNCIAS ..............................................................................16

    6.1. DADOS BALANCEADOS................................................................................................................................ 16
    6.2. DADOS DESBALANCEADOS ....................................................................................................................... 17
         6.2.1 - MÉTODO ANOVA.....................................................................................................................................18
         6.2.2 - MÉTODO I DE HENDERSON................................................................................................................18
         6.2.3 - MÉTODO II DE HENDERSON ..............................................................................................................19
         6.2.4 - MÉTODO III DE HENDERSON .............................................................................................................20
         6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML.........................................................................23
         6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML...............................................25
         6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-MINQUE ........................26
         6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -MIVQUE ................27
         6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) ...............................................27

BIBLIOGRAFIA.............................................................................................................................................................28
Modelos Misto                                                                   Prof. Jomar   1



                                MODELOS MISTOS


1. Introdução


       Um modelo linear que apresenta somente fatores de efeitos fixos, além do erro
experimental, que é sempre aleatório, é denominado modelo fixo. Esse tipo de modelo já
foi amplamente estudado, existindo inúmeros livros abordando seus aspectos teóricos e
aplicados, em vários níveis de complexidade, pode-se citar: SEARLE (1971), que enfatiza
dados desbalanceados; RAO (1973), aspectos matemáticos; GRAYBILL (1976), dados
balanceados; NETER, WASSERMAN e KUTNER (1985), dentre outros.
       Os modelos que apresentam apenas fatores de efeitos aleatórios, exceto a constante
µ, que é sempre fixa, é denominado modelo aleatório.
       Um modelo misto é aquele que apresenta tanto fatores de efeitos fixos como
aleatórios, além do erro experimental e da constante µ.
       Quando um modelo é considerado misto, sua análise de variância apresenta
algumas peculiaridades, como a composição das esperanças matemáticas dos quadrados
médios, cujo conhecimento permite o estabelecimento correto dos testes de hipóteses,
(HICKS, 1973). Caso o interesse do pesquisador resida na estimação dos componentes de
variância,      métodos   adequados      devem        ser     utilizados   (HENDERSON,1953;
CUNNINGHAM           e    HENDERSON,         1968;     THOMPSON,1969;        PATERSSON        e
THOMPSON,1971).
       Outro motivo de se adotar um modelo linear misto é a possibilidade de se fazer a
predição de efeitos aleatórios, na presença de efeitos fixos, através dos BLUP’s (best linear
unbiased prediction) que são de grande valia em genética e melhoramentos.
       Para melhor compreensão das definições acima, considere o seguinte exemplo:
       Suponha um experimento no qual são avaliados 5 híbridos de milho (a, b, c, d, e),
em 3 localidades no delineamento inteiramente casualizado com 4 repetições. Um modelo
para análise deste experimento pode ser:


                               y ijk = µ + β i + γ j + e ijk no qual,
Modelos Misto                                                                 Prof. Jomar   2


yijk é o valor observado da parcela que recebeu a k-ésima repetição do tratamento i, no
      local j;
µ é uma constante inerente a todas as observações;
β i é o efeito do híbrido i;
γj é o efeito do local j;
eijk é o erro aleatório associado a observação yijk .
Supõem-se que β i e γj são independentes.


         Neste experimento estão sendo avaliados dois fatores: híbridos com cinco níveis e
locais com três níveis. Os efeitos desses fatores podem ser classificados como fixos ou
aleatórios, em função do interesse do pesquisador. Se um determinado fator é considerado
de efeito fixo, naturalmente, o interesse do pesquisador será estimar e testar hipóteses
sobre combinações lineares dos níveis do mesmo. Por outro lado, caso o efeito desse fator
seja considerado aleatório, o interesse residirá na estimação de componentes de variâncias
e covariâncias associada a esse fator, uma vez que seus níveis são considerados como
sendo uma amostra aleatória de certa população, a qual se deseja avaliar.
         No intuito de ilustrar melhor esses conceitos, considere as seguintes situações
referentes ao experimento em questão:
i)    O pesquisador deseja inferir qual, dentre os três locais estudados, apresenta melhor
      produtividade. Note que ele está interessado apenas nos três locais estudados, e quer
      saber qual deles é o melhor. Nesta situação, o efeito de locais é considerado fixo,
      sendo então estimadas e testadas hipóteses sobre combinações lineares dos níveis
      deste fator, como por exemplo: β 1 - β2 = 0 (se estimável).
ii)   Uma outra possibilidade a ser considerada é o caso do pesquisador estar interessado
      apenas em verificar se existe uma variabilidade entre os locais, em relação à produção
      de milho. Neste caso, os níveis estudados (três locais) são apenas uma amostra
      aleatória da população de locais nos quais poder-se-ia plantar milho. Nessa situação, o
      efeito de locais é considerado aleatório, não havendo portanto interesse em se testar
      combinações lineares de seus níveis, mas sim, estimar e testar sua variabilidade (por
      meio de seus componentes de variância).


         No exemplo anterior, suponha que o pesquisador esteja interessado em verificar
qual o melhor dos híbridos avaliados e se existe uma variabilidade de sua produção em
Modelos Misto                                                                             Prof. Jomar   3


relação ao local onde foi cultivado, nesse caso ter-se-ia um modelo misto com híbridos
fixo e locais aleatório.



2. Derivação das equações de modelos mistos


       Seja o modelo:
                                      y ijk = µ + β i + γ j + e ijk ,

no qual
y ijk é a observação referente à k-ésima repetição do nível i de uma fonte de efeitos fixos ao

    nível j de uma fonte de efeitos aleatórios;
µ é uma constante inerente a todas observações;

βi é o efeito do nível i do fator fixo; i = 1, ..., p;

γ j é o efeito do nível j, do fator aleatório, no nível i do fator fixo, j = 1, ..., q;

e ijk é erro aleatório associado a observação y ijk .


Que em termos matriciais pode ser escrito como:


                                          y = X β + Zγ + e

em que,
       n y1   é o vetor de observações;
       n Xp+1   é a matriz de incidência dos efeitos fixos (conhecida);
       p+1β1    é o vetor de efeitos fixos desconhecidos;
       n Zq   é a matriz de incidência dos efeitos aleatórios (conhecida);
       qγ 1   é o vetor de efeitos aleatórios desconhecidos;
       n e1   é o vetor de erros aleatórios.


       Assumindo-se        que os efeitos aleatórios e os erros (resíduos) têm distribuição
normal com média zero e são não correlacionados, com matrizes de variâncias e
covariâncias dadas por:
                                       Var (γ) = E(γγ’) = D e
Modelos Misto                                                                                                                         Prof. Jomar            4


                                                     Var (e) = E(ee’) = R
Deste modo, tem-se que:
                            V = Var (y) = Var ( X β + Zγ + e ) = ZDZ’+ R

Assume-se ainda que V é não singular, e


                                              E(y) = E( X β + Zγ + e ) = Xβ ,

assim,
                                                    y ~ N( Xβ; ZDZ ' + R)


         A derivação das equações de modelos mistos pode ser feita pela minimização da
soma de quadrados dos resíduos ou pela maximização da função densidade de
probabilidade conjunta de y e γ. Aqui será adotada a segunda forma, considerando que a
distribuição seja normal.
         A função densidade de probabilidade de y é dada por:



                        f (y, γ ) =                                            e 2 [( y − X β )( ZDZ '+ R ) (Y − xβ )]
                                                           1                    −1             '
                                                                                                           −1


                                         ( 2π)    n /2
                                                         [ZDZ '+ R ]    1/ 2




         A função densidade de probabilidade conjunta de y e γ pode ser escrita como o
produto entre a função densidade condicional de y, dado γ, e a função densidade de
probabilidade de γ.
                                                   f ( y, γ ) = f ( y / γ) ⋅ f ( γ)



f ( y, γ) =
                    1
                                e−
                                     1
                                         2   [(y − Xβ −Zγ )'( R)   −1
                                                                        ( y − Xβ −Z γ)       ]⋅             1
                                                                                                                                 e − 2 [( γ − 0)'( D)
                                                                                                                                     1                  −1
                                                                                                                                                             (γ − 0 )   ]
              ( 2π) 2 [ R ] 2                                                                     ( 2π) 2 [ D]
                    n      1                                                                               1             1
                                                                                                                             2




         Para se proceder à maximização de f(y,γ), pode-se usar o artifício da transformação
por logaritmo. Isso é possível, visto que, sendo f(y,γ) e log [f(y,γ)] funções contínuas e
                      +
crescentes no espaço R , seus pontos de máximo são coincidentes dentro do espaço de
[β’γ’] e ZDZ’+ R. Assim, fazendo-se L= log[f(y,γ)], tem-se:
Modelos Misto                                                                                 Prof. Jomar       5


     1               1                 1
L=     2 n log( 2π) − (log R + log D) − ( y ' R −1 y − 2y ' R −1 Xβ − 2 y' R −1 Zγ + 2β' X' R −1 Zγ
     2               2                 2
                                                         + β' X' R −1 Xβ + γ ' Z' R −1 Zγ + γ' D −1 γ)

          Derivando-se L em relação a β e γ, e tornando-se tais derivadas identicamente
nulas, obtêm-se:


 ∂L 
 ∂β  − X' R −1 y + X' R −1 Xβ o + X' R −1 Zγ ˆ      0
 =                                                 = 
 ∂L  − Z' R y + Z' R Xβ + Z' R Zγ + D γ  0
       
              −1          −1    o        −1
                                              ˆ   −1
                                                     ˆ
 ∂γ 
 


X' R −1 Xβ o + X' R −1 Zγˆ            X ' R −1 y 
                                    =            
− Z' R −1 Xβ o + Z' R −1 Zγ + D −1 γ  Z' R −1 y 
                           ˆ       ˆ             


X' R −1 X          X ' R −1 Z        β o  X' R −1 y 
                                      =             
− Z' R −1 X
                  Z' R −1 Zˆ + D −1   γ  Z' R −1 y 
                            γ         ˆ                


          Essas são as equações de modelos mistos (MME), que permitem obter soluções
para os efeitos fixos (β o ) e predições para os efeitos aleatórios ( γ )
                                                                      ˆ




3. Soluções para os efeitos fixos e predições dos efeitos
   aleatórios

          A solução do sistema de equações de modelos mistos pode ser obtida por absorção
ou por obtenção da matriz inversa por partição. Em ambos os casos, os resultados serão:


      {                                                 } −
βo = X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ]X X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ] y


ˆ = ( Z' R −1 Z + D−1 ) −1 Z' R −1 ( y − Xβ o ) .
γ
Modelos Misto                                                                   Prof. Jomar   6


       Outra alternativa para se obter soluções para os efeitos fixos é pelo uso de um
modelo linear generalizado, ignorado-se os efeitos aleatórios, como a seguir:


Dado o modelo
                                         y = X β + Zγ + e ,



anteriormente descrito, e com Var (y) = ZDZ’+ R, tem-se que o sistema de equações
normais generalizada é dado por:

                                      X ' V −1 X β o = X ' V −1 y ,
cuja solução é:
                                   β o = ( X ' V −1 X ) − X ' V −1 y


e a predição de γ seria obtida por:


                                      ˆ = DZ' V −1 ( y − Xβ o )
                                      γ


                             V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1


       Segundo SEARLE (1971), a desvantagem de se utilizar a segunda opção, que
envolve o cálculo de V-1 é de ordem computacional, uma vez que a dimensão de V é igual
ao número de observações, que muitas das vezes, principalmente na área de melhoramento
genético, chega a ser de algumas centenas. No caso de modelos fixos, V usualmente
assume a forma In σ2 ou, é pelo menos diagonal. Nesse caso a obtenção de V-1 é simples.
Mas em geral, V = ZDZ’+R não é diagonal, e deste modo a obtenção de V-1 não é fácil.
Segundo MARTINS et all. (1993), obter R-1Z(Z’R-1Z+D-1)-1Z’R-1 é mais simples. Pois R-1
pode ser facilmente obtida por I ⊗ R −1 , onde R0 é a matriz de variância e covariância
                                     0


residual q x q, entre as q médias que compõem uma observação. D por A − 1 ⊗ D− 1 , em
                                                               -1
                                                                             o


que Do é a matriz de variância e covariância, q x q, entre os efeitos aleatórios nas q
medidas que compõem uma observação, e A é a matriz de correlação, n x n, entre os
efeitos aleatórios das n observações. Apesar da matriz A não possuir estrutura simples,
como ocorre na maioria das vezes, para aplicações em melhoramento animal, existem
Modelos Misto                                                                                 Prof. Jomar       7


                                               -1
algoritmos eficientes para obtenção direta de A (HENDERSON, 1975; 1976 e 1988;
QUAAS, 1976). Mesmo assim persiste a necessidade de se obter (Z’R-1Z + D-1)-1 , que, a
despeito de possuir as mesmas dimensões de V, pode ser obtida por processos iterativos
com a vantagem de rápida convergência em razão da dominância dos elementos da
diagonal causada pela adição de D-1 a Z’R-1Z. Nos casos de distribuição multivariada,
elementos dominantes podem estar fora da diagonal. Nesses casos, processos que usam
iteração em blocos garantem a rápida convergência, porque os elementos dominantes
passarão a estar nos blocos (QUAAS e POLLAK, 1980).



3.1 Algumas propriedades das soluções para os efeitos fixos


a) A solução β o , obtida pelas MME é também uma solução de Mínimos Quadrados
    Generalizados (GLS), utilizando o modelo que ignora os efeitos aleatórios.


Prova:
Foi visto que uma solução de mínimos quadrados generalizados para y = Xβ + e é:


β o = ( X ' V −1 X ) − X ' V −1 y .


Das equações de modelos mistos (MME),


X' R −1 X           X ' R −1 Z        β o   X' R −1 y
                                       =             ,
− Z' R −1 X
                   Z' R −1 Zγ + D −1   γ   Z' R −1 y 
                             ˆ           ˆ              
tem-se que:


       {                                                 }−
βo = X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ]X X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ] y


ˆ = ( Z' R −1 Z + D−1 ) −1 Z' R −1 ( y − Xβ o ) ,
γ


substituindo γ em:
             ˆ

X' R −1 Xβo + X' R −1 Zγ = X' R −1 y ,
                       ˆ
Modelos Misto                                                                                           Prof. Jomar       8


tem-se:


X' R −1 Xβo + X' R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ( y − Xβ o ) = X' R −1 y


X' R −1 Xβo + X' R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 y − X' R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R − 1 Xβ o = X' R −1 y


[ X' R −1 X − X' R −1 Z( Z ' R −1 Z + D −1 ) −1 Z ' R −1 X ]β o = [ X ' R −1 − X ' R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ]y


X ' [R −1 − R −1 Z( Z ' R −1 Z + D −1 ) −1 Z ' R −1 ]Xβ o = X '[ R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ] y



β o = {X '[ R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ]X} − X '[R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ]y


sabendo-se que V −1 = R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z ' R −1 , (HENDERSON et all, 1959)
então,


β o = ( X ' V −1 X ) − X ' V −1 y


b) A variância de β o e dada por:


Var (β o ) = Var [( X' V −1 X) − X' V −1 y] .


            = (X’V-1X)-X’V-1Var(y)V-1X(X’V-1X)-


            = (X’V-1X)-X’V-1VV-1X(X’V-1X)-


            = (X’V-1X)-X’V-1X(X’V-1X)-


Uma vez que X’V-1X é uma matriz simétrica, a escolha apropriada de uma inversa
generalizada também simétrica, leva à igualdade (SEARLE, 1971):


           = (X’V-1X)-X’V-1X(X’V-1X)- = (X’V-1X)- ,
Modelos Misto                                                                Prof. Jomar   9


e assim,
Var (β o ) = ( X' V −1 X) − = {X’[R-1-R-1Z(Z’R-1Z+ D-1)-1Z’R-1]X} -


                         = [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]-.


c) Para um dado conjunto p de funções estimáveis, linearmente independentes,
    estabelecidas por uma matriz conhecida λ, a variância de λ’β o , (BLUE) de λ’β é dada
    por:


Var (λ’β o ) = λ’Var (β o ) λ


           = λ’ [(X’V-1X)-X’V-1X(X’V-1X)-] λ


           = λ’ [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]- λ .



3.2. Algumas propriedades da predição para os efeitos aleatórios


a) O preditor γ é o Melhor Preditor Linear Não-Viesado (BLUP) de γ.
              ˆ


        Segundo MARTINS et all. (1993), o termo predição refere-se a fatores aleatórios e
a Melhor Predição Linear Não-Viesada pode ser, resumidamente, definida como resultado
da regressão dos efeitos de um fator aleatório (γ) em função das observações (y) corrigidas
para os efeitos dos fatores fixos (Xβ), como dado na seguinte expressão;


        γ = DZ’(ZDZ’ + R)-1(y - Xβ o )
        ˆ


           = DZ’V-1(y - Xβ o )


        Observa-se que o termo DZ’(ZDZ’ + R)-1 é o conjunto de coeficientes de regressão
de γ em função de y, uma vez que DZ’ é a matriz de covariâncias entre γ e y. (ZDZ’ + R)-1
Modelos Misto                                                                Prof. Jomar   10


é a inversa da matriz de variância de y, enquanto o termo (y - Xβ o ) contém os valores das
observações, y, corrigidas para os efeitos fixos Xβ.
       Pelas MME, γ é dado por
                  ˆ


γ = (Z’R-1Z + D-1)-1Z’R-1(y - Xβ o ).
ˆ

Então, se a igualdade:


DZ’(ZDZ’+ R)-1 = (Z’R-1Z + D-1)-1Z’R-1


for verdadeira, γ , obtido pelas MME, é o BLUP de γ. A prova desta igualdade foi
                ˆ

apresentada por HENDERSON et all. (1959).


b) A variância de γ é dada por
                  ˆ

       Var ( γ ) = Var [DZ’V-1(y - Xβ o )]
             ˆ


                 = DZ’V-1Var(y - Xβ o )V-1ZD’

                 = DZ’V-1[Var(y) - 2Cov(y,β o’X’) + Var (Xβ o )] V-1ZD’;


mas Cov (y,β o’X’) = Var (Xβ o ); então,


       Var( γ ) = DZ’V-1[Var(y) - Var (Xβ o )] V-1ZD’
            ˆ


                = DZ’V-1[V - X(X’V-1X)- X’ ] V-1ZD’

                = DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’


       Pode-se notar que a expressão


                                 V-1 - V-1 X(X’V-1X)- X’ V-1


é o complemento do projetor ortogonal de y no espaço coluna de X, o que significa que
Modelos Misto                                                          Prof. Jomar   11


[V-1 - V-1 X(X’V-1X)- X’ V-1]y = y - Xβ o


obs. V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1


c) A variância do erro de predição é dada por:


         γ                          γ           γ
Var (γ - ˆ ) = Var (γ ) - 2 Cov (γ, ˆ ’) + Var( ˆ ),


mas, Cov (γ, γ ’) = Var( γ ), então,
             ˆ           ˆ

Var (γ - γ ) = Var (γ ) - Var( γ )
         ˆ                     ˆ


             = D - DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’


d) A correlação entre os valores reais e preditos é máxima.


        Segundo HENDERSON (1977 e 1984) dentre uma classe de funções lineares que
                                                               γ
gera predições não viciadas, o BLUP maximiza a correlação (γ - ˆ ) .




4. Esperanças matemáticas dos quadrados médios


        Dado o modelo:
                                           y = Xβ + e,
com Var(y) = V,


tem-se que a esperança de uma forma quadrática y’Qy é dada por:

                                E(y’Qy) = tr (QV) + E(y’)QE(y).

SEARLE (1971) apresenta a dedução da expressão da esperança matemática de uma forma
quadrática para modelos mistos, como mostrado a seguir
Dado o modelo misto:
                                            Y=Xθ + e,
Modelos Misto                                                                                             Prof. Jomar   12


Em que θ’ = [β’1 γ’A γ’B ... γ’k ]


No qual,
β’1 contém todos os efeitos fixos do modelo, inclusive a constante (µ)
γ’ representa um conjunto de efeitos aleatórios dos fatores A, B, ... , K respectivamente,


este modelo pode ser escrito na forma:


                            y = X1 β1 + XA γA + XB γB ... XK γk + e


                                         k
                            y = X 1 β1 + ∑ X i γ i + e
                                        i= A




        Assumindo-se que os efeitos do modelo são independentes, com média zero e
covariâncias entre os efeitos aleatórios nulas, tem-se que:


                                               E(y) = X1 β1


                                                 k
                              V = Var(y) =      ∑ X Var (γ )X
                                                            i               i
                                                                                     '|
                                                                                     i    + Iσ 2
                                                i= A




        Assumindo-se que os efeitos aleatórios são não correlacionados e têm variâncias
uniformes ( σ 2 ), então,
              i

                                                       k
                                V = Var(y) =         ∑X X σ       i
                                                                      '|
                                                                      i
                                                                                2
                                                                                i   + Iσ 2 ,
                                                     i= A




        E a esperança matemática de uma forma quadrática y’Qy é;


                                                            k
                     E(y’Qy) = (X1 β)’QX1β +               ∑σ         2
                                                                      i   tr (X i X 'i| ) + σ 2 tr ( Q)
                                                           i= A




        A partir da expressão acima, torna-se possível a obtenção das esperanças
matemáticas dos quadrados médios, que são de grande valia na determinação dos
Modelos Misto                                                                 Prof. Jomar   13


testadores adequados para as hipóteses tanto sobre efeitos aleatórios quanto fixos, nos
modelos mistos.




5. Testes de hipóteses


       Conhecendo-se as expressões das esperanças matemáticas dos quadrados médios,
pode-se facilmente identificar os quadrados médios dos denominadores (testadores),
quando da realização do teste F. Uma vez que a esperança do quadrado médio do
denominador apropriado deve ser aproximadamente igual à esperança do quadrado médio
do numerador, a menos do efeito a ser testado, como exemplificado a seguir:


                     F. V.                                       E (QM)
                      A                      σ 2 + 1,7143 σ 2 + φ 2
                                                            AB    A


                      B                      σ 2 + 1,7684 σ 2 + 2,6526 σ 2
                                                            AB           B


                     A*B                     σ 2 + 1,7143 σ 2
                                                            AB

                  Resíduo                    σ2


       Para se testar φ 2 = 0 o denominador apropriado será o QM (A*B). Para se testar
                        A

se σ 2 = 0 o denominador adequado será o QMRes.
     AB

Outras alternativas são:



5.1. Efeitos fixos


       Para inferências relativas aos parâmetros de efeitos fixos e aleatórios no modelo
misto, considera-se as combinações lineares estimáveis da seguinte forma:
                                          β
                                         L  .
                                           γ
Funções dessa natureza são ditas estimáveis se a parte fixa β satisfaz a exigência de
estimabilidade, uma vez que qualquer combinação linear de γ é estimável. Tipicamente,
Modelos Misto                                                                   Prof. Jomar   14


inferência sobre efeitos fixos é o foco e neste caso, a porção γ de L é assumida igual a
zero.
         Inferências estatísticas são obtidas para testar as hipóteses:

                                               β
                                          H : L  = φ
                                               γ 
ou para a construção de intervalos estimados.
         Quando L consiste de apenas uma linha, uma estatística t pode ser construída como
segue:

                                               β
                                                ˆ
                                              L 
                                                γ
                                           t=  
                                                ˆ
                                                ˆ
                                              LCL'


         Sob a pressuposição de normalidade de γ e ε , t tem uma distribuição t exata
somente para dados exibindo certos tipos de balanceamento e para alguns casos especiais
desbalanceados. Em geral t é somente aproximadamente distribuída e seus graus de
liberdade devem ser estimados.
         Se considerarmos ν como graus de liberdade estimado, o intervalo de confiança
                          ˆ
associado é o seguinte:
                                        β
                                          ˆ
                                      L   ± t ν ,α / 2 LCL' ,
                                                          ˆ
                                          γ
                                                ˆ
                                         ˆ

em que, t ν,α / 2 é o percentil (1 - α/2)% da distribuição t ν . Quando o rank de L é maior que
          ˆ                                                  ˆ


1, deve-se considerar a seguinte estatística F :

                                                (      )
                                            '
                                      β       ˆ −1 β
                                       ˆ               ˆ
                                        L' L' C L L 
                                       γ              γ 
                                    F= 
                                       ˆ               ˆ
                                            rank ( L)
Análogo a t, F em geral tem uma distribuição F aproximada com rank (L) graus de
liberdade no numerador e ν graus de liberdade no denominador.
                         ˆ
         As estatísticas t e F permitem fazer inferências sobre os efeitos fixos, estimados
para o modelo de variância e covariância selecionado. Uma alternativa é a estatística χ 2
associado com o teste da razão de verossimilhança. Essa estatística compara dois modelos
com efeitos fixos, um como caso especial do outro. Ela só é calculada quando comparamos
diferentes modelos covariância, embora deva-se usar ML e não REML por que falta o
Modelos Misto                                                                Prof. Jomar   15


termo associado com verossimilhança restrita que depende da especificação dos efeitos
fixos.



5.2. Efeitos aleatórios


         Para inferências relativas aos parâmetros de efeitos aleatórios do modelo, pode-se
usar estatísticas fundamentadas na verossimilhança. Uma dessas estatísticas é a Z de Wald,
que é calculada com o parâmetro estimado dividido por seu erro padrão assintótico. Os
erros padrões assintóticos são obtidos a partir da inversa da matriz de derivada segunda da
verossimilhança, em relação a cada um dos parâmetros de efeito aleatório. A estatística Z
de Wald é válida para grandes amostras, mas ela pode ser incerta para pequenos conjuntos
de dados e para parâmetros tais como componentes de variância, que apresentam uma
distribuição assimétrica ou distribuição amostral limite.
         Uma alternativa melhor é a razão de verossimilhança χ 2 . Essa estatística compara
dois modelos de covariância, um como caso especial do outro. Para realizar esse teste,
ajusta-se o modelo completo e o modelo reduzido e então subtrai-se os valores
correspondentes a -2 vezes o log verossimilhança. Pode-se usar o ML ou REML para
construir esta estatística que testa se o modelo completo é melhor do que o modelo
reduzido.

         A estatística χ 2 calculada desta forma tem uma distribuição amostral, que é χ 2 ,
sendo que os graus de liberdade são dados pela diferença no número de parâmetros entre
os dois modelos. Um exemplo comum desse caso ocorre no teste para se verificar se um
componente de variância é igual a 0.
         Uma possibilidade final para obter inferências relativas aos parâmetros de
covariância é simular ou reamostrar dados do modelo e construir distribuições amostrais
empíricas dos parâmetros.
Modelos Misto                                                                 Prof. Jomar   16



6. Estimação de componentes de variâncias


       Componentes de variância são as variâncias associadas aos efeitos aleatórios de um
modelo, sendo que o seu conhecimento é de grande importância em genética e
melhoramento, pois a população e o método de melhoramento a serem utilizados
dependem de algumas informações que podem ser obtidas a partir desses componentes.
       No caso de modelos mistos, a solução das MME, depende do conhecimento da
matriz de variâncias e covariâncias V, cuja estrutura é conhecida, porém, via de regra, seus
componentes não o são. Desse modo, torna-se necessário substituí-los por suas estimativas.
       Existem vários métodos de estimação de componentes de variâncias, dentre os
quais podemos destacar: o Método da Análise da Variância, os Métodos de Henderson,
MINQUEO, MIVQUE, Máxima Verossimilhança (ML) e Máxima Verossimilhança
Restrita (REML).
       Considerando-se que a estimação dos componentes de variância é um tópico muito
extenso e complexo para um relato completo e detalhado, optou-se por apresentar nesse
trabalho um breve levantamento dos métodos disponíveis na literatura. Começando com
dados balanceados, por ser o caso mais simples, e fornecendo subsídios para muitas
metodologias para o tratamento de dados desbalanceados. Para um estudo mais
aprofundado recomenda-se SEARLE (1992).



6.1. DADOS BALANCEADOS


       A estimação dos componentes de variância para dados balanceados é quase sempre
feita pelo método da análise de variância, ANOVA. Esse método obtêm estimadores
igualando-se as somas de quadrados, ou quadrados médios, de um quadro de análise de
variância aos seus respectivo valores esperados, que são combinações lineares dos
componentes de variância. Portanto, esse método produz equações lineares dos
componentes de variância, cujas soluções são tomadas como os estimadores dos referidos
componentes.
       A aplicação do método ANOVA para dados balanceado, para qualquer modelo é
direta e detalhes para muitos casos particulares estão disponíveis em diversos textos. Em
quase todos os casos os cálculos exigidos são fáceis. Além disso, nenhuma suposição da
Modelos Misto                                                              Prof. Jomar   17


distribuição dos dados, além das suposições básicas sobre as variâncias e covariâncias já
mencionadas é exigida.
       Os estimadores ANOVA apresentam muitas propriedades, são sempre não-viesados
e têm variância mínima. Como uma desvantagem pode-se citar o fato de que esse método
não exclui a ocorrência de estimativas negativas. Claramente, uma estimativa negativa de
um parâmetro, uma variância, que por definição é positiva é um "embaraço". Contudo, isso
pode acontecer até mesmo com dados reais. Maiores detalhes dessas e outras propriedades
dos estimadores são apresentadas em SEARLE (l971 e 1987).



6.2. DADOS DESBALANCEADOS


       O principal problema com a estimação dos componentes de variância para dados
desbalanceados ocorre porque muitos métodos de estimação estão disponíveis e escolher
um deles pode não ser uma questão tão simples.
       Em decorrência do avanço tecnológico, da facilidade em adquirir e utilizar os
recursos da área de informática, a escolha prática tem estado entre um dos dois métodos
fundamentados na máxima verossimilhança, até que ocorra maior aceitação de outras
metodologias.
       Serão apresentados, resumidamente, os seguintes métodos:
*ANOVA Análise de Variância
*Método de Henderson I
*Método de Henderson II
*Método de Henderson III
*ML: Máxima Verossimilhança
*REML: Máxima Verossimilhança Restrita
*MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima
*MIVQUE. Estimador Quadrático Não-Viesado de Variância Mínima
* I-MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima Iterativo
Modelos Misto                                                                         Prof. Jomar   18


6.2.1 - MÉTODO ANOVA


        O princípio do método ANOVA usado com dados balanceados pode ser
generalizado para dados desbalanceados. A generalização é usar qualquer forma quadrática
em lugar das somas de quadrados.
        Seja o vetor de componentes de variância que serão estimados e seja q um vetor da
mesma ordem de σ2 , de qualquer forma quadrática linearmente independente das
observações. Suponha que q é tal que:
E(q) = Cσ2
para alguma matriz C não singular,
σ2 = C -1q
é um estimador não-viesado de σ2 .

A matriz de dispersão de σ 2 é:
                         ˆ

                                         ( )
                                     var σ 2 = C −1 var (q )C −1
                                         ˆ
                                                                   ′

em que os elementos de var (q) são variâncias e covariâncias das formas quadráticas
usadas como elementos de q. SEARLE (l987) apresenta esse método e discute as suas
vantagens e desvantagens.


6.2.2 - MÉTODO I DE HENDERSON


        HENDERSON (1953) descreve três métodos para estimar componentes de
variância que são exatamente três diferentes maneiras de usar o método ANOVA geral.
Eles diferem somente nas diferentes formas quadráticas que nem sempre são as somas de
quadrados usadas em q. Os métodos podem produzir estimativas negativas.
        No método I, as formas quadráticas usadas são análogas às somas de quadrados
usadas para dados balanceados, a analogia é tal que                    somas de quadrados em dados
balanceados se tornam, para dados não balanceados, em formas quadráticas que não são
necessariamente, somas de quadrados, pois nem sempre são não negetivas, devido à
estrutura não balanceada dos dados. Assim, por exemplo, para o modelo:
                                   y ijk = µ + α i + β j + γ ij + ε ijk


com i = 1, 2, ..., I; j = 1, 2, ..., J; k = 1, 2, ..., n, as somas de quadrados,
Modelos Misto                                                                                                                    Prof. Jomar   19



                                               ∑ Jn (y                 − y • •• ) =         ∑ Jny              − IJ y 2•••
                                                                                    2                   2
                                                                i• •                                    i• •
                                                   i                                            i


se tornam, para dados desbalanceados,

                                           ∑ n (y                      − y • •• ) = ∑ n i • y 2•• − n •• y 2• ••
                                                                                    2
                                                       i•      i ••                           i
                                           i                                                i


          O Método I de Henderson utiliza o lado direito dessa equação.
          A soma de quadrados para a interação, para dados balanceados é

    ∑ ∑n       ij•   (y   ij•   − y i • • − y • j• + y • ••             )    2
                                                                                 = n ∑∑ y 2 • − Jn ∑ y 2• • − In ∑ y 2• j• + IJny 2• ••
                                                                                          ij           i
      i    j                                                                            i   j                     i          j




          A expressão, análoga a esse lado direito, para dados desbalanceados, utilizada pelo
Método I de Henderson é:

                                     ∑ ∑n
                                       i       j
                                                       ij   y 2 • − ∑ n i • y 2• • − ∑ n • j y 2 j • + n • • y 2• •
                                                              ij
                                                                         i
                                                                              i                •
                                                                                                    j
                                                                                                               •




          O método I de Henderson consiste em igualar os quadrados médios às suas
esperanças matemáticas e resolver o sistema de equações formado. Esse método fornece
estimativas não-viesadas, com variância mínima, quando os dados são balanceados ou o
modelo é aleatório e os efeitos não correlacionados.
          O método I de Henderson não pode ser usado para modelos mistos. Pode ser
adaptado a um modelo misto, alterando o modelo e tratando os efeitos fixos como não
existentes ou como aleatórios, neste caso os estimadores dos componentes de variância dos
verdadeiros efeitos aleatórios são não-viesados.


6.2.3 - MÉTODO II DE HENDERSON


          O Método II de Henderson, é projetado para ter a facilidade computacional do
Método I e ampliar seu uso removendo a limitação do método I, que não pode ser usado
para modelos mistos. O método tem duas partes. Primeiro faz a suposição temporária que
                                                        β
os efeitos aleatórios são fixados, e para o modelo y = X + Zγ + e como anteriormente
definido, resolve as equações normais:

                                                                       X ′X X ′Z βº  X ′y 
                                                                                     ˆ
                                                                        Z ′X Z′Z   ˆ  =  Z ′y 
                                                                                  γ           
Modelos Misto                                                                Prof. Jomar   20


para βº. Então considera o vetor de dados ajustado para βº, isto é z = y - Xβº. Sob certas
condições, SEARLE (1968), o modelo para z será: z = lµº + Zγ + Ke em que µº difere de
µ e K é conhecido. Então aplica-se o Método I para z.
        Portanto, o método II de Henderson, consiste em estimar, em primeiro lugar, os
efeitos fixos, então, aplica o Método I para os resíduos restantes. Para que os estimadores
resultantes sejam não tendenciosos. É necessário que os resíduos dependam apenas dos
fatores aleatórios, a menos de uma constante que pode ser incluída no modelo. SEARLE
(l968) fazendo estudo dos métodos de Henderson, mostrou as condições que deve
satisfazer um estimador dos efeitos fixos para que os resíduos não dependam desses
efeitos. Há dois inconvenientes nesse método. Um deles é o fato de não haver uma única
solução e outra limitação consiste em não poder adotar modelos que incluam interações
entre os efeitos fixos e aleatórios (SEARLE, 1968).


6.2.4 - MÉTODO III DE HENDERSON


        O Método III de Henderson, também chamado método de ajuste de constantes, usa
as reduções nas somas de quadrados do modelo completo e de submodelos para estimar os
componentes de variância.
        Para deduzir o método, considere o modelo


                                        y = Xβº + Zγ + e = Wθ + e


        A matriz W pode ser particionada como [W1 W2 ], e θ' pode ser particionada como
[θ′1 θ′2 ] de acordo com W, ou seja o modelo é rescrito como:

                                        y = W1 θ1 + W2 θ2 + e


        Note que nenhuma suposição é feita sobre o particionamento de W e θ no que se
refere a efeitos fixos ou aleatórios.
        Chamando R(θ1 ,θ2 ) e R(θ1 ), respectivamente, às respectivas reduções nas somas de
quadrados do modelo completo e do submodelo y = W1 θ1 +e, tem-se:
Modelos Misto                                                                       Prof. Jomar   21


                                      R(θ1 θ2 ) = R(θ1 ,θ2 ) - R(θ1 )
e portanto
                                  E[R(θ1θ2 ) = E[R(θ1 ,θ2 )] - E[R(θ1 )]
Mas R(θ1 ,θ2 ) = y'W(W'W)-W'y             e       R(θ1 ) = y'W1 (W1 'W1 )-W1 y


Isto é,
R(θ1 ,θ2 ) e R(θ1 ) são formas quadráticas de y, e tem-se:
E[R(θ1 ,θ2 )] = E[y'W(W'W)-W'y]
              = tr[W(W'W)-W'var(y)] + E(y')W(W'W)-W'E(y)


Mas, E(y) = E(Wθ + e) = WE(θ)                 e    var(y) = (Wθ + e) = Wvar(θ)W' + σe I
                                                                                    2


Logo:

E[R(θ1 ,θ2 )] = tr[W(W'W)-W'Wvar(θ)W' + W(W'W)-W' σe I] + E(θ')W'W(W'W)-W'WE(θ)
                                                   2


               = tr[W'Wvar(θ)] + σe tr[W(W'W)-W' + E(θ')W'WE(θ)
                                  2



               = tr{W'W[E(θθ')-E(θ)E(θ')]} + σe tr[W(W'W)-W'] +tr(E(θ')W'WE(θ)}
                                              2


Portanto,


E[R(θ1 ,θ2 )] = tr{W'WE(θθ')} + σe tr[W(W'W)-W']
                                 2


ou

                       W ′ W    W1′ W2          
E[R(θ 1 , θ 2 )] = tr  1 1
                        ′               E (θθ ′ ) + σ 2 r (W )
                                  W2 W1 
                                    ′                    e
                       W 2 W1                   
onde r(W) é o posto da matriz W.
          De modo análogo:


E[R(θ1 )] = tr{W'W1 (W1 'W1 )-W1 'WE(θθ')} + σe tr[W1 (W1 'W)-W1 ']
                                              2


                 W ′ W            W1′ W2                   
E[R(θ 1 )] = tr  1 1
                  ′                                E (θ θ′ ) + σ 2 r (W1 )
                             W2 W1 (W1′ W1 ) W1′ W2 
                                            −
                              ′                                     e
                 W2 W1                                     


          Portanto R(θ2 θ1 ) = R(θ1 ,θ2 ) - R(θ1 ) é dado por:
Modelos Misto                                                                         Prof. Jomar   22


                      φ            φ                 
E[R (θ 2 θ 1 )] = tr 
                       φ W ′ W (W ′ W ) − W ′ W E(θθ′) + σ e [r (W ) − r( W1 )]
                                                  
                                                              2

                         2   1  1    1    1   2      


ou E[R(θ2 θ1 )] = tr{W 2 '[I-W1 (W1 'W1 )-W1 ']W2 E(θ2 θ2 ')} + σe [r(W) - r(W1 )]
                                                                  2




         Note que [R(θ2 θ1 )] não envolve θ1 e portanto E[R(θ2 θ1 )] não depende do vetor
de efeitos θ1 , sejam eles fixos ou aleatórios.
         Assim, o Método III de Henderson, consiste em encontrar os estimadores para os
componentes de variância, montando um sistema de equações a partir das diferenças entre
as reduções do modelo completo e um submodelo. Igualando-as, assim, às suas respectivas
esperanças.
         Para modelos mistos esse método é particularmente vantajoso porque, se tomar o
vetor θ1 como o vetor dos efeitos fixos e θ2 como vetor dos efeitos aleatórios, E[R(θ2 θ1 )]

não conterá termos devido a esses efeitos fixos, a esperança é apenas função de σe e das
                                                                                 2


variâncias dos efeitos aleatórios em θ2 , ou seja, os próprios componentes que se deseja
estimar.
         Para exemplificar o método, considere o modelo
                                       y = µ1 + X1 α + X2β + X3 γ + e
onde µ é uma constante, α é o vetor de efeitos fixos, β e γ são os vetores de efeitos
aleatórios.
         Nesse caso, a matriz W pode ser escrita como W=[1 X1 X2 X3 ] e
R(µ,α,β,γ) = y'W(W'W)-W'y com                      r(W) = r
         Considere os submodelos, dados por:
         y = µ1 + e
         y = µ1 + X1 α +e
         y = µ1 + X1 α + X2β + e


         Sejam as reduções correspondentes:

R (µ ) = y ′1(1′ 1)− 1′y = y ′1(n )−1 1′ y =
                                               1
                                                 y ′Jy   com r(W1 ) = r(J) = 1
                                               n
R (µ, α ) = y ′W1 ( W1′ W1 )W1′ y                        com W1 = [1 X1 ] e r(W1 ) = q
Modelos Misto                                                                               Prof. Jomar   23


R (µ, α, β) = y′W1 (W1′ W1 ) − W1′ y                  com W1 = [1 X1 X2 ] e r(W1 ) = s
Então obtém-se, sucessivamente os componentes de variância pelo seguinte conjunto de
equações:
                         Soma de Quadrados                        Esperanças

                     SQE = ∑ y 2 − R(µ, α , β, γ )        (n − r )σ 2e

                     R (µ, α ,β, γ ) − R (µ, α ,β )       h 1 σ γ + (r − s )σ 2
                                                                2
                                                                              e

                     R (µ, α ,β, γ ) − R (µ, α )          h 2 σ β + h 3 σ γ + (r − q )σ 2
                                                                2         2
                                                                                        e




        A partir dessas três equações calcula-se σ e2 ,σ β , σ γ2 . Os fatores h1 , h2 e h3 são
                                                  ˆ ˆ2 ˆ

obtidos pela expressão:
          E[R(θ2 θ1 )] = tr(W2 '(I-W1 (W1 'W1 )-W1 ')W2 E(θ2 θ2 ')) + I σ e2 [r(W) - r(W1 )]
                                                                          ˆ

em que, as matrizes W1 e W2 são especificadas para cada equação.
        Não é necessário utilizar a quarta equação dada por R(µ,α,β,γ) - R(µ) cuja

esperança seria h 4 σ α + h 5 σ 2 + h 6 σ 2 + (n − 1)σ 2 , Pois, supondo-se α como efeito fixo,
                      2
                                β         γ            e


não se considera a existência de σ σ .
                                   2



        O Método III pode ser usado para qualquer modelo misto e produz estimadores que
não são viesados.


6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML

        A estimação por máxima verossimilhança é uma método bem conhecido, originado
por Fischer em 1925. Esse método foi o primeiro a ser aplicado em modelos mistos geral
por HARTLEY e RAO (1967)
        O Método da Máxima Verossimilhança consiste em maximizar a função densidade
de probabilidade das observações, em relação aos efeitos fixos e aos componentes de
variância.
        Seja o modelo misto (1), dado por:
                                             y = Xβ +Zγ + e
Assumindo que os efeitos aleatórios γi, i = 1, ..., r e e têm distribuição normal com média

zero e matrizes de variâncias e covariâncias σi2 I m , ..., i=1, ..., r e σ 2 I n , respectivamente, o
                                                                            e
Modelos Misto                                                                                      Prof. Jomar   24


vetor y terá distribuição normal multivariada, com média Xβ e matriz de variâncias e
covariâncias, V, ou seja, y ~ N(Xβ, V) com:
       r                     r
V = ∑ Z i Z′i σ 2 + σ 2 I =∑ Zi Z′i σ 2
                l     e               l             com σ 2 = σ 2 e Z0 =I
                                                          0     e
      i =1                  i =0

             A função de verossimilhança é:
                                      ′
L = ( 2π ) 2 V − 2 exp  − ( y − X β ) V −1 ( y − X β )  sendo V o determinante da matriz V.
          −n     1        1
                        2                              
                                                       
             Maximizando L em relação aos elementos de β e aos componentes de variância, os

σ 2,s que ocorrem em V, obtém-se um sistema de equações que, resolvido, produzem os
  i

estimadores de ML de β e σ 2 = {σ 2 } ll = r0 . Essas equações podem ser escritas como:
                                  l      =




                                                     ~      ~       ~
                                                  X ′V −1 X β = X ′ V −1 y


e as equações são:
                                ~
                                   (             ) (
                                                   ~~
                                                                ) ~         ~
                             tr V −1 Zi Z′i = y − Xβ V −1 Z i Z′i V −1 y − Xβ    (             )
para i = 0, 1, ..., r
                                                          ~
             As equações acima têm de ser resolvidas para β                       e ~ 2 , os elementos implícitos
                                                                                    σ
     ~
em V . Claramente essas equações são não lineares nos elementos ~ 2 , contudo uma vez
                                                                       σ
                                                           ~
obtido os valores ~ 2,s , eles podem ser usados para obter β . Essas equações são resolvidas
                  σl

numericamente, por iteração. Por conveniência escreve-se:


                                             P = V-1-V-1X(X'V-1X)-X'V-1
e
                                                                      r
                                               I = V −1 V = V −1 ∑ z i z ′ σl2
                                                                         i
                                                                     l= 0


             Assim, o conjunto das r + 1 equações anteriores pode ser descrito como:


                                         (~            ~
                                                                 )  ~       (~        ~
                                       tr V −1 Z i Z′i V −1 Z j Z′j σ 2 = y ′PZ i Z i′Py
                                                                      l                    )
Modelos Misto                                                                      Prof. Jomar   25


       Fornecendo uma visualização mais fácil de um processo iterativo que as anteriores.
                                              ~     ~
Pode-se utilizar um valor inicial para ~ 2 em V e P , e resolver as equações acima e
                                       σ
repetir o processo até que o critério de convergência seja satisfeito.
         O Método da Máxima Verossimilhança é iterativo e fornece sempre estimativas
não negativas de componentes de variância, mas estas são viesadas porque o método não
considera a perda de graus de liberdade resultante da estimação dos efeitos fixos do
modelo.


6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML


         Esse processo é uma variante do processo de máxima verossimilhança, para
modelos mistos e foi utilizada por PATTERSON e THOMPSON (1971) para
delineamentos em blocos.
         Os estimadores REML são obtidos maximizando a parte da função de
verossimilhança que é invariante ao parâmetro de locação: isto é, em termos do modelo
misto y = Xβ+Zγ + e, é invariante para Xβ. Ou de outra maneira, os estimadores REML
maximizam a função de verossimilhança de um vetor de combinações lineares das
observações que são invariantes para Xβ. Seja Ly esse vetor. Então Ly = LXβ + Lzγ + Le
é invariante a Xβ, se e somente se, LX = 0. Mas LX = 0, se e somente se, L = TM
para M = I - X(X'X)-X' e algum T. Claramente, L deve ser de posto linha completo; e
assim T também. Portanto rL = rT , e rL ≤ rM com rM = n - rX.
         As equações para a estimação REML de σ2 , para i, j = 0, 1, ..., r são:

                                 (
                                 ~        ~
                                               )     (     ~
                                                                 )  ~
                              tr PZ i Z ′PZ j Z′j σ 2 = y ′PZ i Z′i Py
                                        i           l

                                                                          ~
         Note que essas equações são similares às equações ML, exceto por P em vez de
~
V −1 .
         No Método da Máxima Verossimilhança Restrita, cada observação é dividida em
duas partes independentes uma referente aos efeitos fixos e outras aos efeitos aleatórios, de
maneira que a função densidade de probabilidade das observações é dada pela soma das
funções densidade de probabilidade de cada parte. A maximização da função densidade de
probabilidade da parte referente aos efeitos aleatórios, em relação aos componentes de
variância, elimina o viés resultante da perda de graus de liberdade na estimação dos efeitos
fixos do modelo.
Modelos Misto                                                              Prof. Jomar   26


       As equações REML com dados balanceados são idênticas aos estimadores ANOVA
que são não-viesados e de variância mínima. O estimador REML leva em conta os graus de
liberdade envolvidos nas estimativas dos efeitos fixos, ao passo que os estimadores ML
não. No caso de dados desbalanceados os estimadores ML e os estimadores REML são
viesados SEARLE (1987).
       Os estimadores ML e REML dos componentes de variância não são formas
explicitas, isto é, o estimador de cada componente está em função dos estimadores dos
outros componentes, e só podem ser encontrados por métodos numéricos iterativos.


6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-
         MINQUE


       RAO (l970, 1971 a, b, 1972) descreve um método de estimação que é derivado de
modo que o estimador minimize a norma euclidiana da matriz núcleo, que seja uma forma
quadrática das observações e que seja não-viesado. Seu desenvolvimento envolve álgebra
extensiva e seu conceito utiliza valores escolhidos, a priori, para os componentes de
variância desconhecidos.
       A estimação dos componentes de variância pelo método MINQUE, é feita com
base na equação MINQUE, a seguir:


                              tr (Pw Vi Pw Vj )σ 2 = (y ′Pw Vi Pw y )
                                               ˆl

sendo σ o vetor de componentes de variância.
      ˆ

                              Pw = VW1 − VW1 (X' VW1 X) X' VW1
                                    −     −       −         −
                                                            −



Vw é uma estimativa a priori da matriz de variâncias e covariâncias.
       Este método tem duas vantagens: não envolve a suposição de normalidade como
ML e REML. E as equações de MINQUE têm soluções explícitas (não tem de ser
resolvidas iterativamente).
       Por outro lado, a solução depende do conhecimento a priori dos valores dos
componentes de variância a serem estimados, ou seja, depende de valores estimados a
priori usados em Vw. Assim, diferentes valores de Vw podem levar a diferentes estimativas
para um mesmo conjunto de dados. Obtém-se portanto “um” estimador MINQUE e não
“o” estimador MINQUE.
Modelos Misto                                                              Prof. Jomar   27


       Um relacionamento importante, que existe entre REML e MINQUE é que se o
valor inicial no processo iterativo REML é Vw, então a primeira solução é uma estimativa
MINQUE.


6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -
       MIVQUE


       O método MINQUE não exige nenhuma suposição sobre a forma da distribuição da
variável aleatória y. Mas se a suposição usual de normalidade é satisfeita, o estimador
MINQUE tem a propriedade de ser uma forma quadrática não-viesada das observações
com variância mínima, ou seja, é um estimador quadrático não-viesado de variância
mínima, MIVQUE. SEARLE (1987).
       SWALLOW e MONAHAN (l984) descrevem o procedimento MIVQUE
concordância com os valores estimados a priori Vw , MIVQUE(A) e MIVQUE(0).
        O estimador MIVQUE(A) usa as equações REML tomando as estimativas
ANOVA como valores a priori. Embora a teoria MIVQUE especifique, que os valores a
priori devam ser independentes dos dados, a literatura justifica o uso das estimativas
ANOVA em decorrência da facilidade de obtenção.
       O estimador MIVQUE0 é o MIVQUE com a suposição a priori de que a matriz de
variâncias e covariâncias é a matriz identidade.


6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE)


       O estimador MINQUE utiliza valores estimados a priori em Vw, ou seja, uma
estimativa a priori para V, matriz de variâncias e covariâncias. Nenhuma iteração está
                                                       ~
envolvida. No entanto, obtida uma solução, por exemplo V1 , existe a idéia de usá-la como
uma nova estimativa em Vw, a partir da qual um novo conjunto de equações pode ser
                                     ~
estabelecido e resolvido, produzindo V2 e assim sucessivamente. Isto leva a usar as
equações MINQUE iterativamente.
       Além disso, BROWN (l976) mostra que sem suposição de normalidade sobre y, as
soluções I- MINQUE têm propriedades de normalidade para grandes amostras.
Modelos Misto                                                              Prof. Jomar   28



Bibliografia


BROWN, K.G. Asymptotic behavior of MINQUE-type estimators of variance
      components. The Annals of Statistics,4, p.746-54, 1976.
CUNNINGHAM,E.P. ; HENDERSON,C.R. an iterative procedure for estimating fixed
      effects and variance components in mixed model situations Biometrics 24:13-25,
      1968.
GRAYBIL,F.A. Theory and application of the linear model. Duxbury, North State,
      Massachusetts, 1976, __p.
HARTLEY,H.O. ; RAO, J.N.K. Maximum likelihood estimation for the mixed analysis of
      variance model. Biometrika, 54, p. 93-108, 1967.
HENDERSON,C.R. A simple method for computing the inverse of a numerator
      relationship matrix used in prediction of breeding values. Biometrics 32(3) :69-83,
      1976.
HENDERSON,C.R. Estimation of variance and covariance components, Biometrics,
      17:226-52, 1953
HENDERSON,C.R. Rapid method for computing the inverse of a relationship matrix. J.
      Dairy Sci.,58(11):1727-30, 1975.
HENDERSON,C.R. Use of an average numerator relationship matrix for multiple-sire
      joining. J. Anim. Sci.,66:1614-21, 1988.
HENDERSON,C.R.; KEMPTHORNE,O.; SEARLE,S.R.; VON KROISIG,C.M. The
      estimation of environmental and genetic trends from records subject to culling.
      Biometrics 15(6):192-218, 1959.
HICKS,C.R. Fundamental concepts in the design of experiment 2nd ed. New York, Holt,
      Rinehart and Winston, 1973. 349p.
MARTINS,E.N.;LOPES,P.S.;SILVA,M. de A.; REGAZZI.A. J. Modelo linear misto
      UFV, Imprensa Universitária, 1993, 46p.
NETER,J.;WASSERMAN,W.; KUTNER,M.H. Applied linear statistical models,
      regression, analysis of variance and experimental designs. Richard D. Irwing, Inc.
      1985, 1127p.
PATTERSON,H.D. ; THOMPSON,R. Recovery of inter-block information when block
      sizes are unequal. Biometrika, 58(3): 545-54, 1971.
Modelos Misto                                                             Prof. Jomar   29


PERRI, S. H . V., Ajuste de Modelos Mistos de Classificação Dupla: Procedimentos do
      Sistema Estatístico “SAS”. Tese apresentada à Escola Superior de Agricultura “Luiz
      de Queiroz”, 1998.
QUAAS,R.L. Computing the diagonal elements and inverse of a large numerator
      relationship matrix Biometrics, 32(12):949-53, 1976
QUAAS,R.L.; POLLAK,E.J. Mixed equations methodology for farm and ranch beed cattle
      testing programs. J.Anim. Sci., 53(6):1277-87, 1980
RAO,C.R. Estimation of heteroscedastic variance in linear models. Journal of the
      American Statistical Association, 65, p.161-72, 1970.
RAO,C.R. Estimation of variance and covariance components – MINQUE Theory. Journal
      of Multivariate Analysis, 1, p.257-75, 1971 a.
RAO,C.R. Estimation of variance and covariance components in linear models. Journal of
      Multivariate Analysis, 67, p.112-15, 1972.
RAO,C.R. Linear statistical inference and its applications 2nd ed. New York, John
      Wiley & Sons, 1973 __p.
RAO,C.R. Minimum variance quadratic unbiased estimation of variance components.
      Journal of Multivariate Analysis, 1, p.445-56, 1971 b.
SEARLE, S.R. Another look at Henderson’s methods of estimating variance components.
      Biometrics, 24, p. 749-78, 1968.
SEARLE, S.R. Linear Models for Unbalanced data. New York: John Wiley, 1987. 536p.
SEARLE, S.R. Linear models. New York, John Wiley & Sons, 1971. 532p.
SEARLE, S.R. Variance Component. New York, John Wiley & Sons, 1992. 501p.
SWALLOW, W.H. ; MONAHAN, J.F. Monte Carlo comparison of ANOVA, MINQUE,
      REML, and ML estimators of variance components. Technometrics, 26, p.47-57,
      1984.
THOMPSON, R. Iterative estimation of variance components for non-orthogonal data.
      Biometrics, 26: 767-73, 1969.
Modelos Misto   Prof. Jomar   30

Mais conteúdo relacionado

Mais procurados (7)

Análise de regressão linear
Análise de regressão linearAnálise de regressão linear
Análise de regressão linear
 
Regressão aula
Regressão aulaRegressão aula
Regressão aula
 
Aula 30 testes de hipóteses
Aula 30   testes de hipótesesAula 30   testes de hipóteses
Aula 30 testes de hipóteses
 
Aula19
Aula19Aula19
Aula19
 
Teste de hipoteses
Teste de hipotesesTeste de hipoteses
Teste de hipoteses
 
Aula 13 teste de hipóteses
Aula 13   teste de hipótesesAula 13   teste de hipóteses
Aula 13 teste de hipóteses
 
Testes parametricos e nao parametricos
Testes parametricos e nao parametricosTestes parametricos e nao parametricos
Testes parametricos e nao parametricos
 

Semelhante a Modelos Lineares Mistos: Uma Introdução

Análise multivariada aplicada à pesquisa
Análise multivariada aplicada à pesquisaAnálise multivariada aplicada à pesquisa
Análise multivariada aplicada à pesquisaCarlos Moura
 
Ce209teorica
Ce209teoricaCe209teorica
Ce209teoricathalitab
 
Modelos lineares mistos aplicados em ciências atuariais.
Modelos lineares mistos aplicados em ciências atuariais.Modelos lineares mistos aplicados em ciências atuariais.
Modelos lineares mistos aplicados em ciências atuariais.Universidade Federal Fluminense
 
Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...
Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...
Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...Ana Roberta Melo
 
Indice de morisita classico e dw
Indice de morisita classico e dwIndice de morisita classico e dw
Indice de morisita classico e dwLuis Alberti
 
Lista de Exercícios Econometria I - UFES
Lista de Exercícios Econometria I - UFESLista de Exercícios Econometria I - UFES
Lista de Exercícios Econometria I - UFESRamon Cristian
 
Analise empirica de dados multinomiaiE
Analise empirica de dados multinomiaiEAnalise empirica de dados multinomiaiE
Analise empirica de dados multinomiaiEDiogo Freire
 
Apostila unijuí matemática aplicada à administração 2
Apostila unijuí   matemática aplicada à administração 2Apostila unijuí   matemática aplicada à administração 2
Apostila unijuí matemática aplicada à administração 2Claudia Sá de Moura
 
Exercicios de estatistica_i
Exercicios de estatistica_iExercicios de estatistica_i
Exercicios de estatistica_iOcreAngra
 
Matemática aplicada à administração
Matemática aplicada à administraçãoMatemática aplicada à administração
Matemática aplicada à administraçãoCamila Santos
 

Semelhante a Modelos Lineares Mistos: Uma Introdução (20)

Aula intro efeitos aleatorios
Aula intro efeitos aleatoriosAula intro efeitos aleatorios
Aula intro efeitos aleatorios
 
Efeitos aleatórios
Efeitos aleatóriosEfeitos aleatórios
Efeitos aleatórios
 
Econometria
EconometriaEconometria
Econometria
 
Análise multivariada aplicada à pesquisa
Análise multivariada aplicada à pesquisaAnálise multivariada aplicada à pesquisa
Análise multivariada aplicada à pesquisa
 
Gustavo relatorio
Gustavo relatorioGustavo relatorio
Gustavo relatorio
 
Ipaee capitulo3 2
Ipaee capitulo3 2Ipaee capitulo3 2
Ipaee capitulo3 2
 
Livro seagro
Livro seagroLivro seagro
Livro seagro
 
02 tópico 1 - regressão linear simples 01 - Econometria - Graduação - UFPA
02   tópico 1 - regressão linear simples 01 - Econometria - Graduação - UFPA02   tópico 1 - regressão linear simples 01 - Econometria - Graduação - UFPA
02 tópico 1 - regressão linear simples 01 - Econometria - Graduação - UFPA
 
Ce209teorica
Ce209teoricaCe209teorica
Ce209teorica
 
Modelos lineares mistos aplicados em ciências atuariais.
Modelos lineares mistos aplicados em ciências atuariais.Modelos lineares mistos aplicados em ciências atuariais.
Modelos lineares mistos aplicados em ciências atuariais.
 
Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...
Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...
Estimação do parâmetro de perfusão sanguínea em tumores por meio de um algori...
 
Indice de morisita classico e dw
Indice de morisita classico e dwIndice de morisita classico e dw
Indice de morisita classico e dw
 
Método dos mínimos quadrados
Método dos mínimos quadradosMétodo dos mínimos quadrados
Método dos mínimos quadrados
 
Tópico 4 regressão linear simples 01
Tópico 4   regressão linear simples 01Tópico 4   regressão linear simples 01
Tópico 4 regressão linear simples 01
 
Lista de Exercícios Econometria I - UFES
Lista de Exercícios Econometria I - UFESLista de Exercícios Econometria I - UFES
Lista de Exercícios Econometria I - UFES
 
Analise empirica de dados multinomiaiE
Analise empirica de dados multinomiaiEAnalise empirica de dados multinomiaiE
Analise empirica de dados multinomiaiE
 
Apostila unijuí matemática aplicada à administração 2
Apostila unijuí   matemática aplicada à administração 2Apostila unijuí   matemática aplicada à administração 2
Apostila unijuí matemática aplicada à administração 2
 
Exercicios de estatistica_i
Exercicios de estatistica_iExercicios de estatistica_i
Exercicios de estatistica_i
 
Regressao linear
Regressao linearRegressao linear
Regressao linear
 
Matemática aplicada à administração
Matemática aplicada à administraçãoMatemática aplicada à administração
Matemática aplicada à administração
 

Modelos Lineares Mistos: Uma Introdução

  • 1. UNIVERSIDADE FEDERAL DO PARANÁ DEPARTAMENTO DE ESTATÍSTICA Nota Metodológica sobre Modelos Lineares Mistos Professor Jomar Antonio Camarinha Filho CURITIBA - PARANÁ SETEMBRO/2003
  • 2. Modelos Mistos i ÍNDICE MODELOS LINEARES MISTOS ...............................................................................................................................1 1. INTRODUÇÃO.............................................................................................................................................................1 2. DERIVAÇÃO DAS EQUAÇÕES DE MODELOS MISTOS...........................................................................3 3. SOLUÇÕES PARA OS EFEITOS FIXOS E PREDIÇÕES DOS EFEITOS ALEATÓRIOS ...............5 3.1 A LGUMAS PROPRIEDADES DAS SOLUÇÕES PARA OS EFEITOS FIXOS................................................................. 7 3.2. A LGUMAS PROPRIEDADES DA PREDIÇÃO PARA OS EFEITOS ALEATÓRIOS ...................................................... 9 4. ESPERANÇAS MATEMÁTICAS DOS QUADRADOS MÉDIOS .............................................................11 5. TESTES DE HIPÓTESES .......................................................................................................................................13 5.1. EFEITOS FIXOS....................................................................................................................................................... 13 5.2. EFEITOS ALEATÓRIOS........................................................................................................................................... 15 6. ESTIMAÇÃO DE COMPONENTES DE VARIÂNCIAS ..............................................................................16 6.1. DADOS BALANCEADOS................................................................................................................................ 16 6.2. DADOS DESBALANCEADOS ....................................................................................................................... 17 6.2.1 - MÉTODO ANOVA.....................................................................................................................................18 6.2.2 - MÉTODO I DE HENDERSON................................................................................................................18 6.2.3 - MÉTODO II DE HENDERSON ..............................................................................................................19 6.2.4 - MÉTODO III DE HENDERSON .............................................................................................................20 6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML.........................................................................23 6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML...............................................25 6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-MINQUE ........................26 6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -MIVQUE ................27 6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) ...............................................27 BIBLIOGRAFIA.............................................................................................................................................................28
  • 3. Modelos Misto Prof. Jomar 1 MODELOS MISTOS 1. Introdução Um modelo linear que apresenta somente fatores de efeitos fixos, além do erro experimental, que é sempre aleatório, é denominado modelo fixo. Esse tipo de modelo já foi amplamente estudado, existindo inúmeros livros abordando seus aspectos teóricos e aplicados, em vários níveis de complexidade, pode-se citar: SEARLE (1971), que enfatiza dados desbalanceados; RAO (1973), aspectos matemáticos; GRAYBILL (1976), dados balanceados; NETER, WASSERMAN e KUTNER (1985), dentre outros. Os modelos que apresentam apenas fatores de efeitos aleatórios, exceto a constante µ, que é sempre fixa, é denominado modelo aleatório. Um modelo misto é aquele que apresenta tanto fatores de efeitos fixos como aleatórios, além do erro experimental e da constante µ. Quando um modelo é considerado misto, sua análise de variância apresenta algumas peculiaridades, como a composição das esperanças matemáticas dos quadrados médios, cujo conhecimento permite o estabelecimento correto dos testes de hipóteses, (HICKS, 1973). Caso o interesse do pesquisador resida na estimação dos componentes de variância, métodos adequados devem ser utilizados (HENDERSON,1953; CUNNINGHAM e HENDERSON, 1968; THOMPSON,1969; PATERSSON e THOMPSON,1971). Outro motivo de se adotar um modelo linear misto é a possibilidade de se fazer a predição de efeitos aleatórios, na presença de efeitos fixos, através dos BLUP’s (best linear unbiased prediction) que são de grande valia em genética e melhoramentos. Para melhor compreensão das definições acima, considere o seguinte exemplo: Suponha um experimento no qual são avaliados 5 híbridos de milho (a, b, c, d, e), em 3 localidades no delineamento inteiramente casualizado com 4 repetições. Um modelo para análise deste experimento pode ser: y ijk = µ + β i + γ j + e ijk no qual,
  • 4. Modelos Misto Prof. Jomar 2 yijk é o valor observado da parcela que recebeu a k-ésima repetição do tratamento i, no local j; µ é uma constante inerente a todas as observações; β i é o efeito do híbrido i; γj é o efeito do local j; eijk é o erro aleatório associado a observação yijk . Supõem-se que β i e γj são independentes. Neste experimento estão sendo avaliados dois fatores: híbridos com cinco níveis e locais com três níveis. Os efeitos desses fatores podem ser classificados como fixos ou aleatórios, em função do interesse do pesquisador. Se um determinado fator é considerado de efeito fixo, naturalmente, o interesse do pesquisador será estimar e testar hipóteses sobre combinações lineares dos níveis do mesmo. Por outro lado, caso o efeito desse fator seja considerado aleatório, o interesse residirá na estimação de componentes de variâncias e covariâncias associada a esse fator, uma vez que seus níveis são considerados como sendo uma amostra aleatória de certa população, a qual se deseja avaliar. No intuito de ilustrar melhor esses conceitos, considere as seguintes situações referentes ao experimento em questão: i) O pesquisador deseja inferir qual, dentre os três locais estudados, apresenta melhor produtividade. Note que ele está interessado apenas nos três locais estudados, e quer saber qual deles é o melhor. Nesta situação, o efeito de locais é considerado fixo, sendo então estimadas e testadas hipóteses sobre combinações lineares dos níveis deste fator, como por exemplo: β 1 - β2 = 0 (se estimável). ii) Uma outra possibilidade a ser considerada é o caso do pesquisador estar interessado apenas em verificar se existe uma variabilidade entre os locais, em relação à produção de milho. Neste caso, os níveis estudados (três locais) são apenas uma amostra aleatória da população de locais nos quais poder-se-ia plantar milho. Nessa situação, o efeito de locais é considerado aleatório, não havendo portanto interesse em se testar combinações lineares de seus níveis, mas sim, estimar e testar sua variabilidade (por meio de seus componentes de variância). No exemplo anterior, suponha que o pesquisador esteja interessado em verificar qual o melhor dos híbridos avaliados e se existe uma variabilidade de sua produção em
  • 5. Modelos Misto Prof. Jomar 3 relação ao local onde foi cultivado, nesse caso ter-se-ia um modelo misto com híbridos fixo e locais aleatório. 2. Derivação das equações de modelos mistos Seja o modelo: y ijk = µ + β i + γ j + e ijk , no qual y ijk é a observação referente à k-ésima repetição do nível i de uma fonte de efeitos fixos ao nível j de uma fonte de efeitos aleatórios; µ é uma constante inerente a todas observações; βi é o efeito do nível i do fator fixo; i = 1, ..., p; γ j é o efeito do nível j, do fator aleatório, no nível i do fator fixo, j = 1, ..., q; e ijk é erro aleatório associado a observação y ijk . Que em termos matriciais pode ser escrito como: y = X β + Zγ + e em que, n y1 é o vetor de observações; n Xp+1 é a matriz de incidência dos efeitos fixos (conhecida); p+1β1 é o vetor de efeitos fixos desconhecidos; n Zq é a matriz de incidência dos efeitos aleatórios (conhecida); qγ 1 é o vetor de efeitos aleatórios desconhecidos; n e1 é o vetor de erros aleatórios. Assumindo-se que os efeitos aleatórios e os erros (resíduos) têm distribuição normal com média zero e são não correlacionados, com matrizes de variâncias e covariâncias dadas por: Var (γ) = E(γγ’) = D e
  • 6. Modelos Misto Prof. Jomar 4 Var (e) = E(ee’) = R Deste modo, tem-se que: V = Var (y) = Var ( X β + Zγ + e ) = ZDZ’+ R Assume-se ainda que V é não singular, e E(y) = E( X β + Zγ + e ) = Xβ , assim, y ~ N( Xβ; ZDZ ' + R) A derivação das equações de modelos mistos pode ser feita pela minimização da soma de quadrados dos resíduos ou pela maximização da função densidade de probabilidade conjunta de y e γ. Aqui será adotada a segunda forma, considerando que a distribuição seja normal. A função densidade de probabilidade de y é dada por: f (y, γ ) = e 2 [( y − X β )( ZDZ '+ R ) (Y − xβ )] 1 −1 ' −1 ( 2π) n /2 [ZDZ '+ R ] 1/ 2 A função densidade de probabilidade conjunta de y e γ pode ser escrita como o produto entre a função densidade condicional de y, dado γ, e a função densidade de probabilidade de γ. f ( y, γ ) = f ( y / γ) ⋅ f ( γ) f ( y, γ) = 1 e− 1 2 [(y − Xβ −Zγ )'( R) −1 ( y − Xβ −Z γ) ]⋅ 1 e − 2 [( γ − 0)'( D) 1 −1 (γ − 0 ) ] ( 2π) 2 [ R ] 2 ( 2π) 2 [ D] n 1 1 1 2 Para se proceder à maximização de f(y,γ), pode-se usar o artifício da transformação por logaritmo. Isso é possível, visto que, sendo f(y,γ) e log [f(y,γ)] funções contínuas e + crescentes no espaço R , seus pontos de máximo são coincidentes dentro do espaço de [β’γ’] e ZDZ’+ R. Assim, fazendo-se L= log[f(y,γ)], tem-se:
  • 7. Modelos Misto Prof. Jomar 5 1 1 1 L= 2 n log( 2π) − (log R + log D) − ( y ' R −1 y − 2y ' R −1 Xβ − 2 y' R −1 Zγ + 2β' X' R −1 Zγ 2 2 2 + β' X' R −1 Xβ + γ ' Z' R −1 Zγ + γ' D −1 γ) Derivando-se L em relação a β e γ, e tornando-se tais derivadas identicamente nulas, obtêm-se:  ∂L   ∂β  − X' R −1 y + X' R −1 Xβ o + X' R −1 Zγ ˆ  0  =  =   ∂L  − Z' R y + Z' R Xβ + Z' R Zγ + D γ  0  −1 −1 o −1 ˆ −1 ˆ  ∂γ    X' R −1 Xβ o + X' R −1 Zγˆ   X ' R −1 y   =  − Z' R −1 Xβ o + Z' R −1 Zγ + D −1 γ  Z' R −1 y   ˆ ˆ   X' R −1 X X ' R −1 Z  β o  X' R −1 y     =   − Z' R −1 X  Z' R −1 Zˆ + D −1   γ  Z' R −1 y  γ  ˆ   Essas são as equações de modelos mistos (MME), que permitem obter soluções para os efeitos fixos (β o ) e predições para os efeitos aleatórios ( γ ) ˆ 3. Soluções para os efeitos fixos e predições dos efeitos aleatórios A solução do sistema de equações de modelos mistos pode ser obtida por absorção ou por obtenção da matriz inversa por partição. Em ambos os casos, os resultados serão: { } − βo = X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ]X X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ] y ˆ = ( Z' R −1 Z + D−1 ) −1 Z' R −1 ( y − Xβ o ) . γ
  • 8. Modelos Misto Prof. Jomar 6 Outra alternativa para se obter soluções para os efeitos fixos é pelo uso de um modelo linear generalizado, ignorado-se os efeitos aleatórios, como a seguir: Dado o modelo y = X β + Zγ + e , anteriormente descrito, e com Var (y) = ZDZ’+ R, tem-se que o sistema de equações normais generalizada é dado por: X ' V −1 X β o = X ' V −1 y , cuja solução é: β o = ( X ' V −1 X ) − X ' V −1 y e a predição de γ seria obtida por: ˆ = DZ' V −1 ( y − Xβ o ) γ V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1 Segundo SEARLE (1971), a desvantagem de se utilizar a segunda opção, que envolve o cálculo de V-1 é de ordem computacional, uma vez que a dimensão de V é igual ao número de observações, que muitas das vezes, principalmente na área de melhoramento genético, chega a ser de algumas centenas. No caso de modelos fixos, V usualmente assume a forma In σ2 ou, é pelo menos diagonal. Nesse caso a obtenção de V-1 é simples. Mas em geral, V = ZDZ’+R não é diagonal, e deste modo a obtenção de V-1 não é fácil. Segundo MARTINS et all. (1993), obter R-1Z(Z’R-1Z+D-1)-1Z’R-1 é mais simples. Pois R-1 pode ser facilmente obtida por I ⊗ R −1 , onde R0 é a matriz de variância e covariância 0 residual q x q, entre as q médias que compõem uma observação. D por A − 1 ⊗ D− 1 , em -1 o que Do é a matriz de variância e covariância, q x q, entre os efeitos aleatórios nas q medidas que compõem uma observação, e A é a matriz de correlação, n x n, entre os efeitos aleatórios das n observações. Apesar da matriz A não possuir estrutura simples, como ocorre na maioria das vezes, para aplicações em melhoramento animal, existem
  • 9. Modelos Misto Prof. Jomar 7 -1 algoritmos eficientes para obtenção direta de A (HENDERSON, 1975; 1976 e 1988; QUAAS, 1976). Mesmo assim persiste a necessidade de se obter (Z’R-1Z + D-1)-1 , que, a despeito de possuir as mesmas dimensões de V, pode ser obtida por processos iterativos com a vantagem de rápida convergência em razão da dominância dos elementos da diagonal causada pela adição de D-1 a Z’R-1Z. Nos casos de distribuição multivariada, elementos dominantes podem estar fora da diagonal. Nesses casos, processos que usam iteração em blocos garantem a rápida convergência, porque os elementos dominantes passarão a estar nos blocos (QUAAS e POLLAK, 1980). 3.1 Algumas propriedades das soluções para os efeitos fixos a) A solução β o , obtida pelas MME é também uma solução de Mínimos Quadrados Generalizados (GLS), utilizando o modelo que ignora os efeitos aleatórios. Prova: Foi visto que uma solução de mínimos quadrados generalizados para y = Xβ + e é: β o = ( X ' V −1 X ) − X ' V −1 y . Das equações de modelos mistos (MME), X' R −1 X X ' R −1 Z  β o   X' R −1 y    =  , − Z' R −1 X  Z' R −1 Zγ + D −1   γ   Z' R −1 y  ˆ  ˆ   tem-se que: { }− βo = X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ]X X'[ R −1 − R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ] y ˆ = ( Z' R −1 Z + D−1 ) −1 Z' R −1 ( y − Xβ o ) , γ substituindo γ em: ˆ X' R −1 Xβo + X' R −1 Zγ = X' R −1 y , ˆ
  • 10. Modelos Misto Prof. Jomar 8 tem-se: X' R −1 Xβo + X' R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 ( y − Xβ o ) = X' R −1 y X' R −1 Xβo + X' R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R −1 y − X' R −1 Z( Z' R −1 Z + D −1 ) −1 Z' R − 1 Xβ o = X' R −1 y [ X' R −1 X − X' R −1 Z( Z ' R −1 Z + D −1 ) −1 Z ' R −1 X ]β o = [ X ' R −1 − X ' R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ]y X ' [R −1 − R −1 Z( Z ' R −1 Z + D −1 ) −1 Z ' R −1 ]Xβ o = X '[ R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ] y β o = {X '[ R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ]X} − X '[R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z' R −1 ]y sabendo-se que V −1 = R −1 − R −1 Z ( Z' R −1 Z + D −1 ) −1 Z ' R −1 , (HENDERSON et all, 1959) então, β o = ( X ' V −1 X ) − X ' V −1 y b) A variância de β o e dada por: Var (β o ) = Var [( X' V −1 X) − X' V −1 y] . = (X’V-1X)-X’V-1Var(y)V-1X(X’V-1X)- = (X’V-1X)-X’V-1VV-1X(X’V-1X)- = (X’V-1X)-X’V-1X(X’V-1X)- Uma vez que X’V-1X é uma matriz simétrica, a escolha apropriada de uma inversa generalizada também simétrica, leva à igualdade (SEARLE, 1971): = (X’V-1X)-X’V-1X(X’V-1X)- = (X’V-1X)- ,
  • 11. Modelos Misto Prof. Jomar 9 e assim, Var (β o ) = ( X' V −1 X) − = {X’[R-1-R-1Z(Z’R-1Z+ D-1)-1Z’R-1]X} - = [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]-. c) Para um dado conjunto p de funções estimáveis, linearmente independentes, estabelecidas por uma matriz conhecida λ, a variância de λ’β o , (BLUE) de λ’β é dada por: Var (λ’β o ) = λ’Var (β o ) λ = λ’ [(X’V-1X)-X’V-1X(X’V-1X)-] λ = λ’ [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]- λ . 3.2. Algumas propriedades da predição para os efeitos aleatórios a) O preditor γ é o Melhor Preditor Linear Não-Viesado (BLUP) de γ. ˆ Segundo MARTINS et all. (1993), o termo predição refere-se a fatores aleatórios e a Melhor Predição Linear Não-Viesada pode ser, resumidamente, definida como resultado da regressão dos efeitos de um fator aleatório (γ) em função das observações (y) corrigidas para os efeitos dos fatores fixos (Xβ), como dado na seguinte expressão; γ = DZ’(ZDZ’ + R)-1(y - Xβ o ) ˆ = DZ’V-1(y - Xβ o ) Observa-se que o termo DZ’(ZDZ’ + R)-1 é o conjunto de coeficientes de regressão de γ em função de y, uma vez que DZ’ é a matriz de covariâncias entre γ e y. (ZDZ’ + R)-1
  • 12. Modelos Misto Prof. Jomar 10 é a inversa da matriz de variância de y, enquanto o termo (y - Xβ o ) contém os valores das observações, y, corrigidas para os efeitos fixos Xβ. Pelas MME, γ é dado por ˆ γ = (Z’R-1Z + D-1)-1Z’R-1(y - Xβ o ). ˆ Então, se a igualdade: DZ’(ZDZ’+ R)-1 = (Z’R-1Z + D-1)-1Z’R-1 for verdadeira, γ , obtido pelas MME, é o BLUP de γ. A prova desta igualdade foi ˆ apresentada por HENDERSON et all. (1959). b) A variância de γ é dada por ˆ Var ( γ ) = Var [DZ’V-1(y - Xβ o )] ˆ = DZ’V-1Var(y - Xβ o )V-1ZD’ = DZ’V-1[Var(y) - 2Cov(y,β o’X’) + Var (Xβ o )] V-1ZD’; mas Cov (y,β o’X’) = Var (Xβ o ); então, Var( γ ) = DZ’V-1[Var(y) - Var (Xβ o )] V-1ZD’ ˆ = DZ’V-1[V - X(X’V-1X)- X’ ] V-1ZD’ = DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’ Pode-se notar que a expressão V-1 - V-1 X(X’V-1X)- X’ V-1 é o complemento do projetor ortogonal de y no espaço coluna de X, o que significa que
  • 13. Modelos Misto Prof. Jomar 11 [V-1 - V-1 X(X’V-1X)- X’ V-1]y = y - Xβ o obs. V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1 c) A variância do erro de predição é dada por: γ γ γ Var (γ - ˆ ) = Var (γ ) - 2 Cov (γ, ˆ ’) + Var( ˆ ), mas, Cov (γ, γ ’) = Var( γ ), então, ˆ ˆ Var (γ - γ ) = Var (γ ) - Var( γ ) ˆ ˆ = D - DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’ d) A correlação entre os valores reais e preditos é máxima. Segundo HENDERSON (1977 e 1984) dentre uma classe de funções lineares que γ gera predições não viciadas, o BLUP maximiza a correlação (γ - ˆ ) . 4. Esperanças matemáticas dos quadrados médios Dado o modelo: y = Xβ + e, com Var(y) = V, tem-se que a esperança de uma forma quadrática y’Qy é dada por: E(y’Qy) = tr (QV) + E(y’)QE(y). SEARLE (1971) apresenta a dedução da expressão da esperança matemática de uma forma quadrática para modelos mistos, como mostrado a seguir Dado o modelo misto: Y=Xθ + e,
  • 14. Modelos Misto Prof. Jomar 12 Em que θ’ = [β’1 γ’A γ’B ... γ’k ] No qual, β’1 contém todos os efeitos fixos do modelo, inclusive a constante (µ) γ’ representa um conjunto de efeitos aleatórios dos fatores A, B, ... , K respectivamente, este modelo pode ser escrito na forma: y = X1 β1 + XA γA + XB γB ... XK γk + e k y = X 1 β1 + ∑ X i γ i + e i= A Assumindo-se que os efeitos do modelo são independentes, com média zero e covariâncias entre os efeitos aleatórios nulas, tem-se que: E(y) = X1 β1 k V = Var(y) = ∑ X Var (γ )X i i '| i + Iσ 2 i= A Assumindo-se que os efeitos aleatórios são não correlacionados e têm variâncias uniformes ( σ 2 ), então, i k V = Var(y) = ∑X X σ i '| i 2 i + Iσ 2 , i= A E a esperança matemática de uma forma quadrática y’Qy é; k E(y’Qy) = (X1 β)’QX1β + ∑σ 2 i tr (X i X 'i| ) + σ 2 tr ( Q) i= A A partir da expressão acima, torna-se possível a obtenção das esperanças matemáticas dos quadrados médios, que são de grande valia na determinação dos
  • 15. Modelos Misto Prof. Jomar 13 testadores adequados para as hipóteses tanto sobre efeitos aleatórios quanto fixos, nos modelos mistos. 5. Testes de hipóteses Conhecendo-se as expressões das esperanças matemáticas dos quadrados médios, pode-se facilmente identificar os quadrados médios dos denominadores (testadores), quando da realização do teste F. Uma vez que a esperança do quadrado médio do denominador apropriado deve ser aproximadamente igual à esperança do quadrado médio do numerador, a menos do efeito a ser testado, como exemplificado a seguir: F. V. E (QM) A σ 2 + 1,7143 σ 2 + φ 2 AB A B σ 2 + 1,7684 σ 2 + 2,6526 σ 2 AB B A*B σ 2 + 1,7143 σ 2 AB Resíduo σ2 Para se testar φ 2 = 0 o denominador apropriado será o QM (A*B). Para se testar A se σ 2 = 0 o denominador adequado será o QMRes. AB Outras alternativas são: 5.1. Efeitos fixos Para inferências relativas aos parâmetros de efeitos fixos e aleatórios no modelo misto, considera-se as combinações lineares estimáveis da seguinte forma: β L  .  γ Funções dessa natureza são ditas estimáveis se a parte fixa β satisfaz a exigência de estimabilidade, uma vez que qualquer combinação linear de γ é estimável. Tipicamente,
  • 16. Modelos Misto Prof. Jomar 14 inferência sobre efeitos fixos é o foco e neste caso, a porção γ de L é assumida igual a zero. Inferências estatísticas são obtidas para testar as hipóteses: β H : L  = φ γ  ou para a construção de intervalos estimados. Quando L consiste de apenas uma linha, uma estatística t pode ser construída como segue: β ˆ L  γ t=   ˆ ˆ LCL' Sob a pressuposição de normalidade de γ e ε , t tem uma distribuição t exata somente para dados exibindo certos tipos de balanceamento e para alguns casos especiais desbalanceados. Em geral t é somente aproximadamente distribuída e seus graus de liberdade devem ser estimados. Se considerarmos ν como graus de liberdade estimado, o intervalo de confiança ˆ associado é o seguinte: β ˆ L   ± t ν ,α / 2 LCL' , ˆ γ ˆ  ˆ em que, t ν,α / 2 é o percentil (1 - α/2)% da distribuição t ν . Quando o rank de L é maior que ˆ ˆ 1, deve-se considerar a seguinte estatística F : ( ) ' β ˆ −1 β ˆ ˆ   L' L' C L L  γ γ  F=  ˆ ˆ rank ( L) Análogo a t, F em geral tem uma distribuição F aproximada com rank (L) graus de liberdade no numerador e ν graus de liberdade no denominador. ˆ As estatísticas t e F permitem fazer inferências sobre os efeitos fixos, estimados para o modelo de variância e covariância selecionado. Uma alternativa é a estatística χ 2 associado com o teste da razão de verossimilhança. Essa estatística compara dois modelos com efeitos fixos, um como caso especial do outro. Ela só é calculada quando comparamos diferentes modelos covariância, embora deva-se usar ML e não REML por que falta o
  • 17. Modelos Misto Prof. Jomar 15 termo associado com verossimilhança restrita que depende da especificação dos efeitos fixos. 5.2. Efeitos aleatórios Para inferências relativas aos parâmetros de efeitos aleatórios do modelo, pode-se usar estatísticas fundamentadas na verossimilhança. Uma dessas estatísticas é a Z de Wald, que é calculada com o parâmetro estimado dividido por seu erro padrão assintótico. Os erros padrões assintóticos são obtidos a partir da inversa da matriz de derivada segunda da verossimilhança, em relação a cada um dos parâmetros de efeito aleatório. A estatística Z de Wald é válida para grandes amostras, mas ela pode ser incerta para pequenos conjuntos de dados e para parâmetros tais como componentes de variância, que apresentam uma distribuição assimétrica ou distribuição amostral limite. Uma alternativa melhor é a razão de verossimilhança χ 2 . Essa estatística compara dois modelos de covariância, um como caso especial do outro. Para realizar esse teste, ajusta-se o modelo completo e o modelo reduzido e então subtrai-se os valores correspondentes a -2 vezes o log verossimilhança. Pode-se usar o ML ou REML para construir esta estatística que testa se o modelo completo é melhor do que o modelo reduzido. A estatística χ 2 calculada desta forma tem uma distribuição amostral, que é χ 2 , sendo que os graus de liberdade são dados pela diferença no número de parâmetros entre os dois modelos. Um exemplo comum desse caso ocorre no teste para se verificar se um componente de variância é igual a 0. Uma possibilidade final para obter inferências relativas aos parâmetros de covariância é simular ou reamostrar dados do modelo e construir distribuições amostrais empíricas dos parâmetros.
  • 18. Modelos Misto Prof. Jomar 16 6. Estimação de componentes de variâncias Componentes de variância são as variâncias associadas aos efeitos aleatórios de um modelo, sendo que o seu conhecimento é de grande importância em genética e melhoramento, pois a população e o método de melhoramento a serem utilizados dependem de algumas informações que podem ser obtidas a partir desses componentes. No caso de modelos mistos, a solução das MME, depende do conhecimento da matriz de variâncias e covariâncias V, cuja estrutura é conhecida, porém, via de regra, seus componentes não o são. Desse modo, torna-se necessário substituí-los por suas estimativas. Existem vários métodos de estimação de componentes de variâncias, dentre os quais podemos destacar: o Método da Análise da Variância, os Métodos de Henderson, MINQUEO, MIVQUE, Máxima Verossimilhança (ML) e Máxima Verossimilhança Restrita (REML). Considerando-se que a estimação dos componentes de variância é um tópico muito extenso e complexo para um relato completo e detalhado, optou-se por apresentar nesse trabalho um breve levantamento dos métodos disponíveis na literatura. Começando com dados balanceados, por ser o caso mais simples, e fornecendo subsídios para muitas metodologias para o tratamento de dados desbalanceados. Para um estudo mais aprofundado recomenda-se SEARLE (1992). 6.1. DADOS BALANCEADOS A estimação dos componentes de variância para dados balanceados é quase sempre feita pelo método da análise de variância, ANOVA. Esse método obtêm estimadores igualando-se as somas de quadrados, ou quadrados médios, de um quadro de análise de variância aos seus respectivo valores esperados, que são combinações lineares dos componentes de variância. Portanto, esse método produz equações lineares dos componentes de variância, cujas soluções são tomadas como os estimadores dos referidos componentes. A aplicação do método ANOVA para dados balanceado, para qualquer modelo é direta e detalhes para muitos casos particulares estão disponíveis em diversos textos. Em quase todos os casos os cálculos exigidos são fáceis. Além disso, nenhuma suposição da
  • 19. Modelos Misto Prof. Jomar 17 distribuição dos dados, além das suposições básicas sobre as variâncias e covariâncias já mencionadas é exigida. Os estimadores ANOVA apresentam muitas propriedades, são sempre não-viesados e têm variância mínima. Como uma desvantagem pode-se citar o fato de que esse método não exclui a ocorrência de estimativas negativas. Claramente, uma estimativa negativa de um parâmetro, uma variância, que por definição é positiva é um "embaraço". Contudo, isso pode acontecer até mesmo com dados reais. Maiores detalhes dessas e outras propriedades dos estimadores são apresentadas em SEARLE (l971 e 1987). 6.2. DADOS DESBALANCEADOS O principal problema com a estimação dos componentes de variância para dados desbalanceados ocorre porque muitos métodos de estimação estão disponíveis e escolher um deles pode não ser uma questão tão simples. Em decorrência do avanço tecnológico, da facilidade em adquirir e utilizar os recursos da área de informática, a escolha prática tem estado entre um dos dois métodos fundamentados na máxima verossimilhança, até que ocorra maior aceitação de outras metodologias. Serão apresentados, resumidamente, os seguintes métodos: *ANOVA Análise de Variância *Método de Henderson I *Método de Henderson II *Método de Henderson III *ML: Máxima Verossimilhança *REML: Máxima Verossimilhança Restrita *MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima *MIVQUE. Estimador Quadrático Não-Viesado de Variância Mínima * I-MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima Iterativo
  • 20. Modelos Misto Prof. Jomar 18 6.2.1 - MÉTODO ANOVA O princípio do método ANOVA usado com dados balanceados pode ser generalizado para dados desbalanceados. A generalização é usar qualquer forma quadrática em lugar das somas de quadrados. Seja o vetor de componentes de variância que serão estimados e seja q um vetor da mesma ordem de σ2 , de qualquer forma quadrática linearmente independente das observações. Suponha que q é tal que: E(q) = Cσ2 para alguma matriz C não singular, σ2 = C -1q é um estimador não-viesado de σ2 . A matriz de dispersão de σ 2 é: ˆ ( ) var σ 2 = C −1 var (q )C −1 ˆ ′ em que os elementos de var (q) são variâncias e covariâncias das formas quadráticas usadas como elementos de q. SEARLE (l987) apresenta esse método e discute as suas vantagens e desvantagens. 6.2.2 - MÉTODO I DE HENDERSON HENDERSON (1953) descreve três métodos para estimar componentes de variância que são exatamente três diferentes maneiras de usar o método ANOVA geral. Eles diferem somente nas diferentes formas quadráticas que nem sempre são as somas de quadrados usadas em q. Os métodos podem produzir estimativas negativas. No método I, as formas quadráticas usadas são análogas às somas de quadrados usadas para dados balanceados, a analogia é tal que somas de quadrados em dados balanceados se tornam, para dados não balanceados, em formas quadráticas que não são necessariamente, somas de quadrados, pois nem sempre são não negetivas, devido à estrutura não balanceada dos dados. Assim, por exemplo, para o modelo: y ijk = µ + α i + β j + γ ij + ε ijk com i = 1, 2, ..., I; j = 1, 2, ..., J; k = 1, 2, ..., n, as somas de quadrados,
  • 21. Modelos Misto Prof. Jomar 19 ∑ Jn (y − y • •• ) = ∑ Jny − IJ y 2••• 2 2 i• • i• • i i se tornam, para dados desbalanceados, ∑ n (y − y • •• ) = ∑ n i • y 2•• − n •• y 2• •• 2 i• i •• i i i O Método I de Henderson utiliza o lado direito dessa equação. A soma de quadrados para a interação, para dados balanceados é ∑ ∑n ij• (y ij• − y i • • − y • j• + y • •• ) 2 = n ∑∑ y 2 • − Jn ∑ y 2• • − In ∑ y 2• j• + IJny 2• •• ij i i j i j i j A expressão, análoga a esse lado direito, para dados desbalanceados, utilizada pelo Método I de Henderson é: ∑ ∑n i j ij y 2 • − ∑ n i • y 2• • − ∑ n • j y 2 j • + n • • y 2• • ij i i • j • O método I de Henderson consiste em igualar os quadrados médios às suas esperanças matemáticas e resolver o sistema de equações formado. Esse método fornece estimativas não-viesadas, com variância mínima, quando os dados são balanceados ou o modelo é aleatório e os efeitos não correlacionados. O método I de Henderson não pode ser usado para modelos mistos. Pode ser adaptado a um modelo misto, alterando o modelo e tratando os efeitos fixos como não existentes ou como aleatórios, neste caso os estimadores dos componentes de variância dos verdadeiros efeitos aleatórios são não-viesados. 6.2.3 - MÉTODO II DE HENDERSON O Método II de Henderson, é projetado para ter a facilidade computacional do Método I e ampliar seu uso removendo a limitação do método I, que não pode ser usado para modelos mistos. O método tem duas partes. Primeiro faz a suposição temporária que β os efeitos aleatórios são fixados, e para o modelo y = X + Zγ + e como anteriormente definido, resolve as equações normais: X ′X X ′Z βº  X ′y  ˆ  Z ′X Z′Z   ˆ  =  Z ′y    γ   
  • 22. Modelos Misto Prof. Jomar 20 para βº. Então considera o vetor de dados ajustado para βº, isto é z = y - Xβº. Sob certas condições, SEARLE (1968), o modelo para z será: z = lµº + Zγ + Ke em que µº difere de µ e K é conhecido. Então aplica-se o Método I para z. Portanto, o método II de Henderson, consiste em estimar, em primeiro lugar, os efeitos fixos, então, aplica o Método I para os resíduos restantes. Para que os estimadores resultantes sejam não tendenciosos. É necessário que os resíduos dependam apenas dos fatores aleatórios, a menos de uma constante que pode ser incluída no modelo. SEARLE (l968) fazendo estudo dos métodos de Henderson, mostrou as condições que deve satisfazer um estimador dos efeitos fixos para que os resíduos não dependam desses efeitos. Há dois inconvenientes nesse método. Um deles é o fato de não haver uma única solução e outra limitação consiste em não poder adotar modelos que incluam interações entre os efeitos fixos e aleatórios (SEARLE, 1968). 6.2.4 - MÉTODO III DE HENDERSON O Método III de Henderson, também chamado método de ajuste de constantes, usa as reduções nas somas de quadrados do modelo completo e de submodelos para estimar os componentes de variância. Para deduzir o método, considere o modelo y = Xβº + Zγ + e = Wθ + e A matriz W pode ser particionada como [W1 W2 ], e θ' pode ser particionada como [θ′1 θ′2 ] de acordo com W, ou seja o modelo é rescrito como: y = W1 θ1 + W2 θ2 + e Note que nenhuma suposição é feita sobre o particionamento de W e θ no que se refere a efeitos fixos ou aleatórios. Chamando R(θ1 ,θ2 ) e R(θ1 ), respectivamente, às respectivas reduções nas somas de quadrados do modelo completo e do submodelo y = W1 θ1 +e, tem-se:
  • 23. Modelos Misto Prof. Jomar 21 R(θ1 θ2 ) = R(θ1 ,θ2 ) - R(θ1 ) e portanto E[R(θ1θ2 ) = E[R(θ1 ,θ2 )] - E[R(θ1 )] Mas R(θ1 ,θ2 ) = y'W(W'W)-W'y e R(θ1 ) = y'W1 (W1 'W1 )-W1 y Isto é, R(θ1 ,θ2 ) e R(θ1 ) são formas quadráticas de y, e tem-se: E[R(θ1 ,θ2 )] = E[y'W(W'W)-W'y] = tr[W(W'W)-W'var(y)] + E(y')W(W'W)-W'E(y) Mas, E(y) = E(Wθ + e) = WE(θ) e var(y) = (Wθ + e) = Wvar(θ)W' + σe I 2 Logo: E[R(θ1 ,θ2 )] = tr[W(W'W)-W'Wvar(θ)W' + W(W'W)-W' σe I] + E(θ')W'W(W'W)-W'WE(θ) 2 = tr[W'Wvar(θ)] + σe tr[W(W'W)-W' + E(θ')W'WE(θ) 2 = tr{W'W[E(θθ')-E(θ)E(θ')]} + σe tr[W(W'W)-W'] +tr(E(θ')W'WE(θ)} 2 Portanto, E[R(θ1 ,θ2 )] = tr{W'WE(θθ')} + σe tr[W(W'W)-W'] 2 ou  W ′ W W1′ W2   E[R(θ 1 , θ 2 )] = tr  1 1  ′ E (θθ ′ ) + σ 2 r (W ) W2 W1  ′ e  W 2 W1   onde r(W) é o posto da matriz W. De modo análogo: E[R(θ1 )] = tr{W'W1 (W1 'W1 )-W1 'WE(θθ')} + σe tr[W1 (W1 'W)-W1 '] 2  W ′ W W1′ W2   E[R(θ 1 )] = tr  1 1  ′ E (θ θ′ ) + σ 2 r (W1 ) W2 W1 (W1′ W1 ) W1′ W2  − ′ e  W2 W1   Portanto R(θ2 θ1 ) = R(θ1 ,θ2 ) - R(θ1 ) é dado por:
  • 24. Modelos Misto Prof. Jomar 22  φ φ   E[R (θ 2 θ 1 )] = tr   φ W ′ W (W ′ W ) − W ′ W E(θθ′) + σ e [r (W ) − r( W1 )]  2  2 1 1 1 1 2   ou E[R(θ2 θ1 )] = tr{W 2 '[I-W1 (W1 'W1 )-W1 ']W2 E(θ2 θ2 ')} + σe [r(W) - r(W1 )] 2 Note que [R(θ2 θ1 )] não envolve θ1 e portanto E[R(θ2 θ1 )] não depende do vetor de efeitos θ1 , sejam eles fixos ou aleatórios. Assim, o Método III de Henderson, consiste em encontrar os estimadores para os componentes de variância, montando um sistema de equações a partir das diferenças entre as reduções do modelo completo e um submodelo. Igualando-as, assim, às suas respectivas esperanças. Para modelos mistos esse método é particularmente vantajoso porque, se tomar o vetor θ1 como o vetor dos efeitos fixos e θ2 como vetor dos efeitos aleatórios, E[R(θ2 θ1 )] não conterá termos devido a esses efeitos fixos, a esperança é apenas função de σe e das 2 variâncias dos efeitos aleatórios em θ2 , ou seja, os próprios componentes que se deseja estimar. Para exemplificar o método, considere o modelo y = µ1 + X1 α + X2β + X3 γ + e onde µ é uma constante, α é o vetor de efeitos fixos, β e γ são os vetores de efeitos aleatórios. Nesse caso, a matriz W pode ser escrita como W=[1 X1 X2 X3 ] e R(µ,α,β,γ) = y'W(W'W)-W'y com r(W) = r Considere os submodelos, dados por: y = µ1 + e y = µ1 + X1 α +e y = µ1 + X1 α + X2β + e Sejam as reduções correspondentes: R (µ ) = y ′1(1′ 1)− 1′y = y ′1(n )−1 1′ y = 1 y ′Jy com r(W1 ) = r(J) = 1 n R (µ, α ) = y ′W1 ( W1′ W1 )W1′ y com W1 = [1 X1 ] e r(W1 ) = q
  • 25. Modelos Misto Prof. Jomar 23 R (µ, α, β) = y′W1 (W1′ W1 ) − W1′ y com W1 = [1 X1 X2 ] e r(W1 ) = s Então obtém-se, sucessivamente os componentes de variância pelo seguinte conjunto de equações: Soma de Quadrados Esperanças SQE = ∑ y 2 − R(µ, α , β, γ ) (n − r )σ 2e R (µ, α ,β, γ ) − R (µ, α ,β ) h 1 σ γ + (r − s )σ 2 2 e R (µ, α ,β, γ ) − R (µ, α ) h 2 σ β + h 3 σ γ + (r − q )σ 2 2 2 e A partir dessas três equações calcula-se σ e2 ,σ β , σ γ2 . Os fatores h1 , h2 e h3 são ˆ ˆ2 ˆ obtidos pela expressão: E[R(θ2 θ1 )] = tr(W2 '(I-W1 (W1 'W1 )-W1 ')W2 E(θ2 θ2 ')) + I σ e2 [r(W) - r(W1 )] ˆ em que, as matrizes W1 e W2 são especificadas para cada equação. Não é necessário utilizar a quarta equação dada por R(µ,α,β,γ) - R(µ) cuja esperança seria h 4 σ α + h 5 σ 2 + h 6 σ 2 + (n − 1)σ 2 , Pois, supondo-se α como efeito fixo, 2 β γ e não se considera a existência de σ σ . 2 O Método III pode ser usado para qualquer modelo misto e produz estimadores que não são viesados. 6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML A estimação por máxima verossimilhança é uma método bem conhecido, originado por Fischer em 1925. Esse método foi o primeiro a ser aplicado em modelos mistos geral por HARTLEY e RAO (1967) O Método da Máxima Verossimilhança consiste em maximizar a função densidade de probabilidade das observações, em relação aos efeitos fixos e aos componentes de variância. Seja o modelo misto (1), dado por: y = Xβ +Zγ + e Assumindo que os efeitos aleatórios γi, i = 1, ..., r e e têm distribuição normal com média zero e matrizes de variâncias e covariâncias σi2 I m , ..., i=1, ..., r e σ 2 I n , respectivamente, o e
  • 26. Modelos Misto Prof. Jomar 24 vetor y terá distribuição normal multivariada, com média Xβ e matriz de variâncias e covariâncias, V, ou seja, y ~ N(Xβ, V) com: r r V = ∑ Z i Z′i σ 2 + σ 2 I =∑ Zi Z′i σ 2 l e l com σ 2 = σ 2 e Z0 =I 0 e i =1 i =0 A função de verossimilhança é: ′ L = ( 2π ) 2 V − 2 exp  − ( y − X β ) V −1 ( y − X β )  sendo V o determinante da matriz V. −n 1 1  2    Maximizando L em relação aos elementos de β e aos componentes de variância, os σ 2,s que ocorrem em V, obtém-se um sistema de equações que, resolvido, produzem os i estimadores de ML de β e σ 2 = {σ 2 } ll = r0 . Essas equações podem ser escritas como: l = ~ ~ ~ X ′V −1 X β = X ′ V −1 y e as equações são: ~ ( ) ( ~~ ) ~ ~ tr V −1 Zi Z′i = y − Xβ V −1 Z i Z′i V −1 y − Xβ ( ) para i = 0, 1, ..., r ~ As equações acima têm de ser resolvidas para β e ~ 2 , os elementos implícitos σ ~ em V . Claramente essas equações são não lineares nos elementos ~ 2 , contudo uma vez σ ~ obtido os valores ~ 2,s , eles podem ser usados para obter β . Essas equações são resolvidas σl numericamente, por iteração. Por conveniência escreve-se: P = V-1-V-1X(X'V-1X)-X'V-1 e r I = V −1 V = V −1 ∑ z i z ′ σl2 i l= 0 Assim, o conjunto das r + 1 equações anteriores pode ser descrito como: (~ ~ ) ~ (~ ~ tr V −1 Z i Z′i V −1 Z j Z′j σ 2 = y ′PZ i Z i′Py l )
  • 27. Modelos Misto Prof. Jomar 25 Fornecendo uma visualização mais fácil de um processo iterativo que as anteriores. ~ ~ Pode-se utilizar um valor inicial para ~ 2 em V e P , e resolver as equações acima e σ repetir o processo até que o critério de convergência seja satisfeito. O Método da Máxima Verossimilhança é iterativo e fornece sempre estimativas não negativas de componentes de variância, mas estas são viesadas porque o método não considera a perda de graus de liberdade resultante da estimação dos efeitos fixos do modelo. 6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML Esse processo é uma variante do processo de máxima verossimilhança, para modelos mistos e foi utilizada por PATTERSON e THOMPSON (1971) para delineamentos em blocos. Os estimadores REML são obtidos maximizando a parte da função de verossimilhança que é invariante ao parâmetro de locação: isto é, em termos do modelo misto y = Xβ+Zγ + e, é invariante para Xβ. Ou de outra maneira, os estimadores REML maximizam a função de verossimilhança de um vetor de combinações lineares das observações que são invariantes para Xβ. Seja Ly esse vetor. Então Ly = LXβ + Lzγ + Le é invariante a Xβ, se e somente se, LX = 0. Mas LX = 0, se e somente se, L = TM para M = I - X(X'X)-X' e algum T. Claramente, L deve ser de posto linha completo; e assim T também. Portanto rL = rT , e rL ≤ rM com rM = n - rX. As equações para a estimação REML de σ2 , para i, j = 0, 1, ..., r são: ( ~ ~ ) ( ~ ) ~ tr PZ i Z ′PZ j Z′j σ 2 = y ′PZ i Z′i Py i l ~ Note que essas equações são similares às equações ML, exceto por P em vez de ~ V −1 . No Método da Máxima Verossimilhança Restrita, cada observação é dividida em duas partes independentes uma referente aos efeitos fixos e outras aos efeitos aleatórios, de maneira que a função densidade de probabilidade das observações é dada pela soma das funções densidade de probabilidade de cada parte. A maximização da função densidade de probabilidade da parte referente aos efeitos aleatórios, em relação aos componentes de variância, elimina o viés resultante da perda de graus de liberdade na estimação dos efeitos fixos do modelo.
  • 28. Modelos Misto Prof. Jomar 26 As equações REML com dados balanceados são idênticas aos estimadores ANOVA que são não-viesados e de variância mínima. O estimador REML leva em conta os graus de liberdade envolvidos nas estimativas dos efeitos fixos, ao passo que os estimadores ML não. No caso de dados desbalanceados os estimadores ML e os estimadores REML são viesados SEARLE (1987). Os estimadores ML e REML dos componentes de variância não são formas explicitas, isto é, o estimador de cada componente está em função dos estimadores dos outros componentes, e só podem ser encontrados por métodos numéricos iterativos. 6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA- MINQUE RAO (l970, 1971 a, b, 1972) descreve um método de estimação que é derivado de modo que o estimador minimize a norma euclidiana da matriz núcleo, que seja uma forma quadrática das observações e que seja não-viesado. Seu desenvolvimento envolve álgebra extensiva e seu conceito utiliza valores escolhidos, a priori, para os componentes de variância desconhecidos. A estimação dos componentes de variância pelo método MINQUE, é feita com base na equação MINQUE, a seguir: tr (Pw Vi Pw Vj )σ 2 = (y ′Pw Vi Pw y ) ˆl sendo σ o vetor de componentes de variância. ˆ Pw = VW1 − VW1 (X' VW1 X) X' VW1 − − − − − Vw é uma estimativa a priori da matriz de variâncias e covariâncias. Este método tem duas vantagens: não envolve a suposição de normalidade como ML e REML. E as equações de MINQUE têm soluções explícitas (não tem de ser resolvidas iterativamente). Por outro lado, a solução depende do conhecimento a priori dos valores dos componentes de variância a serem estimados, ou seja, depende de valores estimados a priori usados em Vw. Assim, diferentes valores de Vw podem levar a diferentes estimativas para um mesmo conjunto de dados. Obtém-se portanto “um” estimador MINQUE e não “o” estimador MINQUE.
  • 29. Modelos Misto Prof. Jomar 27 Um relacionamento importante, que existe entre REML e MINQUE é que se o valor inicial no processo iterativo REML é Vw, então a primeira solução é uma estimativa MINQUE. 6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA - MIVQUE O método MINQUE não exige nenhuma suposição sobre a forma da distribuição da variável aleatória y. Mas se a suposição usual de normalidade é satisfeita, o estimador MINQUE tem a propriedade de ser uma forma quadrática não-viesada das observações com variância mínima, ou seja, é um estimador quadrático não-viesado de variância mínima, MIVQUE. SEARLE (1987). SWALLOW e MONAHAN (l984) descrevem o procedimento MIVQUE concordância com os valores estimados a priori Vw , MIVQUE(A) e MIVQUE(0). O estimador MIVQUE(A) usa as equações REML tomando as estimativas ANOVA como valores a priori. Embora a teoria MIVQUE especifique, que os valores a priori devam ser independentes dos dados, a literatura justifica o uso das estimativas ANOVA em decorrência da facilidade de obtenção. O estimador MIVQUE0 é o MIVQUE com a suposição a priori de que a matriz de variâncias e covariâncias é a matriz identidade. 6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) O estimador MINQUE utiliza valores estimados a priori em Vw, ou seja, uma estimativa a priori para V, matriz de variâncias e covariâncias. Nenhuma iteração está ~ envolvida. No entanto, obtida uma solução, por exemplo V1 , existe a idéia de usá-la como uma nova estimativa em Vw, a partir da qual um novo conjunto de equações pode ser ~ estabelecido e resolvido, produzindo V2 e assim sucessivamente. Isto leva a usar as equações MINQUE iterativamente. Além disso, BROWN (l976) mostra que sem suposição de normalidade sobre y, as soluções I- MINQUE têm propriedades de normalidade para grandes amostras.
  • 30. Modelos Misto Prof. Jomar 28 Bibliografia BROWN, K.G. Asymptotic behavior of MINQUE-type estimators of variance components. The Annals of Statistics,4, p.746-54, 1976. CUNNINGHAM,E.P. ; HENDERSON,C.R. an iterative procedure for estimating fixed effects and variance components in mixed model situations Biometrics 24:13-25, 1968. GRAYBIL,F.A. Theory and application of the linear model. Duxbury, North State, Massachusetts, 1976, __p. HARTLEY,H.O. ; RAO, J.N.K. Maximum likelihood estimation for the mixed analysis of variance model. Biometrika, 54, p. 93-108, 1967. HENDERSON,C.R. A simple method for computing the inverse of a numerator relationship matrix used in prediction of breeding values. Biometrics 32(3) :69-83, 1976. HENDERSON,C.R. Estimation of variance and covariance components, Biometrics, 17:226-52, 1953 HENDERSON,C.R. Rapid method for computing the inverse of a relationship matrix. J. Dairy Sci.,58(11):1727-30, 1975. HENDERSON,C.R. Use of an average numerator relationship matrix for multiple-sire joining. J. Anim. Sci.,66:1614-21, 1988. HENDERSON,C.R.; KEMPTHORNE,O.; SEARLE,S.R.; VON KROISIG,C.M. The estimation of environmental and genetic trends from records subject to culling. Biometrics 15(6):192-218, 1959. HICKS,C.R. Fundamental concepts in the design of experiment 2nd ed. New York, Holt, Rinehart and Winston, 1973. 349p. MARTINS,E.N.;LOPES,P.S.;SILVA,M. de A.; REGAZZI.A. J. Modelo linear misto UFV, Imprensa Universitária, 1993, 46p. NETER,J.;WASSERMAN,W.; KUTNER,M.H. Applied linear statistical models, regression, analysis of variance and experimental designs. Richard D. Irwing, Inc. 1985, 1127p. PATTERSON,H.D. ; THOMPSON,R. Recovery of inter-block information when block sizes are unequal. Biometrika, 58(3): 545-54, 1971.
  • 31. Modelos Misto Prof. Jomar 29 PERRI, S. H . V., Ajuste de Modelos Mistos de Classificação Dupla: Procedimentos do Sistema Estatístico “SAS”. Tese apresentada à Escola Superior de Agricultura “Luiz de Queiroz”, 1998. QUAAS,R.L. Computing the diagonal elements and inverse of a large numerator relationship matrix Biometrics, 32(12):949-53, 1976 QUAAS,R.L.; POLLAK,E.J. Mixed equations methodology for farm and ranch beed cattle testing programs. J.Anim. Sci., 53(6):1277-87, 1980 RAO,C.R. Estimation of heteroscedastic variance in linear models. Journal of the American Statistical Association, 65, p.161-72, 1970. RAO,C.R. Estimation of variance and covariance components – MINQUE Theory. Journal of Multivariate Analysis, 1, p.257-75, 1971 a. RAO,C.R. Estimation of variance and covariance components in linear models. Journal of Multivariate Analysis, 67, p.112-15, 1972. RAO,C.R. Linear statistical inference and its applications 2nd ed. New York, John Wiley & Sons, 1973 __p. RAO,C.R. Minimum variance quadratic unbiased estimation of variance components. Journal of Multivariate Analysis, 1, p.445-56, 1971 b. SEARLE, S.R. Another look at Henderson’s methods of estimating variance components. Biometrics, 24, p. 749-78, 1968. SEARLE, S.R. Linear Models for Unbalanced data. New York: John Wiley, 1987. 536p. SEARLE, S.R. Linear models. New York, John Wiley & Sons, 1971. 532p. SEARLE, S.R. Variance Component. New York, John Wiley & Sons, 1992. 501p. SWALLOW, W.H. ; MONAHAN, J.F. Monte Carlo comparison of ANOVA, MINQUE, REML, and ML estimators of variance components. Technometrics, 26, p.47-57, 1984. THOMPSON, R. Iterative estimation of variance components for non-orthogonal data. Biometrics, 26: 767-73, 1969.
  • 32. Modelos Misto Prof. Jomar 30