UNIVERSIDADE FEDERAL DO PARANÁ       DEPARTAMENTO DE ESTATÍSTICANota Metodológica sobre Modelos Lineares Mistos         Pr...
Modelos Mistos                                                                                                            ...
Modelos Misto                                                                   Prof. Jomar   1                           ...
Modelos Misto                                                                 Prof. Jomar   2yijk é o valor observado da p...
Modelos Misto                                                                             Prof. Jomar   3relação ao local ...
Modelos Misto                                                                                                             ...
Modelos Misto                                                                                 Prof. Jomar       5     1   ...
Modelos Misto                                                                   Prof. Jomar   6       Outra alternativa pa...
Modelos Misto                                                                                 Prof. Jomar       7         ...
Modelos Misto                                                                                           Prof. Jomar       ...
Modelos Misto                                                                Prof. Jomar   9e assim,Var (β o ) = ( X V −1 ...
Modelos Misto                                                                Prof. Jomar   10é a inversa da matriz de vari...
Modelos Misto                                                          Prof. Jomar   11[V-1 - V-1 X(X’V-1X)- X’ V-1]y = y ...
Modelos Misto                                                                                             Prof. Jomar   12...
Modelos Misto                                                                 Prof. Jomar   13testadores adequados para as...
Modelos Misto                                                                   Prof. Jomar   14inferência sobre efeitos f...
Modelos Misto                                                                Prof. Jomar   15termo associado com verossimi...
Modelos Misto                                                                 Prof. Jomar   166. Estimação de componentes ...
Modelos Misto                                                              Prof. Jomar   17distribuição dos dados, além da...
Modelos Misto                                                                         Prof. Jomar   186.2.1 - MÉTODO ANOVA...
Modelos Misto                                                                                                             ...
Modelos Misto                                                                Prof. Jomar   20para βº. Então considera o ve...
Modelos Misto                                                                       Prof. Jomar   21                      ...
Modelos Misto                                                                         Prof. Jomar   22                    ...
Modelos Misto                                                                               Prof. Jomar   23R (µ, α, β) = ...
Modelos Misto                                                                                      Prof. Jomar   24vetor y...
Modelos Misto                                                                      Prof. Jomar   25       Fornecendo uma v...
Modelos Misto                                                              Prof. Jomar   26       As equações REML com dad...
Modelos Misto                                                              Prof. Jomar   27       Um relacionamento import...
Modelos Misto                                                              Prof. Jomar   28BibliografiaBROWN, K.G. Asympto...
Modelos Misto                                                             Prof. Jomar   29PERRI, S. H . V., Ajuste de Mode...
Modelos Misto   Prof. Jomar   30
Próximos SlideShares
Carregando em…5
×

Apostila filho 2003 nota metodológica sobre modelos lineares mistos

617 visualizações

Publicada em

0 comentários
1 gostou
Estatísticas
Notas
  • Seja o primeiro a comentar

Sem downloads
Visualizações
Visualizações totais
617
No SlideShare
0
A partir de incorporações
0
Número de incorporações
2
Ações
Compartilhamentos
0
Downloads
26
Comentários
0
Gostaram
1
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

Apostila filho 2003 nota metodológica sobre modelos lineares mistos

  1. 1. UNIVERSIDADE FEDERAL DO PARANÁ DEPARTAMENTO DE ESTATÍSTICANota Metodológica sobre Modelos Lineares Mistos Professor Jomar Antonio Camarinha Filho CURITIBA - PARANÁ SETEMBRO/2003
  2. 2. Modelos Mistos i ÍNDICEMODELOS LINEARES MISTOS ...............................................................................................................................11. INTRODUÇÃO.............................................................................................................................................................12. DERIVAÇÃO DAS EQUAÇÕES DE MODELOS MISTOS...........................................................................33. SOLUÇÕES PARA OS EFEITOS FIXOS E PREDIÇÕES DOS EFEITOS ALEATÓRIOS ...............5 3.1 A LGUMAS PROPRIEDADES DAS SOLUÇÕES PARA OS EFEITOS FIXOS................................................................. 7 3.2. A LGUMAS PROPRIEDADES DA PREDIÇÃO PARA OS EFEITOS ALEATÓRIOS ...................................................... 94. ESPERANÇAS MATEMÁTICAS DOS QUADRADOS MÉDIOS .............................................................115. TESTES DE HIPÓTESES .......................................................................................................................................13 5.1. EFEITOS FIXOS....................................................................................................................................................... 13 5.2. EFEITOS ALEATÓRIOS........................................................................................................................................... 156. ESTIMAÇÃO DE COMPONENTES DE VARIÂNCIAS ..............................................................................16 6.1. DADOS BALANCEADOS................................................................................................................................ 16 6.2. DADOS DESBALANCEADOS ....................................................................................................................... 17 6.2.1 - MÉTODO ANOVA.....................................................................................................................................18 6.2.2 - MÉTODO I DE HENDERSON................................................................................................................18 6.2.3 - MÉTODO II DE HENDERSON ..............................................................................................................19 6.2.4 - MÉTODO III DE HENDERSON .............................................................................................................20 6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML.........................................................................23 6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML...............................................25 6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-MINQUE ........................26 6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -MIVQUE ................27 6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) ...............................................27BIBLIOGRAFIA.............................................................................................................................................................28
  3. 3. Modelos Misto Prof. Jomar 1 MODELOS MISTOS1. Introdução Um modelo linear que apresenta somente fatores de efeitos fixos, além do erroexperimental, que é sempre aleatório, é denominado modelo fixo. Esse tipo de modelo jáfoi amplamente estudado, existindo inúmeros livros abordando seus aspectos teóricos eaplicados, em vários níveis de complexidade, pode-se citar: SEARLE (1971), que enfatizadados desbalanceados; RAO (1973), aspectos matemáticos; GRAYBILL (1976), dadosbalanceados; NETER, WASSERMAN e KUTNER (1985), dentre outros. Os modelos que apresentam apenas fatores de efeitos aleatórios, exceto a constanteµ, que é sempre fixa, é denominado modelo aleatório. Um modelo misto é aquele que apresenta tanto fatores de efeitos fixos comoaleatórios, além do erro experimental e da constante µ. Quando um modelo é considerado misto, sua análise de variância apresentaalgumas peculiaridades, como a composição das esperanças matemáticas dos quadradosmédios, cujo conhecimento permite o estabelecimento correto dos testes de hipóteses,(HICKS, 1973). Caso o interesse do pesquisador resida na estimação dos componentes devariância, métodos adequados devem ser utilizados (HENDERSON,1953;CUNNINGHAM e HENDERSON, 1968; THOMPSON,1969; PATERSSON eTHOMPSON,1971). Outro motivo de se adotar um modelo linear misto é a possibilidade de se fazer apredição de efeitos aleatórios, na presença de efeitos fixos, através dos BLUP’s (best linearunbiased prediction) que são de grande valia em genética e melhoramentos. Para melhor compreensão das definições acima, considere o seguinte exemplo: Suponha um experimento no qual são avaliados 5 híbridos de milho (a, b, c, d, e),em 3 localidades no delineamento inteiramente casualizado com 4 repetições. Um modelopara análise deste experimento pode ser: y ijk = µ + β i + γ j + e ijk no qual,
  4. 4. Modelos Misto Prof. Jomar 2yijk é o valor observado da parcela que recebeu a k-ésima repetição do tratamento i, no local j;µ é uma constante inerente a todas as observações;β i é o efeito do híbrido i;γj é o efeito do local j;eijk é o erro aleatório associado a observação yijk .Supõem-se que β i e γj são independentes. Neste experimento estão sendo avaliados dois fatores: híbridos com cinco níveis elocais com três níveis. Os efeitos desses fatores podem ser classificados como fixos oualeatórios, em função do interesse do pesquisador. Se um determinado fator é consideradode efeito fixo, naturalmente, o interesse do pesquisador será estimar e testar hipótesessobre combinações lineares dos níveis do mesmo. Por outro lado, caso o efeito desse fatorseja considerado aleatório, o interesse residirá na estimação de componentes de variânciase covariâncias associada a esse fator, uma vez que seus níveis são considerados comosendo uma amostra aleatória de certa população, a qual se deseja avaliar. No intuito de ilustrar melhor esses conceitos, considere as seguintes situaçõesreferentes ao experimento em questão:i) O pesquisador deseja inferir qual, dentre os três locais estudados, apresenta melhor produtividade. Note que ele está interessado apenas nos três locais estudados, e quer saber qual deles é o melhor. Nesta situação, o efeito de locais é considerado fixo, sendo então estimadas e testadas hipóteses sobre combinações lineares dos níveis deste fator, como por exemplo: β 1 - β2 = 0 (se estimável).ii) Uma outra possibilidade a ser considerada é o caso do pesquisador estar interessado apenas em verificar se existe uma variabilidade entre os locais, em relação à produção de milho. Neste caso, os níveis estudados (três locais) são apenas uma amostra aleatória da população de locais nos quais poder-se-ia plantar milho. Nessa situação, o efeito de locais é considerado aleatório, não havendo portanto interesse em se testar combinações lineares de seus níveis, mas sim, estimar e testar sua variabilidade (por meio de seus componentes de variância). No exemplo anterior, suponha que o pesquisador esteja interessado em verificarqual o melhor dos híbridos avaliados e se existe uma variabilidade de sua produção em
  5. 5. Modelos Misto Prof. Jomar 3relação ao local onde foi cultivado, nesse caso ter-se-ia um modelo misto com híbridosfixo e locais aleatório.2. Derivação das equações de modelos mistos Seja o modelo: y ijk = µ + β i + γ j + e ijk ,no qualy ijk é a observação referente à k-ésima repetição do nível i de uma fonte de efeitos fixos ao nível j de uma fonte de efeitos aleatórios;µ é uma constante inerente a todas observações;βi é o efeito do nível i do fator fixo; i = 1, ..., p;γ j é o efeito do nível j, do fator aleatório, no nível i do fator fixo, j = 1, ..., q;e ijk é erro aleatório associado a observação y ijk .Que em termos matriciais pode ser escrito como: y = X β + Zγ + eem que, n y1 é o vetor de observações; n Xp+1 é a matriz de incidência dos efeitos fixos (conhecida); p+1β1 é o vetor de efeitos fixos desconhecidos; n Zq é a matriz de incidência dos efeitos aleatórios (conhecida); qγ 1 é o vetor de efeitos aleatórios desconhecidos; n e1 é o vetor de erros aleatórios. Assumindo-se que os efeitos aleatórios e os erros (resíduos) têm distribuiçãonormal com média zero e são não correlacionados, com matrizes de variâncias ecovariâncias dadas por: Var (γ) = E(γγ’) = D e
  6. 6. Modelos Misto Prof. Jomar 4 Var (e) = E(ee’) = RDeste modo, tem-se que: V = Var (y) = Var ( X β + Zγ + e ) = ZDZ’+ RAssume-se ainda que V é não singular, e E(y) = E( X β + Zγ + e ) = Xβ ,assim, y ~ N( Xβ; ZDZ + R) A derivação das equações de modelos mistos pode ser feita pela minimização dasoma de quadrados dos resíduos ou pela maximização da função densidade deprobabilidade conjunta de y e γ. Aqui será adotada a segunda forma, considerando que adistribuição seja normal. A função densidade de probabilidade de y é dada por: f (y, γ ) = e 2 [( y − X β )( ZDZ + R ) (Y − xβ )] 1 −1 −1 ( 2π) n /2 [ZDZ + R ] 1/ 2 A função densidade de probabilidade conjunta de y e γ pode ser escrita como oproduto entre a função densidade condicional de y, dado γ, e a função densidade deprobabilidade de γ. f ( y, γ ) = f ( y / γ) ⋅ f ( γ)f ( y, γ) = 1 e− 1 2 [(y − Xβ −Zγ )( R) −1 ( y − Xβ −Z γ) ]⋅ 1 e − 2 [( γ − 0)( D) 1 −1 (γ − 0 ) ] ( 2π) 2 [ R ] 2 ( 2π) 2 [ D] n 1 1 1 2 Para se proceder à maximização de f(y,γ), pode-se usar o artifício da transformaçãopor logaritmo. Isso é possível, visto que, sendo f(y,γ) e log [f(y,γ)] funções contínuas e +crescentes no espaço R , seus pontos de máximo são coincidentes dentro do espaço de[β’γ’] e ZDZ’+ R. Assim, fazendo-se L= log[f(y,γ)], tem-se:
  7. 7. Modelos Misto Prof. Jomar 5 1 1 1L= 2 n log( 2π) − (log R + log D) − ( y R −1 y − 2y R −1 Xβ − 2 y R −1 Zγ + 2β X R −1 Zγ 2 2 2 + β X R −1 Xβ + γ Z R −1 Zγ + γ D −1 γ) Derivando-se L em relação a β e γ, e tornando-se tais derivadas identicamentenulas, obtêm-se: ∂L  ∂β  − X R −1 y + X R −1 Xβ o + X R −1 Zγ ˆ  0 =  =  ∂L  − Z R y + Z R Xβ + Z R Zγ + D γ  0  −1 −1 o −1 ˆ −1 ˆ ∂γ  X R −1 Xβ o + X R −1 Zγˆ   X R −1 y  = − Z R −1 Xβ o + Z R −1 Zγ + D −1 γ  Z R −1 y  ˆ ˆ  X R −1 X X R −1 Z  β o  X R −1 y    =  − Z R −1 X Z R −1 Zˆ + D −1   γ  Z R −1 y  γ  ˆ   Essas são as equações de modelos mistos (MME), que permitem obter soluçõespara os efeitos fixos (β o ) e predições para os efeitos aleatórios ( γ ) ˆ3. Soluções para os efeitos fixos e predições dos efeitos aleatórios A solução do sistema de equações de modelos mistos pode ser obtida por absorçãoou por obtenção da matriz inversa por partição. Em ambos os casos, os resultados serão: { } −βo = X[ R −1 − R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 ]X X[ R −1 − R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 ] yˆ = ( Z R −1 Z + D−1 ) −1 Z R −1 ( y − Xβ o ) .γ
  8. 8. Modelos Misto Prof. Jomar 6 Outra alternativa para se obter soluções para os efeitos fixos é pelo uso de ummodelo linear generalizado, ignorado-se os efeitos aleatórios, como a seguir:Dado o modelo y = X β + Zγ + e ,anteriormente descrito, e com Var (y) = ZDZ’+ R, tem-se que o sistema de equaçõesnormais generalizada é dado por: X V −1 X β o = X V −1 y ,cuja solução é: β o = ( X V −1 X ) − X V −1 ye a predição de γ seria obtida por: ˆ = DZ V −1 ( y − Xβ o ) γ V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1 Segundo SEARLE (1971), a desvantagem de se utilizar a segunda opção, queenvolve o cálculo de V-1 é de ordem computacional, uma vez que a dimensão de V é igualao número de observações, que muitas das vezes, principalmente na área de melhoramentogenético, chega a ser de algumas centenas. No caso de modelos fixos, V usualmenteassume a forma In σ2 ou, é pelo menos diagonal. Nesse caso a obtenção de V-1 é simples.Mas em geral, V = ZDZ’+R não é diagonal, e deste modo a obtenção de V-1 não é fácil.Segundo MARTINS et all. (1993), obter R-1Z(Z’R-1Z+D-1)-1Z’R-1 é mais simples. Pois R-1pode ser facilmente obtida por I ⊗ R −1 , onde R0 é a matriz de variância e covariância 0residual q x q, entre as q médias que compõem uma observação. D por A − 1 ⊗ D− 1 , em -1 oque Do é a matriz de variância e covariância, q x q, entre os efeitos aleatórios nas qmedidas que compõem uma observação, e A é a matriz de correlação, n x n, entre osefeitos aleatórios das n observações. Apesar da matriz A não possuir estrutura simples,como ocorre na maioria das vezes, para aplicações em melhoramento animal, existem
  9. 9. Modelos Misto Prof. Jomar 7 -1algoritmos eficientes para obtenção direta de A (HENDERSON, 1975; 1976 e 1988;QUAAS, 1976). Mesmo assim persiste a necessidade de se obter (Z’R-1Z + D-1)-1 , que, adespeito de possuir as mesmas dimensões de V, pode ser obtida por processos iterativoscom a vantagem de rápida convergência em razão da dominância dos elementos dadiagonal causada pela adição de D-1 a Z’R-1Z. Nos casos de distribuição multivariada,elementos dominantes podem estar fora da diagonal. Nesses casos, processos que usamiteração em blocos garantem a rápida convergência, porque os elementos dominantespassarão a estar nos blocos (QUAAS e POLLAK, 1980).3.1 Algumas propriedades das soluções para os efeitos fixosa) A solução β o , obtida pelas MME é também uma solução de Mínimos Quadrados Generalizados (GLS), utilizando o modelo que ignora os efeitos aleatórios.Prova:Foi visto que uma solução de mínimos quadrados generalizados para y = Xβ + e é:β o = ( X V −1 X ) − X V −1 y .Das equações de modelos mistos (MME),X R −1 X X R −1 Z  β o   X R −1 y   =  ,− Z R −1 X Z R −1 Zγ + D −1   γ   Z R −1 y  ˆ  ˆ  tem-se que: { }−βo = X[ R −1 − R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 ]X X[ R −1 − R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 ] yˆ = ( Z R −1 Z + D−1 ) −1 Z R −1 ( y − Xβ o ) ,γsubstituindo γ em: ˆX R −1 Xβo + X R −1 Zγ = X R −1 y , ˆ
  10. 10. Modelos Misto Prof. Jomar 8tem-se:X R −1 Xβo + X R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 ( y − Xβ o ) = X R −1 yX R −1 Xβo + X R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 y − X R −1 Z( Z R −1 Z + D −1 ) −1 Z R − 1 Xβ o = X R −1 y[ X R −1 X − X R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 X ]β o = [ X R −1 − X R −1 Z ( Z R −1 Z + D −1 ) −1 Z R −1 ]yX [R −1 − R −1 Z( Z R −1 Z + D −1 ) −1 Z R −1 ]Xβ o = X [ R −1 − R −1 Z ( Z R −1 Z + D −1 ) −1 Z R −1 ] yβ o = {X [ R −1 − R −1 Z ( Z R −1 Z + D −1 ) −1 Z R −1 ]X} − X [R −1 − R −1 Z ( Z R −1 Z + D −1 ) −1 Z R −1 ]ysabendo-se que V −1 = R −1 − R −1 Z ( Z R −1 Z + D −1 ) −1 Z R −1 , (HENDERSON et all, 1959)então,β o = ( X V −1 X ) − X V −1 yb) A variância de β o e dada por:Var (β o ) = Var [( X V −1 X) − X V −1 y] . = (X’V-1X)-X’V-1Var(y)V-1X(X’V-1X)- = (X’V-1X)-X’V-1VV-1X(X’V-1X)- = (X’V-1X)-X’V-1X(X’V-1X)-Uma vez que X’V-1X é uma matriz simétrica, a escolha apropriada de uma inversageneralizada também simétrica, leva à igualdade (SEARLE, 1971): = (X’V-1X)-X’V-1X(X’V-1X)- = (X’V-1X)- ,
  11. 11. Modelos Misto Prof. Jomar 9e assim,Var (β o ) = ( X V −1 X) − = {X’[R-1-R-1Z(Z’R-1Z+ D-1)-1Z’R-1]X} - = [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]-.c) Para um dado conjunto p de funções estimáveis, linearmente independentes, estabelecidas por uma matriz conhecida λ, a variância de λ’β o , (BLUE) de λ’β é dada por:Var (λ’β o ) = λ’Var (β o ) λ = λ’ [(X’V-1X)-X’V-1X(X’V-1X)-] λ = λ’ [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]- λ .3.2. Algumas propriedades da predição para os efeitos aleatóriosa) O preditor γ é o Melhor Preditor Linear Não-Viesado (BLUP) de γ. ˆ Segundo MARTINS et all. (1993), o termo predição refere-se a fatores aleatórios ea Melhor Predição Linear Não-Viesada pode ser, resumidamente, definida como resultadoda regressão dos efeitos de um fator aleatório (γ) em função das observações (y) corrigidaspara os efeitos dos fatores fixos (Xβ), como dado na seguinte expressão; γ = DZ’(ZDZ’ + R)-1(y - Xβ o ) ˆ = DZ’V-1(y - Xβ o ) Observa-se que o termo DZ’(ZDZ’ + R)-1 é o conjunto de coeficientes de regressãode γ em função de y, uma vez que DZ’ é a matriz de covariâncias entre γ e y. (ZDZ’ + R)-1
  12. 12. Modelos Misto Prof. Jomar 10é a inversa da matriz de variância de y, enquanto o termo (y - Xβ o ) contém os valores dasobservações, y, corrigidas para os efeitos fixos Xβ. Pelas MME, γ é dado por ˆγ = (Z’R-1Z + D-1)-1Z’R-1(y - Xβ o ).ˆEntão, se a igualdade:DZ’(ZDZ’+ R)-1 = (Z’R-1Z + D-1)-1Z’R-1for verdadeira, γ , obtido pelas MME, é o BLUP de γ. A prova desta igualdade foi ˆapresentada por HENDERSON et all. (1959).b) A variância de γ é dada por ˆ Var ( γ ) = Var [DZ’V-1(y - Xβ o )] ˆ = DZ’V-1Var(y - Xβ o )V-1ZD’ = DZ’V-1[Var(y) - 2Cov(y,β o’X’) + Var (Xβ o )] V-1ZD’;mas Cov (y,β o’X’) = Var (Xβ o ); então, Var( γ ) = DZ’V-1[Var(y) - Var (Xβ o )] V-1ZD’ ˆ = DZ’V-1[V - X(X’V-1X)- X’ ] V-1ZD’ = DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’ Pode-se notar que a expressão V-1 - V-1 X(X’V-1X)- X’ V-1é o complemento do projetor ortogonal de y no espaço coluna de X, o que significa que
  13. 13. Modelos Misto Prof. Jomar 11[V-1 - V-1 X(X’V-1X)- X’ V-1]y = y - Xβ oobs. V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1c) A variância do erro de predição é dada por: γ γ γVar (γ - ˆ ) = Var (γ ) - 2 Cov (γ, ˆ ’) + Var( ˆ ),mas, Cov (γ, γ ’) = Var( γ ), então, ˆ ˆVar (γ - γ ) = Var (γ ) - Var( γ ) ˆ ˆ = D - DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’d) A correlação entre os valores reais e preditos é máxima. Segundo HENDERSON (1977 e 1984) dentre uma classe de funções lineares que γgera predições não viciadas, o BLUP maximiza a correlação (γ - ˆ ) .4. Esperanças matemáticas dos quadrados médios Dado o modelo: y = Xβ + e,com Var(y) = V,tem-se que a esperança de uma forma quadrática y’Qy é dada por: E(y’Qy) = tr (QV) + E(y’)QE(y).SEARLE (1971) apresenta a dedução da expressão da esperança matemática de uma formaquadrática para modelos mistos, como mostrado a seguirDado o modelo misto: Y=Xθ + e,
  14. 14. Modelos Misto Prof. Jomar 12Em que θ’ = [β’1 γ’A γ’B ... γ’k ]No qual,β’1 contém todos os efeitos fixos do modelo, inclusive a constante (µ)γ’ representa um conjunto de efeitos aleatórios dos fatores A, B, ... , K respectivamente,este modelo pode ser escrito na forma: y = X1 β1 + XA γA + XB γB ... XK γk + e k y = X 1 β1 + ∑ X i γ i + e i= A Assumindo-se que os efeitos do modelo são independentes, com média zero ecovariâncias entre os efeitos aleatórios nulas, tem-se que: E(y) = X1 β1 k V = Var(y) = ∑ X Var (γ )X i i | i + Iσ 2 i= A Assumindo-se que os efeitos aleatórios são não correlacionados e têm variânciasuniformes ( σ 2 ), então, i k V = Var(y) = ∑X X σ i | i 2 i + Iσ 2 , i= A E a esperança matemática de uma forma quadrática y’Qy é; k E(y’Qy) = (X1 β)’QX1β + ∑σ 2 i tr (X i X i| ) + σ 2 tr ( Q) i= A A partir da expressão acima, torna-se possível a obtenção das esperançasmatemáticas dos quadrados médios, que são de grande valia na determinação dos
  15. 15. Modelos Misto Prof. Jomar 13testadores adequados para as hipóteses tanto sobre efeitos aleatórios quanto fixos, nosmodelos mistos.5. Testes de hipóteses Conhecendo-se as expressões das esperanças matemáticas dos quadrados médios,pode-se facilmente identificar os quadrados médios dos denominadores (testadores),quando da realização do teste F. Uma vez que a esperança do quadrado médio dodenominador apropriado deve ser aproximadamente igual à esperança do quadrado médiodo numerador, a menos do efeito a ser testado, como exemplificado a seguir: F. V. E (QM) A σ 2 + 1,7143 σ 2 + φ 2 AB A B σ 2 + 1,7684 σ 2 + 2,6526 σ 2 AB B A*B σ 2 + 1,7143 σ 2 AB Resíduo σ2 Para se testar φ 2 = 0 o denominador apropriado será o QM (A*B). Para se testar Ase σ 2 = 0 o denominador adequado será o QMRes. ABOutras alternativas são:5.1. Efeitos fixos Para inferências relativas aos parâmetros de efeitos fixos e aleatórios no modelomisto, considera-se as combinações lineares estimáveis da seguinte forma: β L  .  γFunções dessa natureza são ditas estimáveis se a parte fixa β satisfaz a exigência deestimabilidade, uma vez que qualquer combinação linear de γ é estimável. Tipicamente,
  16. 16. Modelos Misto Prof. Jomar 14inferência sobre efeitos fixos é o foco e neste caso, a porção γ de L é assumida igual azero. Inferências estatísticas são obtidas para testar as hipóteses: β H : L  = φ γ ou para a construção de intervalos estimados. Quando L consiste de apenas uma linha, uma estatística t pode ser construída comosegue: β ˆ L  γ t=   ˆ ˆ LCL Sob a pressuposição de normalidade de γ e ε , t tem uma distribuição t exatasomente para dados exibindo certos tipos de balanceamento e para alguns casos especiaisdesbalanceados. Em geral t é somente aproximadamente distribuída e seus graus deliberdade devem ser estimados. Se considerarmos ν como graus de liberdade estimado, o intervalo de confiança ˆassociado é o seguinte: β ˆ L   ± t ν ,α / 2 LCL , ˆ γ ˆ  ˆem que, t ν,α / 2 é o percentil (1 - α/2)% da distribuição t ν . Quando o rank de L é maior que ˆ ˆ1, deve-se considerar a seguinte estatística F : ( ) β ˆ −1 β ˆ ˆ   L L C L L  γ γ  F=  ˆ ˆ rank ( L)Análogo a t, F em geral tem uma distribuição F aproximada com rank (L) graus deliberdade no numerador e ν graus de liberdade no denominador. ˆ As estatísticas t e F permitem fazer inferências sobre os efeitos fixos, estimadospara o modelo de variância e covariância selecionado. Uma alternativa é a estatística χ 2associado com o teste da razão de verossimilhança. Essa estatística compara dois modeloscom efeitos fixos, um como caso especial do outro. Ela só é calculada quando comparamosdiferentes modelos covariância, embora deva-se usar ML e não REML por que falta o
  17. 17. Modelos Misto Prof. Jomar 15termo associado com verossimilhança restrita que depende da especificação dos efeitosfixos.5.2. Efeitos aleatórios Para inferências relativas aos parâmetros de efeitos aleatórios do modelo, pode-seusar estatísticas fundamentadas na verossimilhança. Uma dessas estatísticas é a Z de Wald,que é calculada com o parâmetro estimado dividido por seu erro padrão assintótico. Oserros padrões assintóticos são obtidos a partir da inversa da matriz de derivada segunda daverossimilhança, em relação a cada um dos parâmetros de efeito aleatório. A estatística Zde Wald é válida para grandes amostras, mas ela pode ser incerta para pequenos conjuntosde dados e para parâmetros tais como componentes de variância, que apresentam umadistribuição assimétrica ou distribuição amostral limite. Uma alternativa melhor é a razão de verossimilhança χ 2 . Essa estatística comparadois modelos de covariância, um como caso especial do outro. Para realizar esse teste,ajusta-se o modelo completo e o modelo reduzido e então subtrai-se os valorescorrespondentes a -2 vezes o log verossimilhança. Pode-se usar o ML ou REML paraconstruir esta estatística que testa se o modelo completo é melhor do que o modeloreduzido. A estatística χ 2 calculada desta forma tem uma distribuição amostral, que é χ 2 ,sendo que os graus de liberdade são dados pela diferença no número de parâmetros entreos dois modelos. Um exemplo comum desse caso ocorre no teste para se verificar se umcomponente de variância é igual a 0. Uma possibilidade final para obter inferências relativas aos parâmetros decovariância é simular ou reamostrar dados do modelo e construir distribuições amostraisempíricas dos parâmetros.
  18. 18. Modelos Misto Prof. Jomar 166. Estimação de componentes de variâncias Componentes de variância são as variâncias associadas aos efeitos aleatórios de ummodelo, sendo que o seu conhecimento é de grande importância em genética emelhoramento, pois a população e o método de melhoramento a serem utilizadosdependem de algumas informações que podem ser obtidas a partir desses componentes. No caso de modelos mistos, a solução das MME, depende do conhecimento damatriz de variâncias e covariâncias V, cuja estrutura é conhecida, porém, via de regra, seuscomponentes não o são. Desse modo, torna-se necessário substituí-los por suas estimativas. Existem vários métodos de estimação de componentes de variâncias, dentre osquais podemos destacar: o Método da Análise da Variância, os Métodos de Henderson,MINQUEO, MIVQUE, Máxima Verossimilhança (ML) e Máxima VerossimilhançaRestrita (REML). Considerando-se que a estimação dos componentes de variância é um tópico muitoextenso e complexo para um relato completo e detalhado, optou-se por apresentar nessetrabalho um breve levantamento dos métodos disponíveis na literatura. Começando comdados balanceados, por ser o caso mais simples, e fornecendo subsídios para muitasmetodologias para o tratamento de dados desbalanceados. Para um estudo maisaprofundado recomenda-se SEARLE (1992).6.1. DADOS BALANCEADOS A estimação dos componentes de variância para dados balanceados é quase semprefeita pelo método da análise de variância, ANOVA. Esse método obtêm estimadoresigualando-se as somas de quadrados, ou quadrados médios, de um quadro de análise devariância aos seus respectivo valores esperados, que são combinações lineares doscomponentes de variância. Portanto, esse método produz equações lineares doscomponentes de variância, cujas soluções são tomadas como os estimadores dos referidoscomponentes. A aplicação do método ANOVA para dados balanceado, para qualquer modelo édireta e detalhes para muitos casos particulares estão disponíveis em diversos textos. Emquase todos os casos os cálculos exigidos são fáceis. Além disso, nenhuma suposição da
  19. 19. Modelos Misto Prof. Jomar 17distribuição dos dados, além das suposições básicas sobre as variâncias e covariâncias jámencionadas é exigida. Os estimadores ANOVA apresentam muitas propriedades, são sempre não-viesadose têm variância mínima. Como uma desvantagem pode-se citar o fato de que esse métodonão exclui a ocorrência de estimativas negativas. Claramente, uma estimativa negativa deum parâmetro, uma variância, que por definição é positiva é um "embaraço". Contudo, issopode acontecer até mesmo com dados reais. Maiores detalhes dessas e outras propriedadesdos estimadores são apresentadas em SEARLE (l971 e 1987).6.2. DADOS DESBALANCEADOS O principal problema com a estimação dos componentes de variância para dadosdesbalanceados ocorre porque muitos métodos de estimação estão disponíveis e escolherum deles pode não ser uma questão tão simples. Em decorrência do avanço tecnológico, da facilidade em adquirir e utilizar osrecursos da área de informática, a escolha prática tem estado entre um dos dois métodosfundamentados na máxima verossimilhança, até que ocorra maior aceitação de outrasmetodologias. Serão apresentados, resumidamente, os seguintes métodos:*ANOVA Análise de Variância*Método de Henderson I*Método de Henderson II*Método de Henderson III*ML: Máxima Verossimilhança*REML: Máxima Verossimilhança Restrita*MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima*MIVQUE. Estimador Quadrático Não-Viesado de Variância Mínima* I-MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima Iterativo
  20. 20. Modelos Misto Prof. Jomar 186.2.1 - MÉTODO ANOVA O princípio do método ANOVA usado com dados balanceados pode sergeneralizado para dados desbalanceados. A generalização é usar qualquer forma quadráticaem lugar das somas de quadrados. Seja o vetor de componentes de variância que serão estimados e seja q um vetor damesma ordem de σ2 , de qualquer forma quadrática linearmente independente dasobservações. Suponha que q é tal que:E(q) = Cσ2para alguma matriz C não singular,σ2 = C -1qé um estimador não-viesado de σ2 .A matriz de dispersão de σ 2 é: ˆ ( ) var σ 2 = C −1 var (q )C −1 ˆ ′em que os elementos de var (q) são variâncias e covariâncias das formas quadráticasusadas como elementos de q. SEARLE (l987) apresenta esse método e discute as suasvantagens e desvantagens.6.2.2 - MÉTODO I DE HENDERSON HENDERSON (1953) descreve três métodos para estimar componentes devariância que são exatamente três diferentes maneiras de usar o método ANOVA geral.Eles diferem somente nas diferentes formas quadráticas que nem sempre são as somas dequadrados usadas em q. Os métodos podem produzir estimativas negativas. No método I, as formas quadráticas usadas são análogas às somas de quadradosusadas para dados balanceados, a analogia é tal que somas de quadrados em dadosbalanceados se tornam, para dados não balanceados, em formas quadráticas que não sãonecessariamente, somas de quadrados, pois nem sempre são não negetivas, devido àestrutura não balanceada dos dados. Assim, por exemplo, para o modelo: y ijk = µ + α i + β j + γ ij + ε ijkcom i = 1, 2, ..., I; j = 1, 2, ..., J; k = 1, 2, ..., n, as somas de quadrados,
  21. 21. Modelos Misto Prof. Jomar 19 ∑ Jn (y − y • •• ) = ∑ Jny − IJ y 2••• 2 2 i• • i• • i ise tornam, para dados desbalanceados, ∑ n (y − y • •• ) = ∑ n i • y 2•• − n •• y 2• •• 2 i• i •• i i i O Método I de Henderson utiliza o lado direito dessa equação. A soma de quadrados para a interação, para dados balanceados é ∑ ∑n ij• (y ij• − y i • • − y • j• + y • •• ) 2 = n ∑∑ y 2 • − Jn ∑ y 2• • − In ∑ y 2• j• + IJny 2• •• ij i i j i j i j A expressão, análoga a esse lado direito, para dados desbalanceados, utilizada peloMétodo I de Henderson é: ∑ ∑n i j ij y 2 • − ∑ n i • y 2• • − ∑ n • j y 2 j • + n • • y 2• • ij i i • j • O método I de Henderson consiste em igualar os quadrados médios às suasesperanças matemáticas e resolver o sistema de equações formado. Esse método forneceestimativas não-viesadas, com variância mínima, quando os dados são balanceados ou omodelo é aleatório e os efeitos não correlacionados. O método I de Henderson não pode ser usado para modelos mistos. Pode seradaptado a um modelo misto, alterando o modelo e tratando os efeitos fixos como nãoexistentes ou como aleatórios, neste caso os estimadores dos componentes de variância dosverdadeiros efeitos aleatórios são não-viesados.6.2.3 - MÉTODO II DE HENDERSON O Método II de Henderson, é projetado para ter a facilidade computacional doMétodo I e ampliar seu uso removendo a limitação do método I, que não pode ser usadopara modelos mistos. O método tem duas partes. Primeiro faz a suposição temporária que βos efeitos aleatórios são fixados, e para o modelo y = X + Zγ + e como anteriormentedefinido, resolve as equações normais: X ′X X ′Z βº  X ′y  ˆ  Z ′X Z′Z   ˆ  =  Z ′y    γ   
  22. 22. Modelos Misto Prof. Jomar 20para βº. Então considera o vetor de dados ajustado para βº, isto é z = y - Xβº. Sob certascondições, SEARLE (1968), o modelo para z será: z = lµº + Zγ + Ke em que µº difere deµ e K é conhecido. Então aplica-se o Método I para z. Portanto, o método II de Henderson, consiste em estimar, em primeiro lugar, osefeitos fixos, então, aplica o Método I para os resíduos restantes. Para que os estimadoresresultantes sejam não tendenciosos. É necessário que os resíduos dependam apenas dosfatores aleatórios, a menos de uma constante que pode ser incluída no modelo. SEARLE(l968) fazendo estudo dos métodos de Henderson, mostrou as condições que devesatisfazer um estimador dos efeitos fixos para que os resíduos não dependam dessesefeitos. Há dois inconvenientes nesse método. Um deles é o fato de não haver uma únicasolução e outra limitação consiste em não poder adotar modelos que incluam interaçõesentre os efeitos fixos e aleatórios (SEARLE, 1968).6.2.4 - MÉTODO III DE HENDERSON O Método III de Henderson, também chamado método de ajuste de constantes, usaas reduções nas somas de quadrados do modelo completo e de submodelos para estimar oscomponentes de variância. Para deduzir o método, considere o modelo y = Xβº + Zγ + e = Wθ + e A matriz W pode ser particionada como [W1 W2 ], e θ pode ser particionada como[θ′1 θ′2 ] de acordo com W, ou seja o modelo é rescrito como: y = W1 θ1 + W2 θ2 + e Note que nenhuma suposição é feita sobre o particionamento de W e θ no que serefere a efeitos fixos ou aleatórios. Chamando R(θ1 ,θ2 ) e R(θ1 ), respectivamente, às respectivas reduções nas somas dequadrados do modelo completo e do submodelo y = W1 θ1 +e, tem-se:
  23. 23. Modelos Misto Prof. Jomar 21 R(θ1 θ2 ) = R(θ1 ,θ2 ) - R(θ1 )e portanto E[R(θ1θ2 ) = E[R(θ1 ,θ2 )] - E[R(θ1 )]Mas R(θ1 ,θ2 ) = yW(WW)-Wy e R(θ1 ) = yW1 (W1 W1 )-W1 yIsto é,R(θ1 ,θ2 ) e R(θ1 ) são formas quadráticas de y, e tem-se:E[R(θ1 ,θ2 )] = E[yW(WW)-Wy] = tr[W(WW)-Wvar(y)] + E(y)W(WW)-WE(y)Mas, E(y) = E(Wθ + e) = WE(θ) e var(y) = (Wθ + e) = Wvar(θ)W + σe I 2Logo:E[R(θ1 ,θ2 )] = tr[W(WW)-WWvar(θ)W + W(WW)-W σe I] + E(θ)WW(WW)-WWE(θ) 2 = tr[WWvar(θ)] + σe tr[W(WW)-W + E(θ)WWE(θ) 2 = tr{WW[E(θθ)-E(θ)E(θ)]} + σe tr[W(WW)-W] +tr(E(θ)WWE(θ)} 2Portanto,E[R(θ1 ,θ2 )] = tr{WWE(θθ)} + σe tr[W(WW)-W] 2ou  W ′ W W1′ W2  E[R(θ 1 , θ 2 )] = tr  1 1  ′ E (θθ ′ ) + σ 2 r (W ) W2 W1  ′ e  W 2 W1  onde r(W) é o posto da matriz W. De modo análogo:E[R(θ1 )] = tr{WW1 (W1 W1 )-W1 WE(θθ)} + σe tr[W1 (W1 W)-W1 ] 2  W ′ W W1′ W2  E[R(θ 1 )] = tr  1 1  ′ E (θ θ′ ) + σ 2 r (W1 ) W2 W1 (W1′ W1 ) W1′ W2  − ′ e  W2 W1   Portanto R(θ2 θ1 ) = R(θ1 ,θ2 ) - R(θ1 ) é dado por:
  24. 24. Modelos Misto Prof. Jomar 22  φ φ  E[R (θ 2 θ 1 )] = tr   φ W ′ W (W ′ W ) − W ′ W E(θθ′) + σ e [r (W ) − r( W1 )]  2  2 1 1 1 1 2  ou E[R(θ2 θ1 )] = tr{W 2 [I-W1 (W1 W1 )-W1 ]W2 E(θ2 θ2 )} + σe [r(W) - r(W1 )] 2 Note que [R(θ2 θ1 )] não envolve θ1 e portanto E[R(θ2 θ1 )] não depende do vetorde efeitos θ1 , sejam eles fixos ou aleatórios. Assim, o Método III de Henderson, consiste em encontrar os estimadores para oscomponentes de variância, montando um sistema de equações a partir das diferenças entreas reduções do modelo completo e um submodelo. Igualando-as, assim, às suas respectivasesperanças. Para modelos mistos esse método é particularmente vantajoso porque, se tomar ovetor θ1 como o vetor dos efeitos fixos e θ2 como vetor dos efeitos aleatórios, E[R(θ2 θ1 )]não conterá termos devido a esses efeitos fixos, a esperança é apenas função de σe e das 2variâncias dos efeitos aleatórios em θ2 , ou seja, os próprios componentes que se desejaestimar. Para exemplificar o método, considere o modelo y = µ1 + X1 α + X2β + X3 γ + eonde µ é uma constante, α é o vetor de efeitos fixos, β e γ são os vetores de efeitosaleatórios. Nesse caso, a matriz W pode ser escrita como W=[1 X1 X2 X3 ] eR(µ,α,β,γ) = yW(WW)-Wy com r(W) = r Considere os submodelos, dados por: y = µ1 + e y = µ1 + X1 α +e y = µ1 + X1 α + X2β + e Sejam as reduções correspondentes:R (µ ) = y ′1(1′ 1)− 1′y = y ′1(n )−1 1′ y = 1 y ′Jy com r(W1 ) = r(J) = 1 nR (µ, α ) = y ′W1 ( W1′ W1 )W1′ y com W1 = [1 X1 ] e r(W1 ) = q
  25. 25. Modelos Misto Prof. Jomar 23R (µ, α, β) = y′W1 (W1′ W1 ) − W1′ y com W1 = [1 X1 X2 ] e r(W1 ) = sEntão obtém-se, sucessivamente os componentes de variância pelo seguinte conjunto deequações: Soma de Quadrados Esperanças SQE = ∑ y 2 − R(µ, α , β, γ ) (n − r )σ 2e R (µ, α ,β, γ ) − R (µ, α ,β ) h 1 σ γ + (r − s )σ 2 2 e R (µ, α ,β, γ ) − R (µ, α ) h 2 σ β + h 3 σ γ + (r − q )σ 2 2 2 e A partir dessas três equações calcula-se σ e2 ,σ β , σ γ2 . Os fatores h1 , h2 e h3 são ˆ ˆ2 ˆobtidos pela expressão: E[R(θ2 θ1 )] = tr(W2 (I-W1 (W1 W1 )-W1 )W2 E(θ2 θ2 )) + I σ e2 [r(W) - r(W1 )] ˆem que, as matrizes W1 e W2 são especificadas para cada equação. Não é necessário utilizar a quarta equação dada por R(µ,α,β,γ) - R(µ) cujaesperança seria h 4 σ α + h 5 σ 2 + h 6 σ 2 + (n − 1)σ 2 , Pois, supondo-se α como efeito fixo, 2 β γ enão se considera a existência de σ σ . 2 O Método III pode ser usado para qualquer modelo misto e produz estimadores quenão são viesados.6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML A estimação por máxima verossimilhança é uma método bem conhecido, originadopor Fischer em 1925. Esse método foi o primeiro a ser aplicado em modelos mistos geralpor HARTLEY e RAO (1967) O Método da Máxima Verossimilhança consiste em maximizar a função densidadede probabilidade das observações, em relação aos efeitos fixos e aos componentes devariância. Seja o modelo misto (1), dado por: y = Xβ +Zγ + eAssumindo que os efeitos aleatórios γi, i = 1, ..., r e e têm distribuição normal com médiazero e matrizes de variâncias e covariâncias σi2 I m , ..., i=1, ..., r e σ 2 I n , respectivamente, o e
  26. 26. Modelos Misto Prof. Jomar 24vetor y terá distribuição normal multivariada, com média Xβ e matriz de variâncias ecovariâncias, V, ou seja, y ~ N(Xβ, V) com: r rV = ∑ Z i Z′i σ 2 + σ 2 I =∑ Zi Z′i σ 2 l e l com σ 2 = σ 2 e Z0 =I 0 e i =1 i =0 A função de verossimilhança é: ′L = ( 2π ) 2 V − 2 exp  − ( y − X β ) V −1 ( y − X β )  sendo V o determinante da matriz V. −n 1 1  2    Maximizando L em relação aos elementos de β e aos componentes de variância, osσ 2,s que ocorrem em V, obtém-se um sistema de equações que, resolvido, produzem os iestimadores de ML de β e σ 2 = {σ 2 } ll = r0 . Essas equações podem ser escritas como: l = ~ ~ ~ X ′V −1 X β = X ′ V −1 ye as equações são: ~ ( ) ( ~~ ) ~ ~ tr V −1 Zi Z′i = y − Xβ V −1 Z i Z′i V −1 y − Xβ ( )para i = 0, 1, ..., r ~ As equações acima têm de ser resolvidas para β e ~ 2 , os elementos implícitos σ ~em V . Claramente essas equações são não lineares nos elementos ~ 2 , contudo uma vez σ ~obtido os valores ~ 2,s , eles podem ser usados para obter β . Essas equações são resolvidas σlnumericamente, por iteração. Por conveniência escreve-se: P = V-1-V-1X(XV-1X)-XV-1e r I = V −1 V = V −1 ∑ z i z ′ σl2 i l= 0 Assim, o conjunto das r + 1 equações anteriores pode ser descrito como: (~ ~ ) ~ (~ ~ tr V −1 Z i Z′i V −1 Z j Z′j σ 2 = y ′PZ i Z i′Py l )
  27. 27. Modelos Misto Prof. Jomar 25 Fornecendo uma visualização mais fácil de um processo iterativo que as anteriores. ~ ~Pode-se utilizar um valor inicial para ~ 2 em V e P , e resolver as equações acima e σrepetir o processo até que o critério de convergência seja satisfeito. O Método da Máxima Verossimilhança é iterativo e fornece sempre estimativasnão negativas de componentes de variância, mas estas são viesadas porque o método nãoconsidera a perda de graus de liberdade resultante da estimação dos efeitos fixos domodelo.6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML Esse processo é uma variante do processo de máxima verossimilhança, paramodelos mistos e foi utilizada por PATTERSON e THOMPSON (1971) paradelineamentos em blocos. Os estimadores REML são obtidos maximizando a parte da função deverossimilhança que é invariante ao parâmetro de locação: isto é, em termos do modelomisto y = Xβ+Zγ + e, é invariante para Xβ. Ou de outra maneira, os estimadores REMLmaximizam a função de verossimilhança de um vetor de combinações lineares dasobservações que são invariantes para Xβ. Seja Ly esse vetor. Então Ly = LXβ + Lzγ + Leé invariante a Xβ, se e somente se, LX = 0. Mas LX = 0, se e somente se, L = TMpara M = I - X(XX)-X e algum T. Claramente, L deve ser de posto linha completo; eassim T também. Portanto rL = rT , e rL ≤ rM com rM = n - rX. As equações para a estimação REML de σ2 , para i, j = 0, 1, ..., r são: ( ~ ~ ) ( ~ ) ~ tr PZ i Z ′PZ j Z′j σ 2 = y ′PZ i Z′i Py i l ~ Note que essas equações são similares às equações ML, exceto por P em vez de~V −1 . No Método da Máxima Verossimilhança Restrita, cada observação é dividida emduas partes independentes uma referente aos efeitos fixos e outras aos efeitos aleatórios, demaneira que a função densidade de probabilidade das observações é dada pela soma dasfunções densidade de probabilidade de cada parte. A maximização da função densidade deprobabilidade da parte referente aos efeitos aleatórios, em relação aos componentes devariância, elimina o viés resultante da perda de graus de liberdade na estimação dos efeitosfixos do modelo.
  28. 28. Modelos Misto Prof. Jomar 26 As equações REML com dados balanceados são idênticas aos estimadores ANOVAque são não-viesados e de variância mínima. O estimador REML leva em conta os graus deliberdade envolvidos nas estimativas dos efeitos fixos, ao passo que os estimadores MLnão. No caso de dados desbalanceados os estimadores ML e os estimadores REML sãoviesados SEARLE (1987). Os estimadores ML e REML dos componentes de variância não são formasexplicitas, isto é, o estimador de cada componente está em função dos estimadores dosoutros componentes, e só podem ser encontrados por métodos numéricos iterativos.6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA- MINQUE RAO (l970, 1971 a, b, 1972) descreve um método de estimação que é derivado demodo que o estimador minimize a norma euclidiana da matriz núcleo, que seja uma formaquadrática das observações e que seja não-viesado. Seu desenvolvimento envolve álgebraextensiva e seu conceito utiliza valores escolhidos, a priori, para os componentes devariância desconhecidos. A estimação dos componentes de variância pelo método MINQUE, é feita combase na equação MINQUE, a seguir: tr (Pw Vi Pw Vj )σ 2 = (y ′Pw Vi Pw y ) ˆlsendo σ o vetor de componentes de variância. ˆ Pw = VW1 − VW1 (X VW1 X) X VW1 − − − − −Vw é uma estimativa a priori da matriz de variâncias e covariâncias. Este método tem duas vantagens: não envolve a suposição de normalidade comoML e REML. E as equações de MINQUE têm soluções explícitas (não tem de serresolvidas iterativamente). Por outro lado, a solução depende do conhecimento a priori dos valores doscomponentes de variância a serem estimados, ou seja, depende de valores estimados apriori usados em Vw. Assim, diferentes valores de Vw podem levar a diferentes estimativaspara um mesmo conjunto de dados. Obtém-se portanto “um” estimador MINQUE e não“o” estimador MINQUE.
  29. 29. Modelos Misto Prof. Jomar 27 Um relacionamento importante, que existe entre REML e MINQUE é que se ovalor inicial no processo iterativo REML é Vw, então a primeira solução é uma estimativaMINQUE.6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA - MIVQUE O método MINQUE não exige nenhuma suposição sobre a forma da distribuição davariável aleatória y. Mas se a suposição usual de normalidade é satisfeita, o estimadorMINQUE tem a propriedade de ser uma forma quadrática não-viesada das observaçõescom variância mínima, ou seja, é um estimador quadrático não-viesado de variânciamínima, MIVQUE. SEARLE (1987). SWALLOW e MONAHAN (l984) descrevem o procedimento MIVQUEconcordância com os valores estimados a priori Vw , MIVQUE(A) e MIVQUE(0). O estimador MIVQUE(A) usa as equações REML tomando as estimativasANOVA como valores a priori. Embora a teoria MIVQUE especifique, que os valores apriori devam ser independentes dos dados, a literatura justifica o uso das estimativasANOVA em decorrência da facilidade de obtenção. O estimador MIVQUE0 é o MIVQUE com a suposição a priori de que a matriz devariâncias e covariâncias é a matriz identidade.6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) O estimador MINQUE utiliza valores estimados a priori em Vw, ou seja, umaestimativa a priori para V, matriz de variâncias e covariâncias. Nenhuma iteração está ~envolvida. No entanto, obtida uma solução, por exemplo V1 , existe a idéia de usá-la comouma nova estimativa em Vw, a partir da qual um novo conjunto de equações pode ser ~estabelecido e resolvido, produzindo V2 e assim sucessivamente. Isto leva a usar asequações MINQUE iterativamente. Além disso, BROWN (l976) mostra que sem suposição de normalidade sobre y, assoluções I- MINQUE têm propriedades de normalidade para grandes amostras.
  30. 30. Modelos Misto Prof. Jomar 28BibliografiaBROWN, K.G. Asymptotic behavior of MINQUE-type estimators of variance components. The Annals of Statistics,4, p.746-54, 1976.CUNNINGHAM,E.P. ; HENDERSON,C.R. an iterative procedure for estimating fixed effects and variance components in mixed model situations Biometrics 24:13-25, 1968.GRAYBIL,F.A. Theory and application of the linear model. Duxbury, North State, Massachusetts, 1976, __p.HARTLEY,H.O. ; RAO, J.N.K. Maximum likelihood estimation for the mixed analysis of variance model. Biometrika, 54, p. 93-108, 1967.HENDERSON,C.R. A simple method for computing the inverse of a numerator relationship matrix used in prediction of breeding values. Biometrics 32(3) :69-83, 1976.HENDERSON,C.R. Estimation of variance and covariance components, Biometrics, 17:226-52, 1953HENDERSON,C.R. Rapid method for computing the inverse of a relationship matrix. J. Dairy Sci.,58(11):1727-30, 1975.HENDERSON,C.R. Use of an average numerator relationship matrix for multiple-sire joining. J. Anim. Sci.,66:1614-21, 1988.HENDERSON,C.R.; KEMPTHORNE,O.; SEARLE,S.R.; VON KROISIG,C.M. The estimation of environmental and genetic trends from records subject to culling. Biometrics 15(6):192-218, 1959.HICKS,C.R. Fundamental concepts in the design of experiment 2nd ed. New York, Holt, Rinehart and Winston, 1973. 349p.MARTINS,E.N.;LOPES,P.S.;SILVA,M. de A.; REGAZZI.A. J. Modelo linear misto UFV, Imprensa Universitária, 1993, 46p.NETER,J.;WASSERMAN,W.; KUTNER,M.H. Applied linear statistical models, regression, analysis of variance and experimental designs. Richard D. Irwing, Inc. 1985, 1127p.PATTERSON,H.D. ; THOMPSON,R. Recovery of inter-block information when block sizes are unequal. Biometrika, 58(3): 545-54, 1971.
  31. 31. Modelos Misto Prof. Jomar 29PERRI, S. H . V., Ajuste de Modelos Mistos de Classificação Dupla: Procedimentos do Sistema Estatístico “SAS”. Tese apresentada à Escola Superior de Agricultura “Luiz de Queiroz”, 1998.QUAAS,R.L. Computing the diagonal elements and inverse of a large numerator relationship matrix Biometrics, 32(12):949-53, 1976QUAAS,R.L.; POLLAK,E.J. Mixed equations methodology for farm and ranch beed cattle testing programs. J.Anim. Sci., 53(6):1277-87, 1980RAO,C.R. Estimation of heteroscedastic variance in linear models. Journal of the American Statistical Association, 65, p.161-72, 1970.RAO,C.R. Estimation of variance and covariance components – MINQUE Theory. Journal of Multivariate Analysis, 1, p.257-75, 1971 a.RAO,C.R. Estimation of variance and covariance components in linear models. Journal of Multivariate Analysis, 67, p.112-15, 1972.RAO,C.R. Linear statistical inference and its applications 2nd ed. New York, John Wiley & Sons, 1973 __p.RAO,C.R. Minimum variance quadratic unbiased estimation of variance components. Journal of Multivariate Analysis, 1, p.445-56, 1971 b.SEARLE, S.R. Another look at Henderson’s methods of estimating variance components. Biometrics, 24, p. 749-78, 1968.SEARLE, S.R. Linear Models for Unbalanced data. New York: John Wiley, 1987. 536p.SEARLE, S.R. Linear models. New York, John Wiley & Sons, 1971. 532p.SEARLE, S.R. Variance Component. New York, John Wiley & Sons, 1992. 501p.SWALLOW, W.H. ; MONAHAN, J.F. Monte Carlo comparison of ANOVA, MINQUE, REML, and ML estimators of variance components. Technometrics, 26, p.47-57, 1984.THOMPSON, R. Iterative estimation of variance components for non-orthogonal data. Biometrics, 26: 767-73, 1969.
  32. 32. Modelos Misto Prof. Jomar 30

×