Aplicação da Geoestatística em Ciências Agrarias

1.022 visualizações

Publicada em

Aplicação da Geoestatística em Ciências Agrarias

Publicada em: Educação
0 comentários
2 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

Sem downloads
Visualizações
Visualizações totais
1.022
No SlideShare
0
A partir de incorporações
0
Número de incorporações
6
Ações
Compartilhamentos
0
Downloads
72
Comentários
0
Gostaram
2
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

Aplicação da Geoestatística em Ciências Agrarias

  1. 1. Aplicação da Geoestatística em Ciências Agrárias
  2. 2. UNIVERSIDADE ESTADUAL PAULISTA FACULDADE DE CIÊNCIAS AGRONÔMICAS CAMPUS DE BOTUCATU GRUPO DE ESTUDOS E PESQUISAS AGRÍCOLAS GEORREFERENCIADAS - GEPAG Aplicação da Geoestatística em Ciências Agrárias Alessandra Fagioli da Silva Waylson Zancanella Quartezani Célia Regina Lopes Zimback Paulo Milton Barbosa Landim Botucatu - SP 2011
  3. 3. Layout e editoração: Alessandra Fagioli da Silva Ilustrações: Alessandra Fagioli da Silva Capa: Alessandra Fagioli da Silva Impressão: PubTec - Publicações Técnicas Impresso no Brasil Edição: 2011 FICHA CATALOGRÁFICA ELABORADA PELA SEÇÃO TÉCNICA DE AQUISIÇÃO E TRATAMENTO DA INFORMAÇÃO – SERVIÇO TÉCNICO DE BIBLIOTECA E DOCUMENTAÇÃO - UNESP - FCA - LAGEADO - BOTUCATU (SP) Aplicação da geoestatística em Ciências Agrárias / A642 Alessandra Fagioli da Silva ... [et al.]. -- Botucatu: FEPAF, 2011 136 p. : il. color., tabs. 2. Simpósio de Geoestatística Aplicada a Ciências Agrárias ISBN 1. Estatística agrícola. 2. Geoestatística. 3. Geologia – Métodos estatísticos. I. Silva, Alessandra Fagioli. II. Quartezani, Waylson Zancanella. III. Zimback, Célia Regina Lopes. IV. Landim, Paulo Milton Barbosa. V. Fundação de Estudos e Pesquisas Agrícolas e Florestais. VI. Simpósio de Geoestatística Aplicada a Ciências Agrárias (2. : 2011 : Botucatu). VII. Título. CDD 21.ed. (519.2) UNIVERSIDADE ESTADUAL PAULISTA FACULDADE DE CIÊNCIAS AGRONÔMICAS Grupo de Estudos e Pesquisas Agrícolas Georreferenciadas - GEPAG
  4. 4. 1 Sumário 1. Introdução.........................................................................................................................3 2. Análise exploratória de dados ..........................................................................................4 2.1. Distribuição de frequências e histograma ..................................................................4 2.2. Estatísticas.................................................................................................................4 2.2.1. Média aritmética...............................................................................................5 2.2.2. Variância e desvio padrão ...............................................................................5 2.2.3. Coeficiente de variação ...................................................................................6 2.2.4. Valor Mínimo e Valor Máximo..........................................................................6 2.2.5. Coeficiente de assimetria e coeficiente de curtose..........................................7 2.3. Outras medidas descritivas........................................................................................7 3. Amostragem .....................................................................................................................8 4. Princípios da análise geoestatística .................................................................................9 4.1. Um breve histórico ...................................................................................................10 4.2. Hipóteses consideradas...........................................................................................11 5. Análise da dependência espacial ...................................................................................15 5.1. Variograma ..............................................................................................................16 5.1.1. Confecção de um variograma........................................................................20 5.1.2. Exemplo de cálculo do variograma................................................................22 5.2. Grau de dependência espacial ................................................................................24 5.3. Isotropia e anisotropia..............................................................................................25 5.4. Modelos teóricos......................................................................................................30 5.4.1. Modelos com patamar ...................................................................................31 5.4.1.1. Modelo linear....................................................................................31 5.4.1.2. Modelo Esférico................................................................................32 5.4.1.3. Modelo Exponencial .........................................................................33 5.4.1.4. Modelo Gaussiano............................................................................34 5.4.2. Modelos sem patamar ...................................................................................35 5.5. Escalonamento do variograma ................................................................................36 6. Interpolação de dados ....................................................................................................37 6.1. Krigagem ordinária...................................................................................................39 6.1.1. Exemplo: estimativa de um ponto..................................................................42
  5. 5. 2 7. Validação de modelos de variogramas...........................................................................47 7.1. Validação cruzada....................................................................................................48 8. Krigagem indicativa ........................................................................................................49 9. Cokrigagem ....................................................................................................................52 9.1. Variograma cruzado.................................................................................................52 9.1.1. Características ideais.....................................................................................53 9.2. Cokrigagem..............................................................................................................54 10. Utilização do programa GS+® para análise geoestatística e interpolação.....................54 10.1. Utilização do programa GS+® para gerar variograma.............................................55 10.1.1. Importação dos dados .................................................................................55 10.1.2. Análise Exploratória dos dados....................................................................58 10.1.3. Confecção e ajuste do variograma ..............................................................61 10.2. Interpolação dos dados no GS+® ............................................................................67 10.2.1. Validação do modelo ...................................................................................69 10.2.2. Representação Gráfica dos Dados Interpolados .........................................70 11. Utilização do programa GS+® para interpolar por Krigagem Indicativa.........................71 12. Uso do GS+® no ajuste de variograma cruzado e interpolação por Cokrigagem para geração de mapas..............................................................................................................77 12.1. Exemplo de aplicação com malha reticulada da variável primária completa .........77 12.2. Exemplo de aplicação com malha reticulada para variável primária incompleta ...89 13. Utilização do programa Surfer® para confecção de mapas ..........................................96 13.1. Importação dos dados..........................................................................................109 13.2. Análise Exploratória dos dados............................................................................110 13.3. Confecção e ajuste do variograma.......................................................................115 13.4. Interpolação dos dados no Surfer® ......................................................................120 13.4.1. Validação do modelo .................................................................................121 13.4.1.1. Representação Gráfica dos Dados Interpolados..........................122 13.5. Representação Gráfica dos Dados Interpolados de uma malha irregular............126 14. Referências ................................................................................................................132
  6. 6. 3 1. Introdução A geoestatística difere da denominada “estatística clássica” na forma de avaliar a variação dos dados. A estatística clássica supõe que as realizações das variáveis aleatórias são independentes entre si, ou seja, não há relação entre a variação e a distância entre os pontos de amostragem, enquanto a geoestatística considera existir uma dependência da variação com relação ao espaço de amostragem. Fenômenos naturais apresentam frequentemente uma certa estruturação na variação entre vizinhos, e desta forma pode-se dizer que as variações não são aleatórias, e apresentam algum grau de dependência espacial (GUIMARÃES, 2004). Se a distribuição espacial das amostras for observada e levada em consideração, em muitos casos é possível tirar vantagem da variabilidade espacial (MATA, 1997). E nesse sentido é oportuna a observação de Reichardt (1985) de que a estatística clássica e a geoestatística completam-se. Uma não exclui a outra, e perguntas não respondidas por uma, muitas vezes podem ser respondidas pela outra. A variabilidade espacial das variáveis pode ser estudada por meio das ferramentas fornecidas pela geoestatística, que se fundamenta na teoria das variáveis regionalizadas, segundo a qual os valores de uma variável estão, de alguma maneira, relacionada à sua disposição espacial e, portanto, as observações tomadas a curta distância se assemelham mais do que aquelas tomadas a distâncias maiores (VIEIRA et al., 1981; VAUCLIN et al., 1983). A agricultura de precisão, por exemplo, requer princípios de manejo de acordo com a variabilidade no campo, o que requer novas técnicas para estimar e mapear a variabilidade espacial dos atributos e propriedades dos solos. A melhoria da qualidade da estimativa depende da escolha do método de interpolação que obtenha dados dos solos em locais não amostrados e da aplicação apropriada de métodos indicados para as características dos dados (KRAVCHENKO; BULLOCK, 1999). Neste texto serão abordados aspectos básicos da metodologia geoestatística para a análise espacial de dados, com ênfase na análise do variograma como ferramenta de determinação da dependência espacial. Serão introduzidos conceitos básicos da geoestatística e da análise da dependência espacial por meio de variograma e também de interpolação utilizando a metodologia da Krigagem na elaboração de mapas de isolinhas,
  7. 7. 4 como base de dados para a utilização nos sistemas de informação geográfica e/ou agricultura de precisão. Também serão abordadas as técnicas da Krigagem indicativa e da Cokrigagem. Para a realização das análises variográficas e elaboração dos mapas serão utilizados e apresentados os programas GS+® 7.0 (GAMMA DESIGN SOFTWARE, 2004) e o SURFER® 8.0 (GOLDEN SOFTWARE, 2005), que são de fácil entendimento, permitindo uma rápida visualização do comportamento espacial da variável em estudo. 2. Análise exploratória de dados A análise exploratória de dados é um procedimento importante na análise geoestatística introdutória, devendo ser aplicada para conhecer e resumir a variável em estudo. Este tipo de análise se baseia em construção e interpretação gráfica, cálculos e interpretação de estatísticas. No presente texto far-se-á uma revisão dos principais instrumentos de análise exploratória de dados, sendo que tais procedimentos podem ser encontrados em cursos de estatística básica e em livros de estatística básica. 2.1. Distribuição de frequências e histograma A distribuição de freqüências consiste em agrupar as observações de uma variável em classes ou categorias e o histograma é uma das representações gráficas mais usadas dessa distribuição. A distribuição de frequências e o histograma podem ser obtidos em programas computacionais comercias com o Excel® e em programas específicos para análise geoestatística, como, por exemplo, o GS+® (GUIMARÃES, 2004). A finalidade da distribuição de frequências e do histograma é permitir uma visualização do comportamento da variável em estudo, como a tendência de concentração de dados, simétrica ou assimétrica (GUIMARÃES, 2004). 2.2. Estatísticas Antes da aplicação das ferramentas geoestatísticas, os dados devem ser analisados pela estatística descritiva, por meio das estatísticas, ou seja, valores obtidos a
  8. 8. 5 partir de amostras, para visualizar o comportamento geral dos dados e identificar possíveis valores discrepantes. Isso é fundamental para a tomada de decisões sobre os procedimentos a serem realizados (SALVIANO, 1996). 2.2.1. Média aritmética A média aritmética é uma medida de posição bastante utilizada na estatística e tem como características principais a facilidade de cálculo, a sua adaptabilidade ao tratamento algébrico e, também, é uma medida não tendenciosa, precisa, eficiente e suficiente (GUIMARÃES, 2004). Vale ressaltar que nem sempre a média aritmética é a medida de posição que melhor representa uma variável. Em dados com assimetria à direita acentuada a moda ou a média geométrica pode representar melhor a variável em estudo (GUIMARÃES, 2004). A fórmula para o cálculo da média é: n x X n i i  1 (1) onde: X é a média aritmética; xi é cada valor observado; n é o número total de observações. 2.2.2. Variância e desvio padrão A variância (s2 ) e o desvio padrão (s) são estatísticas que fornece uma idéia de variabilidade das observações em torno da média aritmética. As fórmulas de cálculo são respectivamente:   1 12     n Xx s n i i (2) 2 Ss  (3)
  9. 9. 6 Na análise descritiva a média aritmética deve estar sempre acompanhada do desvio padrão para poder visualizar a dispersão média dos valores. 2.2.3. Coeficiente de variação O coeficiente de variação (CV) fornece a dispersão relativa dos dados em relação à média. O coeficiente de variação é dado por:   X s CV  100% (4) A utilização do coeficiente de variação na avaliação da variabilidade dos dados tem a vantagem de permitir a comparação entre propriedades distintas, pois é uma medida adimensional, apresentando o mesmo valor independentemente das unidades utilizadas nas medidas (WARRICK; NIELSEN, 1980; MACHADO, 1994). A variabilidade dos dados pode ser classificada de acordo com os critérios propostos por Warrick e Nielsen (1980), que consideram os valores do coeficiente de variação entre 12% e 60% como de média variabilidade e os valores abaixo e acima deste intervalo como de baixa e alta variabilidade, respectivamente. Se a distribuição não é normal, significa que a média aritmética é uma medida bastante influenciada pelos valores extremos, não sendo uma medida de tendência central adequada para a representação dos dados (QUEIROZ, 1995; EGUCHI, 2001). O desvio padrão dá idéia do afastamento dos valores observados em relação à média estimada e o coeficiente de variação dá idéia da precisão com que foi realizado o experimento. Nada informam, porém, quando a estrutura de dependência espacial dessas propriedades, o que só é possível por meio de técnicas geoestatísticas (SOUZA, 1999). 2.2.4. Valor Mínimo e Valor Máximo Estes valores permitem visualizar a menor e a maior ocorrência e podem ser um primeiro indicativo de erros de amostragem, digitação, etc. A obtenção desses valores se faz a partir da ordenação das observações.
  10. 10. 7 2.2.5. Coeficiente de assimetria e coeficiente de curtose O coeficiente de assimetria mostra o afastamento da variável em relação a um valor central, ou seja, na distribuição simétrica tem-se 50% dos valores observados acima da observação central e 50% abaixo. Se a distribuição é assimétrica, esta relação não é observada. O coeficiente de assimetria é utilizado para caracterizar como e quanto a distribuição de frequências se afasta da simetria, sendo que se Cs > 0 ocorre a distribuição assimétrica à direita ou positiva; se Cs < 0 a distribuição é assimétrica à esquerda ou negativa; e se Cs = 0 a distribuição é simétrica. Em uma distribuição com assimetria positiva, a média é maior que a mediana e esta maior que a moda. Se a assimetria for negativa, a média será menor que a mediana e esta menor que a moda. Nas curvas simétricas, tanto a média quanto a mediana e a moda são coincidentes (ASSIS et al., 1996). O coeficiente de curtose é utilizado para caracterizar a distribuição de frequências quanto ao seu formato isto é, leptocúrtica, mesocúrtica ou platicúrtica. A distribuição normal apresenta um formato mesocúrtico. Em alguns programas computacionais como o Excel® e GS+® esse valor é zero, se Ck < 0 a forma é a platicúrtica e se Ck > 0, a forma é a leptocúrtica (GUIMARÃES, 2004). Estes dois coeficientes são utilizados, em conjunto, para inferências sobre a função de distribuição normal da variável em estudo. Para uma melhor interpretação do coeficiente de assimetria e do coeficiente de curtose, alguns programas, como o GS+® , calculam também o erro padrão desses coeficientes e a partir dos valores dos coeficientes associados com seus respectivos erros padrão, pode-se concluir se os dados têm distribuição normal ou não. Por exemplo, se o valor obtido na amostra para Cs = 0,30 com erro padrão de 0,65 e se o valor de Ck = 0,5 com erro padrão de 0,40, pode-se dizer que a distribuição tende a normal (GUIMARÃES, 2004). 2.3. Outras medidas descritivas As estatísitcas descritas acima são as mais comuns e as que frequentemente são usadas. Entretanto outros recursos podem ser aplicados como, por exemplo: gráfico box-
  11. 11. 8 plot; gráficos da distribuição normal; gráfico h-dispersão, outras estatísticas (quartil, mediana, moda, etc.) e testes de normalidade (Shapiro–Wilk, Kolmogorov–Smirnov), etc.. 3. Amostragem O primeiro passo em qualquer estudo espacial é a definição do delineamento experimental, que envolve, entre outros procedimentos, a escolha da técnica de coleta de amostras e também da malha de amostragem. A malha de amostragem pode ser do tipo aleatória quando a distribuição dos pontos de coleta é casual; agregada ou agrupada quando ocorrem grupos (cluster) de pontos mais próximos entre si; e regular quando os pontos estão regularmente espaçados (LANDIM et al., 2002) (Figura 1). (a) (b) (c) Figura 1. Malha do tipo aleatória (a), agregada (b) e regular (c). Um requisito básico na amostragem para fins de análise de dependência espacial utilizando métodos geoestatísticos é que as amostras sejam georreferenciadas. Não é necessário utilizar coordenadas geográficas, mas algum tipo de referencia deve existir para saber a localização de cada ponto, por exemplo, amostras coletadas em casa de vegetação (linha 1 e coluna 1). Um tipo de amostragem bastante utilizado em geoestatística é a amostragem sistemática. Neste tipo de amostragem os pontos avaliados (amostras) são obtidos de forma equidistantes, quer seja no espaço ou no tempo, formando uma malha de pontos no caso bidimensional. No entanto esse não é um procedimento obrigatório, basta que se tenha a referência dos dados para se proceder a análise espacial. Um exemplo típico de amostragem não sistemática é para variáveis climáticas, onde as estações climatológicas,
  12. 12. 9 geralmente, não são equidistantes, mas apresentam a referência geográfica (GUIMARÃES, 2004). Um questionamento básico que surge quando da aplicação da geoestatística é "Quantas amostras devem ser utilizas para a análise geoestatística?". Alguns autores recomendam que sejam utilizados pelo menos 100 pontos amostrais, entretanto isso não é regra e sim recomendação, pois existem trabalhos com bons resultados de ajuste de variogramas usando 45 pontos de amostragem. É sabido, porém, que quanto maior o número de pontos, maior será o número de pares para o cálculo do variograma e, teoricamente, maior será a precisão das estimativas das variâncias (GUIMARÃES, 2004). Pode-se dizer que o número de observações dependerá dos objetivos que se tem no trabalho, da escala, ou seja, da dimensão, e do relevo do terreno (plano ou inclinado), entre os outros fatores que devem ser avaliados pelo pesquisador. Amostragens em malhas mais adensadas fornecem uma clara visão da variabilidade espacial de uma variável regionalizada, porém, com custos mais elevados quando comparados com esquemas amostrais menos densos (GROENIGEN et al., 1999). Portanto, é preciso aliar um número mínimo de pontos amostrados com uma máxima representação do local amostrado, pela mínima variância, otimizando o esquema de amostragem e barateando os custos (MONTANARI et al., 2005). 4. Princípios da análise geoestatística A base da geoestatística vem da teoria das variáveis regionalizadas. Segundo esta teoria, a diferença nos valores de uma dada variável tomados em dois pontos no campo depende da distância entre eles (MATHERON, 1962). A diferença entre os valores do atributo tomados em dois pontos mais próximos no espaço deve ser menor do que a diferença entre os valores tomados em dois pontos mais distantes. Portanto, cada valor carrega consigo uma forte interferência dos valores de sua vizinhança, ilustrando uma continuidade espacial (ISAAKS; SRIVASTAVA, 1989). A dependência está presente em todas as direções e fica mais fraca à medida que aumenta a dispersão na localização dos dados (CRESSIE, 1993). O estudo da dependência espacial de atributos do solo ou da planta, através da geoestatística, permite a interpretação e a projeção dos resultados com base na análise
  13. 13. 10 da estrutura da sua variabilidade natural. Por exemplo, permitem separar nas respostas das culturas a proporção referente ao tratamento ou manejo, daquela correspondente as diferenças de solos entre pontos de um mesmo campo (VIEIRA, 2000). O objetivo da geoestatística aplicada à agricultura de precisão é pesquisar a variabilidade espacial dos atributos do solo e das plantas e fazer estimativas, utilizando o princípio da variabilidade espacial e identificar inter-relações destes atributos no espaço, além de permitir estudar padrões de amostragem adequada (VIEIRA, 2000). 4.1. Um breve histórico Na África do Sul, no início dos anos 50 do século passado, o engenheiro de minas Daniel G. Krige e o estatístico H.S. Sichel, desenvolveram empiricamente uma técnica própria de estimativa para o cálculo de reservas minerais, a qual posteriormente recebeu tratamento formal por G. Matheron, na França com o nome Geoestatística, para o estudo das chamadas variáveis regionalizadas, ou seja, variáveis contínuas com condicionamento espacial (MATHERON 1962, 1963 e 1965). Inicialmente a metodologia geoestatística era aplicada apenas para situações em geologia mineira e, posteriormente se estendeu para outros campos, inclusive para as ciências agrárias. Em relação ao desenvolvimento da geoestatística pode-se dizer, segundo Guerra (1988), que: - até 1968 ela foi empregada para estimativa de reservas; - entre 1968 e 1970 foi desenvolvida a teoria da Krigagem universal, para aplicação a cartografia submarina com tendência sistemática, visando buscar melhores métodos que aquele dos mínimos quadrados; - em 1972, Matheron criou a teoria intrínseca de ordem k, aplicada à meteorologia; - entre 1972 e 1973 surgiram os princípios da analise convexa, visando maximizar as reservas recuperáveis de jazidas subterrâneas, bem como aperfeiçoar os métodos de otimização de pit; - em 1974 nasceu à teoria das funções de recuperação e baseada nela a geoestatística não-linear aplicada na seleção de reservas recuperáveis. A análise espacial de dados, utilizando a geoestatística, ganhou impulso em áreas distintas da mineração e da geologia a partir de 1980, com grande aplicabilidade na
  14. 14. 11 ciência do solo. Uma justificativa para tal fato é a facilidade computacional que viabilizou alguns cálculos relativamente trabalhosos nesta metodologia (GUIMARÃES, 2004). Na área de Agronomia no Brasil destacam-se os trabalhos pioneiros desenvolvidos pelos pesquisadores Sidney Rosa Vieira com dados de solos na Universidade da Califórnia e de Paulo Libardi e Klaus Reichardt com atributos de solos no Brasil, ainda na década de 80. A partir desta década vários outros pesquisadores se dedicaram ao estudo e aplicação da geoestatística. 4.2. Hipóteses consideradas Entende-se por variável aleatória aquela que pode tomar valores diferentes em diferentes lugares de observação, mostrando desta forma uma determinada independência de um lugar a outro (GUERRA, 1988). Todos os conceitos teóricos de geoestatística têm suas bases em funções e variáveis aleatórias, as quais, por convenção, recebem símbolos maiúsculos. Os valores medidos recebem símbolos minúsculos. É preciso também entender que uma realização em particular de uma função é um valor numérico assumido por esta função dentro de uma dada condição fixa. Por exemplo, Cos 0o = 1, então 1 é uma realização da função cosseno para o ângulo 0 (zero) graus (VIEIRA, 2000). Na teoria das variáveis regionalizadas, Z(xi) pode ser definida como uma variável aleatória que assume diferentes valores Z em função da posição x dentro de certa região S, e representa pares de coordenadas (xi, yi), conforme Figura 2 (OLIVEIRA, 2007). O ponto de referência para o sistema de coordenadas é arbitrário e fixado a critério do pesquisador. O conjunto de variáveis Z(xi) medidas em toda a área S pode ser considerado uma função aleatória Z(xi) uma vez que, segundo Isaaks e Srivastava (1989), são variáveis aleatórias regionalizadas e assume-se que a dependência entre elas é especificada por algum mecanismo probabilístico.
  15. 15. 12 Figura 2. Variável aleatória regionalizada Z(xi). A interpretação probabilística de que a variável regionalizada Z(x) é uma realização particular de certa função aleatória Z(xi) é consistente quando se pode inferir toda ou pelo menos parte da lei de distribuição de probabilidade que define essa função aleatória (JOURNEL; HUIJBREGTS, 1978). No entanto, em problemas práticos, em cada ponto xi tem-se apenas uma realização Z(xi) e o número de pontos é sempre finito. Isto torna usualmente impossível inferir sobre a distribuição de Z(x). Em vista disto hipóteses de estacionaridade são necessárias, as quais envolvem diferentes graus de homogeneidade espacial. Diz-se que um processo (ou uma variável) é estacionário se o desenvolvimento desse processo no tempo ou no espaço ocorrer de maneira mais ou menos homogênea, com oscilações aleatórias contínuas em torno de um valor médio, em que nem a amplitude média nem as oscilações mudam bruscamente no tempo ou no espaço. As características de um processo estacionário independem da origem adotada (GUIMARÃES, 2004). A hipótese de estacionaridade de primeira ordem é definida como sendo a hipótese de que o momento de primeira ordem da distribuição da função aleatória Z(xi) é constante em toda a área, ou seja:       mhxZExZE ii  (5) onde: m = média dos valores amostrais;
  16. 16. 13 h - distância que separa as amostras; E [Z(xi)] = esperança matemática da função aleatória Z(xi); E [Z(xi+h)] = esperança matemática da função aleatória Z(xi + h). Decorre dessa definição que se for tomado um vetor h de separação entre dois pontos, o qual apresenta módulo e direção, para qualquer h tem-se:      0 hxxZE ii (6) Considerando-se que a diferença entre as duas variáveis aleatórias [Z(xi) - Z(xi+h)] é uma variável aleatória, isto corresponde a afirmar que o primeiro momento desta variável aleatória é igual a zero. A estacionaridade de segunda ordem é definida quando, além de atender a estacionaridade de primeira ordem, a função aleatória apresenta a característica de, para cada par de valores [Z(xi) - Z(xi+h)], a covariância existir e depender apenas da distância de separação h que pode ser definida por:           hxmxmhxxZEhxxCov iiiiii , (7) O segundo momento da variável aleatória correspondente à diferença entre dois pontos, sendo dado por duas vezes à variância menos duas vezes a covariância dos valores, em que a sua metade é um valor denominado função de variância, definido como:       2 ,2 hxxZEhxx iiii  (8) Portanto, se a hipótese de estacionaridade de segunda ordem puder ser satisfeita, a covariância C(h) e o variograma 2 (h) são ferramentas equivalentes para caracterizar a dependência espacial. A primeira expressa a similaridade dos valores e a segunda o afastamento relativo destes. A existência de estacionaridade dá a oportunidade de repetir um experimento mesmo que as amostras devam ser coletadas em pontos diferentes,
  17. 17. 14 porque todas as amostras são consideradas pertencentes a populações com os mesmos momentos estatísticos (VIEIRA, 2000). Usualmente, a aceitação de uma estacionaridade de segunda ordem pode não ser satisfeita. Necessita-se então de outro modelo estatístico, menos limitado, que é baseado na hipótese intrínseca, a qual considera apenas que a média dos valores Z(x) e a variância dos incrementos Z(x)-Z(x+h) ocorrem independentemente da localização na região, sendo função apenas do valor de h (ALMEIDA; RIBEIRO, 1996). Esta hipótese requer somente a hipótese de existência do variograma, sem a exigência da variância finita. Assim, a variância de Z(x) não é finita, mas a variância do primeiro incremento de Z, Z(x+h)-Z(x), é finita, e este incremento é fracamente estacionário (VIEIRA et al., 1983; COSTA, 1999). Vauclin et al. (1983) e Prevedello (1987) afirmaram que a dependência entre amostras é comumente descrita através de autocorrelogramas e/ou variogramas. A utilização do correlograma tem como requisito a aceitação da estacionaridade de segunda ordem; já para o variograma há uma pequena modificação nesses requisitos, tornando-os menos rigorosos, com aceitação apenas da hipótese intrínseca, também conhecida como de fraca estacionaridade. Os gráficos gerados por meio dos variogramas expressam a variância em função de h. A hipótese intrínseca é a hipótese mais frequentemente usada em geoestatística, por ser menos restritiva e, portanto, o variograma é a ferramenta mais difundida na geoestatística porque exige apenas a hipótese intrínseca, enquanto o autocorrelograma exige a estacionaridade de segunda ordem (GUIMARÃES, 2004). Quando os dados violam completamente a estacionaridade, não atendendo nem mesmo a hipótese intrínseca, o variograma manifesta-se sem estrutura (FOLEGATTI, 1996). Hamlett et al. (1996) salientaram que a estacionaridade é mais exceção que regra e, assim, a não estacionaridade dos dados deve ser considerada. Assumida a estacionaridade, por meio da hipótese intrínseca e, considerando que a associação das variáveis em pontos distintos é maior à medida que se reduz à distância entre eles, o passo seguinte é descrever e modelar estas relações entre distâncias e associação espacial. A curva do variograma, ao contrário do autocorrelograma, aumenta à medida que h cresce, atingindo um patamar quando a variância é aproximadamente igual à variância
  18. 18. 15 da população (PREVEDELLO, 1987), embora isto não ocorra para populações que satisfazem apenas a hipótese intríseca. Processos não estacionários podem apresentar trechos estacionários; Se uma variável é estacionária de segunda ordem, então ela é também intrínseca, mas o inverso nem sempre ocorre. As Figuras 3a, 3b e 3c ilustram, respectivamente, uma variável estacionária de segunda ordem, uma variável estacionária de primeira ordem e uma outra não estacionária. Para qualquer trecho que for selecionado e calculado a média e a variância, estas permanecerão aproximadamente constante (Figura 3a); apenas a média permanece constante (Figura 3b) nem a media nem a variância permanecem constantes (Figura 3c). a 10 15 20 25 30 0 5 10 15 20 25 30 35 40 45 50 X Y b 10 15 20 25 30 0 5 10 15 20 25 30 35 40 45 50 X Y c 10 15 20 25 30 0 5 10 15 20 25 30 35 40 45 50 X Y Figura 3. Exemplos de estacionaridade: a) processo estacionário de segunda ordem; b) processo estacionário de primeira ordem e c) processo não estacionário. 5. Análise da dependência espacial As duas funções utilizadas com maior intensidade na análise geoestatística para a determinação da dependência espacial ou temporal de variáveis são as funções autocorrelação e a função variância, que gera o variograma. Será descrita, por ser mais usual, a função variância e variograma como instrumento de análise espacial de dados.
  19. 19. 16 5.1. Variograma Até o início dos anos 60, a análise de dados era realizada sob a hipótese de independência estatística ou distribuição espacial aleatória, para permitir o uso de métodos estatísticos como análise de variância e parâmetros como o coeficiente de variação (HARRADINE, 1949). Entretanto, este tipo de hipótese não pode simplesmente ser feito antes que se prove a não existência de correlação de amostras com a distância. Se provada a correlação espacial, a hipótese de independência é inadequada. Um dos métodos mais antigos para se estimar a dependência no espaço ou no tempo, de amostras vizinhas é através da autocorrelação. Quando a amostragem envolve duas direções (xi, yi) o instrumento mais indicado na estimativa da dependência entre amostras é o variograma (SILVA, 1988). O variograma analisa o grau de dependência espacial das amostras e define os parâmetros necessários para a estimativa de valores para locais não amostrados, utilizando a interpolação por Krigagem. O variograma é uma ferramenta básica de suporte às técnicas de Krigagem, que permite representar quantitativamente a variação de um fenômeno regionalizado no espaço. A definição teórica dessas ferramentas é baseada na teoria das funções aleatórias (JOURNEL; HUIJBREGTS, 1978; BRAGA, 1990), que apresenta a estimativa experimental dessas estatísticas. Supondo que Z(x) represente o valor da variável para o local x, onde x é o vetor (x, y) e Z(x+h) representa o valor da mesma variável para alguma distância h (ou “lag”), em qualquer direção. O variograma resume a continuidade espacial para todos os pareamentos (comparação entre dois valores) e para todos os h significativos. O variograma é, por definição,       2 2 1 hxxZEh ii  (9) e pode ser estimado através da equação
  20. 20. 17              hN i ii hxZxZ hN h 1 2 2 1  (10) onde: N(h) = número de pares de valores medidos Z(xi), Z(xi+h) separados por um vetor h. O gráfico de (h) versus os valores correspondentes de h, chamado variograma, é uma função do vetor h e, portanto, dependem de ambos em magnitude e direção de h. A Figura 4 mostra um variograma com características bem próximas do ideal, as quais serão discutidas a seguir. O seu comportamento representa o que, intuitivamente, se deve esperar de dados de campo. Espera-se que: as diferenças [Z(xi) - Z(xi+h)] decresçam assim que a distância (h) que os separa, decresça; as medições localizadas próximas sejam mais parecidas entre si do que aquelas separadas por grandes distâncias; e que (h) aumente com a distância h. Por definição,  (0) =0, como pode ser visto pela Equação 7, quando h=0. Entretanto, na prática, à medida que h tende para 0 (zero), (h) se aproxima de um valor positivo chamado efeito pepita e que recebe o símbolo C0. O valor de C0 revela a descontinuidade do variograma para distâncias menores do que a menor distância entre as amostras. Parte dessa descontinuidade pode ser também devido a erros de medição, mas é impossível quantificar qual contribui mais, se os erros de medição ou variabilidade a uma escala menor do que aquela amostrada. Existem três tipos de variogramas: - variograma observado (variograma experimental). É aquele obtido a partir do conjunto de amostras derivadas da amostragem realizada, portanto o único conhecido. - variograma verdadeiro é o variograma real das amostras, e é sempre desconhecido. - variograma teórico é um variograma teórico de referência.
  21. 21. 18 Figura 4. Variograma experimental e modelo teórico. De acordo com Isaaks e Srivastava (1989) à medida que h aumenta a variância (h) também aumenta até um valor máximo no qual ele se estabiliza correspondente à distância “a” (Figura 5). Este valor no qual (h) se estabiliza chama-se patamar (C0+C), e é aproximadamente igual à variância dos dados, Var [Z(xi)]. O valor de efeito pepita (C0) pode ser atribuído a erros de medição ou ao fato de que os dados não foram coletados a intervalos suficientemente pequenos, para mostrar o comportamento espacial subjacente do fenômeno em estudo, isto é, não é capturado um fenômeno numa escala maior. A distância na qual (h) atinge o patamar é chamada de alcance, recebe o símbolo de a, e é a distância limite de dependência espacial. Medições localizadas a distâncias maiores que o alcance, tem distribuição espacial aleatória e por isto são independentes entre si. Para estas amostras, a estatística clássica pode ser aplicada sem restrições. Por outro lado, amostras separadas por distâncias menores que o alcance estão correlacionadas umas às outras, o que permite que se façam interpolações para espaçamentos menores do que os amostrados, assim toda amostra cuja distância ao ponto a ser estimado for menor ou igual ao alcance, fornece informações sobre o ponto. Dessa maneira, o alcance (a) é a linha divisória para a aplicação de geoestatística ou estatística clássica, e por isso o cálculo do variograma deveria ser feito rotineiramente para dados de campo para garantir as hipóteses estatísticas sob as quais serão analisados. Dados que apresentarem variogramas semelhantes aos da Figura 5, muito provavelmente poderão ser estacionários de ordem 2,
  22. 22. 19 porque têm um patamar claro e definido, e com toda certeza, estarão sob a hipótese intrínseca. Figura 5. Variograma típico e seus componentes. Se o variograma for constante e igual ao patamar para qualquer valor de h, e não apresentar valor alcance tem-se um gráfico mostrando “efeito pepita puro” e, neste caso, tem-se a ausência total de dependência espacial, ou se a dependência espacial existir ela será manifestada à distância menor do que o menor espaçamento entre amostras. Alta porcentagem obtida para o efeito pepita reflete que grande parte da variação encontrada é devida a variações a distâncias menores que a distância amostrada. Para diminuir os valores do efeito pepita é necessário que a amostragem seja realizada a distâncias menores que a utilizada para que assim se possa detectar a estrutura da variância, ou seja, a escala de variabilidade natural do fenômeno (JOURNEL; HUIJBREGTS, 1978; LAMPARELLI et al., 2001). O efeito pepita, que é um parâmetro importante do variograma, reflete o erro analítico, indicando uma variabilidade não explicada (ao acaso) de um ponto para o outro, que pode ser devida tanto a erros de medidas ou microvariação não detectada em função da distância de amostragem utilizada (CAMBARDELLA et al., 1994; VIEIRA, 1997), sendo impossível quantificar a contribuição individual dos erros de medições ou da variabilidade. Nas Figuras 6a e 6b é apresentado o comportamento de variogramas com e sem efeito pepita.
  23. 23. 20 Figura 6. Variogramas: (a) sem efeito pepita; (b) com efeito pepita. Um outro tipo de variograma que pode ocorrer é aquele que cresce sem limites para todos os valores de h calculados. Este variograma indica a presença de fenômeno com capacidade infinita de dispersão, o qual não tem variância finita, e para o qual a covariância, não pode ser definida. Ele indica também, que o tamanho do campo amostrado não foi suficiente para exibir toda a variância e é provável que exista uma grande tendência nos dados, numa determinada direção. Se isto for constatado, têm-se duas alternativas distintas: a) remove-se a tendência e trabalha-se com os resíduos para examinar se enquadram nas hipóteses de estacionaridade de ordem 2 ou intrínseca, ou b) trabalha-se com hipótese de tendência nos dados originais com o uso da krigagem universal. Deve-se preferir a primeira alternativa. Um método bastante eficiente para retirada da tendência é através da superfície de tendência (DAVIS, 1973). Se após retirar a tendência, não houver nenhuma dependência espacial expressa no variograma dos resíduos, isto significa que a superfície de tendência encontrada é a melhor representação espacial do fenômeno. Um exemplo de retirada de tendência em dados unidimensionais e análise dos resíduos pode ser encontrado em Vieira et al. (1983) e Vieira e Hatfield (1984). 5.1.1. Confecção de um variograma Para a confecção dos variogramas experimentais são computados valores de (h) confrontando-os com os respectivos h. As somatórias necessárias para o cálculo de (h), porém, devem ser construídas por um número suficiente de pares, que tornem o resultado consistente (LANDIM, 2003). Como regra prática, adota-se para tanto um mínimo de 30
  24. 24. 21 pares, o que pode ser conseguido se for escolhido como maior h a metade da maior distância existente entre os pontos (JOURNEL; HUIJBREGTS, 1978). A determinação do variograma é o início do procedimento de estimativa geoestatística. É o passo mais importante, porque o modelo escolhido será utilizado através de todo o processo de interpolação e influenciará todos os resultados e conclusões. Nesse estágio, o avaliador deverá decidir se pode ou não aplicar a geoestatística para inferências, pois o variograma é a única maneira para verificar se a variável em estudo tem continuidade espacial ou não. Para a construção do variograma as amostras devem estar distribuídas segundo um arranjo regular. Considerar, porém, o conjunto de amostras distribuídas em arranjo irregular, conforme apresentado na Figura 7. Neste caso, para determinar o variograma experimental, é necessário introduzir limites de tolerância para direção e distância. Figura 7. Parâmetros para o cálculo do variograma. (FONTE: Modificada de Deutsch e Journel ,1992) Tomar como referência o lag2 (lag refere-se a uma distância pré-definida, a qual é utilizada no cálculo do variograma) da Figura 7. Supor um incremento de lag igual a 100 metros com tolerância de 50 metros. Considerar ainda a direção de medida 45º com tolerância angular 22.5º. Então, qualquer par de observações cuja distância esteja compreendida entre 150m e 250m e 22.5º e 67.5º será incluído no cálculo do variograma de Lag2. Este processo se repete para todos os lags.
  25. 25. 22 Ainda com referência na Figura 7, a largura de banda (BW) se refere a um valor de ajuste a partir do qual se restringe o número de pares de observações para o cálculo do variograma. Após obtido o variograma, conhecido como experimental, a próxima etapa constitui o seu ajuste a um modelo teórico. 5.1.2. Exemplo de cálculo do variograma Considerar o seguinte conjunto de valores que representam os teores de pH do solo: 7; 7,4; 6,9; 7,5; 7,3; 7,8; 7,7; 6,8; 6,8; Supor que se dispõe de uma séria discreta de amostras obtidas num intervalo l, com distâncias iguais uma da outra no valor a (Figura 8). Figura 8. Amostras com distâncias a. A estimativa de  (h) será, para amostras separadas a uma distância h = a           4 1 2 2 1 22 i ii azXzXaah  (11) para h =2a         3 1 2 2 3 1 22 i ii azXzXa (12) . . . x(z1) x(z2) x(z3) x(z4) x(z5) L a a a a
  26. 26. 23 etc. Considerando, então, que os valores de pH do solo estejam a uma distância a, obtém-se:        235,08,68,6...9,64,74,77 8 1 )(2 222 a (13)          32,08,67,7...5,74,79,67 7 1 22 222 a (14) . . . etc. A medida que for aumentando a distância entre as amostras, os valores de  h2 tenderão a aumentar. Essas diferenças quadráticas entre valores que levam em conta a distância h que os separa, permite a construção do variograma. Os valores calculados através da função variograma podem ser representados graficamente, plotando-se no eixo das abscissas a distância h e no eixo das ordenadas o valor do variograma  h , como na Figura 9. Figura 9. Variograma experimental.
  27. 27. 24 A interpretação do variograma permite obter parâmetros que descrevem o comportamento espacial das variáveis regionalizadas. Uma feição resultante da análise dos parâmetros do variograma é a zona de influência, ou seja, qualquer valor de Z(x) estará correlacionado com outros valores Z(x+h) que estiverem dentro de um raio “a” de x. 5.2. Grau de dependência espacial Os variogramas expressam o comportamento espacial da variável regionalizada ou de seus resíduos e mostram o tamanho da zona de influência em torno de uma amostra, a variação nas diferentes direções do terreno, indicando também continuidade da característica estudada no terreno (LANDIM, 1998). Trangmar et al. (1985) sugeriram o uso da % da variância do efeito pepita para mensurar a dependência espacial, sendo que Cambardella et al. (1994) propuseram os seguintes intervalos para avaliar a % da variância do efeito pepita: ≤ 25% - forte dependência espacial; entre 25% e 75% - moderada dependência espacial e ≥ 75% - fraca dependência espacial, denominado de IDE (Índice de Dependência Espacial): 100 0 0    CC C IDE (15) Zimback (2001) propôs a inversão dos fatores, como: 100 0    CC C IDE (16) e a classificação quanto ao grau de dependência espacial da variável em estudo é: i) variável independente espacialmente – se a relação entre a componente estrutural e patamar for igual a 0 %, neste caso temos o variograma será com efeito pepita puro ou .0 0   CC C
  28. 28. 25 ii) variável com fraca dependência espacial – se a componente estrutural for menor ou igual a 25% do patamar ;25,0 0        CC C iii) variável com moderada dependência espacial – se a componente estrutural representar entre 25% e 75% do patamar ;75,025,0 0          CC C iv) variável com forte dependência espacial – se a relação entre componente estrutural e patamar estiver entre 75% e 100% ;00,175,0 0          CC C 5.3. Isotropia e anisotropia Notar que h é um vetor e o variograma depende da magnitude e da direção de h. Quando o variograma é idêntico para qualquer direção de h ele é chamado de isotrópico e quando o variograma apresenta os parâmetros C, C0, a e/ou modelo diferenciado dependendo da direção de h, ele é chamado anisotrópico. Se o variograma é anisotrópico ele deve sofrer transformações antes de ser usado. Vieira (1995) alega que, em geral, a precisão da interpolação ou o tipo de hipótese satisfeita, não são afetados se, ao invés de se preocupar com a escolha de método de transformação de anisotropia, apenas limitar a faixa de distância na qual se utiliza o variograma. Quando os dados forem coletados em uma transeção (linha), o variograma é unidimensional e nada pode ser dito sobre anisotropia (GUIMARÃES, 2004). A anisotropia pode ser facilmente constatada através da observação dos variogramas obtidos para diferentes direções. As principais direções de h (Figura 10) examinadas são: 0º (na direção X), 90º (na direção Y), 45º e 135º (nas duas diagonais principais).
  29. 29. 26 Figura 10. Direções usadas na geoestatística. Considerar os variogramas obtidos para as direções 0°, 45°, 90° e 135°, ilustrados na Figura 11. Verifica-se uma similaridade bastante grande entre eles. Esta é a representação de um caso simples e menos frequente, em que a distribuição espacial do fenômeno é denominada isotrópica. Neste caso, um único modelo é suficiente para descrever a variabilidade espacial do fenômeno em estudo. Figura 11. Representação gráfica de variogramas isotrópicos. Por outro lado, se os variogramas não são iguais em todas as direções, a distribuição é denominada anisotrópica. Se a anisotropia é observada e é refletida pelo N LO S 0o 90o 45o 135o 0O 45O 90O 135O • • • • • • • • • • • • • • • • • • • • • • • • a C Co (h)
  30. 30. 27 mesmo patamar (C) com diferentes alcances (a) do mesmo modelo, então ela é denominada geométrica. Considerar o variograma ilustrado na Figura 12. Os pontos interligados com linhas tracejadas são os variogramas experimentais em duas direções ortogonais. O variograma que atinge primeiro o patamar (vermelho) se refere à direção de 120° e o variograma com maior alcance (verde) se refere à direção de 30°. As linhas sólidas em ambas direções são os modelos teóricos de ajuste dos variogramas experimentais. Figura 12. Representação gráfica de anisotropia geométrica. Um modo direto de visualizar e calcular os parâmetros (fator e ângulo) da anisotropia geométrica é através do esboço gráfico de uma elipse, calculada através dos alcances obtidos em direções distintas, conforme Figura 13. As convenções que seguem, são as adotadas por Deutsch e Journel (1992). Para o eixo maior da elipse, denominado direção de máxima continuidade, aplica-se o maior alcance (a1). O ângulo da direção de máxima continuidade é definido a partir da direção Norte e no sentido horário. Seu valor corresponde à direção de maior alcance. O eixo menor define o alcance (a2) na direção de menor continuidade, sendo este ortogonal à direção principal. (h) a C a h Co 120 O 30 O
  31. 31. 28 Figura 13. Representação gráfica da anisotropia geométrica em duas direções. FONTE: Modificada de Deutsch e Journel (1992), p. 24. O fator de anisotropia geométrica é definido como a razão entre o alcance na direção de menor continuidade (a2) e o alcance na direção de maior continuidade (a1). Neste caso, o fator de anisotropia geométrica é sempre menor que a unidade e o ângulo de anisotropia é igual ao ângulo da direção de máxima continuidade. Para efeitos de estimativa deve ser obtido um variograma único, entretanto este modelo geral deve levar em conta tal anisotropia (GUERRA, 1988). Como a anisotropia geométrica afeta apenas as características geométricas, isto é, não altera a variância o problema consiste em “corrigir” a distância que intervém no cálculo do variograma através de:    2 21 2 21 yyxxd  (17)  h =  d variograma “isotrópico” Utilizando-se a expressão anterior obtém-se um modelo isotrópico e é indiferente de tomar como base o alcance ax ou o alcance ay (Figura 14). N LO S 180 o 0 o 90 o 30 o 120 o a1 a2 Parâmetros da anisotropia Fator de anisotropia (Fa) Fa = a2 / a1 Ângulo de anisotropia (Aa) Aa = tomado da direção Norte para o eixo de maior continuidade. No exemplo = 30o .
  32. 32. 29 Figura 14. Modelo isotrópico. Existe ainda um outro tipo de anisotropia em que os variogramas apresentam os mesmos alcances (a) e diferentes patamares (C). Neste caso, a anisotropia é denominada Zonal. Como a isotropia, a anisotropia zonal também é um caso menos frequente presente nos fenômenos naturais. O mais comum é encontrar combinações da anisotropia zonal e geométrica, denominada anisotropia combinada. Considerar o variograma apresentado na Figura 15. Os pontos interligados com linhas tracejadas correspondem a variogramas experimentais em duas direções ortogonais. O variograma com maior patamar (vermelho) refere-se à direção de 60° e o variograma com menor patamar (verde) refere-se à sua direção perpendicular (150°). Os modelos de ajuste aos variogramas estão representados por linhas sólidas. a 2 a 2 a 1 a 1 Tornar isotrópico para menor alcance Tornar isotrópico para maior alcance
  33. 33. 30 Figura 15. Representação gráfica de anisotropia combinada. Segundo Isaaks e Srivastava (1989), a anisotropia zonal pode ser considerada como um caso particular da anisotropia geométrica, ao se supor um fator de anisotropia muito grande. Nesta condição, o alcance implícito na direção de menor continuidade é muito grande. A estrutura do variograma é então adicionada somente para a direção de maior continuidade. 5.4. Modelos teóricos O ajuste de um modelo teórico ao variograma experimental é um dos aspectos mais importantes da aplicação da teoria das variáveis regionalizadas e pode, se as devidas cautelas não forem tomadas, tornar-se uma das maiores fontes de ambiguidade e polêmica nessa aplicação. Toda estimativa geoestatística depende do modelo variográfico encontrado. Por isso se o modelo ajustado estiver errado, todos os cálculos subsequentes também o estarão. Como regra, quanto mais simples puder ser o modelo ajustado, melhor, e não se deve dar importância excessiva a pequenas flutuações que podem ser artifícios referentes a um pequeno número de dados. O ajuste do modelo do variograma pode ser a sentimento ou manual e automático. O ajuste a sentimento ou manual é feito por quem esta analisando os dados, comparando visualmente qual modelo teórico que melhor se ajusta aos dados. Já o automático é feito por um software como, por exemplo, com base nos valores da soma dos quadrados dos resíduos e do r2 da validação cruzada. (h) a C h Co 150 O 60 O C a
  34. 34. 31 Na análise estrutural do variograma, além do efeito pepita (C0), do patamar (C + C0) e do alcance (a), outros parâmetros podem ser fornecidos para posterior análise: - Alcance Efetivo – para alguns modelos o alcance é igual ao efetivo (esférico e linear), para outros, como o gaussiano e exponencial, o alcance efetivo representa 3a e 1,7a, respectivamente, devido ao longo espaço de curvatura da curva (GUERRA, 1988); - Estrutura ou Proporção Espacial C/(C+C0) – que determina quanto da variância espacial está presente na variância total da amostra. Dependendo do comportamento da variância (h) para altos valores de h, os modelos podem ser classificados em: modelos com patamar e modelos sem patamar. Os modelos com patamar normalmente são ajustes que representam a estacionaridade de segunda ordem, onde a variância aumenta com o aumento da distância entre amostras, até atingir o patamar onde se estabiliza (MACHADO, 1994). Já os modelos sem patamar satisfazem apenas a hipótese intrínseca e os variogramas podem ser definidos, mas não se estabilizam em nenhum patamar. 5.4.1. Modelos com patamar Para os modelos com patamar são encontradas, basicamente, quatro funções teóricas que se ajustam aos modelos de variograma: a) linear; b) esférico; c)exponencial; d) gaussiano (VIEIRA et al., 1983). Definindo C0 como efeito pepita, C0 + C como patamar e a como alcance esses modelos são: 5.4.1.1. Modelo linear A equação do modelo linear é:   h a C Ch  0 ah 0 (18)   CCh  0 ah  (19)
  35. 35. 32 onde: C/a é o coeficiente angular para 0<h<a. Neste modelo (Figura 16), o patamar é determinado por inspeção; o coeficiente angular, C/a, é determinado pela inclinação da reta que passa pelos primeiros pontos de (h), dando-se maior peso àqueles que correspondem a maior número de pares; o efeito pepita, C0, é determinado pela interseção da reta no eixo (h); o alcance, a, é o valor de h correspondente ao cruzamento da reta inicial com o patamar; e C = patamar - C0. Figura 16. Modelo Linear. 5.4.1.2. Modelo Esférico A equação do modelo esférico é:                        3 0 2 1 2 3 a h a h CCh ah 0 (20)   CCh  0 ah  (21) O modelo esférico (Figura 17) é obtido selecionando-se os valores do efeito pepita (C0) e do patamar (C0 + C), depois passando uma reta que intercepte o eixo y em C0 e seja tangente aos primeiros pontos próximos de h=0. Esta reta cruzará o patamar à distância
  36. 36. 33 a'=2/3 a. Assim, o alcance (a) será a=3a'/2. Como definido, o modelo esférico é aproximadamente linear até cerca de 1/3 a, conforme Vieira (2000). Figura 17. Modelo Esférico. Vários pesquisadores (TRANGMAR et al., 1987; PAZ et al., 1996; SALVIANO, 1996) afirmam que o modelo esférico é o mais adaptado para descrever o comportamento de variogramas de atributos de plantas e de solos. Neste o patamar e o alcance são claramente identificados e geralmente o efeito pepita é pequeno em relação a este patamar (LAMPARELLI et al., 2001). 5.4.1.3. Modelo Exponencial A equação do modelo exponencial é:                         a h eCCh 3 0 1 0 < h < d (22) onde: d é a máxima distância na qual o variograma é definido. Uma diferença fundamental entre o modelo exponencial e o esférico é que o exponencial (Figura 18) atinge o patamar apenas assintoticamente, enquanto que o modelo esférico o atinge no valor do alcance. Os
  37. 37. 34 parâmetros C0 e C para os modelos exponencial e gaussiano são determinados da mesma maneira que para o esférico. Figura 18. Modelo Exponencial. O gráfico para o modelo exponencial aumenta mais devagar da origem em direção ao patamar, e não se pode dizer que o modelo atinja realmente o patamar (LAMPARELLI et al., 2001). Caso o efeito pepita seja muito pequeno e a estrutura de variabilidade crescer de maneira bastante suave, o variograma pode ser melhor ajustado pelo modelo gaussiano. Esse modelo é altamente desejável, pois apresenta boas propriedades, como uma continuidade na variabilidade a medida que os pontos se afastam entre si. 5.4.1.4. Modelo Gaussiano A equação do modelo gaussiano é:                             2 3 0 1 a h eCCh 0 < h < d (23) O modelo gaussiano (Figura 19) é um modelo transitivo, muitas vezes usado para modelar fenômenos extremamente contínuos (ISAAKS; SRIVASTAVA, 1989).
  38. 38. 35 Figura 19. Modelo Gaussiano. Semelhante no modelo exponencial, o modelo gaussiano atinge o patamar assintoticamente e o parâmetro a é definido como o alcance prático ou distância na qual o valor do modelo é 95% do patamar (ISAAKS; SRIVASTAVA, 1989). O que caracteriza este modelo é seu comportamento parabólico próximo à origem. 5.4.2. Modelos sem patamar Estes modelos correspondem a fenômenos que têm uma capacidade infinita de dispersão, e por isso, não têm variância finita e a covariância não pode ser definida. Indicam presença de tendência nos dados. Eles podem ser escritos da seguinte maneira:   B AhCh  0  0 < B < 2 (24) Os parâmetros A e B são constantes que definem o modelo, sendo B estritamente maior que zero e menor que dois para garantir a condição de positividade definida condicional (GUIMARÃES, 2004).
  39. 39. 36 5.5. Escalonamento do variograma Quando se escalona um variograma pela variância, o efeito pepita torna-se automaticamente uma fração do patamar (VIEIRA et al., 1998), facilitando as interpretações e comparações entre variogramas de diferentes propriedades, já que assim pode verificar se contam com o mesmo padrão de variabilidade espacial, uma vez que assumem valores em uma escala padronizada. Quando se escalonam dois variogramas de variáveis diferentes eles podem passar a apresentar variabilidade espacial semelhante, ou seja, valores próximos de efeito pepita, alcance e patamar (VIEIRA, 1997). Quando isto ocorre, a razão mais provável é que os processos que regulam estas variáveis na área de estudo são semelhantes no espaço. Espera-se este comportamento para variáveis como CTC e V%, principalmente em áreas pequenas, uma vez que expressam grandezas semelhantes, e sendo assim espera-se que tenham comportamentos espaciais parecidos (VIEIRA, 1997). Como a escala de (h) pode variar muito é utilizado o escalonamento dos variogramas individuais para a uniformização.     1 1    h hsc  (25) onde: 1 é o fator de escala. Os fatores de escala pode ser: valor da S2 de cada variável; valor da média ao quadrado; C do variograma individual. Após escalonar os variogramas, a soma dos parâmetros C0 e C deve ser 1, já que o fator de escala utilizado são os valores das variâncias (VIEIRA, 1997). Caso esse valor se exceda e se apresente como 1,1, significa que o patamar está excedendo a variância em 10%. Na Figura 20 é apresentado o variograma não escalonado e o variograma escalonado.
  40. 40. 37 Figura 20. Variograma não escalonado e variograma escalonado pela variância dos dados. 6. Interpolação de dados A técnica da confecção dos mapas de isolinhas, onde são geradas estimativas de valores em pontos não amostrados a partir de pontos amostrados, denomina-se interpolação de dados (ZIMBACK, 2003). Muitos autores pesquisaram métodos de interpolação e principalmente compararam os diversos métodos, como: método da triangulação (LAM, 1983), método dos polígonos (ISAAKS; SRIVASTAVA, 1989), método do inverso da distância (BROOKERS, 1991; GOTWAY et al., 1996), método do vizinho mais próximo (MYERS, 1991). Entretanto esses métodos não fornecem o algoritmo dos erros associados aos resultados obtidos o que ocorre apenas com a metodologia geoestatística da Krigagem, segundo um modelo contínuo de variação espacial (HOSSEINI et al., 1993; YOST et al., 1982). A Krigagem é o método de interpolação geoestatística, que usa a dependência espacial expressa no variograma entre amostras vizinhas para estimar valores em qualquer posição dentro do campo, sem tendência e com variância mínima. Estas duas características fazem da Krigagem um interpolador ótimo (BURGESS; WEBSTER, 1980). Todavia não há garantia que o mapa obtido pela Krigagem tenha o mesmo variograma e a mesma variância que os dados originais, pois se trata, pela própria natureza do método, de um mapa com valores suavizados. Essa questão é resolvida pela simulação, que permite infinitas realizações de mapas, cada qual com aproximadamente o mesmo variograma e a mesma variância que os dados originais. Teoricamente a média de um grande número de mapas 0.0 0.5 1.0 1.5 0 5 10 15 20 Distância (h) Variância 0.0 5.0 10.0 15.0 20.0 0 5 10 15 20 Distância (h) Variância
  41. 41. 38 simulados deve fornecer resultados mais reais e, consequentemente, mais confiáveis para predições. O nome Krigagem foi dado em homenagem ao engenheiro de minas Sul Africano, Krige. Segundo Rossi et al. (1994), três características da Krigagem a distinguem dos outros métodos de interpolação. São elas: pode fornecer uma estimativa maior ou menor que o valor das amostras, sendo as técnicas tradicionais restritas as faixas de variações das amostras; tem a vantagem de usar a distância e a geometria entre as amostras, enquanto que os métodos tradicionais usam distâncias euclidianas para avaliar as amostras; e, diferente dos métodos tradicionais, a Krigagem leva em conta a minimização da variância do erro esperado, por meio de um modelo empírico da continuidade espacial existente ou do grau de dependência espacial com a distância ou direção, expresso pelo variograma. Como postulado por Burrough et al. (1998), quando os dados são abundantes, a maior parte dos métodos de interpolação produz valores semelhantes. Os métodos tradicionais de interpolação espacial, como triangulação, média local das amostras e método da distância inversa, estão amplamente disponíveis nos programas do mercado. No caso de dados esparsos, no entanto, tais métodos possuem limitações na representação da variabilidade espacial, porque desconsideram a anisotropia e a continuidade do fenômeno que se quer observar. Além disso, deixam sem resposta algumas questões importantes, tais como: o tamanho ideal do domínio ou da janela de estimação, a forma e a orientação que deve ter a janela para se obter uma estimação ótima, se existem outros modos para estimar os pesos além daqueles baseados em função de distância, e quais são os erros (incertezas) associados aos valores estimados. Segundo Oliver e Webster (1990), a Krigagem engloba um conjunto de métodos de estimação: Krigagem simples, Krigagem ordinária, Krigagem indicativa, Krigagem universal, Krigagem disjuntiva, Cokrigagem, etc. A Krigagem ordinária é mais utilizada do que a Krigagem simples por não exigir conhecimento nem estacionariedade da média sobre toda a área estudada; o conhecimento da média em uma determinada área de trabalho exige que se tenha tido muitos dados anteriores ao atual estágio, que permitam tal estimativa (ANDRIOTTI, 2005).
  42. 42. 39 6.1. Krigagem ordinária A Krigagem ordinária utiliza um estimador linear não-viciado com mínima variância ("BLUE-Best Linear Unbiased Estimator") para interpolação do atributo medido em posições não-amostradas (ISAAKS; SRIVASTAVA, 1989). Linear porque suas estimativas são feitas por combinações lineares; Unbiased (sem viés) porque o erro de estimativa esperado é nulo; e best porque seu objetivo é minimizar a variância destes erros de estimativa (INOUE et al., 1999). O estimador é uma combinação linear que é uma média móvel e leva em conta a estrutura de variabilidade encontrada para aquela variável (medida), expressa pelo variograma e pela localização dos valores conhecidos (LAMPARELLI et al., 2001). Pontos próximos da posição a ser interpolada apresentam maiores pesos que os mais distantes. Na Krigagem ordinária, que é a mais utilizada, e descrita por Trangmar et al. (1985), o valor interpolado de uma variável regionalizada Z(x0), num local x0, pode ser determinada por:      n i i xZxZ 1 10  (26) onde: )( 0xZ = valor estimado para local 0x não amostrado; )( ixZ = valores obtidos por amostragem no campo; e i = pesos associados ao valor medido na posição xi A melhor estimativa de z*(x0) é obtida quando: a) o estimador é não tendencioso     0* 00  xZxZE (27) b) a variância da estimativa é mínima
  43. 43. 40      mínimoxZxZVar  00* (28) Para que z* seja uma estimativa não tendenciosa de z, a soma dos pesos das amostras deve ser igual a 1. 1 i (29) Para obter a variância mínima sob a condição de 1 i , introduz-se o multiplicador de Lagrange para a dedução das equações e o sistema de Krigagem resultante é:    0 1 ,, xxxx i n i jii   (30) onde:  é o multiplicador de Lagrange. A variância de estimativa é dada por:   0 2 ,xxiiE  (31) O sistema de equações da Krigagem contém n+1 equações e n+1 incógnitas e uma única solução produz n pesos  e um multiplicador de Lagrange  . Em notação matricial, chamando de A a matriz das variâncias dos valores amostrados envolvidos na estimativa de z*(x0);  a matriz coluna que contém os pesos i e o multiplicador de Lagrange e b a matriz coluna das variâncias entre os valores amostrados e o ponto a ser estimado, tem-se: bA  (32)
  44. 44. 41 E, portanto: bA 1  (33) A variância da estimativa 2 E é dada por:  t E b2 (34) As matrizes A, b e  são: A=                   01......11 1,......,, .............................. .............................. .............................. 1,......,, 1,......,, 21 22212 12111 nnnn n n xxxxxx xxxxxx xxxxxx    b=       1 , ...... ...... ...... , , 2 1 nn n n xx xx xx     =     n ... ... ... 2 1 (35) Obs.: i) A matriz A é simétrica e possui diagonal principal igual a zero, ou igual ao valor do efeito pepita. ii) Os valores 1 que aparecem nas matrizes A e b são consequência do multiplicador de Lagrange. iii) O sistema deve ser resolvido para cada estimativa z* e para cada variação do número de amostras envolvidos na estimativa. Segundo Landim, 2000, ao ser constatado que a variável não possui continuidade espacial na área estudada, não há sentido lógico em estimar/interpolar usando a Krigagem, e o único meio disponível para se verificar a existência ou não de continuidade espacial e, se houver, quais os parâmetros que caracterizam este comportamento regionalizado, é a análise variográfica. A maneira como é feita a coleta de amostras e a sua representatividade determinam como deverá ser calculada a Krigagem ordinária: pontual ou em bloco. A Krigagem pontual é indicada quando a coleta é de amostras simples, isto é, não foram
  45. 45. 42 misturadas várias amostras para compor uma amostra composta, sendo neste caso é indicado a Krigagem em bloco porque ela irá representar uma área. De acordo com Uzumaki (1994), o sistema de Krigagem ordinária tem solução única se o modelo de variograma for válido. A Krigagem, além de ser um estimador não tendencioso, é um interpolador exato, isto é, se o ponto a ser estimado coincidir com um dos pontos amostrados, o valor estimado deverá ser igual ao valor amostrado. 6.1.1. Exemplo: estimativa de um ponto Este exemplo foi retirado de Landim (2003). Seja uma situação hipotética em que se dispõem de 4 pontos com observações referentes à profundidade de um filão mineralizado e se deseja estimar em um novo pontos a profundidade desse veio (Figura 21). Supõe também que a análise variográfica revelou um modelo linear para os dados com uma relação de 5m2 km-1 , dentro de uma vizinhança de 40 km. Modelo linear:  = 5 h Figura 21. Pontos amostrais. Pontos Xi Yi Zi 1 0 30 500 2 30 30 450 3 0 0 550 4 30 0 490 X 15 15 ? Como os pontos se apresentam numa rede quadrada de dimensões 30 x 30, as distâncias entre eles são:
  46. 46. 43         kmdddd 3043423121  (36)     kmdd 43,423241  (37)         kmxdxdxdxd 21,214321  (38) Pelo modelo linear do variograma, tais distâncias correspondem às seguintes variâncias: 2 05,10621,21 km (39) 2 15000,30 km (40) 2 15,21243,12 km (41) Desse modo, pode-se construir o sistema de equações para a estimativa por Krigagem ordinária do ponto X: (42) o qual é resolvido segundo      BA 1  (43)
  47. 47. 44 (44) (45) Isso significa que, como esperado pela distribuição regular dos pontos, cada um deles tem o peso de 0,25 para a estimativa de X:           mxZ 50,49745025,055025,045025,050025,0  (46) A variância associada a tal estimativa é:         22 063,849875,215,10625,05,10625,05,10625,05,10625,0 mSk  (47) mSk 169,9 (48) Supondo que, a distribuição dos valores da estimativa apresente distribuição normal em torno do valor real e que, portanto, 95% dessa distribuição está no intervalo de mais ou menos 1,96 desvio padrão, tem-se que o intervalo de confiança é da ordem de  9,169 * 1,96 = 18 m. A estimativa do ponto X é, portanto: 497,50 m  18 m.
  48. 48. 45 Supor, em seguida, que um dos pontos de controle coincida com aquele a ser estimado, por exemplo, que o local X seja o mesmo que 1 (Figura 22). Neste caso apenas o vetor  B apresenta-se modificado, permanecendo inalterado a matriz  A : Figura 22. Pontos amostrais a ser estimado. (49) Resolvendo o sistema, encontra-se o seguinte resultado: 11  e 0432   (50)           mxZ 5004900550045005001  (51) que é exatamente o valor do poço1. A variância da estimativa, como esperado, é igual a:         015,212015001500012 k S (52) Isso mostra que a Krigagem é um método que fornece interpoladores exatos, pois ao prever valores em pontos previamente conhecidos o faz sem erro.
  49. 49. 46 Através da análise de mapas de contorno ou de superfície, gerados por meio da Krigagem, pode-se tomar decisões importantes, por exemplo, em relação ao aumento da eficiência na utilização de fertilizantes, com redução de custo e aumento de produtividade. Isto porque a aplicação de recomendações médias de fertilizantes, usualmente utilizadas pelos agricultores, pode resultar em uma super ou sub-fertilização de uma área, com implicações negativas no ambiente e na relação custo-benefício (MULLA et al., 1992). O mapeamento da variabilidade espacial das propriedades do solo permite a aplicação de fertilizantes por zonas de manejo, de forma diferenciada, favorecendo a otimização da produtividade, aumentando a eficiência do insumo, maximizando os benefícios e reduzindo custos. Conforme (LANDIM, 2000), a técnica da Krigagem apresenta as seguintes vantagens: - valores estimados baseiam-se no variograma; se for apropriado, fornece as seguintes informações: - parâmetros adequados de amostragem: número de amostras, distribuição e densidade; - parâmetros adequados de busca: tamanho de área de busca, forma (circular ou elipsóide) e, se elipsóide, orientação do eixo principal; - parâmetros adequados de grade: tamanho das células, forma e orientação; - natureza da distribuição espacial da variável investigada: uniformidade da distribuição, importância relativa da influência espacial x casual; - previsibilidade da variação da variável avaliada; - se o variograma for apropriado controla a Krigagem, com as seguintes vantagens: - evita ponderação arbitrária dos pontos amostrados; - permite a determinação das melhores estimativas sem tendenciosidade: o melhor estimador é aquele que produz a melhor precisão (menor variância); - permite o estabelecimento de limites de confiança, indicando se os resultados são aceitáveis e se a estratégia de amostragem deve ser modificada; - precisão, contornos suaves, artefatos indesejáveis raros a não ser nas bordas do mapa; - interpolador exato: os valores estimados são exatamente iguais aos valores amostrados na mesma posição; - estima além dos limites máximo e mínimo dos valores dos pontos amostrados; - modela tanto tendências regionais quanto anomalias locais; - Calcula variância dos pontos estimados (erros), que podem ser utilizadas para:
  50. 50. 47 - quantificar um intervalo de valores (±) para os pontos estimados, definindo estimativas realistas; - calcular intervalos de confiança para verificar a probabilidade dos valores ocorrerem dentro de um intervalo de ± 2 unidades de desvio padrão da média; variâncias mapeadas podem indicar locais para adensamento da amostragem. Segundo Landim (2000), a técnica da Krigagem apresenta as seguintes desvantagens: - o usuário pode não compreender o uso dos controles matemáticos e apesar disto resultados são sempre obtidos; - é necessário tempo para preparo do variograma e entendimento de geoestatística; - pode não ser possível a construção de um variograma adequado devido à natureza da variação espacial da variável analisada. Isto pode ocorrer devido à magnitude da amostragem e por erros analíticos; - requer longo tempo de computação para grupos de dados grandes ou complexos. - necessidade de programa capacitado. Conforme Landim (2000), a técnica da Krigagem deve ser utilizada quando: - estiverem presentes tanto tendências regionais quanto anomalias locais; - anomalias local não presente em toda a área, por ex. em ambientes fluvial; - quiser estimar com base em uma Média global; - tiver dados irregularmente amostrados ou agrupados; Conforme Landim (2000), a técnica da Krigagem não deve ser utilizada quando: - ocorrer menos de 30 pontos amostrados: número insuficiente de pares para modelar o variograma; - valores discrepantes de Z: removê-los antecipadamente; - erro grande e inexplicado (efeito pepita pronunciado); - amostras de populações diversas. 7. Validação de modelos de variogramas O ajuste do variograma é um procedimento que fica a critério do pesquisador, mas geralmente é feito "a sentimento". Para este tipo de ajuste pode-se utilizar algumas
  51. 51. 48 técnicas chamadas de validação cruzada ou de autovalidação para selecionar o variograma adequadamente (GUIMARÃES, 2004). 7.1. Validação cruzada Para a comparação dos métodos de interpolação alguns critérios são utilizados, como por exemplo: quadrado médio do erro (WARRICK et al., 1988), quadrado da soma dos erros (LASLETT et al., 1987) e coeficiente de correlação entre os valores observados e estimados obtidos pela validação cruzada (cross-validation) proposto por Leenaers et al. (1990). Com toda a subjetividade e variabilidade de resultados nos cálculos dos parâmetros do variograma, é importante que se tenha um meio para verificar se o modelo ajustado é satisfatório ou não (DAVID, 1988), bem como para validar o plano de Krigagem antes do seu uso na construção de mapas. O método da reutilização da amostra utilizado por Schucany (1981), tem o propósito de predição de locais não amostrados. Mais tarde, Davis (1987) descreveu o método de “deixar um dado de fora” (leaving-one-out), ressaltando a diferença da validação cruzada com outro método, muito confundido em inúmeros trabalhos, que tem função distinta que é o “jack-knifing”. O processo de validação cruzada, de acordo com Myers (1997), é bastante simples: remove-se um dado do conjunto de dados amostrais e, usando-se um estimador e função ponderada relacionada com a distância, estima-se o valor retirado, utilizando-se as amostras remanescentes. Têm-se, agora, dois valores para o mesmo ponto, o real e o estimado. O erro da estimação pode ser calculado pela diferença entre o valor real e o estimado, sendo repetido para cada local amostrado. O erro padrão de estimação avalia quantitativamente o ajuste do variograma e os erros dele decorrentes na Krigagem, utilizando-se dos conceitos definidos por Davis (1987). Um fator que afeta o cálculo de precisão do método de interpolação é o número de amostras vizinhas usadas para a estimação (GOOVAERTS, 1997). O raio de pesquisa onde serão avaliadas as amostras, também, é muito importante para uma boa estimação e, consequentemente, uma boa validação, como o definido por Kane et al. (1982).
  52. 52. 49 Deve ser ressaltado ainda que, a estimação do valor depende do modelo variográfico escolhido, (ISAAKS; SRIVASTAVA, 1989). 8. Krigagem indicativa A Krigagem indicativa, consiste basicamente na aplicação da Krigagem ordinária para a variável transformada, ou seja, a variável resultante da aplicação da função não linear f(z) = 0 ou 1. O conceito inicial foi apresentado por Journel (1983) como uma proposta para construir uma função de distribuição de probabilidades acumuladas (cumulative distribution function, “cdf”) para a estimativa de distribuições espaciais. O conceito da transformação indicativa é dos mais simples e amigável, visto que os variogramas indicativos são os mais fáceis de modelar (LANDIM; STURARO, 2002). No processo básico da Krigagem, a estimativa é feita para determinar um valor médio em um local não amostrado. Pode-se, porém, também fazer estimativas baseadas em valores que se situam abaixo ou acima de um determinado nível de corte (cutoff) (LANDIM; STURARO, 2002). Este procedimento, estabelecido para vários níveis de corte (percentis, decis e/ou quartis, por exemplo) de uma distribuição acumulada, conduzirá a uma estimativa de vários valores dessa distribuição em um determinado local, cuja função pode ser ajustada (LANDIM; STURARO, 2002). Segundo a metodologia geoestatística os valores de um determinado atributo num determinado ponto do espaço x podem ser considerados como uma realização de uma variável aleatória (VA), descrita como Z(x). No ponto x, portanto, Z(x) pode assumir diferentes valores para o atributo considerado, com cada valor associado a uma determinada probabilidade. Desse modo, uma variável aleatória, contínua ou discreta, após ordenada pode ser caracterizada pela sua função de distribuição acumulada condicionada, isto é, uma função de distribuição acumulada condicionada aos n dados amostrados (conditional cumulative distribution function, “ccdf”) (LANDIM; STURARO, 2002). Para se atingir estes objetivos o primeiro passo, na Krigagem indicativa, é transformar os dados originais em indicadores, isto é, transformar os valores que estão acima de um determinado nível de corte em zero (0) e os que estão abaixo em um (1):
  53. 53. 50   1cj vi se cj vv  (53)   0cj vi se cj vv  (54) onde vc = nível de corte e vj é o valor observado. A frequência acumulada de valores observados, por exemplo, abaixo do nível de corte pode ser expressa por:      n i cjc vi n vF 1 1 (55) De modo idêntico, a proporção de valores abaixo do nível de corte pode, também, ser considerada como a média ponderada dos indicadores, no caso 1, situados na vizinhança do local avaliado segundo:      n j cjjc viwvF 1 (56) onde wj são os pesos, cuja soma deve ser 1 pela condição de não viés; ij os indicadores e vc o nível de corte. Desta forma, são calculados os variogramas experimentais indicativos para determinados níveis de corte e estabelecidos os modelos variográficos para os mesmos. Os variogramas indicativos podem ser estimados pela função:         hN i cc h ci vxivhxi N vh 1 2 ,, 2 1 , (57) onde: h = passo (lag) básico Vc= nível de corte (cutoff) N = número de pares
  54. 54. 51 Efetuando-se a Krigagem ordinária pontual nos valores transformados, obtém-se a probabilidade de vi < vc. À medida que se incrementa vc, obter-se-ão valores estimados da função de distribuição de probabilidades acumuladas, assim expresso (LANDIM; STURARO, 2002):               n vvi E n v vF cc , (58) com (vi;vc) = 1, se vi ≤ vc. Definidas as funções da distribuição acumulada, pode-se, portanto, obter qualquer intervalo probabilístico da variável, ou seja:    ij vFvF  (59) onde: vj > vi . Por fim, de posse dessas proporções para os vários níveis, estabelece-se a função de distribuição acumulada condicionada para os diversos locais de ocorrência da variável sob análise. Se não há níveis de corte com especial significado com relação à variável sob estudo, o usual é escolher 9 níveis correspondentes aos decis da distribuição. Independentemente do número de níveis distribuição acumulada da curva será sempre em função de um número finito de pontos. Para uma estimativa completa haverá necessidade de interpolações, entre os níveis considerados, e extrapolações para as além do primeiro e do último nível. Antes de efetuar a Krigagem indicativa, é necessário que para cada nível de corte seja encontrado um variograma e uma boa aproximação, se possível, é procurar encontrar o mesmo modelo para todos eles, principalmente aquele correspondente à mediana (ISAAKS; SRIVASTAVA, 1989).
  55. 55. 52 9. Cokrigagem 9.1. Variograma cruzado Existem alguns casos em que a determinação de variáveis em estudo é cara e de difícil amostragem, comprometendo assim o estudo da variabilidade espacial de tal variável. Para esses casos aplica-se um método chamado cokrigagem que se baseia nos parâmetros expressos por um variograma cruzado entre duas variáveis para a estimativa de novos valores em locais não amostrados. Os variogramas cruzados têm por objetivo descrever a variabilidade espacial e/ou temporal simultâneas entre duas variáveis aleatórias, sendo que, uma dessas variáveis deve ser de simples determinação (covariável), isto é, fácil amostragem e/ou baixo custo e apresentar uma alta correlação espacial com a variável de difícil determinação (variável primária) que se deseja estimar valores. Desta forma, estará trabalhando com a idéia de covariável. Considerar duas variáveis {Z1(t1i), i=1,...,n1} e {Z2(t2j), j=1,...,n2}, com as amostragens feitas no mesmo espaço (área ou tempo), mas que o número de amostras de Z1 seja superior ao número de amostras de Z2 (n1 >n2). Assumindo que pelo menos a hipótese intrínseca está sendo atendida para cada variável individualmente e para a distribuição conjunta das variáveis, pode-se definir os variogramas individuais e os variogramas cruzados como:        212112 mmxZhxZEhCov  (60) e        121221 mmxZhxZEhCov  (61) Consequentemente, o variograma cruzado entre estas variáveis será:                         xZhxZxZhxZ hN h hN i 22 1 1112 2 1  (62)
  56. 56. 53 O variograma cruzado só será calculado quando algumas exigências forem atendidas: A) As informações existentes devem ser provenientes da mesma posição geográficas para ambas as variáveis. Isto significa que Z1 e Z2 devem ser definidas para os mesmos locais; B) As variáveis em estudo Z1 e Z2 devem ser correlacionadas. A covariável utilizada deve apresentar uma alta correlação espacial com a variável primária a ser estimada; C) As variáveis Z1 e Z2 devem apresentar dependência espacial individualmente. Tanto a variável primária a ser estimada, quanto a covariável utilizada, devem apresentar o variograma experimental ajustado a um modelo teórico, e parâmetros bem definidos; D) Para que a cokrigagem seja aplicada, as variáveis Z1 e Z2 devem apresentar dependência espacial em conjunto, dependência esta expressa pelo variograma cruzado. 9.1.1. Características ideais Um variograma cruzado com características que podem ser identificadas como ideais, teria aparência do variograma simples (de uma única variável, ou seja, patamar definido, variância crescente para pequenas distâncias, modelo esférico), porém, com significados diferentes, pelo simples fato de envolver o produto das diferenças de duas variáveis diferentes. Por exemplo, ao contrário do variograma, não é obvio que o valor do variograma cruzado para h=0, deva ser nulo. Assim, além de espaços menores do que à distância de amostragem, acumulado no mesmo parâmetro, está à falta de correlação entre as duas variáveis. O alcance aqui representa apenas o final ou a distância máxima de dependência espacial entre as variáveis. Já o patamar do variograma cruzado, se existir, deve aproximar-se do valor da covariância entre as duas variáveis. Assim, quando as duas variáveis forem de correlação inversa, isto é, quando aumenta uma a outra diminui, a covariância será negativa e, consequentemente, o variograma cruzado será negativo. Os modelos utilizados para o variograma cruzado são os mesmos já discutidos para o variograma simples (VIEIRA, 1998).
  57. 57. 54 9.2. Cokrigagem A cokrigagem é um procedimento geoestatístico segundo o qual diversas variáveis regionalizadas podem ser estimadas em conjunto, com base na correlação espacial entre si. É uma extensão multivariada do método da Krigagem quando para cada local amostrado obtém-se um vetor de valores em lugar de um único valor. A aplicação da cokrigagem torna-se bastante evidente quando duas ou mais variáveis são amostradas nos mesmos locais dentro de um mesmo domínio espacial e apresentam significativo grau de correlação. Valores ausentes não se tornam problemáticos, pois o método deve ser usado exatamente quando uma das variáveis apresenta-se sub-amostrada em relação às demais (LANDIM et al., 2002). A estimativa de uma variável Z* para qualquer local x 0 deve ser uma combinação linear de Z 1 e Z 2 , ou seja:          1 2 1 1 210 * n i n i iiii xZxZxZ  (63) Em que N 1 e N 2 são os número de vizinhos medidos de Z 1 e Z 2 , respectivamente, e λ 1 e λ 2 são os ponderadores associados a Z 1 e Z 2 os quais são distribuídos de acordo com a dependência espacial de cada uma das variáveis entre si e com a correlação cruzada entre elas. Da mesma forma que a Krigagem, para que este estimador seja ótimo, ele também deve ter variância mínima e ser não tendencioso. 10. Utilização do programa GS+® para análise geoestatística e interpolação O programa GS+® é um aplicativo completo e de fácil interação que esta disponível no mercado para a análise geoestatística. Pode ser adquirido ou encontrada uma versão de demonstração no endereço: http://www.gammadesign.com. O programa possui uma excelente ajuda interna, através do “Help” do programa.
  58. 58. 55 10.1. Utilização do programa GS+® para gerar variograma São apresentados exemplos de importação dos dados, análise exploratória dos dados, confecção e ajuste do variograma, interpolação dos dados, validação do modelo, e representação gráfica dos dados interpolados. Nos exemplos será utilizada a Versão 7.0 do GS+® (Figura 23). Figura 23. Programa GS+® Versão 7.0. 10.1.1. Importação dos dados Como ponto de partida é descrito a estrutura do arquivo de dados com vistas a posterior análise geoestatística, pois, é necessário que os valores obtidos estejam referenciados, ou seja, tenham suas coordenadas bem definidas. Será realizado a análise bidimensional e, portanto, tem-se as coordenadas X e Y para cada observação. O arquivo pode ser criado no próprio programa GS+® ou em outro programa, como o Excel® , necessitando, neste caso de uma importação de dados ou de "copiar" e "colar". Os dados podem ser importados de vários aplicativos, porem recomenda-se fazer a planilha de dados no Excel® para posterior importação, devido à facilidade de manuseio.
  59. 59. 56 Ao abrir o programa aparece uma planilha semelhante ao Excel® . Clicar em Impot file (Figura 24) e procurar onde se encontra a planilha elaborada no Excel® . Figura 24. Importação de dados para o GS+® A planilha deve aparecer no GS+® . Clicar OK. Caso ocorra o aparecimento de dados estranhos ou símbolos, verificar se em Iniciar – Configurações - Painel de Controle – Configurações Regionais está selecionado Ingês (EUA), por que no GS+® o sistema não é o métrico e o decimal é representado por ponto e não vírgula. A Figura 25 mostra o aspecto básico do arquivo de dados.
  60. 60. 57 Figura 25. Janela inicial do GS+® com exemplo de arquivo de dados contento as coordenadas (x,y) e 2 variáveis para a análise (densidade do solo e % de argila). Na primeira coluna encontra-se a coordenada X, na segunda coluna a coordenada Y e na terceira e quarta colunas tem-se as variáveis, ou seja, neste caso estão sendo consideradas duas 2 variáveis (Z1 e Z2). No topo de cada coluna, quando clicado, aparece a Figura 26 abaixo, onde pode ser selecionado o nome de cada variável. Para selecionar a variável a ser estudada basta clicar na coluna correspondente e selecioná-la como a variável principal. Por exemplo, procede-se da seguinte forma:
  61. 61. 58 Figura 26. Janela para colocar o nome da variável e para selecionar a variável a ser analisada. - Clicar sobre a coluna de interesse (coluna 3, neste exemplo); a coluna é selecionada e aparece a segunda janela, indicando a coluna ativa. - Clicar em Z (Primary variable) para selecionar esta coluna como sendo sua variável de analise. - Clicar em OK para confirmar a opção Pode-se ainda trabalhar com duas variáveis simultaneamente. Neste caso seleciona-se uma variável Z2 como covariável. 10.1.2. Análise Exploratória dos dados A barra de ferramenta apresenta os seguintes símbolos que são destinados a este tipo de análise (Figura 27):
  62. 62. 59 Figura 27. Barra de ferramenta para análise exploratória. Os ícones não ativos são destinados a análise com duas variáveis (variograma cruzados, cokrigagem, etc). Para exemplificar o resultado deste tipo de análise será utilizado os dados da primeira variável (densidade do solo - coluna 3). Clicando no ícone Σ, os principais parâmetros estatísticos são disponibilizados (Figura 28). Figura 28. Estatísticas da variável “densidade do solo”. Como uma análise geral desses dados verifica-se que a densidade do solo apresentou média de 1,328 (g cm-3 ), com uma dispersão média em torno desse valor de 0,202 (g cm-3 ) e, portanto, uma variabilidade de 15,21%. Deste modo nota-se que as observações se dispersam pouco em torno da média. O menor valor observado (0,82 g cm-3 ) e o maior valor observado (1,82 g cm-3 ) reforçam a idéia de baixa variabilidade das
  63. 63. 60 observações e também mostram que, provavelmente, não ha valores discrepantes que poderiam ser atribuídos a erros de determinação, digitação ou de amostragem. O histograma mostra uma tendência dos dados à simetria e este fato também pode ser verificado por meio dos coeficientes de assimetria e curtose associados aos seus respectivos erros padrão, que são respectivamente: 0,35±0,22 e -0,44±0,44. Como assimetria e curtose esta próximos de zero tem-se uma distribuição normal aproximada dos dados. Notar ainda que existe a possibilidade de se fazer análises com dados transformados. Para disponibilizar os gráficos de distribuição de freqüência, clicar como Figura 29. Figura 29. Análise gráfica dos dados No detalhamento da distribuição da variável em um primeiro momento tem-se a visualização do histograma e posteriormente pode-se fazer análises com distribuição de freqüências acumuladas e gráfico da distribuição normal. Qualquer modificação dos gráficos pode ser realizada usando Edit graph. Uma outra análise utilizada no GS+® é a localização espacial dos pontos amostrados com relação a intervalos de ocorrência. Para visualizar a espacialização da amostragem, clicar como Figura 30.
  64. 64. 61 Figura 30. Localização espacial das observações Verifica-se, por meio da Figura 30, que a princípio há indícios de concentração de valores altos ou baixos em setores específicos da malha, mas parece não existir tendência nos dados e, provavelmente, se existir relação espacial, esta poderá ser representada por um variograma médio (isotrópico). 10.1.3. Confecção e ajuste do variograma Na confecção dos variogramas, selecionar Variogram-Z, para visualizar o variograma teórico. Ativando o ícone do variograma, o programa apresenta a seguinte janela (Figura 31):
  65. 65. 62 Figura 31. Análise da variância A distância máxima para cálculo da variância deve ser no máximo igual à máxima distância de coleta da amostra. O GS+® adota como critério inicial 50% da distância máxima, isto se justifica pelo fato de que a grandes distâncias o número de pares para o cálculo da variância reduz-se drasticamente, fazendo com que a estimativa da variância tenha pouca precisão. Este valor pode ser alterado pelo usuário. Os passos para cálculo das variâncias consiste em como as variâncias vão ser agrupadas. Quanto maior for este valor menos pontos ter-se-a no variograma. Vale ressaltar também que, se este passo for muito pequeno, tem-se classes de distância sem pares para cálculo da variância. Para a análise do variograma isotrópico o ângulo de tolerância (offset tolerance) deve ser de 90° e, neste caso, os variogramas para as diferentes direções serão iguais. Não sera abordado neste texto a discussão sobre isotropia e anisotropia e procedimentos de análise de anisotropia. Na janela “variogram options” da Figura 33, se não for marcado as opções tem- se apenas o variograma experimental. Se for marcado a primeira opção, aparecerá uma linha tracejada que representa a variância amostral (s2 ), sendo desejável que, quando o
  66. 66. 63 nível de estabilização do variograma seja próxima a esta linha. Ao ser marcada a segunda opção tem-se uma proposta de modelo ajustado. A Figura 32 ilustra o resultado de um variograma. Figura 32. Exemplo de um variograma Notar que a Figura 32 apresenta ainda a opção model e a opção expand. O resultado da execução dessas funções são apresentados nas Figuras 35 e 36. A Figura 33 exibe as opções de modelos de variogramas.
  67. 67. 64 Figura 33. Modelos e análises dos modelos Conforme observado na Figura 35 o modelo ajustado aos dados de densidade do solo é o esférico, com um valor de efeito pepita de 0,0137 e patamar de 0,04600. O alcance encontrado para a densidade do solo é de 3,61m, ou seja, num raio de até 3,61m os dados estão correlacionados espacialmente. A soma de quadrado do erro é de 3,537 10-5 (ou 0,00003537), que é um erro muito pequeno, e o r2 é de 86%, mostrando assim que o modelo ajustado ao variograma experimental é adequado. A relação entre o C e o patamar, ou seja o índice de dependência espacial, foi de 70% apresentado moderada dependência espacial, conforme ZimbacK (2001). O GS+® permite, no comando model (Figura 33), visualizar os modelos com os respectivos ajustes feito pelo programa (vale relembrar que o GS+® seleciona o modelo com a menor soma de quadrados de resíduos (RSS)). Ao usuário é permitido a modificação do modelo selecionado ou, então, dos parâmetros dos modelos e, realizadas modificações, deve ser dado OK para que o programa tome este modelo como o modelo de variabilidade espacial ou temporal daquela variável. Para retornar ao modelo padrão do GS+® clicar no comando Autofit. Observações: a) O programa não apresenta o modelo com efeito pepita puro. Para obter este modelo utilize o modelo linear com C0 = C0 +C.
  68. 68. 65 b) No ajuste do modelo a sensibilidade do usuário é muito mais importante do que os valores de R2 e RSS e, portanto, tentativas de ajustes diferentes ao proposto pelo programa devem ser utilizadas, mesmo que isso cause queda no valor de R2 e acréscimo no valor de RSS. g) O programa não apresenta a opção de ajuste de modelo sem patamar. A Figura 34 mostra o resultado da execução do comando expand. Figura 34. Variograma e opções de edição Nesta tela tem-se a exibição das variâncias calculadas, do modelo de variograma ajustado e dos parâmetros desse modelo. A listagem dos valores de variâncias (Figura 35) com as respectivas distâncias de cálculo (list values), permite que estes valores sejam transportados para outros programas e tenha a opção de agrupar vários modelos em uma única figura.

×