INTRODUÇÃO
Tanto nomeio acadêmico como na industria é comum e até necessário
relacionar fatores, normalmente isso é feito utilizando funções
matemáticas do tipo y=f(x);
A maneira mais confiável é através de modelos (equações) teóricas, porem
nem sempre isso é possível;
Outras forma de aproximação é através de equações empíricas;
A equação empírica mais simples para aproximação de dados a curvas é a
função linear;
O problema do uso de equações empíricas é que as mesmas só são válidas
para a região analisada;
Outro ponto importante é a necessidade de uma quantidade de ensaios
suficientemente grande para confirmar o comportamento físico analisado.
3.
ANÁLISE DE UMMODELO LINEAR
Considerando o exemplo do rendimento de uma
reação com um catalisador a temperaturas diferentes.
4.
ANÁLISE DE UMMODELO LINEAR
Neste caso, é possível aproximar esse comportamento por uma equação
linear, tendo-se para qualquer caso um comportamento do tipo.
Onde b0 e b1 são os parâmetros da equação;
Ti e yi são respectivamente a temperatura da reação química e o
rendimento obtido de cada análise realizada;
ei é o resíduo deixado entre a função e o valor real;
Para todos os cinco ensaios realizados,tem-se as equações.
5.
ERRO OU RESÍDUO
É praticamente impossível fazer com que a equação se aproxime
perfeitamente dos pontos estudados;
Assim, sempre existirá um erro verificado entre a equação e os dados
experimentais;
Neste caso o erro (ei) é a diferença entre o valor experimental (yi) e o valor
obtido pela equação (ŷi), a equação já deve possuir seus respectivos
estimadores b0 e b1;
A solução a ser encontrada para o caso mostrado não passa
necessariamente por nenhum ponto experimental.
6.
MÉTODO DOS MÍNIMOSQUADRADOS (MMQ)
Como encontrar o melhor resultado? já que sempre tem-se
um erro entre a equação e os dados experimentais;
Pode-se tentar diminuir o erro até o limite;
Como? Derivando o quadrado do erro em função das
constantes e igualando a zero;
Porque utilizar o quadrado do erro e não o próprio erro?
7.
PROPRIEDADES DO MMQ
O somatório dos erros é sempre igual a zero;
O somatório do quadrado dos erros é mínimo;
O somatório dos valores de saída experimentais é igual
ao somatório dos valores de saída da equação;
A equação obtida passa no valor médio dos dados.
ANÁLISE DA VARIÂNCIA
Analisar o resíduo é de fundamental importância para verificar a qualidade
do modelo encontrado;
Um modelo ideal não possui resíduos;
Para se fazer essa análise deve-se inicialmente decompor a diferença entre
os valores experimentais e a média (yi- );
na diferença entre os resultados do modelo e a média (ŷi- ) e na diferença
entre os valores experimentais e os resultados do modelo (yi-ŷi);
Num modelo ajustado (yi-ŷi) deve ser muito pequena.
10.
ANÁLISE DA VARIÂNCIA
Analisando todos os dados experimentais (somatório) e
elevando ao quadrado, tem-se;
Coeficiente de determinação
O coeficiente de determinação (R2) indica em termos percentuais o
quanto a equação consegue explicar do comportamento analisado;
A raiz quadrada de R2 é o coeficiente de correlação (r).
11.
GRAUS DE LIBERDADE
Outro ponto importante é saber os graus de liberdade de cada soma
quadrática (SQ);
Para a soma quadrática residual (SQr), caso se possua n ensaios
realizados então se terá (n-1) graus de liberdade, pois o ultimo valor
pode ser conhecido, já que:
Como os termos X são determinados antes do experimento então não
representam graus de liberdade do problema, sobrando somente b1,
ou seja, tem-se um grau de liberdade;
Balanceando os resultados pode-se mostrar os graus de liberdade (v)
de cada SQ.
Para a soma quadrática da regressão (SQR), para o nosso caso
particular ;
12.
GRAUS DE LIBERDADE
Estes resultados podem ser demonstrados de modo mais
geral na tabela de análise de variância (ANOVA) abaixo:
Caso se desejasse fazer a análise com um modelo matemático
com p parâmetros (no caso analisado aqui foram dois), os
graus de liberdade poderiam ser representados do seguinte
modo:
INTERVALOS DE CONFIANÇA
Apesar de já se ter obtido os parâmetros da equação, o quão
confiável são esses valores?
Ou seja, caso façamos mais ensaios experimentais (na mesma região
analisada) os resultados serão exatamente iguais?
Para responder essas perguntas admitiremos três hipóteses.
1) A variância (s2) dos erros (e) é constante na região analisada
(homoscedasticidade);
2) Não existe correlação entre os erros (e) de níveis diferentes
Cov(ei,ej)=0 com i ≠ j;
3) Os erros (e) seguem uma distribuição normal.
15.
INTERVALOS DE CONFIANÇA
Apartir dessas considerações, é possível provar
que:
Onde epb é o erro padrão de cada parâmetro analisado;
Com isso tem-se o IC de cada parâmetro dado;
Devido a quantidade de dados ser pequena (n=5), utiliza-se a
distribuição t para demonstrar a probabilidade do resultado estar
correto (confiança do resultado).
16.
PARA O NOSSOEXEMPLO
Considerando um IC de 95 % e com n = 5 e p = 2
17.
SIGNIFICANCIA ESTATÍSTICA DAREGRESSÃO
Considerando que o erro da regressão possui
distribuição normal e que não existe relação entre o
modelo e os dados analisados, pode-se provar que a
razão entre as MQ segue uma distribuição F;
Para provar que esta relação existe o valor da razão de
MQ deve ser maior do que o valor encontrado pela
distribuição F;
Quanto maior esta diferença maior é a
representatividade do modelo;
Em termos práticos se considera que a razão de MQ
deve ser pelo menos dez vezes maior do que o valor
obtido pela distribuição F.
18.
PARA O NOSSOEXEMPLO
Considerando um IC de 95 % e com n = 5 e p = 2
Neste caso, o modelo apresentado apresenta uma razão
da MQ 28 vezes superior ao valor obtido pela
distribuição F;
Ou seja, a regressão apresentada é estatisticamente
significativa na região analisada.
19.
AMPLIANDO A ANÁLISE
Considere agora que foram realizados quatro novos ensaios
conforme tabela abaixo, obtendo-se os resultados;
A distribuição do resíduo é normal?
20.
MODELO QUADRÁTICO
Paraos dados anteriores pode-se tentar utilizar um modelo
quadrático, desse modo, tem-se:
21.
FALTA DE AJUSTEE ERRO PURO
Caso se realize uma quantidade de ensaios maior do que 1 cada nível de X
(no exemplo temperatura), é possível dividir a soma quadrática residual (SQr)
em duas partes, a SQ devido à falta de ajuste (SQfaj) e a SQ devido ao erro
puro (SQep);
Desse modo pode-se tentar melhorar o resultado obtido devido à falta de
ajuste, porém o valor de erro puro não pode ser modificado;
Considerando m o número de níveis analisados e ni o número de
experimentos realizados para cada nível i. É possível demonstrar que:
Nesta equação percebe-se que SQep é independente do modelo utilizado
(depende somente dos valores experimentais e da média destes);
SQep possuirá ni-1 graus de liberdade para cada nível de X e assim o
somatório para todos os níveis será (n-m);
O grau de liberdade (vfaj) do SQfaj é obtido da diferença entre vr e vep.
22.
FALTA DE AJUSTEE ERRO PURO
Com isso a Tabela de Análise de Variância apresentará a
seguinte configuração:
23.
AMPLIANDO A ANÁLISENOVAMENTE
Considere agora que foram repetidos todos os ensaios
conforme tabela abaixo, obtendo-se os resultados;
Verificar exemplo no excel.
24.
AMPLIANDO A ANÁLISENOVAMENTE
Com isso é possível fazer uma nova análise de variância dos
resultados.
Verificar exemplo no excel.