REGRESSÃO LINEAR
Parte II
Vitor Vieira Vasconcelos
Flávia da Fonseca Feitosa
BH1350 – Métodos e Técnicas de Análise da Informação para o Planejamento
Julho de 2017
Leitura de Referência
Capítulo 5
Regressão
(p. 156-168)
Análise de regressão é uma ferramenta estatística
que utiliza a relação entre duas ou mais variáveis tal
que uma variável possa ser explicada (Y  variável
resposta/ dependente) pela outra ou outras (X 
variáveis indicadoras/ preditoras/ explicativas/
independentes).
Y = aX + b
NETER J. et al. Applied Linear Statistical Models. Boston, MA: McGraw-Hill, 1996.
ANÁLISE DE REGRESSÃO
Um modelo de regressão contendo somente
uma variável preditora (X) é denominado
modelo de regressão simples.
Um modelo com mais de uma variável
preditora (X) é denominado modelo de
regressão múltiplo.
Modelos de Regressão
onde:
Yi é o valor da variável resposta na i-ésima observação;
β0 e β1 são parâmetros;
Xi é uma constante conhecida; é o valor da variável
preditora na i-ésima observação;
ξi é um termo de erro aleatório com média zero e variância
constante σ2 (E(ξi)=0 e σ2 (ξi)= σ2 )
ξi e ξj são não correlacionados (independentes) para i j
(σ2 (ξi,ξj)= 0 )
Regressão Linear Simples
Saídai = (Modeloi) + erroi
Lembrando:
Yi
ξi
X
Y
β0
β1
Coeficiente
angular
µY = E(Y) = β0 + β1 X
Inclinação
Populacional
Intercepto
Populacional
Erro
Aleatório
Variável Preditora
Variável
Resposta Yi=β0+β1Xi +εi
Ŷi=b0+b1Xi
εi =Yi-Ŷi
Modelo estimado
Resíduo
Regressão Linear Simples
Yi=β0+β1Xi1 + β2Xi2 +…+ βpXip + εi
Yi é o valor da variável resposta na i-ésima observação
β0, …, βp são parâmetros
Xi1 ,…,Xip são os valores das variáveis preditoras na i-ésima
observação
ξi é um termo de erro aleatório com distribuição normal, média
zero e variância constante σ2 (E(ξi )=0 e σ2 (ξi )= σ2 )
ξi e ξj são não correlacionados (independentes) para i j
Regressão Linear Múltipla
β0
Plano de Regressão
•
(1,33;1,67)
E(Yi) = 20,00
Yi
•
εi
Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
Superfície de Resposta:
Função de Regressão na Regressão Linear
Múltipla
O parâmetro β0 é o intercepto do plano de regressão.
Se a abrangência do modelo inclui X1=0 e X2=0 então
β0=10 representa a resposta média E(Y) neste ponto.
Em outras situações, β0 não tem qualquer outro
significado como um termo separado no modelo de
regressão.
Significado dos Coeficientes de regressão:
β0, β1, β2,.., βp
Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
Parâmetro β1 indica a mudança na resposta média
E(Y) por unidade de acréscimo em X1 quando X2 é
mantido constante.
Da mesma forma, β2 indica a mudança na resposta
média por unidade de aumento em X2 quando X1 é
mantido constante.
“Ceteris Paribus”
Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
Significado dos Coeficientes de regressão:
β0, β1, β2,.., βp
Por exemplo,
este é o cachorro Hottie
Hottie é um cachorro
bonzinho quando vai
caminhar, CETERIS PARIBUS
Hottie é um cachorro
bonzinho quando
vai caminhar,
desde que...
O Sol permanece brilhando, e
nenhum esquilo atravesse o seu caminho
Conceitualmente, a interpretação de SQTotal,
SQResíduos e SQModelo permanece a mesma
SQT = SQM + SQR
Soma dos Quadrados
Quando existem vários previsores (X), utilizamos um
coeficiente de correlação múltiplo, denominado
R Múltiplo.
R Múltiplo: É a correlação (R) entre os valores
observados de Y e os de Ŷ previstos pelo modelo de
regressão múltiplo
Valores Grandes de R múltiplo  Alta correlação entre
os valores previstos e observados da variável de saída.
R Múltiplo & R2
Resumindo: R Múltiplo é uma medida do qual bem o
modelo prevê os dados observados.
E o R2 resultante?
Pode ser interpretado da mesma forma que na
regressão simples:
É a quantidade de variação em Y que pode ser
capturada pelo modelo.
R Múltiplo & R2
Se estamos interessados em construir um modelo
complexo com vários previsores (X1, X2, ..., Xn),
como decidir qual deles considerar???
1. Avalie a importância teórica de cada variável
incluída no modelo
2. Explore a relação entre Y e os previsores
3. Utilize um método de seleção dos previsores:
Hierárquico (entrada em blocos), Entrada
Forçada (Enter), Métodos por passos (Stepwise)
Métodos de Regressão
1. HIERÁRQUICO (ENTRADA EM BLOCOS)
Previsores selecionados com base em trabalhos
anteriores. Pesquisador decide em que ordem devem
ser colocados no modelo.
2. ENTRADA FORÇADA (ENTER)
Todos os previsores são “forçados” no modelo ao
mesmo tempo. Deve basear-se em boas razões
teóricas para incluir os previsores escolhidos.
Diferentemente da hierárquica, pesquisador não toma
decisões sobre a ordem em que variáveis serão
acrescentadas.
Métodos de Regressão
3. MÉTODOS POR PASSOS (Stepwise)
Decisão sobre a ordem em que os previsores são
acrescentados ao modelo é baseada em critérios
matemáticos.
Método Forward (Para frente)
Modelo inicial contem apenas a constante (b0). Então procura-se o
previsor que melhor “prevê” a variável de saída (maior coef. de
correlação) e se ele aumenta significativamente o ajuste do modelo,
ele é mantido. Procura-se então um segundo previsor e é verificada
sua capacidade de melhor significativamente o ajuste do modelo...
E assim por diante.
Métodos de Regressão
3. MÉTODOS POR PASSOS (Stepwise)
Decisão sobre a ordem em que os previsores são
acrescentados ao modelo é baseada em critérios
matemáticos.
Método Passo a Passo (Stepwise)
Semelhante ao Forward. No entanto, cada vez que um previsor é
adicionado ao modelo, um teste de remoção é feito sobre o previsor
menos útil. Assim, a equação de regressão é acessada
constantemente para ver se algum previsor redundante pode ser
removido.
Métodos de Regressão
3. MÉTODOS POR PASSOS (Stepwise)
Decisão sobre a ordem em que os previsores são
acrescentados ao modelo é baseada em critérios
matemáticos.
** Método Backward (Para trás) **
Oposto do método Forward (para frente). Inicia considerando todos
os previsores no modelo e vai retirando os previsores que não
contribuem significativamente para o qual bem o modelo “explica” a
variável de saída (Y).
É preferível em relação ao método Forward, já que o Forward
promove um maior risco de eliminar um previsor que de fato
contribui para o modelo.
Métodos de Regressão
Seja seletivo na inclusão de variáveis no modelo!
Priorize justificativas teóricas, baseadas em estudos
anteriores, literatura...
Como regra geral, quanto menos, melhor!!!
Métodos de Regressão
O quão acurado é meu
modelo de regressão???
(1) O modelo representa bem os meus dados, ou ele é
influenciado por um número pequeno de casos
(valores atípicos e casos influentes)?
(2) O modelo pode ser generalizado para outras amostras?
O quão acurado é meu
modelo de regressão???
(1) O modelo representa bem os meus dados, ou ele é
influenciado por um número pequeno de casos (valores
atípicos e casos influentes)?
(2) O modelo pode ser generalizado para outras amostras?
Diagnósticos: Valores Atípicos
Um valor atípico (outlier) é um caso que difere
substancialmente da maioria dos dados
Podem introduzir
tendenciosidade no
modelo, pois
afetarão os valores
dos coeficientes de
regressão estimados
É importante
detectar os valores
atípicos para ver se o
modelo é
tendencioso!
Diagnósticos: Valores Atípicos
RESÍDUOS: Diferença entre valores previstos pelo modelo e
os valores observados na amostra
Resíduos apresentam o erro que está presente no modelo.
Modelo com bom ajuste  Resíduos pequenos
Se qualquer caso destacar-se por ter um grande resíduo,
ele poderá ser ATÍPICO
MAS COMO ESTABELECER O QUE SERIA
UM “GRANDE” RESÍDUO???
Diagnósticos: Valores Atípicos
Converter os resíduos (Yobservado – Yestimado) em
escores-z. Ou seja, padronizar os resíduos.
LEMBRETE: Escore-z
REGRAS GERAIS PARA RESÍDUOS PADRONIZADOS:
- Resíduos padronizados com valor maior do que
3,29 (3) são preocupantes porque, em uma
amostra, dificilmente acontecem por acaso
- Se mais do que 1% da nossa amostra padronizada
apresenta erros maiores do que 2,58 (2,5), há
evidências de que o nível de erro dentro do nosso
modelo é inaceitável (modelo não se ajusta bem).
- Se mais do que 5% da nossa amostra tem resíduos
padronizados maiores do que 1,96 (2), também há
evidências de que nosso modelo é uma
representação ruim dos dados.
Numa amostra
normalmente
distribuída:
95% dos escores-z
estão entre
-1,96 e +1,96
99% estão entre
-2,58 e +2,58
99,9% estão entre
-3,29 e +3,29
Diagnósticos: Casos Influentes
Além de procurar valores atípicos olhando para os erros do
modelo, também é possível buscar os casos que influenciam
demasiadamente os parâmetros do modelo
Se retirássemos determinados casos, teríamos
coeficientes de regressão diferentes???
Objetivo da análise: determinar se o modelo de regressão é
estável para toda a amostra ou se ele pode estar sendo
influenciado somente por poucos casos (atípicos).
Diagnósticos: Casos Influentes
Alguns métodos para determinação de casos influentes:
1. VALOR PREVISTO AJUSTADO
Calcula-se um novo modelo sem o caso em questão e usa-se
este novo modelo para “prever” o valor que este caso teria.
Se o caso não tem grande influência: Pouca diferença entre
valor previsto (pelo modelo que considera o caso) e valor previsto
ajustado (pelo modelo que NÃO considera o caso)  Modelo Estável
DFFIT  Diferença entre valor previsto ajustado e valor
previsto original
(DFFit padronizado)
Diagnósticos: Casos Influentes
Alguns métodos para determinação de casos influentes:
2. DFBETA (DFBETA PADRONIZADO)
Diferença entre 1 parâmetro estimado utilizando todos os casos
e estimado quando um caso é excluído. É calculado para cada
caso e para cada um dos parâmetros do modelo.
Valores do DFBETA padronizado acima de 1 indicam casos que
substancialmente influenciam os parâmetros do modelo
Diagnósticos: Casos Influentes
Alguns métodos para determinação de casos influentes:
3. DISTÂNCIA DE COOK
Medida da influência global de um caso sobre o modelo.
4. INFLUÊNCIA (LEVERAGE) – Valores Chapéu (Hat Values)
Mede o quanto um valor observado influencia o valor previsto
na saída.
Os valores de “influência” variam entre 0 (caso sem influência)
e 1 (caso com total influência sobre a previsão)
Diferença entre Resíduos e
Estatísticas de Influência
O Caso 8, que é um valor atípico muito influente,
mas apresenta um resíduo bem pequeno (está
próximo da linha que foi ajustada aos dados).
Por isso é importante analisar tanto os resíduos
quanto as estatísticas de influência.
O quão acurado é meu
modelo de regressão???
(1) O modelo representa bem os meus dados, ou ele é
influenciado por um número pequeno de casos (valores
atípicos e casos influentes)?
(2) O modelo pode ser generalizado para outras amostras?
Quando realizamos uma análise de regressão, estimamos os
parâmetros de uma equação a partir dos dados de nossa amostra.
Mas será que podemos generalizar nosso modelo, ou
seja, tirar conclusões (fazer inferências) para além da
nossa amostra?
 Para generalizar um modelo de regressão, devemos estar
seguros de que certas suposições foram satisfeitas, e para
testar se o modelo de fato é generalizável, podemos fazer uma
validação cruzada.
 Se acharmos que nosso modelo não é generalizável, devemos
restringir qualquer conclusão baseada no modelo à amostra
utilizada
Generalização
Para tirar conclusões sobre uma população com base em um
modelo de regressão realizado sobre uma amostra, algumas
suposições devem ser verdadeiras.
1. Tipos de Variáveis
Variáveis explicativas (X) devem ser quantitativas ou categóricas;
enquanto a variável de resposta (Y) deve ser quantitativa,
contínua e não limitada.
Não limitada significa que não deve haver restrições na
variabilidade da saída. Se a saída é uma medida que varia de 1 a 10
e os dados coletados variam entre 3 e 7, então esses dados são
restritos.
Suposições
MEU HOBBY: EXTRAPOLAÇÃO
Número
de
Maridos
Como você pode ver,
pelo fim do mês você
terá mais que quatro
dúzias de maridos.
É melhor
pedir um
desconto por
atacado para
bolos de
casamento.
2. Distribuição Normal
Para um valor fixo da variável aleatória X, Y é uma variável
aleatória com distribuição Normal (com média e variâncias finitas);
Yi ~ N(E(y/x); σ2)
OBS: Os previsores (X) não precisam ser normalmente distribuídos
 Resíduos do modelo deverão ser normalmente distribuídos,
com média zero (variável aleatória)
Suposições
3. Linearidade
Todos os valores médios de Y (E(y/x)=μY/x) permanecem sobre
uma reta, para um particular valor de X.
E(y/x)=μy/x = β0 + β1x
Em outras palavras, assumimos que o relacionamento que
estamos modelando é do tipo linear
Suposições
Esclarecimentos sobre a
“linearidade” do modelo
O Termo “linear” representa a forma como os
parâmetros entram no modelo.
O modelo Yi=β0+β1X1i+β2X2i
2 embora
graficamente represente uma parábola, é um
modelo linear em β0, β1 e β2 .
Já o modelo Yi=β0eβ1Xi não é um modelo linear
em β0 e β1 .
4. Independência
Os valores de Yi e Yj são estatisticamente independentes (falta de
autocorrelação).
 Resíduos do modelo deverão ser independentes
(falta de autocorrelação).
Teste de Durbin-Watson pode ser aplicado sobre os resíduos da
regressão, para testar a correlação serial entre erros. A estatística
teste pode variar entre 0 e 4, com 2 indicando que os erros não são
correlacionados. Se maior que 2, indicação de correlação negativa
entre resíduos adjacentes. Se menor que 2, indicação de correlação
positiva.
Suposições
Resíduos Independentes
Resíduos
Autocorrelacionados
Resumo da situação: para qualquer valor Xi, a média de Yi é µi =
β0 + β1Xi + ... + βnXn. As médias estão sobre a linha reta para
todos os valores de X. Devido aos erros aleatórios, os valores de
Yi se distribuem ao redor da reta.
Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
5. Homocedasticidade
A variância de Y é igual, qualquer que seja X.
 A cada nível de X, a variância do termo residual deve ser
constante.
Quando as variâncias são desiguais, diz-se que existe
heterocedasticidade.
Suposições
A figura mostra a distribuição de Y para vários valores de X.
Mostra onde cai a observação Y1. Mostra que o erro é a
diferença entre Y1 e E(Y1). Observe que as distribuições de
probabilidade apresentam a mesma variabilidade.
Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
6. Multicolinearidade
As variáveis previsoras (X) incluídas no modelo não devem
apresentar correlação muito alta entre si.
Exemplo (extremo) : Se existir uma colinearidade (c0rrelação) perfeita entre X1 e
X2, torna-se impossível obter uma estimativa única dos coeficientes de regressão.
Existirá um número infinito de coeficientes que funcionarão igualmente bem!
A medida que a colinearidade aumenta, também aumenta o erro
padrão dos coeficientes b, o que afeta a significância estatística
destes coeficientes. Ou seja, aumentam a probabilidade de que
um bom previsor (X) seja declarado não significativo e excluído do
modelo
Suposições
6. Multicolinearidade
Como identificar???
 Analisar correlação entre variáveis previsoras (X): matriz de
correlação
 Diagnóstico FIV (Fator de Inflação da Variância)
Indica se um previsor tem um relacionamento linear forte com
outro(s) previsor(es).
Suposições
População Domicílios Renda Familiar
Taxade
Emprego
Renda
Familiar
Renda
FamiliarDomicílios
Multicolinearidade
Resumo:
1. Variáveis explicativas (X) quantitativas ou
categóricas; e variável de resposta (Y) quantitativa,
contínua e não limitada.
2. Distribuição Normal de Y e dos erros
3. Linearidade
4. Independência de autocorrelação em Y e nos erros
5. Homocedasticidade
6. Multicolinearidade
Suposições
Quando as suposições são consideradas, o modelo que obtemos
de uma amostra pode ser aplicado para a população de interesse
(os coeficientes da equação não são tendenciosos).
Modelo não tendencioso  Nos diz que, em média, o modelo de
regressão obtido a partir de uma amostra é o mesmo que o
modelo populacional.
Entretanto, mesmo quando as suposições são satisfeitas, é
possível que um modelo obtido a partir de uma amostra não seja
igual ao modelo populacional.
Suposições
Existem maneiras de determinar o quão bem nosso modelo pode
prever a saída em uma amostra diferente.
Validação Cruzada  técnica para determinar a precisão de
um modelo entre diferentes amostras.
Se o modelo é aplicado a uma amostra distinta e existe uma grande
diferença na sua capacidade de previsão, então o modelo não é
generalizável.
DIVISÃO DOS DADOS: Dividir ao acaso o conjunto de dados em
dois, determinar a equação de regressão em cada uma das 2
metades e comparar os modelos resultantes.
Validação Cruzada
Atenção!!!
Os próximos slides são bem
importantes!
1. Seleção e Preparação das Variáveis
Selecionar variáveis previsoras (X) para as quais existem razões
teóricas para esperar que prevejam bem o resultado.
Diagramas de Dispersão e Matriz de Correlações
Verificar as correlações entre variáveis: As variáveis X devem ser
correlacionadas com Y, mas não entre si  primeira análise de
multicolinearidade
Verificar se as relações entre X e Y são lineares  Transformações
podem ser necessárias para linearizar relações.
Etapas da Análise de Regressão
Diagramas de Dispersão:
Por que são tão importantes?
Quarteto de Anscombe: Esses quatro conjuntos de dados
possuem as mesmas propriedades estatísticas...
I II III IV
x y x y x y x y
10,0 8,04 10,0 9,14 10,0 7,46 8,0 6,58
8,0 6,95 8,0 8,14 8,0 6,77 8,0 5,76
13,0 7,58 13,0 8,74 13,0 12,74 8,0 7,71
9,0 8,81 9,0 8,77 9,0 7,11 8,0 8,84
11,0 8,33 11,0 9,26 11,0 7,81 8,0 8,47
14,0 9,96 14,0 8,10 14,0 8,84 8,0 7,04
6,0 7,24 6,0 6,13 6,0 6,08 8,0 5,25
4,0 4,26 4,0 3,10 4,0 5,39 19,0 12,50
12,0 10,84 12,0 9,13 12,0 8,15 8,0 5,56
7,0 4,82 7,0 7,26 7,0 6,42 8,0 7,91
5,0 5,68 5,0 4,74 5,0 5,73 8,0 6,89
Propriedade Valor
Média de x 9,00
Variância de x 10,00
Média de y 7,50
Variância de y 3,75
Correlação 0,898
Regressão
linear
y = 2,50 + 0,500x
Slides: Marcos Pó
F.J. Anscombe, "Graphs in Statistical Analysis,"
American Statistician, 27 (February 1973), 17-21.
Diagramas de Dispersão:
Por que são tão importantes?
Slides:
Marcos Pó
... mas são bem diferentes graficamente.
1. Seleção e Preparação das Variáveis
Selecionar variáveis previsoras (X) para as quais existem razões
teóricas para esperar que prevejam bem o resultado.
Diagramas de Dispersão e Matriz de Correlações
Verificar as correlações entre variáveis: As variáveis X devem ser
correlacionadas com Y, mas não entre si  primeira análise de
multicolinearidade
Verificar se as relações entre X e Y são lineares  Transformações
podem ser necessárias para linearizar relações.
Etapas da Análise de Regressão
Transformações quando a distribuição dos erros é
aproximadamente normal e com variância constante. Deve-se
realizar uma transformação apenas na variável X.
Padrões de relação entre X e Y:
Transformações para
não-linearidade do modelo
XX
XX
=
=
'
log10
'
)exp('
2'
XX
XX
=
=
1. Seleção e Preparação das Variáveis
2. Escolha e Ajuste do Modelo de Regressão
 Uma estratégia seria executar a regressão para todos os
previsores (X) selecionados e examinar a saída para ver quais
contribuem substancialmente para o modelo.
 Uma vez determinada quais são as variáveis importantes,
execute novamente a análise incluindo somente essas
variáveis e utilize as estimativas dos parâmetros resultantes
para definir o modelo de regressão.
Etapas da Análise de Regressão
1. Seleção e Preparação das Variáveis
2. Escolha e Ajuste do Modelo de Regressão
 Se a análise inicial revelar que existem 2 ou mais previsores
significativos, pode-se considerar a execução de uma análise
stepwise, ao invés de uma entrada forçada (Enter) a fim de
encontrar a contribuição individual de cada previsor.
Etapas da Análise de Regressão
1. Seleção e Preparação das Variáveis
2. Escolha e Ajuste do Modelo de Regressão
3. Diagnóstico para verificar se o modelo ajustado é
adequado
 Ajuste do modelo (R2, Teste F, Testes t para coef.)
 Multicolinearidade (FIV)
 Análise dos Resíduos
Etapas da Análise de Regressão
Se modelo for adequado, resíduos devem refletir as
propriedades impostas pelo termo de erro do modelo.
LINEARIDADE DO MODELO
Análise dos Resíduos
Não Linearidade
0
X
Resíduo
NORMALIDADE DOS RESÍDUOS: Suposição essencial para
que os resultados do ajuste do modelo sejam confiáveis.
Análise dos Resíduos
Outros diagnósticos: Shapiro-Wilk, Anderson-Darling,
Kolmogorov-Smirnov
HOMOCEDASTICIDADE (Variância Constante)
Análise dos Resíduos
Outros diagnósticos: Teste de Breush-Pagan.
0
X
Variância Não Constante
(heterocedasticidade)
Resíduo
PRESENÇA DE OUTLIERS
Gráfico resíduos padronizados vs. Valores Ajustados
Análise dos Resíduos
Pontos Influentes: DFFITS, DFBETA, Distância de Cook.
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1
150 155 160 165 170 175 180 185
X
ResíduosPadronizados
INDEPENDÊNCIA
Gráfico resíduos padronizados vs. Valores Ajustados
Análise dos Resíduos
Outros Diagnósticos: Teste de Durbin-Watson
Autocorrelação espacial: Mapa dos resíduos, Índice de Moran
X
0
Erros Correlacionados
Resíduo
Análise dos Resíduos
Quais dessas plotagens mostram normalidade dos resíduos?
Quais os problemas das outras?
Bussab;Morettin,2002:456
Slide: Marcos Pó
MODELO ADEQUADO
Análise dos Resíduos

Regressão Linear Múltipla

  • 1.
    REGRESSÃO LINEAR Parte II VitorVieira Vasconcelos Flávia da Fonseca Feitosa BH1350 – Métodos e Técnicas de Análise da Informação para o Planejamento Julho de 2017
  • 2.
    Leitura de Referência Capítulo5 Regressão (p. 156-168)
  • 3.
    Análise de regressãoé uma ferramenta estatística que utiliza a relação entre duas ou mais variáveis tal que uma variável possa ser explicada (Y  variável resposta/ dependente) pela outra ou outras (X  variáveis indicadoras/ preditoras/ explicativas/ independentes). Y = aX + b NETER J. et al. Applied Linear Statistical Models. Boston, MA: McGraw-Hill, 1996. ANÁLISE DE REGRESSÃO
  • 4.
    Um modelo deregressão contendo somente uma variável preditora (X) é denominado modelo de regressão simples. Um modelo com mais de uma variável preditora (X) é denominado modelo de regressão múltiplo. Modelos de Regressão
  • 5.
    onde: Yi é ovalor da variável resposta na i-ésima observação; β0 e β1 são parâmetros; Xi é uma constante conhecida; é o valor da variável preditora na i-ésima observação; ξi é um termo de erro aleatório com média zero e variância constante σ2 (E(ξi)=0 e σ2 (ξi)= σ2 ) ξi e ξj são não correlacionados (independentes) para i j (σ2 (ξi,ξj)= 0 ) Regressão Linear Simples Saídai = (Modeloi) + erroi Lembrando:
  • 6.
    Yi ξi X Y β0 β1 Coeficiente angular µY = E(Y)= β0 + β1 X Inclinação Populacional Intercepto Populacional Erro Aleatório Variável Preditora Variável Resposta Yi=β0+β1Xi +εi Ŷi=b0+b1Xi εi =Yi-Ŷi Modelo estimado Resíduo Regressão Linear Simples
  • 7.
    Yi=β0+β1Xi1 + β2Xi2+…+ βpXip + εi Yi é o valor da variável resposta na i-ésima observação β0, …, βp são parâmetros Xi1 ,…,Xip são os valores das variáveis preditoras na i-ésima observação ξi é um termo de erro aleatório com distribuição normal, média zero e variância constante σ2 (E(ξi )=0 e σ2 (ξi )= σ2 ) ξi e ξj são não correlacionados (independentes) para i j Regressão Linear Múltipla
  • 8.
    β0 Plano de Regressão • (1,33;1,67) E(Yi)= 20,00 Yi • εi Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html Superfície de Resposta: Função de Regressão na Regressão Linear Múltipla
  • 9.
    O parâmetro β0é o intercepto do plano de regressão. Se a abrangência do modelo inclui X1=0 e X2=0 então β0=10 representa a resposta média E(Y) neste ponto. Em outras situações, β0 não tem qualquer outro significado como um termo separado no modelo de regressão. Significado dos Coeficientes de regressão: β0, β1, β2,.., βp Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
  • 10.
    Parâmetro β1 indicaa mudança na resposta média E(Y) por unidade de acréscimo em X1 quando X2 é mantido constante. Da mesma forma, β2 indica a mudança na resposta média por unidade de aumento em X2 quando X1 é mantido constante. “Ceteris Paribus” Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html Significado dos Coeficientes de regressão: β0, β1, β2,.., βp
  • 11.
    Por exemplo, este éo cachorro Hottie Hottie é um cachorro bonzinho quando vai caminhar, CETERIS PARIBUS Hottie é um cachorro bonzinho quando vai caminhar, desde que... O Sol permanece brilhando, e nenhum esquilo atravesse o seu caminho
  • 12.
    Conceitualmente, a interpretaçãode SQTotal, SQResíduos e SQModelo permanece a mesma SQT = SQM + SQR Soma dos Quadrados
  • 13.
    Quando existem váriosprevisores (X), utilizamos um coeficiente de correlação múltiplo, denominado R Múltiplo. R Múltiplo: É a correlação (R) entre os valores observados de Y e os de Ŷ previstos pelo modelo de regressão múltiplo Valores Grandes de R múltiplo  Alta correlação entre os valores previstos e observados da variável de saída. R Múltiplo & R2
  • 14.
    Resumindo: R Múltiploé uma medida do qual bem o modelo prevê os dados observados. E o R2 resultante? Pode ser interpretado da mesma forma que na regressão simples: É a quantidade de variação em Y que pode ser capturada pelo modelo. R Múltiplo & R2
  • 15.
    Se estamos interessadosem construir um modelo complexo com vários previsores (X1, X2, ..., Xn), como decidir qual deles considerar??? 1. Avalie a importância teórica de cada variável incluída no modelo 2. Explore a relação entre Y e os previsores 3. Utilize um método de seleção dos previsores: Hierárquico (entrada em blocos), Entrada Forçada (Enter), Métodos por passos (Stepwise) Métodos de Regressão
  • 16.
    1. HIERÁRQUICO (ENTRADAEM BLOCOS) Previsores selecionados com base em trabalhos anteriores. Pesquisador decide em que ordem devem ser colocados no modelo. 2. ENTRADA FORÇADA (ENTER) Todos os previsores são “forçados” no modelo ao mesmo tempo. Deve basear-se em boas razões teóricas para incluir os previsores escolhidos. Diferentemente da hierárquica, pesquisador não toma decisões sobre a ordem em que variáveis serão acrescentadas. Métodos de Regressão
  • 17.
    3. MÉTODOS PORPASSOS (Stepwise) Decisão sobre a ordem em que os previsores são acrescentados ao modelo é baseada em critérios matemáticos. Método Forward (Para frente) Modelo inicial contem apenas a constante (b0). Então procura-se o previsor que melhor “prevê” a variável de saída (maior coef. de correlação) e se ele aumenta significativamente o ajuste do modelo, ele é mantido. Procura-se então um segundo previsor e é verificada sua capacidade de melhor significativamente o ajuste do modelo... E assim por diante. Métodos de Regressão
  • 18.
    3. MÉTODOS PORPASSOS (Stepwise) Decisão sobre a ordem em que os previsores são acrescentados ao modelo é baseada em critérios matemáticos. Método Passo a Passo (Stepwise) Semelhante ao Forward. No entanto, cada vez que um previsor é adicionado ao modelo, um teste de remoção é feito sobre o previsor menos útil. Assim, a equação de regressão é acessada constantemente para ver se algum previsor redundante pode ser removido. Métodos de Regressão
  • 19.
    3. MÉTODOS PORPASSOS (Stepwise) Decisão sobre a ordem em que os previsores são acrescentados ao modelo é baseada em critérios matemáticos. ** Método Backward (Para trás) ** Oposto do método Forward (para frente). Inicia considerando todos os previsores no modelo e vai retirando os previsores que não contribuem significativamente para o qual bem o modelo “explica” a variável de saída (Y). É preferível em relação ao método Forward, já que o Forward promove um maior risco de eliminar um previsor que de fato contribui para o modelo. Métodos de Regressão
  • 20.
    Seja seletivo nainclusão de variáveis no modelo! Priorize justificativas teóricas, baseadas em estudos anteriores, literatura... Como regra geral, quanto menos, melhor!!! Métodos de Regressão
  • 21.
    O quão acuradoé meu modelo de regressão??? (1) O modelo representa bem os meus dados, ou ele é influenciado por um número pequeno de casos (valores atípicos e casos influentes)? (2) O modelo pode ser generalizado para outras amostras?
  • 22.
    O quão acuradoé meu modelo de regressão??? (1) O modelo representa bem os meus dados, ou ele é influenciado por um número pequeno de casos (valores atípicos e casos influentes)? (2) O modelo pode ser generalizado para outras amostras?
  • 23.
    Diagnósticos: Valores Atípicos Umvalor atípico (outlier) é um caso que difere substancialmente da maioria dos dados Podem introduzir tendenciosidade no modelo, pois afetarão os valores dos coeficientes de regressão estimados É importante detectar os valores atípicos para ver se o modelo é tendencioso!
  • 24.
    Diagnósticos: Valores Atípicos RESÍDUOS:Diferença entre valores previstos pelo modelo e os valores observados na amostra Resíduos apresentam o erro que está presente no modelo. Modelo com bom ajuste  Resíduos pequenos Se qualquer caso destacar-se por ter um grande resíduo, ele poderá ser ATÍPICO MAS COMO ESTABELECER O QUE SERIA UM “GRANDE” RESÍDUO???
  • 25.
    Diagnósticos: Valores Atípicos Converteros resíduos (Yobservado – Yestimado) em escores-z. Ou seja, padronizar os resíduos. LEMBRETE: Escore-z REGRAS GERAIS PARA RESÍDUOS PADRONIZADOS: - Resíduos padronizados com valor maior do que 3,29 (3) são preocupantes porque, em uma amostra, dificilmente acontecem por acaso - Se mais do que 1% da nossa amostra padronizada apresenta erros maiores do que 2,58 (2,5), há evidências de que o nível de erro dentro do nosso modelo é inaceitável (modelo não se ajusta bem). - Se mais do que 5% da nossa amostra tem resíduos padronizados maiores do que 1,96 (2), também há evidências de que nosso modelo é uma representação ruim dos dados. Numa amostra normalmente distribuída: 95% dos escores-z estão entre -1,96 e +1,96 99% estão entre -2,58 e +2,58 99,9% estão entre -3,29 e +3,29
  • 26.
    Diagnósticos: Casos Influentes Alémde procurar valores atípicos olhando para os erros do modelo, também é possível buscar os casos que influenciam demasiadamente os parâmetros do modelo Se retirássemos determinados casos, teríamos coeficientes de regressão diferentes??? Objetivo da análise: determinar se o modelo de regressão é estável para toda a amostra ou se ele pode estar sendo influenciado somente por poucos casos (atípicos).
  • 27.
    Diagnósticos: Casos Influentes Algunsmétodos para determinação de casos influentes: 1. VALOR PREVISTO AJUSTADO Calcula-se um novo modelo sem o caso em questão e usa-se este novo modelo para “prever” o valor que este caso teria. Se o caso não tem grande influência: Pouca diferença entre valor previsto (pelo modelo que considera o caso) e valor previsto ajustado (pelo modelo que NÃO considera o caso)  Modelo Estável DFFIT  Diferença entre valor previsto ajustado e valor previsto original (DFFit padronizado)
  • 28.
    Diagnósticos: Casos Influentes Algunsmétodos para determinação de casos influentes: 2. DFBETA (DFBETA PADRONIZADO) Diferença entre 1 parâmetro estimado utilizando todos os casos e estimado quando um caso é excluído. É calculado para cada caso e para cada um dos parâmetros do modelo. Valores do DFBETA padronizado acima de 1 indicam casos que substancialmente influenciam os parâmetros do modelo
  • 29.
    Diagnósticos: Casos Influentes Algunsmétodos para determinação de casos influentes: 3. DISTÂNCIA DE COOK Medida da influência global de um caso sobre o modelo. 4. INFLUÊNCIA (LEVERAGE) – Valores Chapéu (Hat Values) Mede o quanto um valor observado influencia o valor previsto na saída. Os valores de “influência” variam entre 0 (caso sem influência) e 1 (caso com total influência sobre a previsão)
  • 30.
    Diferença entre Resíduose Estatísticas de Influência O Caso 8, que é um valor atípico muito influente, mas apresenta um resíduo bem pequeno (está próximo da linha que foi ajustada aos dados). Por isso é importante analisar tanto os resíduos quanto as estatísticas de influência.
  • 31.
    O quão acuradoé meu modelo de regressão??? (1) O modelo representa bem os meus dados, ou ele é influenciado por um número pequeno de casos (valores atípicos e casos influentes)? (2) O modelo pode ser generalizado para outras amostras?
  • 32.
    Quando realizamos umaanálise de regressão, estimamos os parâmetros de uma equação a partir dos dados de nossa amostra. Mas será que podemos generalizar nosso modelo, ou seja, tirar conclusões (fazer inferências) para além da nossa amostra?  Para generalizar um modelo de regressão, devemos estar seguros de que certas suposições foram satisfeitas, e para testar se o modelo de fato é generalizável, podemos fazer uma validação cruzada.  Se acharmos que nosso modelo não é generalizável, devemos restringir qualquer conclusão baseada no modelo à amostra utilizada Generalização
  • 33.
    Para tirar conclusõessobre uma população com base em um modelo de regressão realizado sobre uma amostra, algumas suposições devem ser verdadeiras. 1. Tipos de Variáveis Variáveis explicativas (X) devem ser quantitativas ou categóricas; enquanto a variável de resposta (Y) deve ser quantitativa, contínua e não limitada. Não limitada significa que não deve haver restrições na variabilidade da saída. Se a saída é uma medida que varia de 1 a 10 e os dados coletados variam entre 3 e 7, então esses dados são restritos. Suposições
  • 34.
    MEU HOBBY: EXTRAPOLAÇÃO Número de Maridos Comovocê pode ver, pelo fim do mês você terá mais que quatro dúzias de maridos. É melhor pedir um desconto por atacado para bolos de casamento.
  • 35.
    2. Distribuição Normal Paraum valor fixo da variável aleatória X, Y é uma variável aleatória com distribuição Normal (com média e variâncias finitas); Yi ~ N(E(y/x); σ2) OBS: Os previsores (X) não precisam ser normalmente distribuídos  Resíduos do modelo deverão ser normalmente distribuídos, com média zero (variável aleatória) Suposições
  • 37.
    3. Linearidade Todos osvalores médios de Y (E(y/x)=μY/x) permanecem sobre uma reta, para um particular valor de X. E(y/x)=μy/x = β0 + β1x Em outras palavras, assumimos que o relacionamento que estamos modelando é do tipo linear Suposições
  • 38.
    Esclarecimentos sobre a “linearidade”do modelo O Termo “linear” representa a forma como os parâmetros entram no modelo. O modelo Yi=β0+β1X1i+β2X2i 2 embora graficamente represente uma parábola, é um modelo linear em β0, β1 e β2 . Já o modelo Yi=β0eβ1Xi não é um modelo linear em β0 e β1 .
  • 39.
    4. Independência Os valoresde Yi e Yj são estatisticamente independentes (falta de autocorrelação).  Resíduos do modelo deverão ser independentes (falta de autocorrelação). Teste de Durbin-Watson pode ser aplicado sobre os resíduos da regressão, para testar a correlação serial entre erros. A estatística teste pode variar entre 0 e 4, com 2 indicando que os erros não são correlacionados. Se maior que 2, indicação de correlação negativa entre resíduos adjacentes. Se menor que 2, indicação de correlação positiva. Suposições
  • 40.
  • 41.
    Resumo da situação:para qualquer valor Xi, a média de Yi é µi = β0 + β1Xi + ... + βnXn. As médias estão sobre a linha reta para todos os valores de X. Devido aos erros aleatórios, os valores de Yi se distribuem ao redor da reta. Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
  • 42.
    5. Homocedasticidade A variânciade Y é igual, qualquer que seja X.  A cada nível de X, a variância do termo residual deve ser constante. Quando as variâncias são desiguais, diz-se que existe heterocedasticidade. Suposições
  • 43.
    A figura mostraa distribuição de Y para vários valores de X. Mostra onde cai a observação Y1. Mostra que o erro é a diferença entre Y1 e E(Y1). Observe que as distribuições de probabilidade apresentam a mesma variabilidade. Fonte: Slide de Paulo José Ogliari, Informática, UFSC. Em http://www.inf.ufsc.br/~ogliari/cursoderegressao.html
  • 44.
    6. Multicolinearidade As variáveisprevisoras (X) incluídas no modelo não devem apresentar correlação muito alta entre si. Exemplo (extremo) : Se existir uma colinearidade (c0rrelação) perfeita entre X1 e X2, torna-se impossível obter uma estimativa única dos coeficientes de regressão. Existirá um número infinito de coeficientes que funcionarão igualmente bem! A medida que a colinearidade aumenta, também aumenta o erro padrão dos coeficientes b, o que afeta a significância estatística destes coeficientes. Ou seja, aumentam a probabilidade de que um bom previsor (X) seja declarado não significativo e excluído do modelo Suposições
  • 45.
    6. Multicolinearidade Como identificar??? Analisar correlação entre variáveis previsoras (X): matriz de correlação  Diagnóstico FIV (Fator de Inflação da Variância) Indica se um previsor tem um relacionamento linear forte com outro(s) previsor(es). Suposições
  • 46.
    População Domicílios RendaFamiliar Taxade Emprego Renda Familiar Renda FamiliarDomicílios
  • 47.
  • 48.
    Resumo: 1. Variáveis explicativas(X) quantitativas ou categóricas; e variável de resposta (Y) quantitativa, contínua e não limitada. 2. Distribuição Normal de Y e dos erros 3. Linearidade 4. Independência de autocorrelação em Y e nos erros 5. Homocedasticidade 6. Multicolinearidade Suposições
  • 49.
    Quando as suposiçõessão consideradas, o modelo que obtemos de uma amostra pode ser aplicado para a população de interesse (os coeficientes da equação não são tendenciosos). Modelo não tendencioso  Nos diz que, em média, o modelo de regressão obtido a partir de uma amostra é o mesmo que o modelo populacional. Entretanto, mesmo quando as suposições são satisfeitas, é possível que um modelo obtido a partir de uma amostra não seja igual ao modelo populacional. Suposições
  • 50.
    Existem maneiras dedeterminar o quão bem nosso modelo pode prever a saída em uma amostra diferente. Validação Cruzada  técnica para determinar a precisão de um modelo entre diferentes amostras. Se o modelo é aplicado a uma amostra distinta e existe uma grande diferença na sua capacidade de previsão, então o modelo não é generalizável. DIVISÃO DOS DADOS: Dividir ao acaso o conjunto de dados em dois, determinar a equação de regressão em cada uma das 2 metades e comparar os modelos resultantes. Validação Cruzada
  • 52.
    Atenção!!! Os próximos slidessão bem importantes!
  • 53.
    1. Seleção ePreparação das Variáveis Selecionar variáveis previsoras (X) para as quais existem razões teóricas para esperar que prevejam bem o resultado. Diagramas de Dispersão e Matriz de Correlações Verificar as correlações entre variáveis: As variáveis X devem ser correlacionadas com Y, mas não entre si  primeira análise de multicolinearidade Verificar se as relações entre X e Y são lineares  Transformações podem ser necessárias para linearizar relações. Etapas da Análise de Regressão
  • 54.
    Diagramas de Dispersão: Porque são tão importantes? Quarteto de Anscombe: Esses quatro conjuntos de dados possuem as mesmas propriedades estatísticas... I II III IV x y x y x y x y 10,0 8,04 10,0 9,14 10,0 7,46 8,0 6,58 8,0 6,95 8,0 8,14 8,0 6,77 8,0 5,76 13,0 7,58 13,0 8,74 13,0 12,74 8,0 7,71 9,0 8,81 9,0 8,77 9,0 7,11 8,0 8,84 11,0 8,33 11,0 9,26 11,0 7,81 8,0 8,47 14,0 9,96 14,0 8,10 14,0 8,84 8,0 7,04 6,0 7,24 6,0 6,13 6,0 6,08 8,0 5,25 4,0 4,26 4,0 3,10 4,0 5,39 19,0 12,50 12,0 10,84 12,0 9,13 12,0 8,15 8,0 5,56 7,0 4,82 7,0 7,26 7,0 6,42 8,0 7,91 5,0 5,68 5,0 4,74 5,0 5,73 8,0 6,89 Propriedade Valor Média de x 9,00 Variância de x 10,00 Média de y 7,50 Variância de y 3,75 Correlação 0,898 Regressão linear y = 2,50 + 0,500x Slides: Marcos Pó F.J. Anscombe, "Graphs in Statistical Analysis," American Statistician, 27 (February 1973), 17-21.
  • 55.
    Diagramas de Dispersão: Porque são tão importantes? Slides: Marcos Pó ... mas são bem diferentes graficamente.
  • 56.
    1. Seleção ePreparação das Variáveis Selecionar variáveis previsoras (X) para as quais existem razões teóricas para esperar que prevejam bem o resultado. Diagramas de Dispersão e Matriz de Correlações Verificar as correlações entre variáveis: As variáveis X devem ser correlacionadas com Y, mas não entre si  primeira análise de multicolinearidade Verificar se as relações entre X e Y são lineares  Transformações podem ser necessárias para linearizar relações. Etapas da Análise de Regressão
  • 57.
    Transformações quando adistribuição dos erros é aproximadamente normal e com variância constante. Deve-se realizar uma transformação apenas na variável X. Padrões de relação entre X e Y: Transformações para não-linearidade do modelo XX XX = = ' log10 ' )exp(' 2' XX XX = =
  • 60.
    1. Seleção ePreparação das Variáveis 2. Escolha e Ajuste do Modelo de Regressão  Uma estratégia seria executar a regressão para todos os previsores (X) selecionados e examinar a saída para ver quais contribuem substancialmente para o modelo.  Uma vez determinada quais são as variáveis importantes, execute novamente a análise incluindo somente essas variáveis e utilize as estimativas dos parâmetros resultantes para definir o modelo de regressão. Etapas da Análise de Regressão
  • 61.
    1. Seleção ePreparação das Variáveis 2. Escolha e Ajuste do Modelo de Regressão  Se a análise inicial revelar que existem 2 ou mais previsores significativos, pode-se considerar a execução de uma análise stepwise, ao invés de uma entrada forçada (Enter) a fim de encontrar a contribuição individual de cada previsor. Etapas da Análise de Regressão
  • 62.
    1. Seleção ePreparação das Variáveis 2. Escolha e Ajuste do Modelo de Regressão 3. Diagnóstico para verificar se o modelo ajustado é adequado  Ajuste do modelo (R2, Teste F, Testes t para coef.)  Multicolinearidade (FIV)  Análise dos Resíduos Etapas da Análise de Regressão
  • 63.
    Se modelo foradequado, resíduos devem refletir as propriedades impostas pelo termo de erro do modelo. LINEARIDADE DO MODELO Análise dos Resíduos Não Linearidade 0 X Resíduo
  • 64.
    NORMALIDADE DOS RESÍDUOS:Suposição essencial para que os resultados do ajuste do modelo sejam confiáveis. Análise dos Resíduos Outros diagnósticos: Shapiro-Wilk, Anderson-Darling, Kolmogorov-Smirnov
  • 65.
    HOMOCEDASTICIDADE (Variância Constante) Análisedos Resíduos Outros diagnósticos: Teste de Breush-Pagan. 0 X Variância Não Constante (heterocedasticidade) Resíduo
  • 66.
    PRESENÇA DE OUTLIERS Gráficoresíduos padronizados vs. Valores Ajustados Análise dos Resíduos Pontos Influentes: DFFITS, DFBETA, Distância de Cook. -0,4 -0,2 0 0,2 0,4 0,6 0,8 1 150 155 160 165 170 175 180 185 X ResíduosPadronizados
  • 67.
    INDEPENDÊNCIA Gráfico resíduos padronizadosvs. Valores Ajustados Análise dos Resíduos Outros Diagnósticos: Teste de Durbin-Watson Autocorrelação espacial: Mapa dos resíduos, Índice de Moran X 0 Erros Correlacionados Resíduo
  • 68.
    Análise dos Resíduos Quaisdessas plotagens mostram normalidade dos resíduos? Quais os problemas das outras? Bussab;Morettin,2002:456 Slide: Marcos Pó
  • 69.