SlideShare uma empresa Scribd logo
1 de 47
Baixar para ler offline
Modelagem de
S´eries Temporais
Apostila introdut´oria Vin´ıcius Melqu´ıades de Sousa
Vin´ıcius M. de Sousa K
Sum´ario
I S´eries Temporais 6
1 Introdu¸c˜ao 6
1.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Hip´oteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Processos Estoc´asticos 7
2.1 Caracter´ısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Estacionaridade 8
4 Modelos ARMA(p, q) 9
4.1 Modelos Auto-Regressivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1.1 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1.2 Variˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1.3 Autocovariˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Modelos de M´edia M´ovel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2.1 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2.2 Variˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2.3 Autocovariˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2.4 Transforma¸c˜ao de um MA(1) em AR(∞) . . . . . . . . . . . . . . . . . . 14
4.3 Modelos ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5 Operadores de defasagem 15
5.1 Operador de defasagem de um AR(p) . . . . . . . . . . . . . . . . . . . . . . . . 15
5.1.1 Polinˆomio Caracter´ıstico do AR(1) . . . . . . . . . . . . . . . . . . . . . . 15
5.2 Operador de defasagem de um MA(q) . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3 Representa¸c˜ao ARMA(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6 Modelos ARIMA 16
6.1 ARIMA(p, i, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.2 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
7 Modelos Sazonais 19
7.1 SAR(P) ou AR(P)s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.2 SMA(Q) ou MA(Q)s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.3 SARIMA(P, I, Q) ou ARIMA(P, I, Q)s . . . . . . . . . . . . . . . . . . . . . . . . 20
7.4 ARIMA(p, i, q)(P, I, Q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
II Metodologia Box & Jenkins 21
8 Identifica¸c˜ao 21
8.1 Fun¸c˜oes FAC e FACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
8.1.1 Fun¸c˜ao de autocorrela¸c˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
8.1.2 Fun¸c˜ao de autocorrela¸c˜ao parcial . . . . . . . . . . . . . . . . . . . . . . . 23
8.2 Determina¸c˜ao dos filtros de integra¸c˜ao . . . . . . . . . . . . . . . . . . . . . . . . 23
8.3 Filtros auto-regressivos e de m´edia m´ovel . . . . . . . . . . . . . . . . . . . . . . 23
8.3.1 AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
P´agina 3 de 47
Vin´ıcius M. de Sousa K
8.3.2 AR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
8.3.3 MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
8.3.4 MA(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
8.3.5 ARMA(1,1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
8.3.6 ARMA(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
8.4 ‘Regra’ para determina¸c˜ao dos filtros . . . . . . . . . . . . . . . . . . . . . . . . . 29
8.5 Crtit´erios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
8.5.1 Crit´erio de Informa¸c˜ao de Akaike(AIC) . . . . . . . . . . . . . . . . . . . 30
8.5.2 Crit´erio de informa¸c˜ao Bayesiana (BIC) . . . . . . . . . . . . . . . . . . . 30
9 Estima¸c˜ao 31
9.1 M´ınimos Quadrados Ordin´arios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
9.2 M´axima Verossimilhan¸ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
10 Verifica¸c˜ao 35
10.1 An´alise dos Res´ıduos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
10.1.1 Individualmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
10.1.2 Conjuntamente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
10.2 Avalia¸c˜ao da ordem do modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
11 Previs˜ao 36
12 Coment´ario Final 36
III T´opicos 37
13 Equa¸c˜oes de Yule-Walker 37
13.1 Deriva¸c˜ao das equa¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
13.2 Montando o Sistema de Equa¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
13.3 Estimando os Coeficientes Autoregressivos e Variˆancia do Res´ıduo . . . . . . . . 38
13.3.1 Coeficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
13.3.2 Variˆancia do Res´ıduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
13.3.3 Valores da FACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
13.4 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
13.4.1 Coeficientes AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
13.4.2 Variˆancia do Res´ıduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
14 Exemplo: Eficiˆencia dos algor´ıtmos 41
P´agina 4 de 47
Vin´ıcius M. de Sousa K
Lista de Figuras
1 Passageiros internacionais ao longo dos anos . . . . . . . . . . . . . . . . . . . . . 7
2 Componentes do conjunto de dados sobre passageiros internacionais . . . . . . . 8
4 Diagrama de Venn dos modelos ARIMA . . . . . . . . . . . . . . . . . . . . . . . 9
3 Exemplo de s´erie estacion´aria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5 Cˆambio R$/U$ entre Jan/95 e Ago/16 . . . . . . . . . . . . . . . . . . . . . . . . 17
6 1ª Diferen¸ca da taxa de cˆambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7 Vari´avel 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
8 Vari´avel 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
9 FAC e FACP de um AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
10 FAC e FACP de um AR(20) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
11 FAC e FACP de um MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
12 FAC e FACP de um MA(20) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
13 FAC e FACP de um ARMA(1,1) . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
14 D´ıvida do governo federal e banco central (% do PIB) . . . . . . . . . . . . . . . 32
15 1ª Diferen¸ca da d´ıvida p´ublica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
16 Autocorrela¸c˜ao da 1ª diferen¸ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
17 Autocorrela¸c˜ao Parcial da 1ª diferen¸ca . . . . . . . . . . . . . . . . . . . . . . . . 34
18 C´odigo gerador da s´erie zt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
19 S´erie zt ao longo do tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
20 Rendimento acumulado do fundo de a¸c˜oes do BCB . . . . . . . . . . . . . . . . . 42
21 FAC e FACP do rendimento do fundo de a¸c˜oes (40 defasagens) . . . . . . . . . . 43
22 SARIMAS’s escolhidos pelo autor . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
23 Modelo escolhido pelo algor´ıtmo . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
24 Gr´afico “Autor vs. Algor´ıtmo”(linha preta=previs˜ao) . . . . . . . . . . . . . . . . 46
P´agina 5 de 47
Vin´ıcius M. de Sousa K
Parte I
S´eries Temporais
1 Introduc¸ ˜ao
Uma s´erie temporal deriva de um conjunto de dados observados na natureza, e.g., o PIB
de um pa´ıs ao longo dos anos, quantidade de chuva numa cidade durante um ano, a emiss˜ao
de poluentes de uma f´abrica ao logo do semestre etc. Esses dados normalmente possuem dois
componentes:
1. Determin´ıstico: Tendˆencia e/ou Ciclo. Um exemplo de tendˆencia ´e o fato estilizado de
que o PIB das economias tende a crescer ao longo dos anos, enquanto um de ciclo s˜ao as
esta¸c˜oes do ano que influˆenciam a chuva na cidade em quest˜ao.
2. Estoc´astico: Aleat´orio. O PIB de um pa´ıs pode crescer num determinado ano 2.2% assim
como 2.7%, mas acabou crescendo 1.9%, foi um ‘sorteio’.
1.1 Exemplo
Vamos analisar o n´umero de passageiros internacionais entre os anos de 1949 e 1960, com
dados mensais, como exemplo para que fique mais claro o que foi acima dito.
A tabela 1 mostra o n´umero de passageiros internacionais para o per´ıodo em milhares.
Tabela 1: Passageiros internacionais (milhares)
Jan Fev Mar Abril Mai Jun Jul Agos Set Out Nov Dez
1949 112 118 132 129 121 135 148 148 136 119 104 118
1950 115 126 141 135 125 149 170 170 158 133 114 140
1951 145 150 178 163 172 178 199 199 184 162 146 166
1952 171 180 193 181 183 218 230 242 209 191 172 194
1953 196 196 236 235 229 243 264 272 237 211 180 201
1954 204 188 235 227 234 264 302 293 259 229 203 229
1955 242 233 267 269 270 315 364 347 312 274 237 278
1956 284 277 317 313 318 374 413 405 355 306 271 306
1957 315 301 356 348 355 422 465 467 404 347 305 336
1958 340 318 362 348 363 435 491 505 404 359 310 337
1959 360 342 406 396 420 472 548 559 463 407 362 405
1960 417 391 419 461 472 535 622 606 508 461 390 432
Qual o comportamento dessa s´erie? A figura 1 mostra esse comportamento.
P´agina 6 de 47
Vin´ıcius M. de Sousa K
200
400
600
1950 1952 1954 1956 1958 1960
Passageiros(milhares)
Figura 1: Passageiros internacionais ao longo dos anos
´E claro a presen¸ca de uma tendˆencia e uma sazonalidade (ciclo). A ideia central ao analisar
uma s´erie temporal ´e modelar seu componente aleat´orio, desse modo o interesse maior encontra-se
na parte estoc´astica dos dados. Portanto, ´e interessante decompor a s´erie para a analisarmos.
Isso ´e feito a seguir.
Analisando a figura 2 percebemos na segunda linha que h´a uma tendˆencia crescente na s´erie, o
que indica que o n´umero de passageiros internacionais tende a aumentar com passar do tempo.
Al´em disso, percebe-se, claramente, na terceira linha, que nos meses de ver˜ao no hemisf´erio norte
(julho, agosto) tem-se picos seguidos de quedas no n´umero de passageiros, indicando a presen¸ca
de um ciclo. E por, fim a quarta linha ´e o componente aleat´orio.
Para finalizar essa introdu¸c˜ao, destacamos que o componente pode ser representado como um
conjunto de valores yt = {y1, y2, . . . , yn}, onde yi ´e o valor assumido pela vari´avel yt no per´ıodo
t = i. Como o objetivo do estudo de s´eries temporais ´e entender a influˆencia do tempo sobre
uma determinada vari´avel, o componente estoc´astico ´e o que nos interessa. Pois, o determin´ıstico
´e a influˆencia de vari´aveis que n˜ao s˜ao o tempo e, portanto, podem ser estudadas via regress˜ao.
1.2 Hip´oteses
Salvo seja explicitado contr´ario s˜ao assumidas todas as hip´oteses do modelo cl´assico de regress˜ao.
Damos ˆenfase a trˆes delas:
1. Valor esperado do erro: E[ t] = 0.
2. Heteroscedasticia: V ar( t) = σ2.
3. Ausˆencia de autocorrela¸c˜ao residual: E[ i j] = 0 ∀ i = j.
Podemos agora formalizar os conceitos de processo estoc´astico e estacionaridade que s˜ao de
fundamental importˆancia para nosso estudo.
2 Processos Estoc´asticos
Podemos definir um processo estoc´astico como sendo um conjunto de observa¸c˜oes aleat´orias
{Y (t), t ∈ T}, medidas de acordo com um parˆametro t que varia ao longo do tempo (T). Em
outras palavras, um processo estoc´astico ´e uma fun¸c˜ao aleat´oria de t. A sequˆencia yt, t = 1, 2, 3 . . .
P´agina 7 de 47
Vin´ıcius M. de Sousa K
200
400
600
0.8
0.9
1.0
1.1
1.2
200
300
400
0.90
0.95
1.00
1.05
1.10
dataseasonaltrendremainder
1950 1952 1954 1956 1958 1960
Time
Decomposition of multiplicative time series
Figura 2: Componentes do conjunto de dados sobre passageiros internacionais
´e chamda de realiza¸c˜ao parcial do processo, pois o valor observado poderia ter sido outros infinitos
valores, e.g., o n´umero de passageiros internacionais em janeiro de 1949 foi de 112 mil, mas
poderia ter sido 120 mil. Portanto, uma s´erie temporal ´e caracterizada como sendo gerada por
um processo estoc´astico.
Para estudar os processos geradores de s´eries se faz necess´ario observar certas caracter´ısticas
dos processos.
2.1 Caracter´ısticas
Defini¸c˜ao 2.1. Seja {Yt, t ∈ T} um processo estoc´astico. Ent˜ao suas caracter´ısticas s˜ao,
1. Valor esperado: E[yt] = µ ∀ t ∈ T
2. Variˆancia: E[(yt − µ)2] = σ2
t ∀ t ∈ T
3. Covariˆancia: E[(yt − µ)(yk − µ)] = γt,k ∀ t, k ∈ T
Passemos a outro conceito essencial para nosso estudo.
3 Estacionaridade
Uma maneira intuitiva de se definir estacionaridade ´e, dizer que uma s´erie ´e estacion´aria
quando, o processo estoc´astico que a gerou possui caracter´ısticas invariantes ao longo do tempo.
Abaixo formalizamos o conceito.
Defini¸c˜ao 3.1. Dizemos que {y1, y2, . . . , yn} ´e uma s´erie fracamente estacion´aria se, e somente
se,
P´agina 8 de 47
Vin´ıcius M. de Sousa K
ARMA
AR
MA
ARIMA
Figura 4: Diagrama de Venn dos modelos ARIMA
1. m´edia: E[yt] = µ ∀ t ∈ T
2. Variˆancia: var(yt) = γ0 ∀ t ∈ T
3. Autocovariˆancia: Cov(yt, yk) = γk ,i.e., depende s´o da distˆancia do instante t.
A s´erie observada do n´umero de passageiros da se¸c˜ao 1.1 ´e um exemplo de s´erie n˜ao estacion´aria,
ao passo que a figura 3 ´e um exemplo de uma s´erie estacion´aria.
5
10
15
20
0 10 20 30 40 50
Tempo
Variável
Figura 3: Exemplo de s´erie estacion´aria
4 Modelos ARMA(p, q)
Um modelo ARMA(p,q) ´e um modelo que possui p filtros auto-regressivos (AR) e q componentes
de m´edia m´ovel dos erros (MA). Podemos chamar um modelo ARMA(1,0) de AR(1), denominado
por modelo auto-regressivo de ordem 1. Tamb´em podemos chamar um ARMA(0,q) de MA(q),
denominado por modelo de m´edias m´oveis de ordem q. Portanto, os modelos ARMA s˜ao um
conjunto de modelos AR e MA. A figura 4 mostra isso1.
Vamos aos modelos em si? #boranegao
1
Os modelos arima ser˜ao mais tarde, pois ´e necess´ario o conceito de operadores de defasagens.
P´agina 9 de 47
Vin´ıcius M. de Sousa K
4.1 Modelos Auto-Regressivos
Defini¸c˜ao 4.1. Dizemos que um modelo ´e auto-regressivo quando a vari´avel em quest˜ao ´e
explicada por seus valores passados e o ru´ıdo branco. Equacionando temos o AR(p),
yt = c + φ1yt−1 + ... + φqyt−p + t (1)
A seguir vamos mostrar as caracter´ısticas do modelo descrito em 1.
4.1.1 Valor Esperado
´E um dado valor µ.
µ = E[yt]
= E[c + φ1yt−1 + ... + φqyt−p + t]
= c + φ1E[yt−1] + ... + φqE[yt−p]
= c + φ1µ + ... + φpµ
µ(1 − φ1 − ... − φp) = c
µ =
c
(1 − φ1 − ... − φp)
µ = 0
(2)
O ´ultimo passo deriva do fato de que, por simplicidade, assumiremos doravante a constante do
modelo como sendo nula, i.e., c = 0.
4.1.2 Variˆancia
´E um dado valor γ0.
γ0 = φ1γ1 + ... + φpγp + σ2
(3)
Onde os γi s˜ao as autocovariˆancias de ordem i.
4.1.3 Autocovariˆancia
A autocovariˆancia de ordem k ´e um dado valor γk.
γk = E[ytyt−k]
γk = φ1γk−1 + ... + φpγk−p
(4)
Aqui ´e importante notar que para um modelo AR(p) existir˜ao p autocovariˆancias diferentes de
zero, portanto γk = 0 ∀ k > p.
Exemplo 1: AR(1)
O modelo AR(1) ´e o que segue,
yt = φyt−1 + t (5)
Vamos descrever as caracter´ısticas de 5.
1. Variˆancia:
γ0 = E[y2
t ]
= E[(φ1yt−1 + t)2
]
= E[φ2
1y2
t−1 + 2
t + 2φ1yt−1 t]
= φ2
1γ0 + σ2
γ0 =
σ2
1 − φ2
1
(6)
P´agina 10 de 47
Vin´ıcius M. de Sousa K
2. Autocovariˆancia de ordem 1:
γ1 = E[ytyt−1]
= E[(φ1yt−1 + t)yt−1]
= E[φ1y2
t−1 + tyt−1]
γ1 = φγ0
(7)
3. Autocovariˆancia de ordem 2:
γ1 = E[ytyt−2]
= E[(φ1yt−1 + t)yt−2]
= E[(φ1(φ1yt−2 + t−1) + t)yt−2]
= E[(φ2
1yt−2 + φ1 t−1)yt−2]
= E[φ2
1y2
t−2 + φ1 t−1yt−2]
γ1 = φ2
1γ0
(8)
Perceba que a condi¸c˜ao de estacionaridade no caso do AR(1) ´e |φ| < 12.
Exemplo 2: AR(2)
O modelo AR(2) ´e o que segue,
yt = φ1yt−1 + φ2yt−2 + t (9)
Vamos descrever as caracter´ısticas de 9.
1. Variˆancia:
γ0 = E[y2
t ]
= E[(φ1yt−1 + φ2yt−2 + t)2
]
= E[φ2
1y2
t−1 + φ2
2y2
t−2 + 2
t + 2φ1φ2yt−1yt−2 + 2φ1yt−1 t + 2φ2 t]
= φ2
1γ0 + φ2
2γ0 + σ2
+ 2φ1φ2γ1
γ0(1 − φ2
1 − φ2
2) = 2φ1φ2γ1 + σ2
γ0 =
2φ1φ2γ1 + σ2
1 − φ2
1 − φ2
2
(10)
2. Autocovariˆancia de ordem 1:
γ1 = E[ytyt−1]
= E[(φ1yt−1 + φ2yt−2 + t)yt−1]
= E[φ1y2
t−1 + φ2yt−2yt−1 + tyt−1]
= φ1γ0 + φ2γ1
γ1(1 − φ2) = φ1γ0
γ1 =
φ1γ0
1 − φ2
(11)
2
Nos modelos com um n´umero maior de filtros essa condi¸c˜ao tamb´em ser´a a de estacionaridade, pois caso ela n˜ao
seja atendida os valores assumidos pela vari´avel ser˜ao explosivos, de modo que o primeiro item da defini¸c˜ao 3.1
´e violado.
P´agina 11 de 47
Vin´ıcius M. de Sousa K
3. Autocovariˆancia de ordem 2:
γ2 = E[ytyt−2]
= E[(φ1yt−1 + φ2yt−2 + t)yt−2]
= E[φ1yt−1yt−2 + φ2y2
t−2 + tyt−2]
γ2 = φ1γ1 + φ2γ0
(12)
4.2 Modelos de M´edia M´ovel
Defini¸c˜ao 4.2. Dizemos que um modelo ´e de m´edia m´ovel quando a vari´avel em quest˜ao ´e
explicada pelos choques aleat´orios (ru´ıdo branco) presente e passados. Equacionando temos o
MA(q),
yt = t − θ1 t−1 − ... − θq t−q (13)
Vamos mostrar agora as caracter´ısticas do modelo descrito em 13.
4.2.1 Valor Esperado
´E um dado valor µ.
µ = E[yt]
= E[ t − θ1 t−1 − ... − θq t−q]
= E[ t] − θ1E[ t−1] − ... − θqE[ t−q]
µ = 0
(14)
4.2.2 Variˆancia
´E um dado valor γ0.
γ0 = E[(yt − E[yt])2
]
= E[y2
t ]
= E[( t − θ1 t−1 − ... − θq t−q)2
]
= E[ 2
t + θ2
1
2
t−1 + ... + θ2
q
2
t−q + 2A
= σ2
+ θ2
1σ2
+ ... + θ2
q σ2
γ0 = σ2
(1 + θ2
1 + ... + θ2
q )
(15)
A ´e o produto cruzado dos termos.
4.2.3 Autocovariˆancia
A autocovariˆancia de ordem k um dado valor γk.
γk = E[ytyt−k]
γk = σ2
(−θk + θ1θk+1 + θ2θk+2 + ... + θqθq−k)
(16)
Exemplo 1: MA(1)
O modelo MA(1) ´e o que segue,
yt = t − θ1 t−1 (17)
Vamos descrever as caracter´ısticas de 17.
P´agina 12 de 47
Vin´ıcius M. de Sousa K
1. Variˆancia:
γ0 = E[y2
t ]
= E[( t − θ1 t−1)2
]
= E[ 2
t − θ2
1
2
t−1 − 2θ1 t t−1]
= σ2
− θ2
1σ2
γ0 = σ2
(1 − θ1)
(18)
2. Autococariˆancia de ordem 1:
γ1 = E[ytyt−1]
= E[( t − θ1 t−1)( t−1 − θ1 t−2)]
= E[ t t−1 − θ1 t t−2 − θ1
2
t−1 + θ2
1 t−1 t−2]
γ1 = −θ1σ2
(19)
3. Autocovariˆancia de ordem 2:
γ2 = E[ytyt−2]
= E[( t − θ1 t−1)( t−2 − θ1 t−3)]
γ2 = 0
(20)
Exemplo 2: MA(2)
O modelo MA(2) ´e o que segue,
yt = t − θ1 t−1 − θ2 t−2 (21)
Vamos descrever as caracter´ısticas de 21.
1. Variˆancia:
γ0 = E[y2
t ]
= E[( t + θ1 t−1 + θ2 t−2)2
]
= E[ 2
t + θ2
1
2
t−1 + θ2
2
2
t−2 + 2Λ]
= σ2
+ θ2
1σ2
+ θ2
2σ2
γ0 = σ2
(1 + θ2
1 + θ2
2)
(22)
Onde Λ ´e o produto cruzado de yt.
2. Autocovariˆancia de ordem 1:
γ1 = E[ytyt−1]
= E[( t − θ1 t−1 − θ2 t−2)( t−1 − θ1 t−2θ2 t−3)]
= E[ tyt−1 − θ1
2
t−1 + θ1 t−1(θ1 t−2 + θ2 t−3) + θ2θ1
2
t−2 − θ1 t−2( t−1 − θ2 t−3)]
= −θ1σ2
+ θ2θ1σ2
γ1 = σ2
(−θ1 + θ2θ1)
(23)
3. Autocovariˆancia de ordem 2:
γ2 = E[ytyt−2]
= E[( t − θ1 t−1 − θ2 t−2)( t−1 − θ1 t−3 − θ2 t−4)]
= E[ tyt−2 − θ1 t−1yt−2 − θ2
2
t−2 + θ2 t−2(θ1 t−3 + θ2 t−4)]
γ2 = −θ2σ2
(24)
P´agina 13 de 47
Vin´ıcius M. de Sousa K
4.2.4 Transformac¸ ˜ao de um MA(1) em AR(∞)
Percebemos que n˜ao h´a nenhuma restri¸c˜ao sobre θi para que as caracter´ısticas do modelo
existam. Entratanto, ´e poss´ıvel transformarmos um modelo MA(1) em um modelo do tipo
AR(∞) e, para isso, ´e necess´aria a condi¸c˜ao |φ| < 1, aqui chamada de condi¸c˜ao de inversibilidade.
Vamos agora mostrar ao leitor o processo de invers˜ao. Considere o modelo abaixo,
yt = t − θ1 t−1 (25)
Defasando 25 temos,
yt−1 = t−1 − θ1 t−2 (26a)
t−1 = yt−1 + θ1 t−2 (26b)
Substituindo 26b em 25 obtemos
yt = t − θ1(yt−1 + θ1 t−2)
= t − θ1yt−1 + θ2
1 t−2
(27)
Repetindo esse processo de maneira iterativa chegamos a um modelo AR(∞)
yt = t − θ1yt−1 + θ2
1 t−2 + ... (28)
4.3 Modelos ARMA
Defini¸c˜ao 4.3. Dizemos que um modelo ´e auto-regressivo de m´edias m´oveis quando a vari´avel
em quest˜ao ´e explicada por seus valores passados assim como pelos choques aleat´orios pressente e
passados. Equacionando temos o ARMA(p,q),
yt = φ1yt−1 + · · · + φpyt−p + t − θ1 t−1 − · · · − θq t−q (29)
A dedu¸c˜ao das caracter´ısticas para o modelo ARMA(p,q) ´e de natureza complexa e por se
tratar de um texto introdut´orio a deixamos de lado.
4.3.1 Exemplo
O modelo ARMA(1,1) ´e o que segue,
yt = φyt−1 + t − θ t−1 (30)
Vamos mostrar agora as caracter´ısticas do modelo descrito em 30.
1. Variˆancia:
2. Autocovariˆancia de ordem 1:
γ1 = E[ytyt−1]
= E[(φyt−1 + t − θ t−1)yt−1]
= E[φy2
t−1 + yt−1 t − θyt−1 t]
γ1 = φγ0 − θσ2
(32)
3. Autocovariˆancia de ordens `a ordem 2:
γk = E[ytyt−k]
= E[(φyt−1 + t − θ t−1)yt−k]
= E[φyt−1yt−k + yt−k t − θyt−k t−1]
γk = φγk−1
(33)
P´agina 14 de 47
Vin´ıcius M. de Sousa K
5 Operadores de defasagem
Antes de apresentarmos ao leitor o modelo ARIMA ´e necess´ario que seja mostrada uma
maneira alternativa de testar se o processo gerador da s´erie ´e estacion´ario ou n˜ao, at´e
agora seria preciso observar se as condi¸c˜oes da defini¸c˜ao 3.1. Tal maneira ´e poss´ıvel pois a
condi¸c˜ao de estacionaridade j´a ´e de nosso conhecimento. O operador ser´a mostrado para
modelos AR(p) e MA(q) nesta se¸c˜ao e para o modelo ARIMA na se¸c˜ao 6.1.
5.1 Operador de defasagem de um AR(p)
Dado um modelo
yt = φ1yt−1 + · · · + φpyt−p + t (34)
Definimos,
Defini¸c˜ao 5.1. O operador de defasagem como sendo um Ln tal que
Ln
yt = yt−n (35)
Aplicando 35 `a 34 temos,
yt = φ1Lyt + · · · + φpLp
yt
yt(1 − φ1L + · · · + φqLp
) = t
ytφi(L)P
= t, com i = 1, 2, . . . , p
(36)
onde,
φi(L)P
= 1 − φ1L + · · · + φqLp
(37)
´e chamado de polinˆomio caracter´ıstico. Para que o processo gerador da s´erie seja considerado
estacion´ario ´e necess´ario que a rela¸c˜ao entre as p ra´ızes de 37 e os φ s garantam que
|φi| < 1 ∀ i = 1, . . . , p. Mostraremos esse importante resultado para o AR(1).
5.1.1 Polinˆomio Caracter´ıstico do AR(1)
De 37 temos o polinˆomio do AR(1), basta resolvermos para L,
0 = 1 − φ1L
φ1L = 1
L =
1
φ1
(38)
Vˆe se ent˜ao que a raiz de φ1(L) ´e o inverso de φ1. Como a condi¸c˜ao de estacionaridade
´e que os coeficientes sejam menores do que 1 em m´odulo, ent˜ao se |L| > 1 ⇒ o processo
gerador da s´erie ´e estacion´ario.
5.2 Operador de defasagem de um MA(q)
Dado um modelo,
yt = t − θ1 t−1 − · · · − θq t−q (39)
Definimos,
P´agina 15 de 47
Vin´ıcius M. de Sousa K
Defini¸c˜ao 5.2. O operador de defasagem como sendo um Bn tal que
Bn
yt = t−n (40)
Aplicando 40 `a 39 temos,
yt = t − θ1A t − · · · − θqAq
t
= t(1 − θ1A − · · · − θq)
yt = tθi(A)q
, com i = 1, 2, . . . , q
(41)
onde,
θi(A)q
= 1 − θ1A − · · · − θqAq
(42)
´e chamado de polinˆomio caracter´ıstico. Para que o processo gerador da s´erie seja considerado
estacion´ario ´e necess´ario que a rela¸c˜ao entre as q ra´ızes de 42 e os θ s garantam que
|θi| < 1 ∀ i = 1, . . . , q. A demonstra¸c˜ao dessa importante resultado para o modelo MA(1) ´e
an´alogo ao da se¸c˜ao 5.1.1 e deixamos para o leitor resolver como exerc´ıcio te´orico.
5.3 Representac¸ ˜ao ARMA(p, q)
Um modelo do tipo ARMA(p, q) pode ser representado utilizando-se os operadores de
defasagem L e A apresentados nas se¸c˜oes anteriores.
A seguir mostramos como:
yt = φ1yt−1 + · · · + φpyt−p + t − θ1 t−1 − · · · − θq t − q
= φ1Lyt + · · · + φpLp
yt + t − θ1A t − · · · − θqAq
t
yt(1 − φ1L + · · · + φqLp
) = t(1 − θ1A − · · · − θq)
ytφi(L)P
= tθj(A)q
, com i = 1, . . . , p e j = 1, . . . , q
(43)
6 Modelos ARIMA
J´a conhecendo os operadores de defasagem podemos, agora, terminar a discuss˜ao sobre os
modelos de s´eries temporais apresentando ao leitor os modelos com operador de integra¸c˜ao,
que s˜ao utilizados para tornar poss´ıvel a an´alise de s´eries temporais n˜ao estacion´arias. Isso
´e poss´ıvel pois muitas vari´aveis econˆomicas apresentam comportamento n˜ao estacion´ario se
medidas em n´ıvel, por´em ao se utilizar o operador de integra¸c˜ao (de ordem i)3, a vari´avel
passa a ter um comportamento estacion´ario.
Defini¸c˜ao 6.1. O operador de diferen¸cas ´e um ∆ tal que,
∆i
yt = yt − yt−i (44)
´E importante notar a rela¸c˜ao que h´a entre ∆ e os operadores de desafagem, sendo ela
∆ = 1 − L, essa demonstra¸c˜ao ´e simples e a deixamos como exerc´ıcio te´orico para o leitor4.
3
Normalmente a primeira ou segunda ordem de integra¸c˜ao para estacionar a s´erie.
4
Fa¸ca-o agora.
P´agina 16 de 47
Vin´ıcius M. de Sousa K
6.1 ARIMA(p, i, q)
Suponha que tenhamos o modelo,
yt = φ1yt−1 + · · · + φpyt−p + t − θ1 t−1 − · · · − θq t − q (45)
cujo yt apresenta um comportamento n˜ao estacion´ario. Em frente disso, podemos tomar
sua primeira diferen¸ca e testar se ∆yt ´e estacion´aria, continuaremos fazendo esse processo
at´e a ordem i onde a vari´avel ∆iyt ´e estacion´aria. Equacionaremos agora o que foi dito.
Aplicando a defini¸c˜ao 6.1 `a 45 temos,
∆i
yt = φ1∆i
yt−1 + · · · + φp∆i
yt−p + tθ(A)q
∆i
yt − φ1∆i
yt−1 + · · · − φp∆i
yt−p = tθ(A)q
∆i
yt(1 − φ1L + · · · + φqLp
) = tθ(A)q
(1 − L)i
ytφ(L)p
= tθ(A)q
(46)
onde o ´ultimo passo foi derivado do resultado j´a demonstrado pelo leitor como exerc´ıcio.
6.2 Exemplo
Analisaremos agora a taxa de cˆambio R$/U$ entre janeiro de 1995 e agosto de 20165. A
figura 5 traz o plot da s´erie.
1
2
3
4
1995 2000 2005 2010 2015
R$/U$
Figura 5: Cˆambio R$/U$ entre Jan/95 e Ago/16
Como j´a mostrado na se¸c˜ao 3, ´e necess´ario que a s´erie seja estacion´aria para que a an´alise
de s´eries temporais possa ser aplicada. Ser´a que a s´erie da figura 5 ´e estacion´aria, leitor?
5
Dispon´ıvel em https://fred.stlouisfed.org/series/DEXBZUS
P´agina 17 de 47
Vin´ıcius M. de Sousa K
Vamos utilizar aqui o teste de Dickey-Fuller6 7 aumentado para testar a estacionaridade
da s´erie. O teste tem como hip´otese nula a n˜ao estacionaridade da s´erie e escolhemos o
cl´assico n´ıvel de significˆancia de 5%.
O resultado do teste ´e p do teste ´e p =0.595> 0.05 ent˜ao aceitamos a hip´otese nula, i.e., a
s´erie ´e n˜ao estacion´aria . O que havemos de fazer? Recomendo um e ent˜ao aplicar a
defini¸c˜ao 6.1 `a s´erie e testar novamente.
Tabela 2: Taxa de Cˆambio Real/D´olar
Cˆambio 1ª diferen¸ca
01/01/1995 0.846 0
01/02/1995 0.841 -0.005
01/03/1995 0.890 0.049
01/04/1995 0.907 0.017
01/05/2016 3.540 -0.023
01/06/2016 3.423 -0.117
01/07/2016 3.278 -0.145
01/08/2016 3.196 -0.082
A tabela 2 mostra o in´ıcio e o final da taxa de cˆambio em n´ıvel e sua 1ª diferen¸ca.
Iremos repetir a an´alise para a 1ª diferen¸ca, come¸cando com a figura 6. ´E clara a mudan¸ca
entre a figura 5 e 6. Repetindo o teste Dickey-Fuller aumentado temos como resultado o
valor p =0.01< 0.05 ent˜ao rejeitamos a hip´otese nula. Disso conclu´ımos que a s´erie n˜ao ´e
estacion´aria em n´ıvel, por´em sua 1ª diferen¸ca ´e e, portanto, ´e ela (1ª diferen¸ca) que seria
usada para a an´alise da s´erie.
6
N˜ao se preocupe que isso ´e cena de pr´oximos cap´ıtulos, a verifica¸c˜ao da estacionaridade de uma s´erie ser´a
abordada mais adiante
7
S´o dando uma intui¸c˜ao ao leitor, o teste de Dickey-Fuller aumentado testa a signifiˆancia do coeficiente da
primeira diferen¸ca de uma vari´avel regredida contra sua primeira diferen¸ca e a tendˆencia da s´erie.
P´agina 18 de 47
Vin´ıcius M. de Sousa K
−0.2
0.0
0.2
0.4
1995 2000 2005 2010 2015
1ªDiferença
Figura 6: 1ª Diferen¸ca da taxa de cˆambio
Passemos agora aos modelos sazonais.
7 Modelos Sazonais
Aqui vamos apresentar uma introdu¸c˜ao aos modelos sazonais, que em muito assemelham-se
aos modelos ARIMA. A sazonalidade nada mais ´e do que a influˆencia da vari´avel no ponto
de tempo t − s sobre a vari´avel no per´ıodo t. A intui¸c˜ao disso, classicamente, ´e passada
com o exemplo das vendas de varejo. A quantidade de vendas no varejo de mar¸co/16 ´e
mais explicada pela quantidade das vendas de mar¸co/15 do que a quantidade de vendas no
varejo de fev/16, no caso do varejo, o valor de s seria 12.
Este comportamento ´e muito comum em s´eries que possuem mais de uma observa¸c˜ao dentro
de um ano (trimestrais, mensais, di´arios etc.), entretanto, nada restringe que s´eries anuais
possuam um componente sazonal. Mostraremos os tipos de modelos te´oricos e em seguida
dar-se-´a exemplos.
7.1 SAR(P) ou AR(P)s
Defini¸c˜ao 7.1. Dizemos que um modelo ´e auto-regressivo sazonal quando a vari´avel em
quest˜ao, no instante de tempo t, ´e explicada por seus valores assumidos nos instante de
tempo t − 2, t − 2s, . . . e pelo ru´ıdo branco. Equacionando temos,
yt = Φ1yt−s + Φ2yt−2s + · · · + ΦP yt−Ps + t
ytΦ(Ls)P
= t
(47)
P´agina 19 de 47
Vin´ıcius M. de Sousa K
7.2 SMA(Q) ou MA(Q)s
Defini¸c˜ao 7.2. Dizemos que um modelo ´e de m´edias m´oveis sazonal quando a vari´avel em
quest˜ao, no instante de tempo t, ´e explicada por seus valores assumidos nos instante de
tempo t − 2, t − 2s, . . . e pelo ru´ıdo branco. Equacionando temos,
yt = t − Θ1 t−s − · · · − ΘQ t−Qs
yt = tΘ(Bs)Q
(48)
7.3 SARIMA(P, I, Q) ou ARIMA(P, I, Q)s
Jun¸c˜ao do SAR(P) com SMA(Q) e filtros de integra¸c˜ao para estacionar a s´erie (caso
necess´ario), que resulta em,
Φ(Ls)P
(1 − L)I
yt = Θ(Bs)Q
t (49)
7.4 ARIMA(p, i, q)(P, I, Q)
Os modelos sazonais at´e agora mostrados assumem (implicitamente) que a vari´avel n˜ao est´a
correlacionada com valores anteriores seus que n˜ao sejam m´ultiplos de s, por´em isso n˜ao se
mostra muito presente nos dados, como pode ser observado nos dados sobre passageiros. O
modelo ARIMA(p, i, q)(P, I, Q), ou modelo multiplicativo geral, ´e bastante utilizado, pois
ele possui componentes estoc´asticos e componentes sazonais. Sem mais delongas, voi-l`a o
modelo,
φ(L)p
Φ(Ls)P
∆i
∆I
yt = θ(B)q
Θ(B)Qs
t (50)
Com isso terminamos a introdu¸c˜ao aos tipos de modelos de s´eries temporais que era o
objetivo da primeira parte. A pr´oxima parte dedica-se `a Metodologia de Modelagem e
Previs˜ao Box & Jenkins.
P´agina 20 de 47
Vin´ıcius M. de Sousa K
Parte II
Metodologia Box & Jenkins
At´e aqui foi apresentado ao leitor tipos de modelos de s´eries temporais univariados8, tais
modelos podem ser utilizados pela metodologia Box & Jenkins que tem como objetivo a
previs˜ao dos valores que a vari´avel ir´a assumir. A metodologia Box & Jenkins consiste em 4
etapas, sendo elas 1ª identifica¸c˜ao, 2ª estima¸c˜ao, 3ª verifica¸c˜ao e 4ª previs˜ao. Apresent´a-la
ao leitor ´e o objetivo desta parte do texto.
8 Identificac¸ ˜ao
As figuras 7 e 8 mostram um modelo AR(2) e um MA(2). O leitor saberia dizer qual figura
mostra qual tipo de modelo?
O autor espera que a resposta tenha sido uma negativa, isto porque o gr´afico da vari´avel
pode no m´aximo nos dizer se a vari´avel ´e ou n˜ao estacion´aria. Frente a isso, ´e necess´ario que
utilizemos um ferramental formal, para determinar quais filtros devem conter no modelo
que melhor representa os dados. Para isso, utilizaremos as fun¸c˜oes de autocorrela¸c˜ao (FAC)
e autocorrela¸c˜ao parcial (FACP).
−3
−2
−1
0
1
2
3
0 20 40 60 80 100
Tempo
Variável1
Figura 7: Vari´avel 1
8
Dependem apenas da pr´opria vari´avel.
P´agina 21 de 47
Vin´ıcius M. de Sousa K
−15
−10
−5
0
5
0 20 40 60 80 100
Tempo
Variável2
Figura 8: Vari´avel 2
8.1 Func¸ ˜oes FAC e FACP
8.1.1 Func¸ ˜ao de autocorrelac¸ ˜ao
´E a autocorrela¸c˜ao que h´a entre o per´ıodo t e k.
Defini¸c˜ao 8.1. A fun¸c˜ao de autocorrela¸c˜ao ´e dada pelos pares (k, ρk) gerados por,
ρk =
Cov(yt, yk)
V ar(yy)
=
γk
γ0
(51)
Para termos os valores de ρ basta efetuarmos o c´alculo e plotar no espa¸co k × ρ = IR2
.
J´a adiantamos que na an´alise de s´eries amostrais ´e necess´ario conhecer a distribui¸c˜ao de
ˆρ quando ρ = 0, de modo que possamos testar as hip´oteses nulas de que ˆρ = 0. Bartlett
(1946) apud Vasconcellos and Alves (2000) mostra que,
V ar(ˆρk) =
1
n
(1 + 2ˆρ2
1 + · · · + ˆρ2
j ), ∀ k > j (52)
onde ˆρk ∼ N(0, 1/n). E disso pode-se construir os testes tradicionais de significˆancia
individual. Como alternativa aos testes individuais pode-se utilizar o teste de Ljung-Box
para verificar se os primeiros k coeficientes s˜ao conjuntamnte nulos (como de praxe, esta ´e
a hip´otese nula). A estat´ıstica ´e dada por,
Q(K) = n(n + 2)
K
k=1
ˆρ2
k
n − k
(53)
que segue a distribui¸c˜ao χ2 com K graus de liberdade.
P´agina 22 de 47
Vin´ıcius M. de Sousa K
8.1.2 Func¸ ˜ao de autocorrelac¸ ˜ao parcial
Mede a autocorrela¸c˜ao entre yt e yt−k depois de descontada a influˆencia de yt−1, . . . , yt−k+1
sobre yt.
Defini¸c˜ao 8.2. A fun¸c˜ao de autocorrela¸c˜ao parcial ´e dada pelos pares (k, φkk), onde o
primeiro k de φkk refere-se `a linha da equa¸c˜ao no sistema e o segundo refere-se `a ordem
de autocorrela¸c˜ao, representados no espa¸co k × φkk = IR2
, que podem ser gerados de duas
maneiras:
a) Aplicando m´ınimos quadrados nas equa¸c˜oes abaixo:
yt = β11yt−1 + t ⇒ φ11 = β11
yt = β21yt−1 + β22yt−2 + t ⇒ φ22 = β22
...
yt = βk1yt−1 + · · · + βkkyt−k t ⇒ φkk = βkk
(54)
b) Resolvendo o sitema derivado das equa¸c˜oes de Yule-Walker9:
ρ(1) = φ1ρ(0) + φ2ρ(1) + · · · + φpρ(p − 1)
ρ(2) = φ1ρ(1) + φ2ρ(0) + · · · + φpρ(p − 2)
...
ρ(p) = φ1ρ(p − 1) + φ2ρ(p − 2) + · · · + φpρ(0)



φkk = φk, k = 1, . . . , p (55)
Veremos, agora, como determinar os filtros de integra¸c˜ao, auto-regressivos e de m´edia
m´oveis.
8.2 Determinac¸ ˜ao dos filtros de integrac¸ ˜ao
Regra de Bolso: Se para k > 5 ainda tivermos |γk| > 0, 7 a s´erie deve ser considerada n˜ao
estacion´aria (Vandaele, 1983). Nesse caso, deve-se aplicar o operador de diferen¸cas at´e que
a regra de bolsa seja atendida e ent˜ao ter-se-´a ∆i como filtro de integra¸c˜ao.
8.3 Filtros auto-regressivos e de m´edia m´ovel
Podemos estudar o comportamento das fun¸c˜oes FAC e FACP de cada modelo te´orico
ARMA de modo a observarmos suas caracter´ısticas. Desse modo, ao plotarmos os pares
(k, ˆρk) e (k, ˆφkk) podemos analisar as caracter´ısticas, comparar com as dos modelos te´oricos
e escolher os modelos ‘candidatos’ a geradores da s´erie.
8.3.1 AR(1)
Retomando 5 temos,
yt = φyt−1 + t (56)
onde,
a) FAC:
ˆρk =
ˆγk
ˆγ0
= ˆφk
, k = 1, . . . , k (57)
Devida a condi¸c˜ao de estacionaridade a FAC de AR(1) decresce exponencialmente.
9
Ver se¸c˜ao 13 em III
P´agina 23 de 47
Vin´ıcius M. de Sousa K
b) FACP:
ˆφkk =
= 0, se k = 1
= 0, se k = 2, . . . , k
(58)
Ent˜ao FACP ´e truncada10 em k = 1 = p.
A figura 9 mostra esse comportamento.
−0.20.20.40.60.8
Lag
FAC
AR(1) com phi=0.9
5 10 15 20
−0.20.20.40.60.8
Lag
FACP
AR(1) com phi=0.9
5 10 15 20
−0.50.00.5
Lag
FAC
AR(1) com phi=−0.9
5 10 15 20
−0.8−0.40.00.2
Lag
FACP
AR(1) com phi=−0.9
5 10 15 20
Figura 9: FAC e FACP de um AR(1)
8.3.2 AR(p)
Retomando 1 temos,
yt = c + φ1yt−1 + ... + φqyt−p + t (59)
onde,
10
Entenda-se ‘truncada como a fun¸c˜ao ser significante at´e a defasagem p.
P´agina 24 de 47
Vin´ıcius M. de Sousa K
a) FAC:
ˆρk = ˆφ1 ˆρk−1 + ˆφ2 ˆρk−2 + · · · + ˆφp ˆρk−p, = 1, . . . , k (60)
O comportamento n˜ao ´e obvio11, mas FAC do AR(p) descresce exponencialmente
e/ou apresenta ondas senoidais.
b) FACP:
ˆφkk =
= 0, se k = 1, . . . , p
= 0, se k > p
(61)
De modo que FACP de AR(p) ´e truncada em k = p.
A figura 10 mostra essa comportamento, onde p = 20.
−0.50.00.5
Lag
FAC
AR(20)
0 20 40 60 80 100
−0.40.00.4
Lag
FACP
AR(20)
0 20 40 60 80 100
Figura 10: FAC e FACP de um AR(20)
11
O leitor pode confiar em mim, mas pode tamb´em verificar no cap´ıtulo 3 de (Brockwell and Davis, 2002).
P´agina 25 de 47
Vin´ıcius M. de Sousa K
8.3.3 MA(1)
Um MA(1) ´e o modelo que segue,
yt = t − θ1 t−1 (62)
onde,
a) FAC:
ˆρk
= −ˆθ1
1+ˆθ1
, se k = 1
= 0, se k > 1
(63)
De modo que a FAC de MA(1) ´e truncada em k = 1 = q.
b) FACP: ´E necess´ario transformar o MA(1) em um AR(∞) para se chegar ao resultado
que segue:
ˆφkk =
−(ˆθ)k
1 + ˆθ2 + · · · + ˆθ2k
(64)
Devido ´a condi¸c˜ao de invertibilidade, a FACP de MA(1) decresce exponencialmente.
A figura 11 mostra essa comportamento.
P´agina 26 de 47
Vin´ıcius M. de Sousa K
−0.20.00.20.4
Lag
FAC
MA(1) com theta=0.9
5 10 15 20
−0.20.00.20.4
Lag
FACP
MA(1) com theta=0.9
5 10 15 20
−0.5−0.3−0.10.1
Lag
FAC
MA(1) com theta=−0.9
5 10 15 20
−0.5−0.3−0.10.1
Lag
FACP
MA(1) com theta=−0.9
5 10 15 20
Figura 11: FAC e FACP de um MA(1)
8.3.4 MA(q)
Retomando 13 temos,
yt = t − θ1 t−1 − ... − θq t−q (65)
onde,
a) FAC:
ˆρk =
= 0, se k = 1, . . . , q
= 0, se k > q
(66)
De modo que a FAC de MA(q) ´e truncada em k = q.
b) FACP: Decresce `a medida que k aumenta, por´em sem nenhum padr˜ao.
A figura 12 mostra essa comportamento, onde q = 20.
P´agina 27 de 47
Vin´ıcius M. de Sousa K
−0.40.00.4
Lag
FAC
MA(20)
0 20 40 60 80 100
−0.20.20.6
Lag
FACP
MA(20)
0 20 40 60 80 100
Figura 12: FAC e FACP de um MA(20)
8.3.5 ARMA(1,1)
Retomando 30 temos,
yt = φyt−1 + t − θ t−1 (67)
onde,
a) FAC
ˆρk =



(1−ˆφˆθ)(ˆφ−ˆθ)
1+ˆθ2−2ˆφˆθ
, se k = 1
ˆφˆρk−1, se k > 1
(68)
b) FACP: Deve ser transformado num AR. Devido a condi¸c˜ao de estacionaridade a FACP
ser´a decrescente `a medida que k aumenta, recomendo que o leitor veja o exemplo da
p´agina 64 em Enders (2014) para a verifica¸c˜ao do que foi afirmado.
P´agina 28 de 47
Vin´ıcius M. de Sousa K
A figura 13 mostra essa comportamento.
−0.20.20.40.60.8
Lag
FAC
ARMA(1,1) com phi=theta=0.9
5 10 15 20
−0.40.00.40.8
LagFACP
ARMA(1,1) com phi=theta=0.9
5 10 15 20
−1.0−0.50.00.5
Lag
FAC
ARMA(1,1) com phi=theta=−0.9
5 10 15 20
−1.0−0.6−0.20.2
Lag
FACP
ARMA(1,1) com phi=theta=−0.9
5 10 15 20
Figura 13: FAC e FACP de um ARMA(1,1)
8.3.6 ARMA(p, q)
As fun¸c˜oes de autocorrela¸c˜ao e autocorrela¸c˜ao parcial s˜ao in´uteis na determina¸c˜ao de qual
deve ser o modelo adotado quando se tratando de ARMA, de modo que vamos caracteriz´a-
las brevemente. A FAC de um ARMA come¸ca a decrescer em k = q e a FACP em k = p
(Enders, 2014).
8.4 ‘Regra’ para determinac¸ ˜ao dos filtros
A tabela 3 mostra um resumo para auxiliar na identifica¸c˜ao dos filtros averiguando o
comportamento da FAC e FACP.
P´agina 29 de 47
Vin´ıcius M. de Sousa K
Tabela 3: Regra auxiliar
FAC FACP
AR(p) Declinante Significante at´e a defasagem p
MA(q) Significante at´e a defasagem p Declinante
ARMA(p,q) Declinante Declinante
8.5 Crtit´erios
As fun¸c˜oes FAC e FACP te´oricas s˜ao bem comportadas de modo que a indentifica¸c˜ao do
modelo correto ´e poss´ıvel analisando-as, por´em ao trabalharmos com as s´eries coletadas
estaremos lidando com FAC e FACP amostrais que apresentam um comportamento n˜ao t˜ao
bem definido. Essa ‘subjetividade’ na escolha do modelo incomodou muitos estat´ısticos. Por
sorte, foram desenvolvidas estat´ısticas para elimiar (pelo menos em parte) a subjetividade
dessa escolha e aqui apresentaremos `a vocˆe, leitor, duas importantes delas.
8.5.1 Crit´erio de Informac¸ ˜ao de Akaike(AIC)
Desenvolvido pelo estat´ıstico japonˆes Hirotugu Akaike e publicado em 197412, esta estat´ıstica
tem como intui¸c˜ao medir o trade-off entre acrescentar mais um parˆametro e a informa¸c˜ao
perdida devida ao acr´escimo, e ´e obtida atrav´es de
AIC = ln ˆσ2
+
2(p + q)
n
(69)
´E importante evidenciar que o AIC n˜ao mede, em nenhum senso, a qualidade do ajuste do
modelo tampouco ´e uma estat´ıstica que possui uma hip´otese nula a ser testada. O que a
estat´ıstica traz (e isso est´a claro em 69) ´e uma estimativa da quantidade de informa¸c˜ao
perdida no modelo. E, desta ´ultima frase, pode-se inferir corretamente, que deve-se escolher
o modelo que apresentar o menor valor da estat´ıstica.
8.5.2 Crit´erio de informac¸ ˜ao Bayesiana (BIC)
Desenvolvido por Gideon Schwarz e publicado em 197813, esta estat´ıstica tem a mesma
intui¸c˜ao da AIC, a principal diferˆen¸ca, que ficar´a clara em seguida, ´e que a BIC penaliza
mais o acr´escimo de parˆametros. ´E obtida por,
BIC = ln ˆσ2
+
(p + q) ln n
n
(70)
Asism como AIC, o BIC n˜ao mede grau de ajustamento do modelo, nem possui uma
hip´otese nula a ser testada e sim, uma estimativa da quantidade de informa¸c˜ao perdida, o
que implica que deve-se escolher o modelo que apresenta o menor valor de BIC. Destaca-se,
por fim que os crit´erios AIC e BIC andam juntos de modo que o modelo que apresentar o
menor AIC, tamb´em apresentar´a (em grande parte dos casos) o menor BIC.
12
(Akaike, 1974)
13
(Schwarz, 1978)
P´agina 30 de 47
Vin´ıcius M. de Sousa K
9 Estimac¸ ˜ao
Escolhidos os valores de p, i, q temos o modelo,
∆i
ytφ(L)p
= tθ(A)q
(71)
Podemos estimar 71 de duas maneiras.
9.1 M´ınimos Quadrados Ordin´arios
A cl´assica minimiza¸c˜ao do quadrado dos erros,
n
t=1
ˆ2
t =
n
t=1
[∆i
yt
ˆφ(L)p
ˆθ(A)q
]2
(72)
onde resolve-se o sistema gerado pelas p + q derivadas.
9.2 M´axima Verossimilhanc¸a
Maximizando a seguinte equa¸c˜ao,
f(ˆφ, ˆθ, ˆσ2
/W) = (2ˆφˆσ2
)−n/2
× |ˆΩ|−1/2
× exp[−
1
2
W ˆΩ−1 W
ˆσ2
] (73)
onde,
ˆ ˆt ∼ N(0, ˆσ2) (implica na pr´oxima)
ˆ ˆwt ∼ N(0, ˆσ2 ˆΩ)
ˆ W =



∆iy1
...
∆iyn



ˆ Ω = E[WW ]: a matrix de covariˆancia
Claramente os c´alculos s˜ao complexos e, na pr´atica utiliza-se, o software de sua escolha
para a estima¸c˜ao do modelo.
Exemplo
Antes de continuarmos, que tal um exemplo para melhor compreens˜ao de como ocorreria o
processo de identifica¸c˜ao na pr´atica, leitor?
Vamos analisar a d´ıvida l´ıquida do governo federal e banco central como percentagrem do
PIB entre janeiro de 2002 e julho de 201614.
A figura 14 mostra a s´erie em n´ıvel.
14
S´erie nº 4503 do sistema gerenciador de s´eries temporais do banco central do Brasil.
P´agina 31 de 47
Vin´ıcius M. de Sousa K
20
25
30
35
40
2005 2010 2015
DívidaPública(%)
Figura 14: D´ıvida do governo federal e banco central (% do PIB)
Utilizaremos, uma vez mais, o teste Dickey-Fuller aumentado para verificar a estacionaridade
da s´erie. O valor p do teste ´e 0.69, que ´e maior do que 5% (nosso cl´asico n´ıvel de significˆancia),
ent˜ao a hip´oetese nula, de n˜ao estacionaridade, n˜ao ´e rejeitada. J´a para a primeira diferen¸ca
da s´erie, o valor p do teste ´e 0.01, o que torna a estat´ıstica significativa a um n´ıvel de 5% e,
portanto, rejeitamos a hip´otese de n˜ao estacionaridade. Podemos observar isso na figura 15.
P´agina 32 de 47
Vin´ıcius M. de Sousa K
−4
−2
0
2
4
2005 2010 2015
1ªDiferençadadívidapública
Figura 15: 1ª Diferen¸ca da d´ıvida p´ublica
At´e aqui nenhuma novidade, por´em vamos agora identificar os poss´ıveis filtros.Vamos
analisar as fun¸c˜oes FAC e FACP.
−0.2−0.10.00.10.2
Defasagem
Autocorrelação
6 12 18 24
Figura 16: Autocorrela¸c˜ao da 1ª diferen¸ca
P´agina 33 de 47
Vin´ıcius M. de Sousa K
−0.2−0.10.00.10.2
Defasagem
AutocorrelaçãoParcial
6 12 18 24
Figura 17: Autocorrela¸c˜ao Parcial da 1ª diferen¸ca
As faixas azuis nos correlogramas representando o intervalo de confian¸ca das autocorrela¸c˜oes.
Analisando as figuras 16 e 17 vemos que o comportamento das fun¸c˜ao assemelha-se aos
modelos AR(1) e MA(1), qual devemos escolher? Vamos estimar os modelos 74a, 74b e
74c.
wt = ˆφ1wt−1 + ˆt (74a)
wt = ˆt − ˆθ1ˆt−1 (74b)
wt = ˆφ1wt−1 + ˆt − ˆθ1ˆt−1 (74c)
onde wt = ∆yt ´e a primeira diferen¸ca da d´ıvida do governo federal e do banco central do
Brasil como % do PIB.
Tabela 4: Resultados da Estima¸c˜ao
Phi Theta AIC BIC
Ar(1) -0.026 - 450.5715 456.8896
MA(1) - -0.0182 451 456.9249
ARMA(1,1) -0.9833 0.9377 447.5191 456.9962
A tabela 4 traz os coeficientes e valores dos crit´erios de informa¸c˜ao para os trˆes modelos.
Aqui utilizamos os crit´erios de informa¸c˜ao para auxiliar na decis˜ao, percebe-se que os
crit´etios BIC sofrem pequenas mudan¸cas de pensendo de cada modelo, j´a o AIC apresenta
uma diferen¸ca de 3.0524 entre os modelos que apresentam os menores AIC. Portanto, o
modelo identificado para representar a 1ª diferen¸ca da d´ıvida p´ublica ´e o que segue,
wt = −0.98wt−1 + ˆt − 0.94ˆt−1 (75)
P´agina 34 de 47
Vin´ıcius M. de Sousa K
10 Verificac¸ ˜ao
Estimados os coeficientes e a variˆancia do erro, passamos agora `a etapa de verifica¸c˜ao,
i.e., verificar se o modelo estimado representa o processo gerador da s´erie de uma maneira
satisfat´oria. Essa etapa ´e feita atrav´es de (i) an´alise dos res´ıduos e (ii) avalia¸c˜ao da ordem
do modelo.
10.1 An´alise dos Res´ıduos
10.1.1 Individualmente
Os res´ıduos (ˆt) do modelo estimado s˜ao estimativas do ru´ıdo branco ( t) e, portanto, os
coeficientes de autocorrela¸c˜ao residual devem ser estatisticamentes iguais a zero. Isso pode
ser testado de acordo com testes tradicionais de significˆancia, visto que a distribui¸c˜ao ´e de
nosso conhecimento:
rk(ˆt) =
n
t=k+1
ˆtˆt−k
n
t=1
ˆ2
t
, onde rk(ˆt) ∼ N(0, 1/n) (76)
10.1.2 Conjuntamente
H´a tamb´em como testar se os k primeiros coeficientes s˜ao conjuntamente iguais `a zero.
Para tal utiliza-se uma varia¸c˜ao de 53 que segue,
Q∗
(K) = n(n + 2)
K
k=1
rk(ˆ)
n − K
(77)
que segue a distribui¸c˜ao χ2 com K − p − q graus de liberdade. Com a nulidade sendo a
hip´otese nula.
10.2 Avaliac¸ ˜ao da ordem do modelo
Voltemos nossa aten¸c˜ao agora para os valores de p e q. Queremos garantir que o modelo
n˜ao est´a nem superestimado nem subestimado. O crit´erio da parcimˆonia afirma que n˜ao
deve-se ter parˆametros em excesso no modelo e por isso fazemos essa avalia¸c˜ao, a fim de
garantir que tenhamos um modelo com ordem significativa.
a) Utiliza-se o erro padr˜ao referentes aos coeficientes para verificar se h´a parˆametros
redundantes. Um valor grande do erro padr˜ao de um parˆamtro em rela¸c˜ao ao valor do
mesmo ´e uma indica¸c˜ao de que o modelo est´a superestimado. Caso seja o coeficiente
de maior ordem (que indique poss´ıvel superestima¸c˜ao) ent˜ao, deve-se estimar um
modelo omitindo o parˆametro de maior ordem, j´a no caso de ser um dos parˆametros
de menor ordem ent˜ao, busca-se autocorrela¸c˜ao entre ele e os demais parˆametros.
b) A verifica¸c˜ao da subestima¸c˜ao ´e feita simplesmente adicionando parˆametros (um por
vez) e analisando a significˆancia estat´ıstica.
Sobre a medida da qualidade do ajustamento do modelo em regress˜ao, R2, vale destacar
que em s´eries temporais a mesma n˜ao exerce o mesmo papel. Isso ´e mostrado por Nelson
(1976) apud Vasconcellos and Alves (2000). Destacamos ainda que, quando houver d´uvida
P´agina 35 de 47
Vin´ıcius M. de Sousa K
entre qual modelo utilizar recorrer-se-´a `a variˆancia do res´ıduo e aos crit´erios de informa¸c˜ao
(procurando sempre os menores valores). Um ´ultimo coment´ario sobre as etapas de escolha
e verifica¸c˜ao do modelo ´e que em certa medida esta escolha tem um toque do ‘arte’, pois o
componente subjetivo, mesmo que auxiliado por essa metodologia e testes objetivos, n˜ao ´e
exclu´ıdo 100% da escolha, nada lhe impede de modelar a s´erie com um modelo que n˜ao
apresente os menores valores crit´erios de informa¸c˜ao.
11 Previs˜ao
O ´ultimo passo da metodologia consiste em seu objetivo principal: a previs˜ao do compor-
tamento da vari´avel. Vasconcellos and Alves (2000) traz uma introdu¸c˜ao te´orica sobre o
assunto para aqueles que tiverem interesse, pois aqui nos restringiremos a dar a intui¸c˜ao do
funcionamento da previs˜ao.
Intuic¸ ˜ao
A previs˜ao do comportamento de yt pode ser feita de duas maneiras: (i) pontual e (ii) por
intervalo. Na primeira, ´e necess´ario definir o melhor estimador da s´erie, i.e., aquele que
miniza os erros (a distˆancia entre os pontos observados da linha projetada pelo modelo),
de modo a ter-se uma proposi¸c˜ao do tipo: Daqui a l per´ıodos ter-se-´a yt+l = κ, com
probabilidade de 1 − α.
J´a a t´ecnica de previs˜ao por intervalo, consiste em estimar-se valores m´aximos e m´ınimos
que yt ir´a assumir. Isso resulta em uma proposi¸c˜ao do tipo: Daqui a l per´ıodos o valor
assumido por yt+l estar´a entre κMin e κMax com probabilidade de 1 − α.
12 Coment´ario Final
O objetivo da metodologia aqui apresentada ´e a previs˜ao do comportamento de determinada
vari´avel. Al´em de ser efeciente para as previs˜oes o aprendizado da metodologia ajuda a
desenvolver o racioc´ınio anal´ıtco de s´eries temporais. Entretando, a populariza¸c˜ao dos
computadores possibilitou o desenvolvimento de algor´ıtmos capazes de ajustar modelos
a partir dos dados de maneira muito mais eficiente em rela¸c˜ao `a capacidade anal´ıtica,
escpecialmente em casos cujo n´umero de s´eries temporais a serem analisadas ´e muito grande.
Como afirma o estat´ıstico Robin J Hyndman em uma aula para o clube do R de Melbourne
‘os algor´ıtmos muito provavelmente ir˜ao fazer um trabalho muito melhor que o de vocˆes’15.
15
Tradu¸c˜ao livre a partir da aula dispon´ıvel em https://www.youtube.com/watch?v=1Lh1HlBUf8k
P´agina 36 de 47
Vin´ıcius M. de Sousa K
Parte III
T´opicos
13 Equac¸ ˜oes de Yule-Walker
As publica¸c˜oes de George Udny Yule (1927) e Sir Gilber Thomas Walker (1931) resultaram
no que,criativamente, chamamos de equa¸c˜oes de Yule-Walker. Tais equa¸c˜oes s˜ao utilizadas
para a estima¸c˜ao dos valores dos coeficientes autoregressivos de um modelo AR. Aqui
por´em, tamb´em mostraremos como calcular os valores da fun¸c˜ao de autocorrela¸c˜ao parcial,
entretanto, para isso ´e necess´ario assumir que os coeficientes φi sejam de nosso conhecimento.
13.1 Derivac¸ ˜ao das equac¸ ˜oes
Suponhemos o modelo AR(p),
yt = φ1yt−1 + φ2yt−2 + · · · + φpyt−p + t (78)
Multiplicando 78 por yt−k, com k = 1, . . . , p para ficarmos com,
ytyt−k = φ1yt−1yt−k + φ2yt−2yt−k + · · · + φpyt−pyt−k + tyt−k (79)
Utilizando o operador de expectˆancia em 79, de modo a ficarmos com,
E[ytyt−k] = E[φ1yt−1yt−k + φ2yt−2yt−k + · · · + φpyt−pyt−k + tyt−k] (80a)
ρk = φ1ρ(k − 1) + φ2ρ(k − 2) + · · · + φpρ(k − p) (80b)
80b ´e a primeira equa¸c˜ao das de Yule-Walker. Para chegarmos a segunda vamos colocar
k = 0 em 80a, o que resulta em,
E[ytyt] = E[φ1yt−1yt + φ2yt−2yt + · · · + φpyt−pyt + tyt] (81a)
ρ(0) = φ1ρ(1) + φ2ρ(2) + · · · + φpρ(p) + σ2
(81b)
As equa¸c˜oes 80b e 81b s˜ao as t˜ao esperadas equa¸c˜oes de Yule-Walker.
13.2 Montando o Sistema de Equac¸ ˜oes
De 80b podemos extrair p equa¸c˜oes,



ρ(1) = φ1ρ(0) + φ2ρ(1) + · · · + φpρ(p − 1)
ρ(2) = φ1ρ(1) + φ2ρ(0) + · · · + φpρ(p − 2)
...
ρ(p) = φ1ρ(p − 1) + φ2ρ(p − 2) + · · · + φpρ(0)
(82)
que s˜ao as equa¸c˜oes apresentadas na defini¸c˜ao 8.216. A partir delas mostraremos como
estimar os coeficientes autoregressivos, variˆancia do res´ıduo e os valores da fun¸c˜ao de
autocorrela¸c˜ao parcial.
16
A ‘troca feita na defini¸c˜ao e em 82 de ρ(h − p) por ρ(p − h) ´e poss´ıvel, pois a correla¸c˜ao entre δ1 e δ2 ´e a mesma
que a correla¸c˜ao entre δ2 e δ1.
P´agina 37 de 47
Vin´ıcius M. de Sousa K
13.3 Estimando os Coeficientes Autoregressivos e Variˆancia do Res´ıduo
13.3.1 Coeficientes
Podemos reescrever 82 como,





ρ(1)
ρ(2)
...
ρ(p)





=





ρ(0) ρ(1) . . . ρ(p − 1)
ρ(1) ρ(0) . . . ρ(p − 2)
...
...
...
...
ρ(p − 1) ρ(p − 2) . . . ρ(0)





×





φ1
φ2
...
φp





(83)
ou ainda em nota¸c˜ao matricial abreviada,
γp = Γ × Φ (84)
onde,
γp =





ρ(1)
ρ(2)
...
ρ(p)





(85)
e
Γ =





ρ(0) ρ(1) . . . ρ(p − 1)
ρ(1) ρ(0) . . . ρ(p − 2)
...
...
...
...
ρ(p − 1) ρ(p − 2) . . . ρ(0)





(86)
e por fim
Φ =





φ1
φ2
...
φp





(87)
Resolvendo para Φ, teremos as estimativas dos coeficientes autoregressivos do modelo,
Φ = Γ−1
× γp (88)
13.3.2 Variˆancia do Res´ıduo
Observa¸c˜ao: O sobrescrito ‘ ’ denota, como de costume na literatura, a transposta da
matriz na qual ele encontra-se.
De 81b temos que,
σ2
= ρ(0) − φ1ρ(1) − φ2ρ(2) − · · · − φpρ(p)
= ρ(0) − Φ γρ
(89)
utilizando 88,
σ2
= ρ(0) − (Γ−1
× γp) γρ (90a)
σ2
= γρ(Γ−1
) γρ (90b)
onde 90b ´e a variˆancia dos res´ıduos.
P´agina 38 de 47
Vin´ıcius M. de Sousa K
13.3.3 Valores da FACP
Como, j´a mostrado na defini¸c˜ao 8.2, os valores da FACP s˜ao os valores dos coeficientes φ,
i.e., ρj = φj, j = 1, . . . , p.
13.4 Exemplo
Vamos atrav´es de - um tipo de - simula¸c˜ao de Monte Carlo trazer um exemplo da utiliza¸c˜ao
das equa¸c˜oes de Yule-Walker. Isto consiste em escolher os valores dos coeficientes, gerar
n´umeros aleat´orios e, a partir desses, calcularmos os valores de zt. Feito isso, temos uma
s´erie gerada a partir dos coeficentes por n´os escolhidos e podemos ent˜ao, utilizar m´etodos
para estimar os coeficientes de modo a compararmos com os coeficientes verdadeiros.
Suponha o modelo que segue,
zt = 0.5zt−1 − 0.5zt−2 + t (91)
#gerando a s´erie
phi1<- 0.5
phi2<- -0.5
n<- 1000
set.seed(1)
z<- rep(0,n)
e<- rnorm(n)
for(t in 3:n) z[t]=phi1*z[t-1]+phi2*z[t-2]+e[t]
z<- z[801:1000]
z <- ts(z)
Figura 18: C´odigo gerador da s´erie zt
Onde zt ´e a s´erie gerada computacionalmente pelo c´odigo mostrado na figura 18. A tabela 5
tr´as os 10 primeiros valores da s´eries e suas defasagens e a figura 19 mostra o comportamento
da s´erie ao longo do tempo.
P´agina 39 de 47
Vin´ıcius M. de Sousa K
−4
−2
0
2
0 50 100 150 200
z
Figura 19: S´erie zt ao longo do tempo
Tabela 5: S´erie Gerada
z t z (t-1) z (t-2)
1 0.342 -1.760 -0.056
2 -1.760 -0.056 0.840
3 -0.056 0.840 -0.152
4 0.840 -0.152 -0.674
5 -0.152 -0.674 -0.687
6 -0.674 -0.687 0.990
7 -0.687 0.990 1.566
8 0.990 1.566 -1.439
9 1.566 -1.439 -1.149
10 -1.439 -1.149 0.872
13.4.1 Coeficientes AR
O pr´oximo passo agora ´e estimar ρ(0) = E[ztzt], ρ(1) = E[ztzt−1] e ρ(2) = E[ztzt−2] para
resolver o sistema linear derivado de 13.3.1,
ˆρ(1)
ˆρ(2)
=
ˆρ(0) ˆρ(1)
ˆρ(1) ˆρ(0)
×
ˆφ1
ˆφ2
P´agina 40 de 47
Vin´ıcius M. de Sousa K
A tabela 6 mostra o resultado das autocorrela¸c˜oes estimadas.
Tabela 6: Rho’s estimados
Estimados
rho(0) 1
rho(1) 0.297
rho(2) -0.431
Resolvendo o sistema,
0.297
−0.431
=
1 0.297
0.297 1
×
ˆφ1
ˆφ2
(92)
temos os coeficientes autoregressvivos estimados
ˆφ1 = 0.466 (93a)
ˆφ2 = −0.569 (93b)
13.4.2 Variˆancia do Res´ıduo
Estimados os coeficientes autoregressivos vamos agora estimar a variˆancia do res´ıduo.
De 90b temos que,
ˆσ2
=
ˆρ(1)
ˆρ(2)
(
1 0.297
0.297 1
−1
)
ˆρ(1)
ˆρ(2)
(94)
Efetuando os c´alculos chegamos ao resultado
ˆσ2
= 0.234 (95)
14 Exemplo: Eficiˆencia dos algor´ıtmos
Contextualizac¸ ˜ao
A ideia desta se¸c˜ao ´e mostrar ao leitor como os algoritmos s˜ao mais eficientes do que a
an´alise por n´os feita de s´eries temporais. Vamos analisar a rentabilidade acumulada mensal
P´agina 41 de 47
Vin´ıcius M. de Sousa K
do fundo de a¸c˜oes do Banco Central do Brasil17, entre Jan/1992 e Jul/2016. O exerc´ıcio ser´a
realizado da seguinte maneira; (i) cortaremos um peda¸co da s´erie temporal: (ii) estimaremos
os modelos em cima do corte, i.e., usando apenas um peda¸co das observa¸c˜oes a nossa
disposi¸c˜ao: (iii) faremos a previs˜ao do rendimento com base nos modelos estimados: (iii)
visualizaremos os resultados.
Exemplo
Come¸camos analisando o gr´afico dos rendimendos. A figura 20 nos mostra isso.
Percebe-se claramento que a s´erie n˜ao ´e estacion´aria18, por´em ao inv´es de tirarmos a
primeira diferen¸ca, desta vez vamos diminuir a s´erie para o per´ıodo de 2002 `a 2016 e ent˜ao
testaremos a estacionaridade.
O teste de estacionaridade ´e novamente o Dickey-Fuller aumentado e seu valor p ´e 0.01,
que ´e menor do 0.05, ent˜ao rejeitamos a hip´otese nula de n˜ao estacionaridade.
−20
0
20
40
60
1995 2000 2005 2010 2015
Time
Rendimentoacumulado(%)
Figura 20: Rendimento acumulado do fundo de a¸c˜oes do BCB
Podemos agora analisar as fun¸c˜oes de autocorrela¸c˜ao e autocorrela¸c˜ao parcial.
Analisando a figura 21 percebemos que:
a) A FAC ´e truncada na primeira defasagem.
b) A FACP ´e sazonal e pode-se considerar ela toda sendo insignificante.
Tendo como base a tabela 3 vamos estimar o modelo 1 como SARIMA(1, 0, 0)(2, 0, 0)s=12,
denominado de ‘mod1’, ser´a estimado tamb´em o modelo 2 SARIMA(1, 0, 1)(1, 0, 1)s=12,
17
S´erie nº 7834 do sistema gerenciador de s´eries temporais do Banco Central do Brasil.
18
Qual condi¸c˜ao vemos ‘de cara’ que ´e violada?
P´agina 42 de 47
Vin´ıcius M. de Sousa K
denominado de ‘mod2’ para compararmos os crit´erios de informa¸c˜ao19. A figura 22 estima
os modelos assim como traz os resultados obtidos.
−0.20.00.2
Lag
FAC
0 12 24 36
−0.20.00.2
Lag
FACP
12 24 36
Figura 21: FAC e FACP do rendimento do fundo de a¸c˜oes (40 defasagens)
Como observa-se, dois dos trˆes crit´erios de informa¸c˜ao s˜ao menores para o mod2 em rela¸c˜ao
ao mod1 e, portanto, o modelo SARIMA(1, 0, 1)(1, 0, 1)s=12 ´e o que melhor se ajusta aos
dados.
Vamos agora usar o algor´ıtmo de Hyndman and Khandakar (2008), denominaremos esse de
‘mod3’, e comparar os crit´eios de informa¸c˜ao. A figura 23 traz os resultados e o modelo
escolhido foi SARIMA(1, 0, 2)(1, 0, 0)s=12.
Todos os crit´erios de informa¸c˜ao apontam que o algor´ıtmo superou a capacidade de an´alise
do autor. Al´em disso, percebos que o segundo dos dois modelos propostos pelo autor,
SARIMA(1, 0, 1)(1, 0, 1)s=12, apresentou melhores crit´erios de informa¸c˜ao em compara¸c˜ao
com o primeiro modelo proposto.
19
Esses modelos foram escolhidos pelo autor, nada impedindo que outros fossem testados, aqui est´a aquele toque
de ‘arte’.
P´agina 43 de 47
Vin´ıcius M. de Sousa K
mod1 <- Arima(corte,order = c(1,0,0),seasonal = c(2,0,0))
mod1
## Series: corte
## ARIMA(1,0,0)(2,0,0)[12] with non-zero mean
##
## Coefficients:
## ar1 sar1 sar2 mean
## 0.0759 0.1172 -0.0485 1.0139
## s.e. 0.0810 0.0801 0.0860 0.3778
##
## sigma^2 estimated as 19: log likelihood=-504.05
## AIC=1018.1 AICc=1018.45 BIC=1033.92
mod2 <- Arima(corte,order = c(1,0,1),seasonal = c(1,0,1))
mod2
## Series: corte
## ARIMA(1,0,1)(1,0,1)[12] with non-zero mean
##
## Coefficients:
## ar1 ma1 sar1 sma1 mean
## 0.6711 -0.5439 -0.5770 0.7295 1.0281
## s.e. 0.1765 0.1937 0.3134 0.2757 0.4836
##
## sigma^2 estimated as 18.52: log likelihood=-501.62
## AIC=1015.25 AICc=1015.75 BIC=1034.24
Figura 22: SARIMAS’s escolhidos pelo autor
mod3 <- auto.arima(corte)
mod3
## Series: corte
## ARIMA(1,0,2)(1,0,0)[12] with non-zero mean
##
## Coefficients:
## ar1 ma1 ma2 sar1 mean
## 0.4233 -0.3829 0.1699 0.1409 1.0322
## s.e. 0.2481 0.2461 0.0834 0.0808 0.5017
##
## sigma^2 estimated as 18.5: log likelihood=-501.24
## AIC=1014.49 AICc=1014.99 BIC=1033.47
Figura 23: Modelo escolhido pelo algor´ıtmo
Por fim, terminamos mostrando como a previs˜ao de s´eries temporais n˜ao deve ser tratado
como algo determinpistico. A figura 24 traz o plot dos rendimentos observados, dos valores
ajustadados pelos modelos do autor e do algor´ıtmo para o corte e a previs˜ao que cada
modelo fez. Visualmente vemos que as m´edias dos intervalos de confian¸ca do modelo
estimado pelo autor s˜ao menores do que o estimado pelo algor´ıtmo, mesmo apresentando
P´agina 44 de 47
Vin´ıcius M. de Sousa K
crit´erios de informa¸c˜oes piores. Deve modo, podemos concluir que quando o n´umero de
s´eries que ser˜ao an´alisadas for pequeno, ´e razoav´el levar em conta a an´alise feita por vocˆe,
entretando quando n´umero de s´eries ´e grande a utiliza¸c˜ao dos algor´ıtmos supera a eficiˆencia
- pois lembre-se que eficiˆencia est´a relacionado ao tempo necess´ario para fazer algo, e
claramente ao analisar um n´umero de grande de s´eries os algor´ıtmos o fazem de maneira
mais r´apida - de nossa an´alise.
P´agina 45 de 47
Vin´ıcius M. de Sousa K
−20
0
20
40
60
2000 2010
Rendimentoacumulado(%)
level
80
95
series
Modelo
Observados
Modelo SARIMA(1,0,1)(1,0,1)_{s=12}
−20
0
20
40
60
2000 2010
Rendimentoacumulado(%)
level
80
95
series
Modelo
Observados
Modelo SARIMA(1,0,2)(1,0,0)_{s=12}
Figura 24: Gr´afico “Autor vs. Algor´ıtmo”(linha preta=previs˜ao)
P´agina 46 de 47
Vin´ıcius M. de Sousa K
Referˆencias
Akaike, H. (1974). A new look at the statistical model identification. IEEE transactions on
automatic control, 19(6):716–723.
Bartlett, M. S. (1946). On the theoretical specification and sampling properties of autocorrelated
time-series. Supplement to the Journal of the Royal Statistical Society, 8(1):27–41.
Brockwell, P. J. and Davis, R. A. (2002). Introduction to time series and forecasting. Springer, 2nd
edition.
Enders, W. (2014). Applied Econometric Time Series. Wiley Series in Probability and Statistics.
Wiley, 4 edition.
Hyndman, R. J. and Khandakar, Y. (2008). Automatic time series forecasting: the forecast package
for R. Journal of Statistical Software, 26(3):1–22.
Nelson, C. R. (1976). The interpretation of r 2 in autoregressive-moving average time series models.
The American Statistician, 30(4):175–180.
Schwarz, G. (1978). Estimating the dimension of a model. The annals of statistics, 6(2):461–464.
Vandaele, W. (1983). Applied time series and box-jenkins models. Technical report.
Vasconcellos, M. A. S. and Alves, D. (2000). Manual de econometria. S˜ao Paulo: Atlas.
Walker, G. (1931). On periodicity in series of related terms. Proceedings of the Royal Society of
London. Series A, Containing Papers of a Mathematical and Physical Character, 131(818):518–
532.
Yule, G. U. (1927). On a method of investigating periodicities in disturbed series, with special
reference to wolfer’s sunspot numbers. Philosophical Transactions of the Royal Society of London.
Series A, Containing Papers of a Mathematical or Physical Character, 226:267–298.
P´agina 47 de 47

Mais conteúdo relacionado

Mais procurados

Algoritmos e programação
Algoritmos e programaçãoAlgoritmos e programação
Algoritmos e programaçãoJucir
 
Tqs 01-epp-edificações de pequeno porte
Tqs 01-epp-edificações de pequeno porteTqs 01-epp-edificações de pequeno porte
Tqs 01-epp-edificações de pequeno porteAnderson Ricardo Cunha
 
Tqs epp-home-03-edificações de pequeno porte
Tqs epp-home-03-edificações de pequeno porteTqs epp-home-03-edificações de pequeno porte
Tqs epp-home-03-edificações de pequeno porteAnderson Ricardo Cunha
 
Manual ft 7800 r
Manual ft 7800 rManual ft 7800 r
Manual ft 7800 rruiv
 
Introducão equacões diferenciais ordinárias livro de reginaldo j. santos
Introducão equacões diferenciais ordinárias  livro de reginaldo j. santosIntroducão equacões diferenciais ordinárias  livro de reginaldo j. santos
Introducão equacões diferenciais ordinárias livro de reginaldo j. santosAndres Maison
 
Robotica industrial sebenta2003-2004-v2a
Robotica industrial sebenta2003-2004-v2aRobotica industrial sebenta2003-2004-v2a
Robotica industrial sebenta2003-2004-v2aEliesio Batista
 

Mais procurados (20)

Vigas 05-teórico
Vigas 05-teóricoVigas 05-teórico
Vigas 05-teórico
 
Tqs 01-comandos e funções gerais
Tqs 01-comandos e funções geraisTqs 01-comandos e funções gerais
Tqs 01-comandos e funções gerais
 
Algoritmos e programação
Algoritmos e programaçãoAlgoritmos e programação
Algoritmos e programação
 
Pilar 04-editor de geometria
Pilar 04-editor de geometriaPilar 04-editor de geometria
Pilar 04-editor de geometria
 
Tqs 01-epp-edificações de pequeno porte
Tqs 01-epp-edificações de pequeno porteTqs 01-epp-edificações de pequeno porte
Tqs 01-epp-edificações de pequeno porte
 
Tqs epp-home-03-edificações de pequeno porte
Tqs epp-home-03-edificações de pequeno porteTqs epp-home-03-edificações de pequeno porte
Tqs epp-home-03-edificações de pequeno porte
 
Lajes 04-teórico
Lajes 04-teóricoLajes 04-teórico
Lajes 04-teórico
 
Tqs 03-edição de plantas e plotagem
Tqs 03-edição de plantas e plotagemTqs 03-edição de plantas e plotagem
Tqs 03-edição de plantas e plotagem
 
Manual ft 7800 r
Manual ft 7800 rManual ft 7800 r
Manual ft 7800 r
 
Econofísica
EconofísicaEconofísica
Econofísica
 
Apostila de Robótica Industrial
Apostila de Robótica IndustrialApostila de Robótica Industrial
Apostila de Robótica Industrial
 
Exemplos 01-manual do usuário
Exemplos 01-manual do usuárioExemplos 01-manual do usuário
Exemplos 01-manual do usuário
 
Introducão equacões diferenciais ordinárias livro de reginaldo j. santos
Introducão equacões diferenciais ordinárias  livro de reginaldo j. santosIntroducão equacões diferenciais ordinárias  livro de reginaldo j. santos
Introducão equacões diferenciais ordinárias livro de reginaldo j. santos
 
Vigas 03-critérios de projeto
Vigas 03-critérios de projetoVigas 03-critérios de projeto
Vigas 03-critérios de projeto
 
Apostila instrumentação industrial
Apostila   instrumentação industrialApostila   instrumentação industrial
Apostila instrumentação industrial
 
Quantica aplicadascript
Quantica aplicadascriptQuantica aplicadascript
Quantica aplicadascript
 
Pilar 03-critérios de projeto
Pilar 03-critérios de projetoPilar 03-critérios de projeto
Pilar 03-critérios de projeto
 
Fundações 02-edição de dados
Fundações 02-edição de dadosFundações 02-edição de dados
Fundações 02-edição de dados
 
Robotica industrial sebenta2003-2004-v2a
Robotica industrial sebenta2003-2004-v2aRobotica industrial sebenta2003-2004-v2a
Robotica industrial sebenta2003-2004-v2a
 
Mecanica aplicada-apostila 2
Mecanica aplicada-apostila 2Mecanica aplicada-apostila 2
Mecanica aplicada-apostila 2
 

Semelhante a Modelagem Séries Temporais

Apostila sobre Controle Digital
Apostila sobre Controle DigitalApostila sobre Controle Digital
Apostila sobre Controle DigitalFernando Passold
 
F ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosF ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmospaula maria
 
F ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosF ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmososmarpx
 
F ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosF ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosRicardo Borges
 
Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)
Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)
Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)Agassis Rodrigues
 
Calculo numerico do professor eduardo colli.
Calculo numerico do professor  eduardo colli.Calculo numerico do professor  eduardo colli.
Calculo numerico do professor eduardo colli.Anderson Araujo
 
Livro numerico
Livro numericoLivro numerico
Livro numericomuraguiar
 
Guia Rápido Da Linguagem Pascal
Guia Rápido Da Linguagem PascalGuia Rápido Da Linguagem Pascal
Guia Rápido Da Linguagem PascalMikeNandes
 
Apostila de eletricidade industrial
Apostila de eletricidade industrialApostila de eletricidade industrial
Apostila de eletricidade industrialRoberto Sousa
 
Apostila de eletricidade industrial
Apostila de eletricidade industrialApostila de eletricidade industrial
Apostila de eletricidade industrialPontes Eletrico
 
Estudo de Séries Temporais do Mercado Financeiro - Murilo Antunes Braga
Estudo de Séries Temporais do Mercado Financeiro - Murilo Antunes BragaEstudo de Séries Temporais do Mercado Financeiro - Murilo Antunes Braga
Estudo de Séries Temporais do Mercado Financeiro - Murilo Antunes Bragamurilobraga
 
Apostila c# iniciantes
Apostila c# iniciantesApostila c# iniciantes
Apostila c# iniciantesCaique Moretto
 
LIVRO_INTRODUÇÃO AO R.pdf
LIVRO_INTRODUÇÃO AO R.pdfLIVRO_INTRODUÇÃO AO R.pdf
LIVRO_INTRODUÇÃO AO R.pdfTAYANEMOURA4
 

Semelhante a Modelagem Séries Temporais (20)

Apostila sobre Controle Digital
Apostila sobre Controle DigitalApostila sobre Controle Digital
Apostila sobre Controle Digital
 
F ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosF ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmos
 
F ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosF ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmos
 
F ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosF ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmos
 
F ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmosF ferrari ccechinel-introducao-a-algoritmos
F ferrari ccechinel-introducao-a-algoritmos
 
Joaopaulofguimaraes
JoaopaulofguimaraesJoaopaulofguimaraes
Joaopaulofguimaraes
 
Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)
Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)
Ihcat rvtar004 rev04-out2010_splitão_splitop_(fixo_inverter)
 
Calculo numerico do professor eduardo colli.
Calculo numerico do professor  eduardo colli.Calculo numerico do professor  eduardo colli.
Calculo numerico do professor eduardo colli.
 
Livro numerico
Livro numericoLivro numerico
Livro numerico
 
Pascal
PascalPascal
Pascal
 
Guia Rápido Da Linguagem Pascal
Guia Rápido Da Linguagem PascalGuia Rápido Da Linguagem Pascal
Guia Rápido Da Linguagem Pascal
 
Apostila de eletricidade industrial
Apostila de eletricidade industrialApostila de eletricidade industrial
Apostila de eletricidade industrial
 
Apostila de eletricidade industrial
Apostila de eletricidade industrialApostila de eletricidade industrial
Apostila de eletricidade industrial
 
Apostila Guindaste Portuário Móvel.
Apostila Guindaste Portuário Móvel.Apostila Guindaste Portuário Móvel.
Apostila Guindaste Portuário Móvel.
 
Fiat doblo
Fiat dobloFiat doblo
Fiat doblo
 
Estudo de Séries Temporais do Mercado Financeiro - Murilo Antunes Braga
Estudo de Séries Temporais do Mercado Financeiro - Murilo Antunes BragaEstudo de Séries Temporais do Mercado Financeiro - Murilo Antunes Braga
Estudo de Séries Temporais do Mercado Financeiro - Murilo Antunes Braga
 
Apostila3
Apostila3Apostila3
Apostila3
 
Apostila c# iniciantes
Apostila c# iniciantesApostila c# iniciantes
Apostila c# iniciantes
 
BMD-BR000002CE1.pdf
BMD-BR000002CE1.pdfBMD-BR000002CE1.pdf
BMD-BR000002CE1.pdf
 
LIVRO_INTRODUÇÃO AO R.pdf
LIVRO_INTRODUÇÃO AO R.pdfLIVRO_INTRODUÇÃO AO R.pdf
LIVRO_INTRODUÇÃO AO R.pdf
 

Modelagem Séries Temporais

  • 1. Modelagem de S´eries Temporais Apostila introdut´oria Vin´ıcius Melqu´ıades de Sousa
  • 2.
  • 3. Vin´ıcius M. de Sousa K Sum´ario I S´eries Temporais 6 1 Introdu¸c˜ao 6 1.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2 Hip´oteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2 Processos Estoc´asticos 7 2.1 Caracter´ısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3 Estacionaridade 8 4 Modelos ARMA(p, q) 9 4.1 Modelos Auto-Regressivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 4.1.1 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 4.1.2 Variˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 4.1.3 Autocovariˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 4.2 Modelos de M´edia M´ovel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4.2.1 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4.2.2 Variˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4.2.3 Autocovariˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4.2.4 Transforma¸c˜ao de um MA(1) em AR(∞) . . . . . . . . . . . . . . . . . . 14 4.3 Modelos ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 4.3.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 5 Operadores de defasagem 15 5.1 Operador de defasagem de um AR(p) . . . . . . . . . . . . . . . . . . . . . . . . 15 5.1.1 Polinˆomio Caracter´ıstico do AR(1) . . . . . . . . . . . . . . . . . . . . . . 15 5.2 Operador de defasagem de um MA(q) . . . . . . . . . . . . . . . . . . . . . . . . 15 5.3 Representa¸c˜ao ARMA(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 6 Modelos ARIMA 16 6.1 ARIMA(p, i, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 6.2 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 7 Modelos Sazonais 19 7.1 SAR(P) ou AR(P)s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 7.2 SMA(Q) ou MA(Q)s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 7.3 SARIMA(P, I, Q) ou ARIMA(P, I, Q)s . . . . . . . . . . . . . . . . . . . . . . . . 20 7.4 ARIMA(p, i, q)(P, I, Q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 II Metodologia Box & Jenkins 21 8 Identifica¸c˜ao 21 8.1 Fun¸c˜oes FAC e FACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 8.1.1 Fun¸c˜ao de autocorrela¸c˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 8.1.2 Fun¸c˜ao de autocorrela¸c˜ao parcial . . . . . . . . . . . . . . . . . . . . . . . 23 8.2 Determina¸c˜ao dos filtros de integra¸c˜ao . . . . . . . . . . . . . . . . . . . . . . . . 23 8.3 Filtros auto-regressivos e de m´edia m´ovel . . . . . . . . . . . . . . . . . . . . . . 23 8.3.1 AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 P´agina 3 de 47
  • 4. Vin´ıcius M. de Sousa K 8.3.2 AR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 8.3.3 MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 8.3.4 MA(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 8.3.5 ARMA(1,1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 8.3.6 ARMA(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 8.4 ‘Regra’ para determina¸c˜ao dos filtros . . . . . . . . . . . . . . . . . . . . . . . . . 29 8.5 Crtit´erios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 8.5.1 Crit´erio de Informa¸c˜ao de Akaike(AIC) . . . . . . . . . . . . . . . . . . . 30 8.5.2 Crit´erio de informa¸c˜ao Bayesiana (BIC) . . . . . . . . . . . . . . . . . . . 30 9 Estima¸c˜ao 31 9.1 M´ınimos Quadrados Ordin´arios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 9.2 M´axima Verossimilhan¸ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 10 Verifica¸c˜ao 35 10.1 An´alise dos Res´ıduos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 10.1.1 Individualmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 10.1.2 Conjuntamente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 10.2 Avalia¸c˜ao da ordem do modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 11 Previs˜ao 36 12 Coment´ario Final 36 III T´opicos 37 13 Equa¸c˜oes de Yule-Walker 37 13.1 Deriva¸c˜ao das equa¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 13.2 Montando o Sistema de Equa¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 13.3 Estimando os Coeficientes Autoregressivos e Variˆancia do Res´ıduo . . . . . . . . 38 13.3.1 Coeficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 13.3.2 Variˆancia do Res´ıduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 13.3.3 Valores da FACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 13.4 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 13.4.1 Coeficientes AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 13.4.2 Variˆancia do Res´ıduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 14 Exemplo: Eficiˆencia dos algor´ıtmos 41 P´agina 4 de 47
  • 5. Vin´ıcius M. de Sousa K Lista de Figuras 1 Passageiros internacionais ao longo dos anos . . . . . . . . . . . . . . . . . . . . . 7 2 Componentes do conjunto de dados sobre passageiros internacionais . . . . . . . 8 4 Diagrama de Venn dos modelos ARIMA . . . . . . . . . . . . . . . . . . . . . . . 9 3 Exemplo de s´erie estacion´aria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 5 Cˆambio R$/U$ entre Jan/95 e Ago/16 . . . . . . . . . . . . . . . . . . . . . . . . 17 6 1ª Diferen¸ca da taxa de cˆambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 7 Vari´avel 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 8 Vari´avel 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 9 FAC e FACP de um AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 10 FAC e FACP de um AR(20) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 11 FAC e FACP de um MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 12 FAC e FACP de um MA(20) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 13 FAC e FACP de um ARMA(1,1) . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 14 D´ıvida do governo federal e banco central (% do PIB) . . . . . . . . . . . . . . . 32 15 1ª Diferen¸ca da d´ıvida p´ublica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 16 Autocorrela¸c˜ao da 1ª diferen¸ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 17 Autocorrela¸c˜ao Parcial da 1ª diferen¸ca . . . . . . . . . . . . . . . . . . . . . . . . 34 18 C´odigo gerador da s´erie zt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 19 S´erie zt ao longo do tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 20 Rendimento acumulado do fundo de a¸c˜oes do BCB . . . . . . . . . . . . . . . . . 42 21 FAC e FACP do rendimento do fundo de a¸c˜oes (40 defasagens) . . . . . . . . . . 43 22 SARIMAS’s escolhidos pelo autor . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 23 Modelo escolhido pelo algor´ıtmo . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 24 Gr´afico “Autor vs. Algor´ıtmo”(linha preta=previs˜ao) . . . . . . . . . . . . . . . . 46 P´agina 5 de 47
  • 6. Vin´ıcius M. de Sousa K Parte I S´eries Temporais 1 Introduc¸ ˜ao Uma s´erie temporal deriva de um conjunto de dados observados na natureza, e.g., o PIB de um pa´ıs ao longo dos anos, quantidade de chuva numa cidade durante um ano, a emiss˜ao de poluentes de uma f´abrica ao logo do semestre etc. Esses dados normalmente possuem dois componentes: 1. Determin´ıstico: Tendˆencia e/ou Ciclo. Um exemplo de tendˆencia ´e o fato estilizado de que o PIB das economias tende a crescer ao longo dos anos, enquanto um de ciclo s˜ao as esta¸c˜oes do ano que influˆenciam a chuva na cidade em quest˜ao. 2. Estoc´astico: Aleat´orio. O PIB de um pa´ıs pode crescer num determinado ano 2.2% assim como 2.7%, mas acabou crescendo 1.9%, foi um ‘sorteio’. 1.1 Exemplo Vamos analisar o n´umero de passageiros internacionais entre os anos de 1949 e 1960, com dados mensais, como exemplo para que fique mais claro o que foi acima dito. A tabela 1 mostra o n´umero de passageiros internacionais para o per´ıodo em milhares. Tabela 1: Passageiros internacionais (milhares) Jan Fev Mar Abril Mai Jun Jul Agos Set Out Nov Dez 1949 112 118 132 129 121 135 148 148 136 119 104 118 1950 115 126 141 135 125 149 170 170 158 133 114 140 1951 145 150 178 163 172 178 199 199 184 162 146 166 1952 171 180 193 181 183 218 230 242 209 191 172 194 1953 196 196 236 235 229 243 264 272 237 211 180 201 1954 204 188 235 227 234 264 302 293 259 229 203 229 1955 242 233 267 269 270 315 364 347 312 274 237 278 1956 284 277 317 313 318 374 413 405 355 306 271 306 1957 315 301 356 348 355 422 465 467 404 347 305 336 1958 340 318 362 348 363 435 491 505 404 359 310 337 1959 360 342 406 396 420 472 548 559 463 407 362 405 1960 417 391 419 461 472 535 622 606 508 461 390 432 Qual o comportamento dessa s´erie? A figura 1 mostra esse comportamento. P´agina 6 de 47
  • 7. Vin´ıcius M. de Sousa K 200 400 600 1950 1952 1954 1956 1958 1960 Passageiros(milhares) Figura 1: Passageiros internacionais ao longo dos anos ´E claro a presen¸ca de uma tendˆencia e uma sazonalidade (ciclo). A ideia central ao analisar uma s´erie temporal ´e modelar seu componente aleat´orio, desse modo o interesse maior encontra-se na parte estoc´astica dos dados. Portanto, ´e interessante decompor a s´erie para a analisarmos. Isso ´e feito a seguir. Analisando a figura 2 percebemos na segunda linha que h´a uma tendˆencia crescente na s´erie, o que indica que o n´umero de passageiros internacionais tende a aumentar com passar do tempo. Al´em disso, percebe-se, claramente, na terceira linha, que nos meses de ver˜ao no hemisf´erio norte (julho, agosto) tem-se picos seguidos de quedas no n´umero de passageiros, indicando a presen¸ca de um ciclo. E por, fim a quarta linha ´e o componente aleat´orio. Para finalizar essa introdu¸c˜ao, destacamos que o componente pode ser representado como um conjunto de valores yt = {y1, y2, . . . , yn}, onde yi ´e o valor assumido pela vari´avel yt no per´ıodo t = i. Como o objetivo do estudo de s´eries temporais ´e entender a influˆencia do tempo sobre uma determinada vari´avel, o componente estoc´astico ´e o que nos interessa. Pois, o determin´ıstico ´e a influˆencia de vari´aveis que n˜ao s˜ao o tempo e, portanto, podem ser estudadas via regress˜ao. 1.2 Hip´oteses Salvo seja explicitado contr´ario s˜ao assumidas todas as hip´oteses do modelo cl´assico de regress˜ao. Damos ˆenfase a trˆes delas: 1. Valor esperado do erro: E[ t] = 0. 2. Heteroscedasticia: V ar( t) = σ2. 3. Ausˆencia de autocorrela¸c˜ao residual: E[ i j] = 0 ∀ i = j. Podemos agora formalizar os conceitos de processo estoc´astico e estacionaridade que s˜ao de fundamental importˆancia para nosso estudo. 2 Processos Estoc´asticos Podemos definir um processo estoc´astico como sendo um conjunto de observa¸c˜oes aleat´orias {Y (t), t ∈ T}, medidas de acordo com um parˆametro t que varia ao longo do tempo (T). Em outras palavras, um processo estoc´astico ´e uma fun¸c˜ao aleat´oria de t. A sequˆencia yt, t = 1, 2, 3 . . . P´agina 7 de 47
  • 8. Vin´ıcius M. de Sousa K 200 400 600 0.8 0.9 1.0 1.1 1.2 200 300 400 0.90 0.95 1.00 1.05 1.10 dataseasonaltrendremainder 1950 1952 1954 1956 1958 1960 Time Decomposition of multiplicative time series Figura 2: Componentes do conjunto de dados sobre passageiros internacionais ´e chamda de realiza¸c˜ao parcial do processo, pois o valor observado poderia ter sido outros infinitos valores, e.g., o n´umero de passageiros internacionais em janeiro de 1949 foi de 112 mil, mas poderia ter sido 120 mil. Portanto, uma s´erie temporal ´e caracterizada como sendo gerada por um processo estoc´astico. Para estudar os processos geradores de s´eries se faz necess´ario observar certas caracter´ısticas dos processos. 2.1 Caracter´ısticas Defini¸c˜ao 2.1. Seja {Yt, t ∈ T} um processo estoc´astico. Ent˜ao suas caracter´ısticas s˜ao, 1. Valor esperado: E[yt] = µ ∀ t ∈ T 2. Variˆancia: E[(yt − µ)2] = σ2 t ∀ t ∈ T 3. Covariˆancia: E[(yt − µ)(yk − µ)] = γt,k ∀ t, k ∈ T Passemos a outro conceito essencial para nosso estudo. 3 Estacionaridade Uma maneira intuitiva de se definir estacionaridade ´e, dizer que uma s´erie ´e estacion´aria quando, o processo estoc´astico que a gerou possui caracter´ısticas invariantes ao longo do tempo. Abaixo formalizamos o conceito. Defini¸c˜ao 3.1. Dizemos que {y1, y2, . . . , yn} ´e uma s´erie fracamente estacion´aria se, e somente se, P´agina 8 de 47
  • 9. Vin´ıcius M. de Sousa K ARMA AR MA ARIMA Figura 4: Diagrama de Venn dos modelos ARIMA 1. m´edia: E[yt] = µ ∀ t ∈ T 2. Variˆancia: var(yt) = γ0 ∀ t ∈ T 3. Autocovariˆancia: Cov(yt, yk) = γk ,i.e., depende s´o da distˆancia do instante t. A s´erie observada do n´umero de passageiros da se¸c˜ao 1.1 ´e um exemplo de s´erie n˜ao estacion´aria, ao passo que a figura 3 ´e um exemplo de uma s´erie estacion´aria. 5 10 15 20 0 10 20 30 40 50 Tempo Variável Figura 3: Exemplo de s´erie estacion´aria 4 Modelos ARMA(p, q) Um modelo ARMA(p,q) ´e um modelo que possui p filtros auto-regressivos (AR) e q componentes de m´edia m´ovel dos erros (MA). Podemos chamar um modelo ARMA(1,0) de AR(1), denominado por modelo auto-regressivo de ordem 1. Tamb´em podemos chamar um ARMA(0,q) de MA(q), denominado por modelo de m´edias m´oveis de ordem q. Portanto, os modelos ARMA s˜ao um conjunto de modelos AR e MA. A figura 4 mostra isso1. Vamos aos modelos em si? #boranegao 1 Os modelos arima ser˜ao mais tarde, pois ´e necess´ario o conceito de operadores de defasagens. P´agina 9 de 47
  • 10. Vin´ıcius M. de Sousa K 4.1 Modelos Auto-Regressivos Defini¸c˜ao 4.1. Dizemos que um modelo ´e auto-regressivo quando a vari´avel em quest˜ao ´e explicada por seus valores passados e o ru´ıdo branco. Equacionando temos o AR(p), yt = c + φ1yt−1 + ... + φqyt−p + t (1) A seguir vamos mostrar as caracter´ısticas do modelo descrito em 1. 4.1.1 Valor Esperado ´E um dado valor µ. µ = E[yt] = E[c + φ1yt−1 + ... + φqyt−p + t] = c + φ1E[yt−1] + ... + φqE[yt−p] = c + φ1µ + ... + φpµ µ(1 − φ1 − ... − φp) = c µ = c (1 − φ1 − ... − φp) µ = 0 (2) O ´ultimo passo deriva do fato de que, por simplicidade, assumiremos doravante a constante do modelo como sendo nula, i.e., c = 0. 4.1.2 Variˆancia ´E um dado valor γ0. γ0 = φ1γ1 + ... + φpγp + σ2 (3) Onde os γi s˜ao as autocovariˆancias de ordem i. 4.1.3 Autocovariˆancia A autocovariˆancia de ordem k ´e um dado valor γk. γk = E[ytyt−k] γk = φ1γk−1 + ... + φpγk−p (4) Aqui ´e importante notar que para um modelo AR(p) existir˜ao p autocovariˆancias diferentes de zero, portanto γk = 0 ∀ k > p. Exemplo 1: AR(1) O modelo AR(1) ´e o que segue, yt = φyt−1 + t (5) Vamos descrever as caracter´ısticas de 5. 1. Variˆancia: γ0 = E[y2 t ] = E[(φ1yt−1 + t)2 ] = E[φ2 1y2 t−1 + 2 t + 2φ1yt−1 t] = φ2 1γ0 + σ2 γ0 = σ2 1 − φ2 1 (6) P´agina 10 de 47
  • 11. Vin´ıcius M. de Sousa K 2. Autocovariˆancia de ordem 1: γ1 = E[ytyt−1] = E[(φ1yt−1 + t)yt−1] = E[φ1y2 t−1 + tyt−1] γ1 = φγ0 (7) 3. Autocovariˆancia de ordem 2: γ1 = E[ytyt−2] = E[(φ1yt−1 + t)yt−2] = E[(φ1(φ1yt−2 + t−1) + t)yt−2] = E[(φ2 1yt−2 + φ1 t−1)yt−2] = E[φ2 1y2 t−2 + φ1 t−1yt−2] γ1 = φ2 1γ0 (8) Perceba que a condi¸c˜ao de estacionaridade no caso do AR(1) ´e |φ| < 12. Exemplo 2: AR(2) O modelo AR(2) ´e o que segue, yt = φ1yt−1 + φ2yt−2 + t (9) Vamos descrever as caracter´ısticas de 9. 1. Variˆancia: γ0 = E[y2 t ] = E[(φ1yt−1 + φ2yt−2 + t)2 ] = E[φ2 1y2 t−1 + φ2 2y2 t−2 + 2 t + 2φ1φ2yt−1yt−2 + 2φ1yt−1 t + 2φ2 t] = φ2 1γ0 + φ2 2γ0 + σ2 + 2φ1φ2γ1 γ0(1 − φ2 1 − φ2 2) = 2φ1φ2γ1 + σ2 γ0 = 2φ1φ2γ1 + σ2 1 − φ2 1 − φ2 2 (10) 2. Autocovariˆancia de ordem 1: γ1 = E[ytyt−1] = E[(φ1yt−1 + φ2yt−2 + t)yt−1] = E[φ1y2 t−1 + φ2yt−2yt−1 + tyt−1] = φ1γ0 + φ2γ1 γ1(1 − φ2) = φ1γ0 γ1 = φ1γ0 1 − φ2 (11) 2 Nos modelos com um n´umero maior de filtros essa condi¸c˜ao tamb´em ser´a a de estacionaridade, pois caso ela n˜ao seja atendida os valores assumidos pela vari´avel ser˜ao explosivos, de modo que o primeiro item da defini¸c˜ao 3.1 ´e violado. P´agina 11 de 47
  • 12. Vin´ıcius M. de Sousa K 3. Autocovariˆancia de ordem 2: γ2 = E[ytyt−2] = E[(φ1yt−1 + φ2yt−2 + t)yt−2] = E[φ1yt−1yt−2 + φ2y2 t−2 + tyt−2] γ2 = φ1γ1 + φ2γ0 (12) 4.2 Modelos de M´edia M´ovel Defini¸c˜ao 4.2. Dizemos que um modelo ´e de m´edia m´ovel quando a vari´avel em quest˜ao ´e explicada pelos choques aleat´orios (ru´ıdo branco) presente e passados. Equacionando temos o MA(q), yt = t − θ1 t−1 − ... − θq t−q (13) Vamos mostrar agora as caracter´ısticas do modelo descrito em 13. 4.2.1 Valor Esperado ´E um dado valor µ. µ = E[yt] = E[ t − θ1 t−1 − ... − θq t−q] = E[ t] − θ1E[ t−1] − ... − θqE[ t−q] µ = 0 (14) 4.2.2 Variˆancia ´E um dado valor γ0. γ0 = E[(yt − E[yt])2 ] = E[y2 t ] = E[( t − θ1 t−1 − ... − θq t−q)2 ] = E[ 2 t + θ2 1 2 t−1 + ... + θ2 q 2 t−q + 2A = σ2 + θ2 1σ2 + ... + θ2 q σ2 γ0 = σ2 (1 + θ2 1 + ... + θ2 q ) (15) A ´e o produto cruzado dos termos. 4.2.3 Autocovariˆancia A autocovariˆancia de ordem k um dado valor γk. γk = E[ytyt−k] γk = σ2 (−θk + θ1θk+1 + θ2θk+2 + ... + θqθq−k) (16) Exemplo 1: MA(1) O modelo MA(1) ´e o que segue, yt = t − θ1 t−1 (17) Vamos descrever as caracter´ısticas de 17. P´agina 12 de 47
  • 13. Vin´ıcius M. de Sousa K 1. Variˆancia: γ0 = E[y2 t ] = E[( t − θ1 t−1)2 ] = E[ 2 t − θ2 1 2 t−1 − 2θ1 t t−1] = σ2 − θ2 1σ2 γ0 = σ2 (1 − θ1) (18) 2. Autococariˆancia de ordem 1: γ1 = E[ytyt−1] = E[( t − θ1 t−1)( t−1 − θ1 t−2)] = E[ t t−1 − θ1 t t−2 − θ1 2 t−1 + θ2 1 t−1 t−2] γ1 = −θ1σ2 (19) 3. Autocovariˆancia de ordem 2: γ2 = E[ytyt−2] = E[( t − θ1 t−1)( t−2 − θ1 t−3)] γ2 = 0 (20) Exemplo 2: MA(2) O modelo MA(2) ´e o que segue, yt = t − θ1 t−1 − θ2 t−2 (21) Vamos descrever as caracter´ısticas de 21. 1. Variˆancia: γ0 = E[y2 t ] = E[( t + θ1 t−1 + θ2 t−2)2 ] = E[ 2 t + θ2 1 2 t−1 + θ2 2 2 t−2 + 2Λ] = σ2 + θ2 1σ2 + θ2 2σ2 γ0 = σ2 (1 + θ2 1 + θ2 2) (22) Onde Λ ´e o produto cruzado de yt. 2. Autocovariˆancia de ordem 1: γ1 = E[ytyt−1] = E[( t − θ1 t−1 − θ2 t−2)( t−1 − θ1 t−2θ2 t−3)] = E[ tyt−1 − θ1 2 t−1 + θ1 t−1(θ1 t−2 + θ2 t−3) + θ2θ1 2 t−2 − θ1 t−2( t−1 − θ2 t−3)] = −θ1σ2 + θ2θ1σ2 γ1 = σ2 (−θ1 + θ2θ1) (23) 3. Autocovariˆancia de ordem 2: γ2 = E[ytyt−2] = E[( t − θ1 t−1 − θ2 t−2)( t−1 − θ1 t−3 − θ2 t−4)] = E[ tyt−2 − θ1 t−1yt−2 − θ2 2 t−2 + θ2 t−2(θ1 t−3 + θ2 t−4)] γ2 = −θ2σ2 (24) P´agina 13 de 47
  • 14. Vin´ıcius M. de Sousa K 4.2.4 Transformac¸ ˜ao de um MA(1) em AR(∞) Percebemos que n˜ao h´a nenhuma restri¸c˜ao sobre θi para que as caracter´ısticas do modelo existam. Entratanto, ´e poss´ıvel transformarmos um modelo MA(1) em um modelo do tipo AR(∞) e, para isso, ´e necess´aria a condi¸c˜ao |φ| < 1, aqui chamada de condi¸c˜ao de inversibilidade. Vamos agora mostrar ao leitor o processo de invers˜ao. Considere o modelo abaixo, yt = t − θ1 t−1 (25) Defasando 25 temos, yt−1 = t−1 − θ1 t−2 (26a) t−1 = yt−1 + θ1 t−2 (26b) Substituindo 26b em 25 obtemos yt = t − θ1(yt−1 + θ1 t−2) = t − θ1yt−1 + θ2 1 t−2 (27) Repetindo esse processo de maneira iterativa chegamos a um modelo AR(∞) yt = t − θ1yt−1 + θ2 1 t−2 + ... (28) 4.3 Modelos ARMA Defini¸c˜ao 4.3. Dizemos que um modelo ´e auto-regressivo de m´edias m´oveis quando a vari´avel em quest˜ao ´e explicada por seus valores passados assim como pelos choques aleat´orios pressente e passados. Equacionando temos o ARMA(p,q), yt = φ1yt−1 + · · · + φpyt−p + t − θ1 t−1 − · · · − θq t−q (29) A dedu¸c˜ao das caracter´ısticas para o modelo ARMA(p,q) ´e de natureza complexa e por se tratar de um texto introdut´orio a deixamos de lado. 4.3.1 Exemplo O modelo ARMA(1,1) ´e o que segue, yt = φyt−1 + t − θ t−1 (30) Vamos mostrar agora as caracter´ısticas do modelo descrito em 30. 1. Variˆancia: 2. Autocovariˆancia de ordem 1: γ1 = E[ytyt−1] = E[(φyt−1 + t − θ t−1)yt−1] = E[φy2 t−1 + yt−1 t − θyt−1 t] γ1 = φγ0 − θσ2 (32) 3. Autocovariˆancia de ordens `a ordem 2: γk = E[ytyt−k] = E[(φyt−1 + t − θ t−1)yt−k] = E[φyt−1yt−k + yt−k t − θyt−k t−1] γk = φγk−1 (33) P´agina 14 de 47
  • 15. Vin´ıcius M. de Sousa K 5 Operadores de defasagem Antes de apresentarmos ao leitor o modelo ARIMA ´e necess´ario que seja mostrada uma maneira alternativa de testar se o processo gerador da s´erie ´e estacion´ario ou n˜ao, at´e agora seria preciso observar se as condi¸c˜oes da defini¸c˜ao 3.1. Tal maneira ´e poss´ıvel pois a condi¸c˜ao de estacionaridade j´a ´e de nosso conhecimento. O operador ser´a mostrado para modelos AR(p) e MA(q) nesta se¸c˜ao e para o modelo ARIMA na se¸c˜ao 6.1. 5.1 Operador de defasagem de um AR(p) Dado um modelo yt = φ1yt−1 + · · · + φpyt−p + t (34) Definimos, Defini¸c˜ao 5.1. O operador de defasagem como sendo um Ln tal que Ln yt = yt−n (35) Aplicando 35 `a 34 temos, yt = φ1Lyt + · · · + φpLp yt yt(1 − φ1L + · · · + φqLp ) = t ytφi(L)P = t, com i = 1, 2, . . . , p (36) onde, φi(L)P = 1 − φ1L + · · · + φqLp (37) ´e chamado de polinˆomio caracter´ıstico. Para que o processo gerador da s´erie seja considerado estacion´ario ´e necess´ario que a rela¸c˜ao entre as p ra´ızes de 37 e os φ s garantam que |φi| < 1 ∀ i = 1, . . . , p. Mostraremos esse importante resultado para o AR(1). 5.1.1 Polinˆomio Caracter´ıstico do AR(1) De 37 temos o polinˆomio do AR(1), basta resolvermos para L, 0 = 1 − φ1L φ1L = 1 L = 1 φ1 (38) Vˆe se ent˜ao que a raiz de φ1(L) ´e o inverso de φ1. Como a condi¸c˜ao de estacionaridade ´e que os coeficientes sejam menores do que 1 em m´odulo, ent˜ao se |L| > 1 ⇒ o processo gerador da s´erie ´e estacion´ario. 5.2 Operador de defasagem de um MA(q) Dado um modelo, yt = t − θ1 t−1 − · · · − θq t−q (39) Definimos, P´agina 15 de 47
  • 16. Vin´ıcius M. de Sousa K Defini¸c˜ao 5.2. O operador de defasagem como sendo um Bn tal que Bn yt = t−n (40) Aplicando 40 `a 39 temos, yt = t − θ1A t − · · · − θqAq t = t(1 − θ1A − · · · − θq) yt = tθi(A)q , com i = 1, 2, . . . , q (41) onde, θi(A)q = 1 − θ1A − · · · − θqAq (42) ´e chamado de polinˆomio caracter´ıstico. Para que o processo gerador da s´erie seja considerado estacion´ario ´e necess´ario que a rela¸c˜ao entre as q ra´ızes de 42 e os θ s garantam que |θi| < 1 ∀ i = 1, . . . , q. A demonstra¸c˜ao dessa importante resultado para o modelo MA(1) ´e an´alogo ao da se¸c˜ao 5.1.1 e deixamos para o leitor resolver como exerc´ıcio te´orico. 5.3 Representac¸ ˜ao ARMA(p, q) Um modelo do tipo ARMA(p, q) pode ser representado utilizando-se os operadores de defasagem L e A apresentados nas se¸c˜oes anteriores. A seguir mostramos como: yt = φ1yt−1 + · · · + φpyt−p + t − θ1 t−1 − · · · − θq t − q = φ1Lyt + · · · + φpLp yt + t − θ1A t − · · · − θqAq t yt(1 − φ1L + · · · + φqLp ) = t(1 − θ1A − · · · − θq) ytφi(L)P = tθj(A)q , com i = 1, . . . , p e j = 1, . . . , q (43) 6 Modelos ARIMA J´a conhecendo os operadores de defasagem podemos, agora, terminar a discuss˜ao sobre os modelos de s´eries temporais apresentando ao leitor os modelos com operador de integra¸c˜ao, que s˜ao utilizados para tornar poss´ıvel a an´alise de s´eries temporais n˜ao estacion´arias. Isso ´e poss´ıvel pois muitas vari´aveis econˆomicas apresentam comportamento n˜ao estacion´ario se medidas em n´ıvel, por´em ao se utilizar o operador de integra¸c˜ao (de ordem i)3, a vari´avel passa a ter um comportamento estacion´ario. Defini¸c˜ao 6.1. O operador de diferen¸cas ´e um ∆ tal que, ∆i yt = yt − yt−i (44) ´E importante notar a rela¸c˜ao que h´a entre ∆ e os operadores de desafagem, sendo ela ∆ = 1 − L, essa demonstra¸c˜ao ´e simples e a deixamos como exerc´ıcio te´orico para o leitor4. 3 Normalmente a primeira ou segunda ordem de integra¸c˜ao para estacionar a s´erie. 4 Fa¸ca-o agora. P´agina 16 de 47
  • 17. Vin´ıcius M. de Sousa K 6.1 ARIMA(p, i, q) Suponha que tenhamos o modelo, yt = φ1yt−1 + · · · + φpyt−p + t − θ1 t−1 − · · · − θq t − q (45) cujo yt apresenta um comportamento n˜ao estacion´ario. Em frente disso, podemos tomar sua primeira diferen¸ca e testar se ∆yt ´e estacion´aria, continuaremos fazendo esse processo at´e a ordem i onde a vari´avel ∆iyt ´e estacion´aria. Equacionaremos agora o que foi dito. Aplicando a defini¸c˜ao 6.1 `a 45 temos, ∆i yt = φ1∆i yt−1 + · · · + φp∆i yt−p + tθ(A)q ∆i yt − φ1∆i yt−1 + · · · − φp∆i yt−p = tθ(A)q ∆i yt(1 − φ1L + · · · + φqLp ) = tθ(A)q (1 − L)i ytφ(L)p = tθ(A)q (46) onde o ´ultimo passo foi derivado do resultado j´a demonstrado pelo leitor como exerc´ıcio. 6.2 Exemplo Analisaremos agora a taxa de cˆambio R$/U$ entre janeiro de 1995 e agosto de 20165. A figura 5 traz o plot da s´erie. 1 2 3 4 1995 2000 2005 2010 2015 R$/U$ Figura 5: Cˆambio R$/U$ entre Jan/95 e Ago/16 Como j´a mostrado na se¸c˜ao 3, ´e necess´ario que a s´erie seja estacion´aria para que a an´alise de s´eries temporais possa ser aplicada. Ser´a que a s´erie da figura 5 ´e estacion´aria, leitor? 5 Dispon´ıvel em https://fred.stlouisfed.org/series/DEXBZUS P´agina 17 de 47
  • 18. Vin´ıcius M. de Sousa K Vamos utilizar aqui o teste de Dickey-Fuller6 7 aumentado para testar a estacionaridade da s´erie. O teste tem como hip´otese nula a n˜ao estacionaridade da s´erie e escolhemos o cl´assico n´ıvel de significˆancia de 5%. O resultado do teste ´e p do teste ´e p =0.595> 0.05 ent˜ao aceitamos a hip´otese nula, i.e., a s´erie ´e n˜ao estacion´aria . O que havemos de fazer? Recomendo um e ent˜ao aplicar a defini¸c˜ao 6.1 `a s´erie e testar novamente. Tabela 2: Taxa de Cˆambio Real/D´olar Cˆambio 1ª diferen¸ca 01/01/1995 0.846 0 01/02/1995 0.841 -0.005 01/03/1995 0.890 0.049 01/04/1995 0.907 0.017 01/05/2016 3.540 -0.023 01/06/2016 3.423 -0.117 01/07/2016 3.278 -0.145 01/08/2016 3.196 -0.082 A tabela 2 mostra o in´ıcio e o final da taxa de cˆambio em n´ıvel e sua 1ª diferen¸ca. Iremos repetir a an´alise para a 1ª diferen¸ca, come¸cando com a figura 6. ´E clara a mudan¸ca entre a figura 5 e 6. Repetindo o teste Dickey-Fuller aumentado temos como resultado o valor p =0.01< 0.05 ent˜ao rejeitamos a hip´otese nula. Disso conclu´ımos que a s´erie n˜ao ´e estacion´aria em n´ıvel, por´em sua 1ª diferen¸ca ´e e, portanto, ´e ela (1ª diferen¸ca) que seria usada para a an´alise da s´erie. 6 N˜ao se preocupe que isso ´e cena de pr´oximos cap´ıtulos, a verifica¸c˜ao da estacionaridade de uma s´erie ser´a abordada mais adiante 7 S´o dando uma intui¸c˜ao ao leitor, o teste de Dickey-Fuller aumentado testa a signifiˆancia do coeficiente da primeira diferen¸ca de uma vari´avel regredida contra sua primeira diferen¸ca e a tendˆencia da s´erie. P´agina 18 de 47
  • 19. Vin´ıcius M. de Sousa K −0.2 0.0 0.2 0.4 1995 2000 2005 2010 2015 1ªDiferença Figura 6: 1ª Diferen¸ca da taxa de cˆambio Passemos agora aos modelos sazonais. 7 Modelos Sazonais Aqui vamos apresentar uma introdu¸c˜ao aos modelos sazonais, que em muito assemelham-se aos modelos ARIMA. A sazonalidade nada mais ´e do que a influˆencia da vari´avel no ponto de tempo t − s sobre a vari´avel no per´ıodo t. A intui¸c˜ao disso, classicamente, ´e passada com o exemplo das vendas de varejo. A quantidade de vendas no varejo de mar¸co/16 ´e mais explicada pela quantidade das vendas de mar¸co/15 do que a quantidade de vendas no varejo de fev/16, no caso do varejo, o valor de s seria 12. Este comportamento ´e muito comum em s´eries que possuem mais de uma observa¸c˜ao dentro de um ano (trimestrais, mensais, di´arios etc.), entretanto, nada restringe que s´eries anuais possuam um componente sazonal. Mostraremos os tipos de modelos te´oricos e em seguida dar-se-´a exemplos. 7.1 SAR(P) ou AR(P)s Defini¸c˜ao 7.1. Dizemos que um modelo ´e auto-regressivo sazonal quando a vari´avel em quest˜ao, no instante de tempo t, ´e explicada por seus valores assumidos nos instante de tempo t − 2, t − 2s, . . . e pelo ru´ıdo branco. Equacionando temos, yt = Φ1yt−s + Φ2yt−2s + · · · + ΦP yt−Ps + t ytΦ(Ls)P = t (47) P´agina 19 de 47
  • 20. Vin´ıcius M. de Sousa K 7.2 SMA(Q) ou MA(Q)s Defini¸c˜ao 7.2. Dizemos que um modelo ´e de m´edias m´oveis sazonal quando a vari´avel em quest˜ao, no instante de tempo t, ´e explicada por seus valores assumidos nos instante de tempo t − 2, t − 2s, . . . e pelo ru´ıdo branco. Equacionando temos, yt = t − Θ1 t−s − · · · − ΘQ t−Qs yt = tΘ(Bs)Q (48) 7.3 SARIMA(P, I, Q) ou ARIMA(P, I, Q)s Jun¸c˜ao do SAR(P) com SMA(Q) e filtros de integra¸c˜ao para estacionar a s´erie (caso necess´ario), que resulta em, Φ(Ls)P (1 − L)I yt = Θ(Bs)Q t (49) 7.4 ARIMA(p, i, q)(P, I, Q) Os modelos sazonais at´e agora mostrados assumem (implicitamente) que a vari´avel n˜ao est´a correlacionada com valores anteriores seus que n˜ao sejam m´ultiplos de s, por´em isso n˜ao se mostra muito presente nos dados, como pode ser observado nos dados sobre passageiros. O modelo ARIMA(p, i, q)(P, I, Q), ou modelo multiplicativo geral, ´e bastante utilizado, pois ele possui componentes estoc´asticos e componentes sazonais. Sem mais delongas, voi-l`a o modelo, φ(L)p Φ(Ls)P ∆i ∆I yt = θ(B)q Θ(B)Qs t (50) Com isso terminamos a introdu¸c˜ao aos tipos de modelos de s´eries temporais que era o objetivo da primeira parte. A pr´oxima parte dedica-se `a Metodologia de Modelagem e Previs˜ao Box & Jenkins. P´agina 20 de 47
  • 21. Vin´ıcius M. de Sousa K Parte II Metodologia Box & Jenkins At´e aqui foi apresentado ao leitor tipos de modelos de s´eries temporais univariados8, tais modelos podem ser utilizados pela metodologia Box & Jenkins que tem como objetivo a previs˜ao dos valores que a vari´avel ir´a assumir. A metodologia Box & Jenkins consiste em 4 etapas, sendo elas 1ª identifica¸c˜ao, 2ª estima¸c˜ao, 3ª verifica¸c˜ao e 4ª previs˜ao. Apresent´a-la ao leitor ´e o objetivo desta parte do texto. 8 Identificac¸ ˜ao As figuras 7 e 8 mostram um modelo AR(2) e um MA(2). O leitor saberia dizer qual figura mostra qual tipo de modelo? O autor espera que a resposta tenha sido uma negativa, isto porque o gr´afico da vari´avel pode no m´aximo nos dizer se a vari´avel ´e ou n˜ao estacion´aria. Frente a isso, ´e necess´ario que utilizemos um ferramental formal, para determinar quais filtros devem conter no modelo que melhor representa os dados. Para isso, utilizaremos as fun¸c˜oes de autocorrela¸c˜ao (FAC) e autocorrela¸c˜ao parcial (FACP). −3 −2 −1 0 1 2 3 0 20 40 60 80 100 Tempo Variável1 Figura 7: Vari´avel 1 8 Dependem apenas da pr´opria vari´avel. P´agina 21 de 47
  • 22. Vin´ıcius M. de Sousa K −15 −10 −5 0 5 0 20 40 60 80 100 Tempo Variável2 Figura 8: Vari´avel 2 8.1 Func¸ ˜oes FAC e FACP 8.1.1 Func¸ ˜ao de autocorrelac¸ ˜ao ´E a autocorrela¸c˜ao que h´a entre o per´ıodo t e k. Defini¸c˜ao 8.1. A fun¸c˜ao de autocorrela¸c˜ao ´e dada pelos pares (k, ρk) gerados por, ρk = Cov(yt, yk) V ar(yy) = γk γ0 (51) Para termos os valores de ρ basta efetuarmos o c´alculo e plotar no espa¸co k × ρ = IR2 . J´a adiantamos que na an´alise de s´eries amostrais ´e necess´ario conhecer a distribui¸c˜ao de ˆρ quando ρ = 0, de modo que possamos testar as hip´oteses nulas de que ˆρ = 0. Bartlett (1946) apud Vasconcellos and Alves (2000) mostra que, V ar(ˆρk) = 1 n (1 + 2ˆρ2 1 + · · · + ˆρ2 j ), ∀ k > j (52) onde ˆρk ∼ N(0, 1/n). E disso pode-se construir os testes tradicionais de significˆancia individual. Como alternativa aos testes individuais pode-se utilizar o teste de Ljung-Box para verificar se os primeiros k coeficientes s˜ao conjuntamnte nulos (como de praxe, esta ´e a hip´otese nula). A estat´ıstica ´e dada por, Q(K) = n(n + 2) K k=1 ˆρ2 k n − k (53) que segue a distribui¸c˜ao χ2 com K graus de liberdade. P´agina 22 de 47
  • 23. Vin´ıcius M. de Sousa K 8.1.2 Func¸ ˜ao de autocorrelac¸ ˜ao parcial Mede a autocorrela¸c˜ao entre yt e yt−k depois de descontada a influˆencia de yt−1, . . . , yt−k+1 sobre yt. Defini¸c˜ao 8.2. A fun¸c˜ao de autocorrela¸c˜ao parcial ´e dada pelos pares (k, φkk), onde o primeiro k de φkk refere-se `a linha da equa¸c˜ao no sistema e o segundo refere-se `a ordem de autocorrela¸c˜ao, representados no espa¸co k × φkk = IR2 , que podem ser gerados de duas maneiras: a) Aplicando m´ınimos quadrados nas equa¸c˜oes abaixo: yt = β11yt−1 + t ⇒ φ11 = β11 yt = β21yt−1 + β22yt−2 + t ⇒ φ22 = β22 ... yt = βk1yt−1 + · · · + βkkyt−k t ⇒ φkk = βkk (54) b) Resolvendo o sitema derivado das equa¸c˜oes de Yule-Walker9: ρ(1) = φ1ρ(0) + φ2ρ(1) + · · · + φpρ(p − 1) ρ(2) = φ1ρ(1) + φ2ρ(0) + · · · + φpρ(p − 2) ... ρ(p) = φ1ρ(p − 1) + φ2ρ(p − 2) + · · · + φpρ(0)    φkk = φk, k = 1, . . . , p (55) Veremos, agora, como determinar os filtros de integra¸c˜ao, auto-regressivos e de m´edia m´oveis. 8.2 Determinac¸ ˜ao dos filtros de integrac¸ ˜ao Regra de Bolso: Se para k > 5 ainda tivermos |γk| > 0, 7 a s´erie deve ser considerada n˜ao estacion´aria (Vandaele, 1983). Nesse caso, deve-se aplicar o operador de diferen¸cas at´e que a regra de bolsa seja atendida e ent˜ao ter-se-´a ∆i como filtro de integra¸c˜ao. 8.3 Filtros auto-regressivos e de m´edia m´ovel Podemos estudar o comportamento das fun¸c˜oes FAC e FACP de cada modelo te´orico ARMA de modo a observarmos suas caracter´ısticas. Desse modo, ao plotarmos os pares (k, ˆρk) e (k, ˆφkk) podemos analisar as caracter´ısticas, comparar com as dos modelos te´oricos e escolher os modelos ‘candidatos’ a geradores da s´erie. 8.3.1 AR(1) Retomando 5 temos, yt = φyt−1 + t (56) onde, a) FAC: ˆρk = ˆγk ˆγ0 = ˆφk , k = 1, . . . , k (57) Devida a condi¸c˜ao de estacionaridade a FAC de AR(1) decresce exponencialmente. 9 Ver se¸c˜ao 13 em III P´agina 23 de 47
  • 24. Vin´ıcius M. de Sousa K b) FACP: ˆφkk = = 0, se k = 1 = 0, se k = 2, . . . , k (58) Ent˜ao FACP ´e truncada10 em k = 1 = p. A figura 9 mostra esse comportamento. −0.20.20.40.60.8 Lag FAC AR(1) com phi=0.9 5 10 15 20 −0.20.20.40.60.8 Lag FACP AR(1) com phi=0.9 5 10 15 20 −0.50.00.5 Lag FAC AR(1) com phi=−0.9 5 10 15 20 −0.8−0.40.00.2 Lag FACP AR(1) com phi=−0.9 5 10 15 20 Figura 9: FAC e FACP de um AR(1) 8.3.2 AR(p) Retomando 1 temos, yt = c + φ1yt−1 + ... + φqyt−p + t (59) onde, 10 Entenda-se ‘truncada como a fun¸c˜ao ser significante at´e a defasagem p. P´agina 24 de 47
  • 25. Vin´ıcius M. de Sousa K a) FAC: ˆρk = ˆφ1 ˆρk−1 + ˆφ2 ˆρk−2 + · · · + ˆφp ˆρk−p, = 1, . . . , k (60) O comportamento n˜ao ´e obvio11, mas FAC do AR(p) descresce exponencialmente e/ou apresenta ondas senoidais. b) FACP: ˆφkk = = 0, se k = 1, . . . , p = 0, se k > p (61) De modo que FACP de AR(p) ´e truncada em k = p. A figura 10 mostra essa comportamento, onde p = 20. −0.50.00.5 Lag FAC AR(20) 0 20 40 60 80 100 −0.40.00.4 Lag FACP AR(20) 0 20 40 60 80 100 Figura 10: FAC e FACP de um AR(20) 11 O leitor pode confiar em mim, mas pode tamb´em verificar no cap´ıtulo 3 de (Brockwell and Davis, 2002). P´agina 25 de 47
  • 26. Vin´ıcius M. de Sousa K 8.3.3 MA(1) Um MA(1) ´e o modelo que segue, yt = t − θ1 t−1 (62) onde, a) FAC: ˆρk = −ˆθ1 1+ˆθ1 , se k = 1 = 0, se k > 1 (63) De modo que a FAC de MA(1) ´e truncada em k = 1 = q. b) FACP: ´E necess´ario transformar o MA(1) em um AR(∞) para se chegar ao resultado que segue: ˆφkk = −(ˆθ)k 1 + ˆθ2 + · · · + ˆθ2k (64) Devido ´a condi¸c˜ao de invertibilidade, a FACP de MA(1) decresce exponencialmente. A figura 11 mostra essa comportamento. P´agina 26 de 47
  • 27. Vin´ıcius M. de Sousa K −0.20.00.20.4 Lag FAC MA(1) com theta=0.9 5 10 15 20 −0.20.00.20.4 Lag FACP MA(1) com theta=0.9 5 10 15 20 −0.5−0.3−0.10.1 Lag FAC MA(1) com theta=−0.9 5 10 15 20 −0.5−0.3−0.10.1 Lag FACP MA(1) com theta=−0.9 5 10 15 20 Figura 11: FAC e FACP de um MA(1) 8.3.4 MA(q) Retomando 13 temos, yt = t − θ1 t−1 − ... − θq t−q (65) onde, a) FAC: ˆρk = = 0, se k = 1, . . . , q = 0, se k > q (66) De modo que a FAC de MA(q) ´e truncada em k = q. b) FACP: Decresce `a medida que k aumenta, por´em sem nenhum padr˜ao. A figura 12 mostra essa comportamento, onde q = 20. P´agina 27 de 47
  • 28. Vin´ıcius M. de Sousa K −0.40.00.4 Lag FAC MA(20) 0 20 40 60 80 100 −0.20.20.6 Lag FACP MA(20) 0 20 40 60 80 100 Figura 12: FAC e FACP de um MA(20) 8.3.5 ARMA(1,1) Retomando 30 temos, yt = φyt−1 + t − θ t−1 (67) onde, a) FAC ˆρk =    (1−ˆφˆθ)(ˆφ−ˆθ) 1+ˆθ2−2ˆφˆθ , se k = 1 ˆφˆρk−1, se k > 1 (68) b) FACP: Deve ser transformado num AR. Devido a condi¸c˜ao de estacionaridade a FACP ser´a decrescente `a medida que k aumenta, recomendo que o leitor veja o exemplo da p´agina 64 em Enders (2014) para a verifica¸c˜ao do que foi afirmado. P´agina 28 de 47
  • 29. Vin´ıcius M. de Sousa K A figura 13 mostra essa comportamento. −0.20.20.40.60.8 Lag FAC ARMA(1,1) com phi=theta=0.9 5 10 15 20 −0.40.00.40.8 LagFACP ARMA(1,1) com phi=theta=0.9 5 10 15 20 −1.0−0.50.00.5 Lag FAC ARMA(1,1) com phi=theta=−0.9 5 10 15 20 −1.0−0.6−0.20.2 Lag FACP ARMA(1,1) com phi=theta=−0.9 5 10 15 20 Figura 13: FAC e FACP de um ARMA(1,1) 8.3.6 ARMA(p, q) As fun¸c˜oes de autocorrela¸c˜ao e autocorrela¸c˜ao parcial s˜ao in´uteis na determina¸c˜ao de qual deve ser o modelo adotado quando se tratando de ARMA, de modo que vamos caracteriz´a- las brevemente. A FAC de um ARMA come¸ca a decrescer em k = q e a FACP em k = p (Enders, 2014). 8.4 ‘Regra’ para determinac¸ ˜ao dos filtros A tabela 3 mostra um resumo para auxiliar na identifica¸c˜ao dos filtros averiguando o comportamento da FAC e FACP. P´agina 29 de 47
  • 30. Vin´ıcius M. de Sousa K Tabela 3: Regra auxiliar FAC FACP AR(p) Declinante Significante at´e a defasagem p MA(q) Significante at´e a defasagem p Declinante ARMA(p,q) Declinante Declinante 8.5 Crtit´erios As fun¸c˜oes FAC e FACP te´oricas s˜ao bem comportadas de modo que a indentifica¸c˜ao do modelo correto ´e poss´ıvel analisando-as, por´em ao trabalharmos com as s´eries coletadas estaremos lidando com FAC e FACP amostrais que apresentam um comportamento n˜ao t˜ao bem definido. Essa ‘subjetividade’ na escolha do modelo incomodou muitos estat´ısticos. Por sorte, foram desenvolvidas estat´ısticas para elimiar (pelo menos em parte) a subjetividade dessa escolha e aqui apresentaremos `a vocˆe, leitor, duas importantes delas. 8.5.1 Crit´erio de Informac¸ ˜ao de Akaike(AIC) Desenvolvido pelo estat´ıstico japonˆes Hirotugu Akaike e publicado em 197412, esta estat´ıstica tem como intui¸c˜ao medir o trade-off entre acrescentar mais um parˆametro e a informa¸c˜ao perdida devida ao acr´escimo, e ´e obtida atrav´es de AIC = ln ˆσ2 + 2(p + q) n (69) ´E importante evidenciar que o AIC n˜ao mede, em nenhum senso, a qualidade do ajuste do modelo tampouco ´e uma estat´ıstica que possui uma hip´otese nula a ser testada. O que a estat´ıstica traz (e isso est´a claro em 69) ´e uma estimativa da quantidade de informa¸c˜ao perdida no modelo. E, desta ´ultima frase, pode-se inferir corretamente, que deve-se escolher o modelo que apresentar o menor valor da estat´ıstica. 8.5.2 Crit´erio de informac¸ ˜ao Bayesiana (BIC) Desenvolvido por Gideon Schwarz e publicado em 197813, esta estat´ıstica tem a mesma intui¸c˜ao da AIC, a principal diferˆen¸ca, que ficar´a clara em seguida, ´e que a BIC penaliza mais o acr´escimo de parˆametros. ´E obtida por, BIC = ln ˆσ2 + (p + q) ln n n (70) Asism como AIC, o BIC n˜ao mede grau de ajustamento do modelo, nem possui uma hip´otese nula a ser testada e sim, uma estimativa da quantidade de informa¸c˜ao perdida, o que implica que deve-se escolher o modelo que apresenta o menor valor de BIC. Destaca-se, por fim que os crit´erios AIC e BIC andam juntos de modo que o modelo que apresentar o menor AIC, tamb´em apresentar´a (em grande parte dos casos) o menor BIC. 12 (Akaike, 1974) 13 (Schwarz, 1978) P´agina 30 de 47
  • 31. Vin´ıcius M. de Sousa K 9 Estimac¸ ˜ao Escolhidos os valores de p, i, q temos o modelo, ∆i ytφ(L)p = tθ(A)q (71) Podemos estimar 71 de duas maneiras. 9.1 M´ınimos Quadrados Ordin´arios A cl´assica minimiza¸c˜ao do quadrado dos erros, n t=1 ˆ2 t = n t=1 [∆i yt ˆφ(L)p ˆθ(A)q ]2 (72) onde resolve-se o sistema gerado pelas p + q derivadas. 9.2 M´axima Verossimilhanc¸a Maximizando a seguinte equa¸c˜ao, f(ˆφ, ˆθ, ˆσ2 /W) = (2ˆφˆσ2 )−n/2 × |ˆΩ|−1/2 × exp[− 1 2 W ˆΩ−1 W ˆσ2 ] (73) onde, ˆ ˆt ∼ N(0, ˆσ2) (implica na pr´oxima) ˆ ˆwt ∼ N(0, ˆσ2 ˆΩ) ˆ W =    ∆iy1 ... ∆iyn    ˆ Ω = E[WW ]: a matrix de covariˆancia Claramente os c´alculos s˜ao complexos e, na pr´atica utiliza-se, o software de sua escolha para a estima¸c˜ao do modelo. Exemplo Antes de continuarmos, que tal um exemplo para melhor compreens˜ao de como ocorreria o processo de identifica¸c˜ao na pr´atica, leitor? Vamos analisar a d´ıvida l´ıquida do governo federal e banco central como percentagrem do PIB entre janeiro de 2002 e julho de 201614. A figura 14 mostra a s´erie em n´ıvel. 14 S´erie nº 4503 do sistema gerenciador de s´eries temporais do banco central do Brasil. P´agina 31 de 47
  • 32. Vin´ıcius M. de Sousa K 20 25 30 35 40 2005 2010 2015 DívidaPública(%) Figura 14: D´ıvida do governo federal e banco central (% do PIB) Utilizaremos, uma vez mais, o teste Dickey-Fuller aumentado para verificar a estacionaridade da s´erie. O valor p do teste ´e 0.69, que ´e maior do que 5% (nosso cl´asico n´ıvel de significˆancia), ent˜ao a hip´oetese nula, de n˜ao estacionaridade, n˜ao ´e rejeitada. J´a para a primeira diferen¸ca da s´erie, o valor p do teste ´e 0.01, o que torna a estat´ıstica significativa a um n´ıvel de 5% e, portanto, rejeitamos a hip´otese de n˜ao estacionaridade. Podemos observar isso na figura 15. P´agina 32 de 47
  • 33. Vin´ıcius M. de Sousa K −4 −2 0 2 4 2005 2010 2015 1ªDiferençadadívidapública Figura 15: 1ª Diferen¸ca da d´ıvida p´ublica At´e aqui nenhuma novidade, por´em vamos agora identificar os poss´ıveis filtros.Vamos analisar as fun¸c˜oes FAC e FACP. −0.2−0.10.00.10.2 Defasagem Autocorrelação 6 12 18 24 Figura 16: Autocorrela¸c˜ao da 1ª diferen¸ca P´agina 33 de 47
  • 34. Vin´ıcius M. de Sousa K −0.2−0.10.00.10.2 Defasagem AutocorrelaçãoParcial 6 12 18 24 Figura 17: Autocorrela¸c˜ao Parcial da 1ª diferen¸ca As faixas azuis nos correlogramas representando o intervalo de confian¸ca das autocorrela¸c˜oes. Analisando as figuras 16 e 17 vemos que o comportamento das fun¸c˜ao assemelha-se aos modelos AR(1) e MA(1), qual devemos escolher? Vamos estimar os modelos 74a, 74b e 74c. wt = ˆφ1wt−1 + ˆt (74a) wt = ˆt − ˆθ1ˆt−1 (74b) wt = ˆφ1wt−1 + ˆt − ˆθ1ˆt−1 (74c) onde wt = ∆yt ´e a primeira diferen¸ca da d´ıvida do governo federal e do banco central do Brasil como % do PIB. Tabela 4: Resultados da Estima¸c˜ao Phi Theta AIC BIC Ar(1) -0.026 - 450.5715 456.8896 MA(1) - -0.0182 451 456.9249 ARMA(1,1) -0.9833 0.9377 447.5191 456.9962 A tabela 4 traz os coeficientes e valores dos crit´erios de informa¸c˜ao para os trˆes modelos. Aqui utilizamos os crit´erios de informa¸c˜ao para auxiliar na decis˜ao, percebe-se que os crit´etios BIC sofrem pequenas mudan¸cas de pensendo de cada modelo, j´a o AIC apresenta uma diferen¸ca de 3.0524 entre os modelos que apresentam os menores AIC. Portanto, o modelo identificado para representar a 1ª diferen¸ca da d´ıvida p´ublica ´e o que segue, wt = −0.98wt−1 + ˆt − 0.94ˆt−1 (75) P´agina 34 de 47
  • 35. Vin´ıcius M. de Sousa K 10 Verificac¸ ˜ao Estimados os coeficientes e a variˆancia do erro, passamos agora `a etapa de verifica¸c˜ao, i.e., verificar se o modelo estimado representa o processo gerador da s´erie de uma maneira satisfat´oria. Essa etapa ´e feita atrav´es de (i) an´alise dos res´ıduos e (ii) avalia¸c˜ao da ordem do modelo. 10.1 An´alise dos Res´ıduos 10.1.1 Individualmente Os res´ıduos (ˆt) do modelo estimado s˜ao estimativas do ru´ıdo branco ( t) e, portanto, os coeficientes de autocorrela¸c˜ao residual devem ser estatisticamentes iguais a zero. Isso pode ser testado de acordo com testes tradicionais de significˆancia, visto que a distribui¸c˜ao ´e de nosso conhecimento: rk(ˆt) = n t=k+1 ˆtˆt−k n t=1 ˆ2 t , onde rk(ˆt) ∼ N(0, 1/n) (76) 10.1.2 Conjuntamente H´a tamb´em como testar se os k primeiros coeficientes s˜ao conjuntamente iguais `a zero. Para tal utiliza-se uma varia¸c˜ao de 53 que segue, Q∗ (K) = n(n + 2) K k=1 rk(ˆ) n − K (77) que segue a distribui¸c˜ao χ2 com K − p − q graus de liberdade. Com a nulidade sendo a hip´otese nula. 10.2 Avaliac¸ ˜ao da ordem do modelo Voltemos nossa aten¸c˜ao agora para os valores de p e q. Queremos garantir que o modelo n˜ao est´a nem superestimado nem subestimado. O crit´erio da parcimˆonia afirma que n˜ao deve-se ter parˆametros em excesso no modelo e por isso fazemos essa avalia¸c˜ao, a fim de garantir que tenhamos um modelo com ordem significativa. a) Utiliza-se o erro padr˜ao referentes aos coeficientes para verificar se h´a parˆametros redundantes. Um valor grande do erro padr˜ao de um parˆamtro em rela¸c˜ao ao valor do mesmo ´e uma indica¸c˜ao de que o modelo est´a superestimado. Caso seja o coeficiente de maior ordem (que indique poss´ıvel superestima¸c˜ao) ent˜ao, deve-se estimar um modelo omitindo o parˆametro de maior ordem, j´a no caso de ser um dos parˆametros de menor ordem ent˜ao, busca-se autocorrela¸c˜ao entre ele e os demais parˆametros. b) A verifica¸c˜ao da subestima¸c˜ao ´e feita simplesmente adicionando parˆametros (um por vez) e analisando a significˆancia estat´ıstica. Sobre a medida da qualidade do ajustamento do modelo em regress˜ao, R2, vale destacar que em s´eries temporais a mesma n˜ao exerce o mesmo papel. Isso ´e mostrado por Nelson (1976) apud Vasconcellos and Alves (2000). Destacamos ainda que, quando houver d´uvida P´agina 35 de 47
  • 36. Vin´ıcius M. de Sousa K entre qual modelo utilizar recorrer-se-´a `a variˆancia do res´ıduo e aos crit´erios de informa¸c˜ao (procurando sempre os menores valores). Um ´ultimo coment´ario sobre as etapas de escolha e verifica¸c˜ao do modelo ´e que em certa medida esta escolha tem um toque do ‘arte’, pois o componente subjetivo, mesmo que auxiliado por essa metodologia e testes objetivos, n˜ao ´e exclu´ıdo 100% da escolha, nada lhe impede de modelar a s´erie com um modelo que n˜ao apresente os menores valores crit´erios de informa¸c˜ao. 11 Previs˜ao O ´ultimo passo da metodologia consiste em seu objetivo principal: a previs˜ao do compor- tamento da vari´avel. Vasconcellos and Alves (2000) traz uma introdu¸c˜ao te´orica sobre o assunto para aqueles que tiverem interesse, pois aqui nos restringiremos a dar a intui¸c˜ao do funcionamento da previs˜ao. Intuic¸ ˜ao A previs˜ao do comportamento de yt pode ser feita de duas maneiras: (i) pontual e (ii) por intervalo. Na primeira, ´e necess´ario definir o melhor estimador da s´erie, i.e., aquele que miniza os erros (a distˆancia entre os pontos observados da linha projetada pelo modelo), de modo a ter-se uma proposi¸c˜ao do tipo: Daqui a l per´ıodos ter-se-´a yt+l = κ, com probabilidade de 1 − α. J´a a t´ecnica de previs˜ao por intervalo, consiste em estimar-se valores m´aximos e m´ınimos que yt ir´a assumir. Isso resulta em uma proposi¸c˜ao do tipo: Daqui a l per´ıodos o valor assumido por yt+l estar´a entre κMin e κMax com probabilidade de 1 − α. 12 Coment´ario Final O objetivo da metodologia aqui apresentada ´e a previs˜ao do comportamento de determinada vari´avel. Al´em de ser efeciente para as previs˜oes o aprendizado da metodologia ajuda a desenvolver o racioc´ınio anal´ıtco de s´eries temporais. Entretando, a populariza¸c˜ao dos computadores possibilitou o desenvolvimento de algor´ıtmos capazes de ajustar modelos a partir dos dados de maneira muito mais eficiente em rela¸c˜ao `a capacidade anal´ıtica, escpecialmente em casos cujo n´umero de s´eries temporais a serem analisadas ´e muito grande. Como afirma o estat´ıstico Robin J Hyndman em uma aula para o clube do R de Melbourne ‘os algor´ıtmos muito provavelmente ir˜ao fazer um trabalho muito melhor que o de vocˆes’15. 15 Tradu¸c˜ao livre a partir da aula dispon´ıvel em https://www.youtube.com/watch?v=1Lh1HlBUf8k P´agina 36 de 47
  • 37. Vin´ıcius M. de Sousa K Parte III T´opicos 13 Equac¸ ˜oes de Yule-Walker As publica¸c˜oes de George Udny Yule (1927) e Sir Gilber Thomas Walker (1931) resultaram no que,criativamente, chamamos de equa¸c˜oes de Yule-Walker. Tais equa¸c˜oes s˜ao utilizadas para a estima¸c˜ao dos valores dos coeficientes autoregressivos de um modelo AR. Aqui por´em, tamb´em mostraremos como calcular os valores da fun¸c˜ao de autocorrela¸c˜ao parcial, entretanto, para isso ´e necess´ario assumir que os coeficientes φi sejam de nosso conhecimento. 13.1 Derivac¸ ˜ao das equac¸ ˜oes Suponhemos o modelo AR(p), yt = φ1yt−1 + φ2yt−2 + · · · + φpyt−p + t (78) Multiplicando 78 por yt−k, com k = 1, . . . , p para ficarmos com, ytyt−k = φ1yt−1yt−k + φ2yt−2yt−k + · · · + φpyt−pyt−k + tyt−k (79) Utilizando o operador de expectˆancia em 79, de modo a ficarmos com, E[ytyt−k] = E[φ1yt−1yt−k + φ2yt−2yt−k + · · · + φpyt−pyt−k + tyt−k] (80a) ρk = φ1ρ(k − 1) + φ2ρ(k − 2) + · · · + φpρ(k − p) (80b) 80b ´e a primeira equa¸c˜ao das de Yule-Walker. Para chegarmos a segunda vamos colocar k = 0 em 80a, o que resulta em, E[ytyt] = E[φ1yt−1yt + φ2yt−2yt + · · · + φpyt−pyt + tyt] (81a) ρ(0) = φ1ρ(1) + φ2ρ(2) + · · · + φpρ(p) + σ2 (81b) As equa¸c˜oes 80b e 81b s˜ao as t˜ao esperadas equa¸c˜oes de Yule-Walker. 13.2 Montando o Sistema de Equac¸ ˜oes De 80b podemos extrair p equa¸c˜oes,    ρ(1) = φ1ρ(0) + φ2ρ(1) + · · · + φpρ(p − 1) ρ(2) = φ1ρ(1) + φ2ρ(0) + · · · + φpρ(p − 2) ... ρ(p) = φ1ρ(p − 1) + φ2ρ(p − 2) + · · · + φpρ(0) (82) que s˜ao as equa¸c˜oes apresentadas na defini¸c˜ao 8.216. A partir delas mostraremos como estimar os coeficientes autoregressivos, variˆancia do res´ıduo e os valores da fun¸c˜ao de autocorrela¸c˜ao parcial. 16 A ‘troca feita na defini¸c˜ao e em 82 de ρ(h − p) por ρ(p − h) ´e poss´ıvel, pois a correla¸c˜ao entre δ1 e δ2 ´e a mesma que a correla¸c˜ao entre δ2 e δ1. P´agina 37 de 47
  • 38. Vin´ıcius M. de Sousa K 13.3 Estimando os Coeficientes Autoregressivos e Variˆancia do Res´ıduo 13.3.1 Coeficientes Podemos reescrever 82 como,      ρ(1) ρ(2) ... ρ(p)      =      ρ(0) ρ(1) . . . ρ(p − 1) ρ(1) ρ(0) . . . ρ(p − 2) ... ... ... ... ρ(p − 1) ρ(p − 2) . . . ρ(0)      ×      φ1 φ2 ... φp      (83) ou ainda em nota¸c˜ao matricial abreviada, γp = Γ × Φ (84) onde, γp =      ρ(1) ρ(2) ... ρ(p)      (85) e Γ =      ρ(0) ρ(1) . . . ρ(p − 1) ρ(1) ρ(0) . . . ρ(p − 2) ... ... ... ... ρ(p − 1) ρ(p − 2) . . . ρ(0)      (86) e por fim Φ =      φ1 φ2 ... φp      (87) Resolvendo para Φ, teremos as estimativas dos coeficientes autoregressivos do modelo, Φ = Γ−1 × γp (88) 13.3.2 Variˆancia do Res´ıduo Observa¸c˜ao: O sobrescrito ‘ ’ denota, como de costume na literatura, a transposta da matriz na qual ele encontra-se. De 81b temos que, σ2 = ρ(0) − φ1ρ(1) − φ2ρ(2) − · · · − φpρ(p) = ρ(0) − Φ γρ (89) utilizando 88, σ2 = ρ(0) − (Γ−1 × γp) γρ (90a) σ2 = γρ(Γ−1 ) γρ (90b) onde 90b ´e a variˆancia dos res´ıduos. P´agina 38 de 47
  • 39. Vin´ıcius M. de Sousa K 13.3.3 Valores da FACP Como, j´a mostrado na defini¸c˜ao 8.2, os valores da FACP s˜ao os valores dos coeficientes φ, i.e., ρj = φj, j = 1, . . . , p. 13.4 Exemplo Vamos atrav´es de - um tipo de - simula¸c˜ao de Monte Carlo trazer um exemplo da utiliza¸c˜ao das equa¸c˜oes de Yule-Walker. Isto consiste em escolher os valores dos coeficientes, gerar n´umeros aleat´orios e, a partir desses, calcularmos os valores de zt. Feito isso, temos uma s´erie gerada a partir dos coeficentes por n´os escolhidos e podemos ent˜ao, utilizar m´etodos para estimar os coeficientes de modo a compararmos com os coeficientes verdadeiros. Suponha o modelo que segue, zt = 0.5zt−1 − 0.5zt−2 + t (91) #gerando a s´erie phi1<- 0.5 phi2<- -0.5 n<- 1000 set.seed(1) z<- rep(0,n) e<- rnorm(n) for(t in 3:n) z[t]=phi1*z[t-1]+phi2*z[t-2]+e[t] z<- z[801:1000] z <- ts(z) Figura 18: C´odigo gerador da s´erie zt Onde zt ´e a s´erie gerada computacionalmente pelo c´odigo mostrado na figura 18. A tabela 5 tr´as os 10 primeiros valores da s´eries e suas defasagens e a figura 19 mostra o comportamento da s´erie ao longo do tempo. P´agina 39 de 47
  • 40. Vin´ıcius M. de Sousa K −4 −2 0 2 0 50 100 150 200 z Figura 19: S´erie zt ao longo do tempo Tabela 5: S´erie Gerada z t z (t-1) z (t-2) 1 0.342 -1.760 -0.056 2 -1.760 -0.056 0.840 3 -0.056 0.840 -0.152 4 0.840 -0.152 -0.674 5 -0.152 -0.674 -0.687 6 -0.674 -0.687 0.990 7 -0.687 0.990 1.566 8 0.990 1.566 -1.439 9 1.566 -1.439 -1.149 10 -1.439 -1.149 0.872 13.4.1 Coeficientes AR O pr´oximo passo agora ´e estimar ρ(0) = E[ztzt], ρ(1) = E[ztzt−1] e ρ(2) = E[ztzt−2] para resolver o sistema linear derivado de 13.3.1, ˆρ(1) ˆρ(2) = ˆρ(0) ˆρ(1) ˆρ(1) ˆρ(0) × ˆφ1 ˆφ2 P´agina 40 de 47
  • 41. Vin´ıcius M. de Sousa K A tabela 6 mostra o resultado das autocorrela¸c˜oes estimadas. Tabela 6: Rho’s estimados Estimados rho(0) 1 rho(1) 0.297 rho(2) -0.431 Resolvendo o sistema, 0.297 −0.431 = 1 0.297 0.297 1 × ˆφ1 ˆφ2 (92) temos os coeficientes autoregressvivos estimados ˆφ1 = 0.466 (93a) ˆφ2 = −0.569 (93b) 13.4.2 Variˆancia do Res´ıduo Estimados os coeficientes autoregressivos vamos agora estimar a variˆancia do res´ıduo. De 90b temos que, ˆσ2 = ˆρ(1) ˆρ(2) ( 1 0.297 0.297 1 −1 ) ˆρ(1) ˆρ(2) (94) Efetuando os c´alculos chegamos ao resultado ˆσ2 = 0.234 (95) 14 Exemplo: Eficiˆencia dos algor´ıtmos Contextualizac¸ ˜ao A ideia desta se¸c˜ao ´e mostrar ao leitor como os algoritmos s˜ao mais eficientes do que a an´alise por n´os feita de s´eries temporais. Vamos analisar a rentabilidade acumulada mensal P´agina 41 de 47
  • 42. Vin´ıcius M. de Sousa K do fundo de a¸c˜oes do Banco Central do Brasil17, entre Jan/1992 e Jul/2016. O exerc´ıcio ser´a realizado da seguinte maneira; (i) cortaremos um peda¸co da s´erie temporal: (ii) estimaremos os modelos em cima do corte, i.e., usando apenas um peda¸co das observa¸c˜oes a nossa disposi¸c˜ao: (iii) faremos a previs˜ao do rendimento com base nos modelos estimados: (iii) visualizaremos os resultados. Exemplo Come¸camos analisando o gr´afico dos rendimendos. A figura 20 nos mostra isso. Percebe-se claramento que a s´erie n˜ao ´e estacion´aria18, por´em ao inv´es de tirarmos a primeira diferen¸ca, desta vez vamos diminuir a s´erie para o per´ıodo de 2002 `a 2016 e ent˜ao testaremos a estacionaridade. O teste de estacionaridade ´e novamente o Dickey-Fuller aumentado e seu valor p ´e 0.01, que ´e menor do 0.05, ent˜ao rejeitamos a hip´otese nula de n˜ao estacionaridade. −20 0 20 40 60 1995 2000 2005 2010 2015 Time Rendimentoacumulado(%) Figura 20: Rendimento acumulado do fundo de a¸c˜oes do BCB Podemos agora analisar as fun¸c˜oes de autocorrela¸c˜ao e autocorrela¸c˜ao parcial. Analisando a figura 21 percebemos que: a) A FAC ´e truncada na primeira defasagem. b) A FACP ´e sazonal e pode-se considerar ela toda sendo insignificante. Tendo como base a tabela 3 vamos estimar o modelo 1 como SARIMA(1, 0, 0)(2, 0, 0)s=12, denominado de ‘mod1’, ser´a estimado tamb´em o modelo 2 SARIMA(1, 0, 1)(1, 0, 1)s=12, 17 S´erie nº 7834 do sistema gerenciador de s´eries temporais do Banco Central do Brasil. 18 Qual condi¸c˜ao vemos ‘de cara’ que ´e violada? P´agina 42 de 47
  • 43. Vin´ıcius M. de Sousa K denominado de ‘mod2’ para compararmos os crit´erios de informa¸c˜ao19. A figura 22 estima os modelos assim como traz os resultados obtidos. −0.20.00.2 Lag FAC 0 12 24 36 −0.20.00.2 Lag FACP 12 24 36 Figura 21: FAC e FACP do rendimento do fundo de a¸c˜oes (40 defasagens) Como observa-se, dois dos trˆes crit´erios de informa¸c˜ao s˜ao menores para o mod2 em rela¸c˜ao ao mod1 e, portanto, o modelo SARIMA(1, 0, 1)(1, 0, 1)s=12 ´e o que melhor se ajusta aos dados. Vamos agora usar o algor´ıtmo de Hyndman and Khandakar (2008), denominaremos esse de ‘mod3’, e comparar os crit´eios de informa¸c˜ao. A figura 23 traz os resultados e o modelo escolhido foi SARIMA(1, 0, 2)(1, 0, 0)s=12. Todos os crit´erios de informa¸c˜ao apontam que o algor´ıtmo superou a capacidade de an´alise do autor. Al´em disso, percebos que o segundo dos dois modelos propostos pelo autor, SARIMA(1, 0, 1)(1, 0, 1)s=12, apresentou melhores crit´erios de informa¸c˜ao em compara¸c˜ao com o primeiro modelo proposto. 19 Esses modelos foram escolhidos pelo autor, nada impedindo que outros fossem testados, aqui est´a aquele toque de ‘arte’. P´agina 43 de 47
  • 44. Vin´ıcius M. de Sousa K mod1 <- Arima(corte,order = c(1,0,0),seasonal = c(2,0,0)) mod1 ## Series: corte ## ARIMA(1,0,0)(2,0,0)[12] with non-zero mean ## ## Coefficients: ## ar1 sar1 sar2 mean ## 0.0759 0.1172 -0.0485 1.0139 ## s.e. 0.0810 0.0801 0.0860 0.3778 ## ## sigma^2 estimated as 19: log likelihood=-504.05 ## AIC=1018.1 AICc=1018.45 BIC=1033.92 mod2 <- Arima(corte,order = c(1,0,1),seasonal = c(1,0,1)) mod2 ## Series: corte ## ARIMA(1,0,1)(1,0,1)[12] with non-zero mean ## ## Coefficients: ## ar1 ma1 sar1 sma1 mean ## 0.6711 -0.5439 -0.5770 0.7295 1.0281 ## s.e. 0.1765 0.1937 0.3134 0.2757 0.4836 ## ## sigma^2 estimated as 18.52: log likelihood=-501.62 ## AIC=1015.25 AICc=1015.75 BIC=1034.24 Figura 22: SARIMAS’s escolhidos pelo autor mod3 <- auto.arima(corte) mod3 ## Series: corte ## ARIMA(1,0,2)(1,0,0)[12] with non-zero mean ## ## Coefficients: ## ar1 ma1 ma2 sar1 mean ## 0.4233 -0.3829 0.1699 0.1409 1.0322 ## s.e. 0.2481 0.2461 0.0834 0.0808 0.5017 ## ## sigma^2 estimated as 18.5: log likelihood=-501.24 ## AIC=1014.49 AICc=1014.99 BIC=1033.47 Figura 23: Modelo escolhido pelo algor´ıtmo Por fim, terminamos mostrando como a previs˜ao de s´eries temporais n˜ao deve ser tratado como algo determinpistico. A figura 24 traz o plot dos rendimentos observados, dos valores ajustadados pelos modelos do autor e do algor´ıtmo para o corte e a previs˜ao que cada modelo fez. Visualmente vemos que as m´edias dos intervalos de confian¸ca do modelo estimado pelo autor s˜ao menores do que o estimado pelo algor´ıtmo, mesmo apresentando P´agina 44 de 47
  • 45. Vin´ıcius M. de Sousa K crit´erios de informa¸c˜oes piores. Deve modo, podemos concluir que quando o n´umero de s´eries que ser˜ao an´alisadas for pequeno, ´e razoav´el levar em conta a an´alise feita por vocˆe, entretando quando n´umero de s´eries ´e grande a utiliza¸c˜ao dos algor´ıtmos supera a eficiˆencia - pois lembre-se que eficiˆencia est´a relacionado ao tempo necess´ario para fazer algo, e claramente ao analisar um n´umero de grande de s´eries os algor´ıtmos o fazem de maneira mais r´apida - de nossa an´alise. P´agina 45 de 47
  • 46. Vin´ıcius M. de Sousa K −20 0 20 40 60 2000 2010 Rendimentoacumulado(%) level 80 95 series Modelo Observados Modelo SARIMA(1,0,1)(1,0,1)_{s=12} −20 0 20 40 60 2000 2010 Rendimentoacumulado(%) level 80 95 series Modelo Observados Modelo SARIMA(1,0,2)(1,0,0)_{s=12} Figura 24: Gr´afico “Autor vs. Algor´ıtmo”(linha preta=previs˜ao) P´agina 46 de 47
  • 47. Vin´ıcius M. de Sousa K Referˆencias Akaike, H. (1974). A new look at the statistical model identification. IEEE transactions on automatic control, 19(6):716–723. Bartlett, M. S. (1946). On the theoretical specification and sampling properties of autocorrelated time-series. Supplement to the Journal of the Royal Statistical Society, 8(1):27–41. Brockwell, P. J. and Davis, R. A. (2002). Introduction to time series and forecasting. Springer, 2nd edition. Enders, W. (2014). Applied Econometric Time Series. Wiley Series in Probability and Statistics. Wiley, 4 edition. Hyndman, R. J. and Khandakar, Y. (2008). Automatic time series forecasting: the forecast package for R. Journal of Statistical Software, 26(3):1–22. Nelson, C. R. (1976). The interpretation of r 2 in autoregressive-moving average time series models. The American Statistician, 30(4):175–180. Schwarz, G. (1978). Estimating the dimension of a model. The annals of statistics, 6(2):461–464. Vandaele, W. (1983). Applied time series and box-jenkins models. Technical report. Vasconcellos, M. A. S. and Alves, D. (2000). Manual de econometria. S˜ao Paulo: Atlas. Walker, G. (1931). On periodicity in series of related terms. Proceedings of the Royal Society of London. Series A, Containing Papers of a Mathematical and Physical Character, 131(818):518– 532. Yule, G. U. (1927). On a method of investigating periodicities in disturbed series, with special reference to wolfer’s sunspot numbers. Philosophical Transactions of the Royal Society of London. Series A, Containing Papers of a Mathematical or Physical Character, 226:267–298. P´agina 47 de 47