SlideShare uma empresa Scribd logo
1 de 98
Capitulo 9: Modelos unívariados
de series temporales
Procesos estocásticas
Función de autocovarianza, autocorrelación y autocorrelación parcial.
Procesos de ruido blanco y paseo aleatorio
Teorema de Wold
Procesos AR(p)
Procesos MA(q)
Procesos ARMA(p,q)
Procesos ARIMA(p,d,q)
Procesos estocásticos
• Definición: Un proceso estocástico es una
sucesión de variables aleatorias ordenadas
en el tiempo (en el caso de series
temporales).
• Definición: Una serie temporal es una
realización del proceso estadístico, es decir,
es una observación de T variables aleatorias
ordenadas en el tiempo.
Restricciones a la heterogeneidad
temporal del proceso.
Restricciones de Estacionaridad
• Definición: Un proceso estocástico es
estacionario en sentido estricto o fuerte cuando
la distribución de probabilidad conjunta de
cualquier parte de la secuencia de variables
aleatorias es invariante del tiempo.
),...,,(),...,,( 11 τττ +++++++ = ktttkttt xxxFxxxF
Restricciones a la heterogeneidad
temporal del proceso.
• Definición: Un proceso estocástico es
estacionario en sentido débil si los
momentos del primero y segundo orden
de la distribución (esperanzas, varianzas,
covarianzas) son constantes a largo del
tiempo.
• para todos los .
• para todos y .
∞<=−
∞<=
22
)(
,)(
σµ
µµ
tt
t
xE
xE
( )( )[ ] ∞<=−− ++ ττττ γγµµ ,tttt xxE
t
τt
Restricciones a la heterogeneidad
temporal del proceso.
• Restricciones de memoria del proceso, ergodicidad.
• La relación entre dos variables aleatorios de un proceso
es más débil cuando las variables son más lejanas en el
tiempo.
• Al aumentar el número de observaciones de la serie
temporal aumenta el número de covarianzas, pero no el
número de parámetros de estimar.
0lim =
∞→
τ
τ
γ
Restricciones a la heterogeneidad
temporal del proceso.
• Definición: Homogenización de una serie
temporal es cuando a través de una
transformación el serie temporal es
estacionar.
• Queremos tener una serie temporal con
una media y varianza (más o menos)
constante a largo del tiempo.
Restricciones a la heterogeneidad
temporal del proceso.
• Transformación Box-Cox:




=
≠
−
=
0ln
0
1
)(
λ
λ
λ
λ
λ
six
si
x
x
t
t
t
Restricciones a la heterogeneidad
temporal del proceso.
Para conseguir una media constante a largo del tiempo se puede aplicar operadores de
diferencia, . , donde es el operador de retardo. .
Una media estacionaria se puede conseguir a través diferenciaciones sucesivas.
Las funciones de autovarianza y
autocorrelación
• Funciones de autocorrelación miden la
relación lineal entre variables aleatorias
de procesos separadas de una cierta
distancia en el tiempo.
• Estimación de estas funciones permiten
determinar la forma del procesos
estocástico.
Las funciones de autovarianza y
autocorrelación
• La función de autocovarianza
Si el proceso es estacionario, su esperanza
es constante a largo del tiempo, y la
función de autocovarianza no depende del
momento en tiempo, sólo la distancia
temporal.
,...1,0,1...,
)])([(),(,
−=
−−== +++
τ
µµγ ττττ ttttttt xxExxCov
)])([( µµγ ττ −−= +tt xxE
Las funciones de autovarianza y
autocorrelación
• Para cada retardo hay un valor diferente
para la función de autocovarianzas,
autocovarianza de orden .
• Función de autocorrelación simple (FAS),
τ
22
,
,
)()(
)])([(
ττ
ττ
τ
τ
τ
µµ
µµ
γγ
γ
ρ
++
++
+ −−
−−
==
tttt
tttt
tt
t
t
xExE
xxE
Las funciones de autovarianza y
autocorrelación
• Si el proceso es estacionario, los
momentos de segunda orden no depende
de .
• Una correlograma enseña la FAS en
función de .
t
2
0 )(
)])([(
µ
µµ
γ
γ
ρ ττ
τ
−
−−
== +
t
tt
xE
xxE
τ
Las funciones de autovarianza y
autocorrelación
• La función de autocorrelación parcial
(FAP) enseña la relación lineal cuando se
ha eliminado la correlación que estas
variables tienen con otras variables.
),...,|,( 11 +−−−= kttkttkk xxxxCorrφ
Las funciones de autovarianza y
autocorrelación
• Se puede obtener los coeficientes de FAS a
través regresiones.
• Nota: Si la esperanza de no es cero, hay
que añadir una constante en cada regresión.
)ˆ()ˆ(
))ˆ(),ˆ((
ktkttt
ktkttt
kk
xxVarxxVar
xxxxCov
−−
−−
−−
−−
=φ







++++=
++=
+=
−−−
−−
−
tktkktktkt
tttt
ttt
vxxxx
vxxx
vxx
φφφ
φφ
φ
...2211
222121
111

tx
Las funciones de autovarianza y
autocorrelación
• Se puede demostrar que los coeficientes
de FAS se pueden escribir como una
función de coeficientes de FAP. Esta
relación se llama el sistema de
ecuaciones de Yule-Walker.
Estimación de los momentos
muéstrales
• Para un proceso estocástico estacionario con
ergodicidad, con una sola serie temporal, podemos
estimar;
Media ( ) ( )
Varianza ( )
Autocovarianzas ( )
Autocorrelaciones ( )
Autocorrelaciones parciales ( )
La función de autocovarianza
• La función de autocovarianza se puede
estimar a través de la función de
autocovarianza muestral:
))((ˆ
1
1
xxxxT t
T
t
t −−= +
−
=
−
∑ τ
τ
τγ
Función de autocorrelacion simple
• Función de autocorrelacion simple
muestral,
2
1
1
0
)(
))((
ˆ
∑
∑
=
+
−
=
−
−−
=== T
t
t
t
T
t
t
xx
xxxx
r
τ
τ
τ
ττ
γ
γ
ρ
Función de autocorrelacion simple
Si el proceso es a) estacionario gaussiano (normal) y b) para , se puede
estimar la varianza de con esta formula,






+≅ ∑
−
=
1
1
2
21
1
)(
τ
τ
i
ir
T
rV
Se puede usar la varianza para contrastar la . donde
es el error estándar. Rechazamos la hipótesis si es fuera del intervalo
( ).
función de autocorrelación parcial
• Para hacer la función de autocorrelación parcial
muestral se puede aplicar MCO.







+++++=
+++=
++=
−−−
−−
−
tktkktktkt
tttt
ttt
vxxxcx
vxxcx
vxcx
φφφ
φφ
φ
...2211
222121
111

Donde son estimaciones consistentes de la FAP. Bajo los supuestos que el
proceso es gaussiano (normal) y que , se puede estimar la varianza
con,
de manera que si está fuera del intervalo ( )
rechazamos la hipótesis que .
Procesos de ruido blanco
Definición:
• es un proceso estocástico de ruido
blanco si;
• Es un proceso con media = 0, varianza
constante, y sin autocorrelación. No se
puede predecir a partir de su pasado.
{ }T
tt 1=
ε





≠==
==
=
+ 00)(
)()(
0)(
22
τγεε
σεε
ε
ττ
ε
yttodosparaE
ttodosparaVE
ttodosparaE
tt
tt
t
Procesos de paseo aleatorio
Definición (18)
• Un proceso estocástico sigue un paseo
aleatorio si;
• El valor en un momento es el valor del
periodo anterior más un efecto aleatorio
ruido blanco.
blancoruidoesdonde
xx
t
ttt
ε
ε+= −1
ttttt xLxxx ε=−=∆=− − )1(1
Procesos de paseo aleatorio
Procesos de paseo aleatorio
• Se puede generalizar el modelo e
incorporar una deriva.
ttt
tt
xx
x
εδ
εδ
++=
+=∆
−1
Procesos de paseo aleatorio
• Memoria permanente; todo los efectos
aleatorios tienen un efecto permanente.
• es una pendiente de una tendencia
determinista.
• está formado por la suma de todo las
perturbaciones pasadas.
∑
−
=
−
−−−
++=
=++++=++=
1
0
0
121 ...)(
t
j
jt
tttttt
tx
xxx
εδ
εδεδεδ
δ
tx
Procesos de paseo aleatorio
• El primero momento;
• Si el proceso no es estacionario en
media.
txtxExE
t
j
jtt δεδ +=







++= ∑
−
=
− 0
1
0
0)(
0≠δ
Procesos de paseo aleatorio
• La varianza;
• No es estacionario en varianza; tiene una tendencia
(incrementa linealmente). Paseo aleatorio tiene una
tendencia en varianza o tendencia estocástica.
t
EE
ExExE
t
j
jt
t
jj
jj
jtjt
t
j
jt
t
j
jtttt
2
1
0
2
1
'
0',
'
1
0
2
2
1
0
2
0,
)(2
))((
εσ
εεεε
εγ
=
=










+=








=−=
∑∑∑
∑
−
=
−
−
<
=
−−
−
=
−
−
=
−
es ruido blanco, y
Procesos de paseo aleatorio
• Otra manera de llegar al mismo resultado;
Procesos de paseo aleatorio
• Autocovarianza;
• La autocovarianza tampoco es constante
[ ]
)(
)(
))())(((
2
1
0
2
1
0
1
0
,
τσ
εεε
γ
ε
ττ
τ
τττ
−=
=
























=
−−=
∑∑∑
−−
=
−
−−
=
−−
−
=
−
−−
t
EE
xExxExE
t
j
jt
t
j
jt
t
j
jt
ttttt
Procesos de paseo aleatorio
• Conclusión: Paseo aleatorio no es
estacionar. Esto complica la inferencia. De
todos modos, hay un camino definida de
variación a largo del tiempo.
Procesos de paseo aleatorio
• Si transformamos el proceso a través de una
diferencia, la transformación sería estacionaria.
ttt xw εδ +=∆=
es estacionario; es un ruido blanco alrededor de la media, .
Procesos de paseo aleatorio
• Es importante detectar si un serie está generada
por un pasea aleatorio.
• 1) La función de autocorrelación simple puede
dar una indicación.
• Una correlograma presentará los primeros
coeficientes muy cerca de 1, y esta va
decreciendo suavemente.
ttt
t
tt
t
tt
t
t
τ
τ
τ
τσσ
τσ
γγ
γ
ρ
εε
ε
τ
τ
τ −=
−
−
=
−
−
==
−
1
)(
)(
)(
)(
22
2
0,0,
,
,
Procesos de paseo aleatorio
• La FAP, resultaría en un primero
coeficiente significativo y cerca de uno,
mientras los siguientes coeficientes serán
cero.







+++++=
+++=
++=
−−−
−−
−
tktkktktkt
tttt
ttt
uxxxcx
uxxcx
uxcx
φφφ
φφ
φ
...2211
222121
111

Procesos de paseo aleatorio
• Normalmente un FAS que está
decreciendo muy lento con un primer FAP
cerca uno y los restos cero, indica que
podemos diferenciar para conseguir un
serie temporal estacionario.
Procesos de paseo aleatorio
• Otra manera para saber si se debe diferenciar
una serie temporal son los contrastes de raíces
unitarias.
• Constaste de raíces unitarias. “unit roots”.
Estima la ecuación;
ttt xx εδφ ++= −1
Y contrastar si
Procesos lineales
• Definición: Un proceso estocástico
es lineal cuando lo podemos escribir
como una función de una combinación
lineal (posiblemente infinita) de variables
aleatorios de ruido blanco.
{ }T
tt 1=
ε
∑
∞
=
−
−−
=
+++=
0
2211 ...
j
jtj
ttttx
εψ
εψεψε
Procesos lineales
• Hay tres tipos de procesos estocásticos lineales;
• Autoregresivas (AR)
• Media móvil (MA)
• ARMA (la combinación de AR y MA)
qtqttptptt
qtqtttt
tptpttt
xxxqpARMA
xqMA
xxxxpAR
−−−−
−−−
−−−
−−−+++=
−−−−=
++++=
εθεθεφφ
εθεθεθε
εφφφ
......);,(
...);(
...);(
1111
2211
2211
es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”).
Procesos lineales
• Se puede introducir una constante para tener
procesos con una media .
• Se puede expresar los procesos con un
polinomio de operadores de retardos. El
operador de retardos L esta definido por;
• Este operador retarda la serie tantas periodos
como el exponente indica.
0≠
δ
ktt
k
tt
xxL
xLx
−
−
=
= 1
k
Procesos lineales
• Utilizando el operador de retardos y la
generalización con el constante, ,
podemos escribir los procesos:
• Se puede transformar procesos AR y
ARMA en procesos MA.
δ
tqtp
tqt
ttp
LxLqpARMA
LxqMA
xLpAR
εθδφ
εθδ
εδφ
)()();,(
)();(
)();(
+=
+=
+=
móvilmediapolinomioLLLL
sivoautoregrespolinomioLLLL
q
qp
p
pp
θθθθ
φφφφ
−−−−=
−−−−=
...1)(
...1)(
2
21
2
21
Procesos lineales
Teorema de Wold. Cualquier proceso
estocástico estacionario se puede
representar con una suma de dos
procesos.
Donde es linealmente determinista y
es un proceso :
Donde es ruido blanco.
ttt udx +=
td tu
)(∞MA
∑
∞
=
−
∞=
0
)(
j
jtj
tt Lu
εψ
εψ
tε
Procesos lineales
• El proceso se puede aproximar a través
modelos lineales, cuando el polinomio infinito
se puede aproximar bien con un cociente de
dos polinomios en
• Transformaciones puede hacer series
estacionarios y la teorema permite crear
modelos relativamente sencillas a partir de
modelos lineales.
)(∞MA
)(L∞ψ
)(
)(
)(:
L
L
LL
p
q
φ
θ
ψ ≅∞
Procesos autoregresivos (AR)
• Un proceso autoregresivo se puede
escribir,
εφφφδ
εδφφφ
εδφ
+−−−+=
+=−−−−
+=
−−− ptpttt
tt
p
p
ttp
xxxx
xLLL
xL
...
)...1(
)(
2211
2
21
Procesos autoregresivos (AR)
• Para que un proceso AR sea estacionario el
polinomio en el operador de retardos
asociados al proceso tiene que ser estable, es
decir, al calcular las raíces del polinomio,
estas tienen de caer fuera del círculo unidad. Los
valores de que satisfacen esto cumple .
)(Lpφ
0)...1()( 2
21 =−−−−= p
pp LLLL φφφφ
L 1>L
Procesos autoregresivos (AR)
• Si hay alguno raíz igual a 1 (raíz unitario)
el proceso AR no es estacionario, y no se
pueden expresar como procesos . Si
hay alguna raíz inferior a 1 el proceso
será explosivo y tampoco estacionario.
)(∞MA
Procesos autoregresivos (AR)
• Las condiciones para estacionariedad
son:
• (necesaria, pero no suficiente):
• (suficiente, pero no necesario):
1
1
<∑=
p
j
jφ
1
1
<∑=
p
j
jφ
Procesos autoregresivos (AR)
• AR(1) estacionariedad
• Condición necesaria y suficiente:
tt
ttt
xL
xx
εδφ
εφδ
+=−
++= −
)1(
11
1<φ
Procesos autoregresivos (AR)
• Un proceso estacionario se puede
escribir como un proceso .
• Se puede llegar a la misma solución a
través de substitución recursiva.
)1(AR
)(∞MA
jt
j
j
t
t
t LL
L
x
−
∞
=
∑+
−
=
++++=
−
+
=
εφ
φ
δ
εδφφ
φ
εδ
0
22
1
)...)(1(
)1(
.1 ttt xx εφδ ++= −
Procesos autoregresivos (AR)
• La solución se usa para calcular los momentos
del proceso. También se puede usar para
enseñar el siguiente resultado, valido por .0>h
0...
1
)( 2
2
1 =











++++
−
= +−−+ htttthtt ExE εεφφεε
φ
δ
ε
Dado que para todos .
Procesos autoregresivos (AR)
• El momento de primer orden es;
• Con estacionariedad
tenemos el mismo resultado;
φ
δ
εφ
φ
δ
µ
−
=







+
−
== −
∞
=
∑ 11
)(
0
jt
j
j
t ExE
))()(( 1 µ== −tt xExE
1
1 )1()()( −
− −=+=++== φδφµδεφδµ ttt xExE
Procesos autoregresivos (AR)
• La varianza del proceso es;
• También se puede llegar a este resultado
a través;
2
2
2
0
2
2
0
2
0
1
)(
φ
σ
σφεφµγ ε
ε
−
==







=−= ∑∑
∞
=
−
∞
= j
j
jt
j
j
t ExE
1222
0
2
10 )1()()( −
− −=+=++== φσσγφεφδγ εεttt xVxV
Procesos autoregresivos (AR)
• La autocovarianza del proceso es,
donde; indica la desviación con
respecto a la media.
tx~
01
0
2
12122
01111
)~)~(()~~(
)~)~(()~~(
)~)~(()~~(
γφφγεφγ
γφφγεφγ
φγεφγ
τ
ττττ ==+==
==+==
=+==
−−−
−−−
−−−
ttttt
ttttt
ttttt
xxExxE
xxExxE
xxExxE

Procesos autoregresivos (AR)
• La función de autocorrelación simple es;
• y tiene un decrecimiento exponencial.
• FAP, al otro lado, sólo tiene un coeficiente
diferente de cero. Se puede demostrar con las
ecuaciones de Yule-Walker.
ττ
τ φ
γ
γ
ρ ==
0
Procesos autoregresivos (AR)
Procesos autoregresivos (AR)
• AR(2):
• Al calcular las raíces del polinomio
tendríamos dos soluciones
y hay los siguientes requisitos
(simultáneamente) para tener un
polinomio estable.
)1()(
)(
)1(
2
212
2
2
21
2211
LLLdonde
xL
xLL
xxx
tt
tt
tttt
φφφ
εδφ
εδφφ
εφφδ
−−=
+=
+=−−
+++= −−
0)1( 2
21 =−− LL φφ
1
1
1
2
12
12
<
<+
<−
φ
φφ
φφ
Procesos autoregresivos (AR)
• Los resultados para la covarianza de
AR(1) se puede generalizar.
Procesos autoregresivos (AR)
Procesos media móviles (MA(q))
• Un proceso media móvil de orden q;
• Estos procesos siempre son estacionarios (los
momentos de primer y segundo orden son
siempre finitas y constantes a largo del tiempo).
• Una condición (que hay que comprobar) para
estos procesos es que son invertibles.
tq
qtqtttt
L
x
εθδ
εθεθεθεδ
)(
...2211
+=
−−−−+= −−−
Procesos media móviles (MA(q))
• Esta condición implica que las raíces del
polinomio están fuera del círculo de
unidad. Los procesos MA no invertibles no
permiten una representación
autoregresiva convergente.
)(Lqθ
Procesos media móviles (MA(1))
• MA(1):
• La condición de invertibilidad es para un
proceso MA(1) es .
• Esperanza:
11 −−+= tttx εθεδ
1<θ
δεθεδµ =−+== − )()( 11 ttt ExE
Procesos media móviles (MA(1))
• Varianza:
• Autocovarianza:
( ) 22
1
11
2
1
2
1
22
11
2
0
1
)(2)()()()(
εσθ
εεθεθεεθεµγ
+=
−+=−=−= −−− ttttttt EEEExE
[ ] [ ]
[ ] [ ]
20
0))(())((
))(())((
3121122
2
12111111
≥∀=
=−−=−−=
−=−−=−−=
−−−−
−−−−
τγ
εθεεθεµµγ
σθεθεεθεµµγ
τ
ε
tttttt
tttttt
ExxE
ExxE
Procesos media móviles (MA(1))
• FAS es:
• La FAP presenta un decrecimiento exponencial;
• Se puede llegar a este resultado general con las
ecuaciones de Yule-Walker.




≥
=
+
−
=
20
1
)1( 2
1
1
τ
τ
θ
θ
ρτ
)1(2
1
2
11
1
)1(
+
−
−
−= k
k
kk
θ
θθ
φ
Procesos media móviles (MA(1))
6
1
4
1
2
1
3
1
2
2
1
1
3
2
1
1
2
1
3
1
2
2
2
12
2
1
3
2
121
2
21
3
13
33
4
1
2
1
2
1
2
1
2
12
22
2
1
1
11
1
1
21
1
21221
2
11
1
θθθ
θ
θ
θ
θ
θ
ρ
ρ
ρρρρ
ρρρρρρρρ
φ
θθ
θ
ρ
ρρ
φ
θ
θ
ρφ
+++
=






+
−−






+
−
=
−
−=
−−+
−−++
=
++
−=
−
−
=
+
−==
Procesos media móviles (MA(1))
Procesos media móviles (MA(2))
• Calcular las raíces del polinomio.
0)1( 2
11 =−− LL θθ
Procesos media móviles (MA(2))
• Para tener un modelos estable;
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
• Función de autocorrelación simple
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(q))
• MA(q) con deriva:
• (el mismo resultado)
δεθεθεθεδµ =−−−−+== −−− )()( 2211 qtqtttt ExE 
( ) 222
2
2
1
2
2211
2
0
1
)()(
εσθθθ
εθεθεθεµγ
q
qtqtttt ExE
++++=
=−−−−=−= −−−


Procesos media móviles (MA(q))
[ ] [ ]



>
≤+++−
=
−−−−−−−−=−−=
−+
−−−−−−−−−−−
qsi
qsi
ExxE
qq
qtqtttqtqttttt
τ
τσθθθθθ
εθεθεθεεθεθεθεµµγ
ετττ
τττττ
0
)(
))(())((
2
11
121122111


Procesos media móviles (MA(q))
Procesos autoregresivos media
móviles (ARMA(p,q))
• Un modelo autoregresivo media móvil
(ARMA(p,q)) sigue la forma;
• Es decir, tiene una parte autoregresivo y otra
parte media móvil.
Procesos autoregresivos media
móviles (ARMA(p,q))
• Debemos comprobar si la parte
autoregresiva es estacionaria y la parte
media móvil es invertible.
• Si la parte AR es estacionario, se puede
escribir como un )(∞MA
Procesos autoregresivos media
móviles (ARMA(p,q))
• Si la parte MA es invertible, se puede
expresarlo como un )(∞AR
Procesos autoregresivos media
móviles (ARMA(p,q))
• Los procesos ARMA tienen un FAS como
la de su parte AR y una
• FAP como su parte MA.
• ARMA tiene FAS y FAP que decrecen
exponencialmente en valor absoluta hacia
cero.
• No se puede determinar el orden.
Procesos autoregresivos media
móviles (ARMA(p,q))
ARMA(1,1)
• FAS:
111 −− −++= tttt xx εθεφδ
δφµ 1
1)1( −
−=
2
2
1
2
111
0
1
21
εσ
φ
θθφ
γ
−
+−
=




>
=
+−
−−
=
− 1
1
21
))(1(
11
2
111
1111
τρφ
τ
θθφ
θφθφ
ρ
τ
τ
ARMA(1,1)
ARMA(p,q)
• Representar con :
δφµ 1
)1( −
= p
)(∞MA
t
j
jtjt Lx εψµεψµ )(
0
∞
∞
=
− +=+= ∑
∑
∞
=
=−=
0
222
0 )(
j
jtxE ψσµγ ε
Procesos autoregresivos
integrados media móvil;
ARIMA(p,d,q)
• Procesos ARIMA presentan raíces
unitarias en el polinomio autoregresivo; no
son estacionarios. Se puede factorizar
a partir de las raíces unitarias. Podemos
escribir;
• Donde no incluye raíces unitarias y
es el número de raíces unitarias.
)(*
Lrφ
)()1()(*
LLL dr
d
r −−= φφ
)(*
Ldr−φ d
Procesos autoregresivos
integrados media móvil;
ARIMA(p,d,q)
• Recuerda el operador de diferencias;
ARIMA(p,d,q)
• Por ejemplo, ARIMA(0,1,0) es un paseo
aleatorio.
ARIMA(p,d,q)
• Si una serie presenta un correlograma
como un AR(1) con ; FAS está muy
cerca 1, y no caen rápidamente.
1=φ
ARIMA(p,d,q)
• Si aplicamos el operador de diferencia
cuando no es necesario (sobre-
diferenciar), tendremos un MA(1) que no
es invertible.
• Por ejemplo: Ruido blanco;
ARIMA(p,d,q)
• Cuando el orden de diferencia se ha
decidido , se puede escribir un
procesos ARIMA como o un .)(∞AR )(∞MA
Procesos estaciónales
• Si tenemos datos con información de varias ocasiones
durante un año, podemos observar estacionalidad, es
decir, un comportamiento económico que depende del
tiempo durante un año. (Ejemplos; temperaturas,
vacaciones, movimientos turísticos). Los procesos
anteriores están pensados para series con sólo una
observación cada año, o series sin estacionalidad.
• El numero de estaciones durante el año llamamos s. Por
ejemplo, S=12 para datos mensuales, o 4 para
trimestrales. Se puede generalizar los procesos explicas
arriba para captar estacionalidad.
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales
• Una serie temporal con estacionalidad puede
tener una estructura de dependencia estacional
y otra parte regular (no estacional) que sigue un
• Normalmente estos partes pueden interactuar
en una especificación multiplicativa. Este es un
modelo
Procesos estaciónales
• En estos modelos hay “efectos satélites”.
• Por ejemplo
• Nota el término que se nota en
FAP y FAS asociados los retardos próximos a
los múltiples de S, pero esto no significa que
tengamos procesos adicionales de MA(0,1) y
SMA(0,1).
Procesos estaciónales
• FAS: Se reproduce la parte regular de la FAS
alrededor de los coeficientes estaciónales.
• FAP: Se reproduce la parte regular de la FAS
a la izquierda de los coeficientes estaciónales
y la parte de FAP a la derecha.
• Signos:
– En FAS se multiplica el signo del coeficientes
estacional por el de regular.
– En FAP, si el signo del coeficiente estacional es
positivo se inversa el signo a la parte derecha (FAP
regular) mientras si es negativo, se inversa el de la
izquierda (FAS regular).
Procesos estaciónales

Mais conteúdo relacionado

Mais procurados

Electiva III Ingenieria Economica, calculo del flujo de efectivo
Electiva III Ingenieria Economica, calculo del flujo de efectivoElectiva III Ingenieria Economica, calculo del flujo de efectivo
Electiva III Ingenieria Economica, calculo del flujo de efectivoEvalunaSalazar
 
Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)nicolasajzenman
 
Clase9 Esperanza condicional y modelo de regresión
Clase9 Esperanza condicional y modelo de regresión Clase9 Esperanza condicional y modelo de regresión
Clase9 Esperanza condicional y modelo de regresión Nerys Ramírez Mordán
 
Solucionario de econometria
Solucionario de econometriaSolucionario de econometria
Solucionario de econometriasistemasutb
 
Programacion lineal entera invope
Programacion lineal entera invopeProgramacion lineal entera invope
Programacion lineal entera invopeDeysi Tasilla Dilas
 
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxYeferQuion
 
Ejercicios resueltos de economia
Ejercicios resueltos de economiaEjercicios resueltos de economia
Ejercicios resueltos de economiaoflorellana
 
Acemoglu.resumen.porque fracasan los paises.
Acemoglu.resumen.porque fracasan los paises.Acemoglu.resumen.porque fracasan los paises.
Acemoglu.resumen.porque fracasan los paises.Angeles Ramon
 
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”vanessa sobvio
 
Balanza de pagos: Enfoque Monetario
Balanza de pagos: Enfoque MonetarioBalanza de pagos: Enfoque Monetario
Balanza de pagos: Enfoque MonetarioLenin Torres Acosta
 

Mais procurados (20)

Modelos Logit y Probit con Stata
Modelos Logit y Probit con StataModelos Logit y Probit con Stata
Modelos Logit y Probit con Stata
 
recta presupuestaria
recta presupuestariarecta presupuestaria
recta presupuestaria
 
Microeconomía Cap. 3 El productor
Microeconomía Cap. 3 El productorMicroeconomía Cap. 3 El productor
Microeconomía Cap. 3 El productor
 
Electiva III Ingenieria Economica, calculo del flujo de efectivo
Electiva III Ingenieria Economica, calculo del flujo de efectivoElectiva III Ingenieria Economica, calculo del flujo de efectivo
Electiva III Ingenieria Economica, calculo del flujo de efectivo
 
Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)Notas de Clase Econometria - Modelos MA(p)
Notas de Clase Econometria - Modelos MA(p)
 
Clase9 Esperanza condicional y modelo de regresión
Clase9 Esperanza condicional y modelo de regresión Clase9 Esperanza condicional y modelo de regresión
Clase9 Esperanza condicional y modelo de regresión
 
ECONOMÍA POLÍTICA CAPÍTULO 7. EL DINERO Y LA POLÍTICA MONETARIA
ECONOMÍA POLÍTICA CAPÍTULO 7. EL DINERO Y LA POLÍTICA MONETARIAECONOMÍA POLÍTICA CAPÍTULO 7. EL DINERO Y LA POLÍTICA MONETARIA
ECONOMÍA POLÍTICA CAPÍTULO 7. EL DINERO Y LA POLÍTICA MONETARIA
 
Solucionario de econometria
Solucionario de econometriaSolucionario de econometria
Solucionario de econometria
 
MONOPOLIO
MONOPOLIOMONOPOLIO
MONOPOLIO
 
Microeconomía Cap. 6 Monopolio
Microeconomía Cap. 6 MonopolioMicroeconomía Cap. 6 Monopolio
Microeconomía Cap. 6 Monopolio
 
Programacion lineal entera invope
Programacion lineal entera invopeProgramacion lineal entera invope
Programacion lineal entera invope
 
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
 
Ejercicios resueltos de economia
Ejercicios resueltos de economiaEjercicios resueltos de economia
Ejercicios resueltos de economia
 
Acemoglu.resumen.porque fracasan los paises.
Acemoglu.resumen.porque fracasan los paises.Acemoglu.resumen.porque fracasan los paises.
Acemoglu.resumen.porque fracasan los paises.
 
ECONOMÍA POLÍTICA CAPÍTULO 5. LA MACROECONOMÍA: UNA VISIÓN GLOBAL
ECONOMÍA POLÍTICA CAPÍTULO 5. LA MACROECONOMÍA: UNA VISIÓN GLOBALECONOMÍA POLÍTICA CAPÍTULO 5. LA MACROECONOMÍA: UNA VISIÓN GLOBAL
ECONOMÍA POLÍTICA CAPÍTULO 5. LA MACROECONOMÍA: UNA VISIÓN GLOBAL
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
 
Ejercicios resueltos monopolio
Ejercicios resueltos monopolioEjercicios resueltos monopolio
Ejercicios resueltos monopolio
 
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
“PROGRAMACIÓN LINEAL: COMO HERRAMIENTA PARA LA TOMA DE DECISIONES”
 
Balanza de pagos: Enfoque Monetario
Balanza de pagos: Enfoque MonetarioBalanza de pagos: Enfoque Monetario
Balanza de pagos: Enfoque Monetario
 
Mcroeconomía Cap. 5 Competencia perfecta
Mcroeconomía Cap. 5 Competencia perfectaMcroeconomía Cap. 5 Competencia perfecta
Mcroeconomía Cap. 5 Competencia perfecta
 

Destaque

10 teoria series_de_tiempo
10 teoria series_de_tiempo10 teoria series_de_tiempo
10 teoria series_de_tiempoWilmer Kolez
 
6993547 analisis-de-autocorrelacion
6993547 analisis-de-autocorrelacion6993547 analisis-de-autocorrelacion
6993547 analisis-de-autocorrelacionErika Romero
 
Introducción arima
Introducción arimaIntroducción arima
Introducción arimaJairo Moreno
 
Series de Tiempo Regresión
Series de Tiempo RegresiónSeries de Tiempo Regresión
Series de Tiempo RegresiónNorlan0987
 
Series2 - Analisis de series temporales
Series2 - Analisis de series temporalesSeries2 - Analisis de series temporales
Series2 - Analisis de series temporalesMiguel Jerez
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con EviewsRodrigo Paniagua
 
Series de tiempo pp
Series de tiempo ppSeries de tiempo pp
Series de tiempo ppEQUIPO7
 
Semana 15 procesos estocásticos series de tiempo
Semana 15 procesos estocásticos series de tiempoSemana 15 procesos estocásticos series de tiempo
Semana 15 procesos estocásticos series de tiempoSergio Jurado
 
EJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta Ed
EJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta EdEJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta Ed
EJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta EdMichael Vega
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1cesarmanosalvas
 
Ejercicios econometria i
Ejercicios econometria iEjercicios econometria i
Ejercicios econometria iUNACH
 
Cien ejercicios de econometria resueltos
Cien ejercicios de econometria resueltosCien ejercicios de econometria resueltos
Cien ejercicios de econometria resueltosNancy Ramos
 
Estadistica Univariada
Estadistica UnivariadaEstadistica Univariada
Estadistica Univariadaguest3207525
 

Destaque (20)

10 teoria series_de_tiempo
10 teoria series_de_tiempo10 teoria series_de_tiempo
10 teoria series_de_tiempo
 
arima - tips
arima - tipsarima - tips
arima - tips
 
6993547 analisis-de-autocorrelacion
6993547 analisis-de-autocorrelacion6993547 analisis-de-autocorrelacion
6993547 analisis-de-autocorrelacion
 
Arima I
Arima   IArima   I
Arima I
 
Introducción arima
Introducción arimaIntroducción arima
Introducción arima
 
Series de Tiempo Regresión
Series de Tiempo RegresiónSeries de Tiempo Regresión
Series de Tiempo Regresión
 
Series2 - Analisis de series temporales
Series2 - Analisis de series temporalesSeries2 - Analisis de series temporales
Series2 - Analisis de series temporales
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
 
Series de tiempo pp
Series de tiempo ppSeries de tiempo pp
Series de tiempo pp
 
Series de tiempo estacionarias
Series de tiempo estacionariasSeries de tiempo estacionarias
Series de tiempo estacionarias
 
Semana 15 procesos estocásticos series de tiempo
Semana 15 procesos estocásticos series de tiempoSemana 15 procesos estocásticos series de tiempo
Semana 15 procesos estocásticos series de tiempo
 
Componentes de una serie de tiempo
Componentes de una serie de tiempoComponentes de una serie de tiempo
Componentes de una serie de tiempo
 
EJERCICIOS ECONOMETRIA 1
EJERCICIOS ECONOMETRIA 1EJERCICIOS ECONOMETRIA 1
EJERCICIOS ECONOMETRIA 1
 
EJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta Ed
EJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta EdEJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta Ed
EJERCICIOS CAPITULO 20 en EVIEWS-Econometria - Damodar N. Gujarati 5ta Ed
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1
 
Ejercicios econometria i
Ejercicios econometria iEjercicios econometria i
Ejercicios econometria i
 
Timeseries forecasting
Timeseries forecastingTimeseries forecasting
Timeseries forecasting
 
ARIMA
ARIMA ARIMA
ARIMA
 
Cien ejercicios de econometria resueltos
Cien ejercicios de econometria resueltosCien ejercicios de econometria resueltos
Cien ejercicios de econometria resueltos
 
Estadistica Univariada
Estadistica UnivariadaEstadistica Univariada
Estadistica Univariada
 

Semelhante a Modelos univariados de series temporales

Variables estocasticas en serie y paralelo
Variables estocasticas en serie y paraleloVariables estocasticas en serie y paralelo
Variables estocasticas en serie y paraleloVictor O. Donaire
 
07 procesos estocasticos (1)
07 procesos estocasticos (1)07 procesos estocasticos (1)
07 procesos estocasticos (1)karelis molina
 
Capítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempoCapítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempoElder Javier Nunes Pereira
 
Pronósticos total 2013
Pronósticos total   2013Pronósticos total   2013
Pronósticos total 2013richardd zxd
 
Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...
Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...
Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...laventanadequito
 
S_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptxS_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptxCrazyGamerSL
 
Revista Futuro en el Presente.
Revista Futuro en el Presente.Revista Futuro en el Presente.
Revista Futuro en el Presente.AnasDazCortez
 
Gaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasGaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasVelmuz Buzz
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaEmmanuelRuizG
 
Das wissen von morgen (revista)
Das wissen von morgen (revista)Das wissen von morgen (revista)
Das wissen von morgen (revista)Danfuhr26
 
Modelado de circuitos con ED de orden superior
Modelado de circuitos con ED de orden superiorModelado de circuitos con ED de orden superior
Modelado de circuitos con ED de orden superiorJuan Camilo Sacanamboy
 
manual_intro_series_tiempo.pdf
manual_intro_series_tiempo.pdfmanual_intro_series_tiempo.pdf
manual_intro_series_tiempo.pdfjuan195096
 
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOSSERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOSluisiniallauj4
 

Semelhante a Modelos univariados de series temporales (20)

Variables estocasticas en serie y paralelo
Variables estocasticas en serie y paraleloVariables estocasticas en serie y paralelo
Variables estocasticas en serie y paralelo
 
Arima
ArimaArima
Arima
 
07 procesos estocasticos (1)
07 procesos estocasticos (1)07 procesos estocasticos (1)
07 procesos estocasticos (1)
 
Capítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempoCapítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempo
 
Pronósticos total 2013
Pronósticos total   2013Pronósticos total   2013
Pronósticos total 2013
 
Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...
Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...
Un proceso estocástico es un sistema que nos permite darle seguimiento a un f...
 
S_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptxS_S de tiempo continuo_V2020.pptx
S_S de tiempo continuo_V2020.pptx
 
0 Prob7
0 Prob70 Prob7
0 Prob7
 
Revista Futuro en el Presente.
Revista Futuro en el Presente.Revista Futuro en el Presente.
Revista Futuro en el Presente.
 
Proceso estocastico
Proceso estocasticoProceso estocastico
Proceso estocastico
 
Gaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasGaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicas
 
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
 
3 sd caoticos
3 sd caoticos3 sd caoticos
3 sd caoticos
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
 
Das wissen von morgen (revista)
Das wissen von morgen (revista)Das wissen von morgen (revista)
Das wissen von morgen (revista)
 
Modelado de circuitos con ED de orden superior
Modelado de circuitos con ED de orden superiorModelado de circuitos con ED de orden superior
Modelado de circuitos con ED de orden superior
 
Ss clase 1
Ss   clase 1Ss   clase 1
Ss clase 1
 
Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
manual_intro_series_tiempo.pdf
manual_intro_series_tiempo.pdfmanual_intro_series_tiempo.pdf
manual_intro_series_tiempo.pdf
 
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOSSERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
SERIE DE FOURIER - UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
 

Último

Espontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosEspontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosOscarGonzalez231938
 
Procedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnasProcedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnasAhmedMontaoSnchez1
 
Topografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasTopografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasSegundo Silva Maguiña
 
NOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptxNOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptxJairReyna1
 
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdfSEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdffredyflores58
 
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023ANDECE
 
Fe_C_Tratamientos termicos_uap _3_.ppt
Fe_C_Tratamientos termicos_uap   _3_.pptFe_C_Tratamientos termicos_uap   _3_.ppt
Fe_C_Tratamientos termicos_uap _3_.pptVitobailon
 
Peligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacionPeligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacionOsdelTacusiPancorbo
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Francisco Javier Mora Serrano
 
SOLIDOS DE REVOLUCION, aplicaciones de integrales definidas
SOLIDOS DE REVOLUCION, aplicaciones de integrales definidasSOLIDOS DE REVOLUCION, aplicaciones de integrales definidas
SOLIDOS DE REVOLUCION, aplicaciones de integrales definidasLeonardoMendozaDvila
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdffredyflores58
 
POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......dianamontserratmayor
 
produccion de cerdos. 2024 abril 20..pptx
produccion de cerdos. 2024 abril 20..pptxproduccion de cerdos. 2024 abril 20..pptx
produccion de cerdos. 2024 abril 20..pptxEtse9
 
trabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidastrabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidasNelsonQuispeQuispitu
 
4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptx4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptxEfrain Yungan
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaANDECE
 
Tarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieriaTarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieriaSebastianQP1
 

Último (20)

Espontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosEspontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneos
 
Procedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnasProcedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnas
 
MATPEL COMPLETO DESDE NIVEL I AL III.pdf
MATPEL COMPLETO DESDE NIVEL I AL III.pdfMATPEL COMPLETO DESDE NIVEL I AL III.pdf
MATPEL COMPLETO DESDE NIVEL I AL III.pdf
 
Topografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la IngenieríasTopografía 1 Nivelación y Carretera en la Ingenierías
Topografía 1 Nivelación y Carretera en la Ingenierías
 
NOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptxNOM-002-STPS-2010, combate contra incendio.pptx
NOM-002-STPS-2010, combate contra incendio.pptx
 
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdfSEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
 
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
Centro Integral del Transporte de Metro de Madrid (CIT). Premio COAM 2023
 
Fe_C_Tratamientos termicos_uap _3_.ppt
Fe_C_Tratamientos termicos_uap   _3_.pptFe_C_Tratamientos termicos_uap   _3_.ppt
Fe_C_Tratamientos termicos_uap _3_.ppt
 
presentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafilpresentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafil
 
Linea del tiempo de la inteligencia artificial.pptx
Linea del tiempo de la inteligencia artificial.pptxLinea del tiempo de la inteligencia artificial.pptx
Linea del tiempo de la inteligencia artificial.pptx
 
Peligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacionPeligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacion
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
 
SOLIDOS DE REVOLUCION, aplicaciones de integrales definidas
SOLIDOS DE REVOLUCION, aplicaciones de integrales definidasSOLIDOS DE REVOLUCION, aplicaciones de integrales definidas
SOLIDOS DE REVOLUCION, aplicaciones de integrales definidas
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
 
POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......
 
produccion de cerdos. 2024 abril 20..pptx
produccion de cerdos. 2024 abril 20..pptxproduccion de cerdos. 2024 abril 20..pptx
produccion de cerdos. 2024 abril 20..pptx
 
trabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidastrabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidas
 
4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptx4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptx
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes Granada
 
Tarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieriaTarea de UTP matematices y soluciones ingenieria
Tarea de UTP matematices y soluciones ingenieria
 

Modelos univariados de series temporales

  • 1. Capitulo 9: Modelos unívariados de series temporales Procesos estocásticas Función de autocovarianza, autocorrelación y autocorrelación parcial. Procesos de ruido blanco y paseo aleatorio Teorema de Wold Procesos AR(p) Procesos MA(q) Procesos ARMA(p,q) Procesos ARIMA(p,d,q)
  • 2. Procesos estocásticos • Definición: Un proceso estocástico es una sucesión de variables aleatorias ordenadas en el tiempo (en el caso de series temporales). • Definición: Una serie temporal es una realización del proceso estadístico, es decir, es una observación de T variables aleatorias ordenadas en el tiempo.
  • 3. Restricciones a la heterogeneidad temporal del proceso. Restricciones de Estacionaridad • Definición: Un proceso estocástico es estacionario en sentido estricto o fuerte cuando la distribución de probabilidad conjunta de cualquier parte de la secuencia de variables aleatorias es invariante del tiempo. ),...,,(),...,,( 11 τττ +++++++ = ktttkttt xxxFxxxF
  • 4. Restricciones a la heterogeneidad temporal del proceso. • Definición: Un proceso estocástico es estacionario en sentido débil si los momentos del primero y segundo orden de la distribución (esperanzas, varianzas, covarianzas) son constantes a largo del tiempo. • para todos los . • para todos y . ∞<=− ∞<= 22 )( ,)( σµ µµ tt t xE xE ( )( )[ ] ∞<=−− ++ ττττ γγµµ ,tttt xxE t τt
  • 5. Restricciones a la heterogeneidad temporal del proceso. • Restricciones de memoria del proceso, ergodicidad. • La relación entre dos variables aleatorios de un proceso es más débil cuando las variables son más lejanas en el tiempo. • Al aumentar el número de observaciones de la serie temporal aumenta el número de covarianzas, pero no el número de parámetros de estimar. 0lim = ∞→ τ τ γ
  • 6. Restricciones a la heterogeneidad temporal del proceso. • Definición: Homogenización de una serie temporal es cuando a través de una transformación el serie temporal es estacionar. • Queremos tener una serie temporal con una media y varianza (más o menos) constante a largo del tiempo.
  • 7. Restricciones a la heterogeneidad temporal del proceso. • Transformación Box-Cox:     = ≠ − = 0ln 0 1 )( λ λ λ λ λ six si x x t t t
  • 8. Restricciones a la heterogeneidad temporal del proceso. Para conseguir una media constante a largo del tiempo se puede aplicar operadores de diferencia, . , donde es el operador de retardo. . Una media estacionaria se puede conseguir a través diferenciaciones sucesivas.
  • 9. Las funciones de autovarianza y autocorrelación • Funciones de autocorrelación miden la relación lineal entre variables aleatorias de procesos separadas de una cierta distancia en el tiempo. • Estimación de estas funciones permiten determinar la forma del procesos estocástico.
  • 10. Las funciones de autovarianza y autocorrelación • La función de autocovarianza Si el proceso es estacionario, su esperanza es constante a largo del tiempo, y la función de autocovarianza no depende del momento en tiempo, sólo la distancia temporal. ,...1,0,1..., )])([(),(, −= −−== +++ τ µµγ ττττ ttttttt xxExxCov )])([( µµγ ττ −−= +tt xxE
  • 11. Las funciones de autovarianza y autocorrelación • Para cada retardo hay un valor diferente para la función de autocovarianzas, autocovarianza de orden . • Función de autocorrelación simple (FAS), τ 22 , , )()( )])([( ττ ττ τ τ τ µµ µµ γγ γ ρ ++ ++ + −− −− == tttt tttt tt t t xExE xxE
  • 12. Las funciones de autovarianza y autocorrelación • Si el proceso es estacionario, los momentos de segunda orden no depende de . • Una correlograma enseña la FAS en función de . t 2 0 )( )])([( µ µµ γ γ ρ ττ τ − −− == + t tt xE xxE τ
  • 13. Las funciones de autovarianza y autocorrelación • La función de autocorrelación parcial (FAP) enseña la relación lineal cuando se ha eliminado la correlación que estas variables tienen con otras variables. ),...,|,( 11 +−−−= kttkttkk xxxxCorrφ
  • 14. Las funciones de autovarianza y autocorrelación • Se puede obtener los coeficientes de FAS a través regresiones. • Nota: Si la esperanza de no es cero, hay que añadir una constante en cada regresión. )ˆ()ˆ( ))ˆ(),ˆ(( ktkttt ktkttt kk xxVarxxVar xxxxCov −− −− −− −− =φ        ++++= ++= += −−− −− − tktkktktkt tttt ttt vxxxx vxxx vxx φφφ φφ φ ...2211 222121 111  tx
  • 15. Las funciones de autovarianza y autocorrelación • Se puede demostrar que los coeficientes de FAS se pueden escribir como una función de coeficientes de FAP. Esta relación se llama el sistema de ecuaciones de Yule-Walker.
  • 16.
  • 17.
  • 18.
  • 19. Estimación de los momentos muéstrales • Para un proceso estocástico estacionario con ergodicidad, con una sola serie temporal, podemos estimar; Media ( ) ( ) Varianza ( ) Autocovarianzas ( ) Autocorrelaciones ( ) Autocorrelaciones parciales ( )
  • 20. La función de autocovarianza • La función de autocovarianza se puede estimar a través de la función de autocovarianza muestral: ))((ˆ 1 1 xxxxT t T t t −−= + − = − ∑ τ τ τγ
  • 21. Función de autocorrelacion simple • Función de autocorrelacion simple muestral, 2 1 1 0 )( ))(( ˆ ∑ ∑ = + − = − −− === T t t t T t t xx xxxx r τ τ τ ττ γ γ ρ
  • 22. Función de autocorrelacion simple Si el proceso es a) estacionario gaussiano (normal) y b) para , se puede estimar la varianza de con esta formula,       +≅ ∑ − = 1 1 2 21 1 )( τ τ i ir T rV Se puede usar la varianza para contrastar la . donde es el error estándar. Rechazamos la hipótesis si es fuera del intervalo ( ).
  • 23. función de autocorrelación parcial • Para hacer la función de autocorrelación parcial muestral se puede aplicar MCO.        +++++= +++= ++= −−− −− − tktkktktkt tttt ttt vxxxcx vxxcx vxcx φφφ φφ φ ...2211 222121 111  Donde son estimaciones consistentes de la FAP. Bajo los supuestos que el proceso es gaussiano (normal) y que , se puede estimar la varianza con, de manera que si está fuera del intervalo ( ) rechazamos la hipótesis que .
  • 24. Procesos de ruido blanco Definición: • es un proceso estocástico de ruido blanco si; • Es un proceso con media = 0, varianza constante, y sin autocorrelación. No se puede predecir a partir de su pasado. { }T tt 1= ε      ≠== == = + 00)( )()( 0)( 22 τγεε σεε ε ττ ε yttodosparaE ttodosparaVE ttodosparaE tt tt t
  • 25. Procesos de paseo aleatorio Definición (18) • Un proceso estocástico sigue un paseo aleatorio si; • El valor en un momento es el valor del periodo anterior más un efecto aleatorio ruido blanco. blancoruidoesdonde xx t ttt ε ε+= −1 ttttt xLxxx ε=−=∆=− − )1(1
  • 26. Procesos de paseo aleatorio
  • 27. Procesos de paseo aleatorio • Se puede generalizar el modelo e incorporar una deriva. ttt tt xx x εδ εδ ++= +=∆ −1
  • 28. Procesos de paseo aleatorio • Memoria permanente; todo los efectos aleatorios tienen un efecto permanente. • es una pendiente de una tendencia determinista. • está formado por la suma de todo las perturbaciones pasadas. ∑ − = − −−− ++= =++++=++= 1 0 0 121 ...)( t j jt tttttt tx xxx εδ εδεδεδ δ tx
  • 29. Procesos de paseo aleatorio • El primero momento; • Si el proceso no es estacionario en media. txtxExE t j jtt δεδ +=        ++= ∑ − = − 0 1 0 0)( 0≠δ
  • 30. Procesos de paseo aleatorio • La varianza; • No es estacionario en varianza; tiene una tendencia (incrementa linealmente). Paseo aleatorio tiene una tendencia en varianza o tendencia estocástica. t EE ExExE t j jt t jj jj jtjt t j jt t j jtttt 2 1 0 2 1 ' 0', ' 1 0 2 2 1 0 2 0, )(2 ))(( εσ εεεε εγ = =           +=         =−= ∑∑∑ ∑ − = − − < = −− − = − − = − es ruido blanco, y
  • 31. Procesos de paseo aleatorio • Otra manera de llegar al mismo resultado;
  • 32. Procesos de paseo aleatorio • Autocovarianza; • La autocovarianza tampoco es constante [ ] )( )( ))())((( 2 1 0 2 1 0 1 0 , τσ εεε γ ε ττ τ τττ −= =                         = −−= ∑∑∑ −− = − −− = −− − = − −− t EE xExxExE t j jt t j jt t j jt ttttt
  • 33. Procesos de paseo aleatorio • Conclusión: Paseo aleatorio no es estacionar. Esto complica la inferencia. De todos modos, hay un camino definida de variación a largo del tiempo.
  • 34. Procesos de paseo aleatorio • Si transformamos el proceso a través de una diferencia, la transformación sería estacionaria. ttt xw εδ +=∆= es estacionario; es un ruido blanco alrededor de la media, .
  • 35. Procesos de paseo aleatorio • Es importante detectar si un serie está generada por un pasea aleatorio. • 1) La función de autocorrelación simple puede dar una indicación. • Una correlograma presentará los primeros coeficientes muy cerca de 1, y esta va decreciendo suavemente. ttt t tt t tt t t τ τ τ τσσ τσ γγ γ ρ εε ε τ τ τ −= − − = − − == − 1 )( )( )( )( 22 2 0,0, , ,
  • 36. Procesos de paseo aleatorio • La FAP, resultaría en un primero coeficiente significativo y cerca de uno, mientras los siguientes coeficientes serán cero.        +++++= +++= ++= −−− −− − tktkktktkt tttt ttt uxxxcx uxxcx uxcx φφφ φφ φ ...2211 222121 111 
  • 37. Procesos de paseo aleatorio • Normalmente un FAS que está decreciendo muy lento con un primer FAP cerca uno y los restos cero, indica que podemos diferenciar para conseguir un serie temporal estacionario.
  • 38. Procesos de paseo aleatorio • Otra manera para saber si se debe diferenciar una serie temporal son los contrastes de raíces unitarias. • Constaste de raíces unitarias. “unit roots”. Estima la ecuación; ttt xx εδφ ++= −1 Y contrastar si
  • 39. Procesos lineales • Definición: Un proceso estocástico es lineal cuando lo podemos escribir como una función de una combinación lineal (posiblemente infinita) de variables aleatorios de ruido blanco. { }T tt 1= ε ∑ ∞ = − −− = +++= 0 2211 ... j jtj ttttx εψ εψεψε
  • 40. Procesos lineales • Hay tres tipos de procesos estocásticos lineales; • Autoregresivas (AR) • Media móvil (MA) • ARMA (la combinación de AR y MA) qtqttptptt qtqtttt tptpttt xxxqpARMA xqMA xxxxpAR −−−− −−− −−− −−−+++= −−−−= ++++= εθεθεφφ εθεθεθε εφφφ ......);,( ...);( ...);( 1111 2211 2211 es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”).
  • 41. Procesos lineales • Se puede introducir una constante para tener procesos con una media . • Se puede expresar los procesos con un polinomio de operadores de retardos. El operador de retardos L esta definido por; • Este operador retarda la serie tantas periodos como el exponente indica. 0≠ δ ktt k tt xxL xLx − − = = 1 k
  • 42. Procesos lineales • Utilizando el operador de retardos y la generalización con el constante, , podemos escribir los procesos: • Se puede transformar procesos AR y ARMA en procesos MA. δ tqtp tqt ttp LxLqpARMA LxqMA xLpAR εθδφ εθδ εδφ )()();,( )();( )();( += += += móvilmediapolinomioLLLL sivoautoregrespolinomioLLLL q qp p pp θθθθ φφφφ −−−−= −−−−= ...1)( ...1)( 2 21 2 21
  • 43. Procesos lineales Teorema de Wold. Cualquier proceso estocástico estacionario se puede representar con una suma de dos procesos. Donde es linealmente determinista y es un proceso : Donde es ruido blanco. ttt udx += td tu )(∞MA ∑ ∞ = − ∞= 0 )( j jtj tt Lu εψ εψ tε
  • 44. Procesos lineales • El proceso se puede aproximar a través modelos lineales, cuando el polinomio infinito se puede aproximar bien con un cociente de dos polinomios en • Transformaciones puede hacer series estacionarios y la teorema permite crear modelos relativamente sencillas a partir de modelos lineales. )(∞MA )(L∞ψ )( )( )(: L L LL p q φ θ ψ ≅∞
  • 45. Procesos autoregresivos (AR) • Un proceso autoregresivo se puede escribir, εφφφδ εδφφφ εδφ +−−−+= +=−−−− += −−− ptpttt tt p p ttp xxxx xLLL xL ... )...1( )( 2211 2 21
  • 46. Procesos autoregresivos (AR) • Para que un proceso AR sea estacionario el polinomio en el operador de retardos asociados al proceso tiene que ser estable, es decir, al calcular las raíces del polinomio, estas tienen de caer fuera del círculo unidad. Los valores de que satisfacen esto cumple . )(Lpφ 0)...1()( 2 21 =−−−−= p pp LLLL φφφφ L 1>L
  • 47. Procesos autoregresivos (AR) • Si hay alguno raíz igual a 1 (raíz unitario) el proceso AR no es estacionario, y no se pueden expresar como procesos . Si hay alguna raíz inferior a 1 el proceso será explosivo y tampoco estacionario. )(∞MA
  • 48. Procesos autoregresivos (AR) • Las condiciones para estacionariedad son: • (necesaria, pero no suficiente): • (suficiente, pero no necesario): 1 1 <∑= p j jφ 1 1 <∑= p j jφ
  • 49. Procesos autoregresivos (AR) • AR(1) estacionariedad • Condición necesaria y suficiente: tt ttt xL xx εδφ εφδ +=− ++= − )1( 11 1<φ
  • 50. Procesos autoregresivos (AR) • Un proceso estacionario se puede escribir como un proceso . • Se puede llegar a la misma solución a través de substitución recursiva. )1(AR )(∞MA jt j j t t t LL L x − ∞ = ∑+ − = ++++= − + = εφ φ δ εδφφ φ εδ 0 22 1 )...)(1( )1( .1 ttt xx εφδ ++= −
  • 51. Procesos autoregresivos (AR) • La solución se usa para calcular los momentos del proceso. También se puede usar para enseñar el siguiente resultado, valido por .0>h 0... 1 )( 2 2 1 =            ++++ − = +−−+ htttthtt ExE εεφφεε φ δ ε Dado que para todos .
  • 52. Procesos autoregresivos (AR) • El momento de primer orden es; • Con estacionariedad tenemos el mismo resultado; φ δ εφ φ δ µ − =        + − == − ∞ = ∑ 11 )( 0 jt j j t ExE ))()(( 1 µ== −tt xExE 1 1 )1()()( − − −=+=++== φδφµδεφδµ ttt xExE
  • 53. Procesos autoregresivos (AR) • La varianza del proceso es; • También se puede llegar a este resultado a través; 2 2 2 0 2 2 0 2 0 1 )( φ σ σφεφµγ ε ε − ==        =−= ∑∑ ∞ = − ∞ = j j jt j j t ExE 1222 0 2 10 )1()()( − − −=+=++== φσσγφεφδγ εεttt xVxV
  • 54. Procesos autoregresivos (AR) • La autocovarianza del proceso es, donde; indica la desviación con respecto a la media. tx~ 01 0 2 12122 01111 )~)~(()~~( )~)~(()~~( )~)~(()~~( γφφγεφγ γφφγεφγ φγεφγ τ ττττ ==+== ==+== =+== −−− −−− −−− ttttt ttttt ttttt xxExxE xxExxE xxExxE 
  • 55. Procesos autoregresivos (AR) • La función de autocorrelación simple es; • y tiene un decrecimiento exponencial. • FAP, al otro lado, sólo tiene un coeficiente diferente de cero. Se puede demostrar con las ecuaciones de Yule-Walker. ττ τ φ γ γ ρ == 0
  • 57. Procesos autoregresivos (AR) • AR(2): • Al calcular las raíces del polinomio tendríamos dos soluciones y hay los siguientes requisitos (simultáneamente) para tener un polinomio estable. )1()( )( )1( 2 212 2 2 21 2211 LLLdonde xL xLL xxx tt tt tttt φφφ εδφ εδφφ εφφδ −−= += +=−− +++= −− 0)1( 2 21 =−− LL φφ 1 1 1 2 12 12 < <+ <− φ φφ φφ
  • 58. Procesos autoregresivos (AR) • Los resultados para la covarianza de AR(1) se puede generalizar.
  • 60. Procesos media móviles (MA(q)) • Un proceso media móvil de orden q; • Estos procesos siempre son estacionarios (los momentos de primer y segundo orden son siempre finitas y constantes a largo del tiempo). • Una condición (que hay que comprobar) para estos procesos es que son invertibles. tq qtqtttt L x εθδ εθεθεθεδ )( ...2211 += −−−−+= −−−
  • 61. Procesos media móviles (MA(q)) • Esta condición implica que las raíces del polinomio están fuera del círculo de unidad. Los procesos MA no invertibles no permiten una representación autoregresiva convergente. )(Lqθ
  • 62. Procesos media móviles (MA(1)) • MA(1): • La condición de invertibilidad es para un proceso MA(1) es . • Esperanza: 11 −−+= tttx εθεδ 1<θ δεθεδµ =−+== − )()( 11 ttt ExE
  • 63. Procesos media móviles (MA(1)) • Varianza: • Autocovarianza: ( ) 22 1 11 2 1 2 1 22 11 2 0 1 )(2)()()()( εσθ εεθεθεεθεµγ += −+=−=−= −−− ttttttt EEEExE [ ] [ ] [ ] [ ] 20 0))(())(( ))(())(( 3121122 2 12111111 ≥∀= =−−=−−= −=−−=−−= −−−− −−−− τγ εθεεθεµµγ σθεθεεθεµµγ τ ε tttttt tttttt ExxE ExxE
  • 64. Procesos media móviles (MA(1)) • FAS es: • La FAP presenta un decrecimiento exponencial; • Se puede llegar a este resultado general con las ecuaciones de Yule-Walker.     ≥ = + − = 20 1 )1( 2 1 1 τ τ θ θ ρτ )1(2 1 2 11 1 )1( + − − −= k k kk θ θθ φ
  • 65. Procesos media móviles (MA(1)) 6 1 4 1 2 1 3 1 2 2 1 1 3 2 1 1 2 1 3 1 2 2 2 12 2 1 3 2 121 2 21 3 13 33 4 1 2 1 2 1 2 1 2 12 22 2 1 1 11 1 1 21 1 21221 2 11 1 θθθ θ θ θ θ θ ρ ρ ρρρρ ρρρρρρρρ φ θθ θ ρ ρρ φ θ θ ρφ +++ =       + −−       + − = − −= −−+ −−++ = ++ −= − − = + −==
  • 67. Procesos media móviles (MA(2)) • Calcular las raíces del polinomio. 0)1( 2 11 =−− LL θθ
  • 68. Procesos media móviles (MA(2)) • Para tener un modelos estable;
  • 71. Procesos media móviles (MA(2)) • Función de autocorrelación simple
  • 74. Procesos media móviles (MA(q)) • MA(q) con deriva: • (el mismo resultado) δεθεθεθεδµ =−−−−+== −−− )()( 2211 qtqtttt ExE  ( ) 222 2 2 1 2 2211 2 0 1 )()( εσθθθ εθεθεθεµγ q qtqtttt ExE ++++= =−−−−=−= −−−  
  • 75. Procesos media móviles (MA(q)) [ ] [ ]    > ≤+++− = −−−−−−−−=−−= −+ −−−−−−−−−−− qsi qsi ExxE qq qtqtttqtqttttt τ τσθθθθθ εθεθεθεεθεθεθεµµγ ετττ τττττ 0 )( ))(())(( 2 11 121122111  
  • 77. Procesos autoregresivos media móviles (ARMA(p,q)) • Un modelo autoregresivo media móvil (ARMA(p,q)) sigue la forma; • Es decir, tiene una parte autoregresivo y otra parte media móvil.
  • 78. Procesos autoregresivos media móviles (ARMA(p,q)) • Debemos comprobar si la parte autoregresiva es estacionaria y la parte media móvil es invertible. • Si la parte AR es estacionario, se puede escribir como un )(∞MA
  • 79. Procesos autoregresivos media móviles (ARMA(p,q)) • Si la parte MA es invertible, se puede expresarlo como un )(∞AR
  • 80. Procesos autoregresivos media móviles (ARMA(p,q)) • Los procesos ARMA tienen un FAS como la de su parte AR y una • FAP como su parte MA. • ARMA tiene FAS y FAP que decrecen exponencialmente en valor absoluta hacia cero. • No se puede determinar el orden.
  • 82. ARMA(1,1) • FAS: 111 −− −++= tttt xx εθεφδ δφµ 1 1)1( − −= 2 2 1 2 111 0 1 21 εσ φ θθφ γ − +− =     > = +− −− = − 1 1 21 ))(1( 11 2 111 1111 τρφ τ θθφ θφθφ ρ τ τ
  • 84. ARMA(p,q) • Representar con : δφµ 1 )1( − = p )(∞MA t j jtjt Lx εψµεψµ )( 0 ∞ ∞ = − +=+= ∑ ∑ ∞ = =−= 0 222 0 )( j jtxE ψσµγ ε
  • 85. Procesos autoregresivos integrados media móvil; ARIMA(p,d,q) • Procesos ARIMA presentan raíces unitarias en el polinomio autoregresivo; no son estacionarios. Se puede factorizar a partir de las raíces unitarias. Podemos escribir; • Donde no incluye raíces unitarias y es el número de raíces unitarias. )(* Lrφ )()1()(* LLL dr d r −−= φφ )(* Ldr−φ d
  • 86. Procesos autoregresivos integrados media móvil; ARIMA(p,d,q) • Recuerda el operador de diferencias;
  • 87. ARIMA(p,d,q) • Por ejemplo, ARIMA(0,1,0) es un paseo aleatorio.
  • 88. ARIMA(p,d,q) • Si una serie presenta un correlograma como un AR(1) con ; FAS está muy cerca 1, y no caen rápidamente. 1=φ
  • 89. ARIMA(p,d,q) • Si aplicamos el operador de diferencia cuando no es necesario (sobre- diferenciar), tendremos un MA(1) que no es invertible. • Por ejemplo: Ruido blanco;
  • 90. ARIMA(p,d,q) • Cuando el orden de diferencia se ha decidido , se puede escribir un procesos ARIMA como o un .)(∞AR )(∞MA
  • 91. Procesos estaciónales • Si tenemos datos con información de varias ocasiones durante un año, podemos observar estacionalidad, es decir, un comportamiento económico que depende del tiempo durante un año. (Ejemplos; temperaturas, vacaciones, movimientos turísticos). Los procesos anteriores están pensados para series con sólo una observación cada año, o series sin estacionalidad. • El numero de estaciones durante el año llamamos s. Por ejemplo, S=12 para datos mensuales, o 4 para trimestrales. Se puede generalizar los procesos explicas arriba para captar estacionalidad.
  • 95. Procesos estaciónales • Una serie temporal con estacionalidad puede tener una estructura de dependencia estacional y otra parte regular (no estacional) que sigue un • Normalmente estos partes pueden interactuar en una especificación multiplicativa. Este es un modelo
  • 96. Procesos estaciónales • En estos modelos hay “efectos satélites”. • Por ejemplo • Nota el término que se nota en FAP y FAS asociados los retardos próximos a los múltiples de S, pero esto no significa que tengamos procesos adicionales de MA(0,1) y SMA(0,1).
  • 97. Procesos estaciónales • FAS: Se reproduce la parte regular de la FAS alrededor de los coeficientes estaciónales. • FAP: Se reproduce la parte regular de la FAS a la izquierda de los coeficientes estaciónales y la parte de FAP a la derecha. • Signos: – En FAS se multiplica el signo del coeficientes estacional por el de regular. – En FAP, si el signo del coeficiente estacional es positivo se inversa el signo a la parte derecha (FAP regular) mientras si es negativo, se inversa el de la izquierda (FAS regular).