SlideShare uma empresa Scribd logo
1 de 18
UNIVERSIDAD NACIONAL JOSE FAUSTINO SANCHEZ CARRION
FACULTAD DE INGENIERÍA INDUSTRIAL,
SISTEMAS E INFORMÁTICA
ESCUELA ACADEMICO PROFESIONAL DE
INGENIERIA INFORMATICA
CURSO
INVESTIGACION DE OPERACIONES II
TEMA
MODELO DE MARKOV
INTEGRANTES
Alvino Loza, Alvino
Brito Salazar, Diana
Carbajal Ramos, Sergio
Gómez Molina, Diego
Jaimes Landa, Luz
Ramirez Jara, Andrea
Zapata Bazalar, Samuel
DOCENTE
ALCIBIADES SOSA PALOMINO
HUACHO – LIMA
PERU
| 2
TOMA DE DECISIONES CON CRITERIOS MULTIPLES
Los métodos y modelos para la toma de decisiones con criterios
múltiples proveen herramientas de utilidad a la hora de analizar
problemas complejos.Los procesosde toma de decisioneshan sido
analizados y modelados matemáticamente para dotar a las
personas encargadas de tomar decisiones,de herramientas que les
permitan contar con una mejor visualización de los factores que
intervienen en los procesos, así como de las preferencias
existentes. Los procesos de decisión relacionados al desarrollo
sostenible involucran la interrelación de tres sistemas con objetivos
muchas veces contrapuestos: el sistema económico, el sistema
social y el sistema medioambiental. La interrelación de estos
sistemas produce conflicto de intereses que hace de cualquier
proceso de decisión, una tarea compleja que requiere de métodos
sistemáticos.
 Proceso Analítico de Jerarquías (PAJ). : Permite analizar
tanto criterios cuantitativos como cualitativos.
 Programación de Metas (PM): Analiza criterios cuantitativos.
| 3
Análisis de Markov
El análisis de Markov, llamado así por los estudios realizados por el
ruso Andréi Andréyevich Márkov entre 1906 y 1907, sobre la
secuencia de los experimentos conectados en cadena y la
necesidad de descubrir matemáticamente los fenómenos físicos. La
teoría de Markov se desarrolló en las décadas de 1930 y 1940 por
A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros.
El análisis de Markov es una forma de analizar el movimiento actual
de alguna variable, a fin de pronosticar el movimiento futuro de la
misma. Este método ha comenzado a usarse en los últimos años
como instrumento de investigaciones de mercadotecnia, para
examinar y pronosticar el comportamiento de los clientes desde el
punto de vista de su lealtad a una marca y de sus formas de cambio
a otras marcas, la aplicación de esta técnica, ya no solo se limita a
la mercadotecniasino que su campo de acción se ha podido aplicar
en diversos campos.
ANDREY MARKOV
Las cadenas de Markov fueron introducidas por el matemático ruso
Andrey Markov (1856-1922) alrededor de 1905. Su intención era
crear un modelo probabilístico para analizar la frecuencia con la que
aparecen las vocales en poemas y textos literarios. El éxito del
modelo propuesto por Markov radica en que es lo suficientemente
complejo como para describir ciertas características no triviales de
algunos sistemas, pero al mismo tiempo es lo suficientemente
sencillo para ser analizado matemáticamente.
Su trabajo teórico en el campo de los procesos en los que están
involucrados componentes aleatorios (procesos estocásticos)
darían fruto en un instrumento matemático que actualmente se
conoce como cadena de Márkov: secuencias de valores de una
variable aleatoria en las que el valor de la variable en el futuro
depende del valor de la variable en el presente, pero es
independiente de la historia de dicha variable. Las cadenas de
Márkov, hoy día, se consideran una herramienta esencial en
| 4
disciplinas como la economía, la ingeniería, la investigación de
operaciones y muchas otras.
CADENA DE MARKOV
Las cadenas de markov son modelos probabilísticos que se usan
para predecir la evolución y el comportamiento a corto y a largo
plazo de determinados sistemas.
En principio fue dirigida a resolver problemas industriales, sin
embargo posteriormente se ha extendido a muchos otros campos
como la economía, agricultura, recursos ambientales, recursos
pesqueros, etc.
Resulta de gran interés, sobre todo, en problemas complejos de
gran tamaño.
Las cadenas de Márkov son una herramienta para analizar el
comportamiento y el gobierno de determinados tipos de procesos
estocásticos, esto es, procesos que evolucionan de forma no
determinística a lo largo del tiempo en torno a un conjunto de
estados.
Una cadena de Márkov, por tanto, representa un sistema que varía
un estado a lo largo del tiempo, siendo cada cambio una transición
del sistema. Dichos cambios no están predeterminados, aunque sí
lo está la probabilidad del próximo estado en función de los estados
| 5
anteriores, probabilidad que es constante a lo largo del tiempo
(sistema homogéneo en el tiempo). Eventualmente, es una
transición, el nuevo estado puede ser el mismo que el anterior y es
posible que exista la posibilidad de influir en las probabilidades de
transición actuando adecuadamente sobre el sistema (decisión).
Conceptos básicos
Para el estudio de las cadenas de Márkov, debentenerse en cuenta
algunos conceptos claves como los siguientes:
1. Estados
El estado de un sistema en un instante t es una variable cuyos
valores solo puedenpertenecer al conjunto de estaos en el sistema.
El sistema modelizado por la cadena, por lo tanto, es una variable
que cambia con el valor del tiempo, cambio al que llamamos
transición.
2. Matriz de transición
Los elementos de matriz representan la probabilidad de que el
estado próximo sea el correspondiente a la columna si el estado
actual es el correspondiente a la fila.
Posee 3 propiedades básicas:
La suma de las probabilidades de los estados debe ser igual a 1.
La matriz de transición debe ser cuadrada.
Las probabilidades de transición deben estar entre 0 y 1.
Distribución actual (Vector Po): Es la manera en la que se
distribuyen las probabilidades de los estados en un periodo inicial,
(periodo 0). Esta información te permitirá averiguar cuál será la
distribución en periodos posteriores.
Estado estable: Se puede decir que el estado estable es la
distribución de probabilidades que en cierto punto quedará fija para
el vector P y no presentará cambios en periodos posteriores.Por
consiguiente un estado es recurrente sí y solo si no es transitorio.
| 6
ESTADO ABSORBENTES: Un estado tal que si el proceso entra
en él permanecerá indefinidamente en este estado (ya que las
probabilidades de pasara cualquiera de los otros son cero), se dice
estado absorbente.
De una cadena de Markov que consta de estados transitorios y
absorbentes se dice que es una cadena absorbente de Markov.
Si una cadena de Markov contiene algún estado absorbente, la
línea de la matriz de transición correspondiente a las probabilidades
de transición de dicho estado constará de un 1 en la diagonal
principal y ceros en los demás elementos. Será por lo tanto una
matriz no regular.
Para poderestudiar las cadenas de Markov absorbentes es preciso
reordenar la matriz de transición de forma que las filas
correspondientes a los estados absorbentes aparezcan en primer
lugar. Así ordenada se dirá que la matriz de transición está en la
forma canónica.
Donde:
I: Matriz Identidad
0:Matriz Nula
N: Matriz No Absorbente
A: Matriz Absorbente
El valor esperado se calcula como:
V. Esp=(I-N)^-1
La probabilidad de caer en los estados absorbentes se calcula
como:
P=A*(I-N)^-1
| 7
ELEMENTOS DE UNA CADENA DE MARKOV
 Un conjunto finito de M estados, exhaustivos y mutuamente
excluyentes (ejemplo: estados de la enfermedad)
 Ciclo de markov (“paso”) : periodo de tiempo que sirve de
base para examinar las transiciones entre estados (ejemplo,
un mes)
 Probabilidades de transición entre estados, en un ciclo (matriz
P)
 Distribución inicial del sistema entre los M estados posibles
TIPO DE CADENAS DE MARKOV
Dependiendo del número de estados del sistema pueden ser:
FINITAS:
Es una cadena de Markov para la que existe sólo un número finito k
de estados posibles s1,...,sk y en cualquier instante de tiempo la
cadena está en uno de estos k estados.
Consisten en sucesiones finitas de pruebas cada una de las cuales
tiene un número finito de sucesos con probabilidades dadas.
Procesosde este tipo recibenel nombre de Procesos estocásticos.
INFINITAS:
La ocurrencia de los eventos se considera indeterminada, pero
tienden a una situación de estabilización.
COMPONENTES
 Estado: Condiciones iniciales y finales del proceso de
Markov.
 Ensayo: Ocurrencias repetidas del evento que se estudia.
| 8





 1
.
iS
PSS
 Probabilidadde Transición (pij ): Probabilidad de pasar del
estado actual al siguiente.
 Matriz de transición (P): Es una matriz cuadrada cuyos
elementos son pij
MODELO MATEMATICO: CADENA INFINITA
S1(t) + S2(t) +… + Sn(t) = 1 “ n estados “.
pi1 + pi2 + … + pin = 1
La transición de un periodo al siguiente se expresa como:
S (t + 1) = S (t) P
Para el primer periodo : S (1) = S (0) P
Para el segundo periodo : S (2) = S (1) P = S (0) P2
Para un periodo largo : S = SP
MATRIZ ESTACIONARIA
| 9
APLICACIÓN DEL METODO “DE MARKOV” EN UN
CASO DE LA VIDA REAL:
Caso 1:
La Tienda de Don “José” estima lo siguiente:
40% de sus clientes que realizaron la compra de Gaseosas Negras
en una semana, comprarán Gaseosas de otro color la próxima
semana.
20% de sus clientes que realizaron la compra de Gaseosas de
Color en una semana comprarán Gaseosas Negras la próxima
semana.
Se Tiene inicialmente 𝑆_0= [0.4 0.6] Esto significaque, en la
semana el 40% de los clientes gaseoseroscompraronGaseosas
Negras y el 60% compraron de otro Color.
El administrador deseasaber cuál será la elecciónde clientes en las
próximas semanas.
| 10
Solución:
𝑷 = [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
𝑺 𝟎= [0.4 0.6]
𝑺( 𝒕 + 𝟏) = 𝑺(𝒕)𝑷
𝑺 𝟏 = [𝟎. 𝟒 𝟎. 𝟔] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
] = [𝟎. 𝟑𝟔 𝟎. 𝟔𝟒]
𝑺 𝟐 = [𝟎. 𝟑𝟔 𝟎. 𝟔𝟒] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
] = [𝟎. 𝟑𝟒𝟒 𝟎. 𝟔𝟓𝟔]
𝑺 𝟑 = [𝟎. 𝟑𝟒𝟒 𝟎. 𝟔𝟓𝟔] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟕𝟔 𝟎. 𝟔𝟔𝟐𝟒]
𝑺 𝟒 = [𝟎. 𝟑𝟑𝟕𝟔 𝟎. 𝟔𝟔𝟐𝟒] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟓𝟎𝟒 𝟎. 𝟔𝟔𝟒𝟗𝟔]
| 11
𝑺 𝟓 = [𝟎. 𝟑𝟑𝟓𝟎𝟒 𝟎. 𝟔𝟔𝟒𝟗𝟔] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟒𝟎𝟏𝟔 𝟎. 𝟔𝟔𝟓𝟗𝟖𝟒]
𝑺 𝟔 = [𝟎. 𝟑𝟑𝟒𝟎𝟏𝟔 𝟎. 𝟔𝟔𝟓𝟗𝟖𝟒] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟑𝟔𝟎𝟔𝟒 𝟎. 𝟔𝟔𝟔𝟑𝟗𝟑𝟔]
𝑺 𝟕 = [𝟎. 𝟑𝟑𝟑𝟔𝟎𝟔𝟒 𝟎. 𝟔𝟔𝟔𝟑𝟗𝟑𝟔] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟑𝟒𝟒𝟐𝟓𝟔 𝟎. 𝟔𝟔𝟔𝟓𝟓𝟕𝟒𝟒]
𝑺 𝟖 = [𝟎. 𝟑𝟑𝟑𝟒𝟒𝟐𝟓𝟔 𝟎. 𝟔𝟔𝟔𝟓𝟓𝟕𝟒𝟒] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟑𝟑𝟕𝟕𝟎𝟐𝟒 𝟎. 𝟔𝟔𝟔𝟔𝟐𝟐𝟗𝟕𝟔 ]
𝑺 𝟗 = [𝟎. 𝟑𝟑𝟑𝟑𝟕𝟕𝟎𝟐𝟒 𝟎. 𝟔𝟔𝟔𝟔𝟐𝟐𝟗𝟕𝟔] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟑𝟑𝟓𝟎𝟖𝟎𝟗𝟔 𝟎. 𝟔𝟔𝟔𝟔𝟒𝟗𝟏𝟗𝟎𝟒]
𝑺 𝟏𝟎 = [𝟎. 𝟑𝟑𝟑𝟑𝟓𝟎𝟖𝟎𝟗𝟔 𝟎. 𝟔𝟔𝟔𝟔𝟒𝟗𝟏𝟗𝟎𝟒] [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟑𝟑𝟑𝟑𝟒𝟎𝟑𝟐𝟑𝟖 𝟎. 𝟔𝟔𝟔𝟔𝟓𝟗𝟔𝟕𝟔𝟐]
| 12
De los anteriores cálculos podemos observarse que después de t = 3 el
mercado alcanza un equilibrio, o un estado estable, en el sentido que el
mercado no cambia notablemente con eltiempo.
COMPROBANDO:
[𝑺 𝟏 𝑺 𝟐] = [𝑺 𝟏 𝑺 𝟐] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
[𝑺 𝟏 𝑺 𝟐] = [𝑺 𝟏 𝑺 𝟐] ∗ [
𝟎. 𝟔 𝟎. 𝟒
𝟎. 𝟐 𝟎. 𝟖
]
= [𝟎. 𝟔𝑺 𝟏 + 𝟎. 𝟐𝑺 𝟐 𝟎. 𝟒𝑺 𝟏 + 𝟎. 𝟖𝑺 𝟐]
𝑺 𝟏 = 𝟎. 𝟔𝑺 𝟏 + 𝟎. 𝟐𝑺 𝟐
𝑺 𝟐 = 𝟎. 𝟒𝑺 𝟏 + 𝟎. 𝟖𝑺 𝟐
𝑺 𝟏 + 𝑺 𝟐 = 𝟏
Resolviendo tenemos:Resolver en mathcad y colocar los
resultados
𝑺 𝟏=( )valor porcentual de clientes que compraran “gaseosas negra”
𝑺 𝟐= ( )valor porcentual de clientes que compraran “gaseosas de otro
color ”.
| 13
Por lo tanto queda demostrado que los clientes Gaseores
consumirán gaseosas de otro color la primara semana.
Graficando el árbol:
Probabilidad de consumir “gaseosa negra” o “gaseosa de color” en
cada etapa
Resumen de resultados:
G.N
0.4
0.2 0.64 x 0.2 0.128
0.64 x 0.8 0.512
G.N
G.C
G.N
G.C
P
0.36
0.64
G.C
0.8
0.36 x 0.4 0.144 Gaseosa negra = 0.344
Gaseosa de color
= 0.656
0.36 x 0.6 0.2160.6
Método recursivo
Método estado
estacionario
Método de
árbol
Gaseosa
negra
0.344
Gaseosa de
otro color
0.656
| 14
Conclusión:
El producto que más consumirán los gaseoseros en las próximas
semanas serán las gaseosas de otro color ya que es la más
vendida según nuestra muestra
CASO 2:
La señora Rosmery Tafur prepara yogurt artesanal para su venta y
posee dos categorías para la elaboración: la Fermentación y
coagulación para lo cual se a de emplear el ensayo de Markov
donde:
Rosmery desea saber cuantos litros de yogurt venderá este mes y
cuantos se perderán, si inicia con 40 litros en fermentación y 100
litros coagulados.
Los Estados Absorbentes:
Estado 1: Perdida
Estado 2: Vendidos
Los Estados del Proceso:
Estado 3: Fermentación
Estado 4: Coagulación
Estados
Absorbentes
Estados
del proceso
P V F C
p
V
F
C
P =
| 15
Hallar la Matriz Fundamental:
𝐹 = [ 𝐼 − 𝑇]−1
𝐹 = [
0.85 −0.60
0 0.82
]
−1
= ⋯
𝐴 → 𝐴. 𝐴−1
= 𝐼
[
0.85 −0.60
0 0.82
] ∗ [
𝑥 𝑦
𝑧 𝑤
] = [
1 0
0 1
]
0.85𝑥 − 0.60𝑧 = 1 → 𝑥 = 1.18
Estados
Absorbentes
Estados
del proceso
P V F C
P
V
F
C
P =
I
Tk
| 16
0.85𝑦 − 0.60𝑤 = 0 → 𝑦 = 0.86
0x + 0.82𝑧 = 0 → 𝑧 = 0
0y + 0.82𝑤 = 1 → 𝑤 = 1.22
Entonces:
𝐹 = [
0.85 −0.60
0 0.82
]
−1
= [
1.18 0.86
0 1.22
]
𝐹. 𝐾 = [
1.18 0.86
0 1.22
] [
0.15 0
0.12 0.80
]
= [
0.28 0.69
0.15 0.98
]
Conclusión del Problema:
Tenemos:
F C
P V
FP CP FV CV
P V
P V
| 17
Al final concluimos que los litros que se venden son 126 y se
pierden 26 litros de yogurt.
Para la señora es una perdida inaceptable entonces se le
recomiendamejorar el producto e implementar un mejor sistema de
ventas
CONCLUSIÓN
Para concluir podemos decir que las cadenas de Markov son una
herramienta para analizar el comportamiento y el gobierno de
determinados tipos de procesos estocásticos,esto es, procesos que
evolucionan de forma no determinística a lo largo del tiempo en
torno a un conjunto de estados.
Este método es muy importante, ya que ha comenzado a usarse en
los últimos años como instrumento de investigaciones de
mercadotecnia, para examinar y pronosticar el comportamiento de
los clientes desde el punto de vista de su lealtad a una marca y de
sus formas de cambio a otras marcas, la aplicación de esta técnica,
ya no solo se limita a la mercadotecnia sino que su campo de
acción se ha podido aplicar en diversos campos.
Esperemos que este documentacion sea de gran utilidad y que los
conceptos contenidos queden explicados de manera clara.
CONCLUSION ESPECÍFICA
 El producto que más consumirán los gaseoseros en las
próximas semanas serán las gaseosas de otro color ya que
es la más vendida según nuestra muestra
| 18
 Al final concluimos que los litros que se venden son 126 y se
pierden 26 litros de yogurt.
Para la señora es una perdida inaceptable entonces se le
recomienda mejorar el producto e implementar un mejor
sistema de ventas
BIBLIOGRAFÍA
 Pérez, J. (2011, 3 de Junio). Andrei Markov. Recuperado
dehttp://investigacindeoperaciones.html
 Morales, L. (2011, 2 de Junio). Cadenas de Markov.
Recuperado dehttp://ingindustrialio2.-
:blogspot.mx/2011/06/cadenas-de-markov.html

Mais conteúdo relacionado

Mais procurados

Gep Eq2 L12 Analisis Y Administracion Del Riesgo Baca
Gep Eq2 L12 Analisis Y Administracion Del Riesgo BacaGep Eq2 L12 Analisis Y Administracion Del Riesgo Baca
Gep Eq2 L12 Analisis Y Administracion Del Riesgo BacaAngie Vargas Lara
 
246968284 metodos-de-factores-ponderados
246968284 metodos-de-factores-ponderados246968284 metodos-de-factores-ponderados
246968284 metodos-de-factores-ponderadosAnita Pinedo
 
Ecuaciones diferenciales parciales
Ecuaciones diferenciales parcialesEcuaciones diferenciales parciales
Ecuaciones diferenciales parcialesAldo Uribe
 
Introducción a la investigación de operaciones
Introducción a la investigación de operacionesIntroducción a la investigación de operaciones
Introducción a la investigación de operacionesManuel Bedoya D
 
Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbenteseduardoko
 
Localización de almacenes
Localización de almacenesLocalización de almacenes
Localización de almacenesIesatecVirtual
 
Practicas de-io-con-pom-qm
Practicas de-io-con-pom-qmPracticas de-io-con-pom-qm
Practicas de-io-con-pom-qmFreddy López
 
Ejemplo de-simulación-continua
Ejemplo de-simulación-continuaEjemplo de-simulación-continua
Ejemplo de-simulación-continuaLeonardo Rojas
 
Introducción a la Investigación de Operaciones
Introducción a la Investigación de OperacionesIntroducción a la Investigación de Operaciones
Introducción a la Investigación de OperacionesAlejandro Jesús González
 
Simulacion de sistemas
Simulacion de sistemasSimulacion de sistemas
Simulacion de sistemaswilbero
 
Teoria de juegos
Teoria de juegosTeoria de juegos
Teoria de juegoskaren Villa
 
4. factores para cantidad única f y p
4. factores para cantidad única f y p4. factores para cantidad única f y p
4. factores para cantidad única f y ptatyanasaltos
 

Mais procurados (20)

Gep Eq2 L12 Analisis Y Administracion Del Riesgo Baca
Gep Eq2 L12 Analisis Y Administracion Del Riesgo BacaGep Eq2 L12 Analisis Y Administracion Del Riesgo Baca
Gep Eq2 L12 Analisis Y Administracion Del Riesgo Baca
 
Modelos para la tdr
Modelos para la tdrModelos para la tdr
Modelos para la tdr
 
246968284 metodos-de-factores-ponderados
246968284 metodos-de-factores-ponderados246968284 metodos-de-factores-ponderados
246968284 metodos-de-factores-ponderados
 
Ecuaciones diferenciales parciales
Ecuaciones diferenciales parcialesEcuaciones diferenciales parciales
Ecuaciones diferenciales parciales
 
Proyecto de simulacion
Proyecto de simulacionProyecto de simulacion
Proyecto de simulacion
 
Metodo de transporte pdi
Metodo de transporte pdiMetodo de transporte pdi
Metodo de transporte pdi
 
Introducción a la investigación de operaciones
Introducción a la investigación de operacionesIntroducción a la investigación de operaciones
Introducción a la investigación de operaciones
 
Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentes
 
Localización de almacenes
Localización de almacenesLocalización de almacenes
Localización de almacenes
 
Practicas de-io-con-pom-qm
Practicas de-io-con-pom-qmPracticas de-io-con-pom-qm
Practicas de-io-con-pom-qm
 
Ejemplo de-simulación-continua
Ejemplo de-simulación-continuaEjemplo de-simulación-continua
Ejemplo de-simulación-continua
 
Introducción a la Investigación de Operaciones
Introducción a la Investigación de OperacionesIntroducción a la Investigación de Operaciones
Introducción a la Investigación de Operaciones
 
Simulacion de sistemas
Simulacion de sistemasSimulacion de sistemas
Simulacion de sistemas
 
Metodo asignacion
Metodo asignacionMetodo asignacion
Metodo asignacion
 
Teoria de juegos
Teoria de juegosTeoria de juegos
Teoria de juegos
 
Modelos de transporte
Modelos de transporteModelos de transporte
Modelos de transporte
 
4. factores para cantidad única f y p
4. factores para cantidad única f y p4. factores para cantidad única f y p
4. factores para cantidad única f y p
 
Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markov
 
Slam Ii
Slam IiSlam Ii
Slam Ii
 
Lineas de espera
Lineas de esperaLineas de espera
Lineas de espera
 

Destaque

Influencias de la admistracion !!!
Influencias de la admistracion !!!Influencias de la admistracion !!!
Influencias de la admistracion !!!nguerrerol
 
Comunicacion interactiva
Comunicacion interactivaComunicacion interactiva
Comunicacion interactivaMaria Rossana
 
Content Marketing über Presseportale und Social Media
Content Marketing über Presseportale und Social MediaContent Marketing über Presseportale und Social Media
Content Marketing über Presseportale und Social MediaADENION GmbH
 
Buch des jungen Kämpfers mit AIX V6 - Teil 02
Buch des jungen Kämpfers mit AIX V6 - Teil 02Buch des jungen Kämpfers mit AIX V6 - Teil 02
Buch des jungen Kämpfers mit AIX V6 - Teil 02Andrey Klyachkin
 
Como quitar una verruga
Como quitar una verrugaComo quitar una verruga
Como quitar una verrugaerrugaeesewq
 
Las mejores escuelas de cuernavaca olimpiadas discovery school
Las mejores escuelas de cuernavaca olimpiadas discovery schoolLas mejores escuelas de cuernavaca olimpiadas discovery school
Las mejores escuelas de cuernavaca olimpiadas discovery schoolDiscovery School Cuernavaca
 
Expo practicas sociales del lenguaje
Expo practicas sociales del lenguajeExpo practicas sociales del lenguaje
Expo practicas sociales del lenguajeLorenita Lopez
 
Documento jimmy quesada
Documento jimmy quesadaDocumento jimmy quesada
Documento jimmy quesadajimmy quesada
 
La lengua y los hablantes cap 6 (2)
La lengua y los hablantes cap  6 (2)La lengua y los hablantes cap  6 (2)
La lengua y los hablantes cap 6 (2)Lorenita Lopez
 
Presentacion personal
Presentacion personalPresentacion personal
Presentacion personalnenidiany
 
Introducción a las tic exa
Introducción a las tic exaIntroducción a las tic exa
Introducción a las tic exaCindy Recalde
 

Destaque (20)

Influencias de la admistracion !!!
Influencias de la admistracion !!!Influencias de la admistracion !!!
Influencias de la admistracion !!!
 
Comunicacion interactiva
Comunicacion interactivaComunicacion interactiva
Comunicacion interactiva
 
Content Marketing über Presseportale und Social Media
Content Marketing über Presseportale und Social MediaContent Marketing über Presseportale und Social Media
Content Marketing über Presseportale und Social Media
 
Buch des jungen Kämpfers mit AIX V6 - Teil 02
Buch des jungen Kämpfers mit AIX V6 - Teil 02Buch des jungen Kämpfers mit AIX V6 - Teil 02
Buch des jungen Kämpfers mit AIX V6 - Teil 02
 
Sitemas
SitemasSitemas
Sitemas
 
empresa dcarte
empresa dcarteempresa dcarte
empresa dcarte
 
Super junior
Super juniorSuper junior
Super junior
 
Como quitar una verruga
Como quitar una verrugaComo quitar una verruga
Como quitar una verruga
 
Trabajo ple act 3 rocio
Trabajo ple act 3 rocioTrabajo ple act 3 rocio
Trabajo ple act 3 rocio
 
Las mejores escuelas de cuernavaca olimpiadas discovery school
Las mejores escuelas de cuernavaca olimpiadas discovery schoolLas mejores escuelas de cuernavaca olimpiadas discovery school
Las mejores escuelas de cuernavaca olimpiadas discovery school
 
Materiales
MaterialesMateriales
Materiales
 
Expo practicas sociales del lenguaje
Expo practicas sociales del lenguajeExpo practicas sociales del lenguaje
Expo practicas sociales del lenguaje
 
Documento jimmy quesada
Documento jimmy quesadaDocumento jimmy quesada
Documento jimmy quesada
 
La lengua y los hablantes cap 6 (2)
La lengua y los hablantes cap  6 (2)La lengua y los hablantes cap  6 (2)
La lengua y los hablantes cap 6 (2)
 
Propuesta final de investigación jorge montejo
Propuesta final de investigación   jorge montejoPropuesta final de investigación   jorge montejo
Propuesta final de investigación jorge montejo
 
Clasificaciones
ClasificacionesClasificaciones
Clasificaciones
 
Presentacion personal
Presentacion personalPresentacion personal
Presentacion personal
 
Mucho
MuchoMucho
Mucho
 
Introducción a las tic exa
Introducción a las tic exaIntroducción a las tic exa
Introducción a las tic exa
 
Artehierro
ArtehierroArtehierro
Artehierro
 

Semelhante a Modelo Markov

Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacinespaquitootd
 
ppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptxppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptxJeanMelgar2
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...arivasg91
 
Diapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdfDiapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdfIvethLorenaMaytaAyla
 
Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...
Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...
Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...Ramses CF
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovSocorro Lomeli Sanchez
 

Semelhante a Modelo Markov (20)

Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
Modelo de Cadena de Markov
Modelo de Cadena de MarkovModelo de Cadena de Markov
Modelo de Cadena de Markov
 
ppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptxppt cadena de markov Jean Melgar.pptx
ppt cadena de markov Jean Melgar.pptx
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
 
Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Teoria de colas
Teoria de colas Teoria de colas
Teoria de colas
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
 
Diapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdfDiapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdf
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...
Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...
Investigacion 9MODELOS CUYA NATURALEZA SE SUSTENTE EN VARIABLES DISCRETAS Y/O...
 
“Procesos de markov”
“Procesos de markov”“Procesos de markov”
“Procesos de markov”
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de Markov
 
17
1717
17
 
17
1717
17
 

Último

Cuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfCuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfNancyLoaa
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 
plan de capacitacion docente AIP 2024 clllll.pdf
plan de capacitacion docente  AIP 2024          clllll.pdfplan de capacitacion docente  AIP 2024          clllll.pdf
plan de capacitacion docente AIP 2024 clllll.pdfenelcielosiempre
 
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñoproyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñotapirjackluis
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaDecaunlz
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
PLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxPLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxlupitavic
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Alejandrino Halire Ccahuana
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...JAVIER SOLIS NOYOLA
 
CLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdfCLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdfJonathanCovena1
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...JonathanCovena1
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptxdeimerhdz21
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxKarlaMassielMartinez
 

Último (20)

Cuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfCuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdf
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
 
plan de capacitacion docente AIP 2024 clllll.pdf
plan de capacitacion docente  AIP 2024          clllll.pdfplan de capacitacion docente  AIP 2024          clllll.pdf
plan de capacitacion docente AIP 2024 clllll.pdf
 
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñoproyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativa
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
PLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxPLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docx
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
 
CLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdfCLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdf
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
 

Modelo Markov

  • 1. UNIVERSIDAD NACIONAL JOSE FAUSTINO SANCHEZ CARRION FACULTAD DE INGENIERÍA INDUSTRIAL, SISTEMAS E INFORMÁTICA ESCUELA ACADEMICO PROFESIONAL DE INGENIERIA INFORMATICA CURSO INVESTIGACION DE OPERACIONES II TEMA MODELO DE MARKOV INTEGRANTES Alvino Loza, Alvino Brito Salazar, Diana Carbajal Ramos, Sergio Gómez Molina, Diego Jaimes Landa, Luz Ramirez Jara, Andrea Zapata Bazalar, Samuel DOCENTE ALCIBIADES SOSA PALOMINO HUACHO – LIMA PERU
  • 2. | 2 TOMA DE DECISIONES CON CRITERIOS MULTIPLES Los métodos y modelos para la toma de decisiones con criterios múltiples proveen herramientas de utilidad a la hora de analizar problemas complejos.Los procesosde toma de decisioneshan sido analizados y modelados matemáticamente para dotar a las personas encargadas de tomar decisiones,de herramientas que les permitan contar con una mejor visualización de los factores que intervienen en los procesos, así como de las preferencias existentes. Los procesos de decisión relacionados al desarrollo sostenible involucran la interrelación de tres sistemas con objetivos muchas veces contrapuestos: el sistema económico, el sistema social y el sistema medioambiental. La interrelación de estos sistemas produce conflicto de intereses que hace de cualquier proceso de decisión, una tarea compleja que requiere de métodos sistemáticos.  Proceso Analítico de Jerarquías (PAJ). : Permite analizar tanto criterios cuantitativos como cualitativos.  Programación de Metas (PM): Analiza criterios cuantitativos.
  • 3. | 3 Análisis de Markov El análisis de Markov, llamado así por los estudios realizados por el ruso Andréi Andréyevich Márkov entre 1906 y 1907, sobre la secuencia de los experimentos conectados en cadena y la necesidad de descubrir matemáticamente los fenómenos físicos. La teoría de Markov se desarrolló en las décadas de 1930 y 1940 por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros. El análisis de Markov es una forma de analizar el movimiento actual de alguna variable, a fin de pronosticar el movimiento futuro de la misma. Este método ha comenzado a usarse en los últimos años como instrumento de investigaciones de mercadotecnia, para examinar y pronosticar el comportamiento de los clientes desde el punto de vista de su lealtad a una marca y de sus formas de cambio a otras marcas, la aplicación de esta técnica, ya no solo se limita a la mercadotecniasino que su campo de acción se ha podido aplicar en diversos campos. ANDREY MARKOV Las cadenas de Markov fueron introducidas por el matemático ruso Andrey Markov (1856-1922) alrededor de 1905. Su intención era crear un modelo probabilístico para analizar la frecuencia con la que aparecen las vocales en poemas y textos literarios. El éxito del modelo propuesto por Markov radica en que es lo suficientemente complejo como para describir ciertas características no triviales de algunos sistemas, pero al mismo tiempo es lo suficientemente sencillo para ser analizado matemáticamente. Su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento matemático que actualmente se conoce como cadena de Márkov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable. Las cadenas de Márkov, hoy día, se consideran una herramienta esencial en
  • 4. | 4 disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras. CADENA DE MARKOV Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. En principio fue dirigida a resolver problemas industriales, sin embargo posteriormente se ha extendido a muchos otros campos como la economía, agricultura, recursos ambientales, recursos pesqueros, etc. Resulta de gran interés, sobre todo, en problemas complejos de gran tamaño. Las cadenas de Márkov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de estados. Una cadena de Márkov, por tanto, representa un sistema que varía un estado a lo largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios no están predeterminados, aunque sí lo está la probabilidad del próximo estado en función de los estados
  • 5. | 5 anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogéneo en el tiempo). Eventualmente, es una transición, el nuevo estado puede ser el mismo que el anterior y es posible que exista la posibilidad de influir en las probabilidades de transición actuando adecuadamente sobre el sistema (decisión). Conceptos básicos Para el estudio de las cadenas de Márkov, debentenerse en cuenta algunos conceptos claves como los siguientes: 1. Estados El estado de un sistema en un instante t es una variable cuyos valores solo puedenpertenecer al conjunto de estaos en el sistema. El sistema modelizado por la cadena, por lo tanto, es una variable que cambia con el valor del tiempo, cambio al que llamamos transición. 2. Matriz de transición Los elementos de matriz representan la probabilidad de que el estado próximo sea el correspondiente a la columna si el estado actual es el correspondiente a la fila. Posee 3 propiedades básicas: La suma de las probabilidades de los estados debe ser igual a 1. La matriz de transición debe ser cuadrada. Las probabilidades de transición deben estar entre 0 y 1. Distribución actual (Vector Po): Es la manera en la que se distribuyen las probabilidades de los estados en un periodo inicial, (periodo 0). Esta información te permitirá averiguar cuál será la distribución en periodos posteriores. Estado estable: Se puede decir que el estado estable es la distribución de probabilidades que en cierto punto quedará fija para el vector P y no presentará cambios en periodos posteriores.Por consiguiente un estado es recurrente sí y solo si no es transitorio.
  • 6. | 6 ESTADO ABSORBENTES: Un estado tal que si el proceso entra en él permanecerá indefinidamente en este estado (ya que las probabilidades de pasara cualquiera de los otros son cero), se dice estado absorbente. De una cadena de Markov que consta de estados transitorios y absorbentes se dice que es una cadena absorbente de Markov. Si una cadena de Markov contiene algún estado absorbente, la línea de la matriz de transición correspondiente a las probabilidades de transición de dicho estado constará de un 1 en la diagonal principal y ceros en los demás elementos. Será por lo tanto una matriz no regular. Para poderestudiar las cadenas de Markov absorbentes es preciso reordenar la matriz de transición de forma que las filas correspondientes a los estados absorbentes aparezcan en primer lugar. Así ordenada se dirá que la matriz de transición está en la forma canónica. Donde: I: Matriz Identidad 0:Matriz Nula N: Matriz No Absorbente A: Matriz Absorbente El valor esperado se calcula como: V. Esp=(I-N)^-1 La probabilidad de caer en los estados absorbentes se calcula como: P=A*(I-N)^-1
  • 7. | 7 ELEMENTOS DE UNA CADENA DE MARKOV  Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad)  Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes)  Probabilidades de transición entre estados, en un ciclo (matriz P)  Distribución inicial del sistema entre los M estados posibles TIPO DE CADENAS DE MARKOV Dependiendo del número de estados del sistema pueden ser: FINITAS: Es una cadena de Markov para la que existe sólo un número finito k de estados posibles s1,...,sk y en cualquier instante de tiempo la cadena está en uno de estos k estados. Consisten en sucesiones finitas de pruebas cada una de las cuales tiene un número finito de sucesos con probabilidades dadas. Procesosde este tipo recibenel nombre de Procesos estocásticos. INFINITAS: La ocurrencia de los eventos se considera indeterminada, pero tienden a una situación de estabilización. COMPONENTES  Estado: Condiciones iniciales y finales del proceso de Markov.  Ensayo: Ocurrencias repetidas del evento que se estudia.
  • 8. | 8       1 . iS PSS  Probabilidadde Transición (pij ): Probabilidad de pasar del estado actual al siguiente.  Matriz de transición (P): Es una matriz cuadrada cuyos elementos son pij MODELO MATEMATICO: CADENA INFINITA S1(t) + S2(t) +… + Sn(t) = 1 “ n estados “. pi1 + pi2 + … + pin = 1 La transición de un periodo al siguiente se expresa como: S (t + 1) = S (t) P Para el primer periodo : S (1) = S (0) P Para el segundo periodo : S (2) = S (1) P = S (0) P2 Para un periodo largo : S = SP MATRIZ ESTACIONARIA
  • 9. | 9 APLICACIÓN DEL METODO “DE MARKOV” EN UN CASO DE LA VIDA REAL: Caso 1: La Tienda de Don “José” estima lo siguiente: 40% de sus clientes que realizaron la compra de Gaseosas Negras en una semana, comprarán Gaseosas de otro color la próxima semana. 20% de sus clientes que realizaron la compra de Gaseosas de Color en una semana comprarán Gaseosas Negras la próxima semana. Se Tiene inicialmente 𝑆_0= [0.4 0.6] Esto significaque, en la semana el 40% de los clientes gaseoseroscompraronGaseosas Negras y el 60% compraron de otro Color. El administrador deseasaber cuál será la elecciónde clientes en las próximas semanas.
  • 10. | 10 Solución: 𝑷 = [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] 𝑺 𝟎= [0.4 0.6] 𝑺( 𝒕 + 𝟏) = 𝑺(𝒕)𝑷 𝑺 𝟏 = [𝟎. 𝟒 𝟎. 𝟔] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟔 𝟎. 𝟔𝟒] 𝑺 𝟐 = [𝟎. 𝟑𝟔 𝟎. 𝟔𝟒] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟒𝟒 𝟎. 𝟔𝟓𝟔] 𝑺 𝟑 = [𝟎. 𝟑𝟒𝟒 𝟎. 𝟔𝟓𝟔] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟕𝟔 𝟎. 𝟔𝟔𝟐𝟒] 𝑺 𝟒 = [𝟎. 𝟑𝟑𝟕𝟔 𝟎. 𝟔𝟔𝟐𝟒] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟓𝟎𝟒 𝟎. 𝟔𝟔𝟒𝟗𝟔]
  • 11. | 11 𝑺 𝟓 = [𝟎. 𝟑𝟑𝟓𝟎𝟒 𝟎. 𝟔𝟔𝟒𝟗𝟔] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟒𝟎𝟏𝟔 𝟎. 𝟔𝟔𝟓𝟗𝟖𝟒] 𝑺 𝟔 = [𝟎. 𝟑𝟑𝟒𝟎𝟏𝟔 𝟎. 𝟔𝟔𝟓𝟗𝟖𝟒] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟑𝟔𝟎𝟔𝟒 𝟎. 𝟔𝟔𝟔𝟑𝟗𝟑𝟔] 𝑺 𝟕 = [𝟎. 𝟑𝟑𝟑𝟔𝟎𝟔𝟒 𝟎. 𝟔𝟔𝟔𝟑𝟗𝟑𝟔] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟑𝟒𝟒𝟐𝟓𝟔 𝟎. 𝟔𝟔𝟔𝟓𝟓𝟕𝟒𝟒] 𝑺 𝟖 = [𝟎. 𝟑𝟑𝟑𝟒𝟒𝟐𝟓𝟔 𝟎. 𝟔𝟔𝟔𝟓𝟓𝟕𝟒𝟒] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟑𝟑𝟕𝟕𝟎𝟐𝟒 𝟎. 𝟔𝟔𝟔𝟔𝟐𝟐𝟗𝟕𝟔 ] 𝑺 𝟗 = [𝟎. 𝟑𝟑𝟑𝟑𝟕𝟕𝟎𝟐𝟒 𝟎. 𝟔𝟔𝟔𝟔𝟐𝟐𝟗𝟕𝟔] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟑𝟑𝟓𝟎𝟖𝟎𝟗𝟔 𝟎. 𝟔𝟔𝟔𝟔𝟒𝟗𝟏𝟗𝟎𝟒] 𝑺 𝟏𝟎 = [𝟎. 𝟑𝟑𝟑𝟑𝟓𝟎𝟖𝟎𝟗𝟔 𝟎. 𝟔𝟔𝟔𝟔𝟒𝟗𝟏𝟗𝟎𝟒] [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟑𝟑𝟑𝟑𝟒𝟎𝟑𝟐𝟑𝟖 𝟎. 𝟔𝟔𝟔𝟔𝟓𝟗𝟔𝟕𝟔𝟐]
  • 12. | 12 De los anteriores cálculos podemos observarse que después de t = 3 el mercado alcanza un equilibrio, o un estado estable, en el sentido que el mercado no cambia notablemente con eltiempo. COMPROBANDO: [𝑺 𝟏 𝑺 𝟐] = [𝑺 𝟏 𝑺 𝟐] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] [𝑺 𝟏 𝑺 𝟐] = [𝑺 𝟏 𝑺 𝟐] ∗ [ 𝟎. 𝟔 𝟎. 𝟒 𝟎. 𝟐 𝟎. 𝟖 ] = [𝟎. 𝟔𝑺 𝟏 + 𝟎. 𝟐𝑺 𝟐 𝟎. 𝟒𝑺 𝟏 + 𝟎. 𝟖𝑺 𝟐] 𝑺 𝟏 = 𝟎. 𝟔𝑺 𝟏 + 𝟎. 𝟐𝑺 𝟐 𝑺 𝟐 = 𝟎. 𝟒𝑺 𝟏 + 𝟎. 𝟖𝑺 𝟐 𝑺 𝟏 + 𝑺 𝟐 = 𝟏 Resolviendo tenemos:Resolver en mathcad y colocar los resultados 𝑺 𝟏=( )valor porcentual de clientes que compraran “gaseosas negra” 𝑺 𝟐= ( )valor porcentual de clientes que compraran “gaseosas de otro color ”.
  • 13. | 13 Por lo tanto queda demostrado que los clientes Gaseores consumirán gaseosas de otro color la primara semana. Graficando el árbol: Probabilidad de consumir “gaseosa negra” o “gaseosa de color” en cada etapa Resumen de resultados: G.N 0.4 0.2 0.64 x 0.2 0.128 0.64 x 0.8 0.512 G.N G.C G.N G.C P 0.36 0.64 G.C 0.8 0.36 x 0.4 0.144 Gaseosa negra = 0.344 Gaseosa de color = 0.656 0.36 x 0.6 0.2160.6 Método recursivo Método estado estacionario Método de árbol Gaseosa negra 0.344 Gaseosa de otro color 0.656
  • 14. | 14 Conclusión: El producto que más consumirán los gaseoseros en las próximas semanas serán las gaseosas de otro color ya que es la más vendida según nuestra muestra CASO 2: La señora Rosmery Tafur prepara yogurt artesanal para su venta y posee dos categorías para la elaboración: la Fermentación y coagulación para lo cual se a de emplear el ensayo de Markov donde: Rosmery desea saber cuantos litros de yogurt venderá este mes y cuantos se perderán, si inicia con 40 litros en fermentación y 100 litros coagulados. Los Estados Absorbentes: Estado 1: Perdida Estado 2: Vendidos Los Estados del Proceso: Estado 3: Fermentación Estado 4: Coagulación Estados Absorbentes Estados del proceso P V F C p V F C P =
  • 15. | 15 Hallar la Matriz Fundamental: 𝐹 = [ 𝐼 − 𝑇]−1 𝐹 = [ 0.85 −0.60 0 0.82 ] −1 = ⋯ 𝐴 → 𝐴. 𝐴−1 = 𝐼 [ 0.85 −0.60 0 0.82 ] ∗ [ 𝑥 𝑦 𝑧 𝑤 ] = [ 1 0 0 1 ] 0.85𝑥 − 0.60𝑧 = 1 → 𝑥 = 1.18 Estados Absorbentes Estados del proceso P V F C P V F C P = I Tk
  • 16. | 16 0.85𝑦 − 0.60𝑤 = 0 → 𝑦 = 0.86 0x + 0.82𝑧 = 0 → 𝑧 = 0 0y + 0.82𝑤 = 1 → 𝑤 = 1.22 Entonces: 𝐹 = [ 0.85 −0.60 0 0.82 ] −1 = [ 1.18 0.86 0 1.22 ] 𝐹. 𝐾 = [ 1.18 0.86 0 1.22 ] [ 0.15 0 0.12 0.80 ] = [ 0.28 0.69 0.15 0.98 ] Conclusión del Problema: Tenemos: F C P V FP CP FV CV P V P V
  • 17. | 17 Al final concluimos que los litros que se venden son 126 y se pierden 26 litros de yogurt. Para la señora es una perdida inaceptable entonces se le recomiendamejorar el producto e implementar un mejor sistema de ventas CONCLUSIÓN Para concluir podemos decir que las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos,esto es, procesos que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de estados. Este método es muy importante, ya que ha comenzado a usarse en los últimos años como instrumento de investigaciones de mercadotecnia, para examinar y pronosticar el comportamiento de los clientes desde el punto de vista de su lealtad a una marca y de sus formas de cambio a otras marcas, la aplicación de esta técnica, ya no solo se limita a la mercadotecnia sino que su campo de acción se ha podido aplicar en diversos campos. Esperemos que este documentacion sea de gran utilidad y que los conceptos contenidos queden explicados de manera clara. CONCLUSION ESPECÍFICA  El producto que más consumirán los gaseoseros en las próximas semanas serán las gaseosas de otro color ya que es la más vendida según nuestra muestra
  • 18. | 18  Al final concluimos que los litros que se venden son 126 y se pierden 26 litros de yogurt. Para la señora es una perdida inaceptable entonces se le recomienda mejorar el producto e implementar un mejor sistema de ventas BIBLIOGRAFÍA  Pérez, J. (2011, 3 de Junio). Andrei Markov. Recuperado dehttp://investigacindeoperaciones.html  Morales, L. (2011, 2 de Junio). Cadenas de Markov. Recuperado dehttp://ingindustrialio2.- :blogspot.mx/2011/06/cadenas-de-markov.html