SlideShare uma empresa Scribd logo
1 de 20
Baixar para ler offline
>   Conceptos para desarrollar cadenas de Markov El proceso Markov Adriana Inés Ávila Geovany Guatibonza
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Conceptos
[object Object],¿Qué es un vector? ,[object Object],[object Object],V1= [0, 0, ½, ½,] V = [a1, a2, a3… an]
[object Object],¿Qué es un vector? ,[object Object],V1= [0, 0, ½, ½,]
[object Object],¿Qué es una matriz? ,[object Object],[object Object],0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0
[object Object],¿Qué es una matriz? ,[object Object],0  0  ½ ½ 0  0  1   0 ½ 0  ½  0 0  0  1   0
[object Object],¿Qué es una matriz? ,[object Object],[object Object],[object Object],[object Object],[object Object]
[object Object],¿Qué es una matriz? 0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 0  0  ½ ½ ¼ ½  ¼ 0 ½ 0  ½  0 0  ½  0  ½  X = ¼  ¼  ¼  ¼ ½  0  ½  0 ¼  0  ½  ¼ ½  0  ½  0 Ejemplo de la primera fila por columna: A11= 0*0+ 0*1/4+ 1/2*1/2+1/2*0= 1/4 A12= 0*0+ 0*1/2+ 1/2*0+ 1/2*1/2=1/4 A13= 0*1/2+ 0*1/4+ 1/2*1/2+ 1/2*0=1/4 A14= 0*1/2+ 0*0+ 1/2*0+ 1/2*1/2=1/4 Así obtenemos la primera fila de la nueva matriz.
[object Object],¿Qué es una matriz? ,[object Object],0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 0  0  ½ ½ ¼ ½  ¼ 0 ½ 0  ½  0 0  ½  0  ½  X = ¼  ¼  ¼  ¼ ½  0  ½  0 ¼  0  ½  ¼ ½  0  ½  0 VER VIDEO
[object Object],Cadenas de Markov ,[object Object]
[object Object],Cadenas de Markov ,[object Object],V1= [0, 0, ½, ½,] Es un vector de   probabilidad V2= [1, 0, ½, ½,] NO es un vector de probabilidad
[object Object],Cadenas de Markov Los vectores que no son de probabilidad, (la suma de sus componentes es mayor que 1)  pero que cumplen con la condición de que todos sus componentes son positivos, tienen algo llamado vector único de probabilidad, el cual corresponde a un escalar múltiplo de si mismo. El vector único de probabilidad (qv) se obtiene de la siguiente manera: 1. Se calcula la suma todos los componentes del vector  2.  El vector se multiplica por ese resultado Ejemplo:  Tengo la matriz:  V2= [1, 0, ½, ½,]  Observo que no es un vector de probabilidad, pero que todos  sus elementos  son positivos  Calculo la suma de sus elementos: 1+0+1/2+1/2 = 2 qv  =  1/2  V2 = [1/2, 0, 1/4, 1/4]
[object Object],Cadenas de Markov ,[object Object],0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 0  1  ½ ½ 1  0  1  0 ½ 0  ½  0 0  4  1  0 Estocástica NO Estocástica
[object Object],Cadenas de Markov Una matriz estocástica es regular, cuando todos los elementos de una potencia son positivos. Como ejemplo, tomaremos nuestra matriz estocástica de la diapositiva anterior la elevamos al cuadrado: 0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 A²= X 0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 ¼ 0  ¾  0 ½ 0  ½  0 ¼ 0  ½  ¼  ½ 0  ½  0 =
[object Object],Cadenas de Markov Las características de una matriz estocástica regular son: La matriz (P) tiene un  vector de probabilidad fijo (t)  cuyos componentes son todos positivos. La sucesión de potencias de la matriz: P, P2, P3, se aproxima a la matriz T cuyas filas son  cada punto fijo (t). Si p es un vector de probabilidad, entonces la sucesión de vectores: pP, pP2, pP3, se aproxima al punto fijo t. X
[object Object],Cadenas de Markov El vector de probabilidad fijo es una característica de las matrices estocásticas regulares. Para hallarlo se requiere multiplicar cualquier matriz por incógnitas con la finalidad de que estas puedan ser despejadas. Tomaremos como ejemplo una matriz trabajada con anterioridad: 0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 [w, x, y, z] X Se realiza la multiplicación de las matrices y luego se despeja cada una de las incógnitas para hallar el vector de probabilidad fijo (t). Si este no es un vector de probabilidad, puede convertirse utilizando lo aprendido en diapositivas anteriores
[object Object],Cadenas de Markov Para calcular lo que sucederá en un tiempo determinado, el proceso es el siguiente: Tomo el vector que representa el estado inicial del problema, este se llamará q0  Si multiplico q0  por la Matriz me dará el estado 1, entonces para hallar un estado n la fórmula es: q0  Mn  = qn
[object Object],Cadenas de Markov Ejemplo: Si queremos hallar lo que sucederá en la transición 150, entonces:  0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 V1= [0, 0, ½, ½,] Estado inicial X = 150 V150= [23/100, 3/20, 19/50, 23/100]
[object Object],Cadenas de Markov Ejemplo: Si queremos hallar lo que sucederá en la transición 150 en MATLAB revisa el siguiente video:  0  0  ½ ½ 0  0  1  0 ½ 0  ½  0 0  0  1  0 V1= [0, 0, ½, ½,] Estado inicial X = 150 V150= [23/100, 3/20, 19/50, 23/100] VER VIDEO
[object Object]

Mais conteúdo relacionado

Mais procurados

Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markovPoro Punk
 
Cadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoCadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoAlberto Carranza Garcia
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blogoskr2588
 
Procesos y Cadenas de Markov
Procesos y Cadenas de MarkovProcesos y Cadenas de Markov
Procesos y Cadenas de MarkovLuis Coba
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1yesi arrieta
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovSocorro Lomeli Sanchez
 
Taller investigación de operaciones ii segundo seguimiento (1)
Taller investigación de operaciones ii   segundo seguimiento (1)Taller investigación de operaciones ii   segundo seguimiento (1)
Taller investigación de operaciones ii segundo seguimiento (1)Oscar José Ospino Ayala
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Estado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovEstado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovLuis Pons
 
Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbenteseduardoko
 

Mais procurados (19)

Cadenas marko
Cadenas markoCadenas marko
Cadenas marko
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoCadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuo
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blog
 
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Procesos y Cadenas de Markov
Procesos y Cadenas de MarkovProcesos y Cadenas de Markov
Procesos y Cadenas de Markov
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Probabilidades de estado estable
Probabilidades de estado estableProbabilidades de estado estable
Probabilidades de estado estable
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de Markov
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Taller investigación de operaciones ii segundo seguimiento (1)
Taller investigación de operaciones ii   segundo seguimiento (1)Taller investigación de operaciones ii   segundo seguimiento (1)
Taller investigación de operaciones ii segundo seguimiento (1)
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Estado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovEstado Finito de Cadenas de Markov
Estado Finito de Cadenas de Markov
 
Cadenas de__markov
Cadenas  de__markovCadenas  de__markov
Cadenas de__markov
 
Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentes
 
Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markov
 

Semelhante a Presentacion Modelo Markov

Oper.2305.m01.lectura.v1
Oper.2305.m01.lectura.v1Oper.2305.m01.lectura.v1
Oper.2305.m01.lectura.v1LUIS COAQUIRA
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Clase1_Matrices.pptx
Clase1_Matrices.pptxClase1_Matrices.pptx
Clase1_Matrices.pptxVctorChacn3
 
practica matlab
practica matlabpractica matlab
practica matlab7158AS
 
UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)Videoconferencias UTPL
 
Matlab -compu_aplicada
Matlab  -compu_aplicadaMatlab  -compu_aplicada
Matlab -compu_aplicadaHernaly
 
Ejercicios jacobi
Ejercicios jacobiEjercicios jacobi
Ejercicios jacobidjp951
 
Apuntesmatlab
ApuntesmatlabApuntesmatlab
Apuntesmatlabford81
 
Sistemas lineales casos especiales
Sistemas lineales casos especialesSistemas lineales casos especiales
Sistemas lineales casos especialesKike Prieto
 
Transformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesTransformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesarturoperez
 

Semelhante a Presentacion Modelo Markov (20)

Matlabreyes
MatlabreyesMatlabreyes
Matlabreyes
 
Practica1
Practica1Practica1
Practica1
 
Series potencias
Series potenciasSeries potencias
Series potencias
 
Practica2
Practica2Practica2
Practica2
 
2 vectores matrices
2 vectores matrices2 vectores matrices
2 vectores matrices
 
2 vectores matrices
2 vectores matrices2 vectores matrices
2 vectores matrices
 
Oper.2305.m01.lectura.v1
Oper.2305.m01.lectura.v1Oper.2305.m01.lectura.v1
Oper.2305.m01.lectura.v1
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Mc3b3dulo 9-sobre-programacic3b3n-matlab2
Mc3b3dulo 9-sobre-programacic3b3n-matlab2Mc3b3dulo 9-sobre-programacic3b3n-matlab2
Mc3b3dulo 9-sobre-programacic3b3n-matlab2
 
Clase1_Matrices.pptx
Clase1_Matrices.pptxClase1_Matrices.pptx
Clase1_Matrices.pptx
 
practica matlab
practica matlabpractica matlab
practica matlab
 
Maxima
MaximaMaxima
Maxima
 
UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-ALGEBRA LINEAL-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
 
Matlab -compu_aplicada
Matlab  -compu_aplicadaMatlab  -compu_aplicada
Matlab -compu_aplicada
 
Gauss
GaussGauss
Gauss
 
Gauss
GaussGauss
Gauss
 
Ejercicios jacobi
Ejercicios jacobiEjercicios jacobi
Ejercicios jacobi
 
Apuntesmatlab
ApuntesmatlabApuntesmatlab
Apuntesmatlab
 
Sistemas lineales casos especiales
Sistemas lineales casos especialesSistemas lineales casos especiales
Sistemas lineales casos especiales
 
Transformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesTransformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectoriales
 

Presentacion Modelo Markov

  • 1. > Conceptos para desarrollar cadenas de Markov El proceso Markov Adriana Inés Ávila Geovany Guatibonza
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.