SlideShare uma empresa Scribd logo
1 de 26
Vasamento: Algoritmo EM
Manuel Ramón Vargas Avila
Introdução
Algoritmo EM definição:
Es un método general para encontrar el estimador de máxima
verosimilitud de los parámetros de una distribución de probabilidad. La
situación en la que el algoritmo EM muestra toda su potencia es en los
problemas de datos incompletos, donde la estimación de máxima
verosimilitud resulta difícil debido a la ausencia de alguna parte de los
datos dentro de una estructura de datos simple y familiar
Se utiliza en problemas de : clustering, reconocimiento de patrones,
Modelos ocultos de Markov, entre otros. aplicaciones en casi todos los
contextos estadísticos y en casi todos los campos donde se hayan
aplicado técnicas estadísticas: tratamiento de imágenes médicas,
corrección de censos, epidemiología del SIDA, y entrenamiento de
redes neuronales artificiales, entre otros.
• El algoritmo EM consta de dos pasos: paso-E y
paso-M. El paso-E consiste en generar datos
para conseguir un problema de datos
completos, usando el conjunto de datos
observados del problema de datos
incompletos y el valor actual de los
parámetros, de modo que el cálculo del paso-
M sea más simple al poderser aplicado a este
conjunto de datos completo y rectangular.
Derivação do algoritmo EM
Para isto se introduce se utiliza o
logaritmo da equação de verosimilianza
X vector aleatório de uma
família parametrizada.
Derivação do algoritmo EM
Derivação do algoritmo EM
• Se supone que el conocimiento de las
variables ocultas hara que la maximizacion de
la funcion sea mas facil.
• Z vector aleatorio oculto y elementos z, la
probabilidad total en terminos de z es:
• Equação 3
Derivação do algoritmo EM
• Equação 3 em 2: equação 4
• Desigualdad de jensens
Derivação do algoritmo EM
• Analogamente aplicando para equação 3
Derivação do algoritmo EM
Por conveniência
Interpretação de uma iteração do
algoritmo
Acotada por
Expectation
Maximixation
Processo
• Inicialização:
• Execução:
Etapa E:
Etapa M:
Iterar ate convergência (não garantia de máximo
global) o condição de terminação
Exemplo #1
Queremos classificar um grupo de
pessoas em dois grupos de alta ou
baixa
Para esto nos basamos en el modelo estadístico
De mezclas finitas.
Mezclas finitas
Para determinar
completamente este
modelo se deben
determinar los 5
parámetros
Media
Equa: 1
Varianza
Equa: 2
Probabilidade
Do Grupo A
Equa: 3
Função Normal
Xi= dado
Wai= Probabilidade que o
dado i pertence ao grupo
A
PG1 é sorteado aleatoriamente
INICIALIZAÇÃO
• Passo M:
Calculamos os 5 parametros com as equações 1,
2, 3 onde 1 e 2 podem ser aplicadas para o
grupo B.
Passo E
Se calcula para cada dado e grupo
Se normaliza
Condição de terminação
Iterar hasta que la diferencia de log
probabilidad global sea menor a 0,01
para 3 iteraciones sucesivas.
Resultado Final
Exemplo #2: Mistura de gaussianas
Suma ponderada de K gaussianas
Onde
Parâmetros a estimar
Exemplo #2: Mistura de gaussianas
Se X é um conjunto de n mostras I.I.D
Então
Dadas n mostras i.i.d
Tomadas de uma mistura
De gaussianas com
parâmetros:
Definimos a la probabilidad de que la i-ésima muestra pertenezca a la j-ésima gaussiana como
Satisfaze
probabilidad de que la i-ésima
muestra pertenezca a la j-ésima
gaussiana
• Considere uma mistura de gaussianas 2D com
parametros
Solução
Depois da terça iteração

Mais conteúdo relacionado

Mais procurados

ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4
ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4
ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4
Dimitris Psounis
 
Maximum Likelihood Estimation
Maximum Likelihood EstimationMaximum Likelihood Estimation
Maximum Likelihood Estimation
guestfee8698
 
Pruebas de hipótesis para la media poblacional con muestras pequeñas
Pruebas de hipótesis para la media poblacional con muestras pequeñasPruebas de hipótesis para la media poblacional con muestras pequeñas
Pruebas de hipótesis para la media poblacional con muestras pequeñas
Paulina Garcia Aguilera
 
Estadistica y probabilidades cap VII
Estadistica y probabilidades cap VIIEstadistica y probabilidades cap VII
Estadistica y probabilidades cap VII
Richard Huaman Durand
 
Distribuciones discretas de_probabiliidad
Distribuciones discretas de_probabiliidadDistribuciones discretas de_probabiliidad
Distribuciones discretas de_probabiliidad
UNAD
 

Mais procurados (20)

ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4
ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4
ΠΛΗ30 ΤΥΠΟΛΟΓΙΟ ΕΝΟΤΗΤΑΣ 4
 
Chapter 6 part1- Introduction to Inference-Estimating with Confidence (Introd...
Chapter 6 part1- Introduction to Inference-Estimating with Confidence (Introd...Chapter 6 part1- Introduction to Inference-Estimating with Confidence (Introd...
Chapter 6 part1- Introduction to Inference-Estimating with Confidence (Introd...
 
Introduction to Bayesian Inference
Introduction to Bayesian InferenceIntroduction to Bayesian Inference
Introduction to Bayesian Inference
 
Estadistica inferencia
Estadistica inferenciaEstadistica inferencia
Estadistica inferencia
 
Estimación de Parámetros
Estimación de ParámetrosEstimación de Parámetros
Estimación de Parámetros
 
Probability Distribution
Probability DistributionProbability Distribution
Probability Distribution
 
Basic of Statistical Inference Part-III: The Theory of Estimation from Dexlab...
Basic of Statistical Inference Part-III: The Theory of Estimation from Dexlab...Basic of Statistical Inference Part-III: The Theory of Estimation from Dexlab...
Basic of Statistical Inference Part-III: The Theory of Estimation from Dexlab...
 
Maximum Likelihood Estimation
Maximum Likelihood EstimationMaximum Likelihood Estimation
Maximum Likelihood Estimation
 
Inferential Statistics
Inferential StatisticsInferential Statistics
Inferential Statistics
 
teoria de juegoss.pptx
teoria de juegoss.pptxteoria de juegoss.pptx
teoria de juegoss.pptx
 
Tipos de probabilidades
Tipos de probabilidadesTipos de probabilidades
Tipos de probabilidades
 
Pruebas de hipótesis para la media poblacional con muestras pequeñas
Pruebas de hipótesis para la media poblacional con muestras pequeñasPruebas de hipótesis para la media poblacional con muestras pequeñas
Pruebas de hipótesis para la media poblacional con muestras pequeñas
 
Sampling Theory.pdf
Sampling Theory.pdfSampling Theory.pdf
Sampling Theory.pdf
 
Statistical inference 2
Statistical inference 2Statistical inference 2
Statistical inference 2
 
Estadistica y probabilidades cap VII
Estadistica y probabilidades cap VIIEstadistica y probabilidades cap VII
Estadistica y probabilidades cap VII
 
Prueba de hipotesis v6 ok
Prueba de hipotesis v6 okPrueba de hipotesis v6 ok
Prueba de hipotesis v6 ok
 
Distribuciones discretas de_probabiliidad
Distribuciones discretas de_probabiliidadDistribuciones discretas de_probabiliidad
Distribuciones discretas de_probabiliidad
 
Hypothesis Testing
Hypothesis TestingHypothesis Testing
Hypothesis Testing
 
Variables aleatoria
Variables aleatoriaVariables aleatoria
Variables aleatoria
 
Hipotesis
HipotesisHipotesis
Hipotesis
 

Destaque (6)

Expectation Maximization: o básico do básico
Expectation Maximization: o básico do básicoExpectation Maximization: o básico do básico
Expectation Maximization: o básico do básico
 
algoritmo EM portugues
algoritmo EM portuguesalgoritmo EM portugues
algoritmo EM portugues
 
El algoritmo EM
El algoritmo EMEl algoritmo EM
El algoritmo EM
 
Modelos Probabilísticos: Aplicación al Reconocimiento Automático del Habla
Modelos Probabilísticos: Aplicación al Reconocimiento Automático del HablaModelos Probabilísticos: Aplicación al Reconocimiento Automático del Habla
Modelos Probabilísticos: Aplicación al Reconocimiento Automático del Habla
 
Conceitos básicos de programação orientada a objetos
Conceitos básicos de programação orientada a objetosConceitos básicos de programação orientada a objetos
Conceitos básicos de programação orientada a objetos
 
Programação orientada a objetos
Programação orientada a objetosProgramação orientada a objetos
Programação orientada a objetos
 

Semelhante a Algoritmo EM

1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf
PILFRUTFELIZ
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
Alvaro Gil
 
Proyecto grupal 2
Proyecto grupal 2Proyecto grupal 2
Proyecto grupal 2
briggitty
 
Analisis numerico unidad 1
Analisis numerico unidad 1Analisis numerico unidad 1
Analisis numerico unidad 1
Jhonathan Jaen
 

Semelhante a Algoritmo EM (20)

Maxima verosimilitud
Maxima verosimilitudMaxima verosimilitud
Maxima verosimilitud
 
DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO
DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO
DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO
 
1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf
 
Terminos basicos
Terminos basicosTerminos basicos
Terminos basicos
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 
Calculo numerico y manejo de errores (Resumen)
Calculo numerico y manejo de errores (Resumen)Calculo numerico y manejo de errores (Resumen)
Calculo numerico y manejo de errores (Resumen)
 
Normalidad uni y multivariante en r
Normalidad uni y multivariante en rNormalidad uni y multivariante en r
Normalidad uni y multivariante en r
 
1_Unidad_SolNum_SE_Lin.pptx
1_Unidad_SolNum_SE_Lin.pptx1_Unidad_SolNum_SE_Lin.pptx
1_Unidad_SolNum_SE_Lin.pptx
 
Analisis numerico, unidad i
Analisis numerico, unidad iAnalisis numerico, unidad i
Analisis numerico, unidad i
 
Metodos-Numericos_por tipos de cada opcion.pptx
Metodos-Numericos_por tipos de cada opcion.pptxMetodos-Numericos_por tipos de cada opcion.pptx
Metodos-Numericos_por tipos de cada opcion.pptx
 
Proyecto grupal 2
Proyecto grupal 2Proyecto grupal 2
Proyecto grupal 2
 
The fisher assumptions and how to check them
The fisher assumptions and how to check themThe fisher assumptions and how to check them
The fisher assumptions and how to check them
 
Analisis numerico
Analisis numericoAnalisis numerico
Analisis numerico
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)
 
Analisis numerico unidad 1
Analisis numerico unidad 1Analisis numerico unidad 1
Analisis numerico unidad 1
 
Ajuste red libre_ii
Ajuste red libre_iiAjuste red libre_ii
Ajuste red libre_ii
 
Medidas de Orden o Posición y Dispersión
Medidas de Orden o Posición y DispersiónMedidas de Orden o Posición y Dispersión
Medidas de Orden o Posición y Dispersión
 
Unidad 2 introducción a los algoritmos
Unidad 2 introducción a los algoritmosUnidad 2 introducción a los algoritmos
Unidad 2 introducción a los algoritmos
 
Calculo numerico
Calculo numericoCalculo numerico
Calculo numerico
 
Simulacion uam
Simulacion uamSimulacion uam
Simulacion uam
 

Algoritmo EM

  • 1. Vasamento: Algoritmo EM Manuel Ramón Vargas Avila
  • 2. Introdução Algoritmo EM definição: Es un método general para encontrar el estimador de máxima verosimilitud de los parámetros de una distribución de probabilidad. La situación en la que el algoritmo EM muestra toda su potencia es en los problemas de datos incompletos, donde la estimación de máxima verosimilitud resulta difícil debido a la ausencia de alguna parte de los datos dentro de una estructura de datos simple y familiar Se utiliza en problemas de : clustering, reconocimiento de patrones, Modelos ocultos de Markov, entre otros. aplicaciones en casi todos los contextos estadísticos y en casi todos los campos donde se hayan aplicado técnicas estadísticas: tratamiento de imágenes médicas, corrección de censos, epidemiología del SIDA, y entrenamiento de redes neuronales artificiales, entre otros.
  • 3. • El algoritmo EM consta de dos pasos: paso-E y paso-M. El paso-E consiste en generar datos para conseguir un problema de datos completos, usando el conjunto de datos observados del problema de datos incompletos y el valor actual de los parámetros, de modo que el cálculo del paso- M sea más simple al poderser aplicado a este conjunto de datos completo y rectangular.
  • 4. Derivação do algoritmo EM Para isto se introduce se utiliza o logaritmo da equação de verosimilianza X vector aleatório de uma família parametrizada.
  • 6. Derivação do algoritmo EM • Se supone que el conocimiento de las variables ocultas hara que la maximizacion de la funcion sea mas facil. • Z vector aleatorio oculto y elementos z, la probabilidad total en terminos de z es: • Equação 3
  • 7. Derivação do algoritmo EM • Equação 3 em 2: equação 4 • Desigualdad de jensens
  • 8. Derivação do algoritmo EM • Analogamente aplicando para equação 3
  • 9. Derivação do algoritmo EM Por conveniência
  • 10. Interpretação de uma iteração do algoritmo Acotada por
  • 12. Processo • Inicialização: • Execução: Etapa E: Etapa M: Iterar ate convergência (não garantia de máximo global) o condição de terminação
  • 13. Exemplo #1 Queremos classificar um grupo de pessoas em dois grupos de alta ou baixa Para esto nos basamos en el modelo estadístico De mezclas finitas.
  • 14. Mezclas finitas Para determinar completamente este modelo se deben determinar los 5 parámetros
  • 15. Media Equa: 1 Varianza Equa: 2 Probabilidade Do Grupo A Equa: 3 Função Normal Xi= dado Wai= Probabilidade que o dado i pertence ao grupo A
  • 16. PG1 é sorteado aleatoriamente INICIALIZAÇÃO
  • 17. • Passo M: Calculamos os 5 parametros com as equações 1, 2, 3 onde 1 e 2 podem ser aplicadas para o grupo B.
  • 18. Passo E Se calcula para cada dado e grupo Se normaliza
  • 19. Condição de terminação Iterar hasta que la diferencia de log probabilidad global sea menor a 0,01 para 3 iteraciones sucesivas.
  • 21. Exemplo #2: Mistura de gaussianas Suma ponderada de K gaussianas Onde Parâmetros a estimar
  • 22. Exemplo #2: Mistura de gaussianas Se X é um conjunto de n mostras I.I.D Então
  • 23. Dadas n mostras i.i.d Tomadas de uma mistura De gaussianas com parâmetros: Definimos a la probabilidad de que la i-ésima muestra pertenezca a la j-ésima gaussiana como Satisfaze
  • 24. probabilidad de que la i-ésima muestra pertenezca a la j-ésima gaussiana
  • 25. • Considere uma mistura de gaussianas 2D com parametros