2. Regla de Laplace
Definición
Su espacio muestral E tiene todos los sucesos
elementales equi-probables.
La probabilidad de un suceso A es:
3. Regla de Laplace - Ejemplo
Este dado no está trucado. Su espacio muestral es : E ={1, 2, 3, 4, 5, 6}.
Si lo lanzas muchísimas veces. ¿Qué número saldrá más veces el 1 o el
2 o el 3, o el 4, o el 5, o el 6? ¿ Cuál será la probabilidad de que salga un
1 ? ¿y un 2? ¿y un 3?...
Parece que todos los sucesos elementales, todos los del espacio
muestral E, tienen la misma probabilidad de ocurrir. Son
EQUIPROBABLES.
Entonces si quieres calcular la
probabilidad del suceso ser par:
A= {2, 4 o 6 } saldrá 3 de 6 = 0.5
3 casos que tiene el suceso A. 3
6 que tiene el espacio muestral E
6
4. Teorema de Bayes
Sea {A1,A3,...,Ai,...,An} un conjunto de sucesos mutuamente
excluyentes y exhaustivos, y tales que la probabilidad de cada
uno de ellos es distinta de cero. Sea B un suceso cualquiera del
que se conocen las probabilidades condicionales P(B | Ai).
Entonces, la probabilidad P(Ai | B) viene dada por la expresión:
5. Teorema de Bayes - Ejemplo
El parte meteorológico ha anunciado tres posibilidades para el fin de semana:
a) Que llueva: probabilidad del 50%.
b) Que nieve: probabilidad del 30%
c) Que haya niebla: probabilidad del 20%.
Según estos posibles estados meteorológicos, la posibilidad de que ocurra un
accidente es la siguiente:
a) Si llueve: probabilidad de accidente del 20%.
b) Si nieva: probabilidad de accidente del 10%
c) Si hay niebla: probabilidad de accidente del 5%.
Resulta que efectivamente ocurre un accidente y como no estabamos en la
ciudad no sabemos que tiempo hizo (llovío, nevó o hubo niebla). El teorema de
Bayes nos permite calcular estas probabilidades: Las probabilidades que
manejamos antes de conocer que ha ocurrido un accidente se denominan
"probabilidades a priori" (lluvia con el 50%, nieve con el 30% y niebla con el
20%). Una vez que incorporamos la información de que ha ocurrido un
accidente, las probabilidades del suceso A cambian: son probabilidades
condicionadas P (A/B), que se denominan "probabilidades a posteriori".
6. a) Probabilidad de que estuviera lloviendo:
La probabilidad de que efectivamente estuviera lloviendo el día del accidente
(probabilidad a posteriori) es del 71,4%.
b) Probabilidad de que estuviera nevando:
La probabilidad de que estuviera nevando es del 21,4%.
c) Probabilidad de que hubiera niebla:
La probabilidad de que hubiera niebla es del 7,1%
7. Distribución de Bernoulli
Es una distribución de probabilidad discreta, que toma valor 1
para la probabilidad de éxito (p) y valor 0 para la probabilidad de
fracaso (q = 1 − p).
Si X es una variable aleatoria que mide "número de éxitos", y se
realiza un único experimento con dos posibles resultados
(éxito o fracaso), se dice que la variable aleatoria X se distribuye
como una Bernoulli de parámetro P.
La fórmula es:
Con x = {0,1}
8. Distribución de Bernoulli - Ejemplo
"Lanzar una moneda, probabilidad de conseguir que salga
cruz".
Se trata de un solo experimento, con dos resultados
posibles: el éxito (p) se considerará sacar cruz. Valdrá 0,5.
El fracaso (q) que saliera cara, que vale (1 - p) = 1 - 0,5 = 0,5.
La variable aleatoria X medirá "número de cruces que salen
en un lanzamiento", y sólo existirán dos resultados
posibles: 0 (ninguna cruz, es decir, salir cara) y 1 (una cruz).
Por tanto, la v.a. X se distribuirá como una Bernoulli, ya que
cumple todos los requisitos.
X∼Be(0,5)
P(X = 0) = f(0) = 0,500,51 = 0,5
P(X = 1) = f(1) = 0,510,50 = 0,5
9. Distribución Binomial
La distribución binomial es típica de las variables que proceden de un
experimento que cumple las siguientes condiciones:
1. El experimento está compuesto de n pruebas iguales, siendo n un número
natural fijo.
2. Cada prueba resulta en un suceso que cumple las propiedades de la variable
binómica o de Bernoulli, es decir, sólo existen dos posibles resultados,
mutuamente excluyentes, que se denominan generalmente como éxito y
fracaso.
3. La probabilidad del ‚éxito (o del fracaso) es constante en todas las pruebas.
P(éxito) = p ; P(fracaso) = 1 - p = q
4. Las pruebas son estadísticamente independientes.
10. Distribución Binomial
En estas condiciones, la variable aleatoria X que cuenta el
número de ‚éxitos en las n pruebas se llama variable binomial.
Evidentemente, el espacio muestral estar compuesto por los
números enteros del 0 al n. Se suele decir que una variable
binómica cuenta objetos de un tipo determinado en un muestreo
de n elementos con reemplazamiento.
La función de probabilidad de la variable binomial se representa
como b(x,n,p) siendo n el número de pruebas y p la probabilidad
del ‚éxito. n y p son los parámetros de la distribución.
11. Distribución Binomial
• n es el número de pruebas.
• k es el número de éxitos.
• p es la probabilidad del éxito.
• q es la probabilidad del fracaso.
• el número combinatorio es:
• Media: μ = n.p
• Varianza:
•Desviación Típica:
12. Distribución Binomial
En una farmacia se ha calculado la probabilidad de venderle a un cliente con obra social
es del 20%. Se eligen al azar 15 clientes de ese tipo que ingresan al negocio y se desea
calcular la probabilidad de concretar menos de tres ventas.
Si se cumple los supuestos básicos de la distribución binomial, entonces:
P(x<3) = P(x=0) + P(x=1) + P(x=2)
Matemáticamente esto se resuelve así:
Entonces: P(x<3) = 0.0352 + 0.1319 + 0.2309 = 0.398
13. Distribución de Poisson
Una variable de tipo Poisson cuenta ‚éxitos (es decir, objetos de un tipo
determinado) que ocurren en una región del espacio o del tiempo.
El experimento que la genera debe cumplir las siguientes condiciones:
1. El número de éxitos que ocurren en cada región del tiempo o del
espacio es independiente de lo que ocurra en cualquier otro tiempo o
espacio disjunto del anterior.
2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es
proporcional al tamaño de este y no depende de lo que ocurra fuera
de él.
3. La probabilidad de encontrar uno o más ‚éxitos en una región del
tiempo o del espacio tiende a cero a medida que se reducen las
dimensiones de la región en estudio.
14. Distribución de Poisson
Como consecuencia de estas condiciones, las variables
Poisson típicas son variables en las que se cuentan sucesos
raros.
La función de probabilidad de una variable Poisson es:
15. Distribución de Poisson
Supongamos que estamos investigando la seguridad de una peligrosa intelección de
calles, los registros policíacos indican una media de 5 accidentes mensuales en esta
intersección.
El departamento de seguridad vial desea que calculemos la probabilidad de que en
cualquier mes ocurran exactamente 3 accidentes.
Analizando el problema, este situación se ajusta a un proceso de Poisson, hay una
secuencia de llegada (por mas que exista un choque múltiple, siempre hay uno que choca
primero). Tenemos la siguiente información:
l = 5 accidentes por mes
x = 3 accidentes por mes
Aplicando la formula de la probabilidad de Poisson:
16. Distribución Geométrica
Esta distribución es un caso especial de la Binomial, ya que se
desea que ocurra un éxito por primera y única vez en el último
ensayo que se realiza del experimento, para obtener la fórmula de
esta distribución.
Donde:
p(x) = probabilidad de que ocurra un éxito en el ensayo x por
primera y única vez
p = probabilidad de éxito
q = probabilidad de fracaso
17. Distribución Geométrica -Ejemplo
Sí la probabilidad de que un cierto dispositivo de medición muestre
una desviación excesiva es de 0.05, ¿cuál es la probabilidad de que; a)
el sexto de estos dispositivos de medición sometidos a prueba sea el
primero en mostrar una desviación excesiva?, b) el séptimo de estos
dispositivos de medición sometidos a prueba, sea el primero que no
muestre una desviación excesiva?.
a) x = 6 que el sexto dispositivo de medición probado sea el primero
que muestre una variación excesiva
p = 0.05 =probabilidad de que un dispositivo de medición muestre una
variación excesiva
q = 0.95 =probabilidad de que un dispositivo de medición no muestre
una variación excesiva
18. Distribución Geométrica -Ejemplo
b) x = 5 que el quinto dispositivo de medición probado, sea el
primero que no muestre una desviación excesiva
p = 0.95 = probabilidad de que un dispositivo de medición no
muestre una variación excesiva
q = 0.05 = probabilidad de que un dispositivo de medición
muestre una variación excesiva
19. Distribución Binomial Negativa
En estadística la distribución binomial es una distribución de
probabilidad discreta que incluye a la distribución de Pascal.
El número de experimentos de Bernoulli de parámetro θ
independientes realizados hasta la consecución del k-ésimo éxito es
una variable aleatoria que tiene una distribución binomial negativa con
parámetros k y θ.
La distribución geométrica es el caso concreto de la binomial negativa
cuando k = 1.
21. Distribución Hipergeométrica
Características:
a) Al realizar un experimento con este tipo de distribución, se esperan más
de dos tipos de resultados.
b) Las probabilidades asociadas a cada uno de estos resultados no son
constantes.
c) Los ensayos o repeticiones del experimento no son independientes entre
sí.
d) El número de repeticiones del experimento n, es constante.
22. Distribución Hipergeométrica
Entonces en este caso se tienen más de dos tipos de objetos, por lo que
la fórmula a utilizar sería:
donde:
N = x + y + z = total de objetos
a = total de objetos del primer tipo
b = total de objetos del segundo tipo
c = N-a-b = total de objetos del tercer tipo
n = objetos seleccionados en la muestra
x = objetos del primer tipo en la muestra
y = objetos del segundo tipo en la muestra
z = n-x-y = objetos del tercer tipo en la muestra
23. Distribución Hipergeométrica
Ejemplo
En un lote de productos se tienen 20 productos sin defectos, 3
con defectos menores y 2 con defectos mayores, se seleccionan al
azar 5 productos de este lote, determine la probabilidad de que
a) 3 de los productos seleccionados no tengan defectos y 1 tenga
defectos menores, b) 4 de los productos seleccionados no tengan
defectos y 1 tenga defectos menores.
24. Distribución Hipergeométrica
a)N= 20+3+2 =25 total de artículos
a=20 productos sin defectos
b= 3 productos con defectos menores
N-a-b= 2 productos con defectos mayores
n= 5 productos seleccionados en la muestra
x = 3 productos sin defectos en la muestra = variable que nos define el # de productos sin
defectos en la muestra
y = 1 producto con defectos menores en la muestra = variable que nos define el # de
productos con defectos menores en la muestra
z = n-x-y = 5-3-1 = 1 producto con defectos mayores en la muestra = variable que nos
define el # de productos con defectos mayores en la muestra
25. Distribución Hipergeométrica
b)N= 25
a=20 productos sin defectos
b= 3 productos con defectos menores
N-a-b= 2 productos con defectos mayores
n= 5 productos seleccionados en la muestra
x = 4 productos sin defectos en la muestra = variable que nos define el # de productos sin
defectos en la muestra
y = 1 producto con defectos menores en la muestra = variable que nos define el # de
productos con defectos menores en la muestra
z = n-x-y = 5-4-1 = 0 productos con defectos mayores en la muestra = variable que nos
define el # de productos con defectos mayores en la muestra