2. Sumário
❖ Análise de Discriminantes
Banco de dados
Apresentação no R
❖ Análise de Agrupamento
Banco de dados
Métodos Hierárquicos
Métodos Não Hierárquicos
3. Distribuição Binomial Negativa
Antes de dissertar sobre a distribuição binomial negativa é importante entender
o pensamento que a gerou, ela obviamente partiu da distribuição binomial, que nos dá uma
ferramenta para calcular a probabilidade de “r” sucessos, ocorram dentro de “x” tentativas.
Porém limitar as tentativas necessárias para se conseguir um número determinado de
sucessos, é uma ideia muito mais produtiva, pois com isso reduzimos os ensaios de Bernoulli
no estudo, o que pode facilitar nos cálculos. Segue análise da distribuição
4. Função de Densidade de Probabilidade
“x” é o número de tentativas necessárias para conseguir os “r” sucessos
5. Função de Densidade de Probabilidade
Como a ideia é obtermos um sucesso na última tentativa, então “p” será o último resultado
obtido;
6. Função de Densidade de Probabilidade
Enquanto isso as tentativas anteriores, geram uma combinação E uma permutação dos
possíveis sucessos e fracassos do estudo;
7. Função de Densidade de Probabilidade
Logo como temos a interseção de dois eventos independentes, nos dando assim a
função de densidade de probabilidade da Binomial Negativa
8. Função Geradora de Momentos
A “fgm” é uma importante ferramenta para obter informações que descrevem bem
qualquer distribuição, logo a aplicação na Distribuição Binomial Negativa se faz necessária
9. Função Geradora de Momentos
A “fgm” é uma importante ferramenta para obter informações que descrevem bem
qualquer distribuição, logo a aplicação na Distribuição Binomial Negativa se faz necessária
𝑀𝑥 𝑡 = 𝐸 𝑒𝑡∗𝑋 =
𝑥=𝑟
∞
𝑒𝑡∗𝑋 ∗ 𝑃(𝑋 = 𝑥)
10. Função Geradora de Momentos
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
11. Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ (1 − 𝑝)𝑥−𝑟
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
12. Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ (1 − 𝑝)𝑥−𝑟
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
• Para melhor trabalha-la iremos multiplicar e dividir a fórmula por ;
(𝑒𝑡
)
𝑟
13. Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ (1 − 𝑝)𝑥−𝑟
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
• Para melhor trabalha-la iremos multiplicar e dividir a fórmula por ;
(𝑒𝑡
)
𝑟
𝐸 𝑒𝑡∗𝑋
= 𝑥=𝑟
∞
𝑒𝑡∗𝑥
∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ 1 − 𝑝 𝑥−𝑟
∗ ((𝑒𝑡
)
𝑟
/(𝑒𝑡
)
𝑟
)
14. Função Geradora de Momentos
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
15. Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡)
−𝑟
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
16. Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡)
−𝑟
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
• Desta forma podemos unificar os termos que possuem “𝑒” com os termos
que possuíssem o mesmo expoente;
17. Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡)
−𝑟
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
• Desta forma podemos unificar os termos que possuem “𝑒” com os termos
que possuíssem o mesmo expoente;
𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗ 𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑥−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑥−𝑟
18. Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
19. Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 𝑘=0
∞ 𝑘+𝑟−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘
20. Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 𝑘=0
∞ 𝑘+𝑟−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘
• Podemos ver que agora que o somatório se tornou um binômio de Newton
gerando a fórmula;
21. Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 𝑘=0
∞ 𝑘+𝑟−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘
• Podemos ver que agora que o somatório se tornou um binômio de Newton
gerando a fórmula;
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 1 − 1 − 𝑝 ∗ 𝑒𝑡 −𝑟
22. Função Geradora de Momentos
• Podemos reescrever essa “fgm” da seguinte forma:
23. Função Geradora de Momentos
• Podemos reescrever essa “fgm” da seguinte forma:
𝐸 𝑒𝑡∗𝑋
=
(𝑝 ∗𝑒𝑡)
𝑟
1− 1−𝑝 ∗𝑒𝑡 𝑟
24. Função Geradora de Momentos
• Podemos reescrever essa “fgm” da seguinte forma:
𝐸 𝑒𝑡∗𝑋
=
(𝑝 ∗𝑒𝑡)
𝑟
1− 1−𝑝 ∗𝑒𝑡 𝑟
• Uma “fgm” só existe se for finito. Então, tudo o que precisamos fazer é observar
quando 𝑀𝑥 𝑡 é finito. Bem, isso acontece quando 1 − 𝑝 ∗ 𝑒𝑡
< 1, ou para ficar
mais claro o seu equivalentemente quando 𝑡 < ln(1 − 𝑝).
25. Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
26. Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
27. Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
• Pode-se destacar o trecho , pois ele pode ser reescrito da forma : isso
para facilitar a conclusão;
28. Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
• Pode-se destacar o trecho , pois ele pode ser reescrito da forma : isso
para facilitar a conclusão;
29. Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
30. Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
31. Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
• Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de
Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
32. Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
• Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de
Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
33. Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
34. Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
35. Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
• Podemos perceber que a forma da equação acima é muito parecida com a da
esperança calculada anteriormente, com isso em mente podemos desenvolve-la de
forma similar
36. Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
• Podemos perceber que a forma da equação acima é muito parecida com a da
esperança calculada anteriormente, com isso em mente podemos desenvolve-la de
forma similar
37. Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
38. Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
39. Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
40. Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
41. Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
• Ou também:
42. Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
• Ou também:
43.
44. Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
• Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de
Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
57. Análise de Agrupamento
● BANCO DE DADOS
Para realizar a análise de agrupamento foi elaborado um banco de dados pelas integrantes do
presente trabalho, ele é composto por 8 indivíduos que são as disciplinas do curso de Bacharelado
em Estatística são elas:
Estatística Descritiva (Est.Desc), Geometría Analítica (Geom.), Álgebra Linear (Algebra), Algoritmo e
programação de Computadores (algor.), Probabilidade (Probab.), Inferência, Análise multivariada
(Multiv.) e Softwares Estatísticos(soft.).
Estas disciplinas foram avaliadas com um pontuação de 1 a 8, sendo 1 a que menos se adequada
para as variáveis e 8 a que está mais de acordo com a variável. As variáveis são:
A dificuldade da disciplina(dif), a utilização do soft R(R), a Utilização da disciplina de Cálculo(calc), e
as disciplinas que mais causam reprovação (reprov).
59. Calculando a matriz de distância
(euclidiana)
D2Mqt = vegdist(dads, method = "euclidean")
● Quanto menor a distância nessa matriz mais similares serão as observações.
60. Métodos Hierárquicos
avg1qt = hclust(D2Mqt, method='average')
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(avg1qt,hang=-1,col=1,ylab="Euclidean
distance",xlab="User",main = "");box()
● O Dendrograma foi gerado utilizando a
distância Euclidiana usando o método
de agrupamento de distância média
(Average Linkage).
61. Calculando a correlação entre a cofenética e a
matriz euclidiana
● Obtivemos um valor consideravelmente alto, então significa que o método de
agrupamento foi bom.
● Matriz de distâncias cofenéticas - UPGMA
distance_a1qt = cophenetic(avg1qt)
● Correlação entre as duas matrizes de distância
ccavg1qt = cor(D2Mqt, distance_a1qt);ccavg1qt
62. Fazendo pelo método de Ward
w1qt = hclust(D2Mqt, method="ward.D2")
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(w1qt,hang=-1,col=1,ylab="Euclidean
distance", xlab="User",main = ""); box()
● Matriz de distâncias cofenéticas
distance_w1qt = cophenetic(w1qt)
● Correlação entre as duas matrizes de
distância
ccw1qt = cor(D2Mqt, distance_w1qt);ccw1qt
63. Fazendo pelo método de Single
s1qt = hclust(D2Mqt, method="single")
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(s1qt,hang=-1,col=1,ylab="Euclidean distance",
xlab= "User", main = "");box()
● Matriz de distâncias cofenéticas
distance_s1qt = cophenetic(s1qt)
● Correlação entre as duas matrizes de
distância
ccs1qt = cor(D2Mqt, distance_s1qt);ccs1qt
64. Fazendo pelo método do
Complete
● Matriz de distâncias cofenéticas
distance_c1qt = cophenetic(c1qt)
● Correlação entre as duas matrizes de
distância
c1qt = hclust(D2Mqt, method="complete")
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(c1qt,hang=-1,col=1,ylab="Euclidean
distance",xlab="User",main = "");box()