SlideShare uma empresa Scribd logo
1 de 72
SEGUNDO TRABALHO
AVALIATIVO
MULTIVARIADA II
Sumário
❖ Análise de Discriminantes
Banco de dados
Apresentação no R
❖ Análise de Agrupamento
Banco de dados
Métodos Hierárquicos
Métodos Não Hierárquicos
Distribuição Binomial Negativa
Antes de dissertar sobre a distribuição binomial negativa é importante entender
o pensamento que a gerou, ela obviamente partiu da distribuição binomial, que nos dá uma
ferramenta para calcular a probabilidade de “r” sucessos, ocorram dentro de “x” tentativas.
Porém limitar as tentativas necessárias para se conseguir um número determinado de
sucessos, é uma ideia muito mais produtiva, pois com isso reduzimos os ensaios de Bernoulli
no estudo, o que pode facilitar nos cálculos. Segue análise da distribuição
Função de Densidade de Probabilidade
“x” é o número de tentativas necessárias para conseguir os “r” sucessos
Função de Densidade de Probabilidade
Como a ideia é obtermos um sucesso na última tentativa, então “p” será o último resultado
obtido;
Função de Densidade de Probabilidade
Enquanto isso as tentativas anteriores, geram uma combinação E uma permutação dos
possíveis sucessos e fracassos do estudo;
Função de Densidade de Probabilidade
Logo como temos a interseção de dois eventos independentes, nos dando assim a
função de densidade de probabilidade da Binomial Negativa
Função Geradora de Momentos
A “fgm” é uma importante ferramenta para obter informações que descrevem bem
qualquer distribuição, logo a aplicação na Distribuição Binomial Negativa se faz necessária
Função Geradora de Momentos
A “fgm” é uma importante ferramenta para obter informações que descrevem bem
qualquer distribuição, logo a aplicação na Distribuição Binomial Negativa se faz necessária
𝑀𝑥 𝑡 = 𝐸 𝑒𝑡∗𝑋 =
𝑥=𝑟
∞
𝑒𝑡∗𝑋 ∗ 𝑃(𝑋 = 𝑥)
Função Geradora de Momentos
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ (1 − 𝑝)𝑥−𝑟
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ (1 − 𝑝)𝑥−𝑟
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
• Para melhor trabalha-la iremos multiplicar e dividir a fórmula por ;
(𝑒𝑡
)
𝑟
Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ (1 − 𝑝)𝑥−𝑟
• Desenvolvendo a função de probabilidade, obs: trocamos o “q”
pelo seu equivalente “(1-p)”;
• Para melhor trabalha-la iremos multiplicar e dividir a fórmula por ;
(𝑒𝑡
)
𝑟
𝐸 𝑒𝑡∗𝑋
= 𝑥=𝑟
∞
𝑒𝑡∗𝑥
∗ 𝑥−1
𝑟−1
∗ 𝑝𝑟
∗ 1 − 𝑝 𝑥−𝑟
∗ ((𝑒𝑡
)
𝑟
/(𝑒𝑡
)
𝑟
)
Função Geradora de Momentos
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡)
−𝑟
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡)
−𝑟
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
• Desta forma podemos unificar os termos que possuem “𝑒” com os termos
que possuíssem o mesmo expoente;
Função Geradora de Momentos
𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1
𝑟−1
∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡)
−𝑟
• Como “𝑝𝑟
” e “(𝑒𝑡
)
𝑟
” não dependem de “𝑥”, pode-se move-los para fora do
somatório;
• Desta forma podemos unificar os termos que possuem “𝑒” com os termos
que possuíssem o mesmo expoente;
𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗ 𝑒𝑡)
𝑟
∗ 𝑥=𝑟
∞ 𝑥−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑥−𝑟
Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 𝑘=0
∞ 𝑘+𝑟−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘
Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 𝑘=0
∞ 𝑘+𝑟−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘
• Podemos ver que agora que o somatório se tornou um binômio de Newton
gerando a fórmula;
Função Geradora de Momentos
• Visando uma mudança de índice aplicaremos uma constante “k = x − r”
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 𝑘=0
∞ 𝑘+𝑟−1
𝑟−1
∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘
• Podemos ver que agora que o somatório se tornou um binômio de Newton
gerando a fórmula;
𝐸 𝑒𝑡∗𝑋
= (𝑝 ∗ 𝑒𝑡
)
𝑟
∗ 1 − 1 − 𝑝 ∗ 𝑒𝑡 −𝑟
Função Geradora de Momentos
• Podemos reescrever essa “fgm” da seguinte forma:
Função Geradora de Momentos
• Podemos reescrever essa “fgm” da seguinte forma:
𝐸 𝑒𝑡∗𝑋
=
(𝑝 ∗𝑒𝑡)
𝑟
1− 1−𝑝 ∗𝑒𝑡 𝑟
Função Geradora de Momentos
• Podemos reescrever essa “fgm” da seguinte forma:
𝐸 𝑒𝑡∗𝑋
=
(𝑝 ∗𝑒𝑡)
𝑟
1− 1−𝑝 ∗𝑒𝑡 𝑟
• Uma “fgm” só existe se for finito. Então, tudo o que precisamos fazer é observar
quando 𝑀𝑥 𝑡 é finito. Bem, isso acontece quando 1 − 𝑝 ∗ 𝑒𝑡
< 1, ou para ficar
mais claro o seu equivalentemente quando 𝑡 < ln(1 − 𝑝).
Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
• Pode-se destacar o trecho , pois ele pode ser reescrito da forma : isso
para facilitar a conclusão;
Esperança
Podemos fazer a comprovação da média pela primeira derivada centrada em 0
da “fgm”, mas optaremos em resolver pela definição de esperança
por objetividade na economia de tempo.
• Pode-se destacar o trecho , pois ele pode ser reescrito da forma : isso
para facilitar a conclusão;
Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
• Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de
Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
• Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de
Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
• Podemos perceber que a forma da equação acima é muito parecida com a da
esperança calculada anteriormente, com isso em mente podemos desenvolve-la de
forma similar
Variância
Da mesma forma que a Esperança, iremos usar a definição de variância com relação
ao valor esperado como já temos , então vamos focar em
• Podemos perceber que a forma da equação acima é muito parecida com a da
esperança calculada anteriormente, com isso em mente podemos desenvolve-la de
forma similar
Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
• Ou também:
Variância
• Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora
aplicando esse resultado em ;
• Com esse resultado em mãos, temos:
• Ou também:
Esperança
• Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e
também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟
;
• Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de
Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
Informações sobre o banco de dados
Gráfico de dispersão
Fazendo a matriz de confusão
Centróides
Gráfico dos pontos da função discriminante 1
Histograma de FD 1
Histograma FD 2
Gráfico de dispersão de FD 1 e FD 2
Análise de Agrupamento
● BANCO DE DADOS
Para realizar a análise de agrupamento foi elaborado um banco de dados pelas integrantes do
presente trabalho, ele é composto por 8 indivíduos que são as disciplinas do curso de Bacharelado
em Estatística são elas:
Estatística Descritiva (Est.Desc), Geometría Analítica (Geom.), Álgebra Linear (Algebra), Algoritmo e
programação de Computadores (algor.), Probabilidade (Probab.), Inferência, Análise multivariada
(Multiv.) e Softwares Estatísticos(soft.).
Estas disciplinas foram avaliadas com um pontuação de 1 a 8, sendo 1 a que menos se adequada
para as variáveis e 8 a que está mais de acordo com a variável. As variáveis são:
A dificuldade da disciplina(dif), a utilização do soft R(R), a Utilização da disciplina de Cálculo(calc), e
as disciplinas que mais causam reprovação (reprov).
Banco Utilizado
Calculando a matriz de distância
(euclidiana)
D2Mqt = vegdist(dads, method = "euclidean")
● Quanto menor a distância nessa matriz mais similares serão as observações.
Métodos Hierárquicos
avg1qt = hclust(D2Mqt, method='average')
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(avg1qt,hang=-1,col=1,ylab="Euclidean
distance",xlab="User",main = "");box()
● O Dendrograma foi gerado utilizando a
distância Euclidiana usando o método
de agrupamento de distância média
(Average Linkage).
Calculando a correlação entre a cofenética e a
matriz euclidiana
● Obtivemos um valor consideravelmente alto, então significa que o método de
agrupamento foi bom.
● Matriz de distâncias cofenéticas - UPGMA
distance_a1qt = cophenetic(avg1qt)
● Correlação entre as duas matrizes de distância
ccavg1qt = cor(D2Mqt, distance_a1qt);ccavg1qt
Fazendo pelo método de Ward
w1qt = hclust(D2Mqt, method="ward.D2")
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(w1qt,hang=-1,col=1,ylab="Euclidean
distance", xlab="User",main = ""); box()
● Matriz de distâncias cofenéticas
distance_w1qt = cophenetic(w1qt)
● Correlação entre as duas matrizes de
distância
ccw1qt = cor(D2Mqt, distance_w1qt);ccw1qt
Fazendo pelo método de Single
s1qt = hclust(D2Mqt, method="single")
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(s1qt,hang=-1,col=1,ylab="Euclidean distance",
xlab= "User", main = "");box()
● Matriz de distâncias cofenéticas
distance_s1qt = cophenetic(s1qt)
● Correlação entre as duas matrizes de
distância
ccs1qt = cor(D2Mqt, distance_s1qt);ccs1qt
Fazendo pelo método do
Complete
● Matriz de distâncias cofenéticas
distance_c1qt = cophenetic(c1qt)
● Correlação entre as duas matrizes de
distância
c1qt = hclust(D2Mqt, method="complete")
par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2))
plot(c1qt,hang=-1,col=1,ylab="Euclidean
distance",xlab="User",main = "");box()
● Método de Dunn
Fazendo a correlação cofenética
● Método de otimização de Tocher
E
● Método não hierárquico (k-means)
● Fazendo o método de bootstrap
plot(avgbqt ,hang=-1,col=1,main = "",ylab="Euclidean distance",xlab="User");box()
Apresentação topicos em probabilidade (2.pptx
Apresentação topicos em probabilidade (2.pptx

Mais conteúdo relacionado

Semelhante a Apresentação topicos em probabilidade (2.pptx

Mat funcao exponencial logaritmica
Mat funcao exponencial logaritmicaMat funcao exponencial logaritmica
Mat funcao exponencial logaritmica
trigono_metrico
 
Mat progressoes ( pg) ii
Mat progressoes ( pg) iiMat progressoes ( pg) ii
Mat progressoes ( pg) ii
trigono_metrico
 
Qq plot
Qq plotQq plot
Qq plot
weneca
 
Modelo de regressão linear: aspectos teóricos e computacionais
Modelo de regressão linear: aspectos teóricos e computacionais Modelo de regressão linear: aspectos teóricos e computacionais
Modelo de regressão linear: aspectos teóricos e computacionais
Rodrigo Rodrigues
 
Cap4 - Parte 7 - Distribuição Normal
Cap4 - Parte 7 - Distribuição NormalCap4 - Parte 7 - Distribuição Normal
Cap4 - Parte 7 - Distribuição Normal
Regis Andrade
 
Matemática a função módulo
Matemática a   função móduloMatemática a   função módulo
Matemática a função módulo
Eduardo Gomes
 

Semelhante a Apresentação topicos em probabilidade (2.pptx (20)

Calculo Integral - Conceito de primitiva e técnicas de primitivação
Calculo Integral - Conceito de primitiva e técnicas de primitivaçãoCalculo Integral - Conceito de primitiva e técnicas de primitivação
Calculo Integral - Conceito de primitiva e técnicas de primitivação
 
Metódos de Pesquisa em C
Metódos de Pesquisa em CMetódos de Pesquisa em C
Metódos de Pesquisa em C
 
Mat funcao exponencial logaritmica
Mat funcao exponencial logaritmicaMat funcao exponencial logaritmica
Mat funcao exponencial logaritmica
 
Progressões
ProgressõesProgressões
Progressões
 
12 dias de física b
12 dias de física b12 dias de física b
12 dias de física b
 
Mat progressoes ( pg) ii
Mat progressoes ( pg) iiMat progressoes ( pg) ii
Mat progressoes ( pg) ii
 
Calculo1 aula09
Calculo1 aula09Calculo1 aula09
Calculo1 aula09
 
Calculo1 aula09
Calculo1 aula09Calculo1 aula09
Calculo1 aula09
 
mat_ii_aula-2_integral-definida.pdf
mat_ii_aula-2_integral-definida.pdfmat_ii_aula-2_integral-definida.pdf
mat_ii_aula-2_integral-definida.pdf
 
Trabalho2
Trabalho2Trabalho2
Trabalho2
 
Qq plot
Qq plotQq plot
Qq plot
 
Recorrência
RecorrênciaRecorrência
Recorrência
 
Livro de cálculo 1 com resolução de exercícios
Livro de cálculo 1 com resolução de exercíciosLivro de cálculo 1 com resolução de exercícios
Livro de cálculo 1 com resolução de exercícios
 
Equação de Recorrência - I (Otimização)
Equação de Recorrência - I (Otimização)Equação de Recorrência - I (Otimização)
Equação de Recorrência - I (Otimização)
 
Modelo de regressão linear: aspectos teóricos e computacionais
Modelo de regressão linear: aspectos teóricos e computacionais Modelo de regressão linear: aspectos teóricos e computacionais
Modelo de regressão linear: aspectos teóricos e computacionais
 
Cap4 - Parte 7 - Distribuição Normal
Cap4 - Parte 7 - Distribuição NormalCap4 - Parte 7 - Distribuição Normal
Cap4 - Parte 7 - Distribuição Normal
 
Matemática a função módulo
Matemática a   função móduloMatemática a   função módulo
Matemática a função módulo
 
Matemática a função módulo
Matemática a   função móduloMatemática a   função módulo
Matemática a função módulo
 
Operações com potências
Operações com potênciasOperações com potências
Operações com potências
 
CalculoI_aula_02 OK.pptx.pdf
CalculoI_aula_02 OK.pptx.pdfCalculoI_aula_02 OK.pptx.pdf
CalculoI_aula_02 OK.pptx.pdf
 

Mais de LarissaB6 (6)

parte 6-As partes de um trabalho Cientifico.pptx
parte 6-As partes de um trabalho Cientifico.pptxparte 6-As partes de um trabalho Cientifico.pptx
parte 6-As partes de um trabalho Cientifico.pptx
 
Parte 4-As partes de um trabalho Cientifico.pptx
Parte 4-As partes de um trabalho Cientifico.pptxParte 4-As partes de um trabalho Cientifico.pptx
Parte 4-As partes de um trabalho Cientifico.pptx
 
Parte 3-As partes de um trabalho Cientifico.pptx
Parte 3-As partes de um trabalho Cientifico.pptxParte 3-As partes de um trabalho Cientifico.pptx
Parte 3-As partes de um trabalho Cientifico.pptx
 
Cap 06-As etapas do trabalho científico.pptx
Cap 06-As etapas do trabalho científico.pptxCap 06-As etapas do trabalho científico.pptx
Cap 06-As etapas do trabalho científico.pptx
 
Cap 06-As etapas do trabalho científico 2.pptx
Cap 06-As etapas do trabalho científico 2.pptxCap 06-As etapas do trabalho científico 2.pptx
Cap 06-As etapas do trabalho científico 2.pptx
 
apresentação final.pptx
apresentação final.pptxapresentação final.pptx
apresentação final.pptx
 

Apresentação topicos em probabilidade (2.pptx

  • 2. Sumário ❖ Análise de Discriminantes Banco de dados Apresentação no R ❖ Análise de Agrupamento Banco de dados Métodos Hierárquicos Métodos Não Hierárquicos
  • 3. Distribuição Binomial Negativa Antes de dissertar sobre a distribuição binomial negativa é importante entender o pensamento que a gerou, ela obviamente partiu da distribuição binomial, que nos dá uma ferramenta para calcular a probabilidade de “r” sucessos, ocorram dentro de “x” tentativas. Porém limitar as tentativas necessárias para se conseguir um número determinado de sucessos, é uma ideia muito mais produtiva, pois com isso reduzimos os ensaios de Bernoulli no estudo, o que pode facilitar nos cálculos. Segue análise da distribuição
  • 4. Função de Densidade de Probabilidade “x” é o número de tentativas necessárias para conseguir os “r” sucessos
  • 5. Função de Densidade de Probabilidade Como a ideia é obtermos um sucesso na última tentativa, então “p” será o último resultado obtido;
  • 6. Função de Densidade de Probabilidade Enquanto isso as tentativas anteriores, geram uma combinação E uma permutação dos possíveis sucessos e fracassos do estudo;
  • 7. Função de Densidade de Probabilidade Logo como temos a interseção de dois eventos independentes, nos dando assim a função de densidade de probabilidade da Binomial Negativa
  • 8. Função Geradora de Momentos A “fgm” é uma importante ferramenta para obter informações que descrevem bem qualquer distribuição, logo a aplicação na Distribuição Binomial Negativa se faz necessária
  • 9. Função Geradora de Momentos A “fgm” é uma importante ferramenta para obter informações que descrevem bem qualquer distribuição, logo a aplicação na Distribuição Binomial Negativa se faz necessária 𝑀𝑥 𝑡 = 𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟 ∞ 𝑒𝑡∗𝑋 ∗ 𝑃(𝑋 = 𝑥)
  • 10. Função Geradora de Momentos • Desenvolvendo a função de probabilidade, obs: trocamos o “q” pelo seu equivalente “(1-p)”;
  • 11. Função Geradora de Momentos 𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟 ∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1 𝑟−1 ∗ 𝑝𝑟 ∗ (1 − 𝑝)𝑥−𝑟 • Desenvolvendo a função de probabilidade, obs: trocamos o “q” pelo seu equivalente “(1-p)”;
  • 12. Função Geradora de Momentos 𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟 ∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1 𝑟−1 ∗ 𝑝𝑟 ∗ (1 − 𝑝)𝑥−𝑟 • Desenvolvendo a função de probabilidade, obs: trocamos o “q” pelo seu equivalente “(1-p)”; • Para melhor trabalha-la iremos multiplicar e dividir a fórmula por ; (𝑒𝑡 ) 𝑟
  • 13. Função Geradora de Momentos 𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟 ∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1 𝑟−1 ∗ 𝑝𝑟 ∗ (1 − 𝑝)𝑥−𝑟 • Desenvolvendo a função de probabilidade, obs: trocamos o “q” pelo seu equivalente “(1-p)”; • Para melhor trabalha-la iremos multiplicar e dividir a fórmula por ; (𝑒𝑡 ) 𝑟 𝐸 𝑒𝑡∗𝑋 = 𝑥=𝑟 ∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1 𝑟−1 ∗ 𝑝𝑟 ∗ 1 − 𝑝 𝑥−𝑟 ∗ ((𝑒𝑡 ) 𝑟 /(𝑒𝑡 ) 𝑟 )
  • 14. Função Geradora de Momentos • Como “𝑝𝑟 ” e “(𝑒𝑡 ) 𝑟 ” não dependem de “𝑥”, pode-se move-los para fora do somatório;
  • 15. Função Geradora de Momentos 𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡) 𝑟 ∗ 𝑥=𝑟 ∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1 𝑟−1 ∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡) −𝑟 • Como “𝑝𝑟 ” e “(𝑒𝑡 ) 𝑟 ” não dependem de “𝑥”, pode-se move-los para fora do somatório;
  • 16. Função Geradora de Momentos 𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡) 𝑟 ∗ 𝑥=𝑟 ∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1 𝑟−1 ∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡) −𝑟 • Como “𝑝𝑟 ” e “(𝑒𝑡 ) 𝑟 ” não dependem de “𝑥”, pode-se move-los para fora do somatório; • Desta forma podemos unificar os termos que possuem “𝑒” com os termos que possuíssem o mesmo expoente;
  • 17. Função Geradora de Momentos 𝐸 𝑒𝑡∗𝑋 = 𝑝𝑟 ∗ (𝑒𝑡) 𝑟 ∗ 𝑥=𝑟 ∞ 𝑒𝑡∗𝑥 ∗ 𝑥−1 𝑟−1 ∗ 1 − 𝑝 𝑥−𝑟 ∗ (𝑒𝑡) −𝑟 • Como “𝑝𝑟 ” e “(𝑒𝑡 ) 𝑟 ” não dependem de “𝑥”, pode-se move-los para fora do somatório; • Desta forma podemos unificar os termos que possuem “𝑒” com os termos que possuíssem o mesmo expoente; 𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗ 𝑒𝑡) 𝑟 ∗ 𝑥=𝑟 ∞ 𝑥−1 𝑟−1 ∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑥−𝑟
  • 18. Função Geradora de Momentos • Visando uma mudança de índice aplicaremos uma constante “k = x − r”
  • 19. Função Geradora de Momentos • Visando uma mudança de índice aplicaremos uma constante “k = x − r” 𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗ 𝑒𝑡 ) 𝑟 ∗ 𝑘=0 ∞ 𝑘+𝑟−1 𝑟−1 ∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘
  • 20. Função Geradora de Momentos • Visando uma mudança de índice aplicaremos uma constante “k = x − r” 𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗ 𝑒𝑡 ) 𝑟 ∗ 𝑘=0 ∞ 𝑘+𝑟−1 𝑟−1 ∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘 • Podemos ver que agora que o somatório se tornou um binômio de Newton gerando a fórmula;
  • 21. Função Geradora de Momentos • Visando uma mudança de índice aplicaremos uma constante “k = x − r” 𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗ 𝑒𝑡 ) 𝑟 ∗ 𝑘=0 ∞ 𝑘+𝑟−1 𝑟−1 ∗ 1 − 𝑝 ∗ 𝑒𝑡 𝑘 • Podemos ver que agora que o somatório se tornou um binômio de Newton gerando a fórmula; 𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗ 𝑒𝑡 ) 𝑟 ∗ 1 − 1 − 𝑝 ∗ 𝑒𝑡 −𝑟
  • 22. Função Geradora de Momentos • Podemos reescrever essa “fgm” da seguinte forma:
  • 23. Função Geradora de Momentos • Podemos reescrever essa “fgm” da seguinte forma: 𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗𝑒𝑡) 𝑟 1− 1−𝑝 ∗𝑒𝑡 𝑟
  • 24. Função Geradora de Momentos • Podemos reescrever essa “fgm” da seguinte forma: 𝐸 𝑒𝑡∗𝑋 = (𝑝 ∗𝑒𝑡) 𝑟 1− 1−𝑝 ∗𝑒𝑡 𝑟 • Uma “fgm” só existe se for finito. Então, tudo o que precisamos fazer é observar quando 𝑀𝑥 𝑡 é finito. Bem, isso acontece quando 1 − 𝑝 ∗ 𝑒𝑡 < 1, ou para ficar mais claro o seu equivalentemente quando 𝑡 < ln(1 − 𝑝).
  • 25. Esperança Podemos fazer a comprovação da média pela primeira derivada centrada em 0 da “fgm”, mas optaremos em resolver pela definição de esperança por objetividade na economia de tempo.
  • 26. Esperança Podemos fazer a comprovação da média pela primeira derivada centrada em 0 da “fgm”, mas optaremos em resolver pela definição de esperança por objetividade na economia de tempo.
  • 27. Esperança Podemos fazer a comprovação da média pela primeira derivada centrada em 0 da “fgm”, mas optaremos em resolver pela definição de esperança por objetividade na economia de tempo. • Pode-se destacar o trecho , pois ele pode ser reescrito da forma : isso para facilitar a conclusão;
  • 28. Esperança Podemos fazer a comprovação da média pela primeira derivada centrada em 0 da “fgm”, mas optaremos em resolver pela definição de esperança por objetividade na economia de tempo. • Pode-se destacar o trecho , pois ele pode ser reescrito da forma : isso para facilitar a conclusão;
  • 29. Esperança • Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟 ;
  • 30. Esperança • Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟 ;
  • 31. Esperança • Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟 ; • Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
  • 32. Esperança • Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟 ; • Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
  • 33. Variância Da mesma forma que a Esperança, iremos usar a definição de variância com relação ao valor esperado como já temos , então vamos focar em
  • 34. Variância Da mesma forma que a Esperança, iremos usar a definição de variância com relação ao valor esperado como já temos , então vamos focar em
  • 35. Variância Da mesma forma que a Esperança, iremos usar a definição de variância com relação ao valor esperado como já temos , então vamos focar em • Podemos perceber que a forma da equação acima é muito parecida com a da esperança calculada anteriormente, com isso em mente podemos desenvolve-la de forma similar
  • 36. Variância Da mesma forma que a Esperança, iremos usar a definição de variância com relação ao valor esperado como já temos , então vamos focar em • Podemos perceber que a forma da equação acima é muito parecida com a da esperança calculada anteriormente, com isso em mente podemos desenvolve-la de forma similar
  • 37. Variância • Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora aplicando esse resultado em ;
  • 38. Variância • Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora aplicando esse resultado em ;
  • 39. Variância • Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora aplicando esse resultado em ; • Com esse resultado em mãos, temos:
  • 40. Variância • Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora aplicando esse resultado em ; • Com esse resultado em mãos, temos:
  • 41. Variância • Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora aplicando esse resultado em ; • Com esse resultado em mãos, temos: • Ou também:
  • 42. Variância • Vemos que 𝑆2 = E(Y − 1), com Y ∼ BinNeg(r + 1, p) que pode ser reescrito . Agora aplicando esse resultado em ; • Com esse resultado em mãos, temos: • Ou também:
  • 43.
  • 44. Esperança • Vemos que “r” não está dependente do somatório, então podemos multiplica-lo, e também iremos criar um “y = x+1” e um “1/p” extraído de 𝑝𝑟 ; • Vemos que S1 = 1 pois S1 é a soma da função de probabilidade de Y ∼ BinNeg(r + 1, p) para todos y ∈ Im(Y ). Com isso confirmamos o resultado.
  • 45.
  • 46.
  • 47.
  • 48.
  • 49. Informações sobre o banco de dados
  • 51. Fazendo a matriz de confusão
  • 53. Gráfico dos pontos da função discriminante 1
  • 56. Gráfico de dispersão de FD 1 e FD 2
  • 57. Análise de Agrupamento ● BANCO DE DADOS Para realizar a análise de agrupamento foi elaborado um banco de dados pelas integrantes do presente trabalho, ele é composto por 8 indivíduos que são as disciplinas do curso de Bacharelado em Estatística são elas: Estatística Descritiva (Est.Desc), Geometría Analítica (Geom.), Álgebra Linear (Algebra), Algoritmo e programação de Computadores (algor.), Probabilidade (Probab.), Inferência, Análise multivariada (Multiv.) e Softwares Estatísticos(soft.). Estas disciplinas foram avaliadas com um pontuação de 1 a 8, sendo 1 a que menos se adequada para as variáveis e 8 a que está mais de acordo com a variável. As variáveis são: A dificuldade da disciplina(dif), a utilização do soft R(R), a Utilização da disciplina de Cálculo(calc), e as disciplinas que mais causam reprovação (reprov).
  • 59. Calculando a matriz de distância (euclidiana) D2Mqt = vegdist(dads, method = "euclidean") ● Quanto menor a distância nessa matriz mais similares serão as observações.
  • 60. Métodos Hierárquicos avg1qt = hclust(D2Mqt, method='average') par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2)) plot(avg1qt,hang=-1,col=1,ylab="Euclidean distance",xlab="User",main = "");box() ● O Dendrograma foi gerado utilizando a distância Euclidiana usando o método de agrupamento de distância média (Average Linkage).
  • 61. Calculando a correlação entre a cofenética e a matriz euclidiana ● Obtivemos um valor consideravelmente alto, então significa que o método de agrupamento foi bom. ● Matriz de distâncias cofenéticas - UPGMA distance_a1qt = cophenetic(avg1qt) ● Correlação entre as duas matrizes de distância ccavg1qt = cor(D2Mqt, distance_a1qt);ccavg1qt
  • 62. Fazendo pelo método de Ward w1qt = hclust(D2Mqt, method="ward.D2") par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2)) plot(w1qt,hang=-1,col=1,ylab="Euclidean distance", xlab="User",main = ""); box() ● Matriz de distâncias cofenéticas distance_w1qt = cophenetic(w1qt) ● Correlação entre as duas matrizes de distância ccw1qt = cor(D2Mqt, distance_w1qt);ccw1qt
  • 63. Fazendo pelo método de Single s1qt = hclust(D2Mqt, method="single") par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2)) plot(s1qt,hang=-1,col=1,ylab="Euclidean distance", xlab= "User", main = "");box() ● Matriz de distâncias cofenéticas distance_s1qt = cophenetic(s1qt) ● Correlação entre as duas matrizes de distância ccs1qt = cor(D2Mqt, distance_s1qt);ccs1qt
  • 64. Fazendo pelo método do Complete ● Matriz de distâncias cofenéticas distance_c1qt = cophenetic(c1qt) ● Correlação entre as duas matrizes de distância c1qt = hclust(D2Mqt, method="complete") par(mfrow = c(1, 1), mar = c(5.5, 4, 2, 2)) plot(c1qt,hang=-1,col=1,ylab="Euclidean distance",xlab="User",main = "");box()
  • 66. Fazendo a correlação cofenética
  • 67. ● Método de otimização de Tocher E
  • 68. ● Método não hierárquico (k-means)
  • 69.
  • 70. ● Fazendo o método de bootstrap plot(avgbqt ,hang=-1,col=1,main = "",ylab="Euclidean distance",xlab="User");box()