O documento apresenta dois novos métodos de clustering para dados intervalares e do tipo histograma. O primeiro método baseia-se na distância de Hausdorff entre vetores de intervalos e define os protótipos como vetores que minimizam a soma das distâncias de Hausdorff. O segundo método compara pares de intervalos e pesos associados, discretizando primeiro os intervalos em elementos e definindo uma função de similaridade entre os pares.
Este documento apresenta um resumo de redes neurais para inferência estatística. Ele introduz conceitos básicos de redes neurais, o software Matlab e a toolbox Netlab. O documento descreve como gerar dados de treinamento fictícios, definir a arquitetura de uma rede neural multicamada e treiná-la usando os algoritmos de otimização do Matlab.
[Robson] 7. Programação Não Linear Irrestritalapodcc
O documento discute conceitos fundamentais de programação não linear, incluindo: (1) o problema geral de otimização, (2) classes de problemas de otimização dependendo das propriedades da função objetivo e do conjunto de restrições, (3) condições necessárias e suficientes de primeira e segunda ordem para otimalidade de problemas contínuos e (4) aplicação destes conceitos em problemas quadráticos.
[1] Processos Gaussianos são métodos não-paramétricos para inferência e previsão que modelam a distribuição de probabilidade sobre funções. [2] Kernel models e redes neurais multicamadas podem ser vistos como aproximações de processos gaussianos quando o número de parâmetros tende ao infinito. [3] Processos gaussianos permitem fazer previsões de novas observações de forma probabilística.
O documento discute métodos para estimar densidades de probabilidade a partir de dados, incluindo métodos paramétricos bayesianos, métodos de núcleo e misturas de distribuições. O algoritmo EM é descrito como uma abordagem para inferir parâmetros de misturas de distribuições maximizando a verossimilhança dos dados.
O documento discute técnicas bayesianas, incluindo o teorema de Bayes, modelos hierárquicos, inferência de parâmetros e hiperparâmetros, e seleção de modelos. É apresentado o uso do teorema de Bayes para classificação de dados através de um perceptron contínuo. Métodos bayesianos são comparados a métodos frequentistas e discutidas aproximações para inferência bayesiana.
Este documento apresenta os conceitos fundamentais do método simplex para resolver problemas de programação linear. Ele explica que o método simplex se baseia no fato de que, se um problema linear possui uma solução ótima, então existe uma solução básica ótima viável. O documento também descreve como o método simplex move de uma solução básica viável para outra de menor custo, até encontrar a solução ótima.
Este documento fornece uma introdução à programação linear e não linear. Resume os principais conceitos como: 1) Definição de programação matemática e seus modelos geral, linear e não linear; 2) Métodos numéricos e analíticos para resolver problemas de otimização; 3) Noções fundamentais como gradiente, hessiana, convexidade e suas propriedades.
O documento discute técnicas de programação linear inteira e geração de colunas. Resume três pontos principais:
1) Apresenta definições de problemas de programação linear e inteira, incluindo suas relaxações lineares;
2) Discutem técnicas como geração de colunas e branch-and-price para resolver problemas de programação linear inteira;
3) Fornece exemplos detalhados de como aplicar essas técnicas em problemas específicos como corte de barras e mochila.
Este documento apresenta um resumo de redes neurais para inferência estatística. Ele introduz conceitos básicos de redes neurais, o software Matlab e a toolbox Netlab. O documento descreve como gerar dados de treinamento fictícios, definir a arquitetura de uma rede neural multicamada e treiná-la usando os algoritmos de otimização do Matlab.
[Robson] 7. Programação Não Linear Irrestritalapodcc
O documento discute conceitos fundamentais de programação não linear, incluindo: (1) o problema geral de otimização, (2) classes de problemas de otimização dependendo das propriedades da função objetivo e do conjunto de restrições, (3) condições necessárias e suficientes de primeira e segunda ordem para otimalidade de problemas contínuos e (4) aplicação destes conceitos em problemas quadráticos.
[1] Processos Gaussianos são métodos não-paramétricos para inferência e previsão que modelam a distribuição de probabilidade sobre funções. [2] Kernel models e redes neurais multicamadas podem ser vistos como aproximações de processos gaussianos quando o número de parâmetros tende ao infinito. [3] Processos gaussianos permitem fazer previsões de novas observações de forma probabilística.
O documento discute métodos para estimar densidades de probabilidade a partir de dados, incluindo métodos paramétricos bayesianos, métodos de núcleo e misturas de distribuições. O algoritmo EM é descrito como uma abordagem para inferir parâmetros de misturas de distribuições maximizando a verossimilhança dos dados.
O documento discute técnicas bayesianas, incluindo o teorema de Bayes, modelos hierárquicos, inferência de parâmetros e hiperparâmetros, e seleção de modelos. É apresentado o uso do teorema de Bayes para classificação de dados através de um perceptron contínuo. Métodos bayesianos são comparados a métodos frequentistas e discutidas aproximações para inferência bayesiana.
Este documento apresenta os conceitos fundamentais do método simplex para resolver problemas de programação linear. Ele explica que o método simplex se baseia no fato de que, se um problema linear possui uma solução ótima, então existe uma solução básica ótima viável. O documento também descreve como o método simplex move de uma solução básica viável para outra de menor custo, até encontrar a solução ótima.
Este documento fornece uma introdução à programação linear e não linear. Resume os principais conceitos como: 1) Definição de programação matemática e seus modelos geral, linear e não linear; 2) Métodos numéricos e analíticos para resolver problemas de otimização; 3) Noções fundamentais como gradiente, hessiana, convexidade e suas propriedades.
O documento discute técnicas de programação linear inteira e geração de colunas. Resume três pontos principais:
1) Apresenta definições de problemas de programação linear e inteira, incluindo suas relaxações lineares;
2) Discutem técnicas como geração de colunas e branch-and-price para resolver problemas de programação linear inteira;
3) Fornece exemplos detalhados de como aplicar essas técnicas em problemas específicos como corte de barras e mochila.
O documento descreve os conceitos fundamentais da programação não linear com restrições, incluindo:
1) Definição do problema de otimização sobre um conjunto convexo com restrições não lineares;
2) Condições de otimalidade para problemas convexos;
3) Noções de pontos estacionários e restrições ativas e inativas.
1. O documento apresenta uma série de exercícios de cálculo diferencial e integral resolvidos. Inclui determinar conjuntos de diferenciabilidade, derivadas, tangentes, aplicação do teorema de Lagrange, desenvolvimento em séries de Taylor e limites.
2. As questões abordam tópicos como derivadas de funções compostas, derivadas implícitas, aplicação de regras como a de Cauchy para calcular limites, estudos de funções como extremos, assíntotas e pontos de inflexão.
3. As respostas
O documento apresenta exemplos e exercícios sobre funções matemáticas. Aborda conceitos como conjunto domínio, conjunto imagem e propriedades de funções como composição e adição. Há também problemas envolvendo interpretação e representação gráfica de funções.
[1] O documento apresenta métodos para calcular o valor em risco (VaR) de portfólios não-lineares, incluindo aproximações delta e delta-quadrática para portfólios dependentes de um ou mais fatores de risco.
[2] No caso de um único fator de risco, o retorno do portfólio segue uma distribuição qui-quadrado misturada normal. Para múltiplos fatores, a variância do retorno é decomposta em uma combinação de variáveis qui-quadrado.
[3] É apresentado um exemplo
O documento discute redes neurais para classificação e regressão. Brevemente descreve a história das redes neurais, como elas podem ser usadas para classificação e regressão, e aplicações como detecção de fraude e previsão de riscos. Também resume perceptrons, redes multicamadas, e o algoritmo backpropagation para treinamento de redes neurais.
O documento apresenta uma introdução à análise de sensibilidade em problemas de programação linear, descrevendo como pequenas alterações nos parâmetros do problema, como adição de variáveis, restrições ou modificações nos vetores b, c, podem afetar as soluções ótimas. A análise de sensibilidade permite avaliar o impacto dessas alterações sem precisar resolver o problema do zero.
Este documento fornece informações sobre fatoração de polinômios e resolução de equações de primeiro e segundo grau. Apresenta exemplos de fatoração por evidência, agrupamento, diferença de quadrados e trinômio perfeito. Explica também o teorema do resto de um polinômio e métodos de resolução de equações como substituição e adição.
1) O documento apresenta várias fórmulas trigonométricas e regras de cálculo como primitivação por partes, substituição e decomposição em fatores.
2) Também fornece definições de limites, continuidade, assimptotas e teoremas como o fundamental do cálculo e da média.
3) Por fim, explica conceitos de integrais impróprios e limites notáveis.
O documento apresenta uma introdução ao estudo de funções matemáticas. Aborda conceitos como domínio, imagem e contradomínio de funções, representações gráficas e algébricas de funções, funções exponenciais e logarítmicas, funções compostas e inversas. O texto destaca a importância histórica de matemáticos como Euler e Leibniz no desenvolvimento da teoria de funções.
1) O documento apresenta uma revisão dos conceitos de potenciação, incluindo potências com expoentes inteiros, fracionários e negativos. 2) Também revisa equações exponenciais, apresentando exemplos de resolução. 3) Por fim, fornece exercícios sobre potenciação e equações exponenciais para o estudante praticar os conceitos apresentados.
O documento discute a dualidade entre problemas de programação linear primal e dual. Explica como o problema dual é formado a partir do problema primal, com as restrições do primal se tornando a função objetivo do dual e vice-versa. Também mostra como a solução ótima do problema primal está relacionada à solução ótima do problema dual através do princípio da dualidade forte e fraca.
O documento apresenta 10 exercícios resolvidos sobre geometria analítica envolvendo planos, retas e pontos no espaço. Os exercícios abordam tópicos como determinação de coordenadas de vértices, equações de planos e retas, distância entre planos, simetria em relação a planos e retas.
Este documento apresenta conceitos fundamentais de cálculo diferencial e integral, incluindo:
1) Definição de função matemática e exemplos de relações que representam funções;
2) Noção de domínio, contradomínio e imagem de uma função;
3) Exemplos de funções compostas e determinação da função inversa.
03 eac proj vest mat módulo 1 função exponencialcon_seguir
1) O documento discute funções exponenciais e potenciações. Apresenta definições de funções exponenciais, propriedades de potenciações e resolução de equações e desigualdades exponenciais.
2) Aborda gráficos de funções exponenciais, definindo-as como crescentes para a>1 e decrescentes para 0<a<1. Também mostra como resolver equações exponenciais igualando expoentes e reduzindo à mesma base.
3) Explica que desigualdades exponenciais mantém ou
O documento apresenta conceitos sobre funções exponenciais e logarítmicas. Inclui exemplos de cálculos envolvendo essas funções e exercícios resolvidos sobre taxas de crescimento exponencial, valor de ações ao longo do tempo e população de espécies animais.
1) O documento discute funções trigonométricas periódicas e determina seus períodos mínimos positivos.
2) É resolvido o período mínimo de funções como sen(4x-1), cos(πx-1) e tg(5x+4).
3) O período varia de acordo com a função trigonométrica, sendo π/2 para sen(4x-1), 2 para cos(πx-1) e π/5 para tg(5x+4).
O documento discute campos vetoriais e integrais de linha. Um campo vetorial é uma função que associa um vetor a cada ponto de uma região. Campos vetoriais podem ser representados por suas componentes escalares ou por um campo escalar através do operador gradiente. Integrais de linha calculam o valor de uma função ao longo de uma curva no plano ou espaço.
O documento apresenta os conceitos fundamentais sobre diferenciais e integrais. Explica que a diferencial de uma função é o produto da derivada pelo acréscimo da variável independente e representa uma aproximação da variação da função. Também define o que é a integral indefinida, que é o processo inverso da diferenciação e representa a família de primitivas de uma função. Por fim, fornece exemplos sobre como calcular integrais imediatas.
Emprego da Visão Computacional no contexto de AP - Cameraspipesmythe
O documento discute o uso da visão computacional na agricultura de precisão, mencionando sistemas de captura de imagens como câmeras que podem classificar sementes, frutos e plantas. Sistemas como o pulverizador JAV II e o sensor Weed Seeker usam câmeras para identificar plantas e aplicar insumos de forma precisa, economizando recursos.
O documento discute o fluxo de compra no MercadoLivre, incluindo como buscar produtos, visualizar detalhes do anúncio e do vendedor, fazer perguntas e confirmar uma compra usando a API do MercadoLivre. Ele também menciona como desenvolvedores podem capitalizar aplicativos para compradores usando o programa de afiliados Mercado Socio.
Este artigo discute como a adoração na Igreja Adventista tem sido influenciada por movimentos culturais contemporâneos como o serviço Seeker e o movimento de Louvor e Adoração. Argumenta-se que embora esses movimentos tenham trazido inovações, também há riscos de a adoração se tornar antropocêntrica em vez de teocentrada. A solução proposta é manter a adoração teologicamente sólida e culturalmente relevante, como prescrito em Apocalipse 14:6-7.
O documento descreve os conceitos fundamentais da programação não linear com restrições, incluindo:
1) Definição do problema de otimização sobre um conjunto convexo com restrições não lineares;
2) Condições de otimalidade para problemas convexos;
3) Noções de pontos estacionários e restrições ativas e inativas.
1. O documento apresenta uma série de exercícios de cálculo diferencial e integral resolvidos. Inclui determinar conjuntos de diferenciabilidade, derivadas, tangentes, aplicação do teorema de Lagrange, desenvolvimento em séries de Taylor e limites.
2. As questões abordam tópicos como derivadas de funções compostas, derivadas implícitas, aplicação de regras como a de Cauchy para calcular limites, estudos de funções como extremos, assíntotas e pontos de inflexão.
3. As respostas
O documento apresenta exemplos e exercícios sobre funções matemáticas. Aborda conceitos como conjunto domínio, conjunto imagem e propriedades de funções como composição e adição. Há também problemas envolvendo interpretação e representação gráfica de funções.
[1] O documento apresenta métodos para calcular o valor em risco (VaR) de portfólios não-lineares, incluindo aproximações delta e delta-quadrática para portfólios dependentes de um ou mais fatores de risco.
[2] No caso de um único fator de risco, o retorno do portfólio segue uma distribuição qui-quadrado misturada normal. Para múltiplos fatores, a variância do retorno é decomposta em uma combinação de variáveis qui-quadrado.
[3] É apresentado um exemplo
O documento discute redes neurais para classificação e regressão. Brevemente descreve a história das redes neurais, como elas podem ser usadas para classificação e regressão, e aplicações como detecção de fraude e previsão de riscos. Também resume perceptrons, redes multicamadas, e o algoritmo backpropagation para treinamento de redes neurais.
O documento apresenta uma introdução à análise de sensibilidade em problemas de programação linear, descrevendo como pequenas alterações nos parâmetros do problema, como adição de variáveis, restrições ou modificações nos vetores b, c, podem afetar as soluções ótimas. A análise de sensibilidade permite avaliar o impacto dessas alterações sem precisar resolver o problema do zero.
Este documento fornece informações sobre fatoração de polinômios e resolução de equações de primeiro e segundo grau. Apresenta exemplos de fatoração por evidência, agrupamento, diferença de quadrados e trinômio perfeito. Explica também o teorema do resto de um polinômio e métodos de resolução de equações como substituição e adição.
1) O documento apresenta várias fórmulas trigonométricas e regras de cálculo como primitivação por partes, substituição e decomposição em fatores.
2) Também fornece definições de limites, continuidade, assimptotas e teoremas como o fundamental do cálculo e da média.
3) Por fim, explica conceitos de integrais impróprios e limites notáveis.
O documento apresenta uma introdução ao estudo de funções matemáticas. Aborda conceitos como domínio, imagem e contradomínio de funções, representações gráficas e algébricas de funções, funções exponenciais e logarítmicas, funções compostas e inversas. O texto destaca a importância histórica de matemáticos como Euler e Leibniz no desenvolvimento da teoria de funções.
1) O documento apresenta uma revisão dos conceitos de potenciação, incluindo potências com expoentes inteiros, fracionários e negativos. 2) Também revisa equações exponenciais, apresentando exemplos de resolução. 3) Por fim, fornece exercícios sobre potenciação e equações exponenciais para o estudante praticar os conceitos apresentados.
O documento discute a dualidade entre problemas de programação linear primal e dual. Explica como o problema dual é formado a partir do problema primal, com as restrições do primal se tornando a função objetivo do dual e vice-versa. Também mostra como a solução ótima do problema primal está relacionada à solução ótima do problema dual através do princípio da dualidade forte e fraca.
O documento apresenta 10 exercícios resolvidos sobre geometria analítica envolvendo planos, retas e pontos no espaço. Os exercícios abordam tópicos como determinação de coordenadas de vértices, equações de planos e retas, distância entre planos, simetria em relação a planos e retas.
Este documento apresenta conceitos fundamentais de cálculo diferencial e integral, incluindo:
1) Definição de função matemática e exemplos de relações que representam funções;
2) Noção de domínio, contradomínio e imagem de uma função;
3) Exemplos de funções compostas e determinação da função inversa.
03 eac proj vest mat módulo 1 função exponencialcon_seguir
1) O documento discute funções exponenciais e potenciações. Apresenta definições de funções exponenciais, propriedades de potenciações e resolução de equações e desigualdades exponenciais.
2) Aborda gráficos de funções exponenciais, definindo-as como crescentes para a>1 e decrescentes para 0<a<1. Também mostra como resolver equações exponenciais igualando expoentes e reduzindo à mesma base.
3) Explica que desigualdades exponenciais mantém ou
O documento apresenta conceitos sobre funções exponenciais e logarítmicas. Inclui exemplos de cálculos envolvendo essas funções e exercícios resolvidos sobre taxas de crescimento exponencial, valor de ações ao longo do tempo e população de espécies animais.
1) O documento discute funções trigonométricas periódicas e determina seus períodos mínimos positivos.
2) É resolvido o período mínimo de funções como sen(4x-1), cos(πx-1) e tg(5x+4).
3) O período varia de acordo com a função trigonométrica, sendo π/2 para sen(4x-1), 2 para cos(πx-1) e π/5 para tg(5x+4).
O documento discute campos vetoriais e integrais de linha. Um campo vetorial é uma função que associa um vetor a cada ponto de uma região. Campos vetoriais podem ser representados por suas componentes escalares ou por um campo escalar através do operador gradiente. Integrais de linha calculam o valor de uma função ao longo de uma curva no plano ou espaço.
O documento apresenta os conceitos fundamentais sobre diferenciais e integrais. Explica que a diferencial de uma função é o produto da derivada pelo acréscimo da variável independente e representa uma aproximação da variação da função. Também define o que é a integral indefinida, que é o processo inverso da diferenciação e representa a família de primitivas de uma função. Por fim, fornece exemplos sobre como calcular integrais imediatas.
Emprego da Visão Computacional no contexto de AP - Cameraspipesmythe
O documento discute o uso da visão computacional na agricultura de precisão, mencionando sistemas de captura de imagens como câmeras que podem classificar sementes, frutos e plantas. Sistemas como o pulverizador JAV II e o sensor Weed Seeker usam câmeras para identificar plantas e aplicar insumos de forma precisa, economizando recursos.
O documento discute o fluxo de compra no MercadoLivre, incluindo como buscar produtos, visualizar detalhes do anúncio e do vendedor, fazer perguntas e confirmar uma compra usando a API do MercadoLivre. Ele também menciona como desenvolvedores podem capitalizar aplicativos para compradores usando o programa de afiliados Mercado Socio.
Este artigo discute como a adoração na Igreja Adventista tem sido influenciada por movimentos culturais contemporâneos como o serviço Seeker e o movimento de Louvor e Adoração. Argumenta-se que embora esses movimentos tenham trazido inovações, também há riscos de a adoração se tornar antropocêntrica em vez de teocentrada. A solução proposta é manter a adoração teologicamente sólida e culturalmente relevante, como prescrito em Apocalipse 14:6-7.
O documento descreve o fluxo de compra no MercadoLivre, incluindo como buscar produtos, visualizar detalhes de anúncios e vendedores, fazer perguntas, e conclui a compra. Ele também discute oportunidades para desenvolvedores criarem aplicativos que integram a API do MercadoLivre.
O documento discute o que é OCR (Reconhecimento Ótico de Caracteres), como surgiu na década de 1950 e as duas principais tecnologias por trás dele: matriz de correspondência e extração de características. Também aborda como funciona o processo de OCR, suas vantagens e desvantagens e alguns softwares existentes.
O documento discute a tecnologia de Reconhecimento Ótico de Caracteres (OCR) e seu potencial para auxiliar professores em suas atividades de formação e criação de conteúdos educacionais.
O documento discute a coleta de dados de dispositivos móveis e como esses dados podem ser usados para reconhecimento de atividades humanas através de classificadores de machine learning. Ele fornece exemplos de como dados de celulares, relógios e outros dispositivos podem ser usados para inferir localização, atividades físicas e comportamentos. O documento também descreve experimentos para classificar atividades como andar, subir escadas e sentar usando dados de acelerômetros.
Salient effects of publicity in advertised brand recall and recognitionGustavo Viegas
1) O estudo investigou os efeitos inibidores de campanhas de relações públicas (PR) na lembrança e reconhecimento de marcas anunciadas.
2) Os resultados mostraram que campanhas de PR facilitaram a lembrança mais rápida e frequente das marcas, mas inibiram a lembrança de marcas sem campanha.
3) No reconhecimento, campanhas de PR melhoraram o desempenho para algumas marcas, mas não houve diferença geral ou efeito inibidor para outras marcas
O documento discute o uso da visão computacional na agricultura de precisão, mencionando sistemas de captura de imagens como câmeras que podem classificar sementes, frutos, danos em plantas e identificar plantas invasoras. Também apresenta equipamentos como pulverizadores e sensores que usam imagens para aplicar insumos de forma precisa e econômica, protegendo o meio ambiente.
Ashtavakra Gita - Chapter 3 - Test of the SeekerVinod Kad
In this third chapter the sage Ashtavakra tests his disciple with interesting questions about authenticity of experiences of one-ness as narrated by the seeker King Janak in chapter 2.
A apresentação da empresa Seeker destaca depoimentos de clientes satisfeitos com os serviços rápidos e atenciosos da empresa. A flexibilidade e parceria da Seeker em atender as necessidades dos clientes são também ressaltadas. Uma pesquisa indica que 90% dos clientes estão muito satisfeitos com a empresa.
Les outils de l’UX pour connaître les utilisateurs - MC Casal - YOODx 2017YOODx
Cette conférence développe la recherche utilisateur à travers la construction pratique de 2 outils, les personas et le customer journey.
Les Personas sont un outil pour découvrir & comprendre les attentes des utilisateurs, y répondre dans le contexte et même dépasser les attentes.
Les customer journey permettent d’identifier les obstacles, améliorer vos produits & services, comprendre vos relations aux utilisateurs, et de saisir les opportunités.
----------------------
Conférence donnée au YOODx Cannes #VEM8 le 18 janvier 2017
Evènement organisé par YOODA.com
Synodiance > Recherche Vocale - SEO Campus Paris - 07/04/2016Search Foresight
OK GOOGLE: RECHERCHE VOCALE ET SEO SONT-ILS COMPATIBLES?
Avec l’avancée sans précédent des techniques de NLP (Natural Language Processing) et de TTS (Text-to-Speech) boostées par les algos de Deep Learning, la recherche vocale est en passe de devenir un usage de fond. Déjà largement utilisée sur Smartphone, elle sera demain sur tous les objets connectés. Cette montée en puissance de la recherche vocale a des impacts sur les usages Search à plusieurs niveaux : modification de la typologie des requêtes, transformation des attentes des internautes, dialogue avec le moteur de recherche.
Depuis Hummingbird, Google prend en compte cette transformation de fond et tente de répondre à ces nouvelles formulations, notamment en travaillant sur une meilleure interprétation de la requête et de l’intention qui se cache derrière chaque requête (reconnaissance d’entités, templates de questions, prise en compte du contexte, de la sémantique, de l’usage, …).
Mais cela va bien plus loin aujourd’hui. La recherche vocale se transforme en commande vocale permettant, entre autres, de se passer d’un site web et de réaliser des actions (réservations…) directement au sein des SERPs, de jongler d’App en App. La recherche vocale glisse progressivement vers un rôle d’assistant vocal devenant ainsi le fil conducteur de toutes nos actions, en particulier sur Smartphone.
Comment intégrer cette nouvelle vague vocale à votre SEO ? Nous ferons le point sur l’usage de la recherche vocale aujourd’hui, comment adapter son SEO en conséquence, et les nouveaux chantiers SEO associés au vocal, comme l’optimisation des actions (Voice Actions) au sein des APPs.
The document discusses how social media, specifically Twitter, can be used effectively for business purposes. It begins by defining social media and its importance. Several statistics are provided about the growth and usage of popular social media sites like YouTube, Twitter, and Facebook. The rest of the document provides guidance on setting up and using a Twitter account for business, including creating a profile, finding people to follow, engaging with your community through questions and retweets, and using tools to help manage resources. Examples are given throughout on how businesses can leverage Twitter for objectives like PR, promotions, customer service, and building authority.
The document discusses how businesses can grow during an economic recession using search engine marketing and social media. It recommends establishing an online presence through a website, blog, and social media accounts to build credibility and expertise. Content should be distributed across platforms to drive traffic to the website and increase search engine rankings. Social media was highlighted as a good way for businesses in the healthcare sector to participate in discussions around healthcare reform.
The document discusses team roles, defining them as how people tend to behave and contribute to a team. It identifies three categories of roles: task roles related to goals and direction, such as initiating tasks, seeking information, and summarizing; relationship roles to encourage participation and handle emotions; and dysfunctional roles that hinder the team, like blocking progress or seeking attention. Examples are provided for each role to illustrate how they appear in a team.
This presentation was given by Kathy Hokunson - New England Regional Sales Manager for Site-Seeker, Inc., to the Glastonbury, CT Chamber of Commerce and it's members. The presentation highlights how to effectively use Twitter, Linkedin, Facebook, YouTube, and Slideshare for business.
Este documento discute o algoritmo K-means de clusterização. Ele descreve a história do K-means, incluindo suas origens na década de 1950 e o primeiro uso do termo por James MacQueen em 1967. Também explica os conceitos-chave por trás do K-means, como espaço euclidiano, distância euclidiana, centróides e clusterização. Finalmente, apresenta os passos do algoritmo K-means básico.
Otimização no Armazenamento de Imagens por meio da Decomposição em Valores Si...Agnaldo Coelho
Imagens de intensidade, como em tons de cinza, são normalmente representadas por uma matriz, onde cada elemento desta corresponde a um píxel na imagem. Este trabalho aborda
a redução no espaço de armazenamento de imagens, utilizando para isto a Decomposição em
Valores Singulares (SVD - Singular Value Decomposition) de uma matriz.
Otimização no Armazenamento de Imagens por meio da Decomposição em Valores Si...Agnaldo Coelho
Este relatório apresenta uma pesquisa sobre otimização no armazenamento de imagens digitais por meio da decomposição em valores singulares (SVD). O objetivo é demonstrar que a SVD pode reduzir o espaço de armazenamento necessário preservando características essenciais das imagens. Foram analisadas imagens reconstruídas usando diferentes quantidades de dados obtidos pela SVD e examinada a qualidade das imagens processadas após conversões entre modelos de cores.
As três frases são:
1) O documento discute o método dos mínimos quadrados para ajustar uma função tabelada f(x) por outra função g(x) escolhida de uma família de funções.
2) O método escolhe os coeficientes da função g(x) de modo a minimizar a soma dos quadrados dos desvios entre f(x) e g(x) nos pontos tabelados.
3) Um exemplo ilustra como aplicar o método para ajustar uma tabela de pontos por uma parábola.
Slides apresentados durante o minicurso Introdução à Amostragem Compressiva, no Simpósio Brasileiro de Telecomunicações. Maiores detalhes no livro Telecomunicações: Teoria, Avanços e Aplicações. ISBN 978-85-89748-08-7.
Este documento discute métodos numéricos para determinar zeros reais de funções reais. É dividido em três seções: 1) Isolamento de raízes, que trata da análise teórica e gráfica da função para isolar intervalos contendo cada raiz; 2) Refinamento de raízes, que apresenta métodos iterativos como a bisseção para refinar as aproximações das raízes; e 3) Critérios de parada para os métodos iterativos.
1. O documento apresenta os conceitos fundamentais da Teoria Elementar dos Números, incluindo divisibilidade, algoritmo da divisão, máximo divisor comum e números primos.
2. A seção sobre divisibilidade discute propriedades como o algoritmo da divisão de Euclides e o teorema fundamental da aritmética.
3. O documento fornece definições, teoremas e exemplos para introduzir esses conceitos-chave da teoria elementar dos números.
Este documento é um mini-teste de matemática para alunos do 11o ano com 10 questões de escolha múltipla sobre trigonometria. As questões cobrem tópicos como equações trigonométricas, relações trigonométricas, identidades trigonométricas e figuras geométricas. Os alunos têm 30 minutos para completar o teste e só é permitido usar calculadora e material de escrita.
O algoritmo de Floyd-Warshall se propõe a resolver o problema de encontrar o menor caminho entre todos os pares de vértices de um grafo orientado e ponderado. Ele utiliza programação dinâmica para calcular de forma eficiente as distâncias mínimas entre todos os pares de vértices do grafo.
O documento descreve o modelo AMMI para análise de ensaios multiambientais, que modela efeitos principais e interação de forma sequencial. Dois métodos de validação cruzada são apresentados para otimizar a seleção do número de componentes multiplicativos no modelo AMMI: leave-one-out e uma mistura de regressão e aproximação de matrizes de posto inferior.
Este documento apresenta uma prova-modelo de exame de Matemática A do 12o ano. Inclui dois cadernos com itens de escolha múltipla e resposta aberta sobre vários tópicos de Matemática, como probabilidades, trigonometria, limites e derivadas. Fornece também um formulário com fórmulas úteis para a resolução dos problemas.
O documento apresenta os conceitos de intervalos numéricos, definindo-os como subconjuntos do conjunto dos números reais. Descreve os principais tipos de intervalos (fechado, aberto, semi-aberto) e operações entre eles (união, intersecção, diferença).
Este documento contém um exercício de fixação de matemática do 9o ano com 10 questões sobre números reais e equações do segundo grau. Os alunos devem assinalar verdadeiro ou falso em questões sobre propriedades de números, determinar conjuntos solução de equações, escrever equações com raízes determinadas, resolver equações do segundo grau, calcular discriminantes e analisar tipo de raízes, e determinar valores de variáveis para que equações tenham determinadas propriedades de raízes.
A heterocedasticidade é um conceito fundamental na análise de dados estatísticos e econômicos, especialmente em modelos de regressão. Esse termo refere-se à situação em que a variância dos erros de um modelo estatístico não é constante em relação às variáveis explicativas. Em outras palavras, a dispersão dos erros não é uniforme em toda a extensão das variáveis independentes. Isso pode levar a problemas na estimação dos parâmetros do modelo e na interpretação dos resultados.
Para compreender melhor a heterocedasticidade, é útil considerar um exemplo. Suponha que estejamos interessados em examinar a relação entre o salário dos funcionários de uma empresa e seu nível de educação, idade e experiência profissional. Utilizamos um modelo de regressão para estimar essa relação, mas ao analisar os resíduos do modelo, percebemos que a variância dos erros aumenta à medida que o salário médio dos funcionários aumenta. Isso indica a presença de heterocedasticidade nos dados.
Existem várias causas potenciais para a heterocedasticidade. Uma delas é a presença de outliers nos dados, ou seja, observações que se desviam significativamente da tendência geral dos dados. Outra causa pode ser a especificação incorreta do modelo, onde a relação funcional entre as variáveis não é adequadamente capturada.
Os efeitos da heterocedasticidade podem ser problemáticos. Por exemplo, os estimadores de mínimos quadrados ordinários (MQO), comumente usados em modelos de regressão, podem produzir estimativas imprecisas e ineficientes quando os erros são heterocedásticos. Isso pode levar a erros padrão incorretos, o que por sua vez afeta a inferência estatística sobre os parâmetros do modelo.
Felizmente, existem várias técnicas para lidar com a heterocedasticidade. Uma abordagem comum é a utilização de estimadores robustos, como os estimadores de mínimos quadrados generalizados (MQG), que são menos sensíveis à presença de heterocedasticidade. Além disso, é possível transformar as variáveis envolvidas no modelo para estabilizar a variância dos erros.
É importante identificar e corrigir a heterocedasticidade, pois ela pode distorcer as conclusões e interpretações tiradas a partir do modelo estatístico. Portanto, os analistas de dados devem estar atentos à possibilidade desse fenômeno e utilizar as técnicas apropriadas para mitigar seus efeitos, garantindo assim a robustez e confiabilidade das análises estatísticas realizadas.
Mat em funcoes trigonometricas sol vol1 cap9 parte 1trigono_metrico
1) Resolve exercícios de um capítulo sobre funções trigonométricas, incluindo identidades e equações trigonométricas.
2) Determina valores máximos e mínimos de funções, e valores de seno, cosseno e tangente em vários ângulos.
3) Usa identidades trigonométricas e fórmulas para resolver problemas envolvendo seno, cosseno e tangente de ângulos somados e dobrados.
1. O documento apresenta 14 exercícios de trigonometria que incluem determinar áreas de triângulos, provar identidades trigonométricas, calcular valores de funções trigonométricas, resolver equações trigonométricas e analisar gráficos de funções trigonométricas.
1. O documento apresenta 14 exercícios de trigonometria que incluem determinar áreas de triângulos, provar identidades trigonométricas, calcular valores de funções trigonométricas, resolver equações trigonométricas e analisar gráficos de funções trigonométricas.
Formula luderiana racional para extracao de raiz quadrada (completo)ludenir
Fórmula para calcular, algebricamente (sem trigonometria), a raiz quadrada de um número complexo. Descoberta por Ludenir Santos, Rio Grande, RS (Brazil).
O documento discute algoritmos e propriedades relacionados ao máximo divisor comum (mdc) e mínimo múltiplo comum (mmc) de números inteiros. Ele apresenta: (1) definições e propriedades básicas de mdc e mmc, (2) o algoritmo de Euclides para calcular o mdc, (3) propriedades importantes do mdc como o lema de Gauss, e (4) como generalizar os conceitos de mdc e mmc para vários números inteiros.
Semelhante a Métodos de clustering para dados intervalares e do tipo histograma (20)
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
Escola Virtual - Fundação Bradesco - ITIL - Gabriel Faustino.pdf
Métodos de clustering para dados intervalares e do tipo histograma
1. Métodos de clustering para dados intervalares e
do tipo histograma
Anderson Berg
absd@cin.ufpe.br
Anderson Berg Métodos de clustering para dados do tipo histograma 1 / 63
2. Introdução
Índice
1 Introdução
2 Dynamic Cluster Algorithm
3 Dois novos métodos de clustering
4 Unsupervised pattern recognition models
5 Medida de Wasserstein
Anderson Berg Métodos de clustering para dados do tipo histograma 2 / 63
3. Introdução
Introdução
• Duas abordagens de clustering baseadas no algoritmo DCA -
Dynamic Cluster Algorithm
• Primeira abordagem:
Protótipos descritos por vetores de intervalos
Dissimilaridade baseada na distância de Hausdorff
• Segunda abordagem:
Protótipos e objetos descritos de maneiras diferentes
Função matching
Anderson Berg Métodos de clustering para dados do tipo histograma 3 / 63
4. Introdução
Notações
• E = {1, ..., s, ..., n} conjunto de n objetos descritos por p variáveis
intervalares Y1 , ..., Yj , ..., Yp
1 p
• xs = (xs , ..., xs ) vetor de intervalos que descrevem o objeto s
• P = (C1 , ..., Ci , ..., Ck ) uma partição em k clusters de E
• Gi = (gi1 , ..., gij , ..., gip ) um protótipo do cluster Ci
• Λ uma representação do espaço do protótipo Gi
Anderson Berg Métodos de clustering para dados do tipo histograma 4 / 63
5. Dynamic Cluster Algorithm
Índice
1 Introdução
2 Dynamic Cluster Algorithm
3 Dois novos métodos de clustering
4 Unsupervised pattern recognition models
5 Medida de Wasserstein
Anderson Berg Métodos de clustering para dados do tipo histograma 5 / 63
6. Dynamic Cluster Algorithm
Objetivo
Encontrar uma partição P ∗ = (C1 , ..., Ck ) de E em k clusters
não-vazios e um vetor L∗ = (G1 , ..., Gi , ...Gk ) tal que P ∗ e L∗ otimizem
o critério:
∆(P ∗ , L∗ ) = Min{∆(P, L)/P ∈ Pk , L ∈ Λk }
Anderson Berg Métodos de clustering para dados do tipo histograma 6 / 63
7. Dynamic Cluster Algorithm
Objetivo
Encontrar uma partição P ∗ = (C1 , ..., Ck ) de E em k clusters
não-vazios e um vetor L∗ = (G1 , ..., Gi , ...Gk ) tal que P ∗ e L∗ otimizem
o critério:
∆(P ∗ , L∗ ) = Min{∆(P, L)/P ∈ Pk , L ∈ Λk }
k
∆(P, L) = D(xs , Gi )
i=1 s∈Ci
Anderson Berg Métodos de clustering para dados do tipo histograma 6 / 63
8. Dynamic Cluster Algorithm
Algoritmo
1 Inicialização: Inicia de uma partição aleatória
P = (C1 , ..., Ci , ..., Ck ) ou de um vetor (G1 , ..., Gi , ..., Gk ) de k
protótipos aleatórios escolhidos entre os elementos de E. Neste
caso:
Ci = ∅ para i = 1, ..., k
Para s = 1 até n faça:
Atribua s ao cluster Cl , l = argmini=1,...,k D(xs , Gi )
Cl = Cl ∪ {s}
Anderson Berg Métodos de clustering para dados do tipo histograma 7 / 63
9. Dynamic Cluster Algorithm
Algoritmo
2 Etapa de representação: i = 1 até k , obter o protótipo Gi que
minimiza o critério:
fCi (G) = D(xs , G), G ∈ Λ
s∈Ci
3 Etapa de alocação:
test ← 0
para s = 1 até n faça:
Encontre o cluster Cm ao qual s pertence
Encontre o índice l tal que: l = argmini=1,...,k D(xs , Gi )
Se l = m:
test ← 1
Cl = Cl ∪ {s} e Cm = Cm − {s}
4 Se test = 0 pare, senão vá para 2
Anderson Berg Métodos de clustering para dados do tipo histograma 8 / 63
10. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Índice
1 Introdução
2 Dynamic Cluster Algorithm
3 Dois novos métodos de clustering
O primeiro método
O segundo método
Interpretação
4 Unsupervised pattern recognition models
5 Medida de Wasserstein
Anderson Berg Métodos de clustering para dados do tipo histograma 9 / 63
11. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O primeiro método
• Compara dois vetores de intervalos x1 e x2
• Comparação baseada na distância de Hausdorff
• É usada a soma das distâncias de Hausdorff entre intervalos
Anderson Berg Métodos de clustering para dados do tipo histograma 10 / 63
12. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Definição da distância de Hausdorff
• Frequentemente utilizada em processamento de imagem
• Usada para comparar dois conjuntos de objetos A e B
j j j
• A distância de Hausdorff entre dois intervalos x1 = [a1 , b1 ] e
j j j
x2 = [a2 , b2 ] :
j j j j j j
dH (x1 , x2 ) = max(|a1 − a2 )|, |b1 − b2 |)
Anderson Berg Métodos de clustering para dados do tipo histograma 11 / 63
13. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Definição da distância de Hausdorff
• Frequentemente utilizada em processamento de imagem
• Usada para comparar dois conjuntos de objetos A e B
j j j
• A distância de Hausdorff entre dois intervalos x1 = [a1 , b1 ] e
j j j
x2 = [a2 , b2 ] :
j j j j j j
dH (x1 , x2 ) = max(|a1 − a2 )|, |b1 − b2 |)
A distância d1 entre dois vetores de intervalos x1 e x2 é a soma das p
variáveis das distâncias de Hausdorff entre os intervalos:
p j j j j
d1 (x1 , x2 ) = j=1 max(|a1 − a2 |, |b1 − b2 |)
Anderson Berg Métodos de clustering para dados do tipo histograma 11 / 63
14. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
O protótipo G = (g 1 , ..., g p ) de um cluster C é um vetor de p intervalos
que minimizam o critério de adequação:
p
j
fC (G) = d1 (xs , G) = dH (xs , g j )
s∈C s∈C j=1
Ou:
f˜ (g j )
C
p
j
fC (G) = dH (xs , g j )
j=1 s∈C
Anderson Berg Métodos de clustering para dados do tipo histograma 12 / 63
15. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
o problema agora é encontrar o intervalo g j = [αj , β j ] para (j = 1, ..., p)
que minimiza:
j j j
f˜ (g j ) =
C dH (xs , g j ) = max(|αj − as |, |β j − bs |)
s∈C s∈C
Anderson Berg Métodos de clustering para dados do tipo histograma 13 / 63
16. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
Vamos resolver o problema da minimização transformando em dois
j
problemas de minimização bem conhecidos. Seja ms o ponto médio
j j j j
de um intervalo xs = [as , bs ] e ls metade do seu tamanho:
j j j j
j as + bs j bs − as
ms = e ls =
2 2
e seja µj e λj o ponto médio e a metade do tamanho do intervalo
g j = [αj , β j ], respectivamente.
De acordo com a seguinte propriedade definida para
x e y em :
max(|x − y |, |x + y |) = |x| + |y |
Anderson Berg Métodos de clustering para dados do tipo histograma 14 / 63
17. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
j j j j
f˜ (g j ) =
C max(|(µj − λj ) − (ms − ls )|, |(µj + λj ) − (ms + ls )|)
s∈C
j j
= |µj − ms | + |λj − ls |
s∈C s∈C
Anderson Berg Métodos de clustering para dados do tipo histograma 15 / 63
18. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
Isto leva a dois problemas de minimização bem conhecidos: encontrar
µj ∈ e λj ∈ que minimizam, respectivamente:
j j
|µj − ms | e |λj − ls |
s∈C s∈C
ˆ j
• µj : a mediana de {ms , s ∈ C}, que são os pontos médios dos
j j j
intervalos xs = [as , bs ], s ∈ C
ˆ
• λj : a mediana do conjunto {l j , s ∈ C} s
ˆ ˆ ˆ ˆ ˆ ˆ ˆ
• g j = [αj , β j ] o intervalo [µj − λj , µj + λj ]
• G = (g 1 , ..., g p ): o protótipo de C
ˆ ˆ
Anderson Berg Métodos de clustering para dados do tipo histograma 16 / 63
19. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O segundo método
j j j j
• Compara duas duplas p1 = (x1 , q1 ) e p2 = (x2 , q2 )
j j
• q1 e q2 são pesos associados a x1 e x2
j j
• Uma etapa de pré-processamento discretiza x1 e x2 em intervalos
elementares
Anderson Berg Métodos de clustering para dados do tipo histograma 17 / 63
20. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Pré-processamento
j j j
• xs é discretizado para obter intervalos elementares {I1 , ..., IHj } e
j
seus pesos correspondentes qs
j j j
• A partir de um conjunto {x1 , ..., xs , ..., xn } de n intervalos outro
j j j
conjunto de Hj intervalos disjuntos {I1 , ..., Ih , ..., IHj } é formado
• Ordena-se o conjunto de limites inferiores e superiores dos n
j j j
intervalos {x1 , ..., xs , ..., xn } para obter os intervalos elementares
j
• Os intervalos elementares Ih devem obedecer as seguintes
propriedades:
Anderson Berg Métodos de clustering para dados do tipo histograma 18 / 63
21. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Pré-processamento
j j j
• xs é discretizado para obter intervalos elementares {I1 , ..., IHj } e
j
seus pesos correspondentes qs
j j j
• A partir de um conjunto {x1 , ..., xs , ..., xn } de n intervalos outro
j j j
conjunto de Hj intervalos disjuntos {I1 , ..., Ih , ..., IHj } é formado
• Ordena-se o conjunto de limites inferiores e superiores dos n
j j j
intervalos {x1 , ..., xs , ..., xn } para obter os intervalos elementares
j
• Os intervalos elementares Ih devem obedecer as seguintes
propriedades:
Hj j j n
i) h=1 Ih = s=1 xs
j j
ii) Ih ∩ Ih = ∅ se h = h
j j j j
iii) ∀s ∈ E, ∀h Ih ⊆ xs ou Ih ∩ xs = ∅
j j j j j j j j j
iv) ∀s ∈ E, ∃Ss ⊂ {I1 , ..., IHj } : I j ∈S j Ih = xs e ∀Ih ∈ Ss , Ih ⊆ xs
h s
Anderson Berg Métodos de clustering para dados do tipo histograma 18 / 63
22. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Pré-processamento
j j j j
Ss = {Ih : Ih ⊆ xs } é um subconjunto de intervalos elementares
A Função peso qs é definida como:
j
qs : Ss → [0, 1]
j
j j j |Ih |
Ih ∈ Ss → qs (Ih ) = j j
bs − as
j j
|Ih | é o tamanho do intervalo Ih
j j j
∀Ih ∈ Ss , qs (Ih ) ≥ 0
j
j j qs (I ) = 1
h I ∈S
s h
Anderson Berg Métodos de clustering para dados do tipo histograma 19 / 63
23. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Construção de intervalos elementares
Anderson Berg Métodos de clustering para dados do tipo histograma 20 / 63
24. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Definição da dissimilaridade de "dois componentes"
j j j j
Duas duplas p1 = (x1 , q1 ) e p2 = (x2 , q2 ) são comparadas por:
j j j j
d2c (p1 , p2 ) = dci (x1 , x2 ) + dcd (q1 , q2 )
Anderson Berg Métodos de clustering para dados do tipo histograma 21 / 63
25. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O primeiro componente
j j j j j j
Dissimilaridade dci entre dois intervalos x1 = [a1 , b1 ] e x2 = [a2 , b2 ]:
j j ¯j ¯j j j
|(x1 ∩ x2 ) ∩ (x1 ⊕ x2 )|
dci (x1 , x2 ) = j j
|x1 ⊕ x2 |
onde:
• |.| o tamanho de um intervalo
j j j j j j
• x1 ⊕ x2 = [min(a1 , a2 ), max(b1 , b2 )]
¯j j j j
• xs =] − ∞, as [∪]bs , +∞[ o conjunto complementar de xs em
Anderson Berg Métodos de clustering para dados do tipo histograma 22 / 63
26. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O primeiro componente
Alternativamente:
j j j j
|min(b1 ,b2 )−max(a1 ,a2 )| j j
se x1 ∩ x2 = ∅
j j j j j j
dci (x1 , x2 ) = max(b1 ,b2 )−min(a1 ,a2 )
0 senão
Anderson Berg Métodos de clustering para dados do tipo histograma 23 / 63
27. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O segundo componente
Dissimilaridade dcd entre duas funções peso:
1 j j
dcd (q1 , q2 ) = ( q1 (Ih ) + q2 (Ih ))
2 j j j j j j j j j j
{Ih :Ih ∈S1 ,Ih ∈S2 }
/ {Ih :Ih ∈S2 ,Ih ∈S1 }
/
j j j j
0 ≤ dcd ≤ 1, com dcd = 0 se x1 = x2 e dcd = 1 se x1 ∩ x2 = ∅
Anderson Berg Métodos de clustering para dados do tipo histograma 24 / 63
28. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O segundo componente
Dissimilaridade dcd entre duas funções peso:
1 j j
dcd (q1 , q2 ) = ( q1 (Ih ) + q2 (Ih ))
2 j j j j j j j j j j
{Ih :Ih ∈S1 ,Ih ∈S2 }
/ {Ih :Ih ∈S2 ,Ih ∈S1 }
/
j j j j
0 ≤ dcd ≤ 1, com dcd = 0 se x1 = x2 e dcd = 1 se x1 ∩ x2 = ∅
p p
j j j j
d2 (p1 , p2 ) = d2c (p1 , p2 ) = (dci (x1 , x2 ) + dcd (q1 , q2 ))
j=1 j=1
Anderson Berg Métodos de clustering para dados do tipo histograma 24 / 63
29. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
O protótipo G de um cluster C é agora um vetor de p duplas (Γj , q):
j j
(a) Γj = [mins∈C as , maxs∈C bs ] é um intervalo que generaliza os
j j j
intervalos xs = [as , bs ] para s ∈ C;
j
(b) Γj = xs : s ∈ C é um conjunto de intervalos
1 j
q= card(C) {h,s:Ih ∈Ss
j
e s∈C} qs (Ih )
0, senão
Anderson Berg Métodos de clustering para dados do tipo histograma 25 / 63
30. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
Como a definição (b) de Γj não é um intervalo
∗ j ¯j
|(xs ∩ ( ¯j j
s ∈C xs )) ∩ (xs ⊕ ( s ∈C
j
xs ))|
dci (xs , Γj ) = j j
|xs ⊕ ( s ∈C xs )|
j j j j j j
xs ⊕ ( s ∈C xs ) = [min(as , mins ∈C as ), max(bs , maxs ∈C bs )]
Anderson Berg Métodos de clustering para dados do tipo histograma 26 / 63
31. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O protótipo
Como a definição (b) de Γj não é um intervalo
∗ j ¯j
|(xs ∩ ( ¯j j
s ∈C xs )) ∩ (xs ⊕ ( s ∈C
j
xs ))|
dci (xs , Γj ) = j j
|xs ⊕ ( s ∈C xs )|
j j j j j j
xs ⊕ ( s ∈C xs ) = [min(as , mins ∈C as ), max(bs , maxs ∈C bs )]
p
∗ ∗ j
d2 (ps , G) = (dci (xs , Γj ) + dcd (qs , q))
j=1
Anderson Berg Métodos de clustering para dados do tipo histograma 26 / 63
32. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
O algoritmo
a) Inicialização: Inicia de uma partição aleatória P = (C1 , ..., Ci , ..., Ck )
b) Etapa de alocação:
test ← 0
para s = 1 até n faça:
Encontre o cluster Cm ao qual s pertence
Se card(Cm ) = 1 para l = 1, ..., k e l = m
calcula novos protótipos Gm de Cm − {s} e Gl de Cl ∪ {s}
calcula o critério ∆l = k i=1
∗
s ∈Ci D(ps ,Gi ) onde D = d2 ou d2
Encontre o cluster Cl · tal que
l ∗ = argminl=1,...,k ∆l
Se l ∗ = m move s para Cl ·
test ← 1
Cl · = Cl · ∪{s} e Cm = Cm − {s}
c) se test = 0 então pare, senão vá para b)
Anderson Berg Métodos de clustering para dados do tipo histograma 27 / 63
33. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Interpretação
n k k
2 2
d (xs , G) = d (xs , Gi ) + ni d 2 (Gi , G)
s=1 i=1 s∈Ci i=1
TSS WSS BSS
• d a distância Euclidiana quadrada
• G a média dos n pontos xs ∈ E
• Gi a média dos pontos xs ∈ Ci
• ni = card(Ci )
Anderson Berg Métodos de clustering para dados do tipo histograma 28 / 63
34. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Interpretação
A média G de um cluster C é o ponto g ∈ p que minimiza o critério:
fC (g) = d 2 (xs , g)
s∈C
No primeiro método, a média G é generalizada para protótipo G, que
minimiza:
fC (g) = D(xs , g)
s∈C
Anderson Berg Métodos de clustering para dados do tipo histograma 29 / 63
35. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Interpretação
TSS e WSS podem ser generalizados usando o protótipo Gi de um
cluster Ci :
• WSS = k i=1 s∈Ci D(xs , Gi ) = k
i=1 fCi (Gi ), que é igual ao
critério ∆(P, L)
• TSS = n D(xs , GE ), que é o critério fE (GE ), com GE o
s=1
protótipo de todo o conjunto E
Anderson Berg Métodos de clustering para dados do tipo histograma 30 / 63
36. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Interpretação
Três critérios serão utilizados para interpretar uma partição e seus
clusters:
• fCi (Gi ) que é a medida de homogeneidade do cluster Ci ;
• ∆(P, L) que é a medida da homogeneidade intra-cluster
(within-cluster) da partição P;
• fE (GE ) que é a medida da homogeneidade total do conjunto E.
Anderson Berg Métodos de clustering para dados do tipo histograma 31 / 63
37. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Interpretação da partição
Qualidade de uma partição:
∆(P, L)
Q(P) = 1 −
fE (GE )
Qualidade da partição para cada variável Yj :
k ˜
ˆj
i=1 fCi (gi )
Qj (P) = 1 −
˜E (g j )
f ˆE
Anderson Berg Métodos de clustering para dados do tipo histograma 32 / 63
38. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Interpretação dos clusters
A qualidade de um cluster Ci de E é definida por:
fCi (Gi )
Q(Ci ) = 1 −
fCi (GE )
A contribuição de um cluster Ci à homogeneidade intra-cluster de P é
definida por:
fC (Gi )
K (Ci ) = i
∆(P, L)
A soma de k contribuições é 1
Anderson Berg Métodos de clustering para dados do tipo histograma 33 / 63
39. Dois novos métodos de clustering O primeiro método O segundo método Interpretação
Interpretação dos clusters
Um critério final que é útil para interpretar um cluster de acordo com
uma variável Yj é:
˜C (g j )
f ˆ
Qj (Ci ) = 1 − i ij
˜C (g
f ˆ i E
Anderson Berg Métodos de clustering para dados do tipo histograma 34 / 63
40. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Índice
1 Introdução
2 Dynamic Cluster Algorithm
3 Dois novos métodos de clustering
4 Unsupervised pattern recognition models
Introdução
Pré-processamento
Distâncias adaptativas
Algoritmo
Interpretação
5 Medida de Wasserstein
Anderson Berg Métodos de clustering para dados do tipo histograma 35 / 63
41. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Partitioning dynamical cluster algorithm
• Algoritmos iterativos de duas etapas
• Construção de clusters e representações de protótipos
• Critério de adequação
• Clustering dinâmico adaptativo
• Análise de dados simbólicos
• Pré-processamento
Anderson Berg Métodos de clustering para dados do tipo histograma 36 / 63
42. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Tipos de dados
Dada uma variável simbólica Xj , ela é:
• set-valued se, dado um item i, Xj (i) = xij ⊆ Aj onde
j j
Aj = {t1 , ..., tHj } é um conjunto de categorias
• ordered list-valued se, dado um item i, Xj (i) = xij , onde xij é uma
j j
sub-lista de uma lista ordenada de categorias Aj = [t1 , ..., tHj ]
• interval-valued se, dado um item i, Xj (i) = xij = [aij , bij ] ∈ [a, b],
onde [a, b] ∈ e é o conjunto de intervalos fechados definidos
em
• histogram-valued se, dado um item i, Xj (i) = xij = (S j (i), qj (i))
j j
onde qj (i) = (qi1 , ..., qiHij ) é um vetor de pesos definido em S j (i),
tal que um peso q(m) corresponde a cada categoria m ∈ S j (i)
Anderson Berg Métodos de clustering para dados do tipo histograma 37 / 63
43. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Tabela de dados
City X1 X2 X3
1 [70,100] ((D,C,S,N),(0.4,0.3,0.2,0.1)) {F,I}
2 [50,70] ((D,C,S,N),(0.3,0.3,0.3,0.1)) {S,G}
3 [20,40] ((D,C,S,N),(0.2,0.2,0.2,0.4)) {GB,G}
4 [60,100] ((D,C,S,N),(0.1,0.3,0.4,0.2)) {B,GB}
Anderson Berg Métodos de clustering para dados do tipo histograma 38 / 63
44. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Set-valued
Xj (i) = xij = (Aj , qj (i))
˜ ˜
j j
onde Aj = {t1 , ..., tHj }
j j
O peso qh (i)(h = 1, ..., Hj ) da categoria th ∈ Aj é definido como:
j
1
j , se th ∈ xij ,
j
qh (i) = c(xi )
0, se th ∈ xij ,
j
/
onde c(A) é a cardinalidade de um conjunto finito de categorias A.
Anderson Berg Métodos de clustering para dados do tipo histograma 39 / 63
45. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Ordered list-valued
Xj (i) = xij = (Aj , Qj (i))
˜ ˜
j j
onde Aj = [t1 , ..., tHj ]
j j
O peso cumulativo Qh (i)(h = 1, ..., Hj ) da categoria th da lista
ordenada Aj é definido como:
se a categoria trj está na
1
h j ,
l(xi )
j
Qh (i) = qrj (i), onde qrj (i) = j
sub-lista xi ,
r =1
0, senão
onde l(A) é o tamanho de uma lista ordenada de categorias A
Anderson Berg Métodos de clustering para dados do tipo histograma 40 / 63
46. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Interval-valued
˜
Xj (i) = xij = (Aj , Q j (i))
˜ ˜
˜ j j
onde Aj = {I1 , ..., IHj }
j j
Os pesos cumulativos Qh (i)(h = 1, ..., Hj ) do intervalo elementar Ih é
definido como:
h
j l(Irj ∩ xij )
Qh (i) = qrj (i), onde qrj (i) = ,
r =1 l(xij )
onde l(I) é o tamanho do intervalo fechado I
Anderson Berg Métodos de clustering para dados do tipo histograma 41 / 63
47. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Intervalos elementares
Propriedades dos intervalos elementares:
Hj j
(1) h=1 Ih = [a, b]
j j
(2) Ih ∩ Ih = ∅ se h=h
j
(3) ∀h∃i ∈ Ω tal que Ih ∩ xij = ∅
(4) ∀i∃Sij ⊂ {1, ..., Hj } : ∪h∈S j Ih = xij
j
i
Anderson Berg Métodos de clustering para dados do tipo histograma 42 / 63
48. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Exemplo
Country X1 X2
1 [10,30] {A,Co}
2 [25,35] {C,Co,E}
3 [90,130] {A,C,E}
4 [125,140] {A,C,Co,E}
• X1 é o mínimo e o máximo do produto nacional bruto (em milhões)
• X2 indica as principais indústrias a partir do conjunto
A2 = {A = agricultura , C = chemistry, Co = commerce, E =
engineering, En = energy, I = informatic}
Anderson Berg Métodos de clustering para dados do tipo histograma 43 / 63
50. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Representação dos dados
Depois do pré-processamento:
xi = (xi1 , . . . , xip ), xij = (Dj , u j (i))
˜ ˜ ˜ ˜
j j j
˜
e u (i) = (u1 (i), . . . , uHj (i))
O protótipo do cluster Ck (k = 1, ..., K ) é representado por um vetor de
histogram-valued symbolic data:
p j
gk = (gk , . . . , gk ), gk = (Dj , vj (k ))(j = 1, . . . , p)
1
j j
vj (k ) = (v1 (k ), . . . , vhj (k ))
Anderson Berg Métodos de clustering para dados do tipo histograma 45 / 63
51. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Esquema geral
Encontrar a partição P ∗ = {C1 , . . . , CK } de Ω em K clusters, os K
∗ ∗
∗ ∗ ∗
protótipos correspondentes G = (g1 , . . . , gK ) representando os
clusters em P ∗ e K distâncias Euclidianas quadradas adaptativas
parametrizadas por K vetores de pesos D∗ = (λ∗ , . . . , λ∗ )
1 K
Critério de adequação:
K
W (G, D, P) = ˜
d(xi , gk | λk )
k =1 i∈Ck
Anderson Berg Métodos de clustering para dados do tipo histograma 46 / 63
52. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Distâncias Euclidianas adaptativas
(a) Distância única: λk = λ(k = 1, . . . , K ), onde λ = (λ1 , . . . , λp )
p Hj
j j
˜
d(xi , gk | λ) = λj (uh (i) − vh (k ))2
j=1 h=1
(b) Distância por cluster: λk = (λ1 , . . . , λp )
k k
p Hj
˜
d(xi , gk | λk ) = λjk j j
(uh (i) − vh (k ))2
j=1 h=1
Anderson Berg Métodos de clustering para dados do tipo histograma 47 / 63
53. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Pré-processamento: homogenização dos dados
Para todos os objetos i = 1, . . . , n e todas as variáveis j = 1, . . . , p
calcular xij = (Dj , u j (i))
˜
Anderson Berg Métodos de clustering para dados do tipo histograma 48 / 63
54. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Etapa de inicialização
(0) (0)
Escolher aleatoriamente uma partição P (0) = (C1 , . . . , CK ) de Ω ou
(0) (0)
K objetos distintos g1 , . . . , gK pertencentes a Ω e atribua cada
(0)
objeto i ao protótipo gk ∗ mais próximo, onde
p Hj j j
k ∗ = argmink =1,...,K { j=1 h=1 ((uh (i))
(0) − (vh (k ))(0) )2 }. t = 1.
Anderson Berg Métodos de clustering para dados do tipo histograma 49 / 63
55. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Passo 1: Definição dos protótipos
P = {C1 , . . . , CK } e D = (λ1 , . . . , λK ) fixos
1 p
O vetor de protótipos G = (g1 , . . . , gK ), onde gk = (gk , . . . , gk ) com
j
gk = (Dj , v j (k )) que minimiza o critério W , onde o vetor
j j
v j (k ) = (v1 (k ), . . . , vHj (k )) é calculado por:
j 1 j
vh (k ) = uh (i)
nk
i∈Ck
onde nk é a cardinalidade da classe Ck
Anderson Berg Métodos de clustering para dados do tipo histograma 50 / 63
56. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Passo 2: Definição das distâncias
P = {C1 , . . . , CK } e G = (g1 , . . . , gk ) fixos
(a) Para distância única: λk = λ(k = 1, . . . , K ), onde λ = (λ1 , . . . , λp ),
λj > 0 e p λj = η
j=1
1
p K Hl l l 2
j
{η l=1 ( k =1 [ i∈Ck ( h=1 (uh (i) − vh (k )) )])}
p
λ = Hj
K j j 2
k =1 [ i∈Ck ( h=1 uh (i) − vh (k )) )]
Anderson Berg Métodos de clustering para dados do tipo histograma 51 / 63
57. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Passo 2: Definição das distâncias
(b) Para distância por cluster: λk = (λ1 , . . . , λp )λjk > 0 e
k k
p j
j=1 λk =χ
Hj 1
p l l 2
{χ l=1 ( i∈Ck ( h=1 (uh (i) − vh (k )) ))}
p
λjk = Hj j j 2
i∈Ck ( h=1 uh (i) − vh (k )) )
Anderson Berg Métodos de clustering para dados do tipo histograma 52 / 63
58. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Passo 3: Definição da partição
G = (g1 , . . . , gk ) e D = (λ1 , . . . , λK ) fixos
˜ ˜
Ck = {i ∈ Ω : d(xi , gk | λk ) < d(xi , gm | λm ) e quando
˜ ˜
dk (xi , gk | λk ) = dk (xi , gm | λm ) então
i ∈ Ck se k < m∀m = k (m = 1, . . . , K )}
Anderson Berg Métodos de clustering para dados do tipo histograma 53 / 63
59. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Soma dos quadrados global
n K
T = ˜
d(xi , g | λk ) = ˜
d(xi , g | λk )
i=1 k =1 i∈Ck
onde g = (g 1 , . . . , g p ), g j = (Dj , vj )(j = 1, . . . , p) e o vetor de pesos
j j
vj = (v1 , . . . , vHj ) é calculado por:
n
j 1 j
vh = uh (i)
n
i=1
Anderson Berg Métodos de clustering para dados do tipo histograma 54 / 63
60. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Soma dos quadrados intra-classe: W
K
W = ˜
d(xi , gk | λk )
k =1 i∈Ck
Anderson Berg Métodos de clustering para dados do tipo histograma 55 / 63
61. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Soma dos quadrados inter-classe: B
K
B= nk d(gk , g | λk )
k =1
Anderson Berg Métodos de clustering para dados do tipo histograma 56 / 63
62. Unsupervised pattern recognition models Introdução Pré-processamento Distâncias adaptativas Algori
Relações entre as somas
• T =W +B
• Tk = Wk + Bk (k = 1, . . . , K )
• Tj = Wj + Bj (j = 1, . . . , p)
• Tkj = Wkj + Bkj (k = 1, . . . , K ; j = 1, . . . , p)
Anderson Berg Métodos de clustering para dados do tipo histograma 57 / 63
63. Medida de Wasserstein
Índice
1 Introdução
2 Dynamic Cluster Algorithm
3 Dois novos métodos de clustering
4 Unsupervised pattern recognition models
5 Medida de Wasserstein
Anderson Berg Métodos de clustering para dados do tipo histograma 58 / 63
64. Medida de Wasserstein
Notação
• Y é uma variável contínua definida em S = [y ; y ]
• Y é particionada em intervalos contíguos: {I1 , . . . , Ih , . . . , IH } onde
Ih = [yh ; yh ]
• A cada intervalo semi-aberto Ih é associada uma variável
aleatória:
N
Ψ(Ih ) = Ψyu (Ih )
u=1
onde Ψyu (Ih ) = 1 se yu ∈ Ih , 0 se não
• Distribuição empírica associada a Ih : πh = Ψ(Ih )/N
Anderson Berg Métodos de clustering para dados do tipo histograma 59 / 63
65. Medida de Wasserstein
Distância quadrada
A distância quadrada entre duas descrições de histograma Y (i) e Y (j)
é:
m wl
2
dM (Y (i), Y (j)) := (Ψ−1 (t) − Ψ−1 (t))2 dt
i j
l=1 wl−1
Cada dupla (wl−1 , wl ) permite identificar dois intervalos, um para i e
outro para j:
Ili = [Ψ−1 (wl−1 ); Ψ−1 (wl )]
i i e Ilj = [Ψ−1 (wl−1 ); Ψ−1 (wl )]
j j
Anderson Berg Métodos de clustering para dados do tipo histograma 60 / 63
66. Medida de Wasserstein
Distância quadrada
Para cada intervalo é possível calcular os centros e os raios:
cli = (Ψ−1 (wl ) + Ψ−1 (wl−1 ))/2
i i rli = (Ψ−1 (wl ) − Ψ−1 (wl−1 ))/2
i i
O cálculo da distância pode ser reescrito:
p mk
2 (k ) (k ) (k ) 2 1 (k ) (k ) 2
dM (Y (i), Y (j)) := πl cli − clj + r − rlj
3 li
k =1 l=1
Anderson Berg Métodos de clustering para dados do tipo histograma 61 / 63
67. Medida de Wasserstein
dM para dynamic clustering
f (Y (b)|Y (1), . . . , Y (n)) = f (c1b , r1b , . . . , cmb , rmb ) =
n n m
1
= d 2 (Y (i), Y (b)) = πj (cji − cjb )2 + (rji − rjb )2
3
i=1 i=1 j=1
Esta função atinge um mínimo quando:
n n
−1 −1
cjb = n cji ; rjb = n rji
i=1 i=1
O baricentro (protótipo) do histograma:
Y (b) = {([c1b − r1b ; c1b + r1b ] , π1 ) ; . . . ; cjb − rjb ; cjb + rjb , πj ; . . . ;
; . . . ; ([cmb − rmb ; cmb + rmb ] , πm )}
Anderson Berg Métodos de clustering para dados do tipo histograma 62 / 63
68. Bibliografia
Marie Chavent, Francisco De A. T. Carvalho, Yves Lechevallier, and Rosanna
Verde.
New clustering methods for interval data.
Computational Statistics, 21:211–229, 2006.
Francisco De A.T. de Carvalho and Renata M.C.R. de Souza.
New clustering methods for interval data.
Computational Statistics, 2006.
Anderson Berg Métodos de clustering para dados do tipo histograma 63 / 63