One of the biggest dilemmas faced by decision-making systems is to determine an efficient means to produce classifiers from data base regarding the processing time and the form of simple symbolic representation understandable that facilitates the analysis of the problem in question. In this brief report we will discuss a very popular tool in knowledge discovery in databases process and thus aid in making decisions: the Decision Trees.
Neste trabalho são apresentados alguns resultados da aplicação da estratégia k-Nearest-Neighbor à popular base de dados Iris, introduzida por Sir Ronald Aylmer Fisher em 1936 como um exemplo de análise discriminante. Os dados contêm quatro características de três espécies de flores Iris, da família das Iridáceas: comprimento da sépala, largura da sépala, comprimento da pétala e largura da pétala. Baseado na combinação desses quatro atributos, Fisher desenvolveu um modelo discriminante linear para distinguir cada uma das espécies. O classificador empregado neste trabalho utiliza esses quatro atributos para construção de uma medida de dispersão e proximidade que classifique corretamente os 3 tipos de flores: Iris-Virginica, Iris-Versicolor e Iris-Setosa. A base de dados contém 150 amostras, sendo 50 de cada uma das classes.
Neste trabalho são apresentados alguns resultados da aplicação da estratégia k-Nearest-Neighbor à popular base de dados Iris, introduzida por Sir Ronald Aylmer Fisher em 1936 como um exemplo de análise discriminante. Os dados contêm quatro características de três espécies de flores Iris, da família das Iridáceas: comprimento da sépala, largura da sépala, comprimento da pétala e largura da pétala. Baseado na combinação desses quatro atributos, Fisher desenvolveu um modelo discriminante linear para distinguir cada uma das espécies. O classificador empregado neste trabalho utiliza esses quatro atributos para construção de uma medida de dispersão e proximidade que classifique corretamente os 3 tipos de flores: Iris-Virginica, Iris-Versicolor e Iris-Setosa. A base de dados contém 150 amostras, sendo 50 de cada uma das classes.
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
Slides da parte prática do treinamento Introdução a Aprendizagem de Máquina, representando a comunidade AIBrasil (https://www.meetup.com/pt-BR/ai-brasil/) em conjunto com a DevelopersBR (https://www.meetup.com/pt-BR/DevelopersBR), consistindo de 8 horas imersivas em Inteligência Artificial com aplicações práticas de algoritmos clássicos.
Aulas de estrutura de dados por Ayrton YagamiAyrton Yagami
Aprenda mais sobre estruturas de dados:
1 - Recursão
2 - Lista ligada, lista duplamente ligada, lista circular
3 - Conceito de Arvore
4 - Arvore Binária e AVL
AGENDA
Introdução
O que é?
Elementos
Características
Vantagens e Desvantagens
Ganho de Informação e Entropia
Principais Algoritmos
Exemplos
Bibliografia
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
Slides da parte prática do treinamento Introdução a Aprendizagem de Máquina, representando a comunidade AIBrasil (https://www.meetup.com/pt-BR/ai-brasil/) em conjunto com a DevelopersBR (https://www.meetup.com/pt-BR/DevelopersBR), consistindo de 8 horas imersivas em Inteligência Artificial com aplicações práticas de algoritmos clássicos.
Aulas de estrutura de dados por Ayrton YagamiAyrton Yagami
Aprenda mais sobre estruturas de dados:
1 - Recursão
2 - Lista ligada, lista duplamente ligada, lista circular
3 - Conceito de Arvore
4 - Arvore Binária e AVL
AGENDA
Introdução
O que é?
Elementos
Características
Vantagens e Desvantagens
Ganho de Informação e Entropia
Principais Algoritmos
Exemplos
Bibliografia
O presente artigo tem como objetivo a classificação de textos e a previsão das categorias de ocorrências, através do estudo de modelos de Inteligência Artificial, utilizando Machine Learning e Deep Learning para a classificação de textos e análise das previsões, sugerindo-se a melhor opção com o menor erro.
Soft information retrieval / Modelos de recuperação alternativosVanessa Biff
Trabalho apresentado na disciplina Recuperação Inteligente da Informação no Mestrado em Ciência da Informação da Universidade Federal de Santa Catarina
Você já deve ter percebido como dados têm sido tema recorrente na maioria das empresas. Mas por que isso acontece?
Simples! Segundo a Nielsen, passamos, em média, 10 horas em frente às nossas telas preferidas. Em 2020, estima-se que cada pessoa será capaz de gerar 1,7 MB de dados por segundo, como aponta a sexta edição Data Never Sleeps — de acordo com a ONU, já somos mais de 7 bilhões, faz só essa conta.
Vamos revelar como a Ciência de Dados é a solução para quem quer lançar um olhar estratégico sobre o ecossistema de dados que orbita seu negócio.
Conversaremos também sobre como o Data Science pode gerar: redução de custos, aumento de eficiência, reconhecimento de novas oportunidades de mercado e aumento da vantagem competitiva e de valor de negócio.
Aproveite a oportunidade de ficar por dentro de um dos temas mais reincidente nas agendas dos executivos globais - Data Science.
O presente artigo tem como objetivo o estudo de modelos de Inteligência Artificial para sistemas de recomendação, case Santander do Kaggle, utilizando algoritmos de Machine Learning e Deep Learning para fazer a recomendação de produtos com base na história dos clientes do banco.
Data Mining e Machine Learning com Python - Mateus Grellert - Tchelinux Pelot...Tchelinux
Data Mining e Machine Learning são tópicos com bastante apelo na academia e na indústria, devido a sua importância na ciência de dados. Estes conceitos costumam ser tratados de forma conjunta, pois se complementam na sua função de interpretação e modelagem da informação. As técnicas de Data Mining permitem que pesquisadores e desenvolvedores entendam melhor os seus dados, automatizando tarefas importantes como detecção de correlações e padrões, eliminação de informações ruidosas etc. Já as técnicas de ML possibilitam a geração de modelos inteligentes, capazes de assimilar as relações presentes entre os dados para tomar decisões ou prever resultados com base na informação de entrada. Dentre as diversas plataformas disponíveis para desenvolvimento de aplicações de Data Mining/Machine Learning, a linguagem Python se destaca como uma das mais utilizadas para esse propósito, devido a sua ampla coleção de bibliotecas e por ter uma comunidade de desenvolvedores bastante ativa. Essa palestra vai abordar as questões práticas de desenvolvimento em Data Mining e Machine Learning com Python, além de apresentar uma breve fundamentação teórica das técnicas discutidas.
Texture Synthesis: An Approach Based on GPU UseMichel Alves
This theme has as main objective to provide a study of capacity of the fastest methods of procedural texture generation using the parallel architecture of current video cards and their respective graphical process- ing units. In this work, the focus of study will concentrate primarily for the generation of textures through the use of noise functions, but we will certainly consider other well known techniques. We outline recent advances in research on this topic, discussing and comparing recent and well-established methods.
Intelligent Transfer of Thematic Harmonic Color PalettesMichel Alves
This theme has as main objective to introduce a method of "smart" transfer of harmonic color palettes based on a particular theme or color expression model. The "smart" part would be shaped by the retention ca- pability information of the original input image, ie, the number of percep- tible colors must not be changed beyond be combined with other existing color model. The "thematic" part would be for the account of a research core of palettes that would read a certain base of images and would ex- tract the n best ranked palettes in the base.
A Framework for Harmonic Color MeasuresMichel Alves
This theme has as main objective to introduce a quality comparison scale for color images that takes into account the balance or harmony existing between set of colors of the input model/image. The main idea is to measure the "harmonic distance" of the input model in relation to a particular scheme but not perform the harmonization proccess.
Effectiveness of Image Quality Assessment IndexesMichel Alves
The main objective of this theme is to provide a study of effectiveness of the main image quality indexes in relation to the detection of distor- tions introduced after processes of acquisition, compression, filtering or sampling, as well as introducing a range of "admissibility" of distortions and degradation classes (like classes of noise, classes of blocking, classes of compression, classes of fusion/blending, classes of watermarking, etc.).
In non-parametric statistics, a kernel is a weighting function used in non-parametric estimation techniques. A kernel is a non-negative real-valued symmetric and integrable function K. Several types of kernel functions are commonly used: uniform, triangle, Epanechnikov, quartic (biweight), tricube, triweight, Gaussian, quadratic and cosine. In this presentation we will talk about the properties and applications of kernel functions.
About Perception and Hue Histograms in HSV SpaceMichel Alves
About Perception and Hue Histograms in HSV Space. In this presentation we will talk about the perception of colors and the measurement of this perception through the employment of hue histograms. In addition, we will show a brief comparison between the techniques of construction of hue histogram finishing with a histogram that employs a method called 'spatial color coherence'.
In this presentation we present some results using a technique developed by Daniel Cohen-Or (Color Harmonization, Cohen-Or et al., 2006) for matching colors in digital images, which has as base the templates or harmonic groupings developed in the works of Masataka Tokumaru (Color Design Support System Considering Color Harmony, 2002) and Yutaka Matsuda (Matsuda's Color Coordination, 1995).
Wave Simulation Using Perlin Noise. In this short demo we use the technique called fractal noise generation 'Perlin Noise' for obtaining an effect of waves in a tank with water. Perlin noise is a computer-generated visual effect developed by Ken Perlin, who won an Academy Award for Technical Achievement for inventing it. It can be used to simulate elements from nature, and is especially useful in circumstances where computer memory is limited. Essentially, perlin noise is a procedural texture primitive, a type of gradient noise used by visual effects artists to increase the appearance of realism in computer graphics. The function has a pseudo-random appearance, yet all of its visual details are the same size. Perlin noise is most commonly implemented as a two-, three- or four-dimensional function, but can be defined for any number of dimensions. In this short demo we use the technique called fractal noise generation 'Perlin Noise' for obtaining an effect of waves in a tank with water.
TMS - Schedule of Presentations and ReportsMichel Alves
Ten Minute Speech - Schedule of Presentations and Reports. Subjects: dissertation themes, results using capacity-constrained distribution, image-based reconstruction with color consistency, seamless montage and stats from slideshare!
[My Gallery of Graphs] Mastering the art of building classic and stylish graphics in R: Color Palettes in R. This document constains some examples of color palettes that can be used in R graphs.
Capacity-Constrained Point Distributions :: Video SlidesMichel Alves
In this presentation, we will show the slides used for the construction of video where we display some results obtained with the technique called 'Capacity-Constrained Point Distribution'.
Capacity-Constrained Point Distributions :: Density Function CatalogMichel Alves
In this presentation, we will show a catalog of density functions used in our work. We applied four kinds of density functions: constant, non-constant, image as boundary, and image as density function.
Slides Lição 9, Central Gospel, As Bodas Do Cordeiro, 1Tr24.pptxLuizHenriquedeAlmeid6
Slideshare Lição 9, Central Gospel, As Bodas Do Cordeiro, 1Tr24, Pr Henrique, EBD NA TV, Revista ano 11, nº 1, Revista Estudo Bíblico Jovens E Adultos, Central Gospel, 2º Trimestre de 2024, Professor, Tema, Os Grandes Temas Do Fim, Comentarista, Pr. Joá Caitano, estudantes, professores, Ervália, MG, Imperatriz, MA, Cajamar, SP, estudos bíblicos, gospel, DEUS, ESPÍRITO SANTO, JESUS CRISTO, Com. Extra Pr. Luiz Henrique, 99-99152-0454, Canal YouTube, Henriquelhas, @PrHenrique
Atividade - Letra da música "Tem Que Sorrir" - Jorge e MateusMary Alvarenga
A música 'Tem Que Sorrir', da dupla sertaneja Jorge & Mateus, é um apelo à reflexão sobre a simplicidade e a importância dos sentimentos positivos na vida. A letra transmite uma mensagem de superação, esperança e otimismo. Ela destaca a importância de enfrentar as adversidades da vida com um sorriso no rosto, mesmo quando a jornada é difícil.
Slides Lição 10, CPAD, Desenvolvendo uma Consciência de Santidade, 2Tr24.pptxLuizHenriquedeAlmeid6
Slideshare Lição 10, CPAD, Desenvolvendo uma Consciência de Santidade, 2Tr24, Pr Henrique, EBD NA TV, Lições Bíblicas, 2º Trimestre de 2024, adultos, Tema, A CARREIRA QUE NOS ESTÁ PROPOSTA, O CAMINHO DA SALVAÇÃO, SANTIDADE E PERSEVERANÇA PARA CHEGAR AO CÉU, Coment Osiel Gomes, estudantes, professores, Ervália, MG, Imperatriz, MA, Cajamar, SP, estudos bíblicos, gospel, DEUS, ESPÍRITO SANTO, JESUS CRISTO, Com. Extra Pr. Luiz Henrique, de Almeida Silva, tel-What, 99-99152-0454, Canal YouTube, Henriquelhas, @PrHenrique, https://ebdnatv.blogspot.com/
América Latina: Da Independência à Consolidação dos Estados NacionaisValéria Shoujofan
Aula voltada para alunos do Ensino Médio focando nos processos de Independência da América Latina a partir dos antecedentes até a consolidação dos Estados Nacionais.
Na sequência das Eleições Europeias realizadas em 26 de maio de 2019, Portugal elegeu 21 eurodeputados ao Parlamento Europeu para um mandato de cinco ano (2019-2024).
Desde essa data, alguns eurodeputados saíram e foram substituídos, pelo que esta é a nova lista atualizada em maio de 2024.
Para mais informações, consulte o dossiê temático Eleições Europeias no portal Eurocid:
https://eurocid.mne.gov.pt/eleicoes-europeias
Autor: Centro de Informação Europeia Jacques Delors
Fonte: https://infoeuropa.mne.gov.pt/Nyron/Library/Catalog/winlibimg.aspx?doc=52295&img=11583
Data de conceção: maio 2019.
Data de atualização: maio 2024.
Sequência Didática - Cordel para Ensino Fundamental ILetras Mágicas
Sequência didática para trabalhar o gênero literário CORDEL, a sugestão traz o trabalho com verbos, mas pode ser adequado com base a sua realidade, retirar dos textos palavras que iniciam com R ou pintar as palavras dissílabas ...
1. ID3 - Método de Classificação Baseado em Árvore de
Decisão
Michel Alves dos Santos ∗
Dezembro de 2011
Resumo
Um dos maiores dilemas enfrentados pelos sis-
temas de tomada de decisão é determinar um
meio eficiente para produzir classificadores a
partir de base de dados em relação ao tempo
de processamento e à forma de representação
simbólica simples e compreensível que facilite a
análise do problema em questão. Neste sucinto
artigo iremos debater sobre uma ferramenta bas-
tante popular no processo de descoberta de co-
nhecimento em bases de dados e consequente-
mente no auxílio da tomada de decisões: as Ár-
vores de Decisão.
1 Introdução
Classificadores baseados em árvores de deci-
são, redes neurais, redes bayesianas, são caracte-
rizados pelo fato de utilizarem os dados de trei-
namento para construírem um modelo de clas-
sificação, que uma vez encontrado e testado, es-
tará pronto para ser utilizado na categorização
de qualquer novo objeto. O processo de encon-
trar o modelo é lento, mas uma vez encontrado,
o ato de classificar um novo objeto é realizado
de forma rápida. Tais classificadores são chama-
dos de Classificadores Apressados (Eager Clas-
sifiers).
Existem diversos métodos de classificação,
amplamente utilizados na prática, que diferem
dos métodos anteriormente citados pelo fato de
não utilizarem os dados de treinamento para
produzirem um modelo de classificação.
O processo de classificação utilizado por estes
classificadores, ditos preguiçosos (Lazy Classi-
fiers) , pode ser descrito suscintamente da se-
guinte forma: a cada novo objeto que se quer
∗Bacharelando em Ciência da Computação, Universi-
dade Federal do Estado de Alagoas (UFAL). E-mail: mi-
chel.mas@gmail.com. Disciplina: Inteligência Artificial
II. Docente Responsável: Aydano Pamponet Machado.
classificar, utiliza-se os dados de treinamento
para verificar quais são os objetos nesta base de
dados que mais se assemelham ao novo objeto
que se quer classificar. O objeto será classifi-
cado dentro da classe mais comum a que per-
tencem os objetos mais similares a ele. Assim, a
classificação é feita por analogia. Nenhum mo-
delo de classificação é criado. Ao invés disto, a
cada novo objeto a ser classificado, os dados de
treinamento são escaneados.
Obviamente, classificadores preguiçosos são
computacionalmente dispendiosos. Eles reque-
rem técnicas eficientes de armazenamento e são
adequados para implementação em ambientes
de computação paralela. Uma qualidade de tais
classificadores é que suportam aprendizado in-
cremental. Dois exemplos de classificadores pre-
guiçosos são o k-Nearest Neighbor (k vizinhos
mais próximos) e o Case-based Reasoning (raci-
ocínio baseado em casos).
Neste artigo iremos abordar os conceitos ini-
ciais sobre árvores de decisão e como elas podem
auxiliar no processo de tomada de decisões, além
disso usaremos uma das heurísticas mais conhe-
cidas durante o processo de aprendizagem para
construção de árvores de decisão mais eficientes:
a entropia.
2 Árvores de Decisão
Classificadores baseados em árvore de decisão
são um dos ramos da área de inteligência arti-
ficial, mais especificamente, eles pertencem ao
sub-campo de aprendizagem de máquina. Isto
se deve à sua habilidade de aprender através de
exemplos com o objetivo de classificar registros
em uma base de dados.
2.1 Utilização
Amplamente utilizadas em algoritmos de clas-
sificação, as árvores de decisão são representa-
1
2. ções simples do conhecimento, e um meio efi-
ciente de construir classificadores que predizem
ou revelam classes ou informações úteis basea-
das nos valores de atributos de um conjunto de
dados. Eles são muito úteis em atividades de
mineração de dados, isto é, o processo de extra-
ção de informações previamente desconhecida,
a partir de grandes bases de dados. Aplicações
desta técnica podem ser vista em diversas áreas,
desde cenários de negócios até sistemas de piloto
automático de aeronaves e diagnósticos médicos.
2.2 Descrição
Uma árvore de decisão é essencialmente uma
série de declarações if-elses, que quando aplica-
dos a um registro de uma base de dados , re-
sultam na classificação daquele registro. O mais
interessante sobre o programa de árvores de de-
cisão não é a sua construção a partir de classi-
ficação de um conjunto de treinamento, e sim a
sua habilidade de aprendizado. Quando o trei-
namento é finalizado, é possível alimentar sua
árvore de decisão construída a partir de exem-
plos com novos casos a fim de classífica-los.
Figura 1: Exemplo de árvore de decisão. Observe
que a estrutura realmente é na forma de árvore.
Dessa maneira, é possível utilizar técnicas recursivas
para criar e percorrer essa estrutura.
A árvore de decisão apresentada acima é uma
de várias árvores que poderiam ser construídas
para solucionar o problema. A tarefa de achar
a melhor árvore de decisão é um problema NP-
completo, isto é, que o tempo de processamento
necessário para achar a ‘melhor’ árvore de deci-
são pode ser exponencial a medida que o número
de de dados usados no treinamento da rede. Em-
bora, pareça ser impossível encontrar a menor
árvore de decisão em um tempo considerável, é
possível encontrar uma que seja ‘pequena sufici-
ente’, satisfatória a partir do uso de heurísticas
especiais. A tarefa da heurística é realizar esta
tarefa escolhendo o ‘melhor próximo’ atributo
que divida o conjunto de dados baseado em um
critério pré-definido.
2.3 Algoritmos
Há vários algoritmos de construção de árvore
de decisão (C4.5,CART,CHAID, entre outros).
Entretanto, para este artigo escolhemos o mais
popular deles: a heurística ID3, para a escolha
dos "melhores próximos"atributos baseados em
conceitos encontrados em teoria da informação.
3 O Algoritmo ID3
O algoritmo ID3, Iterative Dichotomizer 3,
foi desenvolvido por Ross Quinlan (QUILAN,
1986). Esse algoritmo consiste em um processo
de indução de árvores de decisão e tem como
finalidade avaliar a informação contida nos atri-
butos segundo a sua entropia, que mede quanto
esse espaço é homogêneo, ou por outro lado,
quanto maior for a entropia maior será a desor-
dem. O atributo mais importante é colocado na
raiz e, de forma top-down, a árvore é construída
recursivamente, com o objetivo de sempre esco-
lher o melhor atributo para determinado nó.
Uma das grandes vantagens do ID3 é a sua
simplicidade, o seu processo de construção torna
relativamente simples a compreensão do seu fun-
cionamento. A maior desvantagem desse algo-
ritmo é que a árvore de decisão produzida por
ele é praticamente imutável, o que implica que
não se pode eficientemente reutilizar a árvore
sem reconstruí-la.
O algoritmo ID3 usa o conceito de entropia
para calcular qual o melhor atributo será utili-
zado para dividir os dados em sub-grupos. Após
a construção de uma árvore de decisão é impor-
tante avaliá-la. Esta avaliação é realizada atra-
vés da utilização de dados que não tenham sido
usados no treinamento. Esta estratégia permite
estimar como a árvore generaliza os dados e se
adapta a novas situações, podendo, também, se
estimar a proporção de erros e acertos ocorridos
na construção da árvore .
3.1 A Heurística ID3
A física usa o termo entropia para descrever
a quantidade de desordem associada a um sis-
2
3. tema. Na teoria da informação, este termo tem
uma significado semelhante, ele mede o grau de
desordem de um conjunto de dados. A heu-
rística ID3 usa este conceito para encontrar o
próximo melhor atributo de um dado para ser
utilizado como nó de uma árvore de decisão.
Logo , a idéia por trás do algoritmo ID3 é achar
um atributo que reduza em maior valor a entro-
pia de um conjunto de dados, assim reduzindo
a aleatoriedade - dificuldade de previsão - da
variável que define classes. Seguindo esta heu-
rística, você estará essencialmente encontrando
o melhor atributo para classificar os registros
(de acordo com a redução da quantia de infor-
mação necessária para descrever a partição dos
dados que foram divididos ) a fim de que os mes-
mos tenham utilidade máxima (exemplos são da
mesma classe). O algoritmo ID3 segue os se-
guintes passos:
1. Começar com todos os exemplos do treina-
mento;
2. Escolher o atributo que melhor divide os
exemplos, ou seja agrupar os exemplos da
mesma classe ou exemplos semelhantes;
3. Para o atributo escolhido, criar um nó filho
para cada valor possível do atributo ;
4. Transportar os exemplos para cada filho
tendo em conta o valor do filho;
5. Repetir o procedimento para cada filho não
"puro". Um filho é puro quando cada atri-
buto X tem o mesmo valor para todos os
exemplos.
3.2 Entropia
A Entropia é a medida da impureza do con-
junto de treino. Assumindo o valor máximo (1)
quando existem tantos elementos positivos como
negativos, e o valor mínimo (0) quando todos os
elementos são da mesma classe.
Na etapa 2 do algoritmo, para achar o me-
lhor atributo é necessário encontrar a entropia
para cada atributo possível naquele nó. Para
isto usamos a fórmula da entropia. Dado um
conjunto de entrada S que pode ter C classes
distintas, a entropia de S será dada por:
Entropy(S) = −
C
i=1
pi · log2(pi) (1)
Figura 2: Gráfico que exibe o comportamento da
função de entropia. Função entropia relativa a uma
classificação booleana, como a proporção, p+ de
exemplos positivos variando entre 0 e 1.
onde pi é a proporção de dados em S que perten-
cem à classe i. Onde calculamos a proporção do
número de exemplos positivos e o mesmo para
o número de exemplos negativos para aquele
atributo em questão multiplicado pelo logaritmo
destas proporções.
3.3 Ganho de Informação
O ganho de informação é a redução esperada
no valor da Entropia, devido à ordenação do
conjunto de treino segundo os valores do atri-
buto A (ver equação 2).
O próximo passo na heurística ID3 é calcular
o ganho de informação para cada atributo que
pode ser selecionado como nó na árvore. Essen-
cialmente é apenas calcular a entropia de todo
o conjunto de dados e diminuir este da entropia
do sub-conjunto particionado para tal atributo.
Este processo é feito para cada atributo do con-
junto de dados, e o atributo com o maior ganho
de informação será o selecionado para o próximo
nó da árvore.
Gain(S, A) = Ent(S) −
v∈A
|Sv|
|S|
· Ent(Sv) (2)
Onde a função Ent(S) significa a entropia de S
e Ent(Sv) a entropia de Sv. O raciocínio por
trás do ganho de informação é semelhante ao
cálculo de entropia demonstrado acima, porém
agora considerando os sub-conjuntos particiona-
dos de acordo com o valor do atributo em ques-
tão.
3
4. 3.4 Mineração de Dados
Além de classificação de dados, árvores de de-
cisão são úteis para inferir padrões a partir dos
dados, também referenciado como mineração de
dados. Observando sucintamente a árvore exi-
bida na figura [1] podemos inferir algumas ten-
dências a partir do conjunto de dados. A mais
óbvia tendência nos dados é que jovens (idades
entre 18 e 35) e idosos (> 55) não compram seus
produtos.
4 Conclusão
O ponto mais importante verificado é que
uma inspeção superficial do conjunto de dados,
mesmo com poucos registros, não nos fornece,
facilmente, tendências ou padrões. Quando esse
número aumenta para centenas, milhares ou
até milhões de registros, achar essas tendências
pode ser impossível. Usando árvores de deci-
são, podemos, não apenas prever padrões, como
também podemos apontar tendências importan-
tes no conjunto de dados de teste a fim de auxi-
liar na melhora de práticas (de marketing, por
exemplo), e consequentemente atingir novas me-
tas.
Referências
BATISTA, G. E. A. P. A. (2003), Pré-
Processamento de Dados em Aprendizado de
Máquina Supervisionado., PhD thesis, Insti-
tuto de Ciências Matemáticas e de Computa-
ção, Universidade de São Paulo, São Carlos.
BERRY, M. J. A. & LINOFF, G. (1997), Data
Mining Tehniques – for marketing, sales, and
customer support, United States: Wiley Com-
puter Publishing.
Colin, A. (1996), ‘Building decision trees with
the id3 algorithm’, Dr. Dobbs Journal.
GOEBEL, M. & GRUENWALD, L. (1999), ‘A
survey of data mining and knowledge disco-
very software tools’, ACM SIGKDD 1, 20–33.
KOCK, N. F., MCQUEEN, R. J. & BAKER, M.
(1996), ‘Learning and process improvement in
knowledge organisations: A critical analysis
of four contemporary myths.’, The Learning
Organization p. 31–40.
Mitchell, T. (1997), Machine Learning,
McGraw-Hill.
Monson, L. (1997), ‘Algorithm alley column:
C4.5’, Dr. Dobbs Journal.
QUILAN, J. R. (1986), ‘Introduction of decision
trees’, Machine Learning 1, 81–106.
Quinlan, J. R. (1993), C4.5 Programs for Ma-
chine Learning, Morgan Kaufmann.
RUSSEL, S. J. & NORVIG, P. (1995), Artifi-
cial Intelligence: A Modern Approach., Upper
Saddle River, New Jersey: Prentice Hall,.
RUSSELL, S. J. & NORVIG, P. (2004), Inteli-
gência Artificial, 2 ed. Rio de Janeiro.
Utgoff, P. E. (1989), Incremental Induction of
Decision Trees, Kluwer Academic Publishers.
Conteúdo
1 Introdução 1
2 Árvores de Decisão 1
2.1 Utilização . . . . . . . . . . . . . . . 1
2.2 Descrição . . . . . . . . . . . . . . . 2
2.3 Algoritmos . . . . . . . . . . . . . . 2
3 O Algoritmo ID3 2
3.1 A Heurística ID3 . . . . . . . . . . . 2
3.2 Entropia . . . . . . . . . . . . . . . . 3
3.3 Ganho de Informação . . . . . . . . 3
3.4 Mineração de Dados . . . . . . . . . 4
4 Conclusão 4
Referências 4
Listagem de Figuras 4
Lista de Figuras
1 Exemplo de árvore de decisão. Ob-
serve que a estrutura realmente é na
forma de árvore. Dessa maneira, é
possível utilizar técnicas recursivas
para criar e percorrer essa estrutura. 2
2 Gráfico que exibe o comportamento
da função de entropia. Função en-
tropia relativa a uma classificação
booleana, como a proporção, p+ de
exemplos positivos variando entre 0
e 1. . . . . . . . . . . . . . . . . . 3
4