SlideShare uma empresa Scribd logo
1 de 40
Aprendizagem Automática Aprendizagem SupervisionadaAprendizagem Não Supervisionada
Aula anterior Redes Neuronais Métodos de aceleração de Redes Neuronais
Aprendizagem Supervisionada Dado um conjunto de exemplos, será que é possível descobrir o padrão que os gera? Exemplo simples:
Valores Valores possíveis, por atributo
Pre-processamento Discretizar, quantificar, normalizar …
Quantização Vectorial (Learning Vector Quantization) ,[object Object]
Atribuir ao novo exemplo a mesma classe
Problemas:
definir “parecido”
não é muito fiável quando há “ruído”
 ... Usar representantes/protótipos (1 por classe)(semelhante à Aprendizagem Competitiva, ... mas o representante é aproximado se a classificação é correcta e afastado caso contrário)
(L)VQ: (Learning) Vector Quantization
Usado com sucesso na compressão de dados e classificação de documentação.,[object Object]
Case-BasedReasoning(matéria de IA) Semelhante ao K-NN, mas …  Não guarda todos os exemplos, antes cria “casos-padrão”: Quando um padrão de entrada “está incluído” num “caso” guardado, é ignorado; Quando um padrão de entrada “é semelhante” a um “caso” guardado, o caso é estendido para incluir o novo padrão; Quando um padrão de entrada “não é semelhante” a nenhum “caso” guardado, é criado um novo caso; Tipicamente tem valores de entrada/saída complexos (e.g. grafos); Permite “combinar” valores de saída de vários exemplos de um modo complexo; Implementação sempre intimamente ligada a um domínio.
Aprendizagem Supervisionada Sair = (Previsão == Limpo E Humidade == Normal) OU (Previsão == Nublado) OU (Previsão == Chuva E Vento == Fraco)
Árvores de Decisão(DecisionTrees) A cada nó está associado, durante o treino, o conjunto de exemplos que é classificado por este nó Céu Chuva Limpo Nublado Vento Humidade Sim Forte Fraco Normal Alta Sair = (Previsão == Limpo E Humidade == Normal) OU (Previsão == Nublado) OU (Previsão == Chuva E Vento == Fraco) Sim Não Sim Não
Árvores de Decisão(DecisionTrees) Céu Chuva Limpo Nublado Vento Humidade Vento Forte Fraco Normal Alta Forte Fraco Sim Não Sim Não Sim Não
DecisionTrees: Quando se usam? Instâncias representadas por atributos com valores discretos (ou discretizados em intervalos) Pequenos conjuntos de valores possíveis para cada atributo Pretende-se uma classificação das instâncias (de preferência booleana) Dados podem conter erros e valores indefinidos Solução pode ser representada por uma expressão booleana ou uma classificação, e.g.: (Previsão = Limpo E Humidade = Normal) OU (Previsão = nublado) OU (Previsão = Chuva E Vento = Fraco)
DecisionTrees: Construção Qual o atributo que melhor separa as instâncias numa decisão booleana? Entropia(S) = - p+ log2 (p+) - p- log2 (p-) S : Conjunto de exemplos de um conceito p+ : Percentagem de exemplos positivos p- : Percentagem de exemplos negativos
DecisionTrees: Construção Quanto mais equilibrado o conjunto (p+ = p-), maior a entropia, i.e. menor a probabilidade de prever de que classe é um exemplo tirado ao acaso.
DecisionTrees: Construção Entropia relativa à classificação em c partes, com base num atributo com c valores diferentes (pretende-se minimizar a entropia): X : Conjunto de exemplos de um conceito (e.g. “Sair?”) c: nº de valores possíveis para o conceito a pi : Percentagem de exemplos em que: a = vi
Ganho de informação Ganho de informação de um atributo a em relação a um conjunto X: v: valores possíveis para a Xv: Subconjunto de X em que o valor de a é igual a v |X|: nº de elementos de X
Ganho de informação a = Vento v = {Forte, Fraco} nº de instâncias de X (total) = 14 (9+, 5-) nº de instâncias de X em que (Vento = Forte) = 6 (3+, 3-) nº de instâncias de X em que (Vento = Fraco) = 8 (6+, 2-) G(X,Vento) = 0.94 – [(8*0.811) + (6*1.0)] /14 = 0.048 Fraco Forte
ID3 ID3(Exemplos, Atributo-Alvo, Atributos) Criar a raíz Se p+ = 1: raíz = + Se p- = 1: raíz = - Se Atributos = Ø, raíz = valor mais comum do alvo em exemplos A <- Atributo que melhor classifica os exemplos de acordo com o ganho de informação Raíz = A Para cada valor (v) possível de A: Adicionar novo ramo A = v Exemplosv = Conjunto de exemplos em que A=v Se Exemplosv = Ø: adicionar ramo com valor mais comum do alvo em Exemplosv senão ramo = ID3(Exemplosv, Atributo-Alvo, Atributos – {A})
C4.5/C5.0 Semelhante ao ID3, mas … Atributos contínuos: cria uma série de classes para um atributo contínuo dividindo o seu domínio em partes [Quinlan, 96]  Permite a utilização quando há valores em falta: não são usados no cálculo da entropia. Permite que os atributos tenham custos diferentes.  Remoção (a posteriori) de nós que não são úteis. [Quinlan, 96] J. R. Quinlan. Improved use of continuous attributes in c4.5. Journal of Artificial Intelligence Research, 4:77-90, 1996.
Aprendizagem Competitiva *CompetitiveLearning[RumelhartandZipser 85] Criar N representantes ao acaso Para cada exemplo: Calcular o representante mais próximo “Aproximar” o representante do exemplo (só um pouco) Enquanto os representantes “mudarem muito de posição” do início para o fim da “época”, voltar ao ponto 2 (ou número fixo de épocas). *Termo usado para designar um sub-grupo dos algoritmos de aprendizagem não-supervisionada, este em particular é uma versão iterativa do algoritmo de Lloyd (também conhecido como K-Means, um dos mais comuns nesta área).
Aprendizagem Competitiva Seja X = {x1, x2, x3, … xn} o conjunto de exemplos E c1, c2, … cm (n >> m) os representantes (inicializados aleatoriamente) Para cada exemplo (xi): Calcular distância (1) Seleccionar o centro mais próximo: ck (2) Aproximar ck de xi (3) Enquanto  mudar (4)
Aprendizagem Competitiva (1)* distância (2) mais próximo (3) aproximar (4) paragem * Podem ser usadas outras medidas de distância (por exemplo nº de atributos diferentes)
Mapas Topológicos, Self-Organizing Maps [Kohonen 90] Semelhante à aprendizagem competitiva, mas: Cada classe tem um conjunto de vizinhos, Os vizinhos são alterados progressivamente menos de acordo com a distância
Aprendizagem Não-Supervisionada Como agrupar padrões e criar classes de exemplos, sem ter uma classe-objectivo?
Mapas Topológicos
K-Means[Loyd 57] Parte de um conjunto de entrada X = {x1, x2, x3, … xn} Distribui aleatoriamente N representantes, cada xi “pertence” ao conjunto associado ao representante mais próximo Actualiza as posições de todos os representantes para o centro do conjunto que representam Redistribui os exemplos de modo a que cada xi “pertence” ao conjunto associado ao representante mais próximo Volta ao passo 3 até estabilizar os conjuntos / representantes * De facto é um caso particular de um algoritmo mais geral chamado EM (ExpectationMaximization)
Análise de componentes principais (Principal ComponentsAnalysis) Encontrar o sub-espaço, de dimensão menor que maximiza a variância dos dados
Análise de componentes principais Substituição de 2 dimensões por uma combinação linear de ambas (dados a 1 dimensão)
Análise de componentes principais Calculando a os valores próprios da matriz de covariância e seleccionando a base com os maiores valores próprios associados (para conjuntos grandes: demorado e sujeito a problemas de arredondamentos) ... ou por métodos iterativos
Classificação não-supervisionada Dendrograma (dendro = árvore) Dados Distância proporcional ao número de atributos diferentes 6 classes 4 classes 3 classes 2 classes Imagens: Dendrogram. (2008, August 19). In Wikipedia, The Free Encyclopedia. Retrieved 12:30, September 16, 2008, from http://en.wikipedia.org/w/index.php?title=Dendrogram&oldid=232979561
Classificação por agrupamento Single link: distância entre conjuntos é a menor das distâncias entre os elementos Complete link: distância entre conjuntos é a maior das distâncias entre os seus elementos CobWeb [Fisher 87] – Utilidade de categoria
COBWEB [Fisher 87] Conjuntos com atributos discretos Para cada novo exemplo (ponto) pode: Inserir numa classe existente(simula inserção em todas e calcula a utilidade); Criar uma nova classe(simula a criação de uma nova classe apenas com o novo exemplo); Combinar duas classes(simula a combinação das duas classes com maior utilidade para o novo exemplo); Dividir uma classe(simula retirar o nó imediatamente acima do ponto de inserção do novo exemplo); Baseado na Utilidade de Categoria, (aumento do número de atributos que pode ser previsto para os elementos de cada classe).
COBWEB [Fisher 87] Utilidade de Categoria Cada atributo (i), todos os valores possíveis (j) Todas as categorias (l) Utilidade diminui com o aumento do número de classes
Utilização Aprendizagem Não Supervisionada: procura de padrões em dados sem etiquetas; No Pré-processamento de dados: É (quase) sempre necessário/útil Aprendizagem Competitiva: Raramente usada, mas é base de outros algoritmos; Mapas Topológicos: Quando há relações entre as classes; K-Means: Quando sabemos distribuições que geraram dos dados; PCA: Redução da dimensão dos dados, perdendo o mínimo de informação possível; Conceptual Clustering (CobWeb e outros): Quando o conceito a gerar e as relações entre aglomerados são fundamentais na análise e a semelhança entre padrões obedece a regras complexas.

Mais conteúdo relacionado

Mais procurados

Redes Bayesianas para Recuperação de Informação Estruturada
Redes Bayesianas para Recuperação de Informação EstruturadaRedes Bayesianas para Recuperação de Informação Estruturada
Redes Bayesianas para Recuperação de Informação EstruturadaAdolfo Neto
 
Métodos de aceleração da aprendizagem
Métodos de aceleração da aprendizagemMétodos de aceleração da aprendizagem
Métodos de aceleração da aprendizagemLuís Nunes
 
Tipos de aprendizagem automática
Tipos de aprendizagem automáticaTipos de aprendizagem automática
Tipos de aprendizagem automáticaLuís Nunes
 
Aprendizagem Supervisionada II
Aprendizagem Supervisionada IIAprendizagem Supervisionada II
Aprendizagem Supervisionada IILuís Nunes
 
Estruturas em c joão carlos batista
Estruturas em c   joão carlos batistaEstruturas em c   joão carlos batista
Estruturas em c joão carlos batistaJoao Carlos Batista
 
Análise de Agrupamentos e Regionalização
Análise de Agrupamentos e RegionalizaçãoAnálise de Agrupamentos e Regionalização
Análise de Agrupamentos e RegionalizaçãoVitor Vieira Vasconcelos
 
Espaço incremental para a mineração visual de conjuntos dinâmicos de documentos
Espaço incremental para a mineração visual de conjuntos dinâmicos de documentosEspaço incremental para a mineração visual de conjuntos dinâmicos de documentos
Espaço incremental para a mineração visual de conjuntos dinâmicos de documentosRoberto de Pinho
 
Aprendizado de Máquina para Classificação de Dados
Aprendizado de Máquina para Classificação de DadosAprendizado de Máquina para Classificação de Dados
Aprendizado de Máquina para Classificação de DadosDiego Negretto
 
Sistemas 2009 1
Sistemas 2009 1Sistemas 2009 1
Sistemas 2009 1Eli Brito
 
Aulas de estrutura de dados por Ayrton Yagami
Aulas de estrutura de dados por Ayrton YagamiAulas de estrutura de dados por Ayrton Yagami
Aulas de estrutura de dados por Ayrton YagamiAyrton Yagami
 

Mais procurados (15)

Ávores de Decisão
Ávores de DecisãoÁvores de Decisão
Ávores de Decisão
 
Gilcimar apresentação
Gilcimar apresentaçãoGilcimar apresentação
Gilcimar apresentação
 
Redes Bayesianas para Recuperação de Informação Estruturada
Redes Bayesianas para Recuperação de Informação EstruturadaRedes Bayesianas para Recuperação de Informação Estruturada
Redes Bayesianas para Recuperação de Informação Estruturada
 
Métodos de aceleração da aprendizagem
Métodos de aceleração da aprendizagemMétodos de aceleração da aprendizagem
Métodos de aceleração da aprendizagem
 
kNN Algorithm
kNN AlgorithmkNN Algorithm
kNN Algorithm
 
Tipos de aprendizagem automática
Tipos de aprendizagem automáticaTipos de aprendizagem automática
Tipos de aprendizagem automática
 
Aprendizagem Supervisionada II
Aprendizagem Supervisionada IIAprendizagem Supervisionada II
Aprendizagem Supervisionada II
 
Estruturas em c joão carlos batista
Estruturas em c   joão carlos batistaEstruturas em c   joão carlos batista
Estruturas em c joão carlos batista
 
Scipy meetup-2020-02
Scipy meetup-2020-02Scipy meetup-2020-02
Scipy meetup-2020-02
 
Análise de Agrupamentos e Regionalização
Análise de Agrupamentos e RegionalizaçãoAnálise de Agrupamentos e Regionalização
Análise de Agrupamentos e Regionalização
 
Espaço incremental para a mineração visual de conjuntos dinâmicos de documentos
Espaço incremental para a mineração visual de conjuntos dinâmicos de documentosEspaço incremental para a mineração visual de conjuntos dinâmicos de documentos
Espaço incremental para a mineração visual de conjuntos dinâmicos de documentos
 
Programação Orientado a Objetos
Programação Orientado a ObjetosProgramação Orientado a Objetos
Programação Orientado a Objetos
 
Aprendizado de Máquina para Classificação de Dados
Aprendizado de Máquina para Classificação de DadosAprendizado de Máquina para Classificação de Dados
Aprendizado de Máquina para Classificação de Dados
 
Sistemas 2009 1
Sistemas 2009 1Sistemas 2009 1
Sistemas 2009 1
 
Aulas de estrutura de dados por Ayrton Yagami
Aulas de estrutura de dados por Ayrton YagamiAulas de estrutura de dados por Ayrton Yagami
Aulas de estrutura de dados por Ayrton Yagami
 

Semelhante a Aprendizagem Automática

Mineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitualMineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitualLuis Miguel Rojas Aguilera
 
[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector Machines[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
 
Aprendizado Profundo & CNNs
Aprendizado Profundo & CNNsAprendizado Profundo & CNNs
Aprendizado Profundo & CNNsFabio Spanhol
 
Mineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean LargeMineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean LargeCassius Busemeyer
 
Mineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean LargeMineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean Largeguest163ad5c
 
Paradigma Funcional - Caso de Estudo Haskell
Paradigma Funcional - Caso de Estudo HaskellParadigma Funcional - Caso de Estudo Haskell
Paradigma Funcional - Caso de Estudo HaskellSérgio Souza Costa
 
Introdução à Aprendizagem de Máquina
Introdução à Aprendizagem de MáquinaIntrodução à Aprendizagem de Máquina
Introdução à Aprendizagem de MáquinaFernando Palma
 
Introdução a Árvore de Dados Adaptativa (WTA 2011)
Introdução a Árvore de Dados Adaptativa (WTA 2011)Introdução a Árvore de Dados Adaptativa (WTA 2011)
Introdução a Árvore de Dados Adaptativa (WTA 2011)Fabrício Catae
 
Aula classes abstratas 3º periodo uniao
Aula classes abstratas  3º periodo uniaoAula classes abstratas  3º periodo uniao
Aula classes abstratas 3º periodo uniaoMaria Alice Jovinski
 
Aprendizagem Automática
Aprendizagem AutomáticaAprendizagem Automática
Aprendizagem Automáticabutest
 
Java - Visão geral e Exercícios
Java - Visão geral e ExercíciosJava - Visão geral e Exercícios
Java - Visão geral e ExercíciosArthur Emanuel
 
Sessao 6.pdf para aproveitametno em sessões
Sessao 6.pdf para aproveitametno em sessõesSessao 6.pdf para aproveitametno em sessões
Sessao 6.pdf para aproveitametno em sessõesJoaquimOliveiraBapti1
 

Semelhante a Aprendizagem Automática (20)

160277 redes neurais artificiais
160277 redes neurais artificiais160277 redes neurais artificiais
160277 redes neurais artificiais
 
Mineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitualMineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitual
 
[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector Machines[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector Machines
 
Aprendizado Profundo & CNNs
Aprendizado Profundo & CNNsAprendizado Profundo & CNNs
Aprendizado Profundo & CNNs
 
Trabalho e agrupamento.pdf
Trabalho e agrupamento.pdfTrabalho e agrupamento.pdf
Trabalho e agrupamento.pdf
 
Trabalho e agrupamento.pdf
Trabalho e agrupamento.pdfTrabalho e agrupamento.pdf
Trabalho e agrupamento.pdf
 
Trabalho e agrupamento.pdf
Trabalho e agrupamento.pdfTrabalho e agrupamento.pdf
Trabalho e agrupamento.pdf
 
Mineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean LargeMineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean Large
 
Mineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean LargeMineração de Dados na Base Soybean Large
Mineração de Dados na Base Soybean Large
 
Paradigma Funcional - Caso de Estudo Haskell
Paradigma Funcional - Caso de Estudo HaskellParadigma Funcional - Caso de Estudo Haskell
Paradigma Funcional - Caso de Estudo Haskell
 
Introdução à Aprendizagem de Máquina
Introdução à Aprendizagem de MáquinaIntrodução à Aprendizagem de Máquina
Introdução à Aprendizagem de Máquina
 
Math
MathMath
Math
 
Introdução a Árvore de Dados Adaptativa (WTA 2011)
Introdução a Árvore de Dados Adaptativa (WTA 2011)Introdução a Árvore de Dados Adaptativa (WTA 2011)
Introdução a Árvore de Dados Adaptativa (WTA 2011)
 
Resumão java
Resumão javaResumão java
Resumão java
 
Aula classes abstratas 3º periodo uniao
Aula classes abstratas  3º periodo uniaoAula classes abstratas  3º periodo uniao
Aula classes abstratas 3º periodo uniao
 
Aprendizagem Automática
Aprendizagem AutomáticaAprendizagem Automática
Aprendizagem Automática
 
Java - Visão geral e Exercícios
Java - Visão geral e ExercíciosJava - Visão geral e Exercícios
Java - Visão geral e Exercícios
 
Big data
Big dataBig data
Big data
 
Sessao 6.pdf para aproveitametno em sessões
Sessao 6.pdf para aproveitametno em sessõesSessao 6.pdf para aproveitametno em sessões
Sessao 6.pdf para aproveitametno em sessões
 
Histograma
HistogramaHistograma
Histograma
 

Mais de butest

EL MODELO DE NEGOCIO DE YOUTUBE
EL MODELO DE NEGOCIO DE YOUTUBEEL MODELO DE NEGOCIO DE YOUTUBE
EL MODELO DE NEGOCIO DE YOUTUBEbutest
 
1. MPEG I.B.P frame之不同
1. MPEG I.B.P frame之不同1. MPEG I.B.P frame之不同
1. MPEG I.B.P frame之不同butest
 
LESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIALLESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIALbutest
 
Timeline: The Life of Michael Jackson
Timeline: The Life of Michael JacksonTimeline: The Life of Michael Jackson
Timeline: The Life of Michael Jacksonbutest
 
Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...
Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...
Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...butest
 
LESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIALLESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIALbutest
 
Com 380, Summer II
Com 380, Summer IICom 380, Summer II
Com 380, Summer IIbutest
 
The MYnstrel Free Press Volume 2: Economic Struggles, Meet Jazz
The MYnstrel Free Press Volume 2: Economic Struggles, Meet JazzThe MYnstrel Free Press Volume 2: Economic Struggles, Meet Jazz
The MYnstrel Free Press Volume 2: Economic Struggles, Meet Jazzbutest
 
MICHAEL JACKSON.doc
MICHAEL JACKSON.docMICHAEL JACKSON.doc
MICHAEL JACKSON.docbutest
 
Social Networks: Twitter Facebook SL - Slide 1
Social Networks: Twitter Facebook SL - Slide 1Social Networks: Twitter Facebook SL - Slide 1
Social Networks: Twitter Facebook SL - Slide 1butest
 
Facebook
Facebook Facebook
Facebook butest
 
Executive Summary Hare Chevrolet is a General Motors dealership ...
Executive Summary Hare Chevrolet is a General Motors dealership ...Executive Summary Hare Chevrolet is a General Motors dealership ...
Executive Summary Hare Chevrolet is a General Motors dealership ...butest
 
Welcome to the Dougherty County Public Library's Facebook and ...
Welcome to the Dougherty County Public Library's Facebook and ...Welcome to the Dougherty County Public Library's Facebook and ...
Welcome to the Dougherty County Public Library's Facebook and ...butest
 
NEWS ANNOUNCEMENT
NEWS ANNOUNCEMENTNEWS ANNOUNCEMENT
NEWS ANNOUNCEMENTbutest
 
C-2100 Ultra Zoom.doc
C-2100 Ultra Zoom.docC-2100 Ultra Zoom.doc
C-2100 Ultra Zoom.docbutest
 
MAC Printing on ITS Printers.doc.doc
MAC Printing on ITS Printers.doc.docMAC Printing on ITS Printers.doc.doc
MAC Printing on ITS Printers.doc.docbutest
 
Mac OS X Guide.doc
Mac OS X Guide.docMac OS X Guide.doc
Mac OS X Guide.docbutest
 
WEB DESIGN!
WEB DESIGN!WEB DESIGN!
WEB DESIGN!butest
 

Mais de butest (20)

EL MODELO DE NEGOCIO DE YOUTUBE
EL MODELO DE NEGOCIO DE YOUTUBEEL MODELO DE NEGOCIO DE YOUTUBE
EL MODELO DE NEGOCIO DE YOUTUBE
 
1. MPEG I.B.P frame之不同
1. MPEG I.B.P frame之不同1. MPEG I.B.P frame之不同
1. MPEG I.B.P frame之不同
 
LESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIALLESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIAL
 
Timeline: The Life of Michael Jackson
Timeline: The Life of Michael JacksonTimeline: The Life of Michael Jackson
Timeline: The Life of Michael Jackson
 
Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...
Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...
Popular Reading Last Updated April 1, 2010 Adams, Lorraine The ...
 
LESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIALLESSONS FROM THE MICHAEL JACKSON TRIAL
LESSONS FROM THE MICHAEL JACKSON TRIAL
 
Com 380, Summer II
Com 380, Summer IICom 380, Summer II
Com 380, Summer II
 
PPT
PPTPPT
PPT
 
The MYnstrel Free Press Volume 2: Economic Struggles, Meet Jazz
The MYnstrel Free Press Volume 2: Economic Struggles, Meet JazzThe MYnstrel Free Press Volume 2: Economic Struggles, Meet Jazz
The MYnstrel Free Press Volume 2: Economic Struggles, Meet Jazz
 
MICHAEL JACKSON.doc
MICHAEL JACKSON.docMICHAEL JACKSON.doc
MICHAEL JACKSON.doc
 
Social Networks: Twitter Facebook SL - Slide 1
Social Networks: Twitter Facebook SL - Slide 1Social Networks: Twitter Facebook SL - Slide 1
Social Networks: Twitter Facebook SL - Slide 1
 
Facebook
Facebook Facebook
Facebook
 
Executive Summary Hare Chevrolet is a General Motors dealership ...
Executive Summary Hare Chevrolet is a General Motors dealership ...Executive Summary Hare Chevrolet is a General Motors dealership ...
Executive Summary Hare Chevrolet is a General Motors dealership ...
 
Welcome to the Dougherty County Public Library's Facebook and ...
Welcome to the Dougherty County Public Library's Facebook and ...Welcome to the Dougherty County Public Library's Facebook and ...
Welcome to the Dougherty County Public Library's Facebook and ...
 
NEWS ANNOUNCEMENT
NEWS ANNOUNCEMENTNEWS ANNOUNCEMENT
NEWS ANNOUNCEMENT
 
C-2100 Ultra Zoom.doc
C-2100 Ultra Zoom.docC-2100 Ultra Zoom.doc
C-2100 Ultra Zoom.doc
 
MAC Printing on ITS Printers.doc.doc
MAC Printing on ITS Printers.doc.docMAC Printing on ITS Printers.doc.doc
MAC Printing on ITS Printers.doc.doc
 
Mac OS X Guide.doc
Mac OS X Guide.docMac OS X Guide.doc
Mac OS X Guide.doc
 
hier
hierhier
hier
 
WEB DESIGN!
WEB DESIGN!WEB DESIGN!
WEB DESIGN!
 

Aprendizagem Automática

  • 1. Aprendizagem Automática Aprendizagem SupervisionadaAprendizagem Não Supervisionada
  • 2. Aula anterior Redes Neuronais Métodos de aceleração de Redes Neuronais
  • 3. Aprendizagem Supervisionada Dado um conjunto de exemplos, será que é possível descobrir o padrão que os gera? Exemplo simples:
  • 6.
  • 7. Atribuir ao novo exemplo a mesma classe
  • 10. não é muito fiável quando há “ruído”
  • 11. ... Usar representantes/protótipos (1 por classe)(semelhante à Aprendizagem Competitiva, ... mas o representante é aproximado se a classificação é correcta e afastado caso contrário)
  • 13.
  • 14. Case-BasedReasoning(matéria de IA) Semelhante ao K-NN, mas … Não guarda todos os exemplos, antes cria “casos-padrão”: Quando um padrão de entrada “está incluído” num “caso” guardado, é ignorado; Quando um padrão de entrada “é semelhante” a um “caso” guardado, o caso é estendido para incluir o novo padrão; Quando um padrão de entrada “não é semelhante” a nenhum “caso” guardado, é criado um novo caso; Tipicamente tem valores de entrada/saída complexos (e.g. grafos); Permite “combinar” valores de saída de vários exemplos de um modo complexo; Implementação sempre intimamente ligada a um domínio.
  • 15. Aprendizagem Supervisionada Sair = (Previsão == Limpo E Humidade == Normal) OU (Previsão == Nublado) OU (Previsão == Chuva E Vento == Fraco)
  • 16. Árvores de Decisão(DecisionTrees) A cada nó está associado, durante o treino, o conjunto de exemplos que é classificado por este nó Céu Chuva Limpo Nublado Vento Humidade Sim Forte Fraco Normal Alta Sair = (Previsão == Limpo E Humidade == Normal) OU (Previsão == Nublado) OU (Previsão == Chuva E Vento == Fraco) Sim Não Sim Não
  • 17. Árvores de Decisão(DecisionTrees) Céu Chuva Limpo Nublado Vento Humidade Vento Forte Fraco Normal Alta Forte Fraco Sim Não Sim Não Sim Não
  • 18. DecisionTrees: Quando se usam? Instâncias representadas por atributos com valores discretos (ou discretizados em intervalos) Pequenos conjuntos de valores possíveis para cada atributo Pretende-se uma classificação das instâncias (de preferência booleana) Dados podem conter erros e valores indefinidos Solução pode ser representada por uma expressão booleana ou uma classificação, e.g.: (Previsão = Limpo E Humidade = Normal) OU (Previsão = nublado) OU (Previsão = Chuva E Vento = Fraco)
  • 19. DecisionTrees: Construção Qual o atributo que melhor separa as instâncias numa decisão booleana? Entropia(S) = - p+ log2 (p+) - p- log2 (p-) S : Conjunto de exemplos de um conceito p+ : Percentagem de exemplos positivos p- : Percentagem de exemplos negativos
  • 20. DecisionTrees: Construção Quanto mais equilibrado o conjunto (p+ = p-), maior a entropia, i.e. menor a probabilidade de prever de que classe é um exemplo tirado ao acaso.
  • 21. DecisionTrees: Construção Entropia relativa à classificação em c partes, com base num atributo com c valores diferentes (pretende-se minimizar a entropia): X : Conjunto de exemplos de um conceito (e.g. “Sair?”) c: nº de valores possíveis para o conceito a pi : Percentagem de exemplos em que: a = vi
  • 22. Ganho de informação Ganho de informação de um atributo a em relação a um conjunto X: v: valores possíveis para a Xv: Subconjunto de X em que o valor de a é igual a v |X|: nº de elementos de X
  • 23. Ganho de informação a = Vento v = {Forte, Fraco} nº de instâncias de X (total) = 14 (9+, 5-) nº de instâncias de X em que (Vento = Forte) = 6 (3+, 3-) nº de instâncias de X em que (Vento = Fraco) = 8 (6+, 2-) G(X,Vento) = 0.94 – [(8*0.811) + (6*1.0)] /14 = 0.048 Fraco Forte
  • 24. ID3 ID3(Exemplos, Atributo-Alvo, Atributos) Criar a raíz Se p+ = 1: raíz = + Se p- = 1: raíz = - Se Atributos = Ø, raíz = valor mais comum do alvo em exemplos A <- Atributo que melhor classifica os exemplos de acordo com o ganho de informação Raíz = A Para cada valor (v) possível de A: Adicionar novo ramo A = v Exemplosv = Conjunto de exemplos em que A=v Se Exemplosv = Ø: adicionar ramo com valor mais comum do alvo em Exemplosv senão ramo = ID3(Exemplosv, Atributo-Alvo, Atributos – {A})
  • 25. C4.5/C5.0 Semelhante ao ID3, mas … Atributos contínuos: cria uma série de classes para um atributo contínuo dividindo o seu domínio em partes [Quinlan, 96] Permite a utilização quando há valores em falta: não são usados no cálculo da entropia. Permite que os atributos tenham custos diferentes. Remoção (a posteriori) de nós que não são úteis. [Quinlan, 96] J. R. Quinlan. Improved use of continuous attributes in c4.5. Journal of Artificial Intelligence Research, 4:77-90, 1996.
  • 26. Aprendizagem Competitiva *CompetitiveLearning[RumelhartandZipser 85] Criar N representantes ao acaso Para cada exemplo: Calcular o representante mais próximo “Aproximar” o representante do exemplo (só um pouco) Enquanto os representantes “mudarem muito de posição” do início para o fim da “época”, voltar ao ponto 2 (ou número fixo de épocas). *Termo usado para designar um sub-grupo dos algoritmos de aprendizagem não-supervisionada, este em particular é uma versão iterativa do algoritmo de Lloyd (também conhecido como K-Means, um dos mais comuns nesta área).
  • 27. Aprendizagem Competitiva Seja X = {x1, x2, x3, … xn} o conjunto de exemplos E c1, c2, … cm (n >> m) os representantes (inicializados aleatoriamente) Para cada exemplo (xi): Calcular distância (1) Seleccionar o centro mais próximo: ck (2) Aproximar ck de xi (3) Enquanto mudar (4)
  • 28. Aprendizagem Competitiva (1)* distância (2) mais próximo (3) aproximar (4) paragem * Podem ser usadas outras medidas de distância (por exemplo nº de atributos diferentes)
  • 29. Mapas Topológicos, Self-Organizing Maps [Kohonen 90] Semelhante à aprendizagem competitiva, mas: Cada classe tem um conjunto de vizinhos, Os vizinhos são alterados progressivamente menos de acordo com a distância
  • 30. Aprendizagem Não-Supervisionada Como agrupar padrões e criar classes de exemplos, sem ter uma classe-objectivo?
  • 32. K-Means[Loyd 57] Parte de um conjunto de entrada X = {x1, x2, x3, … xn} Distribui aleatoriamente N representantes, cada xi “pertence” ao conjunto associado ao representante mais próximo Actualiza as posições de todos os representantes para o centro do conjunto que representam Redistribui os exemplos de modo a que cada xi “pertence” ao conjunto associado ao representante mais próximo Volta ao passo 3 até estabilizar os conjuntos / representantes * De facto é um caso particular de um algoritmo mais geral chamado EM (ExpectationMaximization)
  • 33. Análise de componentes principais (Principal ComponentsAnalysis) Encontrar o sub-espaço, de dimensão menor que maximiza a variância dos dados
  • 34. Análise de componentes principais Substituição de 2 dimensões por uma combinação linear de ambas (dados a 1 dimensão)
  • 35. Análise de componentes principais Calculando a os valores próprios da matriz de covariância e seleccionando a base com os maiores valores próprios associados (para conjuntos grandes: demorado e sujeito a problemas de arredondamentos) ... ou por métodos iterativos
  • 36. Classificação não-supervisionada Dendrograma (dendro = árvore) Dados Distância proporcional ao número de atributos diferentes 6 classes 4 classes 3 classes 2 classes Imagens: Dendrogram. (2008, August 19). In Wikipedia, The Free Encyclopedia. Retrieved 12:30, September 16, 2008, from http://en.wikipedia.org/w/index.php?title=Dendrogram&oldid=232979561
  • 37. Classificação por agrupamento Single link: distância entre conjuntos é a menor das distâncias entre os elementos Complete link: distância entre conjuntos é a maior das distâncias entre os seus elementos CobWeb [Fisher 87] – Utilidade de categoria
  • 38. COBWEB [Fisher 87] Conjuntos com atributos discretos Para cada novo exemplo (ponto) pode: Inserir numa classe existente(simula inserção em todas e calcula a utilidade); Criar uma nova classe(simula a criação de uma nova classe apenas com o novo exemplo); Combinar duas classes(simula a combinação das duas classes com maior utilidade para o novo exemplo); Dividir uma classe(simula retirar o nó imediatamente acima do ponto de inserção do novo exemplo); Baseado na Utilidade de Categoria, (aumento do número de atributos que pode ser previsto para os elementos de cada classe).
  • 39. COBWEB [Fisher 87] Utilidade de Categoria Cada atributo (i), todos os valores possíveis (j) Todas as categorias (l) Utilidade diminui com o aumento do número de classes
  • 40. Utilização Aprendizagem Não Supervisionada: procura de padrões em dados sem etiquetas; No Pré-processamento de dados: É (quase) sempre necessário/útil Aprendizagem Competitiva: Raramente usada, mas é base de outros algoritmos; Mapas Topológicos: Quando há relações entre as classes; K-Means: Quando sabemos distribuições que geraram dos dados; PCA: Redução da dimensão dos dados, perdendo o mínimo de informação possível; Conceptual Clustering (CobWeb e outros): Quando o conceito a gerar e as relações entre aglomerados são fundamentais na análise e a semelhança entre padrões obedece a regras complexas.
  • 41. (Mitchell 97) Tom Mitchell, "MachineLearning", McGrawHill, 1997, capítulos 2, 3 e 8 R. Duda and P. Hart. Pattern Classification and Scene Analysis. Wiley & Sons, Inc, 1973. "Self-Organizing Maps and Learning Vector Quantization for Feature Sequences", P. Somervuo and T. Kohonen, Neural Processing Letters, 10(2), 1999, pp. 151-159. J.R. Quinlan, Induction of Decision Trees, Machine Learning, vol. 1, no. 1, pp. 81-106, 1986. Giorgio Ingargiola, Building Classification Models: ID3 and C4.5, Computer and Information Science Department, Temple University, Philadelphia. Referências-base 35 AA/ML, Luís Nunes, DCTI/ISCTE
  • 42. Referências Some Competitive Learning Methods, Bernd Fritzke, Systems Biophysics Institute for Neural Computation, Ruhr-Universität Bochum, April 5, 1997 Hinton, G. E. and Salakhutdinov, R. R Reducing the dimensionality of data with neural networks. Science, Vol. 313. no. 5786, pp. 504 - 507, 28 July 2006. S. Lloyd, Last square quantization in PCM’s. Bell Telephone Laboratories Paper (1957). Published in journal much later: S. P. Lloyd. Least squares quantization in PCM. Special issue on quantization, IEEE Trans. Inform. Theory, 28:129–137, 1982. WEBSOM Publications Bilmes, J. A Gentle Tutorial on the EM Algorithm and its Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Models. Technical Report, University of Berkeley, ICSI-TR-97-021, 1997. http://citeseer.ist.psu.edu/bilmes98gentle.ht [Rumelhart and Zipser 86] Feature discovery by competitive learning, in Mit Press Computational Models Of Cognition And Perception Series, Parallel distributed processing: explorations in the microstructure of cognition, vol. 1: foundations, pp.151 – 193, (1986), ISBN:0-262-68053-X Authors D. E. RumelhartD. Zipser, Pub. MIT Press   Cambridge, MA, USA Jonathon Shlens, A Tutorial on Principal Component Analysis, Systems Neurobiology Laboratory, Salk Insitute for Biological Studies, 2005
  • 43. Próximas aulas Semana 6 (19 a 23-Out) Pesquisa bibliográfica Proposta(s) de tema(s) para o TF (por mail para Luís.Nunes@iscte.pt) Semana 7 (26 a 30-Out) 26-Out: Discussão de propostas com cada grupo (durante a aula) Decisão final sobre o tema e preparação da apresentação Semana 8 e 9 (aulas de 2 e 9-Nov) Apresentações de propostas (máximo de 10 minutos / 10 slides), que deve incluir: Definição do enquadramento e objectivo do trabalho (introdução) Explicação sucinta do que já leu sobre o tema (enquadramento) Explicação da abordagem ao tema (plano) Enumeração, tão precisa quanto possível dos resultados esperados (objectivo) Breve discussão / apreciação da proposta
  • 44. Artigos sobre o tema que escolheu para o seu Trabalho Final (ver bibliografia de AA) A ler para a próxima aula 38 AA/ML, Luís Nunes, DCTI/ISCTE
  • 45. Aprendizagem Supervisionada LVQ K-NN ID3: Entropia e ganho de informação Aprendizagem Não Supervisionada Aprendizagem Competitiva Mapas Topológicos Cobweb Sumário 39 AA/ML, Luís Nunes, DCTI/ISCTE
  • 46. Termo de momento (momentum) Duas vezes na mesma direcção, acelera, Em direcções contrárias, trava (ou não é usado). Valor típico: 0.8 Aceleração de ANN
  • 47. A mesma taxa de aprendizagem para todos os pesos faz com que se mova com a mesma “velocidade” em todas as direcções Solução: taxas de aprendizagem diferentes para cada peso Aceleração de ANN
  • 48. ALR (Adaptive Learning Rates): Aceleração de ANN
  • 49. Técnica dos passos-adaptativos Adaptive Learning Rates F. M. Silva and L. B. Almeida, "Acceleration Techniques for the Backpropagation Algorithm", in L. B. Almeida and C. J. Wellekens (eds.), Neural Networks, Springer-Verlag, 1990. Aceleração de ANN
  • 55. Actualização (batch) … ou, para evitar que seja um valor muito grande (overflow):