SlideShare uma empresa Scribd logo
1 de 28
Baixar para ler offline
Support
                           Vector
                    Machines

   Leandro Farias
5° ano – Eng. Comp.
Inteligência Artificial
Sumário

• Introdução
• Objetivos
• Aprendizado de Máquinas
• A Teoria de Aprendizado Estatístico
• SVMs
• Conclusão
• Bibliografia
Introdução

• Técnica de aprendizado
• As Máquinas de Vetores de Suporte são
  embasadas pela teoria de aprendizado
  estatístico.
  estatístico.
• Inúmeras aplicações: categorização de textos,
            aplicações:                 textos,
  Análise de Imagens e Bioinformática.
                        Bioinformática.
Objetivos

• Apresentar as Máquinas de Vetores de Suporte.
                                       Suporte.
Aprendizado de Máquina

Conceitos Básicos
Considerações Iniciais

• As tecnicas de AM empregam o princípio de
  inferência indução.
             indução.
• Supervisionado vs Não-supervisionado.
                    Não-supervisionado.
• Abordaremos o aprendizado Supervisionado.
                            Supervisionado.
Aprendizado Supervisionado

• Dado um conjunto de exemplos (xi,yi)
  – xi: representa um exemplo.
                       exemplo.
  – yi: representa o seu rótulo.
                         rótulo.


• Objetivo: produzir um classificador (modelo,
  Objetivo:                            modelo,
  preditor ou hipótese) capaz de predizer o rótulo
              hipótese)
  de novos dados.
                         f(x)=y
Aprendizado Supervisionado




      Figura1 – Forma simplificada para obtenção do classificador


• Cada exemplo é representado por um vetor de características.
• Cada atributo pode ser nominal (não existe uma ordem entre
os valores. Ex: cores) ou contínuo ( é possível definir uma
ordem linear nos valores assumidos. Ex: pesos).
• A obtenção do classificador pode ser considerado um
processo de busca.
A Teoria de Aprendizado Estatístico

Conceitos não tão Básicos
Classificadores

• Seja T o conjunto de treinamento, composto de
                       treinamento,
  n pares (xi,yi).
• Seja o classificador f contido em F (conjunto de
                                      (conjunto
  todos os classificadores) gerado pelo algoritmo
           classificadores)
  de AM.
Um Exemplo




                          Figura 2 – Exemplos de Classificadores

• A Figura 2 (a): classifica corretamente, porém por ser muito específica apresenta
elevada suscetibilidade a cometer erros com novos dados.
•A Figura 2 (c): desconsidera pontos pertencentes a classes opostas e que estejam
muito próximos entre si. Porém comete muitos erros.
•A Figura 2 (b): Tem complexidade intermediária e classifica corretamente a maioria
dos dados.

     A TAE estabelece condições matemáticas para a escolha do classificador.
Considerações sobre a escolha do
Classificador
• Os dados são gerados de forma i.i.d. com
                                i.i.d.
  probabilidade P(x,y).
                P(x,y).
• Risco Esperado: mede a capacidade de
        Esperado:
  generalização de f.

             R( f )   c( f (x), y )dP(x, y )

sendo c( f (x), y) o custo relacionando a previsão f (x)
  quando a saída desejada é y .
• Não é possível minimizar o risco pois P(x, y)
  é desconhecido.
    desconhecido.
Considerações sobre a escolha do
Classificador
• O Risco Empírico mede o desempenho do
  classificador nos dados de treinamento por meio
  da taxa de classificações incorretas obtidas em T.
                           1 n
               Remp ( f )   c ( f ( x i , y i ))
                           n i 1
  – Quando n   é possível fazer com que o Risco
    Empirico convirga para o Risco Esperado
Limites no Risco Esperado
• O limite para o Risco Esperado é conseguido com
  probabilidade 1   .
                                            2n              
                                  h (ln (      )  1)  ln ( )
                                             h              4
       R ( f )  R em p ( f )                   n

  – h: dimensão Vapnick-Chervonenkis da classe de funções
                  Vapnick-
    F à qual f pertence.
  – n: quantidade de exemplos no conjunto de treinamento T.
• VC h mede a capacidade do conjunto de funções F
  (quanto maior seu valor, mais complexas são as
  funções)
Exemplo para dim VC = 3

• Problema: Dado um problema de classificação
  binário (rótulos com valores 1 ou 2), essa
  dimensão é definida como o número máximo de
  exemplos que podem ser particionados em duas
  classes pelas funções contidas em F, para todas
  as combinações binárias desses dados.
  Encontrar dim VC.
Exemplo para dim VC = 3




         Figura – todas as 8 combinações possíveis para 2 rótulos


 • É possível determinar retas que possam separar esses 3 exemplos, para
 qualquer conformação dos rótulos.
Exemplo para dim VC = 3




                   Figura 4 – Figuras com 4 exemplos


• É possível definir rótulos (item b) tal que uma só reta seja incapaz de
realizar a separação dos 4 exemplos.
• Assim, é preciso recorrer a funções de complexidade superior à das
retas.
• Logo, conclui-se que dim = 3, pois todas as possiveis combinações
(8) de exemplos pode ser particionada por retas.
Minimização do Risco Estrutural
• Objetivo: minimizar o Risco Esperado!
• Divide-se F nos subconjuntos:
  Divide-
             F0  F1  ...  Fq  F
• Assim, h0  h1  ...  hq  h
        ~
• Seja f k  F k o classificador com menor Risco
  Empírico.                     ~
• A medida que k cresce, f k diminiu e a capacidade
  aumenta.
• Assim, existe um k ótimo que minimiza~ o limite
  sobre o risco esperado. A escolha de f k constitui o
  princípio da MRE
Minimização do Risco Estrutural




     Figura – Princípio de minimização do risco estrutural
Máquinas de Vetores de Suporte Lineares

               SVMs
SVM linear

• Surgiram pelo emprego direto dos resultados
  fornecidos pela TAE.
• Será apresentado os SVMs na obtenção de
  fronteiras lineares para a separação de dados
  pertencentes a duas classes.
• Abordaremos as lineares.
                 lineares.
SVM com margens rígidas

• Definem fronteiras lineares a partir de dados
  linearmente separáveis.
• Seja T um conjunto de treinamento com n dados
  xi pertencente a X e seus respectivos módulos yi
  e Y = {-1,+1}. T é linearmente separável se é
         {-
  possível separar os dados de classe -1 e +1 por
  um hiperplano.
SVM com margens rígidas

• A equação do hiperplano é representada abaixo:
                      f ( x)  w  x  b  0
•   w é o vetor normal ao hiperplano descrito
       b
•   || w ||   é a distância do hiperplano em relação à
origem.
• Essa equação divide o espaço de dados X em
  dua regiões: f(x)>0 e f(x)<0
SVM com margens rígidas

• Define-se o hiperplano canônico, isto é,
  Define-
                         | w  xi  b | 1
• Resumindo,
      w  xi  b  1          se   yi  1
                                   yi   1
      w  xi  b  1          se

• Ou yi (w  xi  b)  1  0
SVM com margens rígidas
Distância d:      2
               || w ||

Consideração: maximizar a margem de
separação dos dados em relação a:

               w x  b  0

Assim, na verdade, o que se quer:



                                1
                   Minimizar:     || w ||2
                                2

         Com as restrições:     y i ( w  xi  b )  1  0
SVMs com Margens Suaves

• Em situações reais, é difícil encontrar aplicações
  cujos dados sejam linearmente separáveis
  (presença de ruídos).
• Nova modelagem yi (w  xi  b)  1  i
   – i : variável de folga.


• Objetivo:
                                             n
                           1        2
              Minimizar:     || w ||  C (   i )
                           2               i 1
Conclusão
•A Matemática salva!
• As SVMs são robustas diante de dados de grande
dimensão.
• Convexidade do problema de otimização
formulado em seu treinamento, o que implica a
existência de um único mínimo global. (Vantagens
sobre as Redes Neurais)
• As SVMs podem ser aplicadas na solução de
problemas de regressão e no agrupamento de
dados (aprendizado não supervisionado)
Bibliografia

• Uma Introdução às Support Vector Machines
• Livro texto

Mais conteúdo relacionado

Mais procurados

Aula 8 variáveis aleatória contínua - parte 1
Aula 8   variáveis aleatória contínua - parte 1Aula 8   variáveis aleatória contínua - parte 1
Aula 8 variáveis aleatória contínua - parte 1Ariel Rennó Chaves
 
Inteligencia artificial 10
Inteligencia artificial 10Inteligencia artificial 10
Inteligencia artificial 10Nauber Gois
 
Estatistica media aritmetica
Estatistica media aritmeticaEstatistica media aritmetica
Estatistica media aritmeticasimuladocontabil
 
Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...
Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...
Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...Tiago Oliveira Weber
 
Projeto winplot
Projeto   winplotProjeto   winplot
Projeto winplotEdna M
 

Mais procurados (6)

Fj pratica04
Fj pratica04Fj pratica04
Fj pratica04
 
Aula 8 variáveis aleatória contínua - parte 1
Aula 8   variáveis aleatória contínua - parte 1Aula 8   variáveis aleatória contínua - parte 1
Aula 8 variáveis aleatória contínua - parte 1
 
Inteligencia artificial 10
Inteligencia artificial 10Inteligencia artificial 10
Inteligencia artificial 10
 
Estatistica media aritmetica
Estatistica media aritmeticaEstatistica media aritmetica
Estatistica media aritmetica
 
Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...
Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...
Course in GNU Octave / Matlab and Applications for Engineers (in Portuguese: ...
 
Projeto winplot
Projeto   winplotProjeto   winplot
Projeto winplot
 

Semelhante a Support Vector Machines

Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)
Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)
Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)Ben Hur Bahia do Nascimento
 
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive Bayes
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive Bayes[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive Bayes
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive BayesAhirton Lopes
 
[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector Machines[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector MachinesAhirton Lopes
 
Aprendizado de Máquina em Linguagem Natural
Aprendizado de Máquina em Linguagem NaturalAprendizado de Máquina em Linguagem Natural
Aprendizado de Máquina em Linguagem NaturalBeatriz Albiero
 
Trabalho individual objetos de aprendizagem
Trabalho individual objetos de aprendizagemTrabalho individual objetos de aprendizagem
Trabalho individual objetos de aprendizagemEdson Júnio
 
Mineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitualMineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitualLuis Miguel Rojas Aguilera
 
Função do 2º grau em execução
Função do 2º grau em execuçãoFunção do 2º grau em execução
Função do 2º grau em execuçãomonica_cassia
 
Introdução à Amostragem Compressiva
Introdução à Amostragem CompressivaIntrodução à Amostragem Compressiva
Introdução à Amostragem CompressivaEdmar Gurjão
 
Aprendizagem Automática
Aprendizagem AutomáticaAprendizagem Automática
Aprendizagem Automáticabutest
 

Semelhante a Support Vector Machines (20)

Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)
Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)
Classificação: Dimensão VC e Máquinas de Vetores Suporte (SVMs)
 
Apresentacao-Llanos-8.pdf
Apresentacao-Llanos-8.pdfApresentacao-Llanos-8.pdf
Apresentacao-Llanos-8.pdf
 
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive Bayes
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive Bayes[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive Bayes
[José Ahirton Lopes] Treinamento - Árvores de Decisão, SVM e Naive Bayes
 
[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector Machines[José Ahirton Lopes] Support Vector Machines
[José Ahirton Lopes] Support Vector Machines
 
Aprendizado de Máquina em Linguagem Natural
Aprendizado de Máquina em Linguagem NaturalAprendizado de Máquina em Linguagem Natural
Aprendizado de Máquina em Linguagem Natural
 
Trabalho individual objetos de aprendizagem
Trabalho individual objetos de aprendizagemTrabalho individual objetos de aprendizagem
Trabalho individual objetos de aprendizagem
 
High Dimensional Data
High Dimensional DataHigh Dimensional Data
High Dimensional Data
 
Limites infinitos
Limites infinitosLimites infinitos
Limites infinitos
 
kNN Algorithm
kNN AlgorithmkNN Algorithm
kNN Algorithm
 
Mineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitualMineração de dados com a presença da deriva conceitual
Mineração de dados com a presença da deriva conceitual
 
Função do 2º grau em execução
Função do 2º grau em execuçãoFunção do 2º grau em execução
Função do 2º grau em execução
 
Revisao 2 2019.pdf
Revisao 2 2019.pdfRevisao 2 2019.pdf
Revisao 2 2019.pdf
 
Math
MathMath
Math
 
Introdução à Amostragem Compressiva
Introdução à Amostragem CompressivaIntrodução à Amostragem Compressiva
Introdução à Amostragem Compressiva
 
Cursocalc1ead
Cursocalc1eadCursocalc1ead
Cursocalc1ead
 
Sbc scipy
Sbc scipySbc scipy
Sbc scipy
 
Aprendizagem Automática
Aprendizagem AutomáticaAprendizagem Automática
Aprendizagem Automática
 
Estatistica[1]
Estatistica[1]Estatistica[1]
Estatistica[1]
 
03 raizes
03 raizes03 raizes
03 raizes
 
Introdução metodos computacionais
Introdução metodos computacionaisIntrodução metodos computacionais
Introdução metodos computacionais
 

Último

Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptxSlides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptxLuizHenriquedeAlmeid6
 
COMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcante
COMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcanteCOMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcante
COMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcanteVanessaCavalcante37
 
Música Meu Abrigo - Texto e atividade
Música   Meu   Abrigo  -   Texto e atividadeMúsica   Meu   Abrigo  -   Texto e atividade
Música Meu Abrigo - Texto e atividadeMary Alvarenga
 
Ficha de trabalho com palavras- simples e complexas.pdf
Ficha de trabalho com palavras- simples e complexas.pdfFicha de trabalho com palavras- simples e complexas.pdf
Ficha de trabalho com palavras- simples e complexas.pdfFtimaMoreira35
 
Reta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdf
Reta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdfReta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdf
Reta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdfWagnerCamposCEA
 
Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"Ilda Bicacro
 
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃOFASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃOAulasgravadas3
 
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdfENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdfLeloIurk1
 
A QUATRO MÃOS - MARILDA CASTANHA . pdf
A QUATRO MÃOS  -  MARILDA CASTANHA . pdfA QUATRO MÃOS  -  MARILDA CASTANHA . pdf
A QUATRO MÃOS - MARILDA CASTANHA . pdfAna Lemos
 
About Vila Galé- Cadeia Empresarial de Hotéis
About Vila Galé- Cadeia Empresarial de HotéisAbout Vila Galé- Cadeia Empresarial de Hotéis
About Vila Galé- Cadeia Empresarial de Hotéisines09cachapa
 
o ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfo ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfCamillaBrito19
 
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdfLeloIurk1
 
apostila projeto de vida 2 ano ensino médio
apostila projeto de vida 2 ano ensino médioapostila projeto de vida 2 ano ensino médio
apostila projeto de vida 2 ano ensino médiorosenilrucks
 
Discurso Direto, Indireto e Indireto Livre.pptx
Discurso Direto, Indireto e Indireto Livre.pptxDiscurso Direto, Indireto e Indireto Livre.pptx
Discurso Direto, Indireto e Indireto Livre.pptxferreirapriscilla84
 
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...azulassessoria9
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...azulassessoria9
 
CRUZADINHA - Leitura e escrita dos números
CRUZADINHA   -   Leitura e escrita dos números CRUZADINHA   -   Leitura e escrita dos números
CRUZADINHA - Leitura e escrita dos números Mary Alvarenga
 
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdfPRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdfprofesfrancleite
 

Último (20)

Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptxSlides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
 
COMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcante
COMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcanteCOMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcante
COMPETÊNCIA 2 da redação do enem prodção textual professora vanessa cavalcante
 
Música Meu Abrigo - Texto e atividade
Música   Meu   Abrigo  -   Texto e atividadeMúsica   Meu   Abrigo  -   Texto e atividade
Música Meu Abrigo - Texto e atividade
 
Ficha de trabalho com palavras- simples e complexas.pdf
Ficha de trabalho com palavras- simples e complexas.pdfFicha de trabalho com palavras- simples e complexas.pdf
Ficha de trabalho com palavras- simples e complexas.pdf
 
Reta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdf
Reta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdfReta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdf
Reta Final - CNU - Gestão Governamental - Prof. Stefan Fantini.pdf
 
Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"
 
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃOFASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
 
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdfENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
 
A QUATRO MÃOS - MARILDA CASTANHA . pdf
A QUATRO MÃOS  -  MARILDA CASTANHA . pdfA QUATRO MÃOS  -  MARILDA CASTANHA . pdf
A QUATRO MÃOS - MARILDA CASTANHA . pdf
 
About Vila Galé- Cadeia Empresarial de Hotéis
About Vila Galé- Cadeia Empresarial de HotéisAbout Vila Galé- Cadeia Empresarial de Hotéis
About Vila Galé- Cadeia Empresarial de Hotéis
 
o ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfo ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdf
 
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
 
CINEMATICA DE LOS MATERIALES Y PARTICULA
CINEMATICA DE LOS MATERIALES Y PARTICULACINEMATICA DE LOS MATERIALES Y PARTICULA
CINEMATICA DE LOS MATERIALES Y PARTICULA
 
apostila projeto de vida 2 ano ensino médio
apostila projeto de vida 2 ano ensino médioapostila projeto de vida 2 ano ensino médio
apostila projeto de vida 2 ano ensino médio
 
Discurso Direto, Indireto e Indireto Livre.pptx
Discurso Direto, Indireto e Indireto Livre.pptxDiscurso Direto, Indireto e Indireto Livre.pptx
Discurso Direto, Indireto e Indireto Livre.pptx
 
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
 
CRUZADINHA - Leitura e escrita dos números
CRUZADINHA   -   Leitura e escrita dos números CRUZADINHA   -   Leitura e escrita dos números
CRUZADINHA - Leitura e escrita dos números
 
Aula sobre o Imperialismo Europeu no século XIX
Aula sobre o Imperialismo Europeu no século XIXAula sobre o Imperialismo Europeu no século XIX
Aula sobre o Imperialismo Europeu no século XIX
 
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdfPRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
 

Support Vector Machines

  • 1. Support Vector Machines Leandro Farias 5° ano – Eng. Comp. Inteligência Artificial
  • 2. Sumário • Introdução • Objetivos • Aprendizado de Máquinas • A Teoria de Aprendizado Estatístico • SVMs • Conclusão • Bibliografia
  • 3. Introdução • Técnica de aprendizado • As Máquinas de Vetores de Suporte são embasadas pela teoria de aprendizado estatístico. estatístico. • Inúmeras aplicações: categorização de textos, aplicações: textos, Análise de Imagens e Bioinformática. Bioinformática.
  • 4. Objetivos • Apresentar as Máquinas de Vetores de Suporte. Suporte.
  • 6. Considerações Iniciais • As tecnicas de AM empregam o princípio de inferência indução. indução. • Supervisionado vs Não-supervisionado. Não-supervisionado. • Abordaremos o aprendizado Supervisionado. Supervisionado.
  • 7. Aprendizado Supervisionado • Dado um conjunto de exemplos (xi,yi) – xi: representa um exemplo. exemplo. – yi: representa o seu rótulo. rótulo. • Objetivo: produzir um classificador (modelo, Objetivo: modelo, preditor ou hipótese) capaz de predizer o rótulo hipótese) de novos dados. f(x)=y
  • 8. Aprendizado Supervisionado Figura1 – Forma simplificada para obtenção do classificador • Cada exemplo é representado por um vetor de características. • Cada atributo pode ser nominal (não existe uma ordem entre os valores. Ex: cores) ou contínuo ( é possível definir uma ordem linear nos valores assumidos. Ex: pesos). • A obtenção do classificador pode ser considerado um processo de busca.
  • 9. A Teoria de Aprendizado Estatístico Conceitos não tão Básicos
  • 10. Classificadores • Seja T o conjunto de treinamento, composto de treinamento, n pares (xi,yi). • Seja o classificador f contido em F (conjunto de (conjunto todos os classificadores) gerado pelo algoritmo classificadores) de AM.
  • 11. Um Exemplo Figura 2 – Exemplos de Classificadores • A Figura 2 (a): classifica corretamente, porém por ser muito específica apresenta elevada suscetibilidade a cometer erros com novos dados. •A Figura 2 (c): desconsidera pontos pertencentes a classes opostas e que estejam muito próximos entre si. Porém comete muitos erros. •A Figura 2 (b): Tem complexidade intermediária e classifica corretamente a maioria dos dados. A TAE estabelece condições matemáticas para a escolha do classificador.
  • 12. Considerações sobre a escolha do Classificador • Os dados são gerados de forma i.i.d. com i.i.d. probabilidade P(x,y). P(x,y). • Risco Esperado: mede a capacidade de Esperado: generalização de f. R( f )   c( f (x), y )dP(x, y ) sendo c( f (x), y) o custo relacionando a previsão f (x) quando a saída desejada é y . • Não é possível minimizar o risco pois P(x, y) é desconhecido. desconhecido.
  • 13. Considerações sobre a escolha do Classificador • O Risco Empírico mede o desempenho do classificador nos dados de treinamento por meio da taxa de classificações incorretas obtidas em T. 1 n Remp ( f )   c ( f ( x i , y i )) n i 1 – Quando n   é possível fazer com que o Risco Empirico convirga para o Risco Esperado
  • 14. Limites no Risco Esperado • O limite para o Risco Esperado é conseguido com probabilidade 1   . 2n  h (ln ( )  1)  ln ( ) h 4 R ( f )  R em p ( f )  n – h: dimensão Vapnick-Chervonenkis da classe de funções Vapnick- F à qual f pertence. – n: quantidade de exemplos no conjunto de treinamento T. • VC h mede a capacidade do conjunto de funções F (quanto maior seu valor, mais complexas são as funções)
  • 15. Exemplo para dim VC = 3 • Problema: Dado um problema de classificação binário (rótulos com valores 1 ou 2), essa dimensão é definida como o número máximo de exemplos que podem ser particionados em duas classes pelas funções contidas em F, para todas as combinações binárias desses dados. Encontrar dim VC.
  • 16. Exemplo para dim VC = 3 Figura – todas as 8 combinações possíveis para 2 rótulos • É possível determinar retas que possam separar esses 3 exemplos, para qualquer conformação dos rótulos.
  • 17. Exemplo para dim VC = 3 Figura 4 – Figuras com 4 exemplos • É possível definir rótulos (item b) tal que uma só reta seja incapaz de realizar a separação dos 4 exemplos. • Assim, é preciso recorrer a funções de complexidade superior à das retas. • Logo, conclui-se que dim = 3, pois todas as possiveis combinações (8) de exemplos pode ser particionada por retas.
  • 18. Minimização do Risco Estrutural • Objetivo: minimizar o Risco Esperado! • Divide-se F nos subconjuntos: Divide- F0  F1  ...  Fq  F • Assim, h0  h1  ...  hq  h ~ • Seja f k  F k o classificador com menor Risco Empírico. ~ • A medida que k cresce, f k diminiu e a capacidade aumenta. • Assim, existe um k ótimo que minimiza~ o limite sobre o risco esperado. A escolha de f k constitui o princípio da MRE
  • 19. Minimização do Risco Estrutural Figura – Princípio de minimização do risco estrutural
  • 20. Máquinas de Vetores de Suporte Lineares SVMs
  • 21. SVM linear • Surgiram pelo emprego direto dos resultados fornecidos pela TAE. • Será apresentado os SVMs na obtenção de fronteiras lineares para a separação de dados pertencentes a duas classes. • Abordaremos as lineares. lineares.
  • 22. SVM com margens rígidas • Definem fronteiras lineares a partir de dados linearmente separáveis. • Seja T um conjunto de treinamento com n dados xi pertencente a X e seus respectivos módulos yi e Y = {-1,+1}. T é linearmente separável se é {- possível separar os dados de classe -1 e +1 por um hiperplano.
  • 23. SVM com margens rígidas • A equação do hiperplano é representada abaixo: f ( x)  w  x  b  0 • w é o vetor normal ao hiperplano descrito b • || w || é a distância do hiperplano em relação à origem. • Essa equação divide o espaço de dados X em dua regiões: f(x)>0 e f(x)<0
  • 24. SVM com margens rígidas • Define-se o hiperplano canônico, isto é, Define- | w  xi  b | 1 • Resumindo,  w  xi  b  1 se yi  1  yi   1  w  xi  b  1 se • Ou yi (w  xi  b)  1  0
  • 25. SVM com margens rígidas Distância d: 2 || w || Consideração: maximizar a margem de separação dos dados em relação a: w x  b  0 Assim, na verdade, o que se quer: 1 Minimizar: || w ||2 2 Com as restrições: y i ( w  xi  b )  1  0
  • 26. SVMs com Margens Suaves • Em situações reais, é difícil encontrar aplicações cujos dados sejam linearmente separáveis (presença de ruídos). • Nova modelagem yi (w  xi  b)  1  i – i : variável de folga. • Objetivo: n 1 2 Minimizar: || w ||  C (   i ) 2 i 1
  • 27. Conclusão •A Matemática salva! • As SVMs são robustas diante de dados de grande dimensão. • Convexidade do problema de otimização formulado em seu treinamento, o que implica a existência de um único mínimo global. (Vantagens sobre as Redes Neurais) • As SVMs podem ser aplicadas na solução de problemas de regressão e no agrupamento de dados (aprendizado não supervisionado)
  • 28. Bibliografia • Uma Introdução às Support Vector Machines • Livro texto