Ratslam

303 visualizações

Publicada em

Publicada em: Tecnologia
0 comentários
0 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

  • Seja a primeira pessoa a gostar disto

Sem downloads
Visualizações
Visualizações totais
303
No SlideShare
0
A partir de incorporações
0
Número de incorporações
7
Ações
Compartilhamentos
0
Downloads
4
Comentários
0
Gostaram
0
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

Ratslam

  1. 1. RatSLAM Rafael C.P.
  2. 2. RatSLAM   Algoritmo bioinspirado Baseado nas head, place e grid cells identificadas no hipocampo dos ratos  Modela com redes neurais dinâmicas  Usa apenas uma web cam como sensor  Roda em tempo real em um notebook  Mapeamento topológico
  3. 3. Modelo Hipocampal      Head Cells: cada neurônio representa 1 ângulo diferente Células excitam células próximas e inibem células distantes Movimento excita e inibe células Inibição global Extremidades são conectadas
  4. 4. Modelo Hipocampal  O resultado após várias iterações é um “pacote” de ativações próximas, com formato similar a uma Gaussiana
  5. 5. Modelo Hipocampal    Local View Cells excitam Head Cells Similar ao passo de de correção de localização baseada nos sensores em robótica Todo mesmo racioncínio para Place Cells, mas 2D
  6. 6. RatSLAM  3 módulos:    Local View Cells: armazenam templates de imagens observadas Pose Cells: união das Head Cells com Place Cells, 3D Experience Map: guarda associações e transições
  7. 7. Pose Cells   Mapa 3D de poses Cada face do cubo é ligada com a face oposta  Permite mapas de tamanho ilimitado, mas compartilha diferentes locais em uma mesma célula
  8. 8. Pose Cells    Exctitação e inibição lateral Aritmética modular para levar em conta as extremidades conectadas Inibição idêntica à excitação mas com sinal oposto e com inibição global
  9. 9. Pose Cells + Motion  Ao contrário do modelo biológico que incorpora a informação de movimento através de excitações e inibições neurais, RatSLAM simplifica e agiliza o processo simplesmente deslocando as ativações diretamente, como é feito comumente em robótica
  10. 10. Local View + Pose Cells   Matriz de associações é atualizada com aprendizado Hebbiano (fire together, wire together) Local View Cells excitam as pose cells através de suas associações
  11. 11. Experience Map    Guarda associações de Local View e Place Cells que ocorrem simultaneamente Guarda também pose obtida pela odometria no momento Transições entre experiências guardam variação de pose
  12. 12. Experience Map    “S” é uma medida de distância / similaridade entre 2 experiências Ao ultrapassar um limiar, uma nova experiência é criada Caso contrário, as experiências são atualizadas (correção da pose)
  13. 13. Visão      Odometria visual Apenas pedaços das imagens obtidas são usados A: Template Matching para Local View Cells B: Estimação de Rotação C: Estimação de velocidade
  14. 14. Rotação   Imagem (tons de cinza) é reduzida a um vetor 1D com a média de intensidade de cada coluna Vetores subsequentes são comparados com vários alinhamentos e o melhor é selecionado como estimativa da rotação
  15. 15. Velocidade   Vetores subsequentes já alinhados pela rotação são comparados Estimativa de velocidade dada por uma função de distância das intensidades absolutas dos vetores
  16. 16. Template Matching  Os vetores de intensidade alinhados também são usados no template matching
  17. 17. Experimento - Setup  Apenas um notebook com web cam fixado no topo de um carro  Trajeto de 66km  100min  Área de 3km x 1,6km
  18. 18. Exemplos  Imagens observadas pelo sistema ao longo do experimento
  19. 19. Resultados - Loop Closures   Diferença entre variação de pose armazenada nas transições e pose relativa entre experiências Picos = loop closures
  20. 20. Rotação  Estimação de rotação foi muito boa (o problema está na velocidade)
  21. 21. Velocidade    Velocidade estimada ao longo de um trecho em que a velocidade real era constante Maior fonte de erro (40%), mas ainda tolerável Outros módulos do algoritmo compensam
  22. 22. Pose Cells    Informação das Local View Cells cria novo pacote de ativações Ao longo de 6s esse pacote se torna dominante, e a informação antiga desaparece Similar ao passo de atualização baseada nos sensores comum em robótica
  23. 23. Pose Cells   Os mesmos neurônios representam mais de um local no mapa, devido à natureza cíclica da rede neural usada Outros módulos acabam corrigindo ambiguidades
  24. 24. Local View Cells   Novos templates vão sendo criados e ativados Locais já visitados tornam a ativar neurônios já existentes
  25. 25. Local View Cells   Regiões do mapa com aparência (visual) similar são representadas pelas mesmas Local View Cells Interação com os outros módulos retira ambiguidade
  26. 26. Processamento
  27. 27. Parâmetros
  28. 28. Resultados
  29. 29. Resultados
  30. 30. Vídeo http://www.youtube.com/watch?v=-0XSUi69Yvs
  31. 31. Referências  Milford, M.J. and Wyeth, G.F - Mapping a Suburb With a Single Camera Using a Biologically Inspired SLAM System - IEEE TRANSAC TIONS ON ROBOTICS, VOL. 24, NO. 5, OCTOBER 2008

×