2. RatSLAM
Algoritmo bioinspirado
Baseado nas head, place e grid cells
identificadas no hipocampo dos ratos
Modela com redes neurais dinâmicas
Usa apenas uma web cam como sensor
Roda em tempo real em um notebook
Mapeamento topológico
3. Modelo Hipocampal
Head Cells: cada
neurônio representa 1
ângulo diferente
Células excitam
células próximas e
inibem células
distantes
Movimento excita e
inibe células
Inibição global
Extremidades são
conectadas
4. Modelo Hipocampal
O resultado após
várias iterações é um
“pacote” de ativações
próximas, com
formato similar a uma
Gaussiana
5. Modelo Hipocampal
Local View Cells
excitam Head Cells
Similar ao passo de
de correção de
localização baseada
nos sensores em
robótica
Todo mesmo
racioncínio para
Place Cells, mas 2D
6. RatSLAM
3 módulos:
Local View Cells:
armazenam templates
de imagens
observadas
Pose Cells: união das
Head Cells com Place
Cells, 3D
Experience Map:
guarda associações e
transições
7. Pose Cells
Mapa 3D de poses
Cada face do cubo é
ligada com a face
oposta
Permite mapas de
tamanho ilimitado,
mas compartilha
diferentes locais em
uma mesma célula
8. Pose Cells
Exctitação e inibição
lateral
Aritmética modular
para levar em conta
as extremidades
conectadas
Inibição idêntica à
excitação mas com
sinal oposto e com
inibição global
9. Pose Cells + Motion
Ao contrário do modelo biológico que incorpora
a informação de movimento através de
excitações e inibições neurais, RatSLAM
simplifica e agiliza o processo simplesmente
deslocando as ativações diretamente, como é
feito comumente em robótica
10. Local View + Pose Cells
Matriz de
associações é
atualizada com
aprendizado
Hebbiano (fire
together, wire
together)
Local View Cells
excitam as pose cells
através de suas
associações
11. Experience Map
Guarda associações
de Local View e
Place Cells que
ocorrem
simultaneamente
Guarda também pose
obtida pela odometria
no momento
Transições entre
experiências
guardam variação de
pose
12. Experience Map
“S” é uma medida de
distância /
similaridade entre 2
experiências
Ao ultrapassar um
limiar, uma nova
experiência é criada
Caso contrário, as
experiências são
atualizadas (correção
da pose)
14. Rotação
Imagem (tons de
cinza) é reduzida a
um vetor 1D com a
média de intensidade
de cada coluna
Vetores
subsequentes são
comparados com
vários alinhamentos e
o melhor é
selecionado como
estimativa da rotação
21. Velocidade
Velocidade estimada
ao longo de um
trecho em que a
velocidade real era
constante
Maior fonte de erro
(40%), mas ainda
tolerável
Outros módulos do
algoritmo
compensam
22. Pose Cells
Informação das Local
View Cells cria novo
pacote de ativações
Ao longo de 6s esse
pacote se torna
dominante, e a
informação antiga
desaparece
Similar ao passo de
atualização baseada
nos sensores comum
em robótica
24. Local View Cells
Novos templates vão
sendo criados e
ativados
Locais já visitados
tornam a ativar
neurônios já
existentes
25. Local View Cells
Regiões do mapa
com aparência
(visual) similar são
representadas pelas
mesmas Local View
Cells
Interação com os
outros módulos retira
ambiguidade
31. Referências
Milford, M.J. and Wyeth, G.F - Mapping a
Suburb With a Single Camera Using a
Biologically Inspired SLAM System - IEEE
TRANSAC TIONS ON ROBOTICS, VOL. 24,
NO. 5, OCTOBER 2008