SlideShare uma empresa Scribd logo
1 de 6
1
SpikeNET : un logiciel pour modéliser de larges réseaux
de neurones impulsionnels et asynchrones.
Arnaud DELORME, Rufin VANRULLEN, Jacques GAUTRAIS &
Simon THORPE.
Centre de Recherche Cerveau & Cognition,
UMR 5549
Fac. de Médecine Rangueil
133, Rte de Narbonne
31062 TOULOUSE Cedex
Résumé :
Quels sont les mécanismes cérébraux qui sous-tendent la prodigieuse efficacité du système
visuel des primates humains et non-humains? Nous avons récemment démontré (Thorpe et al
1996) que le système visuel humain est capable d'analyser une scène visuelle complexe en
moins de 150 ms, un niveau de performance qui dépasse très largement les capacités des
systèmes artificiels d'analyse d’images.
Ces recherches nous ont permis de dégager plusieurs principes de fonctionnement du
système visuel biologique que nous croyons pouvoir compter comme facteurs clés de cette
remarquable efficacité. Plus particulièrement, nous sommes convaincus que l'activité
impulsionnelle et asynchrone des neurones qui composent le réseau est un élément
primordial. Pour tester nos hypothèses, nous avons développé un simulateur de réseaux de
neurones impulsionnels que nous avons baptisé "SpikeNET".
Si, au début, le développement de SpikeNET a été surtout motivé par le désir de
comprendre le fonctionnement du système visuel humain, nous nous sommes rapidement
rendu compte que SpikeNET pouvait être utilisé pour développer des systèmes d'analyse
d'images d'un type tout à fait original. SpikeNET a déjà été utilisé pour mettre au point des
systèmes de reconnaissance capables de détecter et de localiser des visages humains dans des
scènes naturelles.
Introduction.
Des expériences récentes viennent de démontrer très clairement la surprenante efficacité et
la rapidité du système visuel (Thorpe et al 1996). Les sujets devaient effectuer une tâche de
catégorisation visuelle de type "go/nogo" - répondant à la présentation d'une image
uniquement lorsqu’elle contenait un animal. Le niveau de performance obtenu était
remarquable (94% correct, avec un temps de réaction médian de 440 ms) malgré (1) la durée
de présentation limitée à 20 ms, ce qui empêchait toute possibilité d’exploration oculaire, (2)
le fait que chaque image n'était vue qu’une seule fois, ce qui empêchait toute possibilité
d’apprentissage, et (3) le fait que les sujets n’avaient aucune information ni sur le type
d’animal à chercher (les cibles incluaient des mammifères, des reptiles, des oiseaux, des
poissons...), ni sur leur position, leur taille, leur orientation, ou le nombre d’animaux présents.
L'utilisation conjointe des potentiels évoqués a de plus permis de démontrer que les réponses
cérébrales évoquées lors des essais cibles et des essais distracteurs diffèrent de façon
significative dès 150 ms. Le traitement visuel nécessaire pour effectuer cette tâche difficile
peut donc être réalisé en moins de 150 ms.
Depuis quelques années, l'universalité de l'hypothèse de codage par fréquence de décharge
("rate coding") est de plus en plus remise en question. Déjà en 1989, nous avons montré
2
(Thorpe et Imbert, 1989) que la rapidité avec laquelle le système visuel fonctionne est
effectivement incompatible avec un traitement basé sur la fréquence de décharge des
neurones. L'argument se résume ainsi: on savait que des neurones du cortex inférotemporal
pouvaient répondre de façon sélective à certains stimuli complexes comme des visages avec
une latence d'environ 100 ms (Perrett et al 1982); on savait également que pour atteindre ces
neurones, les signaux générés par les photorécepteurs de la rétine devaient probablement
traverser une dizaine de couches de neurones dans la rétine, le thalamus et les diverses aires
corticales impliquées dans l'analyse visuelle (V1, V2, V4, PIT, AIT ...), ce qui ne laisse
qu'une dizaine de millisecondes par couche pour effectuer le traitement. Etant donné le taux
de décharge relativement faible des neurones corticaux (typiquement < 100 Hz), la plupart
des neurones n'ont pas eu le temps de générer plus d'un seul potentiel d'action, ce qui pose un
problème quasi insoluble pour l'hypothèse de codage par fréquence de décharge car il faut au
moins deux impulsions pour pouvoir estimer la fréquence de décharge instantanée. Une
estimation de la fréquence de décharge codée sur plusieurs neurones semble également
exclue. En effet pour estimer une fréquence de 100Hz±10Hz en 10ms il faut 281 neurones
(Thorpe et Gautrais 1997).
Les neurones intégrateurs à fuite.
C'est en essayant de concilier ces contraintes temporelles avec les connaissances anatomo-
physiologiques du système visuel que nous avons été amenés à proposer un nouveau type de
codage neuronal basé non pas sur le taux de décharge des neurones, mais plutôt sur leurs
dates relatives de décharge (Thorpe et Gautrais 1997).
Le principe est en fait extrêmement simple, et se base sur l'idée qu'un neurone peut être
considéré non pas comme un convertisseur analogique-fréquence comme le veut le dogme
neurophysiologique, mais plutôt comme un convertisseur analogique-délai. En effet, on sait
que lorsqu'on active un neurone avec un courant constant, le temps nécessaire pour que le
potentiel de membrane du neurone atteigne son seuil dépend de l'intensité de l'activation -
plus l'activation est forte, plus le neurone va se dépolariser rapidement, et plus courte sera sa
latence (figure 1-B,C). La comparaison des dates de décharges de plusieurs neurones peut
ainsi coder le stimulus, comme l’illustre la figure précédente (figure 1-A).
Un codage relatif des décharges des neurones offre de plus des caractéristiques
intéressantes. Ainsi, le profil d'intensité de la figure 1 peut être représenté par l'ordre
0
20
40
60
80
100
0 5 10 15 20
Intensité
-80
-60
-40
-20
0
20
40
60
-20 0 20 40 60 80
Temps
Faible
Moyenne
Forte
B C
Latencemv
A B C D E F
Activation
A
figure 1: A, exemple de conversion d’une activation analogique en latence de décharge des
neurones. C’est la latence de décharge des neurones qui code l’information. B, délai
d’activation d’un neurone en fonction de l’intensité de la stimulation. C, courbe de
correspondance entre la latence de décharge et l’intensité de la stimulation.
3
B>A>F>C>E>D. Un des avantages d'un tel type de codage est son invariance par rapport aux
changements d'intensité absolue dans une image. En effet, si on double le niveau d'éclairage
de l'image ou le niveau de contraste, les latences seront certes raccourcies pour tous les
neurones, mais l'ordre dans lequel ils déchargeront restera identique. Ce type d'invariance,
caractéristique du système visuel humain, pose de sérieux problèmes aux systèmes classiques
d'analyse d’image.
SpikeNET.
SpikeNET est issu de ces travaux. Au départ développé pour étudier le comportement de
neurones intégrateurs à fuite décrits précédemment, SpikeNET s’avère être un logiciel
capable de rivaliser avec les logiciels d’intelligence artificielle les plus performants.
Chaque élément neuronal est volontairement simplifié, et implique un nombre très réduit
de paramètres - un niveau d'activation, un seuil et une sensibilité. Pour éviter tout type de
codage fréquentiel, chaque neurone ne peut décharger (émettre un potentiel d’action) qu’une
seule fois. Le mécanisme de propagation est également très simple. Le temps est discrétisé, le
nombre de pas de temps pouvant correspondre au nombre de neurones afin de minimiser
l’incertitude sur l’ordre exact des décharges des neurones. Un neurone, initialement à son
potentiel de repos, intègre dans le temps les décharges de ses afférents en modulant leurs
poids synaptiques par leur ordre d’arrivée. Cela signifie que le neurone se désensibilise au fur
et à mesure qu’il reçoit des décharges de ses différents afférents.
D’un point de vue plus formel, soit A = { a1 , a2 , a3 ... am-1 , am }l’ensemble des neurones
afférents du neurone i, avec W = { w1,i , w2,i , w3,i ... wm-1,i , wm,i } les poids des m connexions
correspondantes; soit f une fonction bornée strictement décroissante telle que lim
x→+∞
f(x) = 0 .
Le niveau d’activation du neurone i au temps t est donné par :
Activation i,t( )= f(ordret (aj )).wj,i
j∈ 1,m[ ]
∑
où ordret(aj) représente l’ordre de décharge au temps t du neurone afférent aj. Par
convention, ordrei(aj) = +∞ si le neurone aj n’a pas encore déchargé au temps t, annulant
ainsi le terme dans la somme qui correspond à ce neurone.
Le neurone i déchargera au temps t si et seulement si :
Activation(i,t) ≥ Seuil(i)
Cette caractéristique fait que SpikeNET ne traite que les neurones qui émettent des
potentiels d’action et son efficacité du point de vue computationnel est donc
incomparablement supérieure aux réseaux de neurones matriciels classiques.
figure 2 : schématisation des projections entre
neurones (représentés par des carrés) dans
SpikeNet. Les neurones afférents d’un neurone
cible sont reliés à celui-ci par des connexions
représentées en trait plein. C’est la latence
relative d’activation (représentée par les
différentes nuances de gris des neurones
afférents) qui déterminera, en fonction des
poids des connexions et de leur ordre d’arrivée
le degré d’activation du neurone cible.
neurone efférent
neurones afférent s
lim
x→ +∞
f(x) = 0
4
Bien que cela n’ait pas encore été démontré expérimentalement, nous supposons que ce
type de comportement intervient au niveau des neurones réels dans le cortex visuel. Des
résultats expérimentaux récents semblent indiquer qu’un codage de ce type, c’est-à-dire une
dépression du poids synaptique à très court terme, pourrait intervenir au niveau d’une seule
synapse (Abbot et al 1997). De plus Markram et Tsodicks (1997) ont montré que lors de la
potentiation à long terme d’une synapse d’un neurone cortical, l’efficacité de la synapse se
renforce pour le premier potentiel d’action d’un train de potentiels d’action. Il semble donc
que pour une synapse dont l’efficacité a été renforcée le premier potentiel d’action soit
prépondérant. Enfin Markram et al (1997) ont montré que l’ordre de décharge des neurones
intervient pour l’apprentissage au niveau des neurones corticaux : suivant l’ordre de décharge
des neurones présynaptique et postsynaptique, l’efficacité des synapses est renforcée ou
affaiblie.
Exemple d’application de SpikeNET.
Il s'agit d'un réseau à quatre couches. Le premier niveau correspond à la rétine et contient
des cellules dites "ON-centre" et "OFF-centre". Le deuxième niveau contient huit cartes de
neurones sélectifs à l'orientation des contours. Le troisième niveau contient des cellules que
entraînés à répondre à des caractéristiques spécifiques des visages - l'oeil gauche, l'oeil droit
et la bouche. Enfin, le quatrième niveau répond à la présence simultanée de ces trois
"caractéristiques" dans des positions appropriées.
La figure suivante illustre comment l'activité se propage à travers un tel réseau. Chaque
pixel correspond à un neurone et pour faciliter l'interprétation, l'intensité de ces pixels dépend
de l'ordre d'activation des neurones correspondants - plus la date de décharge du neurone est
tardive et plus le niveau de gris est sombre. Nous constatons que l'activation dans les cartes
correspondant aux yeux et à la bouche permet leur localisation précise, et que, dans la
dernière couche, c’est le centre du visage lui-même que l'activité neuronale permet de
déterminer. Pour de plus amples explications se référer à VanRullen et al (1998) ou la
communication de VanRullen et al pour la détection de visage à plusieurs échelles.
5
Conclusion, perspectives.
Nous travaillons actuellement à optimiser les performances de SpikeNET. L’une des
caractéristiques essentielles de ce logiciel est que les communications entre les couches de neurones
sont extrêmement réduites. SpikeNET est donc tout à fait adapté à une implémentation parallèle,
chaque couche de neurone étant traitée par un processeur différent. Etant donné l’absence de tel
matériel à un prix abordable, nous collaborons actuellement avec plusieurs entreprises européennes
pour développer des cartes multiprocesseurs de type PCI pour Mac ou PC. Le traitement complet
pour la recherche de visage dans une image 100*120 prend actuellement 1 seconde sur un Pentium
II à 300 Mhz. Cela représente 150 000 neurones et plus de 15 000 000 de connexions. Les cartes
multiprocesseurs devraient nous permettre dans les mois qui viennent d’effectuer ce traitement en
temps réel sur des images vidéos 640*480. Des applications commerciales de SpikeNET sont
également en cours de développement et nous sommes ouverts à tout type de collaboration.
Références
Abbott L.F., Varela J. A., Kamal Sen, Nelson S. B. (1997) Synaptic Depression and Gain Control. Science, 275, 220-
224.
Markram H., Tsodycks M. (1997) Redistribution of synaptic efficacy between neocortical pyramidal neurons. Nature,
382, 807-810.
Markram H., Lübke J., Frotscher M. (1997) Regulation of Synaptic Efficacy by Coincidence of Postsynaptic APs
and EPSPs. Science, 275, 213-215.
Perrett, D. I., Rolls, E. T., & Caan, W. (1982). Visual neurons responsive to faces in the monkey temporal cortex.
Experimental Brain Research, 47, 329-342.
Thorpe, S. J., & Gautrais, J. (1997). Rapid visual processing using spike asynchrony. In M. Jordan (Ed.), Neural
Information Processing Systems, 9 (pp. 901-907). Denver.
Thorpe, S. J., & Imbert, M. (1989). Biological constraints on connectionist models. In R. Pfeifer, Z. Schreter, F.
Fogelman-Souli, & L. Steels (Eds.), Connectionism in Perspective. (pp. 63-92). Amsterdam: Elsevier.
figure 4 : Exemple d’application de SpikeNet. A
gauche, l’architecture du réseau de neurones est
représentée. A droite le résultat de la propagation
d’une image montre que les neurones reconaissant
les visages déchargent quand un visage est
présenté au centre de leur champ récepteur.
Image
On- ce nt r e Of f - c ent r e
9 0 ° 1 3 5 ° 1 8 0 ° 2 2 5 °
Bouche Oe il Dr oit Oe il Ga uc he
V isage
Image
unités
ON-
Centre
unités
OFF-
Centre
0 ° 45 ° 90 ° 135 ° 180 ° 225 ° 270 ° 315 °
Oeil Droit Oeil Gauche
11
Bouche
Visage
Niveau 1
Niveau 2
Niveau 3
Niveau 4
6
Thorpe, S. J., Fize, D., & Marlot, C. (1996). Speed of processing in the human visual system. Nature, 381, 520-522.
VanRullen, R., Delorme, A., Gautrais, J. & Thorpe, S.J. (1998). Face processing using one spike per neurone.
BioSystems, in press.

Mais conteúdo relacionado

Mais procurados

Le Reseau De Neurones
Le Reseau De NeuronesLe Reseau De Neurones
Le Reseau De Neuronesguestf80d95
 
Apprentissage du quantron : un problème d\’optimisation non différentiable
Apprentissage du quantron : un problème d\’optimisation non différentiableApprentissage du quantron : un problème d\’optimisation non différentiable
Apprentissage du quantron : un problème d\’optimisation non différentiablesdemontigny
 
Comprendre l’intelligence artificielle [webinaire]
Comprendre l’intelligence artificielle [webinaire]Comprendre l’intelligence artificielle [webinaire]
Comprendre l’intelligence artificielle [webinaire]Technologia Formation
 
Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...
Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...
Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...I MT
 
SensLab Anr Stic2010
SensLab Anr Stic2010SensLab Anr Stic2010
SensLab Anr Stic2010Eric Fleury
 
Modèle cognitif de mémoire dans un environnement virtuel
Modèle cognitif de mémoire dans un environnement virtuelModèle cognitif de mémoire dans un environnement virtuel
Modèle cognitif de mémoire dans un environnement virtuelNSim Technology
 

Mais procurados (8)

Réseaux neurons
Réseaux neuronsRéseaux neurons
Réseaux neurons
 
Le Reseau De Neurones
Le Reseau De NeuronesLe Reseau De Neurones
Le Reseau De Neurones
 
Apprentissage du quantron : un problème d\’optimisation non différentiable
Apprentissage du quantron : un problème d\’optimisation non différentiableApprentissage du quantron : un problème d\’optimisation non différentiable
Apprentissage du quantron : un problème d\’optimisation non différentiable
 
Comprendre l’intelligence artificielle [webinaire]
Comprendre l’intelligence artificielle [webinaire]Comprendre l’intelligence artificielle [webinaire]
Comprendre l’intelligence artificielle [webinaire]
 
Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...
Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...
Colloque Healthcare 4.0 : "NeuroLife : Interfaces Cerveau Machine pour la San...
 
SensLab Anr Stic2010
SensLab Anr Stic2010SensLab Anr Stic2010
SensLab Anr Stic2010
 
Modèle cognitif de mémoire dans un environnement virtuel
Modèle cognitif de mémoire dans un environnement virtuelModèle cognitif de mémoire dans un environnement virtuel
Modèle cognitif de mémoire dans un environnement virtuel
 
ontologie de capteurs
ontologie de capteursontologie de capteurs
ontologie de capteurs
 

Destaque

Web social et crowd sourcing
Web social et crowd sourcingWeb social et crowd sourcing
Web social et crowd sourcingZhihui Ou
 
Twitter vs. Facebook
Twitter vs. FacebookTwitter vs. Facebook
Twitter vs. FacebookZoomlabs
 
Comment intégrer une dimension verte à sa stratégie marketing on-line ?
Comment intégrer une dimension verte à sa stratégie marketing on-line ?Comment intégrer une dimension verte à sa stratégie marketing on-line ?
Comment intégrer une dimension verte à sa stratégie marketing on-line ?MAXIMILES
 
Tarea (2)laura
Tarea (2)lauraTarea (2)laura
Tarea (2)lauralaura
 
Presentation Martine Constant &amp; Partners
Presentation Martine Constant &amp; PartnersPresentation Martine Constant &amp; Partners
Presentation Martine Constant &amp; PartnersDavid_Rodolfs
 
Trabajo de egipto para frances alexandra jimenez garro
Trabajo de egipto para frances alexandra jimenez garroTrabajo de egipto para frances alexandra jimenez garro
Trabajo de egipto para frances alexandra jimenez garrocariam
 
Circulaire du 5 août 2010
Circulaire du 5 août 2010Circulaire du 5 août 2010
Circulaire du 5 août 2010melclalex
 
Internet debutant
Internet debutantInternet debutant
Internet debutantDavid Colin
 
226377 panoramique __m (1)
226377 panoramique __m (1)226377 panoramique __m (1)
226377 panoramique __m (1)Denise Rivera
 
Portraits div techniques
Portraits div techniquesPortraits div techniques
Portraits div techniquesavalanchequeen
 
Ciudadano Verde - Estrategias para una verdadera transformación positiva
Ciudadano Verde - Estrategias para una verdadera transformación positivaCiudadano Verde - Estrategias para una verdadera transformación positiva
Ciudadano Verde - Estrategias para una verdadera transformación positivaHermes Ruiz
 
Clasificacion de estrategias
Clasificacion de estrategiasClasificacion de estrategias
Clasificacion de estrategiasen un liceo
 
Empresas de mudanzas milmudanzas
Empresas de mudanzas milmudanzasEmpresas de mudanzas milmudanzas
Empresas de mudanzas milmudanzasJen Mona
 

Destaque (20)

Web social et crowd sourcing
Web social et crowd sourcingWeb social et crowd sourcing
Web social et crowd sourcing
 
Twitter vs. Facebook
Twitter vs. FacebookTwitter vs. Facebook
Twitter vs. Facebook
 
Comment intégrer une dimension verte à sa stratégie marketing on-line ?
Comment intégrer une dimension verte à sa stratégie marketing on-line ?Comment intégrer une dimension verte à sa stratégie marketing on-line ?
Comment intégrer une dimension verte à sa stratégie marketing on-line ?
 
REST
RESTREST
REST
 
Tarea (2)laura
Tarea (2)lauraTarea (2)laura
Tarea (2)laura
 
Presentation Martine Constant &amp; Partners
Presentation Martine Constant &amp; PartnersPresentation Martine Constant &amp; Partners
Presentation Martine Constant &amp; Partners
 
Lavie
LavieLavie
Lavie
 
Acces 2000
Acces 2000Acces 2000
Acces 2000
 
Trabajo de egipto para frances alexandra jimenez garro
Trabajo de egipto para frances alexandra jimenez garroTrabajo de egipto para frances alexandra jimenez garro
Trabajo de egipto para frances alexandra jimenez garro
 
Ny city
Ny cityNy city
Ny city
 
Encuesta
EncuestaEncuesta
Encuesta
 
Circulaire du 5 août 2010
Circulaire du 5 août 2010Circulaire du 5 août 2010
Circulaire du 5 août 2010
 
Internet debutant
Internet debutantInternet debutant
Internet debutant
 
Planilla
Planilla Planilla
Planilla
 
226377 panoramique __m (1)
226377 panoramique __m (1)226377 panoramique __m (1)
226377 panoramique __m (1)
 
Portraits div techniques
Portraits div techniquesPortraits div techniques
Portraits div techniques
 
Ciudadano Verde - Estrategias para una verdadera transformación positiva
Ciudadano Verde - Estrategias para una verdadera transformación positivaCiudadano Verde - Estrategias para una verdadera transformación positiva
Ciudadano Verde - Estrategias para una verdadera transformación positiva
 
Clasificacion de estrategias
Clasificacion de estrategiasClasificacion de estrategias
Clasificacion de estrategias
 
Grupo
GrupoGrupo
Grupo
 
Empresas de mudanzas milmudanzas
Empresas de mudanzas milmudanzasEmpresas de mudanzas milmudanzas
Empresas de mudanzas milmudanzas
 

Semelhante a Delorme nis1998

coursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.pptcoursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.pptAyaDrief
 
réseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissageréseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissagebillalbeldjenna
 
A la conquête du cerveau
A la conquête du cerveauA la conquête du cerveau
A la conquête du cerveauCafé Sciences
 
A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdfZizoAziz
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfSafaeElOmari
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfdrajou
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...ENSET, Université Hassan II Casablanca
 
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22  par Yvon Gervaise.pdfConférence du 10 novembre 2O22  par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdfYvon Gervaise
 
Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...
Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...
Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...Nancy BOVY
 
Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...
Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...
Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...-
 
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...Juba Ait idir
 
1 analyse-et-mesure-des-performances
1 analyse-et-mesure-des-performances1 analyse-et-mesure-des-performances
1 analyse-et-mesure-des-performancesm.a bensaaoud
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learningFrederic Simard
 
International Journal of Engineering Research and Development
International Journal of Engineering Research and DevelopmentInternational Journal of Engineering Research and Development
International Journal of Engineering Research and DevelopmentIJERD Editor
 
Perceptron monocouche en français
Perceptron monocouche en françaisPerceptron monocouche en français
Perceptron monocouche en françaisHakim Nasaoui
 
Les applications du Deep Learning
Les applications du Deep LearningLes applications du Deep Learning
Les applications du Deep LearningJedha Bootcamp
 

Semelhante a Delorme nis1998 (19)

coursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.pptcoursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.ppt
 
réseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissageréseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissage
 
A la conquête du cerveau
A la conquête du cerveauA la conquête du cerveau
A la conquête du cerveau
 
A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
 
Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdf
 
NUPIC : new concept of AI
NUPIC : new concept of AINUPIC : new concept of AI
NUPIC : new concept of AI
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
 
Rc ia-benmammar
Rc ia-benmammarRc ia-benmammar
Rc ia-benmammar
 
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22  par Yvon Gervaise.pdfConférence du 10 novembre 2O22  par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
 
Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...
Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...
Intelligence artificielle et bio-inspiration : s’adapter aux contextes change...
 
Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...
Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...
Cliques de neurones liées aux cavités fournissant un chaînon manquant entre S...
 
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
 
1 analyse-et-mesure-des-performances
1 analyse-et-mesure-des-performances1 analyse-et-mesure-des-performances
1 analyse-et-mesure-des-performances
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
 
International Journal of Engineering Research and Development
International Journal of Engineering Research and DevelopmentInternational Journal of Engineering Research and Development
International Journal of Engineering Research and Development
 
Perceptron monocouche en français
Perceptron monocouche en françaisPerceptron monocouche en français
Perceptron monocouche en français
 
Les applications du Deep Learning
Les applications du Deep LearningLes applications du Deep Learning
Les applications du Deep Learning
 

Delorme nis1998

  • 1. 1 SpikeNET : un logiciel pour modéliser de larges réseaux de neurones impulsionnels et asynchrones. Arnaud DELORME, Rufin VANRULLEN, Jacques GAUTRAIS & Simon THORPE. Centre de Recherche Cerveau & Cognition, UMR 5549 Fac. de Médecine Rangueil 133, Rte de Narbonne 31062 TOULOUSE Cedex Résumé : Quels sont les mécanismes cérébraux qui sous-tendent la prodigieuse efficacité du système visuel des primates humains et non-humains? Nous avons récemment démontré (Thorpe et al 1996) que le système visuel humain est capable d'analyser une scène visuelle complexe en moins de 150 ms, un niveau de performance qui dépasse très largement les capacités des systèmes artificiels d'analyse d’images. Ces recherches nous ont permis de dégager plusieurs principes de fonctionnement du système visuel biologique que nous croyons pouvoir compter comme facteurs clés de cette remarquable efficacité. Plus particulièrement, nous sommes convaincus que l'activité impulsionnelle et asynchrone des neurones qui composent le réseau est un élément primordial. Pour tester nos hypothèses, nous avons développé un simulateur de réseaux de neurones impulsionnels que nous avons baptisé "SpikeNET". Si, au début, le développement de SpikeNET a été surtout motivé par le désir de comprendre le fonctionnement du système visuel humain, nous nous sommes rapidement rendu compte que SpikeNET pouvait être utilisé pour développer des systèmes d'analyse d'images d'un type tout à fait original. SpikeNET a déjà été utilisé pour mettre au point des systèmes de reconnaissance capables de détecter et de localiser des visages humains dans des scènes naturelles. Introduction. Des expériences récentes viennent de démontrer très clairement la surprenante efficacité et la rapidité du système visuel (Thorpe et al 1996). Les sujets devaient effectuer une tâche de catégorisation visuelle de type "go/nogo" - répondant à la présentation d'une image uniquement lorsqu’elle contenait un animal. Le niveau de performance obtenu était remarquable (94% correct, avec un temps de réaction médian de 440 ms) malgré (1) la durée de présentation limitée à 20 ms, ce qui empêchait toute possibilité d’exploration oculaire, (2) le fait que chaque image n'était vue qu’une seule fois, ce qui empêchait toute possibilité d’apprentissage, et (3) le fait que les sujets n’avaient aucune information ni sur le type d’animal à chercher (les cibles incluaient des mammifères, des reptiles, des oiseaux, des poissons...), ni sur leur position, leur taille, leur orientation, ou le nombre d’animaux présents. L'utilisation conjointe des potentiels évoqués a de plus permis de démontrer que les réponses cérébrales évoquées lors des essais cibles et des essais distracteurs diffèrent de façon significative dès 150 ms. Le traitement visuel nécessaire pour effectuer cette tâche difficile peut donc être réalisé en moins de 150 ms. Depuis quelques années, l'universalité de l'hypothèse de codage par fréquence de décharge ("rate coding") est de plus en plus remise en question. Déjà en 1989, nous avons montré
  • 2. 2 (Thorpe et Imbert, 1989) que la rapidité avec laquelle le système visuel fonctionne est effectivement incompatible avec un traitement basé sur la fréquence de décharge des neurones. L'argument se résume ainsi: on savait que des neurones du cortex inférotemporal pouvaient répondre de façon sélective à certains stimuli complexes comme des visages avec une latence d'environ 100 ms (Perrett et al 1982); on savait également que pour atteindre ces neurones, les signaux générés par les photorécepteurs de la rétine devaient probablement traverser une dizaine de couches de neurones dans la rétine, le thalamus et les diverses aires corticales impliquées dans l'analyse visuelle (V1, V2, V4, PIT, AIT ...), ce qui ne laisse qu'une dizaine de millisecondes par couche pour effectuer le traitement. Etant donné le taux de décharge relativement faible des neurones corticaux (typiquement < 100 Hz), la plupart des neurones n'ont pas eu le temps de générer plus d'un seul potentiel d'action, ce qui pose un problème quasi insoluble pour l'hypothèse de codage par fréquence de décharge car il faut au moins deux impulsions pour pouvoir estimer la fréquence de décharge instantanée. Une estimation de la fréquence de décharge codée sur plusieurs neurones semble également exclue. En effet pour estimer une fréquence de 100Hz±10Hz en 10ms il faut 281 neurones (Thorpe et Gautrais 1997). Les neurones intégrateurs à fuite. C'est en essayant de concilier ces contraintes temporelles avec les connaissances anatomo- physiologiques du système visuel que nous avons été amenés à proposer un nouveau type de codage neuronal basé non pas sur le taux de décharge des neurones, mais plutôt sur leurs dates relatives de décharge (Thorpe et Gautrais 1997). Le principe est en fait extrêmement simple, et se base sur l'idée qu'un neurone peut être considéré non pas comme un convertisseur analogique-fréquence comme le veut le dogme neurophysiologique, mais plutôt comme un convertisseur analogique-délai. En effet, on sait que lorsqu'on active un neurone avec un courant constant, le temps nécessaire pour que le potentiel de membrane du neurone atteigne son seuil dépend de l'intensité de l'activation - plus l'activation est forte, plus le neurone va se dépolariser rapidement, et plus courte sera sa latence (figure 1-B,C). La comparaison des dates de décharges de plusieurs neurones peut ainsi coder le stimulus, comme l’illustre la figure précédente (figure 1-A). Un codage relatif des décharges des neurones offre de plus des caractéristiques intéressantes. Ainsi, le profil d'intensité de la figure 1 peut être représenté par l'ordre 0 20 40 60 80 100 0 5 10 15 20 Intensité -80 -60 -40 -20 0 20 40 60 -20 0 20 40 60 80 Temps Faible Moyenne Forte B C Latencemv A B C D E F Activation A figure 1: A, exemple de conversion d’une activation analogique en latence de décharge des neurones. C’est la latence de décharge des neurones qui code l’information. B, délai d’activation d’un neurone en fonction de l’intensité de la stimulation. C, courbe de correspondance entre la latence de décharge et l’intensité de la stimulation.
  • 3. 3 B>A>F>C>E>D. Un des avantages d'un tel type de codage est son invariance par rapport aux changements d'intensité absolue dans une image. En effet, si on double le niveau d'éclairage de l'image ou le niveau de contraste, les latences seront certes raccourcies pour tous les neurones, mais l'ordre dans lequel ils déchargeront restera identique. Ce type d'invariance, caractéristique du système visuel humain, pose de sérieux problèmes aux systèmes classiques d'analyse d’image. SpikeNET. SpikeNET est issu de ces travaux. Au départ développé pour étudier le comportement de neurones intégrateurs à fuite décrits précédemment, SpikeNET s’avère être un logiciel capable de rivaliser avec les logiciels d’intelligence artificielle les plus performants. Chaque élément neuronal est volontairement simplifié, et implique un nombre très réduit de paramètres - un niveau d'activation, un seuil et une sensibilité. Pour éviter tout type de codage fréquentiel, chaque neurone ne peut décharger (émettre un potentiel d’action) qu’une seule fois. Le mécanisme de propagation est également très simple. Le temps est discrétisé, le nombre de pas de temps pouvant correspondre au nombre de neurones afin de minimiser l’incertitude sur l’ordre exact des décharges des neurones. Un neurone, initialement à son potentiel de repos, intègre dans le temps les décharges de ses afférents en modulant leurs poids synaptiques par leur ordre d’arrivée. Cela signifie que le neurone se désensibilise au fur et à mesure qu’il reçoit des décharges de ses différents afférents. D’un point de vue plus formel, soit A = { a1 , a2 , a3 ... am-1 , am }l’ensemble des neurones afférents du neurone i, avec W = { w1,i , w2,i , w3,i ... wm-1,i , wm,i } les poids des m connexions correspondantes; soit f une fonction bornée strictement décroissante telle que lim x→+∞ f(x) = 0 . Le niveau d’activation du neurone i au temps t est donné par : Activation i,t( )= f(ordret (aj )).wj,i j∈ 1,m[ ] ∑ où ordret(aj) représente l’ordre de décharge au temps t du neurone afférent aj. Par convention, ordrei(aj) = +∞ si le neurone aj n’a pas encore déchargé au temps t, annulant ainsi le terme dans la somme qui correspond à ce neurone. Le neurone i déchargera au temps t si et seulement si : Activation(i,t) ≥ Seuil(i) Cette caractéristique fait que SpikeNET ne traite que les neurones qui émettent des potentiels d’action et son efficacité du point de vue computationnel est donc incomparablement supérieure aux réseaux de neurones matriciels classiques. figure 2 : schématisation des projections entre neurones (représentés par des carrés) dans SpikeNet. Les neurones afférents d’un neurone cible sont reliés à celui-ci par des connexions représentées en trait plein. C’est la latence relative d’activation (représentée par les différentes nuances de gris des neurones afférents) qui déterminera, en fonction des poids des connexions et de leur ordre d’arrivée le degré d’activation du neurone cible. neurone efférent neurones afférent s lim x→ +∞ f(x) = 0
  • 4. 4 Bien que cela n’ait pas encore été démontré expérimentalement, nous supposons que ce type de comportement intervient au niveau des neurones réels dans le cortex visuel. Des résultats expérimentaux récents semblent indiquer qu’un codage de ce type, c’est-à-dire une dépression du poids synaptique à très court terme, pourrait intervenir au niveau d’une seule synapse (Abbot et al 1997). De plus Markram et Tsodicks (1997) ont montré que lors de la potentiation à long terme d’une synapse d’un neurone cortical, l’efficacité de la synapse se renforce pour le premier potentiel d’action d’un train de potentiels d’action. Il semble donc que pour une synapse dont l’efficacité a été renforcée le premier potentiel d’action soit prépondérant. Enfin Markram et al (1997) ont montré que l’ordre de décharge des neurones intervient pour l’apprentissage au niveau des neurones corticaux : suivant l’ordre de décharge des neurones présynaptique et postsynaptique, l’efficacité des synapses est renforcée ou affaiblie. Exemple d’application de SpikeNET. Il s'agit d'un réseau à quatre couches. Le premier niveau correspond à la rétine et contient des cellules dites "ON-centre" et "OFF-centre". Le deuxième niveau contient huit cartes de neurones sélectifs à l'orientation des contours. Le troisième niveau contient des cellules que entraînés à répondre à des caractéristiques spécifiques des visages - l'oeil gauche, l'oeil droit et la bouche. Enfin, le quatrième niveau répond à la présence simultanée de ces trois "caractéristiques" dans des positions appropriées. La figure suivante illustre comment l'activité se propage à travers un tel réseau. Chaque pixel correspond à un neurone et pour faciliter l'interprétation, l'intensité de ces pixels dépend de l'ordre d'activation des neurones correspondants - plus la date de décharge du neurone est tardive et plus le niveau de gris est sombre. Nous constatons que l'activation dans les cartes correspondant aux yeux et à la bouche permet leur localisation précise, et que, dans la dernière couche, c’est le centre du visage lui-même que l'activité neuronale permet de déterminer. Pour de plus amples explications se référer à VanRullen et al (1998) ou la communication de VanRullen et al pour la détection de visage à plusieurs échelles.
  • 5. 5 Conclusion, perspectives. Nous travaillons actuellement à optimiser les performances de SpikeNET. L’une des caractéristiques essentielles de ce logiciel est que les communications entre les couches de neurones sont extrêmement réduites. SpikeNET est donc tout à fait adapté à une implémentation parallèle, chaque couche de neurone étant traitée par un processeur différent. Etant donné l’absence de tel matériel à un prix abordable, nous collaborons actuellement avec plusieurs entreprises européennes pour développer des cartes multiprocesseurs de type PCI pour Mac ou PC. Le traitement complet pour la recherche de visage dans une image 100*120 prend actuellement 1 seconde sur un Pentium II à 300 Mhz. Cela représente 150 000 neurones et plus de 15 000 000 de connexions. Les cartes multiprocesseurs devraient nous permettre dans les mois qui viennent d’effectuer ce traitement en temps réel sur des images vidéos 640*480. Des applications commerciales de SpikeNET sont également en cours de développement et nous sommes ouverts à tout type de collaboration. Références Abbott L.F., Varela J. A., Kamal Sen, Nelson S. B. (1997) Synaptic Depression and Gain Control. Science, 275, 220- 224. Markram H., Tsodycks M. (1997) Redistribution of synaptic efficacy between neocortical pyramidal neurons. Nature, 382, 807-810. Markram H., Lübke J., Frotscher M. (1997) Regulation of Synaptic Efficacy by Coincidence of Postsynaptic APs and EPSPs. Science, 275, 213-215. Perrett, D. I., Rolls, E. T., & Caan, W. (1982). Visual neurons responsive to faces in the monkey temporal cortex. Experimental Brain Research, 47, 329-342. Thorpe, S. J., & Gautrais, J. (1997). Rapid visual processing using spike asynchrony. In M. Jordan (Ed.), Neural Information Processing Systems, 9 (pp. 901-907). Denver. Thorpe, S. J., & Imbert, M. (1989). Biological constraints on connectionist models. In R. Pfeifer, Z. Schreter, F. Fogelman-Souli, & L. Steels (Eds.), Connectionism in Perspective. (pp. 63-92). Amsterdam: Elsevier. figure 4 : Exemple d’application de SpikeNet. A gauche, l’architecture du réseau de neurones est représentée. A droite le résultat de la propagation d’une image montre que les neurones reconaissant les visages déchargent quand un visage est présenté au centre de leur champ récepteur. Image On- ce nt r e Of f - c ent r e 9 0 ° 1 3 5 ° 1 8 0 ° 2 2 5 ° Bouche Oe il Dr oit Oe il Ga uc he V isage Image unités ON- Centre unités OFF- Centre 0 ° 45 ° 90 ° 135 ° 180 ° 225 ° 270 ° 315 ° Oeil Droit Oeil Gauche 11 Bouche Visage Niveau 1 Niveau 2 Niveau 3 Niveau 4
  • 6. 6 Thorpe, S. J., Fize, D., & Marlot, C. (1996). Speed of processing in the human visual system. Nature, 381, 520-522. VanRullen, R., Delorme, A., Gautrais, J. & Thorpe, S.J. (1998). Face processing using one spike per neurone. BioSystems, in press.