3. Le choix d'une décomposition
Etant donné un pb à résoudre, comment choisir les agents qui vont
intervenir dans le système et comment leur répartir la compétence?
Grand nombre de décompositions possibles
– objet
– spatiale
– fonctionnelle
– etc.
Différents grains possibles
– société
– individu
– organe
– cellule
– atome
– ...
4. 4
Point de vue Agent Organisation
IA connaissances et croyances
savoir-faire et intentions
communication
conflits et cohérence
contrôle et coordination
Vie Artificielle comportement
perception
adaptation
couplage à l'environnement
influences et dépendances
co-détermination
individu/collectif
Génie Logiciel encapsulation
héritage
distribution
ouverture
5. Les différents concepts et composants d’un
SMA
Problème central : de quel comportement doter les agents et comment les faire
interagir entre eux et avec l’environnement pour répondre au «problème» posé ?
Méthode «Voyelle» : définir les composants d’un système multi-agents selon :
•Agents,
•Environnement,
•Interaction
•Organisation
•(Utilisateur) : cf cours Anne Boyer «Assistant Intelligent»
6. Le choix d'un modèle d'agent
Agents cognitifs - Intelligence Artificielle Distribuée
agent = métaphore psychologique
– connaissance décrite en termes d’états mentaux
– comportement intentionnel (buts et plans explicites)
système = métaphore sociologique
Agents réactifs - Vie Artificielle
agent = métaphore animale
– connaissances réduites à l’association de stimuli et de réponses
– comportement dirigé par les perceptions
système = métaphore socio-biologique
7. Agents
L'agent (Ferber 95)
– entité réelle ou virtuelle plongée dans un environnement sur lequel
elle est capable d'agir,
– qui dispose d'une capacité de perception et de représentation partielle
de cet environnement
– qui peut communiquer avec d'autres agents
– qui est mue par un ensemble de tendances (objectifs individuels,
fonctions de satisfaction, de survie)
– qui possède un comportement autonome tendant à satisfaire ses
objectifs, conséquence de ses observations, de sa connaissance, et des
interactions qu'elle entretient avec les autres agents
– qui est capable éventuellement de se reproduire
• point de vue local, imparfait, incertain
• ressources limitées
• Adaptation & Apprentissage, Dépendance aux autres & Socialité
8. Une Recherche de Compromis
Communication
AutonomyAdaptation
Il est autonome
mais ouvert à la
communication
Il est autonome
mais ouvert à
l'adaptation
Il s'adapte mais
cherche à produire
son point de vue
10. • Agent purement situé:
– l'environnement possède une métrique,
– les agents sont situés à une position dans l'environnement
qui détermine ce qu'ils perçoivent;
– ils peuvent se déplacer;
– il n'y a pas communications directes entre agents, elle se
font via l'environnement
• Agent purement communiquant:
– il n'y a pas d'environnement au sens physique du terme,
– les agents n'ont pas d'ancrage physique,
– ils communiquent via des informations qui circulent entre
les agents
Concept 1 : Agent
Situé ou Communiquant
11. Cognitif ou Réactif
• Agent cognitif:
– représentation explicite de l'environnement et des autres agents
– peut tenir compte de son passé et dispose d'un but explicite
– mode "social" d'organisation (planification, engagement)
– petit nombre d'agents (10/20), hétérogènes à gros grain
• Les relations entre agents s'établissent en fonction des collaborations
nécessaires à la résolution du problème
• Agent réactif:
– pas de représentation explicite de l'environnement
– pas de mémoire de son histoire, ni de but explicite
– comportement de type stimulus réponse
– mode "biologique "d'organisation
– grand nombre d'agents (>100), homogènes à grain fin
• La structure du système émerge des comportements et non d'une
volonté d'organisation
12. Définir :
- Architecture interne
-Degré de couplage de l’agent à l’environnement on peut
considérer plusieurs catégories d’agent :
Fort réactif : Comportement dirigé par les changements de l’environnement
hybride
Faible délibératif (cognitif) Comportement dirigé par les buts à satisfaire
Couplage à l’environnement
14. Agents réactifs : Architecture
à subsomptions(R. Brooks 1986)
Architecture à subsomption (architecture interne) : la + connue des
architectures d’agents réactifs
3 idées clés : comportement intelligent peut être généré
(1) sans représentation explicite (à l’encontre de l’IA symbolique)
(2) sans raisonnement abstrait explicite (à l’encontre de l’IA symbolique)
(3) l’intelligence est une propriété émergente de certains systèmes complexes due aux
interactions.
15. 2 caractéristiques :
•La prise de décision d’un agent est réalisée à travers un ensemble de
modules comportementaux correspondant à la tâche à réaliser.
Comportement implémenté sous la forme de
règles : situation →action
•La résolution de conflit lorsque plusieurs comportements peuvent
être déclenchés à un instant donné
-arranger les modules d’action dans une hiérarchie de
subsomptions selon différentes couches
-les hauts niveaux peuvent inhiber les niveaux inférieurs
16. L’architecture de Subsomption fondée sur des couches organisées de bas en haut, à
partir des organes sensorimoteurs, en une hiérarchie de modules à comportement
limité.
Chaque niveau a un rapport de dominance sur le module de niveau inférieur :
17. Exercice : les robots explorateurs
L'objectif est de réaliser un collectif de robots pour explorer une planète éloignée.
Le but de ces robots est de collecter des échantillons de minerai sur le sol. La
localisation de ces échantillons est inconnue au départ. Les robots mémorisent la
localisation de la base d'où ils viennent et où ils doivent ramener les minerais
collectés. Ils n'ont pas de carte de la région à explorer, par contre ils savent que
cette région comporte des obstacles infranchissables. Pour simplifier, on suppose
qu'un robot possède une énergie lui permettant de fonctionner indéfiniment. (figure
suivante)
Dans le cadre de l'architecture à subsomption définir:
- les règles ou modules comportementaux d’un robot ‘solitaire’
- la hiérarchie de subsomptions
Même question pour un ensemble de robots coopératifs
19. Réponses : modules comportementaux =
Explorer
Prélever
Aller à la base
Déposer
Éviter obstacle
20. Modules comportementaux pour robot
sous forme de règles (non coopératif)
règle 1 : si détecte un obstacle alors changer de direction
règle 2 : si porte un échantillon et à la base alors déposer l’échantillon
règle 3 : si porte un échantillon et pas à la base alors suivre gradient (retour)
règle 4 : si détecte un échantillon alors le prélever
règle 5 : si vrai alors se déplacer aléatoirement
Imaginons que le robot ait le choix entre la règle 1 et la règle3. Que doit-il faire ?
Même question pour les règles 4 et 3.=> hiérarchie de déclenchement ?
22. Exemple d’implantation de l’architecture à subsomption
Robots explorateurs de Mars (Steels89)
Priorité Niveau 5 > priorité Niveau 4 > …
23. Exemple de règles pour robots coopératifs
poser 2 marques au retour et enlever 1 à l’aller :
la règle 3 est remplacée par :
règle 3bis : si porte un échantillon et pas à la base alors lâcher 2 marques
radioactives et suivre gradient (retour)
=> une nouvelle règle :
règle 6 : si perçoit des marques alors retirer 1 marque et suivre le gradient
(aller)
Hiérarchie des priorités de déclenchement ?
24. La hiérarchie de comportements :
règle1 > règle2 >règle3bis> règle4 >règle6> règle5
règle6 > règle 5 :
le robot choisira préférentiellement de suivre une marque
plutôt que de se déplacer aléatoirement.
26. Modèles en éthologie: I.R.M.
• Konrad Lorenz (~1950, Innate Releasing Mechanism)
• Modèle d' activation de comportement
Autres Architectures
27. Niveau 1 - Niveau des principaux instincts
(buts profonds) Ex: instinct reproductif
Niveau 2 - Niveau des instincts secondaires
(sous-buts) Ex:combat, soins aux jeunes, ...
Niveau 3 - Comportements consommatoires
(séquences fixes d'actions ) Ex:chasser,
parader, menacer,..
Niveau 4, 5 et 6 - subdivisions d'actions de
"base » (actions)
Modèles en éthologie: Nikolaas Tinbergen
Modèle hiérarchique de sélection de comportements ( psychologie finaliste)
Distingue entre comportements appétitifs et consommatoires
28. Modèles : ANA
Patti Maes 91 - Agent Network Architecture
Modèle semi-hiérarchique de sélection d'actions
Caractéristiques:
• Mixte Ethologie / Vie Artificielle
• Bien adapté à des agents ayant des comportements différents
• Forte redondance des actions de base (flee-from-...) en cas de
comportements similaires
• Difficile à concevoir et à tester
– multiplicité des liens
– dynamique importante
• Bonne ouverture à l'apprentissage
– renforcement des liens
29. Modèles : EMF (l’EthoModeling Framework)
Modèle non hiérarchique de sélection de tâches (IRM + fixed action patterns)
(sert de base pour le projet MANTA)
EMF Proposé par A. Drogoul (1991-2000) ;
Utilise le modèle d’activité instictive de
Konrad Lorenz: Les fondements de l’ethologie, 1984, Champs Flammarion
31. Agent cognitif versus Agent réactif
•Représentation du monde
Symbolique
•Comportement
Orienté but
•Fondements
I.A.
(Denett, Bratman…)
•Représentation du monde
Sub-symbolique (perceptions)
•Comportement
Réflexe
•Fondements
Inspiration éthologique, bio,..
(Brooks)
SMA Cognitifs : accent mis sur l'action, la décision et l'interaction dans un
contexte collectif (inspiration socio-mimétique) Capacités d’apprentissage et
d’adaptation à l’environnement
32. Agents cognitifs : architecture BDI «Beliefs, Desires,
Intentions»
Fondés sur des extensions de la logique, «Practical Reasoning»
(raisonnement pratique) en philosophie
Deux processus
•Décider quels buts poursuivre : Quoi ? ⇔délibérations
•Décider comment les réaliser : Comment ? ⇔means-end reasoning
Analyse «des fins et des moyens» (Aristote)
«BUT : Je veux emmener mon fils à l’école.
Quelle est la différence entre ce que j’ai et ce que je veux ? une distance.
Qu’est-ce qui change une distance ? Mon automobile. Mon automobile est en panne.
De quoi ai-je besoin pour la faire fonctionner ? Une batterie neuve.
Qui a des batteries neuves? Un garage. Je veux que le garage mette une batterie neuve;
Le garage ne sais pas que je veux une batterie neuve.
Quelle est la difficulté ? De communication.
Qu’est-ce qui permet de communiquer ? Un téléphone …»
Analyse sous forme de séquences : de fin, de fonction nécessaire et de
moyen qui réalise cette fonction.
33. Agents cognitifs : architecture BDI «Beliefs, Desires,
Intentions»
Face à une décision : «Practical reasoning»
•Avoir certaines informations, connaissances sur le problème
(«croyances»)
•Envisager les options possibles et les états que l’agent souhaite
atteindre («desires»), les états peuvent être contradictoires
•Choisir certains états à atteindre («Intentions»)
34. Mise à jour à partir des croyances et des
perceptions
Informations sur l’environnement courant
Fonction déterminant les options
possibles selon les intentions et les croyances
Ensemble des options courantes
Processus de délibération déterminant
l’engagement vis à vis des intentions (abandon,
maintien)
Ensemble des intentions sur lesquelles se
focalise l’agent
Processus de sélection de l’action à exécuter
Principe d’une architecture BDI
37. Agent structuré en couches
•Souvent, mais pas toujours, architectures délibératives
•Prise de décision en séparant les niveaux software
•Chaque couche raisonne à un niveau d’abstraction
•Les couches interagissent
Couches de 2 types :
•Couches verticales : perception (in) et action (out) réalisées par une même couche
•Couches horizontales : chaque couche est directement connectée à la perception
(in) et l’action (out)
38. Conception par couches
Typiquement, au moins 2 couches, une pour le comportement réactif et une pour le
comportement proactif
Possibilité de concevoir plusieurs couches
Topologie: information et contrôle de flux entre plusieurs couches :
39. Horizontal
Chaque couche agit comme un agent : indépendance, simplicité
pour n comportements différents, on implémente n couches
compétition entre couches : gestion des incohérences
Besoin d’une médiation entre couches : complexité grande, et contrôle difficile.
Vertical
Complexité faible, pas de goulot d’étranglement au niveau du contrôle.
Moins flexible et peu tolérante aux fautes : une décision nécessite tous les niveaux.
Couches : Avantages et inconvénients
41. TOURINGMACHINES
3 couches produisent des suggestions d’action
•Réactive : implémente des règles de situation-action comme dans
l’architecture de subsumption de Brooks
•Planification : réalise la proactivité via des plans basés sur une
librairie de squelettes de plans
•Modélisation : modèle du monde, autres agents, soi, prédit les
conflits, génère des buts et les résout.
Domaine d’utilisation : véhicules multiples
44. INTERRAP
Architecture en couches verticale, avec 2 passes
Les couches ont le même fonctionnement que dans la TOURINGMACHINES
Chaque couche est associée à une base de connaissances
Les couches interagissent :
De bas vers le haut (bottom-up) : activation
De haut vers le bas (top-down) : exécution
45. Concept 2 : Interaction
Définitions
•Toute action (ou ensemble de) qui affecte l’agent dans la réalisation de son but, de sa
tâche.
•Mise en relation dynamique de deux ou de plusieurs agents par le biais d’un ensemble
d’actions réciproques.
•Existence d’une interaction lorsque la dynamique propre d’un agent est perturbée par
les influences des autres
Exemples
•Construction d’une maison par plusieurs ouvriers
•Collision de voitures
•Mise en commun d’expertises
46. Le choix de techniques de coordination
Motivations
capacités individuelles insuffisantes (ex: charges trop lourdes à transporter)
cohérence (réguler les conflits sémantiques: buts contradictoires, accès
aux ressources...)
efficacité, traitement de l'incertain
recomposition des résultats - solutions partielles
Techniques
planification centralisée, semi-centralisée (synchronisation de plans individuels),
décentralisée
synchronisation d'accès aux ressources
– algorithmique répartie
– règles sociales
négociation
– numérique, symbolique (agrégation, argumentation), démocratique (vote,
arbitrage), utilitarisme (théorie des jeux)
sans communication explicite
– environnement, reconnaissance d'intentions
47.
48. Situations d’interaction
Classement des situations d’interaction selon les buts, les
ressources et les compétences des agents :
•Buts compatibles ou incompatibles
•Ressources suffisantes ou insuffisantes
•Compétences suffisantes ou insuffisantes
⇒Indifférence, coopération, antagonisme
50. Le choix d'un modèle de communication
Environnement
perception / action (ex: consommation de ressources)
traces (ex: phéromones)
Symbolique (messages)
médium (réseau, voix, vision)
participants
– individuel - point à point
– partagé - multicast
– global - broadcast
– publish / subscribe (événements)
Actes de langage
"dire c'est faire" : des phrases ne sont pas vraies ou fausses, elles constituent des actions
de langage
La communication est pragmatique
– elle explique généralement ce qui est accompli plus que ce à quoi cela se réfère
– demander de faire quelque chose est une manière d’atteindre un but
51. La Communication : un moyen de gérer les interactions
Problématique de la communication
Quelques questions à se poser :
•Avec qui les agents communiquent-ils ?
Communication sélective ou diffusée (cf réseau d’accointances)
•Pourquoi les agents communiquent-ils ?
Coopération et coordination d’actions ou négociation
(coordination : éviter les activités redondantes
négociation : c’est l’inverse de la coordination, surtout en environnement compétitif ou avec
des agents concurrents ou égoïstes)
•Quand les agents communiquent-ils ?
Demande ou besoin d’un agent, …
•Que communiquent-ils ?
Croyances, intentions, tâches, …
•Comment les agents communiquent-ils ?
Langage de communication compréhensible
52. 2 types de communication :
•Communication indirecte : Partage d’informations
- via un tableau noir,
- via l’environnement : phéromones, modification de l’environnement + capteurs
•Communication directe (interaction délibérative):
- Envoi de messages point à point, diffusion totale, restreinte, …
-Suppose différentes compétences au sein d’un agent: d’envoi, de réception, d’ interprétation
53. Fondements de la communication directe:
Sources multiples :Linguistique, philosophie du langage, psychologie cognitive et
sociale, sociologie
Linguistique informatique, intelligence artificielle (cfcours TAL en M1 SCA de G.
Perrier, L Knittel)
Pragmatique conversationnelle [Habermas] (cfcours « pragmatique du langage » en
L3 de F. Duval )
Intention dans les communications
•Prise en compte des états mentaux (ex : BDI)(cfcours « philosophie de l’esprit
» en L3 ISC de M. Rebuschi)
Théorie des actes de langages(Speech Acts) [Austin 62, Searle 72,
Vanderveken88](cfcours « interaction langagière » en L3 Sciences Code C. Brassac)
54. Actes de langage (Aperçu)
Théories des actes de langages sont des théories relatives à l’utilisation du langage
(pragmatique)
Cadre d’analyse des échanges inter humains
« How to do things with words» (« Quand dire c’est faire ») [Austin 62]
⇒Toute communication est faite avec l’objectif de satisfaire un but, une intention
Intention pas toujours évidente :
«j’ai froid» peut signifier «ferme la porte», «donne moi mon pull» (requêtes déguisées),
«il fait froid» (affirmation)
55. Actes de langages
On distingue trois composantes à l’acte
1.acte locutoire: production d’une suite de signes selon les règles syntaxiques d’un
langage donné (acte de dire quelque chose )
2. acte illocutoire: acte réalisé en produisant une suite de signes dans un contexte
donné, exprimant une intention (⇒intention du locuteur)
noté A=F(P) Acte=Force(Proposition),
P le contenu propositionnel et F la force illocutoire.
3. acte perlocutoire: elle porte sur les effets de l’acte vis à vis du destinataire
(changement d’état interne, action, …) (⇒conséquence, effet sur le destinataire)
56. Actes de langages : verbes performatifs
Typage des messages: Utilisation d’un champ «force illocutoire» à l’aide de verbes
performatifs pour restreindre les ambiguïtés d’un message
•Exemples : convaincre, promettre, ordonner
Exemples de classes de force:
•Assertif (assertion ou fait) : penser, affirmer, dire, informer
•Directif (commande) : demander, avertir, réclamer, supplier
•Commissif (engagement) : promettre, garantir, refuser
•Déclaratif (assertion ou fait) : déclarer, stipuler, ratifier
•Expressif (expression d’émotion) : féliciter, excuser, approuver, déplorer
57. Actes de langages : Succès et satisfaction
Accomplissement associé à des conditions de succès et de satisfaction
.Indiquent dans quel cadre l’acte réussit.
conditions de succès:
•ce qui doit être vérifié dans le cadre de l’énonciation
•s’appuient principalement sur F
Ex : l’acte de communication est réussi si le destinataire a compris qu’il fallait
fermer la porte, mais l’acte n’est pas forcément satisfait …
conditions de satisfaction:
•aspect perlocutoire: tiennent compte de l’état du monde résultant de l’acte.
•s’appuient principalement sur P et sa valeur de vérité.
Ex : l’acte est satisfait si le destinataire ferme effectivement la porte
58. Langages de communication basés sur les actes de
langage
Actes de langage = Théorie abondamment utilisée pour spécifier comment
communiquer entre agents
Définition de langages de communication entre agents = ACL (Agent
communication Language) : KQML(Knowledge Query and Manipulation
Language) , etc.
KQML
•Définition d’un ensemble de performatifs
•Principalement assertifs et directifs
•Possibilité d’utiliser différents langages d’expression du contenu échangé : KIF,
LISP, PROLOG, KQML (imbrication de messages KQML)
•Permet d’inclure dans le message tout ce qui est nécessaire à sa compréhension
59. KQML
Syntaxe à 3 niveaux :
•Message : pour spécifier le type d’acte (performatif), le langage d’ expression
du message (PROLOG, ..),,et l’ontologie (spécification de vocabulaire, d’objets,
de concepts et de relations dans un domaine d’intérêt )
•Communication : pour identifier l’émetteur le récepteur et le message
•Contenu
61. Un Exemple
(inform
:sender A
:receiver B
:reply-with laptop
:language KIF
:ontology ordinateurs
:content (=(prix HP-Jet) (scalar 1500 USD))
:reply-by 10
:conversation-id conv01
)
Sender: l’émetteur du message
Receiver:le destinataire du message
reply-with: identificateur unique du message, en vue d'une référence ultérieure
Language: le langage dans lequel le contenu est représenté
Ontology: le nom de l'ontologie utilisé pour donner un sens aux termes utilisés dans le
content
Content: le contenu du message (l’information transportée par la performative)
reply-by: impose un délai pour la réponse
conversation-id: identificateur de la conversation
62. KQML
Permettre aux agents cognitifs de coopérer
Indépendant du mécanisme de transport (TCP/IP, SMTP, ou autre)
Indépendant du langage du contenu échangé (KIF, SQL, Prolog ou autre)
Indépendant de l'ontologie utilisée
=> Peu de contraintes de développement
Mais …
Manque de certains performatifs (ex: engagement)
Incohérence ou inutilité de certains performatifs
Ambiguité et imprécision
Manque de définition et de formalisation
Pas de cadre pour gérer les agents
Solution ? Premier pas vers la normalisation d’un ACL:
Définition d’un ensemble minimum de performatifs avec possibilité de les
composer ⇒ FIPA (Fundation for Intelligent Physical Agents:
www.fipa.org )
64. KIF en quelques mots
•Knowledge Interchange Format (effort DARPA)
•Langage de description
•Lisible par une machine et un humain
•version préfixée du calcul des prédicats du 1erordre.
•une spécification pour la syntaxe
•une spécification pour la sémantique.
•Exemples: devinez ce qui est exprimé?
•(> (* (width chip1) (length chip1)) (*(width chip2) (length chip2)))
ouencore
•(=> (and (real-number?x) (even-number?n)) (> (expt?x?n) 0)))
65. Concept 3 : Environnement
Environnement du SMA: « espace » commun aux agents du système,
doté d’un ensemble d’objets du problème
Environnement d’un agent: ce qui est extérieur à l’ agent =
l’environnement du SMA + la représentation des autres agents dans le
monde
--- ET les Caractéristiques déjà vues ……………………………….
66. Environnement
1. Spécification de l’environnement
Première étape lors de la conception d’un agent : déterminer l’environnement de la tâche.
Cette conception comprend :
- P : mesure de la performance
- E : environnement de l’agent (le monde (contexte) dans lequel il évolue)
- A : effecteurs
- S : capteurs
Exemple du taxi automatique :
- P = sécurité, vitesse, respect des lois, confort, profits,…
- E = routes, autres véhicules, piétons, clients,…
- A = volant, accélérateur, frein, clignotant, klaxon,…
- S = caméras, sonar, indicateur de vitesse, capteurs du moteur,…
Intelligence Artificielle IAD/SMA
67. -Complètement/partiellement observable
• Complètement observable si on observe effectivement l’environnement entier, ou au moins
toutes les informations nécessaires à l’agent pour prendre une décision.
• Partiellement si il y a du bruit ou si une partie du monde est simplement masquée
(l’aspirateur ne peut pas savoir s’il y a de la saleté en B quand il est en A).
-Déterministe/stochastique
• On parle du point de vue de l’agent !
Un monde déterministe mais dont l’observation est partielle pourra paraître stochastique à
l’agent.
• Un monde est déterministe pour l’agent si le prochain état ne dépend que de l’état actuel et
de l’action que l’agent va réaliser.
• Si le monde est déterministe à la seule exception des autres agents, il est dit stratégique.
2. Propriétés de l’environnement
Intelligence Artificielle IAD/SMA
68. - Épisodique/séquentiel
• Episodique : le changement d’état de l’environnement ne dépend que de son état actuel, et
pas des états passés (pas de planification possible).
• Séquentiel : une décision prise à un moment donné va avoir un impact dans le futur (taxi,
échecs). Les environnements épisodiques sont plus simples à gérer.
- Statique/dynamique
• Dynamique : l’environnement peut changer même si l’agent ne fait rien (taxi automatique).
• Statique : le contraire. Plus simple à gérer car l’agent n’a pas à surveiller le monde en
permanence (mots-croisés.
• Semi-dynamique : l’environnement ne change pas au cours du temps, mais l’évaluation de sa
performance oui (échecs chronométrés).
Intelligence Artificielle IAD/SMA
69. - Discret/continu
• La distinction peut s’appliquer :
-A l’état du monde.
-A la façon de gérer le temps.
-Aux percepts.
-Aux actions.
• Ex :
jeu d’échecs est discret pour tout sauf le temps.
Taxi est continu pour tout
- Mono-agent/Multi-agent
• On parle du point de vue de l’agent
• Il peut être plus efficace en termes de performance de considérer un agent (extérieur) comme
un objet ayant un comportement aléatoire.
• Compétition : multi-agents entrant en conflit (jeu d’échecs).
• Coopération : multi-agents oeuvrant ensemble (taxi automatique et les autres véhicules
(partiellement coopératifs)).
Intelligence Artificielle IAD/SMA
70. Propriétés de l’environnement
Situation la plus difficile:
–Partiellement observable
–Stochastique
–Séquentielle
–Dynamique
–Continue
–Multi-agent
Exemple: conduite automatisée d’un taxi
Intelligence Artificielle Agents Intelligents
71. Mesure de performance
Formellement, la mesure de performance se présente sous la forme d’une fonction associant un
nombre réel à la succession des états de l’environnement :
V: S∗→R
où S* est l’ensemble des historiques possibles.
- la mesure doit être la plus objective possible, c’est pourquoi elle dépend de
l’environnement, elle est extérieure à l’agent. Par exemple un agent humain n’est pas
forcément objectif quand il s’agit de s’auto-évaluer : certaines personnes se surestiment,
d’autres se sous-estiment.
- La mesure doit être pertinente par rapport à l’objectif souhaité.
- Pour résumer :
Externe
Fixée par le concepteur
Propre à la tâche
Intelligence Artificielle IAD/SMA
72. Concept 4 : Organisation
Le choix d'un modèle d'organisation
3 points de vue
organisations rationnelles
– collectivités à finalités spécifiques
– objectifs, rôles, relations (dépendances...), règles
organisations naturelles (végétatives)
– objectif en lui-même : survie (perpétuer l'organisation)
– stabilité, adaptativité
systèmes ouverts
– inter-relations /dépendances avec d'autres organisations,
environnement(s)
– échanges, coalitions
Organisations abstraites
rôles (client, producteur, médiateur)
spécialisation des agents (simplicité vs flexibilité)
redondance des agents (efficacité vs robustesse)
relations (dépendances, hiérarchie, subordination, délégation)
protocoles d'interaction / coordination
gestion des ressources partagées
73. Organisation
Notion duale:
•Structure décrivant comment les membres de l'organisation sont en relation : aspect
statique
•Processus de construction d'une structure : auto-organisation, ré-organisation,
émergence : aspect dynamique
Quelques inspirations
•Militaire, Entreprise, Marché d’échange, Équipe sportive.
•Biologie, …
Approche organisationnelle / approche émergentiste