Un cadre d'architecture cognitive neurosymbolique pour gérer les nouveautés dans les mondes ouverts
Un cadre d’architecture cognitive neuronale-symbolique pour traiter les nouveautés dans un monde ouvert
Contexte de l’article
La recherche traditionnelle en intelligence artificielle suppose que les agents intelligents fonctionnent dans un “monde fermé”, où tous les concepts pertinents pour la tâche sont connus, sans rencontrer de nouvelles situations inconnues. Cependant, dans le monde réel ouvert, des nouveautés contradictoires avec les connaissances préalables des agents surgissent inévitablement. Cet article propose une nouvelle architecture hybride neuronale-symbolique pour permettre aux agents de détecter et de s’adapter aux nouveautés, afin d’accomplir des tâches dans un monde ouvert.
Définition des nouveautés
Les nouveautés sont considérées dans cet article comme des concepts liés à l’agent. Si un agent ne peut pas déduire la représentation d’une entité à partir de sa base de connaissances, alors cette entité est nouvelle pour lui. Selon leur impact sur l’accomplissement de la tâche, les nouveautés sont classées en plusieurs types:
- Nouveautés interdites: L’agent doit représenter et raisonner sur ces nouveautés pour générer des plans permettant d’accomplir la tâche.
- Nouveautés bloquantes: Elles causent l’échec de l’exécution par les effecteurs de l’agent.
- Nouveautés bénéfiques: Maîtriser ces nouveautés permet à l’agent d’accomplir la tâche plus efficacement.
- Nouveautés non pertinentes: Sans impact sur l’accomplissement de la tâche, mais peuvent augmenter les coûts.
Architecture cognitive neuronale-symbolique
L’article propose une architecture hybride neuronale-symbolique pour détecter et s’adapter aux nouveautés, comprenant les composants principaux suivants:
Raisonnement symbolique
- Base de connaissances: Stocker les descriptions d’états symboliques, règles et opérateurs.
- Planificateur de tâches: Générer des plans d’action à partir de l’état cible.
- Gestionnaire d’objectifs: Surveiller les écarts entre l’état et les attentes, détecter les nouveautés interdites et bloquantes.
Raisonnement neuronal
- Modèle visuel: Utiliser un auto-encodeur profond pour détecter les nouveautés visuelles.
- Modèle d’agent: Modéliser le comportement des autres agents par l’apprentissage de comportement, détecter les anomalies.
Exploration des nouveautés
- Contient des algorithmes d’exploration symbolique et un explorateur par apprentissage renforci.
- Après avoir détecté une nouveauté, générer des stratégies d’exploration appropriées pour apprendre à s’y adapter.
Évaluation
Les composants et le système global ont été évalués de manière exhaustive dans l’environnement bac à sable Polycraft. Diverses situations avec nouveautés ont été simulées, où l’agent devait détecter et s’adapter pour accomplir la tâche de fabriquer un “Pogo Stick”. Les mesures d’évaluation incluent:
- Performances de détection des nouveautés: Taux de faux positifs, de vrais positifs, etc.
- Performances d’accomplissement de la tâche: Capacité de l’agent à accomplir la tâche après l’introduction de nouveautés.
Les résultats montrent que l’architecture proposée peut détecter et s’adapter efficacement à la plupart des nouveautés, tout en maintenant de bonnes performances d’accomplissement de la tâche malgré leur introduction.
Conclusion
Cet article propose une architecture cognitive neuronale-symbolique hybride permettant aux agents de détecter et de s’adapter aux nouveautés dans un monde ouvert. Combinant la planification symbolique, le raisonnement contrefactuel, l’apprentissage par renforcement et la vision par ordinateur profonde, elle explore efficacement les situations inconnues et met à jour la base de connaissances. L’évaluation dans l’environnement Polycraft montre que l’architecture proposée excelle à traiter les nouveautés. Ce travail fournit une solution précieuse pour le développement des systèmes d’IA dans un monde ouvert.