Le NEAT basé sur l'hypercube, ou HyperNEAT[1] est un codage génératif pour évoluer des réseaux de neurones artificiels (ANN) avec les principes de l'algorithme NeuroEvolution of Augmented Topologies (NEAT) développé par Kenneth Stanley[2]. Il s'agit d'une nouvelle technique pour faire évoluer des réseaux de neurones à grande échelle en utilisant les régularités géométriques du domaine de la tâche.
L'encodage génétique est indirect. L'algorithme utilise des réseaux de production de motifs de composition[3] ( CPPN ). HyperNEAT a récemment été étendu pour faire évoluer également des réseaux de neurones artificiel plastique[4] et pour faire évoluer l'emplacement de chaque neurone du réseau[5].
Quelques exemples d'utilisation
HyperNEAT, un algorithme avancé en informatique, a été appliqué dans divers domaines, démontrant son utilité et sa polyvalence. Un de ses domaines d'application est l'apprentissage multi-agents, où il a facilité l'élaboration de stratégies et de comportements complexes dans des environnements multi-agents[6]. Dans le domaine des jeux, HyperNEAT a été spécifiquement utilisé pour évaluer les performances dans le jeu de dames[7], montrant comment les algorithmes peuvent apprendre et s'adapter à des stratégies de jeu sophistiquées.
Un autre domaine d'intérêt est la robotique, où HyperNEAT a été utilisé pour contrôler des robots à pattes. Cette application a mis en lumière la capacité de l'algorithme à gérer des mouvements complexes et à adapter les comportements des robots à différentes morphologies et environnements. Cette flexibilité est particulièrement pertinente dans la création de démarches coordonnées pour des robots quadrupèdes[8],[9],[10],[11],[12],[13].
HyperNEAT a également été étudié en ce qui concerne les encodages génératifs par rapport aux encodages directs[14],[15],[16]. Cette recherche a permis d'explorer les avantages et les limites des différentes méthodes d'encodage dans le cadre de l'apprentissage automatique. Un autre axe de recherche a été l'évolution des réseaux de neurones modulaires, où HyperNEAT a été utilisé pour étudier la modularité et la scalabilité des réseaux neuronaux[17],[18],[19] mais également l'évolution de la géométrie neurale et de la plasticité dans les réseaux de neurones artificiels, soulignant son potentiel dans la simulation et la compréhension de processus biologiques complexes[20].
Enfin la conception d'objets pouvant être imprimés en 3D a également été explorée. Cela a permis de créer des structures complexes qui imitent des processus biologiques de développement[21].
↑J. Gauci and K. O. Stanley, “A case study on the critical role of geometric regularity in machine learning,” in AAAI (D. Fox and C. P. Gomes, eds.), pp. 628–633, AAAI Press, 2008.
↑Jeff Clune, Charles Ofria et Robert T. Pennock, The Sensitivity of HyperNEAT to Different Geometric Representations of a Problem, New York, NY, USA, ACM, coll. « GECCO '09 », , 675–682 p. (ISBN9781605583259, PMCID16054567, DOI10.1145/1569901.1569995)
↑Yosinski J, Clune J, Hidalgo D, Nguyen S, Cristobal Zagal J, Lipson H (2011) Evolving Robot Gaits in Hardware: the HyperNEAT Generative Encoding Vs. Parameter Optimization. Proceedings of the European Conference on Artificial Life. (pdf)
↑Lee S, Yosinski J, Glette K, Lipson H, Clune J (2013) Evolving gaits for physical robots with the HyperNEAT generative encoding: the benefits of simulation. Applications of Evolutionary Computing. Springer. pdf
↑(en) Jeff Clune, Charles Ofria et Robert T. Pennock, Parallel Problem Solving from Nature – PPSN X, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », , 358–367 p. (ISBN9783540876991, DOI10.1007/978-3-540-87700-4_36, lire en ligne)