В математичній оптимізації, «мета-оптимізація» — це використання одного методу оптимізації аби налаштувати інший метод оптимізації. Одне з перших використань мета-оптимізації було наприкінці 1970х в роботі Мерсера та Сампсона[1], задля знаходження оптимальних параметрів генетичного алгоритму.
В літературі мета-оптимізація та суміжні концепції відомі, як мета-еволюція, супер-оптимізація, автоматизоване калібрування параметрів, гіпер-евристика і.т.д.
Мотивація
Такі методи оптимізації як генетичний алгоритм та диференціальна еволюція мають декілька параметрів, що керують їх поведінкою та ефективністю в оптимізації даної задачі. Ці параметри мають бути вибраними людиною щоб досягти задовільних результатів.
Параметри поведінки оптимізатора можуть варіюватися й ефективність оптимізації зображується у вигляді графіку. Такий підхід є обчислювально прийнятним за умов, що число параметрів оптимізації є невеликим та задача оптимізації легко обчислюється. Проте коли число параметрів збільшується, час на розрахунок оптимальних параметрів росте експоненційно. Ця проблема є прокляттям розмірності для простору параметрів поведінки оптимізатора, тому необхідно шукати більш ефективні алгоритми пошуку мета-параметрів.
Методи
Простий спосіб знаходження параметрів оптимізатора — імплементація нового оптимізатора, так званого мета-оптимізатора, над параметрами початкового оптимізатора. Є декілька різних підходів до застосування імплементації цього залежно від типу параметрів поведінки (дійсні, дискретні параметри) та функції обчислення ефективності.
Метаоптимізація параметрів генетичного алгоритму була виконана Грефенштеттом[2] і Кіном[3] та іншими дослідниками, а експерименти з метаоптимізацією, як параметрів, так і генетичних операторів були описані Беком.[4] Метаоптимізація алгоритму COMPLEX-RF була виконана Крусом і Андерсоном[5] і[6], де був введений і відбувся подальший розвиток індексу ефективності оптимізації на основі теорії інформації. Метаоптимізація оптимізації роїв часток була виконана Мейснером та ін.[7], Педерсеном і Чіпперфілдом[8] і Мейсоном та ін.[9]. Педерсен і Чіпперфільд застосували метаоптимізацію до диференціальної еволюції[10]. Біраттарі та інші[11][12] виконали метаоптимізацію оптимізації мурашиного алгоритму. Статистичні моделі також використовувалися, щоб дізнатися більше про зв'язок вибору параметрів поведінки та ефективності оптимізації, див., наприклад, Франсуа та Лаверня[13] та Наннена та Ейбена[14]. Сміт і Ейбен провели порівняння різних методів метаоптимізації[15].
↑
Mercer, R.E.; Sampson, J.R. (1978). Adaptive search using a reproductive metaplan. Kybernetes. 7 (3): 215—228. doi:10.1108/eb005486.
↑
Grefenstette, J.J. (1986). Optimization of control parameters for genetic algorithms. IEEE Transactions on Systems, Man, and Cybernetics. 16 (1): 122—128. doi:10.1109/TSMC.1986.289288. S2CID23313487.
↑
Keane, A.J. (1995). Genetic algorithm optimization in multi-peak problems: studies in convergence and robustness. Artificial Intelligence in Engineering. 9 (2): 75—83. doi:10.1016/0954-1810(95)95751-Q.
↑
Bäck, T. (1994). Parallel optimization of evolutionary algorithms. Proceedings of the International Conference on Evolutionary Computation. с. 418—427.
↑
Krus, PK.; Andersson (Ölvander), J. (2003). Optimizing optimization for design optimization. Proceedings of DETC’03 2003 ASME Design Engineering Technical Conferences and Computers and Information in Engineering Conference Chicago, Illinois, USA.
↑
Birattari, M.; Stützle, T.; Paquete, L.; Varrentrapp, K. (2002). A racing algorithm for configuring metaheuristics. Proceedings of the Genetic and Evolutionary Computation Conference (GECCO). с. 11—18.