Бустинг

Бустинг[источник не указан 514 дней] (англ. boosting — усиление) — ансамблевый метаалгоритм машинного обучения, применяется главным образом для уменьшения смещения (погрешности оценки), а также дисперсии[1] в обучении с учителем. Также определяется как семейство алгоритмов машинного обучения, преобразующих слабые обучающие алгоритмы в сильные[2].

Бустинг основан на вопросе, поднятом Кернсом и Вэлиантом (1988, 1989)[3][4]: «Может ли набор слабых обучающих алгоритмов создать сильный обучающий алгоритм?». Слабый обучающий алгоритм определяется как классификатор, который слабо коррелирует с правильной классификацией (может пометить примеры лучше, чем случайное угадывание). В отличие от слабого алгоритма, сильный обучающий алгоритм является классификатором, хорошо коррелирующим с верной классификацией.

Положительный ответ Роберта Шапире в статье 1990 года[5] на вопрос Кернса и Вэлианта имел большое значение для теории машинного обучения и статистики, и привёл к созданию широкого спектра алгоритмов бустинга[6].

Гипотеза о бустинге относилась к процессу настройки алгоритма слабого обучения для получения строгого обучения. Неформально, спрашивается, вытекает ли из существования эффективного алгоритма обучения, выходом которого служит гипотеза, эффективность которой лишь слегка лучше случайного гадания (то есть слабое обучение), существование эффективного алгоритма, который даёт гипотезу произвольной точности (то есть сильное обучение)[3]. Алгоритмы, которые получают быстро такую гипотезу, становятся известны просто как «бустинг». Алгоритм «arcing» Фройнда и Шапире (Adaptive Resampling and Combining)[7], как общая техника, является более-менее синонимом бустингу[8]

Алгоритмы бустинга

В то время как бустинг алгоритмически не ограничен, большинство алгоритмов бустинга состоит из итеративного обучения слабых классификаторов с целью сборки их в сильный классификатор. Когда они добавляются, им обычно приписываются некоторым образом веса, которые, обычно, связаны с точностью обучения. После того, как слабый классификатор добавлен, веса пересчитываются, что известно как «пересчёт весовых коэффициентов»[англ.]. Неверно классифицированные входные данные получают больший вес, а правильно классифицированные экземпляры теряют вес[nb 1]. Тем самым последующее слабое обучение фокусируется больше на примерах, где предыдущие слабые обучения дали ошибочную классификацию.

Есть много алгоритмов бустинга. Исходные алгоритмы, предложенные Робертом Шапире (рекурсивное доминирование, англ. recursive majority gate formulation) [5] и Йоавом Фройндом (бустинг по доминированию)[9], не были адаптивными[англ.] и не могли дать полного преимущества слабых обучений. Шапире и Фройнд затем разработали AdaBoost (Adaptive Boosting) — адаптивный алгоритм бустинга, который выиграл престижную премию Гёделя.

Только алгоритмы, для которых можно доказать, что они являются алгоритмами бустинга в формулировке приближённо правильного обучения, могут быть точно названы алгоритмами бустинга. Другие алгоритмы, близкие по духу алгоритмам бустинга, иногда называются «алгоритмами максимального использования» (англ. leveraging algorythms), хотя они иногда также неверно называются алгоритмами бустинга[9].

Основное расхождение между многими алгоритмами бустинга заключается в методах определения весовых коэффициентов[англ.] точек тренировочных данных[англ.] и гипотез. Алгоритм AdaBoost очень популярен и исторически наиболее знаменателен, так как он был первым алгоритмом, который смог адаптироваться к слабому обучению. Алгоритм часто используется как базовое введение в алгоритмы бустинга в курсах машинного обучения в университетах[10]. Есть много недавно разработанных алгоритмов, таких как LPBoost[англ.], TotalBoost, BrownBoost, xgboost[англ.], MadaBoost, LogitBoost[англ.] и др.. Многие алгоритмы бустинга попадают в модель AnyBoost[9], это показывает, что бустинг осуществляет градиентный спуск в пространстве функций[англ.] используя выпуклую функцию потерь[англ.].

Классификация признаков в компьютерном зрении

Если даны изображения, содержащие различные известные в мире объекты, классификатор может быть обучен на основе них для автоматической классификации объектов в будущих неизвестных изображениях. Простые классификаторы, построенные на основе некоторых признаков изображения объекта, обычно оказываются малоэффективными в классификации. Использование методов бустинга для классификации объектов — это путь объединения слабых классификаторов специальным образом для улучшения общей возможности классификации.

Задача классификации объектов

Классификация признаков[англ.] является типичной задачей компьютерного зрения, где определяется, содержит ли изображение некоторую категорию объектов или нет. Идея тесно связана с распознаванием, идентификацией и обнаружением. Классификация по обнаружению объекта обычно содержит выделение признаков, обучение классификатора и применение классификатора к новым данным. Есть много способов представления категории объектов, например по анализу формы[англ.], с помощью модели «мешок слов», с помощью локальных описателей, таких как SIFT, и так далее. Примерами классификаторов с учителем служат наивные байесовские классификаторы, методы опорных векторов, смесь гауссиан[англ.] и нейронные сети. Однако исследования показали, что категории объектов и их положение в изображениях могут быть обнаружены также с помощью обучения без учителя[11].

Статус кво для классификации объектов

Распознавание категорий объектов в изображениях является сложной задачей в компьютерном зрении, особенно если число категорий велико. Это является следствием высокой внутренней изменчивости классов и необходимости обобщения различных понятий внутри класса. Объекты в одной категории могут выглядеть совершенно различными. Даже один и тот же предмет может выглядеть непохожим с различных точек обзора, при другом масштабе[англ.] или освещении[англ.]. Шум заднего плана и частичные наложения также добавляют сложности в распознавание[12]. Люди способны распознавать тысячи типов объектов, в то время как большинство существующих систем распознавания объектов тренируются для распознавания лишь нескольких, например человеческих лиц, автомобилей, простых объектов и т. д.[13]. Исследования по увеличению числа категорий и возможности добавления новых категорий ведутся активно и, хотя общая проблема пока не решена, разработаны детекторы большого числа категорий (до сотен и тысяч[14]). Достигается это, в частности, с помощью совместного использования признаков[англ.] и бустинга.

Бустинг для двоичной классификации

Пакет AdaBoost может быть использован для распознавания лиц как пример двоичной классификации. Две категории — это лица и фон. Общий алгоритм выглядит следующим образом:

  1. Формируем большой набор признаков
  2. Инициализируем веса для тренировочного набора изображений
  3. Делаем T прогонов
    1. Нормализуем веса
    2. Для доступных признаков из набора тренируем классификатор, используя один из признаков и вычисляем ошибку тренировки
    3. Выбираем классификатор с наименьшей ошибкой
    4. Обновляем веса тренировочных изображений: увеличиваем, если классифицировано неверно, и уменьшаем, если верно
  4. Формируем окончательный сильный классификатор как линейная комбинация T классификаторов (коэффициент больше, если ошибка тренировки меньше)

После бустинга классификатор, построенный из 200 признаков, может достигать 95 % успешных распознаваний при ошибок положительного распознавания[15].

Другое приложение бустинга для двоичной классификации — система, которая распознаёт пешеходов с помощью паттернов движения и внешности[16]. В этой работе впервые комбинируется информация о движении и внешность как признаки для обнаружения движущегося человека. В работе предпринимается подход, похожий на модель обнаружения объектов Виолы — Джонса.

Бустинг мультиклассовой классификации

По сравнению с двоичной классификацией, мультиклассовая классификация[англ.] разыскивает общие признаки, которые могут использоваться совместно категориями в одно и то же время. Они оказываются более общими наподобие признака «граница». Во время обучения классификаторы для каждой категории могут быть тренированы совместно. По сравнению с раздельной тренировкой такая тренировка обладает лучшей обобщаемостью, требует меньше тренировочных данных и нужно меньше признаков для достижения необходимого результата.

Основная работа алгоритма похожа на двоичный случай. Разница заключается в том, что мера совместной ошибки тренировки может быть определено заранее. Во время каждой итерации алгоритм выбирает классификатор одного признака (признаки, которые могут быть совместно классифицированы, поощряются). Это может быть сделано путём преобразования мультиклассовой классификации в двоичную (набор категорий / остальные категории) [17] или путём введения штрафа от категорий, которые не имеют признаков, распознаваемых классификатором[18].

В статье «Sharing visual features for multiclass and multiview object detection» (Совместное использование визуальных признаков для мультиклассового обнаружения объектов в нескольких проекциях), А. Торральба с соавторами использовали GentleBoost для бустинга и показали, что, если тренировочные данные ограничены, обучение с помощью совместно используемых признаков делает работу много лучше, чем без совместного использования. Также для заданного уровня производительности общее число признаков, требующихся (а потому и время работы классификатора) для обнаружения совместного использования признаков, растёт примерно логарифмически от числа классов, то есть медленнее, чем линейно[англ.], что наблюдается в случае отсутствия совместного использования. Похожие результаты показаны в статье «Инкрементальное обучение обнаружения объектов, используя алфавит визуальных образов», впрочем, для бустинга авторы использовали AdaBoost.

Выпуклые и невыпуклые алгоритмы бустинга

Алгоритмы бустинга могут основываться на выпуклых или невыпуклых алгоритмах оптимизации. Выпуклые алгоритмы, такие как AdaBoost и LogitBoost, могут «потерпеть крушение» из-за случайного шума, так как не могут обучить базовым и поддающимся научению комбинациям слабых гипотез[19][20]. На это ограничение указали Лонг и Серведо в 2008 году. Однако в 2009 году несколько авторов продемонстрировали, что алгоритмы бустинга, основанные на невыпуклой оптимизации, такие как BrownBoost, могут быть обучены из данных с шумами и лежащий в основе классификатор Лонг-Серведио для набора данных может быть обучен.

Реализация

  • Scikit-learn, библиотека машинного обучения с открытым кодом для языка Python
  • Orange[англ.], a свободно распространяемый программный комплекс для анализа данных, модуль Orange.ensemble Архивная копия от 4 марта 2016 на Wayback Machine
  • Weka — это набор средств для машинного обучения, содержащий ряд реализаций алгоритмов бустинга, таких как AdaBoost и LogitBoost
  • Пакет GBM (Generalized Boosted Regression Models) на языке R реализует расширение алгоритма Фройнда и Шапире AdaBoost и градиентного бустинга Фридмана.
  • Jboost; AdaBoost, LogitBoost, RobustBoost, Boostexter и чередующиеся решающие деревья[англ.]
  • Пакет adabag языке R: Применяет мультиклассовые алгоритмы AdaBoost.M1, AdaBoost-SAMME и Bagging
  • Пакет xgboost на языке R: Реализация градиентного бустинга для линейных основанных на деревьях моделей.
  • Пакет CatBoost

Примечания

  1. . Некоторые основанные на бустинге алгоритмы классификации на самом деле уменьшают веса повторно неверно классифицированных экземпляров. Например, бустинг по доминированию (англ. boost by majority) и BrownBoost
  1. Breiman, 1996.
  2. Zhi-Hua, 2012, с. 23.
  3. 1 2 Kearns, 1988.
  4. Kearns, Valiant, 1989, с. 433–444.
  5. 1 2 Schapire, 1990, с. 197–227.
  6. Breiman, 1998, с. 801–849.
  7. Freund, Schapire, 1997, с. 119—139.
  8. Лео Брайман (Breiman 1998) пишет: «Понятие слабого обучения ввели Кернс и Валиант (Kearns, Valiant, 1988, Kearns, Valiant, 1989), которые поставили вопрос, эквивалентны ли слабое и сильное обучение. Вопрос был назван задачей бустинга, поскольку решение должно усилить слабую точность слабого обучения до высокой точности сильного обучения. Шапире (1990) доказал, что бустинг возможен. Алгоритм бустинга является методом, который берёт слабый метод обучения и преобразует его в сильный метод. Фройнд и Шапире (1997) доказали, что алгоритм, подобный arc-fs, является бустингом.»
  9. 1 2 3 Mason, Baxter, Bartlett, Frean, 2000, с. 512—518.
  10. Emer, Eric Boosting (AdaBoost algorithm). MIT. Дата обращения: 10 октября 2018. Архивировано из оригинала 15 февраля 2020 года.
  11. Sivic, Russell, Efros, Zisserman, Freeman, 2005, с. 370—377.
  12. Opelt, Pinz, Fussenegger, Auer, 2006, с. 416—431.
  13. Marszalek, Schmid, 2007.
  14. Large Scale Visual Recognition Challenge (декабрь 2017). Дата обращения: 6 ноября 2018. Архивировано 2 ноября 2018 года.
  15. Viola, Jones, 2001.
  16. Viola, Jones, Snow, 2003.
  17. Torralba, Murphy, Freeman, 2007, с. 854—869.
  18. Opelt, Pinz, Zisserma, 2006, с. 3—10.
  19. Long, Servedio, 2008, с. 608—615.
  20. Long, Servedio, 2010, с. 287–304.

Литература

  • Leo Breiman. Bias, Variance, And Arcing Classifiers // Technical Report. — 1996. Архивировано 19 января 2015 года. Выдержка: «Arcing [Boosting] is more successful than bagging in variance reduction»
  • Zhou Zhi-Hua. Ensemble Methods: Foundations and Algorithms. — Chapman and Hall/CRC, 2012. — ISBN 978-1439830031. Выдержка: «The term boosting refers to a family of algorithms that are able to convert weak learners to strong learners»
  • Michael Kearns. Thoughts on Hypothesis Boosting. — 1988. — (Unpublished manuscript (Machine Learning class project)).
  • Leo Breiman. Arcing Classifier (with Discussion and a Rejoinder by the Author) // Annals of Statistics. — 1998. — Т. 26, № 3. — С. 801—849:.
  • Michael Kearns, Leslie Valiant. Crytographic limitations on learning Boolean formulae and finite automata // Symposium on Theory of computing. — ACM, 1989. — Т. 21. — doi:10.1145/73007.73049.
  • Michael Kearns, Leslie Valiant. Learning Boolean Formulae or Finite Automata is as Hard as Factoring. Technical Report TR-14-88. — Harvard University Aiken Computation Laboratory, 1988.
    • Статья была позднее перепечатана в журнале «Journal of the Association for Computing Machinery», 41(1):67-95, January 1994
  • Robert E. Schapire. The Strength of Weak Learnability // Machine Learning. — Boston, MA: Kluwer Academic Publishers, 1990. — Т. 5, вып. 2. — doi:10.1007/bf00116037. Архивировано 10 октября 2012 года.
  • Leo Breiman. Arcing classifier (with discussion and a rejoinder by the author) // Ann. Stat.. — 1998. — Т. 26, вып. 3. — doi:10.1214/aos/1024691079. Выдержка: «Schapire (1990) proved that boosting is possible» (Page 823)
  • Yoav Freund, Robert E. Schapire. A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting. — 1997. — Т. 55, вып. 1.
  • Andreas Opelt, Axel Pinz, Michael Fussenegger, Peter Auer. Generic Object Recognition with Boosting // IEEE Trans Pattern Anal Mach Intell. — 2006. — Т. 28. — С. 416—31. — ISSN 0162-8828.
  • Marszalek M., Schmid C. Semantic Hierarchies for Visual Object Recognition. — 2007.
  • Viola P., Jones M., Snow D. Detecting Pedestrians Using Patterns of Motion and Appearance // ICCV. — 2003.
  • Torralba A., Murphy K. P., Freeman W. T. Sharing visual features for multiclass and multiview object detection // IEEE Transactions on PAMI. — 2007. — Т. 29, вып. 5. — doi:10.1109/TPAMI.2007.1055.
  • Andreas Opelt, Axel Pinz, Andrew Zisserma. Incremental learning of object detectors using a visual shape alphabet // CVPR. — 2006. — С. 3—10.
  • Long P., Servedio R. Random classification noise defeats all convex potential boosters // 25th International Conference on Machine Learning (ICML). — 2008. — С. 608—615.
  • Philip M. Long, Rocco A. Servedio. Random classification noise defeats all convex potential boosters // Machine Learning. — Springer US, 2010. — Март (т. 78, вып. 3). — С. 287–304. — doi:10.1007/s10994-009-5165-z.
  • Llew Mason, Jonathan Baxter, Peter Bartlett, Marcus Frean. Boosting Algorithms as Gradient Descent // Advances in Neural Information Processing Systems / S. A. Solla, T. K. Leen, K.-R. Muller. — MIT Press, 2000. — Т. 12.
  • Josef Sivic, Bryan C. Russell, Alexei A. Efros, Andrew Zisserman, William T. Freeman. Discovering objects and their location in images // ICCV 2005. Tenth IEEE International Conference on Computer Vision. — IEEE, 2005. — Т. 1.
  • Paul Viola, Michael Jeffrey Jones. Robust Real-time Object Detection // International Journal of Computer Vision. — 2001. — Т. 57, вып. 2.
  • Yoav Freund and Robert E. Schapire (1997); A Decision-Theoretic Generalization of On-line Learning and an Application to Boosting Архивная копия от 12 октября 2008 на Wayback Machine, Journal of Computer and System Sciences, 55(1):119-139
  • Robert E. Schapire and Yoram Singer (1999); Improved Boosting Algorithms Using Confidence-Rated Predictors Архивная копия от 20 августа 2008 на Wayback Machine, Machine Learning, 37(3):297-336

Ссылки

Read other articles:

Pour les articles homonymes, voir Vidange (homonymie). Vidange d'huile sur un moteur de voiture. Une vidange désigne l'action de vider un réservoir, un carter et/ou un circuit de son contenu liquide. Pour un véhicule tel une automobile ou une motocyclette, on parle de sa « vidange » pour désigner le remplacement de son huile moteur. Exemples de fluides susceptibles d'être vidangés Système Fluide Moteur à explosion, mécanisme Huile de synthèse Système hydraulique (freinage,…

Pour les articles homonymes, voir Anneville. Anneville-Ambourville Le manoir des templiers. Héraldique Administration Pays France Région Normandie Département Seine-Maritime Arrondissement Rouen Intercommunalité Métropole Rouen Normandie Maire Mandat Éric Lefebvre 2020-2026 Code postal 76480 Code commune 76020 Démographie Gentilé Annevillais Populationmunicipale 1 168 hab. (2021 ) Densité 57 hab./km2 Géographie Coordonnées 49° 27′ 44″ nord, 0° …

Japanese footballer Hisato Sato佐藤 寿人 Sato in 2004Personal informationFull name Hisato Sato[1]Date of birth (1982-03-12) March 12, 1982 (age 42)[2]Place of birth Kasukabe, Saitama, JapanHeight 1.70 m (5 ft 7 in)Position(s) ForwardYouth career1994–1999 JEF United IchiharaSenior career*Years Team Apps (Gls)2000–2001 JEF United Ichihara 22 (2)2002–2004 Cerezo Osaka 13 (2)2003–2004 → Vegalta Sendai (loan) 74 (29)2005–2016 Sanfrecce Hiroshima 383…

Location of Frederick County in Virginia This is a list of the National Register of Historic Places listings in Frederick County, Virginia. This is intended to be a complete list of the properties and districts on the National Register of Historic Places in Frederick County, Virginia, United States. The locations of National Register properties and districts for which the latitude and longitude coordinates are included below, may be seen in an online map.[1] There are 29 properties and d…

Міністерство оборони України (Міноборони) Емблема Міністерства оборони та Прапор Міністерства оборони Будівля Міністерства оборони у КиєвіЗагальна інформаціяКраїна  УкраїнаДата створення 24 серпня 1991Попередні відомства Міністерство оборони СРСР Народний комісаріа…

On the Third DayAlbum studio karya Electric Light OrchestraDirilisNovember 1973DirekamApril–Mei, Agustus[1] 1973StudioDe Lane Lea Studios, London; AIR Studios, LondonGenreProgressive rockDurasi39:26LabelWarner Bros., United ArtistsProduserJeff LynneKronologi Electric Light Orchestra ELO 2(1973) On the Third Day(1973) The Night the Light Went On in Long Beach(1974) Kronologi album studio Electric Light Orchestra ELO 2(1973) On the Third Day(1973) Eldorado(1974) Singel dalam album On…

 烏克蘭總理Прем'єр-міністр України烏克蘭國徽現任杰尼斯·什米加尔自2020年3月4日任命者烏克蘭總統任期總統任命首任維托爾德·福金设立1991年11月后继职位無网站www.kmu.gov.ua/control/en/(英文) 乌克兰 乌克兰政府与政治系列条目 宪法 政府 总统 弗拉基米尔·泽连斯基 總統辦公室 国家安全与国防事务委员会 总统代表(英语:Representatives of the President of Ukraine) 总理…

Beberapa Orang MemaafkanAlbum mini karya FeastDirilis21 September 2018 (2018-09-21)StudioSoundpole StudioGenreIndie rockDurasi23:10LabelSun EaterProduser .Feast Wisnu Ikhsantama W. Kronologi Feast Multiverses(2017) Beberapa Orang Memaafkan(2018) Uang Muka(2020) Singel dalam album Beberapa Orang Memaafkan PeradabanDirilis: 13 Juli 2018[1] Berita KehilanganDirilis: 10 Agustus 2018[2] Kami Belum TentuDirilis: 13 September 2018[3] Beberapa Orang Memaafkan merupakan a…

本條目存在以下問題,請協助改善本條目或在討論頁針對議題發表看法。 此條目需要編修,以確保文法、用詞、语气、格式、標點等使用恰当。 (2013年8月6日)請按照校對指引,幫助编辑這個條目。(幫助、討論) 此條目剧情、虛構用語或人物介紹过长过细,需清理无关故事主轴的细节、用語和角色介紹。 (2020年10月6日)劇情、用語和人物介紹都只是用於了解故事主軸,輔助讀…

Hungarian hammer thrower The native form of this personal name is Pars Krisztián. This article uses Western name order when mentioning individuals. Krisztián ParsPars in 2013Personal informationBorn (1982-02-18) 18 February 1982 (age 42)Körmend, HungaryHeight1.88 m (6 ft 2 in)Weight117 kg (258 lb)SportCountry HungarySportAthleticsEventHammer ThrowCoached byZsolt NémethAchievements and titlesPersonal best82.69 m Medal record Olympic Games 2012 London Ham…

Australian federal electoral division Australian electorate LindsayAustralian House of Representatives DivisionDivision of Lindsay in New South Wales, as of the 2016 federal electionCreated1984MPMelissa McIntoshPartyLiberalNamesakeNorman LindsayElectors124,747 (2022)Area339 km2 (130.9 sq mi)DemographicOuter metropolitan The Division of Lindsay is an Australian electoral division in the state of New South Wales. Ever since Lindsay was first contested at the 1984 federal electi…

Funeral custom This article is about the ceremony. For the painting, see Funeral Procession (painting). The examples and perspective in this article may not represent a worldwide view of the subject. You may improve this article, discuss the issue on the talk page, or create a new article, as appropriate. (June 2010) (Learn how and when to remove this message) You can help expand this article with text translated from the corresponding article in Dutch. (August 2012) Click [show] for import…

Bishop of higher rank in many Christian denominations Part of a series onChristianity JesusChrist Nativity Baptism Ministry Crucifixion Resurrection Ascension BibleFoundations Old Testament New Testament Gospel Canon Church Creed New Covenant Theology God Trinity Father Son Holy Spirit Apologetics Baptism Christology History of theology Mission Salvation Universalism HistoryTradition Apostles Peter Paul Mary Early Christianity Church Fathers Constantine Councils Augustine Ignatius East–West Sc…

Register for landmarks in the United States This article needs to be updated. Please help update this article to reflect recent events or newly available information. (July 2022) The concentration of NRHP listings throughout the U.S. The National Register of Historic Places in the United States is a register including buildings, sites, structures, districts, and objects. The Register automatically includes all National Historic Landmarks as well as all historic areas administered by the U.S. Nat…

Death rates from road traffic accidents by country, per 100,000 inhabitants, world map (WHO 2019).[1][nb 1]   fewer than 5   5–10   10–15   15–20   20–25   25–30   30–35   35–40   more than 40   Data unavailable This list of countries by traffic-related death rate shows the annual number of road fatalities per capita per year, per number of motor vehicles, and per veh…

Chemical compound Ethyl loflazepateClinical dataTrade namesVictan, Meilax, RonlaxAHFS/Drugs.comInternational Drug NamesPregnancycategory ? Routes ofadministrationOralATC codeN05BA18 (WHO) Legal statusLegal status BR: Class B1 (Psychoactive drugs)[1] CA: Schedule IV DE: Anlage III (Special prescription form required) US: Schedule IV Pharmacokinetic dataBioavailability?MetabolismHepaticElimination half-life51-103 hExcretionRenalIdentifiers IUPAC name ethyl 7-c…

ColónKotaCiudad de ColónTop to bottom, left to right: Aerial view of Colón, November 5 Park located at the Historic District of Colón, Colón Free Trade Zone, Statue of Christopher Columbus, and the Inmaculate Conception Cathedral. BenderaLambang kebesaranColónKoordinat: 9°21′26″N 79°53′55″W / 9.35722°N 79.89861°W / 9.35722; -79.89861Koordinat: 9°21′26″N 79°53′55″W / 9.35722°N 79.89861°W / 9.35722; -79.89861Negara …

Pour les autres navires du même nom, voir Primauguet (navire). Primauguet La frégate Primauguet à quai sous grand pavois, à l'occasion de l'Armada de Rouen (juillet 2003). Type Frégate anti-sous-marine Classe Georges Leygues Histoire A servi dans  Marine nationale Lancement 17 mars 1984 Mise en service 5 novembre 1986[1] Statut Désarmement le 1er avril 2019 Équipage Équipage 22 officiers (dont 4 pilotes), 145 officiers mariniers, 77 quartiers-maîtres et matelots Caractéristiques t…

2016 Indian filmSavitriDirected byPavan SadineniScreenplay byPavan SadineniStory byPavan SadineniProduced byDr. V. B. Rajendra Prasad[2]StarringNara RohitNandithaCinematographyA. VasanthEdited byGoutham NerusuMusic byShravan BharadwajProductioncompanyVision Film MakersRelease date 1 April 2016 (2016-04-01)[1] Running time128 minutes[3]CountryIndiaLanguageTelugu Savitri is a 2016 Telugu action romantic-comedy film directed by Pavan Sadineni, produced by Dr. …