バギング
ブートストラップ集約(英: bootstrap aggregating)やブートストラップ・アグリゲーティングやバギング(英: bagging)とは、統計的分類および回帰で使われる機械学習アルゴリズムの安定性と精度を改善するために設計されたアンサンブル学習メタアルゴリズムである。バギングはバリアンス(分散)を縮小させ、過剰適合を避けることも助ける。通常は決定木に適用されるものの、どんな手法にも使うことができる。バギングはモデル平均化手法の一種である。 手法大きさ n の訓練データ D があり、離散一様分布に従い重複を認めてサンプリングを行い(ブートストラップ法)、サイズ n' の新しい訓練データ D' を m 個生成する。重複を認めてサンプリングしているので、同じデータが複数回出現することがある。m 個の訓練データセット D' から m 回学習し、平均(回帰の場合)や投票(分類の場合)などで m 個の出力をまとめて最終的な学習結果の出力とする。 歴史Bagging (Bootstrap aggregating) は、ランダムに生成された訓練セットの分類を組み合わせることによって分類を改善するために1994年[1]にレオ・ブレイマンによって提唱された。 参照
関連項目 |