アンサンブル・ラーニング
アンサンブル・ラーニングはアンサンブル・メソッドを用いた機械学習である。統計や機械学習で使われるアンサンブル・メソッドでは、さまざまな学習アルゴリズムの有限集合を使用することで、単一の学習アルゴリズムよりも優れた結果を得る [1]。一連のアルゴリズムの計算は、単一のアルゴリズムの計算よりも時間がかかるが、より浅い計算深度で、ほぼ同等の良好な結果を得ることができる。 アンサンブル・ラーニングの重要な応用領域は、決定木である。大きな決定木は、ルートからリーフまで多くの決定ノードがあり、それらすべてが不確実性の下でトラバースされるため、エラー率と分散が大きくなる傾向がある。たとえば、バギングは多くの小さな決定木を計算し、それらの結果の平均を使用する。これにより、分散(したがってエラー率)が大幅に減少する。 アンサンブルの種類ベイズ最適分類器ベイズ最適分類器は、常に次の式の最適解を返す。
他のアンサンブルが平均してこの方法を上回ることはできないことを示すことができる。しかし、残念ながら、この方法は、仮説空間内のすべての仮説について反復処理を行い、ほとんどの場合、この空間が大きすぎるため、実際には使用できない。 バギング→詳細は「バギング」を参照
バギングは、回帰モデルまたは分類モデルからの複数の予測を組み合わせ、各予測に均等に重み付けし、最後に予測を平均化する [2]。 ブースティング→詳細は「ブースティング」を参照
ブースティングは、多くの弱い分類子を1つの強い分類子にマージする。この一般的な手法にはさまざまな実装があり、最も一般的な実装はAdaBoostである。 さらに学習したい人への参考書の例
脚注
|
Index:
pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve
Portal di Ensiklopedia Dunia