<< 2024-03-31 | 2024-04-02 >>
DailyNote
- 新年度になりました。
- アンサンブル学習
- バギング
- 弱学習器を並列的に動かして、各結果の平均値を取るとか(ランダムフォレスト等)
- ブースティング
- 弱学習機を直列的に動かして、残差から重みを更新し、最も良いモデルを採用する(LightGBM等)
- バギング
- 正則化
- L1正則化(Lasso回帰)
- 係数の絶対値の和を最小化することで、重みをゼロに近づけ、不要な特徴を削減する。
- L2正則化(Ridge回帰)
- 係数の絶対値の2乗和を最小化することで、重みを小さく保つ。
- L1正則化(Lasso回帰)