<< 2024-03-31 | 2024-04-02 >>

DailyNote

  • 新年度になりました。
  • アンサンブル学習
    • バギング
      • 弱学習器を並列的に動かして、各結果の平均値を取るとか(ランダムフォレスト等)
    • ブースティング
      • 弱学習機を直列的に動かして、残差から重みを更新し、最も良いモデルを採用する(LightGBM等)
  • 正則化
    • L1正則化(Lasso回帰)
      • 係数の絶対値の和を最小化することで、重みをゼロに近づけ、不要な特徴を削減する。
    • L2正則化(Ridge回帰)
      • 係数の絶対値の2乗和を最小化することで、重みを小さく保つ。