一覧に戻る

タイトル
  • ja 縮小推定を導入した貪欲法の下でのモデル選択規準についての研究
  • en On model selection criteria under shrinkage estimation in greedy learning
作成者
    • ja 萩原, 克幸 ja-Kana ハギワラ, カツユキ en Hagiwara, Katsuyuki
主題
  • Other スペース学習
  • Other 階層型ニューラルネット
  • Other モデル選択
  • Other 正則化
  • Other 縮小推定
内容注記
  • Other application/pdf
  • Abstract 本研究では、階層型ニューラルネットやスパース学習に共通するモデル選択の問題を扱う。特に、ここでは、正則化・縮小推定の下でのモデル選択を考えた。まず、スパース学習において、正則化法であるLASSOのバイアス問題を解決するスケーリング法を考え、その下でのモデル選択規準を導出し、応用上の妥当性を数値的に確認した。さらに、スケーリング法を利用して、ノンパラメトリック直交回帰の下での統一的なモデリング法を与えるとともに、その汎化性を理論的に解析した。一方で、階層型ニューラルネットについては、モデル選択に関係して、その深層化による学習の傾向とオーバーフィッテイングの関係を調べた。
  • Abstract In this project, we considered a model selection problem that is common for both of layered neural nets and sparse modeling. We considered model selection under regularization and shrinkage methods. In a sparse modeling, we derived a scaling method for LASSO, in which a bias problem is relaxed. And, we derived a risk-based model selection criterion for the estimate under the proposed method. We confirm its effectiveness through numerical experiments. Additionally, by introducing a scaling method, we derived a unified modeling method under a non-parametric orthogonal regression problem and we analyzed the generalization properties of the proposed method. On the other hand, in layered neural nets, we found that a deep structure affects over-fitting to noise.
  • Other 2018年度~2020年度科学研究費補助金(基盤研究(C))研究成果報告書
  • Other 18K11433
出版者 三重大学
日付
    Issued2021-05-13
言語
  • jpn
資源タイプ research report
出版タイプ VoR
資源識別子 HDL http://hdl.handle.net/10076/00020870 , URI https://mie-u.repo.nii.ac.jp/records/15252
ファイル
    • 2022RP0011
    • 86.9 kB (application/pdf)
      • Available2022-11-22
コンテンツ更新日時 2023-11-03