| タイトル |
-
ja
縮小推定を導入した貪欲法の下でのモデル選択規準についての研究
-
en
On model selection criteria under shrinkage estimation in greedy learning
|
| 作成者 |
-
-
ja
萩原, 克幸
ja-Kana
ハギワラ, カツユキ
en
Hagiwara, Katsuyuki
|
| 主題 |
-
Other
スペース学習
-
Other
階層型ニューラルネット
-
Other
モデル選択
-
Other
正則化
-
Other
縮小推定
|
| 内容注記 |
-
Other
application/pdf
-
Abstract
本研究では、階層型ニューラルネットやスパース学習に共通するモデル選択の問題を扱う。特に、ここでは、正則化・縮小推定の下でのモデル選択を考えた。まず、スパース学習において、正則化法であるLASSOのバイアス問題を解決するスケーリング法を考え、その下でのモデル選択規準を導出し、応用上の妥当性を数値的に確認した。さらに、スケーリング法を利用して、ノンパラメトリック直交回帰の下での統一的なモデリング法を与えるとともに、その汎化性を理論的に解析した。一方で、階層型ニューラルネットについては、モデル選択に関係して、その深層化による学習の傾向とオーバーフィッテイングの関係を調べた。
-
Abstract
In this project, we considered a model selection problem that is common for both of layered neural nets and sparse modeling. We considered model selection under regularization and shrinkage methods. In a sparse modeling, we derived a scaling method for LASSO, in which a bias problem is relaxed. And, we derived a risk-based model selection criterion for the estimate under the proposed method. We confirm its effectiveness through numerical experiments. Additionally, by introducing a scaling method, we derived a unified modeling method under a non-parametric orthogonal regression problem and we analyzed the generalization properties of the proposed method. On the other hand, in layered neural nets, we found that a deep structure affects over-fitting to noise.
-
Other
2018年度~2020年度科学研究費補助金(基盤研究(C))研究成果報告書
-
Other
18K11433
|
| 出版者 |
三重大学
|
| 日付 |
|
| 言語 |
|
| 資源タイプ |
research report |
| 出版タイプ |
VoR |
| 資源識別子 |
HDL
http://hdl.handle.net/10076/00020870
,
URI
https://mie-u.repo.nii.ac.jp/records/15252
|
| ファイル |
|
| コンテンツ更新日時 |
2023-11-03 |