学生の備忘録なブログ

日々のことを忘れないためのブログです。一日一成果物も目標。技術系はQiitaにあげるように変更しました。

ゼロから作るDeep Learning

ゼロから作るDeep Learning ~L2正規化~

L2正規化 L2正規化について,あまり詳しく書かれていなかったので 6.4.2 Weight decay Weight decay 荷重減衰とは 学習の過程において、大きな重みを持つことに対してペ ナルティを課すことで、過学習を抑制すること. L2正則化,L1正規化とは 機械学習でよ…

私的!最速!CNNによるMNIST分類問題!

私的!最速!CNNによるMNIST分類問題! 注意 実験内容 実験 CNNを用いないMNIST分類の実装 データの確認 3層ニューラルネットワーク Affineレイヤとは CNNにおけるAffineレイヤ softmaxレイヤとは ReLUレイヤとは バッチ処理 考察 考察を踏まえた改善 Dropout関…

お詫び

自分は,以前このようなブログを書いた. ゼロから作るDeep Learning #1 - 有用なエキスパートなブログ しかし,今のところ全くの進捗がない.どうしたものか,,, だが,良いこともあった.いろいろな内面についての自己分析が進んだからだ. まず,自分は…

ゼロから作るDeep Learning #1

ゼロから作るDeep Learningをはじめた. 実際ベストセラーらしいから,やってみる. つまるところがあったら,メモっていきたい. 誓い 実際 完璧にしなければならない, 自分には才能がある, などを考えると,やる気はなくなる. (そうだ) やったら,メモ…