Deep Learningの最適化において、素人ながらLearning Rate(学習率)の値の調整も大事なのかな?と思っているのですが、Learning Rateの値はNeural Network全体の値の設定と、各Afiineでの設定が可能になっています。
Neural Network全体のLearning Rateの値の設定は、プロジェクトを起動している状態で、右上にある、CONFIG をクリックします。

次に右側の Optimizer の部分をクリックすると、↓の画面ではAlphaの部分が学習率の値となります。

ここの表示は使用する更新の式(Updater)によって異なりますが、UpdaterがAdam(デフォルト)の時はAlphaの部分が学習率になります。

他のUpdaterの時(↓の例ではAdagrad)はLearningRateの部分がまさに学習率となります。

このLearningRateの値にさらに、各AfiineのプロパティにあるW.LRateMultiplier、b.LRateMultiplierの値を掛け合わせた値が学習率となります。

つまり、
重みの学習率は LearningRateの値 x W.LRateMultiplier
バイアスの学習率は LearningRateの値 x b.LRateMultiplier
となります。
Updaterの詳細については、ダウンロードしたファイルの中にあるpdfファイル(manual_ja.pdf)に書かれているので、確認すると良いかと思います。
←Deep Learningへ戻る



コメント