内容へ移動
WBA
ユーザ用ツール
ログイン
サイト用ツール
検索
ツール
文書の表示
以前のリビジョン
バックリンク
最近の変更
メディアマネージャー
サイトマップ
ログイン
>
最近の変更
メディアマネージャー
サイトマップ
トレース:
機械学習:bp_mid
この文書は読取専用です。文書のソースを閲覧することは可能ですが、変更はできません。もし変更したい場合は管理者に連絡してください。
=== バックプロパゲーション中級者向け話題 === 盲目の登山家の喩えのとおり,自分が動けなくなる地点に達すると学習は終了します。この地点に達するまでに要する繰り返し計算を高速化する提案がなされています。 現在では確率的勾配降下法(Stochastic Gradient Descendent method:SGD)を用いない研究は皆無となりました。 SGD をさらに高速化する提案が AdaDelta, AdaGrad, Adam, Nestorev, RMSprop などです。 Caffe, Chainer, TensorFlow など既存のフレームワークでは,ほとんどの高速化手法を利用可能です。
機械学習/bp_mid.txt
· 最終更新: 2016/02/23 12:26 by
asakawa
ページ用ツール
文書の表示
以前のリビジョン
バックリンク
文書の先頭へ