機械学習:単純再帰型ニューラルネットワーク

差分

このページの2つのバージョン間の差分を表示します。

この比較画面にリンクする

両方とも前のリビジョン 前のリビジョン
機械学習:単純再帰型ニューラルネットワーク [2016/02/23 11:42]
asakawa
機械学習:単純再帰型ニューラルネットワーク [2016/02/23 11:53] (現在)
asakawa
行 5: 行 5:
  
 図はエルマンネットです。図中に示されたアルファベット U, W, V, Z は結合係数行列を表しています。それぞれの表記はミコロフの論文と合わせました。 図はエルマンネットです。図中に示されたアルファベット U, W, V, Z は結合係数行列を表しています。それぞれの表記はミコロフの論文と合わせました。
-ミコロフはこの RNN すなわちエルマン型の SRN を使って言語モデルを提案しました。[[機械学習:SRC_mid|中級者向け話題]]+ミコロフはこの RNN すなわちエルマン型の SRN を使って言語モデルを提案しました。 
 +図では情報は上から下へと流れます。左下の入力層には全語彙数分の入力層ニューロンがあります。一番上の出力層も全語彙分のニューロンを持ちます。 
 +従って入力層と出力層とは同じ数のニューロンで構成されます。 
 +一方,中間層のニューロン数には任意性があります。望む数のニューロン数を設定できます。入力層のニューロンは文脈層へコピーされます。 
 +従って,中間層のニューロン数と文脈層のニューロン数は等しくなります。さらに図中Zと書かれた結合係数行列は単位行列Iになります。 
 +単なるコピーですから,中間層から文脈層への結合係数行列にパラメータはありません。一時刻前の中間層の状態が文脈層へとコピーされます。 
 + 
 +中間層では,一時刻前の自分の状態と入力情報を混合して情報を出力層へと伝えます。 
 + 
 +== 外部サイト == 
 +ミコロフの言語モデルのソースコードは [[http://rnnlm.org/|RNNLM Toolkit]] から入手できます 
 + 
 +[[機械学習:SRC_mid|中級者向け話題]]
  
 == 文献 == == 文献 ==
 Mikolov, T., Karafiat, M., Burget, L., Cernocky, J., and Khudanpur, S. Recurrent neural network based language model. In INTERSPEECH, pp. 1045–1048, 2010. Mikolov, T., Karafiat, M., Burget, L., Cernocky, J., and Khudanpur, S. Recurrent neural network based language model. In INTERSPEECH, pp. 1045–1048, 2010.
  • 機械学習/単純再帰型ニューラルネットワーク.1456195346.txt.gz
  • 最終更新: 2016/02/23 11:42
  • by asakawa