機械学習

文書の過去の版を表示しています。


機械学習

    1. ヘッブの学習則 (Hebb's Learning Rule)
    2. 人工ニューラルネットワーク (Artificial Neural Networks)
    3. 機械学習の歴史 (History of Machine Learning)
    4. 神経伝達物質 (Neurotransmitters)
    1. アトラクタ (Attractors)
    2. 勾配降下法 (Gradient Descent Algorithm)
    3. 教師あり学習、教師なし学習 (Supervised Learning, Unsupervised Learning)
    4. 最急降下法 (Steepest Gradient Descent Methods)
    5. 確率的勾配降下法 (Stochastic Gradient Descent)
    6. 自己組織化 Self-Organization (Self-Organizing Map)
    7. 過学習 (Over-Learning)
    8. 回帰、分類 (Regression, Classification)
    1. カレントニューラルネットワーク (recurrent neural networks)リカレントネットワークとはフィードバック結合を持つモデルを指します。
    2. 単純再帰型ニューラルネットワーク (simple recurrent neural networks)単純再帰型ニューラルネットワークとは,初期に提案された2つモデルを指します。ジョーダンネットワークとエルマンネットワークと言います。
    3. LSTM (Long Short-Term Memory)
    4. GRU (Gated Recurrent Unit)
    1. Q 学習
    2. TD 学習
    3. アクタークリティック法 (Actor Qritique Methods)
    1. ギブスサンプリング (Gibbs samplings)
    2. ベイジアングラフ (Bayesian graph)
    3. ベイズ推論 (Bayesian inferences)
    4. ホップフィールドモデル (Hopfield models)
    5. ボルツマンマシン (Boltzmann machines)
    6. 制限ボルツマンマシン (restricted Boltzmann machines)
    7. 確率過程 (stochastic processes)
    8. 統計学習 (statistical learning)

基礎的概念

多層ニューラルネットワーク

日本語では誤差逆伝搬法と呼びます。情報の流れを順方向、学習に必要な誤差の流れを逆方向と言います。

再帰型ニューラルネットワーク

  • 機械学習.1455763400.txt.gz
  • 最終更新: 2016/02/18 11:43
  • by asakawa