文書の過去の版を表示しています。
機械学習
- ニューラルネットワーク (Neural Networks)
- ヘッブの学習則 (Hebb's Learning Rule)
- 人工ニューラルネットワーク (Artificial Neural Networks)
- 機械学習の歴史 (History of Machine Learning)
- 神経伝達物質 (Neurotransmitters)
-
- アトラクタ (Attractors)
- 勾配降下法 (Gradient Descent Algorithm)
- 教師あり学習、教師なし学習 (Supervised Learning, Unsupervised Learning)
- 最急降下法 (Steepest Gradient Descent Methods)
- 確率的勾配降下法 (Stochastic Gradient Descent)
- 自己組織化 Self-Organization (Self-Organizing Map)
- 過学習 (Over-Learning)
- 回帰、分類 (Regression, Classification)
-
- カレントニューラルネットワーク (recurrent neural networks)リカレントネットワークとはフィードバック結合を持つモデルを指します。
- 単純再帰型ニューラルネットワーク (simple recurrent neural networks)単純再帰型ニューラルネットワークとは,初期に提案された2つモデルを指します。ジョーダンネットワークとエルマンネットワークと言います。
- LSTM (Long Short-Term Memory)
- GRU (Gated Recurrent Unit)
- エコーステートネットワーク (Echo State Networks)
-
- Q 学習
- TD 学習
- アクタークリティック法 (Actor Qritique Methods)
-
- ギブスサンプリング (Gibbs samplings)
- ベイジアングラフ (Bayesian graph)
- ベイズ推論 (Bayesian inferences)
- ホップフィールドモデル (Hopfield models)
- ボルツマンマシン (Boltzmann machines)
- 制限ボルツマンマシン (restricted Boltzmann machines)
- 確率過程 (stochastic processes)
- 統計学習 (statistical learning)
-
-
神経伝達物質 (Neurotransmitters)
基礎的概念
アトラクタ (Attractors)
勾配降下法 (Gradient Descent Algorithm)
教師あり学習、教師なし学習 (Supervised Learning, Unsupervised Learning)
最急降下法 (Steepest Gradient Descent Methods)
確率的勾配降下法 (Stochastic Gradient Descent)
過学習 (Over-Learning)
回帰、分類 (Regression, Classification)
多層ニューラルネットワーク
ConvNet
ディープニューラルネットワーク (Deep Neural Networks)
ディープラーニング (Deep Learning)
バックプロパゲーション (Back-Propagation Method)
日本語では誤差逆伝搬法と呼びます。情報の流れを順方向、学習に必要な誤差の流れを逆方向と言います。
パーセプトロン (Perceptron)
畳み込みニューラルネットワーク (CNN)
ドロップアウト (dropout)
再帰型ニューラルネットワーク
リカレントネットワーク (recurrent neural networks)
リカレントネットワークとはフィードバック結合を持つモデルを指します。
単純再帰型ニューラルネットワーク (simple recurrent neural networks)
単純再帰型ニューラルネットワークとは,初期に提案された2つモデルを指します。ジョーダンネットワークとエルマンネットワークと言います。