差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
機械学習 [2016/02/18 11:38] asakawa [関連する統計的話題] |
機械学習 [2016/12/02 15:01] (現在) n.arakawa |
||
---|---|---|---|
行 7: | 行 7: | ||
- [[機械学習: | - [[機械学習: | ||
- [[機械学習: | - [[機械学習: | ||
- | - [[機械学習: | + | - 基本的概念 |
- | - アトラクタ (Attractors) | + | - [[機械学習: |
- | - 勾配降下法 (Gradient Descent Algorithm) | + | - [[機械学習: |
- | - 教師あり学習、教師なし学習 (Supervised Learning, Unsupervised Learning) | + | - [[機械学習: |
- | - 最急降下法 (Steepest Gradient Descent Methods) | + | - [[機械学習: |
- | - 確率的勾配降下法 (Stochastic Gradient Descent) | + | - [[機械学習: |
- | - 自己組織化 Self-Organization | + | - [[機械学習: |
- | - 過学習 (Over-Learning) | + | |
- | - 回帰、分類 | + | - [[https:// |
- | - [[機械学習: | + | |
- | - [[機械学習: | + | - [[機械学習: |
- | - [[機械学習: | + | - [[機械学習: |
- | - Q 学習 | + | - [[機械学習: |
- | - TD 学習 | + | - [[機械学習: |
- | - アクタークリティック法 (Actor Qritique Methods) | + | - [[機械学習: |
- | - [[機械学習: | + | - [[機械学習: |
- | - [[機械学習: | + | - [[機械学習:LSTM]] (Long Short-Term Memory) |
- | - ギブスサンプリング (Gibbs samplings) | + | - [[機械学習:GRU]] (Gated Recurrent Unit) |
- | - ベイジアングラフ (Bayesian graph) | + | - [[機械学習: |
- | - ベイズ推論 (Bayesian inferences) | + | |
- | - ホップフィールドモデル (Hopfield models) | + | |
- | - ボルツマンマシン (Boltzmann machines) | + | - [[機械学習: |
- | - 制限ボルツマンマシン (restricted Boltzmann machines) | + | - 関連する統計的話題 |
- | - 確率過程 (stochastic processes) | + | - [[https:// |
- | - 統計学習 (statistical learning) | + | - [[機械学習: |
+ | - [[https:// | ||
+ | - [[機械学習: | ||
+ | - [[https:// | ||
+ | - [[機械学習: | ||
+ | - [[https:// | ||
+ | - [[機械学習: | ||
- [[機械学習: | - [[機械学習: | ||
- | - [[機械学習: | + | - 記憶 |
- [[機械学習: | - [[機械学習: | ||
- [[機械学習: | - [[機械学習: | ||
- [[機械学習: | - [[機械学習: | ||
- | - [[機械学習: | + | - 応用的話題 |
- [[機械学習: | - [[機械学習: | ||
- [[機械学習: | - [[機械学習: | ||
- [[機械学習: | - [[機械学習: | ||
- | + | | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | ==== 神経伝達物質 (Neurotransmitters) ==== | + | |
- | + | ||
- | ====== 基礎的概念 ====== | + | |
- | ==== アトラクタ (Attractors) ==== | + | |
- | + | ||
- | ==== 勾配降下法 (Gradient Descent Algorithm) ==== | + | |
- | + | ||
- | ==== 教師あり学習、教師なし学習 (Supervised Learning, Unsupervised Learning) ==== | + | |
- | + | ||
- | [[http:// | + | |
- | ==== 最急降下法 (Steepest Gradient Descent Methods) ===== | + | |
- | + | ||
- | ==== 確率的勾配降下法 (Stochastic Gradient Descent) ==== | + | |
- | + | ||
- | + | ||
- | ==== 過学習 (Over-Learning) ==== | + | |
- | + | ||
- | ==== 回帰、分類 (Regression, | + | |
- | + | ||
- | + | ||
- | ====== 多層ニューラルネットワーク ====== | + | |
- | + | ||
- | ==== ConvNet ==== | + | |
- | + | ||
- | ==== ディープニューラルネットワーク (Deep Neural Networks) ==== | + | |
- | + | ||
- | ==== ディープラーニング (Deep Learning) ==== | + | |
- | + | ||
- | ==== バックプロパゲーション (Back-Propagation Method) ==== | + | |
- | + | ||
- | 日本語では誤差逆伝搬法と呼びます。情報の流れを順方向、学習に必要な誤差の流れを逆方向と言います。 | + | |
- | + | ||
- | ==== パーセプトロン (Perceptron) ===== | + | |
- | [[機械学習: | + | |
- | + | ||
- | ==== 畳み込みニューラルネットワーク (CNN) ==== | + | |
- | [[機械学習: | + | |
- | + | ||
- | ==== ドロップアウト (dropout) ==== | + | |
- | [[機械学習: | + | |
- | + | ||
- | ====== 再帰型ニューラルネットワーク ====== | + | |
- | + | ||
- | ==== リカレントネットワーク (recurrent neural networks) ===== | + | |
- | リカレントネットワークとはフィードバック結合を持つモデルを指します。 | + | |
- | + | ||
- | ==== 単純再帰型ニューラルネットワーク (simple recurrent neural networks) ==== | + | |
- | + | ||
- | 単純再帰型ニューラルネットワークとは,初期に提案された2つモデルを指します。ジョーダンネットワークとエルマンネットワークと言います。 | + | |
- | + | ||
- | ==== LSTM (Long Short-Term Memory) ==== | + | |
- | [[機械学習: | + | |
- | + | ||
- | ==== GRU (Gated Recurrent Unit) ==== | + | |
- | [[機械学習: | + | |
- | + | ||
- | ==== エコーステートネットワーク (Echo State Networks) ==== | + | |
- | + | ||
- | + | ||