両方とも前のリビジョン
前のリビジョン
次のリビジョン
|
前のリビジョン
|
機械学習 [2016/02/18 11:59] asakawa |
機械学習 [2016/12/02 15:01] (現在) n.arakawa |
- [[機械学習:機械学習の歴史]] (History of Machine Learning) | - [[機械学習:機械学習の歴史]] (History of Machine Learning) |
- [[機械学習:神経伝達物質]] (Neurotransmitters) | - [[機械学習:神経伝達物質]] (Neurotransmitters) |
- [[機械学習:基本的概念]] | - 基本的概念 |
- [[機械学習:アトラクタ]] (Attractors) | - [[機械学習:アトラクタ]] (Attractors) |
- [[機械学習:勾配降下法]] (Gradient Descent Algorithm) | - [[機械学習:勾配降下法]] (Gradient Descent Algorithm) |
- [[機械学習:教師あり学習]]、教師なし学習 (Supervised Learning, Unsupervised Learning) | - [[機械学習:教師あり学習・教師なし学習]] (Supervised Learning, Unsupervised Learning) |
- [[機械学習:最急降下法]] (Steepest Gradient Descent Methods) | - [[機械学習:自己組織化]] Self-Organization |
- [[機械学習:確率的勾配降下法]] (Stochastic Gradient Descent) | |
- [[機械学習:自己組織化]] Self-Organization (Self-Organizing Map) | |
- [[機械学習:過学習]] (Over-Learning) | - [[機械学習:過学習]] (Over-Learning) |
- [[機械学習:回帰分類]] (Regression, Classification) | - [[機械学習:強化学習]] (Reinforcement Learning) |
- [[機械学習:多層ニューラルネットワーク]] | - 多層ニューラルネットワーク |
| - [[https://ja.wikipedia.org/wiki/ディープラーニング|深層学習,ディープラーニング]] (Deep Learning) |
- [[機械学習:ConvNet]] | - [[機械学習:ConvNet]] |
- [[機械学習:ディープニューラルネットワーク]] (Deep Neural Networks) | - [[機械学習:バックプロパゲーション]] (Back-Propagation Method) |
- [[機械学習:深層学習,ディープラーニング]] (Deep Learning) | |
- [[機械学習:バックプロパゲーション]] (Back-Propagation Method)日本語では誤差逆伝搬法と呼びます。情報の流れを順方向、学習に必要な誤差の流れを逆方向と言います。 | |
- [[機械学習:パーセプトロン]] (Perceptron) | - [[機械学習:パーセプトロン]] (Perceptron) |
- [[機械学習:畳み込みニューラルネットワーク]] (CNN) | - [[機械学習:畳み込みニューラルネットワーク]] (CNN) |
- [[機械学習:ドロップアウト]] (dropout) | - [[機械学習:ドロップアウト]] (dropout) |
- [[機械学習:再帰型ニューラルネットワーク]] | - [[機械学習:再帰型ニューラルネットワーク]](recurrent neural networks) |
- [[機械学習:リカレントネットワーク]] (recurrent neural networks)リカレントネットワークとはフィードバック結合を持つモデルを指します。 | - [[機械学習:単純再帰型ニューラルネットワーク]] (simple recurrent neural networks) |
- [[機械学習:単純再帰型ニューラルネットワーク]] (simple recurrent neural networks)単純再帰型ニューラルネットワークとは,初期に提案された2つモデルを指します。ジョーダンネットワークとエルマンネットワークと言います。 | |
- [[機械学習:LSTM]] (Long Short-Term Memory) | - [[機械学習:LSTM]] (Long Short-Term Memory) |
- [[機械学習:GRU]] (Gated Recurrent Unit) | - [[機械学習:GRU]] (Gated Recurrent Unit) |
- [[機械学習:エコーステートネットワーク]] (Echo State Networks) | - [[機械学習:エコーステートネットワーク]] (Echo State Networks) |
- [[機械学習:強化学習]] | - 機械学習:汎用性に関わる学習 |
- [[機械学習:Q 学習]] | - [[機械学習:転移学習]] |
- [[機械学習:TD 学習]] | - [[機械学習:マルチタスク学習]] |
- [[機械学習:アクタークリティック法]] (Actor Qritique Methods) | - 関連する統計的話題 |
- [[機械学習:関連する統計的話題]] | - [[https://ja.wikipedia.org/wiki/ギブスサンプリング|ギブスサンプリング]] (Gibbs samplings) |
- [[機械学習:ギブスサンプリング]] (Gibbs samplings) | |
- [[機械学習:ベイジアングラフ]] (Bayesian graph) | - [[機械学習:ベイジアングラフ]] (Bayesian graph) |
- [[機械学習:ベイズ推論]] (Bayesian inferences) | - [[https://ja.wikipedia.org/wiki/ベイズ推定|ベイズ推定]] (Bayesian inferences) |
- [[機械学習:ホップフィールドモデル]] (Hopfield models) | - [[機械学習:ホップフィールドモデル]] (Hopfield models) |
- [[機械学習:ボルツマンマシン]] (Boltzmann machines) | - [[https://ja.wikipedia.org/wiki/ボルツマンマシン|ボルツマンマシン]] (Boltzmann machines) |
- [[機械学習:制限ボルツマンマシン]] (restricted Boltzmann machines) | - [[機械学習:制限ボルツマンマシン]] (restricted Boltzmann machines) |
- [[機械学習:確率過程]] (stochastic processes) | - [[https://ja.wikipedia.org/wiki/確率過程|確率過程]] (stochastic processes) |
- [[機械学習:統計学習]] (statistical learning) | - [[機械学習:統計学習]] (statistical learning) |
- [[機械学習:独立成分分析]] | - [[機械学習:独立成分分析]] |
- [[機械学習:記憶]] | - 記憶 |
- [[機械学習:記憶概論]] | - [[機械学習:記憶概論]] |
- [[機械学習:記憶分類]] | - [[機械学習:記憶分類]] |
- [[機械学習:連想記憶]] | - [[機械学習:連想記憶]] |
- [[機械学習:応用的話題]] | - 応用的話題 |
- [[機械学習:R-CNN]] | - [[機械学習:R-CNN]] |
- [[機械学習:スキップグラム]] | - [[機械学習:スキップグラム]] |
- [[機械学習:ニューラルネットワーク機械翻訳]] | - [[機械学習:ニューラルネットワーク機械翻訳]] |
| - [[機械学習:参考文献]] |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| |