機械学習

差分

このページの2つのバージョン間の差分を表示します。

この比較画面にリンクする

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
機械学習 [2016/02/18 11:59]
asakawa
機械学習 [2016/12/02 15:01] (現在)
n.arakawa
行 7: 行 7:
     - [[機械学習:機械学習の歴史]] (History of Machine Learning)     - [[機械学習:機械学習の歴史]] (History of Machine Learning)
     - [[機械学習:神経伝達物質]] (Neurotransmitters)     - [[機械学習:神経伝達物質]] (Neurotransmitters)
-  - [[機械学習:基本的概念]]+  - 基本的概念
     - [[機械学習:アトラクタ]] (Attractors)     - [[機械学習:アトラクタ]] (Attractors)
     - [[機械学習:勾配降下法]] (Gradient Descent Algorithm)     - [[機械学習:勾配降下法]] (Gradient Descent Algorithm)
-    - [[機械学習:教師あり学習]]、教師なし学習 (Supervised Learning, Unsupervised Learning+    - [[機械学習:教師あり学習教師なし学習]] (Supervised Learning, Unsupervised Learning) 
-    - [[機械学習:最急降下法]] (Steepest Gradient Descent Methods) +    - [[機械学習:自己組織化]] Self-Organization
-    - [[機械学習:確率的勾配降下法]] (Stochastic Gradient Descent+
-    - [[機械学習:自己組織化]] Self-Organization (Self-Organizing Map)+
     - [[機械学習:過学習]] (Over-Learning)     - [[機械学習:過学習]] (Over-Learning)
-    - [[機械学習:回帰分類]] (Regression, Classification+    - [[機械学習:強化学習]] (Reinforcement Learning
-  - [[機械学習:多層ニューラルネットワーク]]+  - 多層ニューラルネットワーク 
 +    - [[https://ja.wikipedia.org/wiki/ディープラーニング|深層学習,ディープラーニング]] (Deep Learning)
     - [[機械学習:ConvNet]]     - [[機械学習:ConvNet]]
-    - [[機械学習:ディープニューラルネットワーク]] (Deep Neural Networks) +    - [[機械学習:バックプロパゲーション]] (Back-Propagation Method)
-    - [[機械学習:深層学習,ディープラーニング]] (Deep Learning) +
-    - [[機械学習:バックプロパゲーション]] (Back-Propagation Method)日本語では誤差逆伝搬法と呼びます。情報の流れを順方向、学習に必要な誤差の流れを逆方向と言います。+
     - [[機械学習:パーセプトロン]] (Perceptron)     - [[機械学習:パーセプトロン]] (Perceptron)
     - [[機械学習:畳み込みニューラルネットワーク]] (CNN)     - [[機械学習:畳み込みニューラルネットワーク]] (CNN)
     - [[機械学習:ドロップアウト]] (dropout)     - [[機械学習:ドロップアウト]] (dropout)
-  - [[機械学習:再帰型ニューラルネットワーク]] +  - [[機械学習:再帰型ニューラルネットワーク]](recurrent neural networks) 
-    - [[機械学習:リカレントネットワーク]] (recurrent neural networks)リカレントネットワークとはフィードバック結合を持つモデルを指します。 +    - [[機械学習:単純再帰型ニューラルネットワーク]] (simple recurrent neural networks)
-    - [[機械学習:単純再帰型ニューラルネットワーク]] (simple recurrent neural networks)単純再帰型ニューラルネットワークとは,初期に提案された2つモデルを指します。ジョーダンネットワークとエルマンネットワークと言います。+
     - [[機械学習:LSTM]] (Long Short-Term Memory)     - [[機械学習:LSTM]] (Long Short-Term Memory)
     - [[機械学習:GRU]] (Gated Recurrent Unit)     - [[機械学習:GRU]] (Gated Recurrent Unit)
     - [[機械学習:エコーステートネットワーク]] (Echo State Networks)     - [[機械学習:エコーステートネットワーク]] (Echo State Networks)
-  - [[機械学習:強化学習]] +  - 機械学習:汎用性に関わる学習 
-    - [[機械学習:学習]] +    - [[機械学習:転移学習]] 
-    - [[機械学習:TD 学習]] +    - [[機械学習:マルチタスク学習]] 
-    - [[機械学習:アクタークリティック法]] (Actor Qritique Methods) +  - 関連する統計的話題 
-  - [[機械学習:関連する統計的話題]] +    - [[https://ja.wikipedia.org/wiki/ギブスサンプリング|ギブスサンプリング]] (Gibbs samplings)
-    - [[機械学習:ギブスサンプリング]] (Gibbs samplings)+
     - [[機械学習:ベイジアングラフ]] (Bayesian graph)     - [[機械学習:ベイジアングラフ]] (Bayesian graph)
-    - [[機械学習:ベイズ推]] (Bayesian inferences)+    - [[https://ja.wikipedia.org/wiki/ベイズ推定|ベイズ推定]] (Bayesian inferences)
     - [[機械学習:ホップフィールドモデル]] (Hopfield models)     - [[機械学習:ホップフィールドモデル]] (Hopfield models)
-    - [[機械学習:ボルツマンマシン]] (Boltzmann machines)+    - [[https://ja.wikipedia.org/wiki/ボルツマンマシン|ボルツマンマシン]] (Boltzmann machines)
     - [[機械学習:制限ボルツマンマシン]] (restricted Boltzmann machines)     - [[機械学習:制限ボルツマンマシン]] (restricted Boltzmann machines)
-    - [[機械学習:確率過程]] (stochastic processes)+    - [[https://ja.wikipedia.org/wiki/確率過程|確率過程]] (stochastic processes)
     - [[機械学習:統計学習]] (statistical learning)     - [[機械学習:統計学習]] (statistical learning)
     - [[機械学習:独立成分分析]]     - [[機械学習:独立成分分析]]
-  - [[機械学習:記憶]]+  - 記憶
     - [[機械学習:記憶概論]]     - [[機械学習:記憶概論]]
     - [[機械学習:記憶分類]]     - [[機械学習:記憶分類]]
     - [[機械学習:連想記憶]]     - [[機械学習:連想記憶]]
-  - [[機械学習:応用的話題]]+  - 応用的話題
     - [[機械学習:R-CNN]]     - [[機械学習:R-CNN]]
     - [[機械学習:スキップグラム]]     - [[機械学習:スキップグラム]]
     - [[機械学習:ニューラルネットワーク機械翻訳]]     - [[機械学習:ニューラルネットワーク機械翻訳]]
- +  - [[機械学習:参考文献]]
- +
- +
- +
- +
- +
- +
- +
- +
- +
- +
- +
  
  
  • 機械学習.1455764357.txt.gz
  • 最終更新: 2016/02/18 11:59
  • by asakawa