機械学習

差分

このページの2つのバージョン間の差分を表示します。

この比較画面にリンクする

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
機械学習 [2016/02/18 11:48]
asakawa [多層ニューラルネットワーク]
機械学習 [2016/12/02 15:01] (現在)
n.arakawa
行 7: 行 7:
     - [[機械学習:機械学習の歴史]] (History of Machine Learning)     - [[機械学習:機械学習の歴史]] (History of Machine Learning)
     - [[機械学習:神経伝達物質]] (Neurotransmitters)     - [[機械学習:神経伝達物質]] (Neurotransmitters)
-  - [[機械学習:基本的概念]] +  - 基本的概念 
-    - アトラクタ (Attractors) +    - [[機械学習:アトラクタ]] (Attractors) 
-    - 勾配降下法 (Gradient Descent Algorithm) +    - [[機械学習:勾配降下法]] (Gradient Descent Algorithm) 
-    - 教師あり学習教師なし学習 (Supervised Learning, Unsupervised Learning) +    - [[機械学習:教師あり学習教師なし学習]] (Supervised Learning, Unsupervised Learning) 
-    - 最急降下法 (Steepest Gradient Descent Methods) +    - [[機械学習:自己組織化]] Self-Organization 
-    - 確率的勾配降下法 (Stochastic Gradient Descent) +    - [[機械学習:過学習]] (Over-Learning) 
-    - 自己組織化 Self-Organization (Self-Organizing Map) +    - [[機械学習:強化学習]] (Reinforcement Learning) 
-    - 過学習 (Over-Learning) +  - 多層ニューラルネットワーク 
-    - 回帰、分類 (Regression, Classification) +    - [[https://ja.wikipedia.org/wiki/ディープラーニング|深層学習,ディープラーニング]] (Deep Learning)
-  - [[機械学習:多層ニューラルネットワーク]]+
     - [[機械学習:ConvNet]]     - [[機械学習:ConvNet]]
-    - [[機械学習:ディープニューラルネットワーク]] (Deep Neural Networks) +    - [[機械学習:バックプロパゲーション]] (Back-Propagation Method)
-    - [[機械学習:深層学習,ディープラーニング]] (Deep Learning) +
-    - [[機械学習:バックプロパゲーション]] (Back-Propagation Method)日本語では誤差逆伝搬法と呼びます。情報の流れを順方向、学習に必要な誤差の流れを逆方向と言います。+
     - [[機械学習:パーセプトロン]] (Perceptron)     - [[機械学習:パーセプトロン]] (Perceptron)
     - [[機械学習:畳み込みニューラルネットワーク]] (CNN)     - [[機械学習:畳み込みニューラルネットワーク]] (CNN)
     - [[機械学習:ドロップアウト]] (dropout)     - [[機械学習:ドロップアウト]] (dropout)
-  - [[機械学習:再帰型ニューラルネットワーク]] +  - [[機械学習:再帰型ニューラルネットワーク]](recurrent neural networks) 
-    - [[機械学習:リカレントネットワーク]] (recurrent neural networks)リカレントネットワークとはフィードバック結合を持つモデルを指します。 +    - [[機械学習:単純再帰型ニューラルネットワーク]] (simple recurrent neural networks)
-    - [[機械学習:単純再帰型ニューラルネットワーク]] (simple recurrent neural networks)単純再帰型ニューラルネットワークとは,初期に提案された2つモデルを指します。ジョーダンネットワークとエルマンネットワークと言います。+
     - [[機械学習:LSTM]] (Long Short-Term Memory)     - [[機械学習:LSTM]] (Long Short-Term Memory)
     - [[機械学習:GRU]] (Gated Recurrent Unit)     - [[機械学習:GRU]] (Gated Recurrent Unit)
     - [[機械学習:エコーステートネットワーク]] (Echo State Networks)     - [[機械学習:エコーステートネットワーク]] (Echo State Networks)
-  - [[機械学習:強化学習]] +  - 機械学習:汎用性に関わる学習 
-    - 学習 +    - [[機械学習:転移学習]] 
-    - TD 学習 +    - [[機械学習:マルチタスク学習]] 
-    - アクタークリティック法 (Actor Qritique Methods) +  - 関連する統計的話題 
-  - [[機械学習:自己組織化]] +    - [[https://ja.wikipedia.org/wiki/ギブスサンプリング|ギブスサンプリング]] (Gibbs samplings) 
-  - [[機械学習:関連する統計的話題]] +    - [[機械学習:ベイジアングラフ]] (Bayesian graph) 
-    - ギブスサンプリング (Gibbs samplings) +    - [[https://ja.wikipedia.org/wiki/ベイズ推定|ベイズ推定]] (Bayesian inferences) 
-    - ベイジアングラフ (Bayesian graph) +    - [[機械学習:ホップフィールドモデル]] (Hopfield models) 
-    - ベイズ推論 (Bayesian inferences) +    - [[https://ja.wikipedia.org/wiki/ボルツマンマシン|ボルツマンマシン]] (Boltzmann machines) 
-    - ホップフィールドモデル (Hopfield models) +    - [[機械学習:制限ボルツマンマシン]] (restricted Boltzmann machines) 
-    - ボルツマンマシン (Boltzmann machines) +    - [[https://ja.wikipedia.org/wiki/確率過程|確率過程]] (stochastic processes) 
-    - 制限ボルツマンマシン (restricted Boltzmann machines) +    - [[機械学習:統計学習]] (statistical learning)
-    - 確率過程 (stochastic processes) +
-    - 統計学習 (statistical learning)+
     - [[機械学習:独立成分分析]]     - [[機械学習:独立成分分析]]
-  - [[機械学習:記憶]]+  - 記憶
     - [[機械学習:記憶概論]]     - [[機械学習:記憶概論]]
     - [[機械学習:記憶分類]]     - [[機械学習:記憶分類]]
     - [[機械学習:連想記憶]]     - [[機械学習:連想記憶]]
-  - [[機械学習:応用的話題]]+  - 応用的話題
     - [[機械学習:R-CNN]]     - [[機械学習:R-CNN]]
     - [[機械学習:スキップグラム]]     - [[機械学習:スキップグラム]]
     - [[機械学習:ニューラルネットワーク機械翻訳]]     - [[機械学習:ニューラルネットワーク機械翻訳]]
-==== 神経伝達物質 (Neurotransmitters) ==== +  - [[機械学習:参考文献]]
- +
-====== 基礎的概念 ====== +
-==== アトラクタ (Attractors) ==== +
- +
-==== 勾配降下法 (Gradient Descent Algorithm) ==== +
- +
-==== 教師あり学習、教師なし学習 (Supervised Learning, Unsupervised Learning) ==== +
- +
-[[http://kazoo04.hatenablog.com/entry/agi-ac-12|教師なし学習]] +
-==== 最急降下法 (Steepest Gradient Descent Methods) ===== +
- +
-==== 確率的勾配降下法 (Stochastic Gradient Descent) ==== +
- +
- +
-==== 過学習 (Over-Learning) ==== +
- +
-==== 回帰、分類 (Regression, Classification) ==== +
- +
- +
- +
- +
- +
- +
- +
- +
- +
  
  
  • 機械学習.1455763704.txt.gz
  • 最終更新: 2016/02/18 11:48
  • by asakawa