Project AGI および全脳アーキテクチャ・イニシアティブによる提案
Request for Research(RFR・研究依頼 )とは?
人工知能や機械学習は、近年、革新的な成果を挙げてきました。しかし、その最良の技術でさえ、動物の記憶や学習と比べると極端に単純なままです。いまだ実現されていない能力として、たとえば以下のようなものがあります。
これらの能力はまとめて「エピソード記憶」と呼ばれることがあります。脳のなかの海馬系と呼ばれる領域は、哺乳類の脳における宣言的記憶(意味記憶+エピソード記憶)にとってきわめて重要であることが知られています。この研究依頼(RFR)は、海馬系についての私たちの理解を向上させることで、脳全体をモデル化したり現行のAIアルゴリズムを改良したりすることになります。
海馬についての最も傑出した計算論的モデルの一つに、相補的学習システム(Complementary Learning System:CLS)があります。CLS は、神経科学の証拠によって十分な根拠が得られていますし、さまざまな経験的事実を説明することができます。このモデルは、いくつかのグループによって、実装化や拡張化がなされてきました。したがって、CLS は記憶と学習を向上させるための人工的な海馬を作り上げるためのよい出発点となります。
機械学習コミュニティにおいて広く使われている最新のフレームワークを用いてCLS を実装すること。つまり、他の人たちがいじったり拡張したりできるようにすること。
これが人工的な海馬の最初の局面を形作ります。そして次の段階は(この文書の範囲外ですが)以下のようなものになるはずです。
Semi-Closed.👉 ページ最下部
リクエスト:現行の機械学習プログラミング・フレームワークを用いて(人工海馬のバージョン1としての)CLS 海馬モデルを実装化すること
深層学習などの先端水準のAIアルゴリズムは、その大部分がカテゴリーや系列を統計的一般性に基づいて学習するモジュールから構成されています。これは、意味的記憶あるいは事実についての記憶に類似したものです。意味的記憶は、宣言的記憶、すなわち意識にのぼる記憶の一側面です。宣言的記憶のもう一つの側面としてエピソード的記憶があります。エピソード的記憶は、しばしば自伝的と言われますが、一回きりの、あるいはある順序で起きた出来事の記憶です。こうした性質は、顕著さに応じて学習に優先順位をつける能力や、意味的な情報を素早く学ぶ能力へとつながっていると考えられます。
記憶というものの比較的高度な諸特性は、海馬系と新皮質のあいだの相互作用によって生じているということが認められています。あえて単純化して言うと、機械学習のいろいろなモデルは新皮質に類似しています。新皮質には長期的な意味的記憶が貯蔵されます。海馬・新皮質系をより深く理解したり、より優れた実装化をしたりすることは、認知アーキテクチャや洞察をつうじてAIシステムに大きな改良を加えることのきっかけになります。
相補的学習システム(CLS・Complementary Learning System)というアイデアの中心にあるのは、新皮質と海馬という2つの領域が相補的な記憶システムを作り上げているということです。新皮質は、高度に分散され重なり合った、推測や推論にとって都合のよい表現を形成します。海馬は、もっとまばら(スパース)で重なり合いのない表現を形成します。つまり、個別的な諸事例を素早く学習することに特化した表現や、interleaved replay (ニューラルネットのさまざまなモデルで観察されている破滅的忘却という問題を回避するための記憶再生)を促進することに特化した表現を形成します。
海馬系を図式化して描くと、下図のようになります。このプロジェクトの範囲に入るのは、嗅内野(Entorhinal Cortex:EC) 、海馬体(Hippocampal Formation)の一部[歯状回(Dentate Gyrus :DG)、CA3 、CA1 ]のモデル化です。それは難しすぎる、と思わないでくださいね! このプロジェクトに挑むにあたって、これらの諸特性をすべて理解しないといけないわけではありません。
図1:海馬の記憶形成(O’Reilly 2014より)
後部皮質 Posterior Cortex、内側側頭葉 Medial Temporal Lobe(MTL)― 連合野Association Areas、海馬体 Hippocampal Formation、頭頂葉 Parietal Cortex(背側路Dorsal Stream)、海馬傍皮質 Parahippo. Cortex、内嗅皮質 Entorhinal Cortex、歯状回Dentate Gyrus (高度パターン分離)、CA3 (パターン補完 pattern completion)、下側頭葉皮質 IT cortex (腹側路 Ventral Stream)、嗅周皮質 Perirhinal Cortex、
鉤状回Subiculum、CA1(安定的・スパース・反転可能)
以下では、簡潔な説明をするとともに、より徹底した取り扱いのために必要なリソースを提示します。嗅内野(EC)は、新皮質の全体からの入力を結びつける、スパースで分散された重なり合ったパターンを示します。このパターンは、DG からCA3 にかけて抑制と圧縮が増すにつれて、さらにスパースになり、重なり合いが少なくなっていきます。このことは、類似した入力に別々の表現を提供することになり、一般性ではなく特定の諸事例を学習するさいに重要になる、さまざまなパターンを分離する能力を提供することになります。CA3 における再帰的結合は、部分的な手がかりを完全なパターンへと拡張することでパターン補完を可能にし、諸状態からなる何らかの連想や結合(エピソードとなる出来事)を学習することを可能にします。しかるのちにCA1 は、EC へマッピングを返しますが、元々のパターンをリプレイして皮質に示すことで、回想や記憶の固定が可能になります。
CNNBook にはCLS についての素晴らしい章があります。それは(O’Reilly 2014)のなかでも十分に説明されています。オリジナルの諸論文も生物学や予備知識のより徹底した探求のために役立ちます(McLelland 1995, Norman 2003)。
この研究依頼(RFR)は、基準となる実装としてSchapiro 2017を参照しています。この論文に目を通されることをおすすめします。彼女らは神経シミュレーション・ソフトウェアの Emergentで書かれた作業コードを提供しています。こちらのコードを眺めてみることが出発点として役に立つはずです。
CLS のこの実装化の諸特性は以下のように単純化することができます。
個別的な出来事を記憶することができ、かつ、統計から規則性を学習していることのテストとして、3つの実験があります。このテストの詳細な内容については Schapiro 2017を参照ください。ここでは以下のように要約しておきます:
EC は ECin とECout に分割されます(ECout からECin への結合があります)。これら3つのテストのそれぞれにおいて、ある文字列が訓練局面のECin へと提示されます。テスト局面では、パターンのいくつかの部分がECin へと提示され、連想された完全なパターンがECout 上で観察されなくてはなりません。「完全な」パターンの内容は入力データのなかにある構造を反映しています。
図2: コミュニティ構造を備えたグラフ(Anna Schapiro氏のご厚意による)
CLS(相補的学習システム)は(McClelland 1995)によって最初に提唱され、(O’Reilly 2000, O’Reilly 2001)で実装化が探求されました。(Norman 2003) は、ベクトルの想起やパターン補完、潜在的入力を妨害項(distractor)と見分けることといった、広範囲にわたるテストを行うことによって、さらに歩を進めました。
(Greene 2013) は、海馬が文脈なしに学習することができるメカニズムを調べるという目標のもとでCLS の拡張を行いました。外側および内側の嗅内野(EC)は、文脈や物体に関係した個別的情報を受け取ることで知られています。Greeneらは、この二つを別々の構造としてモデル化しました。同様に、DG、CA3、CA1のなかのそれぞれの構造をモデル化しました。また彼らは、LEABRAフレームワークを採用しましたが、このフレームワークは、シナプス固定化(consolidation)を、単純なヘブ学習よりも精確にモデル化することを狙ったもので、局所誤差の勾配によって駆動されます。オンラインで訓練が施され、モデルの一部を事前訓練する必要をなくします。彼らは、異なるいくつかのネットワーク配列にかんして、ある文脈信号を与えられたときに視覚的な物体を想起する能力と、その逆の能力を研究しました。
(Ketz 2013) もLEABRA でCLS を拡張しました。訓練スピードと性能を改善し、(Greene 2013) と同様に事前訓練を回避したのです。彼らのモデルは、いろいろなパターンの語彙を学習し、さまざまなネットワークサイズや訓練スタイル(ヘブvs LEABRA)のもとで、想起についてのテストが行われました。
(Schapiro 2017) は、Ketz のモデルとREMERGE モデル(Kumaran 2012)の「ビッグループ」回帰の諸原理を結びつけました。彼らは、個別的な出来事を素早く学習する能力(既存研究)とともに規則性を素早く学習することをテスト、提示するよう実験を拡大することによってKetz の研究を拡張したのです。ここで、個別的な出来事を素早く学習する能力は、しばしば「エピソード的」と呼ばれ、規則性を素早く学習する能力は「意味的」であると呼ばれます。
海馬のモデルとしては、CLS にかぎらず、他にも注目すべきものがたくさんあります。最近の(Moustafa 2013)に記されているGluck & Myers の論文では、生物学的な下位領域に注意を払うことなく、海馬の振る舞いをより全体的にモデル化しています。彼らのモデルは、海馬は類似したパターンを圧縮し、比較的稀なパターンをさらにもっと個別的なものにしているという原理に基づいています。このGluck & Myers のモデルは、シミュレートされたエージェントを3D世界のなかで作るために用いられています (Wayne 2018)。CLS に似た詳細な計算論的モデルの一つが(Rolls 2017)に記述されており、役に立つかもしれない、より定量的な細部が論じられています。
(英語での)議論をご希望であれば、reddit の私たちのスレッド Learning and Memoryにご参加ください。
Semi-closed
Cerenaut が2年間この問題に取り組んだ結果が近く公開されます。