本記事は、2016年3月15日(火) にグラントウキョウサウスタワー (株式会社リクルートテクノロジーズ様のご厚意による会場ご提供)にて開催されました、第13回全脳アーキテクチャ勉強会「コネクトームと人工知能」の報告書です。開催概要については下記のリンクをご覧下さい。
本報告書の概要
全脳アーキテクチャ・アプローチによる汎用人工知能の構築においては,脳における多様な学習能力に対する理解にもとづいて,機械学習を結合して認知アーキテクチャとして実装してゆく予定である.このアプローチの実現性は,機械学習においては深層学習技術の進展,認知アーキテクチャの面において神経科学知見の蓄積に支えられている.
今回は特に,後者にあたる,脳内の神経ネットワークに対応するコネクトーム研究にフォーカスする.この分野では,時間的に比較的安定した構造的な神経ネットワークだけでなく,その上で認知状態に応じてダイナミックに躍動する神経活動の姿が見え始めている.こうした知見の蓄積から,脳がいかにして知能に汎用性を実現しているといったヒントも得られると期待している.
そこで今回は「神経科学はAIのために何を知り得るのか」という点に力点をおきながら,最初にハーバード大学の水谷治央氏には「コネクトームの活用とその近未来」というタイトルで,次に東京大学の倉重宏樹氏には「脳全体の機能に迫る」というタイトルでご講演をいただいた.そして引き続き,電通大の栗原聡氏を交えて「コネクトームはなぜ知能を創発できるのか?」という題でパネル討論を行った.
1.ご挨拶 (産業技術総合研究所 人工知能研究センター脳型人工知能研究チーム 一杉裕志氏)
【要旨】
個人的なコネクトームへの期待ということで課題をまとめた.AlphaGoがプロ棋士に勝ったことでディープラーニングの知名度は上がってきている.
Convolutional Neural Network(CNN)は視覚野の一番大事な機能をモデル化して取り込んでいると思うが,全ての機能は未だ取り込んでいない.すなわち現状では,解剖学的特徴の全てが,アルゴリズムに反映されているわけではないと思っている.
例えば,視覚野での腹側経路は形を,背側経路では動きと位置に分解して処理を行っている.大脳皮質は網膜から入った情報が階層的に処理されており,フィードバックの結合も必ずある.文脈からの予測,注意とか取り込まれているがどこまで同じモデルなのかわかっていない.大脳皮質の場合は,レイヤが階層構造しているが,同じレイヤの中の結合(横方向)もある.そして,階層を飛び越える結合,視床と間の結合,領野ごとの「個性」などが,視覚野にあってCNNにないものである.
背側経路の物体位置表現は,階層が上がるごとに位置の座標系が変り,より抽象的で普遍的な座標系で表現されている.単純に均一な階層処理のディープラーニングでは,このような座標系の変換は自己組織化されることはないと予想している.学習が進むような作りこみが何らかの形で行われており,その作りこみによって性能が上がるのではないかと思っている.この作りこみを領野の「個性」を生み出すものと考え,マクロな解剖学的構造をヒントとして領野と他部位との接続の違いの解明,ミクロな解剖学的構造をヒントとして領野ごとのハイパパラメタの違いの解明が望まれる.
脳の部位の結合がわかってきたが,解像度が荒いことが問題である.課題的には,脳皮質の局所回路,言語野周辺の詳細な結合,結合の重みや関与する神経伝達物質,受容体の種類などの解明がある.これらの情報が得られることを期待する.
2.オープニング (ドワンゴ人工知能研究所 山川 宏氏)
【いま私たちは脳の地図を手に入れつつある】
全脳アーキテクチャが機械学習モジュールを繋げていく上で繋げるアルゴリズムがどこにあるかと言う事は脳をベースに考えていく上で非常に重要.今までは脳の地図が無くて神経科学への接地を促進する事が出来なかったがいま脳の地図を手に入れつつありこれが出来るようになってきた.コネクトームは遺伝子・分子・細胞・組織・認知と行動と言った脳の五つのレベルの中で細胞から組織までの結合を扱うが構造的ネットワークだけではなく安静時や課題を遂行している時の活動も見えてきている.
【全脳アーキテクチャアプローチ】
全脳アーキテクチャは脳に学び機械学習モジュールを繋げると言う事をやっている.なぜ脳から学ぶ事が有効かと言う理由はいくつかあるが最も重要な事として汎用技術を設計する事の困難さを取り上げて説明する.汎用人工知能は学習を通じて特化し性能を向上すべきで学習すべき部分を作り込むと汎用性が失われるのでいったい何を設計して作れば良いのかと言う事を考える必要がある.
【ネオコグニトロンを脳全体に拡大する】
一つのやり方としてネオコグニトロンを脳全体に拡大する事が考えられる.一般物体認識を実現したネオコグニトロンが脳に学んだのは複雑細胞と単純細胞から構成される基本単位を階層的アーキテクチャにより繰り返し利用すると言う事.汎用人工知能を実現する全脳アーキテクチャは認識だけでなく注意や運動も含んだ大脳新皮質の標準学習アルゴリズムを基本単位として新皮質内の6層構造を考慮したコネクトームで拡大していく.
【新皮質6層構造と皮質下部との連携】
大脳皮質の標準学習アルゴリズムと新皮質の6層構造を考慮したコネクトームそして海馬・視床・基底核など皮質下の計算モデルを分割して設計出来るようになっていく.大脳皮質の標準学習アルゴリズムはまだ完全には解っていないが入出力に関しては三種類の入力と三種類の出力が主に効いていると考えられているので入出力に合わせて設計すれば良い.
【全脳ビューア】※現在はBiCAmonと呼ばれている
マウスの脳を500個くらいの領域に分けた時のコネクションが判るようになってきた.WBAI は機械学習アルゴリズムをこういった研究成果と繋げコネクトームに接地するために脳の活動情報グラフビューアを作成中.このビューアは脳の様々な領野をコネクトームと共に脳内の位置と大きさに応じて三次元的に活動状態のダイナミックな表示を行う(以下ビューアのデモ).これによって WBA 研究の理解が促進され機械学習モデルを神経科学の知見と結びつけながら研究を進めることが出来ると考えている.
3.コネクトームの活用とその近未来 (ハーバード大学 水谷治央氏)
【要旨】
人間の知性を超える機械学習アルゴリズムを開発するためには,脳内で行われている情報処理機構を徹底的に解明する必要がある.人工知能の応用先として車の自動運転技術が話題になっているが,ヒトの認知能力以上の運転性能を人工的に開発することは容易ではない.そのような複雑な状況困難性を克服する一つの手段として,コネクトームを利用した人工知能開発の可能性を提案する.本講演では,シナプス構造まで解像できる電子顕微鏡による神経ネットワーク再構成手法,および現在,アメリカで進んでいるMachine Intelligence from Cortical Networks (MICrONS)と呼ばれるプログラムの概要に言及する.
【電子顕微鏡による神経ネットワーク再構成手法】
生きた人間の脳のコネクションを見る方法としてMRIが使用されている.しかし,分解能が粗いためだいたいの方向性しか見えず,リアルなコネクションまで見ることはできない.水谷氏が所属する研究室では,脳の全てのコネクションを見るために,顕微鏡の中でも最も解像度が高い電子顕微鏡を使用している.電子顕微鏡を使用することにより,ナノレベルの分解能でシナプスを見ることができることから,水谷氏らはこの方法を用いて3次元再構成を行なっている.これまで,大きいものを粗く見る際にはMRIやX線CTが使用され,反対に構造が小さいものを見る場合には電子顕微鏡が使用されてきた.観察装置の違いを超えてすべての領域を見るためには,様々な技術を取り入れスケールの違いを補間する必要がある.
【MICrONSの概要】
今年の2月からアメリカでMICrONSと呼ばれるプログラムが始まった.IARPAがサポートする5年間のプログラムである.MICrONSの目的は,動物の脳をリバース・エンジニアリングすることにより新しい機械学習法を開発することである.
水谷氏が所属するTA(Technical Area)チームでは,構造的なデータを見ることを目的としている.まずはX線で1mm3の神経をマイクロレベルで見る.その後のセクショニングでは,ウエハにスライスを並べスキャンニングしていく.スキャンニングに使用するビームは1本では足りないため,計61本のマルチビームの電子顕微鏡を使用する.その後のセグメンテーションでは,スキャンニングした画像が白黒であるため色付けを行なう.手作業では時間がかかるためディープラーニングを使用している.しかし,同じ細胞であっても間違えて色付けしてしまう場合があり,その際には手動で修正を行なっている.
【コネクトームの応用先】
コネクトームの応用先として次のようなものが考えられる.1つ目は,自動車や絵画,スポーツへの応用である.例えば,自動車運転の技術を高める上でのスタート地点の違いはコネクションの違いから来ているのではないかと考えている.もし無事故の人と事故起こした人の脳を比較できるとすれば,コネクトームの技術が活用できる可能性がある.2つ目は病理が難解な神経疾患の機構解明である.アルツハイマーは脳を開けば分かるが,統合失調症やうつ病,自閉症などは分からないため,コネクトームで原因を解明できるかもしれない.3つ目はアインシュタインの脳をコネクションレベルで解析することである.
【質疑応答】
Q.6層の新皮質にたどり着くのはいつ頃で,またすでに取り組んでいる人はいるのか?
この5年で視覚野にたどり着くと考えている.ラボのPIが視覚野を専門として取り組んでいる.
Q.電子顕微鏡の情報を光学顕微鏡にフィードバックできないか?光学顕微鏡を使う場合はどれくらいの労力がかかるのか?
水谷氏のボスは脳を細かく見ていく必要があると考えているが,もっと粗く見るだけでも良いと考えている人もいる.光学顕微鏡を使う場合,脳を透明化する技術等を使えば時間はかからないと思われる.
統計性のあるデータが公開されることを期待している.→全てのデータは5年後にオープンになる.
4.WBAI創設賛助会員プレゼンテーション (株式会社Nextremer 古川朋裕氏)
「外部記憶を持つニューラルネットワーク」というテーマでの講演。WBAI創設賛助会員・特別賛助会員による5分間の講演枠。
5.脳全体の機能に迫る (東京大学 倉重宏樹氏)
【要旨】
Resting-state fMRIと,Neurosynthデータベースから再構成した109個の認知機能に対する脳賦活マップを用い,認知機能と脳ネットワーク構造の関係,および認知機能同士の関係性を探った.本講演では脳を認知機能に基づいて分割(parcellation)する方法をまず説明する.次いで,得られたparcelsをノードとするネットワークを解析し,parcelごとの情報収集源の多様性の違い,およびその多様性と担う認知機能の関係,また,ネットワーク中に存在する高密度クラスタと認知機能の関係を見る.さらに,認知情報処理における粒度,脳の機能的結合に基づく認知機能概念の概念分析,認知機能間ネットワーク,認知機能間の継承関係についても解説を行う.
認知機能に基づく脳の分割
11406本(2016/3/13)のfMRI論文が登録されているNeurosynthデータベース(http://neurosynth.org)を用い,109個の認知機能に対応する脳賦活マップ (cognitive maps)を再構成した.それから全脳の各voxelとそれらのマップのresting-state functional connectivity (RSFC;安静時の機能的脳結合)を測り,それをもとにvoxelをクラスタリングすることで,認知機能との連関度をラベルに持つ199個のparcelsを得た.Nonnegative Matrix Factorizationによる次元削減を行い,各parcelを表す109次元のベクトルを6次元に削減した.結果,109個の認知機能をFactor 0 (概念処理),Factor 1 (運動・表出:前頭葉中心),Factor 2 (視覚・注意:視覚野中心),Factor 3 (実行機能:前頭葉と頭頂葉中心),Factor 4 (価値判断:前頭葉内側部中心),Factor 5 (記憶:頭頂葉内側部中心)の6つのFactorに分割することができた.
各parcelについて情報収集源の多様性と担う認知機能の関係
各parcelについて,各Factorからの情報伝達の程度を熱拡散モデルを用いて定量化した.さらに各parcelについて,その情報源の多様性を,Factorからの情報伝達の偏りを示すGini係数に基づいて表した.その上で,得られた多様性と各parcelが主に担う認知機能を比較した.結果Factor 5(記憶)Factor 4(価値判断),Factor 3(実行機能)の順に情報源の多様性が高く,反対にFactor 1(運動・表出),Factor 2(視覚・注意)は多様性が低いことが示された.
ネットワークの局所的クラスタ性と認知機能の関係
ネットワークの局所的なクラスタ性の強さと認知機能の関係を調べる目的でClique percolation法 (Palla et al. (2005) Nature)を用いて解析を行った.結果,視覚・注意,運動・表出および概念処理にかかわるネットワークが強いクラスタ性を持っていることがしめされた.
巨視的認知情報処理と微視的認知情報処理
複数のNMF因子に関連するparcelsについて解釈を行った.一つの解釈は多数の因子に関与するparcelは,汎用的に使われる粒度の小さい機能を有するものであるというものである.もうひとつの解釈は多数の因子に関与するparcelは,多数の要因が組み合わさった特別な状況での情報処理を担う粒度の大きい機能を有するというものである.前者の解釈の妥当性が高いと考えているが,今後より詳しく検討する必要がある.
脳の機能的結合に基づく認知機能概念の概念分析
各認知機能について,そのcognitive mapを構成するvoxelsとほかの認知機能のcognitive mapsとのRSFCを測り,それをもとに当該のcognitive mapをクラスタリングすることで,認知機能を細分化して分析を行った.結果,“emotion”は,意思決定,視覚,他者や自分の心情,恐れ,抽象的な意味の把握などのサブ機能へと細分される概念であること,“prospective memory”は,記憶,知的判断,運動,意思決定,実行機能に関与するサブ機能へと細分される概念であることなどが示された.
認知機能間のRSFCネットワーク
認知機能感のネットワークについて調べる目的でcognitive mapsの間のRSFCを測り,それをもとに認知機能をクラスタに分けた.さらに多次元尺度法でマッピングをし,クラスタ同士の距離関係を示した.結果,自己・他者関連クラスタ(deafault mode network, autobiography, theory of mindなど),実行機能系クラスタ(working memory,cognitive contorolなど),言語系クラスタ(semantic processing,meaning,languageなど),価値判断系クラスタ(decision making,choiceなど),運動・表出系クラスタ(movement, motor imageryなど),視覚・注意系クラスタ(visual search,object recognitionなど)に分けられた.
認知機能間の継承関係
認知機能同士の継承関係を抽出する目的で,cognitive mapsと全脳voxelsのRSFC行列に対してNMFを実行し,さらにその係数行列に閾値を設け,二値化を行った.得られた二値化行列は各認知機能があるFactorを所有しているか否かを表す.この二値化行列を用い,認知機能間の継承関係(包含関係:”concept”には”narrative”,”judgement”,”comprehention”が包含されるなど)を抽出することができた.
今後の展望
・創造性や好奇心,モチベーションなど,人工知能的に有用そうである概念への応用
・各parcelの計算論的特性ととparcelが担う認知機能の関係を明らかにする
・複数の因子に関与するparcelsが,汎用的な機能を持つparcelsなのか,特化した機能を持つparcelsなのかを同定する方法の開発
・自然言語処理を活用し,認知機能概念の概念分析を発展させる.
【質疑応答】
Q.古典的な大脳皮質の分け方とパーセルで分けた認知機能の分け方とどの程度関連しているか?
類似した関係が見られた.
Q.認知機能ネットワークの距離を見ていたが,機能間距離と解剖学的距離とは相関があるか?
このcognitive mapは必ずしもひとかたまりのマップにはなっていない.例としてワーキングメモリだと前頭葉と頭頂葉の両方が関係してくる.そのため一概に解剖学的距離と較べるのは難しい.
Q.6つのFactorの中に言語はどのように含まれているのか?
概念処理の中に内包されている.
Q.自然言語処理を活用した認知機能概念の概念分析とは?
まず自然言語処理手法を用い,認知機能語をベクトルで表す.そのベクトルからcognitive mapを予測するモデルを作る.そのモデルを用い,新たな認知機能語についてcognitive mapを予測する.それを,従来のメタアナリシスで作られたcognitive mapと合わせて検討することで,よりよく概念要素を把握できるのではないかと考えている.
6.パネルディスカッション「コネクトームはなぜ知能を創発できるのか?」
【要旨】
本パネルでは冒頭に栗原氏よりネットワークという観点から創発する仕組みを議論できればと問題提起があった.パネルディスカッションでは脳がどのように作られていると考えるか,シンクロナイゼーションにより発現する機能,そしてその現象自体は何なのかといったことについて議論がなされた.
パネリスト:
ハーバード大 水谷治央氏
東京大 倉重宏樹氏
電通大 栗原聡氏
モデレータ:
ドワンゴ人工知能研究所 山川宏氏
【問題提起 栗原聡】
<ネットワークという観点から>
一斉に光って消えるホタルの群れ,Six Degrees of Separationの実験,感染(街中や空港など何処にいたかというポジションによるパンデミック)などにはネットワークというものが介在している.神経細胞がどういう風に活動,結合しているかが重要で,ネットワークのダイナミクスということもからも創発する仕組みを考えないといけないのではないか.また,脳を作るためには個々のパーツを繋げるトップダウン型,成長しつつ自己組織化するボトムアップ型の2つの方法が考えられるがどうか.ネットワークという観点から議論できればと思う.
【パネルディスカッション】
倉重:
繋がり方がとても大事.汎用的な機能を持った脳の部分が少なからずあり,ネットワーク的に組み合わさって具体的にある機能を創発しているのではと思っている.どの機能を組み合わせれば良いのか,アルゴリズムは何処にあるのか.それらを統括する部分はあるのか,大局的なネットワーク構造に埋め込まれており力学的な性質がアルゴリズムの実装になっているのかなど考慮にいれて研究していくことが大事ではないか.
水谷:
生物学的な視点を考えると神様のようなものは脳にいない.前の話を受けて思ったのは,ネットワーク的にはランダムに試行錯誤して生存に有利であればその機能が残るというアプローチなのではという考え.何の機能もないネットワークもあると思う.
山川:
レスティングステイトのような定常的なものはネットワーク上何か意味があるのか.
水谷:
利発活動もシンクロしている.何がシンクロナイゼーションを生み出すのかというのが根元的.クラスター間の強度が重要なのではないか.
山川:
シンクロナイゼーションが起こることによって発現する機能はネットワークサイエンス的にどんなものが想定されるか.
栗原:
アリが群れることによって餌が摂りやすくなるなどの一段階の創発がイメージしやすい.脳の場合はN段だと思われる.階層ができるが,どういうふうに作っていくかというのは全くわかっていない.
山川:
階層自体が入れ替わってしまうようなものがあるということか?
栗原:
階層が階層を作るなどが考えられる.このあたりが鍵なのでは.
倉重:
シンクロナイゼーションが情報処理にどういう風に有利かというのは謎.あえて自由度を減らすのがなぜいいのかを突き詰めていかないといけないと思っている.
水谷:
シンクロナイゼーションは結果の可能性はないのか?
栗原:
あると思う.原因の方の可能性もある.機能が創発した結果シンクロが現象として見えている可能性もありそう.
会場から:
コンピュータの中はクロックがあって同期している.同期の機構がないと情報処理が実現しにくいのではと思っている.
会場から引き続き:
計算機械としてみれば色々な部位があって必要な時に必要な場所が動くことが必要.コネクトームや大きなネットワークで何者がそれがやっているのか,あるいはどういう仕掛けなのか.ただシンクロしているというだけでなく,それ以上のものがないと現実の現象が起きないのではないか.
倉重:
そのとおりである.
会場から:
脳が考える時には静的なネットワークだけでなくセルアセンブリのような動的なネットワークが必要ではないかと思っているがどうか.
【会場からの質問も踏まえて最後に】
水谷:
動的なネットワークはもちろん必要だと思っている.情報の伝達量などで調節をしているのではないか.
倉重:
セルアセンブリについて,プログラムのように働くという可能性はあると考えている.しかしながら誰がどうやってそのプログラムが正しい,今の状況に良いと判断しているかということを解明していかないといけないと思っている.
謝辞
本レポート記事の作成は、WBAIボランティアスタッフを中心に行われました。心より感謝申し上げます。
- 生島 高裕(株式会社 数理先端技術研究所)
- 川村 正春
- 鈴木 聡(株式会社電通サイエンスジャム)
- 佐藤 洋平(オフィスワンダリングマインド)
- 小林輝行(株式会社COMPASS)
- 山川 宏(株式会社ドワンゴ人工知能研究所)