第27回 全脳アーキテクチャ勉強会〜確率的グラフィカルモデルと脳〜

概要

脳は確率推論をする情報処理装置であり、予測符号化モデルのように一種の確率的グラフィカルモデルを用いた大脳皮質の計算論的モデルがいくつも提案されてきている。また、汎用人工知能の実現に向けた重要な課題の1つに確率推論と記号推論の統合があるが、確率的グラフィカルモデルはそのカギになり得る技術でもある。今回の勉強会ではボルツマンマシンやベイジアンネットの専門家をお呼びして、確率的グラフィカルモデルの高機能化・大規模化につながる様々な技術について理解を深めるとともに、今後解決すべき課題について議論する。

開催詳細

  • 日 時:2019年7月19日(金) 18:00~20:20
  • 会 場:東京大学医学部教育研究棟14階 鉄門記念講堂
  • 主 催:NPO法人 全脳アーキテクチャ・イニシアティブ
  • 協 賛:文部科学省新学術領域「脳情報動態」

講演スケジュール

時間 内容 講演者
18:00 開会の挨拶 尾藤 晴彦(東京大学)
18:02 会場説明 一杉 裕志(産業技術総合研究所 人工知能研究センター)
18:10 開催趣旨説明:大規模グラフィカルモデルのブレークスルーを目指す 一杉 裕志(産業技術総合研究所 人工知能研究センター)
18:25 動的ボルツマンマシンとPommerman(資料YouTube 恐神 貴行(IBM 東京基礎研究所)
19:05 休憩(10分)
19:15 確率的グラフィカルモデルと離散構造処理(資料 石畠 正和(NTT コミュニケーション科学基礎研究所)
19:55 ディスカッション
20:15 Closing Remark 山川 宏(全脳アーキテクチャ・イニシアティブ)
20:20 終了

動的ボルツマンマシンとPommerman

講演者:恐神 貴行(IBM 東京基礎研究所)

概要:ボルツマンマシン等の従来の人工ニューラルネットワークはヘブ則に基づいて学習するが、近年の生物実験においてはヘブ則をより精緻にするスパイク時間依存可塑性(STDP)が神経細胞の学習則として確認されている。本講演では、STDPに対する理論的な基礎付けを与えるために、各時点に対応する層をもつボルツマンマシンを考え、層数無限の極限として動的ボルツマンマシンを導出する。特に、所与の時系列データの尤度最大化という目的関数から導出される動的ボルツマンマシンの学習則が、STDPの特徴を有することを示す。また、NeurIPS 2018 Pommermanコンペティションで1位と3位に入賞したエージェントに使われた、悲観的シナリオに基づくリアルタイム木探索技術についても紹介する。

確率的グラフィカルモデルと離散構造処理

講演者:石畠 正和(NTT コミュニケーション科学基礎研究所)

概要:人工知能・機械学習において、興味のある対象はしばしば確率モデルとして記述される。確率的グラフィカルモデルとは、確率モデルをグラフ構造により表現する手法であり、グラフの特性を生かした効率的な推論・学習アルゴリズムを提供するだけでなく、対象の確率モデルの直感的な理解にも貢献する。確率的グラフィカルモデルの1つであるBayesian Network (BN)は、同時分布を有向非巡回グラフにより表現する。このBN上の確率計算・学習には、一般には指数的な計算が必要である。本講演では、これらのBN上の指数的な計算が離散構造処理技術を用いることで、経験的に効率的に行えることを紹介する。

運営スタッフ

  • プログラム委員長:一杉 裕志
  • 実行委員長:藤井 烈尚
  • 司会:一杉 裕志
  • 懇親会幹事:生島 高裕
  • 当日会場準備:長田 恭治、横田 浩紀
  • 写真撮影:門前 一馬
  • 動画撮影:門前 一馬
  • connpass:藤井 烈尚
  • 会場マイク担当等:横田 浩紀

外部リンク