BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:第11回全脳アーキテクチャ勉強会 〜Deep Learning
 の中身に迫る〜
X-WR-CALNAME:第11回全脳アーキテクチャ勉強会 〜Deep Learning
 の中身に迫る〜
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:567970@techplay.jp
SUMMARY:第11回全脳アーキテクチャ勉強会 〜Deep Learningの中
 身に迫る〜
DTSTART;TZID=Asia/Tokyo:20150826T180000
DTEND;TZID=Asia/Tokyo:20150826T210000
DTSTAMP:20260403T221129Z
CREATED:20150816T080111Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/56797
 0?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\n第11回全脳
 アーキテクチャ勉強会\n\n全脳アーキテクチャ勉強会に
 おける中心的なテーマであるDeep Learningについては，Caf
 feやChainerを始め開発環境が充実しつつありますが，全
 脳アーキテクチャのための新しいアーキテクチャを創
 出するためには，ゼロから多層複雑ネットワーク等を
 構築することも多いの想定されます．\nそのためにも
 ，Deep Learningの中身，例えば，中間層で起きていること
 や，なぜ，学習できるのか等を深く理解しておくこと
 が重要です．そこで，今回の勉強会では，物理学や力
 学的解析の視点からのDeep Learningの中身に迫る講演2件
 と，世界初の商用レベルでサポートされたオープンソ
 ースディープラーニングフレームワークであるDeeplearni
 g4jを開発されたSkymind社CTOのAdam Gibson氏の講演を企画し
 ました．\n\n勉強会開催詳細\n\n\n日　時：2015年8月26日(
 水) 18:00～21:00 (開場: 17:30～)\n場　所：リクルートGINZA8
 ビル(G8) 11階大ホール\n\n\n(リクルート様のご厚意によ
 り会場提供していただきました)\nhttp://www.recruit.jp/compan
 y/about/office.html\n\n定　員：200名（定員に達し次第締め
 切らせて頂きます）\n参加費：無料\n申込方法：本イベ
 ントに参加登録のうえ，当日会場受付にてお名前また
 はチケットをご提示下さい。\n主　催：全脳アーキテ
 クチャ・イニシアティブ\n\n\nレポーターを募集してい
 ます\n\nドワンゴ人工知能研究所所長山川宏氏と共著に
 て本勉強会の報告書作成にご協力いただくレポーター
 を募集しております。報告書の分量は4000~7000字程度と
 し，ドワンゴ人工知能研究所のテクニカル・レポート
 として発行する予定です。\n\n満席の場合でも勉強会の
 協力参加者として出席できますので、ご協力をいただ
 ける方は本ページのお問い合わせよりご連絡ください
 。\n\nネット配信について\n\n本勉強会は、ニコニコ生
 放送にて各講演者の講演と全体討論を配信予定です。
 ニコニコ生放送にてご覧頂けます。\n\n講演スケジュー
 ル\n\n18:00 - 18:10「オープニング」(電気通信大学／ドワ
 ンゴ人工知能研究所 栗原聡 氏)\n\n18:10 - 19:00「深層学
 習の学習過程における相転移」(京都大学大学院情報学
 研究科 大関真之 氏)\n\n深層学習で何が行われているの
 か理論的に理解する．しかし複雑なアーキテクチャを
 持つものであるためそれは非常に困難な道のりとは誰
 もが感じていることでしょう．本講演では、数理的な
 アプローチでその理解をしようとする取り組みについ
 て講演します．そもそも論として、高次元の構造のあ
 るデータを学習するときに教師なし学習と教師有り学
 習を素朴に行うとしたときに何が起こるのか．これを
 数理的な”おもちゃ"を使って調べてみます．高次元の
 極限を調べるために、原子分子などの非常に細かいも
 のが集まった大きな数の世界を扱う手法に長けた理論
 を持つ物理学の手法を用いました．結果わかったこと
 は、まず教師なし学習の量が多くなると、識別器の潜
 在的な能力が引き上げられることがわかります．しか
 し残念ながらその潜在的な能力を引き出すためには、
 生半可には超えられない壁があることがわかります．
 一方、教師有り学習の量を増やすと、その障壁が弱ま
 ること、あるところを境目にして高性能な識別器へと
 急激に変化することがわかりました．物理学の言葉で
 は一次転移と呼ばれる現象に相当します．このように
 まだまだ些細な進展ではありますが、ちょっと面白い
 発見について紹介させていただければと思います．\n\n
 19:00 - 19:10 休憩\n\n19:10 - 19:40「Deep Neural Networksの力学的
 解析」(東京大学総合文化研究科 本武陽一 氏)\n\n近年
 の人工知能ブームのきっかけとなった技術的ブレーク
 スルーであるDeep Learning技術ですが、その高いパフォー
 マンスが獲得される原因が、未だ明確ではありません
 。その原因は、Deep Neural Networksが非線形識別機であり
 、対象とするデータが高次元である為です。そこで私
 の研究では、そのような対象の解析に長じた、力学的
 解析手法によって、Deep Neural Networksの中で生じている
 現象を調べ、問題にアプローチしています。具体的に
 は、Deep Neural Networksの各層を時刻ととらえ、その時間
 発展ダイナミクスの解析を通して、情報の圧縮や拡大
 等を議論しています。この解析の結果、「多様体仮説
 」と呼ばれる、実世界に存在する高次元データが、実
 はクラス（犬や猫といったラベルに対応）毎にそれぞ
 れ別の低次元部分多様体上に分布しているという仮説
 が正しいようであることと、パフォーマンスの高い教
 師ありDeep Neural Networksが、それをうまく活用している
 ことが分かってきました。講演では、Alexnet等の実践的
 なネットワークの解析結果を通して、上記のことを説
 明します。\n\n19:40 - 19:50 休憩\n\n19:50 - 20:30「SkymindのDeep
  Learningへの取り組み」(Skymind社CTO Adam Gibson氏)\n\nGibsonに
 よる，世界初の商用レベルでサポートされたオープン
 ソースディープラーニングフレームワークであるDeeplea
 rnig4jや，科学計算用のND4Jなど，Java仮想マシン向けの
 オープンソースライブラリについて解説する．\n\nAdam G
 ibson 氏プロフィール：\n\nDeeplenarnig OSSを提供するSkymind
 社を2014年にCTOとして起業。サンフランシスコのGalvanize
 Uにてデータサイエンティストマスタープログラムのア
 ドバイザも務める。2015年秋に “Deep Learning: A Practitioner
 ’s Approach”をO’reillyから刊行。\n\n\n著書: O’Reilly’s 
 Deep Learning: A Practitioner’s Approach (2015)\nアドバイザー:  Z
 ipfian\, GalvanizeU のDeep Learning\, データサイエンティスト
 コース\n登壇実績: Hadoop Summit\, OSCon\, Tech Planet\, GigaOM\n
 起業実績: 4x startup founder\nDeeplearning4j · GitHub\nDeeplearning4
 j - Open-source\, distributed deep learning for the JVM\nSkymind - Deep l
 earning for Industry on Hadoop and Spark\n\n\n20:30 - 21:00 全体討論\
 n\n日米のDeep learningの方法論や最新の動向について，Ada
 m Gibson氏とドワンゴAIラボ所長山川氏との対談を中心と
 した全体討論を行います。\n\n21:00 - 23:00 懇親会(自由参
 加)\n\n会場近辺のお店で、有志による懇親会を行いま
 す。\n\n全脳アーキテクチャ勉強会オーガナイザー\n\n
 ◎産業技術総合研究所 人工知能研究センター脳型人工
 知能研究チーム 一杉裕志\n\n1990年東京工業大学大学院
 情報科学専攻修士課程修了。1993年東京大学大学院情報
 科学専攻博士課程修了。博士(理学)。同年電子技術総
 合研究所(2001年より産業技術総合研究所)入所。プログ
 ラミング言語、ソフトウエア工学の研究に従事。2005年
 より計算論的神経科学の研究に従事。\n\n「全脳アーキ
 テクチャ解明に向けて」\n\n◎株式会社ドワンゴ人工知
 能研究所 所長 山川宏\n\n1987年3月東京理科大学理学部
 卒業。1992年東京大学で神経回路による強化学習モデル
 研究で工学博士取得。同年（株）富士通研究所入社後
 、概念学習、認知アーキテクチャ、教育ゲーム、将棋
 プロジェクト等の研究に従事。フレーム問題（人工知
 能分野では最大の基本問題）を脳の計算機能を参考と
 した機械学習により解決することを目指している。\n\n
 http://hymkw.com/ja/\n\n◎東京大学 准教授 松尾豊\n\n東京大
 学で、ウェブと人工知能、ビジネスモデルの研究を行
 っています。 ウェブの意味的な処理を人工知能を使っ
 て高度化すること、人工知能のブレークスルーをウェ
 ブデータを通じて検証することを目指しています。\n\n
 http://ymatsuo.com/japanese/\n\n全脳アーキテクチャ実現に関
 する参考資料\n\n第10回全脳アーキテクチャ勉強会 「全
 脳アーキテクチャのいま」〜全脳アーキテクチャプロ
 ジェクトとそれをとりまく周辺の最新状況報告〜\n\n\n
 全脳アーキテクチャの全体像\n人工知能の難問と表現
 学習\n全脳アーキテクチャと大脳皮質モデル BESOM の実
 用化研究の構想\n全脳アーキテクチャを支えるプラッ
 トフォーム\n人工知能・ロボット次世代技術開発\n汎用
 人工知能に向けた認知アーキテクチャが解決するべき
 知識の課題\n感情モデルと対人サービス\n若手の会の活
 動報告\n 勉強会概要と発表資料\n\n\n第9回全脳アーキテ
 クチャ勉強会 〜実世界に接地する言語と記号〜\n\n\n脳
 内視覚情報処理における物体表現の理解を目指して 〜
 Deep neural networkの利用とブレイン・マシン・インタフェ
 ースへの応用〜\n記号創発ロボティクス 〜内部視点か
 ら見る記号系組織化への構成論的アプローチ〜\n脳科
 学から見た言語の計算原理\n 勉強会概要と発表資料\n\n
 \n第8回全脳アーキテクチャ勉強会 時系列データ 〜脳
 と機械学習技術は時間をどう扱うのか〜\n\n\n脳におけ
 る時間順序判断の確率論的最適化\n順序とタイミング
 の神経回路モデル\n深層学習によるロボットの感覚運
 動ダイナミクスの学習\n 勉強会概要と発表資料\n\n\n第7
 回全脳アーキテクチャ勉強会 感情 〜我々の行動を支
 配する価値の理解にむけて〜\n\n\n感情の進化 〜サルと
 イヌに見られる感情機能〜\n情動の神経基盤 ～負情動
 という生物にとっての価値はどのように作られるか？
 〜\n感情の工学モデルについて ～音声感情認識及び情
 動の脳生理信号分析システムに関する研究〜\n 勉強会
 概要と発表資料\n\n\n第6回全脳アーキテクチャ勉強会 
 統合アーキテクチャー　〜神経科学分野とAI分野の研
 究蓄積の活用に向けて〜\n\n\n分散と集中：全脳ネット
 ワーク分析が示唆する統合アーキテクチャ\n脳の計算
 アーキテクチャ：汎用性を可能にする全体構造\n認知
 機能実現のための認知アーキテクチャ\n 勉強会概要と
 発表資料\n\n\n第5回全脳アーキテクチャ勉強会 〜意思
 決定　深いゴール探索と深い強化学習の技術をヒント
 にして、前頭前野の機構の解明を目指す〜\n\n\nDeep Learn
 ing とベイジアンネットと強化学習を組み合わせた機構
 による、 前頭前野周辺の計算論的モデルの構想\nBDI ―
 モデル、アーキテクチャ、論理―\n強化学習から見た
 意思決定の階層\n 勉強会概要と発表資料\n\n\n第4回全脳
 アーキテクチャ勉強会 〜機械学習と神経科学の融合の
 先に目指す超知能〜\n\n\n全脳アーキテクチャ主旨説明\
 nAIの未解決問題とDeep Learning\n脳の主要な器官の機能と
 モデル\n脳をガイドとして超脳知能に至る最速の道筋
 を探る\n自然な知覚を支える脳情報表現の定量理解\n脳
 型コンピュータの可能性\n 勉強会概要と発表資料\n\n\n
 第3回全脳アーキテクチャ勉強会　〜海馬：脳の自己位
 置推定と地図作成のアルゴリズム〜\n\n\n「SLAMの現状と
 鼠の海馬を模倣したRatSLAM」\n「海馬神経回路の機能ダ
 イナミクス」\n「人工知能(AI)観点から想定する海馬回
 路の機能仮説」\n 勉強会概要と発表資料\n\n\n第2回全脳
 アーキテクチャ勉強会　〜大脳皮質と Deep Learning〜\n\n\
 n「大脳皮質と Deep Learning」\n「視覚皮質の計算論的モ
 デル ? 形状知覚における図地分離と階層性」\n「Deep Lea
 rning技術の今」\n WBAの実現に向けて： 大脳新皮質モデ
 ルの視点から\n勉強会概要と発表資料\n\n\n第1回全脳ア
 ーキテクチャ勉強会　〜機械学習と神経科学の融合の
 先に目指す超知能〜\n\n\n勉強会開催の主旨説明\nAIの未
 解決問題とDeep Learning\n脳の主要な器官の機能とモデル\
 n脳を参考として人レベルAIを目指す最速の道筋\n勉強
 会概要と発表資料\n\n\nその他関連情報\n\n\n全脳アーキ
 テクチャ勉強会Facebookグループ(現在2\,100名以上が参加
 中!)\n全脳アーキテクチャ勉強会公式Twitterアカウント\n
 \n\n全脳アーキテクチャ勉強会の開始背景(2013年12月)\n\n
 人間の脳全体構造における知的情報処理をカバーでき
 る全脳型ＡＩアーキテクチャを工学的に実現できれば
 、人間レベル、さらにそれ以上の人工知能が実現可能
 になります。これは人類社会に対して、莫大な富と利
 益をもたらすことが予見されます。例えば、検索や広
 告、自動翻訳や対話技術、自動運転やロボット、そし
 て金融や経済、政治や社会など、幅広い分野に大きな
 影響を与えるでしょう。\n\n私達は、この目的のために
 は、神経科学や認知科学等の知見を参考としながら、
 機能的に分化した脳の各器官をできるだけ単純な機械
 学習器として解釈し、それら機械学習器を統合したア
 ーキテクチャを構築することが近道であると考えてい
 ます。\n\n従来において、こうした試みは容易ではない
 と考えられてきましたが、状況は変わりつつあります
 。すでに、神経科学分野での知見の蓄積と、計算機速
 度の向上を背景に、様々な粒度により脳全体の情報処
 理を再現／理解しようとする動きが欧米を中心に本格
 化しています。 またDeep Learning などの機械学習技術の
 ブレークスルー、大脳皮質ベイジアンネット仮説など
 の計算論的神経科学の進展、クラウドなどの計算機環
 境が充実してきています。\n\nこうした背景を踏まえる
 ならば、全脳型ＡＩアーキテクチャの開発は世界的に
 早々に激化してくる可能性さえあります。 そこで私達
 は、２０２０年台前半までに最速で本技術を実現でき
 るロードマップを意識しながら、この研究の裾野を広
 げていく必要があると考えています。 そしてこのため
 には、情報処理技術だけでなく、ある程度のレベルに
 おいて神経科学等の関連分野の知見を幅広く理解しな
 がら、情熱をもってこの研究に挑む多くの研究者やエ
 ンジニアの参入が必要と考えています。
LOCATION:リクルートGINZA8ビル(G8) 11階大ホール 東京都中央
 区銀座8-4-17 リクルート銀座8丁目ビル
URL:https://techplay.jp/event/567970?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
