第29回 強化学習アーキテクチャ勉強会
イベント内容
はじめに
強化学習は環境に柔軟に適応する知能エージェントにおける基本機能と考えられます。近年は深層学習などのアーキテクチャとして、認識技術と組み合わされて自動運転などの実践的な場でつかわれれはじめており、さらにロボットなどにおいても今後は適用されてゆくシーンが増えてゆくでしょう、こうした背景から、実践的な強化学習や,実世界で動かす強化学習(ロボット・自動運転),強化学習を部品として組み合わせる(アーキテクチャ),といったトピックについて重視し情報共有する場として強化学習アーキテクチャ勉強会を開始しました。
本勉強会において積極的に議論に加わっていただき、今後、論文紹介などの形で貢献いただけるかたの参加をお待ちしております。
当勉強会の運営方針などについては、https://rlarch.connpass.com/ を御覧ください。
- Google Group: https://goo.gl/xznKlY (注:KlYのIは「L」の小文字です)
- Slack: https://join.slack.com/t/rlarch/shared_invite/MjM2Mzc3MDE1MzYyLTE1MDQ2MjIzNDItNjFmNmU2NWJlYg
- Twitter: #rlarch 勉強会のハッシュタグを作りました.コメントや質問等にご活用ください.
スケジュール
- 18:50 〜18:55 オープニング
- 18:55〜19:45 RNDは如何にしてモンテヅマリベンジを攻略したか
※ 19:00にビル入り口が施錠されるため、19時以前にお越しください(万が一19時を過ぎてしまった場合はインターホンにてご連絡ください)
講演概要:
発表者:向井滋春(早稲田大学)
-
タイトル:RNDは如何にしてモンテヅマリベンジを攻略したか
-
アブストラクト: 報酬が疎でATARI2600最難関と言われていたゲームであるモンテヅマリベンジにおいて、人間のプレイデータなどを必要とせず、Human expert のスコアを上回る探索手法がついに登場した。本発表では「RNDは如何にしてモンテヅマリベンジを攻略したか」と題して、話題の論文[1]を中心に、強化学習における探索の要件を再定義し、なぜ既存の方法ではできなかったのか整理した上で論文のアイデアを共有し、皆様と考察を深め議論したい。
-
参考文献
[1] Exploration by Random Network Distillation, https://arxiv.org/abs/1810.12894
[2] Large-Scale Study of Curiosity-Driven Learning, https://arxiv.org/abs/1808.04355
[3] Randomized Prior Functions for Deep Reinforcement Learning, https://arxiv.org/abs/1806.03335
注意事項
※ 掲載タイミングや更新頻度によっては、情報提供元ページの内容と差異が発生しますので予めご了承ください。
※ 最新情報の確認や参加申込手続き、イベントに関するお問い合わせ等は情報提供元ページにてお願いします。
新規会員登録
このイベントに申し込むには会員登録が必要です。
アカウント登録済みの方はログインしてください。
※ ソーシャルアカウントで登録するとログインが簡単に行えます。
※ 連携したソーシャルアカウントは、会員登録完了後にいつでも変更できます。