BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:【オンライン開催！】『生成Deep Learning』読書
 会#1
X-WR-CALNAME:【オンライン開催！】『生成Deep Learning』読書
 会#1
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:798946@techplay.jp
SUMMARY:【オンライン開催！】『生成Deep Learning』読書会#1
DTSTART;TZID=Asia/Tokyo:20201118T200000
DTEND;TZID=Asia/Tokyo:20201118T210000
DTSTAMP:20260424T041947Z
CREATED:20201108T061547Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/79894
 6?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\n初回は、ま
 えがき・第1章からスタートします。\n開催趣旨\n本勉
 強会では、生成型ディープラーニングの理解を高めて
 いくことを目的とし、毎週1回、下記の本を一章ずつ取
 り上げていく予定です。事前に予習し、コードを一通
 り動かしてから参加されることをオススメします。オ
 ンライン勉強会では約1時間で、参加者同士の質問・意
 見交換やディスカッションをメインに進めていく予定
 です。  \n『生成 Deep Learning――絵を描き、物語や音楽
 を作り、ゲームをプレイする』（David Foster　著、松田 
 晃一、小沼 千絵　訳\, O`REILLY社\, 2020年10月 発行）    \n
 ※ 書籍はご自身で入手のうえ、ご参加ください。  \n
 参加対象者\n\nTensorFlowやKerasを使ったGANの実装力を高め
 、業務や研究に活用した社会人・学生・研究者の方\nPy
 thonの基礎的な文法やJupter Notebook、Google Colaboratoryの基
 本的な使い方を習得されている方\nオンラインで参加
 可能な方\n\n参加方法\nお申込みいただいた方に、事前
 にzoomの招待リンクを送付させていただく予定です。\n
 勉強会の進め方\n\nその日に取り扱う章を前もって各自
 ご自身で読み進めておいてください。  \n勉強会では、
 皆で書籍の内容を確認しながら、必要に応じてGoogle Col
 aboratory等で実際にコードを動かしていきます。  \nポイ
 ントごとに立ち止まってzoom、Slack等で疑問点をぶつけ
 合い、意見交換し、理解を深めていければと思います
 。  \n\n※ 一人が資料準備してきて一方的にレクチャー
 する形式ではなく、参加者同士インタラクティブにデ
 ィスカッションしながら進めていきます。\n書籍の内
 容紹介\n（参照：https://www.oreilly.co.jp/books/9784873119205/） 
  \n以下、上記URLの内容紹介から抜粋  \n「『生成 Deep Lea
 rning――絵を描き、物語や音楽を作り、ゲームをプレ
 イする』  \n生成型ディープラーニングの解説書。「絵
 を描く」「曲を作る」といった、これまで人間にしか
 できないと思われていた創造的な作業を機械に行わせ
 るという、いま最もホットな技術の基礎から応用まで
 をJupyterノートブック環境で実際に試しながら学びます
 。第I部は基礎編です。機械学習プログラミング、変分
 オートエンコーダ、GANやRNNなど、生成モデルの作成に
 おいて重要な基礎技術を学びます。第II部は応用編で
 す。CycleGAN、エンコーダ―デコーダモデル、MuseGANなど
 のモデルを作成し、作画、作文、作曲といった創造的
 なタスクに取り組みます。さらには、実環境を用いず
 にゲームプレイの学習を可能にする、世界モデルを使
 った強化学習にも取り組みます。  \n賞賛の声\n訳者ま
 えがき\nまえがき  \n第I部　生成型ディープラーニング
 入門  \n1章　生成モデリング\n    1.1　生成モデリング
 とは何か？\n        1.1.1　生成モデリングと識別モデリ
 ング\n        1.1.2　機械学習の進歩\n        1.1.3　生成モ
 デリングの隆盛\n        1.1.4　生成モデリングの枠組み\
 n    1.2　確率生成モデル\n        1.2.1　Hello Wrodl!\n        1
 .2.2　最初の確率生成モデル\n        1.2.3　単純ベイズ（
 Naive Bayes）\n        1.2.4　Hello Wrodl!の続き\n    1.3　生成
 モデルの課題\n        1.3.1　表現学習\n    1.4　環境のセ
 ットアップ\n    1.5　まとめ  \n2章　ディープラーニン
 グ\n    2.1　構造化されたデータと構造化されていない
 データ\n    2.2　ディープニューラルネットワーク\n     
    2.2.1　KerasとTensorFlow\n    2.3　最初のディープニュー
 ラルネットワーク\n        2.3.1　データを読み込む\n     
    2.3.2　モデルを作成する\n        2.3.3　モデルをコン
 パイルする\n        2.3.4　モデルを訓練する\n        2.3.5
 　モデルを評価する\n    2.4　モデルを改善する\n        
 2.4.1　畳み込み層\n        2.4.2　バッチの正規化\n        2
 .4.3　ドロップアウト層\n        2.4.4　すべてをまとめる
 \n    2.5　まとめ  \n3章　変分オートエンコーダ\n    3.1
 　展覧会\n    3.2　オートエンコーダ\n        3.2.1　最初
 のオートエンコーダ\n        3.2.2　エンコーダ\n        3.2
 .3　デコーダ\n        3.2.4　エンコーダとデコーダを連
 結する\n        3.2.5　オートエンコーダの解析\n    3.3　
 変分展覧会\n    3.4　変分オートエンコーダの作成\n     
    3.4.1　エンコーダ\n        3.4.2　損失関数\n        3.4.3
 　変分オートエンコーダの解析\n    3.5　VAEを使った顔
 生成\n        3.5.1　VAEの訓練\n        3.5.2　VAEの解析\n     
    3.5.3　新しい顔の生成\n        3.5.4　潜在空間内での
 計算\n        3.5.5　顔のモーフィング\n    3.6　まとめ  \n
 4章　敵対的生成ネットワーク\n    4.1　ガニマル\n    4.2
 　GAN入門\n    4.3　初めてのGAN\n        4.3.1　識別器\n     
    4.3.2　生成器\n        4.3.3　GANを訓練する\n    4.4　GAN
 の課題\n        4.4.1　損失の振動\n        4.4.2　モード崩
 壊\n        4.4.3　意味がない損失\n        4.4.4　ハイパー
 パラメータ\n        4.4.5　GANの課題に取り組む\n    4.5　W
 asserstein GAN\n        4.5.1　Wasserstein損失\n        4.5.2　Lipsch
 itz制約\n        4.5.3　重みをクリッピングする\n        4.5
 .4　WGANを訓練する\n        4.5.5　WGANの分析\n    4.6　WGAN-G
 P\n        4.6.1　勾配ペナルティ損失\n        4.6.2　WGAN-GP
 の分析\n    4.7　まとめ  \n第II部　コンピュータに作画
 、作文、作曲、ゲームプレイを教える  \n5章　描く\n   
  5.1　リンゴとオレンジ\n    5.2　CycleGAN\n    5.3　初めて
 のCycleGAN\n        5.3.1　概要\n        5.3.2　生成器（U-Net）
 \n        5.3.3　識別器\n        5.3.4　CycleGANをコンパイル
 する\n        5.3.5　CycleGANを訓練する\n        5.3.6　CycleGAN
 を解析する\n    5.4　モネのような絵を描くCycleGANを作
 る\n        5.4.1　生成器（ResNet）\n        5.4.2　CycleGANの
 解析\n    5.5　ニューラルスタイル変換\n        5.5.1　コ
 ンテンツ損失\n        5.5.2　スタイル損失\n        5.5.3　
 全変動損失\n        5.5.4　ニューラルスタイル変換を実
 行する\n        5.5.5　ニューラルスタイル変換モデルを
 解析する\n    5.6　まとめ  \n6章　書く\n    6.1　やっか
 いな悪党のための文芸クラブ\n    6.2　LSTMネットワーク
 \n    6.3　初めてのLSTMネットワーク\n        6.3.1　トーク
 ン化する\n        6.3.2　データセットを作成する\n        
 6.3.3　LSTMのアーキテクチャ\n        6.3.4　埋め込み層\n  
       6.3.5　LSTM層\n        6.3.6　LSTMセル\n    6.4　新しいテ
 キストを生成する\n    6.5　RNNの拡張\n        6.5.1　多層
 再帰型ネットワーク\n        6.5.2　GRU\n        6.5.3　双方
 向セル\n    6.6　エンコーダ–デコーダモデル\n    6.7　
 質問回答生成器\n        6.7.1　質問と回答のデータセッ
 ト\n        6.7.2　モデルのアーキテクチャ\n        6.7.3　
 推論\n        6.7.4　モデルの出力\n    6.8　まとめ  \n7章
 　作曲する\n    7.1　準備\n        7.1.1　音楽の表記\n    7
 .2　初めての音楽生成RNN\n        7.2.1　アテンション\n   
      7.2.2　Kerasでアテンション機構を作成する\n        7.2
 .3　アテンション機構付きRNNの解析\n        7.2.4　エン
 コーダ–デコーダネットワークのアテンション機構\n  
       7.2.5　ポリフォニックな音楽を生成する\n    7.3　Mu
 seGAN\n    7.4　初めてのMuseGAN\n    7.5　MuseGAN生成器\n       
  7.5.1　和音、スタイル、旋律、グルーブ\n        7.5.2　
 小節生成器\n        7.5.3　すべてをまとめる\n    7.6　評
 価器\n    7.7　MuseGANの解析\n    7.8　まとめ  \n8章　プレ
 イする\n    8.1　強化学習\n        8.1.1　OpenAI Gym\n    8.2　
 世界モデルのアーキテクチャ\n        8.2.1　変分オート
 エンコーダ\n        8.2.2　MDN-RNN\n        8.2.3　コントロー
 ラ\n    8.3　セットアップ\n    8.4　訓練プロセスの概観\
 n    8.5　ランダムなロールアウトデータを収集する\n   
  8.6　VAEを訓練する\n        8.6.1　VAEのアーキテクチャ\n 
        8.6.2　VAEを探索する\n    8.7　RNNを訓練するデータ
 を収集する\n    8.8　MDN-RNNを訓練する\n        8.8.1　MDN-RN
 Nアーキテクチャ\n        8.8.2　MDN-RNNから次のzと報酬を
 サンプリングする\n        8.8.3　MDN-RNNの損失関数\n    8.9
 　コントローラを訓練する\n        8.9.1　コントローラ
 のアーキテクチャ\n        8.9.2　CMA-ES\n        8.9.3　CMA-ES
 を並列化する\n        8.9.4　コントローラの訓練からの
 出力\n    8.10　夢の中での訓練\n        8.10.1　夢の中で
 のコントローラの訓練\n        8.10.2　夢の中での訓練の
 課題\n    8.11　まとめ  \n9章　生成モデリングの未来\n  
   9.1　LSTMネットワーク\n    9.2　トランスフォーマ\n     
    9.2.1　位置エンコード処理\n        9.2.2　マルチヘッ
 ドアテンション\n        9.2.3　デコーダ\n        9.2.4　ト
 ランスフォーマの分析\n        9.2.5　BERT\n        9.2.6　GPT
 -2\n        9.2.7　MuseNet\n    9.3　画像生成での進展\n        
 9.3.1　ProGAN\n        9.3.2　SAGAN\n        9.3.3　BigGAN\n        9.
 3.4　StyleGAN\n    9.4　生成モデリングの応用\n        9.4.1
 　AIアート\n        9.4.2　AIミュージック  \n10章　まとめ
   \n付録A　GPT-3\n    A.1　はじめに\n    A.2　GPT-2との違い\
 n    A.3　GPT-3の性能\n    A.4　GPT-3の応用\n    A.5　GPT-3の
 課題\n    A.6　おわりに  \n参考文献\n索引」    \n参加者
 同士の質問・情報交換\nScribble Osaka Lab（SOL）のSlackワー
 クスペースで、参加者同士の質問・情報共有用チャン
 ネルを設けております。参加ご希望の方は、申込みフ
 ォームで招待メール送り先のEmailアドレスをお教えく
 ださい。\nその他\nソレイユデータ道場については、公
 式HPやFacebookページをご参照ください。\n公式HP：http://w
 ww.soleildatadojo.com\nFacebookページ：https://www.facebook.com/solei
 ldatadojo/
LOCATION:オンライン オンライン
URL:https://techplay.jp/event/798946?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
