BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:【オンライン開催！】『生成Deep Learning』読書
 会#3
X-WR-CALNAME:【オンライン開催！】『生成Deep Learning』読書
 会#3
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:800700@techplay.jp
SUMMARY:【オンライン開催！】『生成Deep Learning』読書会#3
DTSTART;TZID=Asia/Tokyo:20201201T200000
DTEND;TZID=Asia/Tokyo:20201201T210000
DTSTAMP:20260410T090134Z
CREATED:20201124T142243Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/80070
 0?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\n次回は、第3
 章の内容を中心に見ていきます。（事前に読んでご参
 加いただいた方がより理解が深まりますので、ぜひご
 準備ください。）\n開催趣旨\n本勉強会では、生成型デ
 ィープラーニングの理解を高めていくことを目的とし
 、毎週1回、下記の本を一章ずつ取り上げていく予定で
 す。事前に予習し、コードを一通り動かしてから参加
 されることをオススメします。オンライン勉強会では
 約1時間で、参加者同士の質問・意見交換やディスカッ
 ションをメインに進めていく予定です。  \n『生成 Deep 
 Learning――絵を描き、物語や音楽を作り、ゲームをプ
 レイする』（David Foster　著、松田 晃一、小沼 千絵　
 訳\, O`REILLY社\, 2020年10月 発行）    \n※ 書籍はご自身で
 入手のうえ、ご参加ください。  \n参加対象者\n\nTensorFl
 owやKerasを使ったGANの実装力を高め、業務や研究に活用
 した社会人・学生・研究者の方\nPythonの基礎的な文法
 やJupter Notebook、Google Colaboratoryの基本的な使い方を習得
 されている方\nオンラインで参加可能な方\n\n参加方法\
 nお申込みいただいた方に、事前にzoomの招待リンクを
 送付させていただく予定です。\n勉強会の進め方\n\nそ
 の日に取り扱う章を前もって各自ご自身で読み進めて
 おいてください。  \n勉強会では、皆で書籍の内容を確
 認しながら、必要に応じてGoogle Colaboratory等で実際にコ
 ードを動かしていきます。  \nポイントごとに立ち止ま
 ってzoom、Slack等で疑問点をぶつけ合い、意見交換し、
 理解を深めていければと思います。  \n\n※ 一人が資料
 準備してきて一方的にレクチャーする形式ではなく、
 参加者同士インタラクティブにディスカッションしな
 がら進めていきます。\n書籍の内容紹介\n（参照：https:
 //www.oreilly.co.jp/books/9784873119205/）  \n以下、上記URLの内
 容紹介から抜粋  \n「『生成 Deep Learning――絵を描き、
 物語や音楽を作り、ゲームをプレイする』  \n生成型デ
 ィープラーニングの解説書。「絵を描く」「曲を作る
 」といった、これまで人間にしかできないと思われて
 いた創造的な作業を機械に行わせるという、いま最も
 ホットな技術の基礎から応用までをJupyterノートブック
 環境で実際に試しながら学びます。第I部は基礎編です
 。機械学習プログラミング、変分オートエンコーダ、G
 ANやRNNなど、生成モデルの作成において重要な基礎技
 術を学びます。第II部は応用編です。CycleGAN、エンコー
 ダ―デコーダモデル、MuseGANなどのモデルを作成し、作
 画、作文、作曲といった創造的なタスクに取り組みま
 す。さらには、実環境を用いずにゲームプレイの学習
 を可能にする、世界モデルを使った強化学習にも取り
 組みます。  \n賞賛の声\n訳者まえがき\nまえがき  \n第I
 部　生成型ディープラーニング入門  \n1章　生成モデ
 リング\n    1.1　生成モデリングとは何か？\n        1.1.1
 　生成モデリングと識別モデリング\n        1.1.2　機械
 学習の進歩\n        1.1.3　生成モデリングの隆盛\n        
 1.1.4　生成モデリングの枠組み\n    1.2　確率生成モデ
 ル\n        1.2.1　Hello Wrodl!\n        1.2.2　最初の確率生成
 モデル\n        1.2.3　単純ベイズ（Naive Bayes）\n        1.2.
 4　Hello Wrodl!の続き\n    1.3　生成モデルの課題\n        1.
 3.1　表現学習\n    1.4　環境のセットアップ\n    1.5　ま
 とめ  \n2章　ディープラーニング\n    2.1　構造化され
 たデータと構造化されていないデータ\n    2.2　ディー
 プニューラルネットワーク\n        2.2.1　KerasとTensorFlow\
 n    2.3　最初のディープニューラルネットワーク\n      
   2.3.1　データを読み込む\n        2.3.2　モデルを作成す
 る\n        2.3.3　モデルをコンパイルする\n        2.3.4　
 モデルを訓練する\n        2.3.5　モデルを評価する\n    2
 .4　モデルを改善する\n        2.4.1　畳み込み層\n        2
 .4.2　バッチの正規化\n        2.4.3　ドロップアウト層\n 
        2.4.4　すべてをまとめる\n    2.5　まとめ  \n3章　
 変分オートエンコーダ\n    3.1　展覧会\n    3.2　オート
 エンコーダ\n        3.2.1　最初のオートエンコーダ\n     
    3.2.2　エンコーダ\n        3.2.3　デコーダ\n        3.2.4
 　エンコーダとデコーダを連結する\n        3.2.5　オー
 トエンコーダの解析\n    3.3　変分展覧会\n    3.4　変分
 オートエンコーダの作成\n        3.4.1　エンコーダ\n     
    3.4.2　損失関数\n        3.4.3　変分オートエンコーダ
 の解析\n    3.5　VAEを使った顔生成\n        3.5.1　VAEの訓
 練\n        3.5.2　VAEの解析\n        3.5.3　新しい顔の生成\
 n        3.5.4　潜在空間内での計算\n        3.5.5　顔のモ
 ーフィング\n    3.6　まとめ  \n4章　敵対的生成ネット
 ワーク\n    4.1　ガニマル\n    4.2　GAN入門\n    4.3　初め
 てのGAN\n        4.3.1　識別器\n        4.3.2　生成器\n        
 4.3.3　GANを訓練する\n    4.4　GANの課題\n        4.4.1　損
 失の振動\n        4.4.2　モード崩壊\n        4.4.3　意味が
 ない損失\n        4.4.4　ハイパーパラメータ\n        4.4.5
 　GANの課題に取り組む\n    4.5　Wasserstein GAN\n        4.5.1
 　Wasserstein損失\n        4.5.2　Lipschitz制約\n        4.5.3　
 重みをクリッピングする\n        4.5.4　WGANを訓練する\n 
        4.5.5　WGANの分析\n    4.6　WGAN-GP\n        4.6.1　勾配
 ペナルティ損失\n        4.6.2　WGAN-GPの分析\n    4.7　まと
 め  \n第II部　コンピュータに作画、作文、作曲、ゲー
 ムプレイを教える  \n5章　描く\n    5.1　リンゴとオレ
 ンジ\n    5.2　CycleGAN\n    5.3　初めてのCycleGAN\n        5.3.1
 　概要\n        5.3.2　生成器（U-Net）\n        5.3.3　識別
 器\n        5.3.4　CycleGANをコンパイルする\n        5.3.5　Cy
 cleGANを訓練する\n        5.3.6　CycleGANを解析する\n    5.4
 　モネのような絵を描くCycleGANを作る\n        5.4.1　生
 成器（ResNet）\n        5.4.2　CycleGANの解析\n    5.5　ニュ
 ーラルスタイル変換\n        5.5.1　コンテンツ損失\n     
    5.5.2　スタイル損失\n        5.5.3　全変動損失\n        5
 .5.4　ニューラルスタイル変換を実行する\n        5.5.5　
 ニューラルスタイル変換モデルを解析する\n    5.6　ま
 とめ  \n6章　書く\n    6.1　やっかいな悪党のための文
 芸クラブ\n    6.2　LSTMネットワーク\n    6.3　初めてのLST
 Mネットワーク\n        6.3.1　トークン化する\n        6.3.2
 　データセットを作成する\n        6.3.3　LSTMのアーキテ
 クチャ\n        6.3.4　埋め込み層\n        6.3.5　LSTM層\n    
     6.3.6　LSTMセル\n    6.4　新しいテキストを生成する\n 
    6.5　RNNの拡張\n        6.5.1　多層再帰型ネットワーク\
 n        6.5.2　GRU\n        6.5.3　双方向セル\n    6.6　エン
 コーダ–デコーダモデル\n    6.7　質問回答生成器\n     
    6.7.1　質問と回答のデータセット\n        6.7.2　モデ
 ルのアーキテクチャ\n        6.7.3　推論\n        6.7.4　モ
 デルの出力\n    6.8　まとめ  \n7章　作曲する\n    7.1　
 準備\n        7.1.1　音楽の表記\n    7.2　初めての音楽生
 成RNN\n        7.2.1　アテンション\n        7.2.2　Kerasでア
 テンション機構を作成する\n        7.2.3　アテンション
 機構付きRNNの解析\n        7.2.4　エンコーダ–デコーダ
 ネットワークのアテンション機構\n        7.2.5　ポリフ
 ォニックな音楽を生成する\n    7.3　MuseGAN\n    7.4　初め
 てのMuseGAN\n    7.5　MuseGAN生成器\n        7.5.1　和音、ス
 タイル、旋律、グルーブ\n        7.5.2　小節生成器\n     
    7.5.3　すべてをまとめる\n    7.6　評価器\n    7.7　MuseG
 ANの解析\n    7.8　まとめ  \n8章　プレイする\n    8.1　強
 化学習\n        8.1.1　OpenAI Gym\n    8.2　世界モデルのアー
 キテクチャ\n        8.2.1　変分オートエンコーダ\n        
 8.2.2　MDN-RNN\n        8.2.3　コントローラ\n    8.3　セット
 アップ\n    8.4　訓練プロセスの概観\n    8.5　ランダム
 なロールアウトデータを収集する\n    8.6　VAEを訓練す
 る\n        8.6.1　VAEのアーキテクチャ\n        8.6.2　VAEを
 探索する\n    8.7　RNNを訓練するデータを収集する\n    8
 .8　MDN-RNNを訓練する\n        8.8.1　MDN-RNNアーキテクチャ
 \n        8.8.2　MDN-RNNから次のzと報酬をサンプリングす
 る\n        8.8.3　MDN-RNNの損失関数\n    8.9　コントローラ
 を訓練する\n        8.9.1　コントローラのアーキテクチ
 ャ\n        8.9.2　CMA-ES\n        8.9.3　CMA-ESを並列化する\n  
       8.9.4　コントローラの訓練からの出力\n    8.10　夢
 の中での訓練\n        8.10.1　夢の中でのコントローラの
 訓練\n        8.10.2　夢の中での訓練の課題\n    8.11　ま
 とめ  \n9章　生成モデリングの未来\n    9.1　LSTMネット
 ワーク\n    9.2　トランスフォーマ\n        9.2.1　位置エ
 ンコード処理\n        9.2.2　マルチヘッドアテンション\
 n        9.2.3　デコーダ\n        9.2.4　トランスフォーマ
 の分析\n        9.2.5　BERT\n        9.2.6　GPT-2\n        9.2.7　M
 useNet\n    9.3　画像生成での進展\n        9.3.1　ProGAN\n     
    9.3.2　SAGAN\n        9.3.3　BigGAN\n        9.3.4　StyleGAN\n    9
 .4　生成モデリングの応用\n        9.4.1　AIアート\n       
  9.4.2　AIミュージック  \n10章　まとめ  \n付録A　GPT-3\n  
   A.1　はじめに\n    A.2　GPT-2との違い\n    A.3　GPT-3の性
 能\n    A.4　GPT-3の応用\n    A.5　GPT-3の課題\n    A.6　おわ
 りに  \n参考文献\n索引」    \n参加者同士の質問・情報
 交換\nScribble Osaka Lab（SOL）のSlackワークスペースで、参
 加者同士の質問・情報共有用チャンネルを設けており
 ます。参加ご希望の方は、申込みフォームで招待メー
 ル送り先のEmailアドレスをお教えください。\nその他\n
 ソレイユデータ道場については、公式HPやFacebookページ
 をご参照ください。\n公式HP：http://www.soleildatadojo.com\nFa
 cebookページ：https://www.facebook.com/soleildatadojo/
LOCATION:オンライン オンライン
URL:https://techplay.jp/event/800700?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
