ディープラーニング・フレームワークのレパートリーを増やす会 #3
イベント内容
勉強会趣旨
ディープラーニング・フレームワークの使い方を、参加者同士で教え合う勉強会です。
参加者は事前に各回のテーマを各自で実装お願いします。得意なフレームワークで実装ください。
この会をきっかけに勉強を始めたフレームワークでも結構です。
勉強会当日に、実装したソースコードを本人から解説いただきます。
事前にGitHubや御自分のブログにソースコードをアップいただけると、円滑に発表いただけます。
勉強会内容
- 参加登録時のアンケートで使用するフレームワークを回答ください
- 参加者各位は、事前に下記テーマを実装ください
- 当日冒頭に話し合いでフレームワークごとに発表者を一人決めていただき、発表者から本人が実装したソースコードを解説いただきます
- 発表しない方も、発表者の発表中に適宜、補足説明をお願いします
- スライドの準備は必要ありません
実装テーマ
- タスク: LSGANによる画像生成 (Least Squares Generative Adversarial Networks) https://arxiv.org/abs/1611.04076v3
- 実装内容: 学習、生成画像の表示
- データ: Food-101の101カテゴリ中の任意の料理 https://www.vision.ee.ethz.ch/datasets_extra/food-101/ 画像を正方形にクロップ(切り出し)してから、64x64pixelに画像サイズを縮小し、画素値は[0, 255]を[-1.0, +1.0]に正規化して使用すること
- 目的関数: LSGAN論文中の式(2)を参照。ハイパーパラメータa=0, b=1, c=1。https://arxiv.org/abs/1611.04076v3
- 潜在変数zサンプリング: 標準正規分布 N(mu=0, sigma=1) より100次元ベクトルをサンプリング
- 生成器Gアーキテクチャ: FC(unit512x4x4) - BN - LReLU - ReShape(512, 4, 4) - Deconv(c256, k4x4, s2, p1) - BN - LReLU - Deconv(c128, k4x4, s2, p1) - BN - LReLU - Deconv(c64, k4x4, s2, p1) - BN - LReLU - Deconv(c3, k4x4, s2, p1) - tanh
- 識別器Dアーキテクチャ: Conv(c32, k3x3, s1, p1) - LReLU - Conv(c64, k4x4, s2, p1) - BN - LReLU - Conv(c128, k4x4, s2, p1) - BN - LReLU - Conv(c256, k4x4, s2, p1) - BN - LReLU - Conv(c512, k4x4, s2, p1) - BN - LReLU - FC(unit1)
- アーキテクチャ詳細:
- FC: Full Connection (out_unit)
- BN: Batch Normalization
- LReLU: Leaky ReLU
- DeConv: Deconvolution (out_ch, kernel_size, stride, padding)
- Conv: Convolution (out_ch, kernel_size, stride, padding)
- 識別器DのConvolutionにはDropoutを適用するか、あるいはLeakyReLUの直前にノイズ加算を行うこと
- オプティマイザ: G、DともにAdam
- 学習バッチサイズ: 20
- 学習エポックサイズ: 1000 (学習できることを確認できれば、数十エポック程度でも問題なし)
- 上記で指定されていない箇所は、参加者各位で自由に実装ください
- テーマ詳細およびアーキテクチャ図: https://github.com/hei4/DLRepertoire03
タイムスケジュール
開始 | 終了 | 内容 | 担当者 |
---|---|---|---|
19:15 | 19:30 | 開場・受付開始 | |
19:30 | 19:40 | 本勉強会の説明 | hei4 |
19:40 | 19:50 | LSGANの説明 | hei4 |
19:50 | 20:00 | 発表者決め | 参加者全員(司会hei4) |
20:00 | 20:20 | Chainerの説明 | Chainerユーザーの参加者 |
20:20 | 20:40 | PyTorchの説明 | PyTorchユーザーの参加者 |
20:40 | 21:00 | TensorFlowの説明 | TensorFlowユーザーの参加者 |
21:00 | 21:20 | Kerasの説明 | Kerasユーザーの参加者 |
21:20 | 21:30 | (その他フレームワークの説明) | (該当者がいれば) |
終了後 | - | 次回勉強会について | 参加者全員 |
会場
会場は以下の場所となります。
東京都中央区日本橋3-3-13 永沢ビル3階301号室② https://goo.gl/Ae13bD
なお、当会場はセキュリティの観点で、不特定多数の人が入れないようになっています。 つきましては、ビルに到着しましたら、3Fまで階段で上がっていただき、「リノフト会議室・セミナールーム」という案内に従って進んでください。 301という部屋の前に到着したら、右側にある内線で「リノフト②」を呼び出してください。中から担当者が迎えに伺います。
画像付案内が以下URL先にありますので、併せてご覧ください。 https://linoft.com/img/room/%E2%91%A1.jpg
会場にはプロジェクター接続のHDMI、VGAケーブルが用意されています。
主催者側でHDMI→micro HDMI、VGA→Mini DisplayPortの変換ケーブルを用意します。
想定参加者
- フレームワークを使って御自身で実装が可能な方
- Keras、MXNet、ReNorm、nnabla、Deeplearning4jユーザーの方、歓迎します
その他
- 複数のフレームワークを使える方は、ユーザー数の少ないフレームワークで実装いただけると助かります
- 参加者同士で学習結果の精度を競い合う目的はありません。lossが収束していなくても結構です
- ご不明点等ございましたら、当ページのコメント欄を活用ください
キーワード
ディープラーニング、深層学習、Chainer、TensorFlow、PyTorch、Keras、MXNet、ReNorm、nnabla、Deeplearning4j
注意事項
※ 掲載タイミングや更新頻度によっては、情報提供元ページの内容と差異が発生しますので予めご了承ください。
※ 最新情報の確認や参加申込手続き、イベントに関するお問い合わせ等は情報提供元ページにてお願いします。
