【再増席】ITエンジニアのためのDeep Learning #11
イベント内容
ITエンジニアのためのDeep Learning
以前から好評いただいているこのDeepLearningイベントもついに 11回目となりました!
会場
- 場所: レアジョブ本社 東京都渋谷区神宮前6-27-8 京セラ原宿ビル2F (Google Map)
- アクセス
- JR 原宿駅 表参道口より徒歩9分
- 東京メトロ 明治神宮前駅 7番出口より徒歩3分
- 東京メトロ 渋谷駅 13番出口より徒歩10分
11の内容(今回の内容)
- Darkflowの使い方とYoloV2/Yolo9000
- 転移学習について
- Radeon GPU+DeepLearningの現状
- 永続化コンテナとGPUの利便性
- NVIDIA EULA事件について
- GPU Eater クラウドと最新のGPUテクノロジー
- AMD-Radeon/NVIDIA GPUでの学習と推論ベンチマーク
- "TensorCore" 120TFlopsの正体を見極める
- TensorFlow on OpenCL
- Keras on PlaidML
- フレーム問題
- Findyのスキル偏差値算出アルゴリズムについて
- Findy Scoreの求人票解析アルゴリズムについて
- 身近な学習パラメータの決定例、「最小二乗法」の意味を考える
DeepLearning、機械学習には様々な落とし穴があります。 メディアやトレンドに惑わされずしっかりとしたリテラシーを持ち、適材適所に施行しなければその落とし穴にハマり、多くの時間とお金を無駄にします。このDeepLearningのイベントを通じて、参加者との意見交換を通じ正確なリテラシーを持つことを目的としていますので、ぜひぜひ懇親会で様々な方々とお話をしてみてください!
*一部の登壇者のスライドは撮影禁止となっていますので、ご協力をお願い致します。
タイムスケジュール
時間 | 内容 |
---|---|
18:30〜19:00 | 開場 |
19:00〜19:05 | イントロダクション |
19:05〜19:25 | 登壇者発表① |
19:25〜19:45 | 登壇者発表② |
19:45〜20:05 | 登壇者発表③ |
20:10〜21:45 | 懇親会 |
参加費
無料
スピーカー
中塚 晶仁 Pegara, Inc.
普段は黒子として活動しています。 元々は3Dエンジンを開発していた技術者で、情報のない時期にDeepLearningライブラリをスクラッチからC/C++/OpenCLベースで実装、評価、研究を行いDeepLearningの限界に気づき、使い方についての適材適所をイベントを通して情報を発信しています。
佐藤 将高 Findy Inc.(ファインディ)
東京大学 情報理工学系研究科 創造情報学専攻卒業後、グリーに入社し、フルスタックエンジニアとして勤務する。2016年6月にファインディ立上げに伴い取締役CTO就任*大学院では、稲葉真理研究室に所属。過去10年分の論文に対し論文間の類似度を、自然言語処理やデータマイニングにより内容の解析を定量的・定性的に行うことで算出する論文を執筆。
日高一博 Schoo@me (スクーアットミー)
Schoo@meにて研究者兼データサイエンティストとして勤務中。 前職までは、サイレント故障検知、故障復旧時間予測、データ修正補完ロジック作成、来客数予測、レコメンド、多次元斜交座標系を用いた成績評価などを開発していました。 現在は複数大学と共同研究を行う研究者として研究開発を行っています。
会場
- 場所: レアジョブ本社 東京都渋谷区神宮前6-27-8 京セラ原宿ビル2F (Google Map)
- アクセス
- JR 原宿駅 表参道口より徒歩9分
- 東京メトロ 明治神宮前駅 7番出口より徒歩3分
- 東京メトロ 渋谷駅 13番出口より徒歩10分
今までのセッションの内容
#9の内容
- DeepLearning Summit in San Francisco レポート
- 技術<データの重要性
- アンサンブル学習の重要性
- 認識に於ける2つの谷
#8-2の内容
Microsoftフィリピン本社にて英語登壇
- 料理認識デモ
- AI技術の限界の紹介
- アウトオブフレーム問題
- 予算、費用対効果について
#8の内容
- 1~7までのダイジェスト
- DCNNの派生系DCGAN(Deep Convolutional Generative Adversarial Network)
- 生成モデルの概要
- DCGAN実践
- 変換モデルの概要
- スタイル変換実践
#7の内容
- DeepLearningの精度と計算時間
- ニューラルネットは分散しにくい
- パラメータ探査の困難さ(モンテカルロ法、遺伝的アルゴリズム、Q学習)
- CPUとGPUの性質
- GPGPUとトレードオフ(台所事情)
- DeepLearningに於けるアクセラレートポイント
- 失敗したOpenCLと、囲い込みのCUDA
- 設備投資について
- 費用対効果と相場
- 持つものと持たざるもので分かれる機械学習
#6の内容
- ニューラルネットワーク基礎
- 偏微分連鎖律と数式を無視する型破りなバックプロパゲーションの理解
- 教師あり学習のデモ
- Weightsを視覚化してみる
- DCNN(DeepConvolutionalNeuralNetwork)を徹底解剖します!
- Convolution層とMaxPoolingの働きについて
- Convolution層とMaxPoolingのバックプロパゲーションの理解
- Convolution層の多層化の意味について
- Convolution層のWeightsを視覚化してみる
- DCNNの派生系についてのお話
#5の内容
- ニューラルネットワーク基礎
- 偏微分連鎖律と数式を無視する型破りなバックプロパゲーションの理解
- 教師あり学習のデモ
- Weightsを視覚化してみる
- 教師なし学習のデモ
- 主成分分析を視覚化してみる
- DeepLearningの深さの利点について
- 失敗から学ぶ。勾配消失問題を味わってみよう!
- チューニングの全体像
- プレトレーニングは時代遅れ
- 失敗から学ぶニューラルネットワーク
- MLPに於ける失敗するパラメータの事例
- StackedAutoEncodersに於ける失敗するパラメータ事例
- DCNNに於ける失敗するパラメータ事例
#4の内容
- 多クラス分類について
- 教師ありデータ収集について
- オントロジーとは?
- オントロジーの定義の難しさ
- ImageNetやコンペティションの公共のデータ
- WEBクローラーの作り方
- BOT対策について
- データ解析ツールの作り方とOpenCV
- 漫画やサムネイル、別サイズの同じ画像の除去
- ラベル貼り付けとコストについて
#3の内容
大枠の概要
- DeepLearningの歴史と重要なネットワーク
- 選択すべきネットワークの形とそのメリット&目的の理解
- ライブラリの選択とセットアップ
- DCNNじゃなくてフルコネクションネットワークと画像解析
技術詳細
- 教師あり学習の基礎(Perceptron/MLP)
- 教師なし学習について
- 教師なし学習の役割と活用例
- AutoEncoder/StackedAutoEncodersで次元圧縮と分析
- AdamとSGDとAutoEncoderの成功と失敗パラメータ
#2の内容
大枠の概要
- DeepLearningの歴史と重要なネットワーク
- 選択すべきネットワークの形とそのメリット&目的の理解
- ライブラリの選択とセットアップ
- DCNNのパラメータ設定
技術詳細
- DCNNの形の理解
- PerceptronとMLPとDCNNの関係
- ニューラルネットワークの基礎
- PerceptronとMLPの予測計算を絵で理解する
- PerceptronとMLPのバックプロパゲーション計算を絵で理解する
#1の内容
大枠の概要
- DeepLearning専門用語解説
- 選択すべきネットワークの形とそのメリット&目的の理解
- ライブラリの選択とセットアップ
- データ読み込み機構とアウトプット機構(画像編)
- データ収集とWEBクローラー(画像編)
- ラベル付の効率化(画像編)
- DCNNのパラメータ設定
技術詳細
- データの水増し編 (アフィン変換、ノイズ、ディストーション、プロジェクション、カラー)
- データランダマイズサンプル
- ランダムデータと正規分布データ
- データ正規化(ZCA/PCA Whitening)
- 活性化関数の選択
- MaxOut実装方法
- バッチ正規化と最新の活性化関数ELU(ReLuじゃないヨ)
- L1/L2正則化とAdaGrad/RMSProp/AdaDelta/Adam/AdaMax
- オントロジーとデータ整頓
- 平均予測
- GPGPUの台所事情
注意事項
※ 掲載タイミングや更新頻度によっては、情報提供元ページの内容と差異が発生しますので予めご了承ください。
※ 最新情報の確認や参加申込手続き、イベントに関するお問い合わせ等は情報提供元ページにてお願いします。
