BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:ITエンジニアのためのDeepLearning >>番外編
X-WR-CALNAME:ITエンジニアのためのDeepLearning >>番外編
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:594429@techplay.jp
SUMMARY:ITエンジニアのためのDeepLearning >>番外編
DTSTART;TZID=Asia/Tokyo:20160723T160000
DTEND;TZID=Asia/Tokyo:20160723T193000
DTSTAMP:20260423T025206Z
CREATED:20160712T120129Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/59442
 9?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\n[事後アップ
 デート]\n\n\nLTトークされた方のうち、slideshareに投稿さ
 れた方がいらっしゃいましたので共有致します。\n\n\n
 スライドシェア：自然言語処理入門 - 三上 悟 @ #7\n\n\n\
 n\n\n\n\n\nさくらインターネットさん協賛により、土曜
 日開催の拡大バージョン!!\n\n\n※[7/14追記]定員を大幅
 に越えたため立ち見席を設けました。\n※[7/21追記]7/28
 に最終回を開催します。こちらも合わせてどうぞ！\nIT
 エンジニアのためのDeepLearning #最終回\n\n[ITエンジニア
 向けのDeepLarning初学者向けのセッションです]=============
 =============\n\n[メイン発表者：中塚晶仁]\n情報のソース
 が乏しい時期から、C/C++/OpenCLをベースにしてDeepLearning
 系のライブラリ一式を組み上げた経験があることから
 、深層学習やパターン認識系の本の罠と、本には載っ
 ていない貴重な情報や、数式を全く使わない考え方を
 初学者向けに提供しています。\nそのため、何故本を
 書かないのか？等、毎回参加者から言われるほど絶賛
 の声を頂いております。\nなお、本人はそろそろ自身
 の会社サービス開発をするために、7月末から海外へ行
 ってしまいます。\nなので、残すところ数回のみの実
 施となりますので、お見逃しなく！\n※日本にいるう
 ちにエンジニアとのネットワークを広げたいという意
 図で実施しています。\n\n[メイン発表者：さくらイン
 ターネット株式会社 技術本部 高火力チーム PD 須藤 武
 文 ]\n\n=============================================================\n
 当日キャンセルは基本お断り申し上げます。\nドタキ
 ャンされますと、折角応募して頂いてるキャンセル待
 ちの方にご迷惑がかかってしまいますので、必ず１日
 前にはご報告くださいませ。ご理解、ご協力の程をど
 うか宜しくお願い致します！\n\n\n\n\n\n[ タイムスケジ
 ュール ] \n\n\n\n15:30〜16:00 開場\n16:00〜16:45 DeepLearningセ
 ッション(中塚晶仁)\n16:45～17:00 ライトニングトーク(若
 干名)\n17:00〜17:45 レベルを上げて物理で殴る～機械学
 習とさくらの高火力2016夏～(さくらインターネット株
 式会社 須藤 武文)\n17:45〜18:00 総括。DeepLearningの課題と
 未来(中塚晶仁)\n18:00〜19:30 グループセッション/懇親会
 \n\n※イベントの内容は当日変わる可能性があります。
 \n\n\n\n[ DeepLearningセッション ] (16:00~16:45)\n\n\n\n自己紹介
 \nDeepLearningの精度と計算時間\nニューラルネットは分散
 しにくい\nパラメータ探査の困難さ（モンテカルロ法
 、遺伝的アルゴリズム、Q学習）\nCPUとGPUの性質\nGPGPUと
 トレードオフ（台所事情）\nDeepLearningに於けるアクセ
 ラレートポイント\n失敗したOpenCLと、囲い込みのCUDA\n
 設備投資について\n費用対効果と相場\n持つものと持た
 ざるもので分かれる機械学習\n\n\n\n[ ライトニングトー
 ク ] (16:45~17:00)\n\n\n\n「ディープラーニングとは何か分
 かってないけど画像分類してみた」(yamauchi Masahiro)\n「
 新しい人間観を目指して」(Keiichirou Yoshida)\n\n\n\n[ レベ
 ルを上げて物理で殴る～機械学習とさくらの高火力2016
 夏～ ] (17:00~17:45)\n\n\n\n自己紹介\n機械学習に計算資源
 が必要な3つの理由\n計算資源をホイホイ増やせない3つ
 の理由\nさくらの「高火力」のこと\n\n\n\n[ 総括。Deeplea
 rningの課題と未来 ] (17:45~18:00)\n\n\n\nDeepLearningは人工知
 能ではない\n求められるシンギュラリティ\n生成モデル
 の発達と紹介\n\n\n\n[ グループセッション→懇親会 ] (18
 :00~19:30)\n\n\n\nグループ毎に自己紹介と現在DLについて
 取り組んでいることなどを共有。\n数少ないDeepLearning
 エンジニアとWEBエンジニアの間で交流をしましょう！\
 n\n※会場にて簡単なおつまみとアルコールをご提供致
 します。\n\n\n19:30 終了\n\n\n\n20:00までに完全撤収となり
 ますので、ご協力下さい。\nお忘れ物のないようにお
 気を付け下さい！\n\n\n\n\n\n[告知]ライトニングトーク
 される方を募集！\n\n\nDeepLearningについてご自身で試み
 られていることや、\n勉強するうえでハマっているこ
 と、こんなことしたい！といった事を発表してみませ
 んか？\nその場で、発表者が関連するトピックについ
 て言及して話を広げていきます。\n※トーク時間は1～3
 分程度で結構です。 \n発表を希望される方は「ライト
 ニングトーク参加枠」でお申込み下さい。\nまた引き
 続き会場及びスポンサー様を探していますので、ご協
 力頂ける方は以下までご連絡くださいませ。\n(事務局
 ：田中)\n\n\n以下、過去の講義内容\n\n#6の内容\n\nニュ
 ーラルネットワーク基礎\n偏微分連鎖律と数式を無視
 する型破りなバックプロパゲーションの理解\n教師あ
 り学習のデモ\nWeightsを視覚化してみる\nDCNN(DeepConvolution
 alNeuralNetwork)を徹底解剖します！\nConvolution層とMaxPooling
 の働きについて\nConvolution層とMaxPoolingのバックプロパ
 ゲーションの理解\nConvolution層の多層化の意味について
 \nConvolution層のWeightsを視覚化してみる\nDCNNの派生系に
 ついてのお話\n\n#5の内容\n\nニューラルネットワーク基
 礎\n偏微分連鎖律と数式を無視する型破りなバックプ
 ロパゲーションの理解\n教師あり学習のデモ\nWeightsを
 視覚化してみる\n教師なし学習のデモ\n主成分分析を視
 覚化してみる\nDeepLearningの深さの利点について\n失敗か
 ら学ぶ。勾配消失問題を味わってみよう！\nチューニ
 ングの全体像\nプレトレーニングは時代遅れ\n失敗から
 学ぶニューラルネットワーク\nMLPに於ける失敗するパ
 ラメータの事例\nStackedAutoEncodersに於ける失敗するパラ
 メータ事例\nDCNNに於ける失敗するパラメータ事例\n\n#4
 の内容\n\n多クラス分類について\n教師ありデータ収集
 について\nオントロジーとは？\nオントロジーの定義の
 難しさ\nImageNetやコンペティションの公共のデータ\nWEB
 クローラーの作り方\nBOT対策について\nデータ解析ツー
 ルの作り方とOpenCV\n漫画やサムネイル、別サイズの同
 じ画像の除去\nラベル貼り付けとコストについて\n\n#3
 の内容\n大枠の概要\n\nDeepLearningの歴史と重要なネット
 ワーク\n選択すべきネットワークの形とそのメリット
 ＆目的の理解\nライブラリの選択とセットアップ\nDCNN
 じゃなくてフルコネクションネットワークと画像解析\
 n\n技術詳細\n\n教師あり学習の基礎(Perceptron/MLP)\n教師な
 し学習について\n教師なし学習の役割と活用例\nAutoEncod
 er/StackedAutoEncodersで次元圧縮と分析\nAdamとSGDとAutoEncoder
 の成功と失敗パラメータ\n\n#2の内容\n大枠の概要\n\nDeep
 Learningの歴史と重要なネットワーク\n選択すべきネット
 ワークの形とそのメリット＆目的の理解\nライブラリ
 の選択とセットアップ\nDCNNのパラメータ設定\n\n技術詳
 細\n\nDCNNの形の理解\nPerceptronとMLPとDCNNの関係\nニュー
 ラルネットワークの基礎\nPerceptronとMLPの予測計算を絵
 で理解する\nPerceptronとMLPのバックプロパゲーション計
 算を絵で理解する\n\n#1の内容\n大枠の概要\n\nDeepLearning
 専門用語解説\n選択すべきネットワークの形とそのメ
 リット＆目的の理解\nライブラリの選択とセットアッ
 プ\nデータ読み込み機構とアウトプット機構（画像編
 ）\nデータ収集とWEBクローラー（画像編）\nラベル付の
 効率化（画像編）\nDCNNのパラメータ設定\n\n技術詳細\n\
 nデータの水増し編 (アフィン変換、ノイズ、ディスト
 ーション、プロジェクション、カラー)\nデータランダ
 マイズサンプル\nランダムデータと正規分布データ\nデ
 ータ正規化(ZCA/PCA Whitening)\n活性化関数の選択\nMaxOut実
 装方法\nバッチ正規化と最新の活性化関数ELU(ReLuじゃな
 いヨ)\nL1/L2正則化とAdaGrad/RMSProp/AdaDelta/Adam/AdaMax\nオント
 ロジーとデータ整頓\n平均予測\nGPGPUの台所事情\n\n\n
LOCATION:さくらインターネット株式会社 東京都新宿区西
 新宿7-20-1 (住友不動産西新宿ビル 33F)
URL:https://techplay.jp/event/594429?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
