BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:PLAZMA TD Internal Day: TD Tech Talk 2018
X-WR-CALNAME:PLAZMA TD Internal Day: TD Tech Talk 2018
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:650390@techplay.jp
SUMMARY:PLAZMA TD Internal Day: TD Tech Talk 2018
DTSTART;TZID=Asia/Tokyo:20180219T130000
DTEND;TZID=Asia/Tokyo:20180219T220000
DTSTAMP:20260413T044339Z
CREATED:20171215T045715Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/65039
 0?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\nPLAZMA TD Intern
 al Day: TD Tech Talk 2018\n\nTD Internal Day of Treasure Data's PLAZMA\n\
 n\n2/15(木) OSS Day: https://techplay.jp/event/650389\n2/19(月) TD Inte
 rnal Day: https://techplay.jp/event/650390\n\n\n概要\n\nTreasure Data P
 LAZMAの一環として、今回は平日午後に2日間をつかって 
 TD Tech Talk を行います!\n\n2日目はTD Internal Dayとして、Tre
 asure Dataの分散処理技術や新アプリケーションであるCDP
 について、機能や実装の詳細、および最近のアップデ
 ートについてたっぷり話します!\n\nまたイベント後に
 懇親会(無料)を用意しています。ぜひご参加ください
 。\n\n※ TD外部からの方にもいくつもトークを行ってい
 ただきます! こちらは個別に今後アップデートします\n
 \n※ 当日は取材が入る可能性があります。またイベン
 ト内容等が後日公開される可能性があります。\n\n会場
 \n\n会場は東京駅前、丸の内です。また 2/15 と 2/19 では
 会場が異なります。ご注意ください。\n\n\nJPタワーホ
 ール＆カンファレンス\n東京都千代田区丸の内２丁目
 ７−２ ＫＩＴＴＥ 4階\n\n\nタイムスケジュール\n\n\n\n\n
   時間\n  内容\n  登壇者\n\n\n\n\n  12:30〜\n  開場・受付\n 
  \n\n\n  13:00〜13:10\n  オープニング\n  \n\n\n  13:10〜13:30\n  
 PTD and beyond: A look at what Hadoop team have been up to\n  Johan\n\n\n
   13:30〜13:50\n  UDP: A New Partitioning Strategy accelerating CDP Work
 load\n  @Lewuathe\n\n\n  13:50〜14:05\n  TDと弊社との軌跡\n  川
 崎泰一(株式会社ファンコミュニケーションズ)\n\n\n  14:
 05〜14:20\n  動画系メディア[DELISTH KITCHEN]の運用開発を支
 えるデータウェアハウスの活用事例\n  島田雅年 (株式
 会社エブリー)\n\n\n  14:20〜14:30\n  break\n  \n\n\n  14:30〜15:0
 0\n  Treasure CDPシステムアーキテクチャ: 10億ユニークデ
 バイスをリアルタイム追跡するシステム構築\n  @frsyuki\
 n\n\n  15:00〜15:30\n  Machine Learning and Natural Language Processing 
 on Treasure CDP\n  @takuti\n\n\n  15:30〜15:45\n  アサインナビのW
 EBアクセスログの活用事例 - Log visualization with BI tool & Ad
 vanced analytics with Python\n  渡辺　翔太 (株式会社エル・テ
 ィー・エス)\n\n\n  15:45〜16:00\n  break\n  \n\n\n  16:00〜16:30\n
   Treasure CDP のユーザインタフェース構築に関するあれ
 これ\n  Tsubasa\n\n\n  16:30〜16:45\n  Treasure Dataで構築したデ
 ータ分析基盤、この1年の振り返り\n  戸井田明俊 (株式
 会社リクルートマーケティングパートナーズ)\n\n\n  16:4
 5〜17:00\n  break\n  \n\n\n  17:00〜17:30\n  消えゆくLegacy System 
 ー Event Collectorの苦難と改善の歴史\n  @komamitsu_tw\n\n\n  17
 :30〜18:00\n  Planet-scale Data Ingestion Pipeline: Bigdam\n  @tagomoris
 \n\n\n  18:00〜20:00\n  懇親会\n  \n\n\n\n\n※ 当日予告なく時
 間配分・内容が変更になる可能性がございます。\n\nト
 ーク概要\n\n13:10〜 PTD and beyond: A look at what Hadoop team have 
 been up to\n\nby Johan Gustavsson (Treasure Data)\n\n2017年、Treasure D
 ataのHadoopチームはクラスタをHDPからコミュニティリリ
 ース版に切り替えるという大きな変更を行いました。
 また同時にクラスタや設定の管理方法についても方針
 の変更を行いました。これは単純な変更や性能の改善
 というだけでなく、様々なものの自動化やクエリエン
 ジンのHive2への移行も視野に入れたものです。\n\nこの
 セッションではPTD (Patchset by TD)とは何か、Hadoopのバー
 ジョン移行がどのように行われたのか、またその経過
 における我々のチャレンジは何だったのかについて話
 します。\n\n13:30〜 UDP: A New Partitioning Strategy accelerating CD
 P Workload\n\nby Kai Sasaki (@Lewuathe\, Treasure Data)\n\nTreasure Data
 内で動くPrestoクエリをより柔軟に、より高速に走らせ
 るためにUDP (User Defined Partitioning)という機能を開発、テ
 スト中です。\n\n各ユーザが独自のPartitioningの設定を用
 いてそれぞれのワークロードにあった最適化を図るこ
 とができ、とりわけCDPのような多様な軸での分析を高
 速に行うことを可能にします。このセッションでは近
 日リリース予定のUDPとそれを支えるPlazmaDBの詳細につ
 いて話します。\n\n13:50〜 TDと弊社との軌跡\n\nby 川崎泰
 一 (株式会社ファンコミュニケーションズ)\n\nTDを使い
 始めて3年余りの振り返り、何がTDヘビーユーザにさせ
 たのかを話します。\n\n14:05〜 動画系メディア[DELISTH KIT
 CHEN]の運用開発を支えるデータウェアハウスの活用事
 例\n\nby 島田雅年 (株式会社エブリー)\n\nDELISH KITCHENの運
 用開発では、Treasure Data/BigQuery/Redshiftなどデータウェア
 ハウスをフル活用した運用開発体制となっております
 。そこで、DELISH KITCHENにおけるアプリケーションとロ
 グ基盤の概要と活用事例について紹介させて頂ければ
 と思います。\n\n14:30〜 Treasure CDPシステムアーキテクチ
 ャ: 10億ユニークデバイスをリアルタイム追跡するシス
 テム構築\n\nby Sadayuki Furuhashi (@frsyuki\, Treasure Data)\n\nTreas
 ure CDPは「顧客を理解する」ためのデータを集中処理し
 、SQLの知識がなくても解析からコンテンツの出し分け
 までを可能にするシステムであり、その技術的実体はT
 reasure Dataプラットフォームのあらゆる機能を駆使して
 実装されたアプリケーションです。Digdag、Embulk、Fluentd
 、Presto、Hadoop、Hivemallなど我々が運用する要素技術を
 連携させ、過去何年にも渡る全データを統合した顧客
 データベースを構築し、その巨大なデータセットに対
 してウェブUIを使ってインタラクティブに解析を行う
 ことを可能にしました。\n\nここではTreasure CDPの概要と
 システム構成を紹介するとともに、AWSを使って構築し
 た分散型時系列データベースについて解説します。\n\n
 15:00〜 Machine Learning and Natural Language Processing on Treasure CDP
 \n\nby Takuya Kitazawa (@takuti\, Treasure Data)\n\nTreasure Dataが提
 供するCDPというサービスに実装された機械学習・自然
 言語処理機能の実体は、Apache Hivemallを利用したクエリ
 群からなるDigdagワークフローです。\n\nこのワークフロ
 ーがどのようなアルゴリズム（とヒューリスティクス
 ）の上に成り立っているのか、その一端をお見せしま
 す。また、多様なユーザの大小様々なデータに対して
 適用可能な、汎用的な機械学習ワークフローを構築す
 ることの難しさや、その可能性と今後の展望について
 お話します。\n\n15:30〜 アサインナビのWEBアクセスログ
 の活用事例 - Log visualization with BI tool & Advanced analytics wit
 h Python\n\nby 渡辺　翔太 (株式会社エル・ティー・エス B
 usiness Development & Insights)\n\nエル・ティー・エスの子会
 社であるアサインナビ（エンジニア・IT企業とIT案件の
 マッチングサイト）にて\nTreasure dataを活用したWEBアク
 セスログの活用事例を紹介します。\nアジェンダを主
 に2点を予定しております。\n\nBIツールを活用した基本
 的なアクセス状況の可視化・環境を紹介\nPythonでログ
 データを直接読込み、インサイト発見に向けたデータ
 分析を紹介\n\n\n16:00〜 Treasure CDP のユーザインタフェー
 ス構築に関するあれこれ\n\nby Tsubasa Tomoda (Treasure Data)\n\
 nTreasure CDP のユーザインタフェースは既存の Console ア
 プリケーションとは別のユーザインタフェースとして
 開発、提供されています。ただし、フロントエンドに
 関わっているチームメンバーはたったひとり。。。\n
 開発開始から約1年が経った今、どの様にしてユーザイ
 ンタフェースをゼロから構築してきたのか、振り返り
 つつ紹介します。\n\n16:30〜 Treasure Dataで構築したデー
 タ分析基盤、この1年の振り返り\n\nby 戸井田明俊 (株式
 会社リクルートマーケティングパートナーズ ネットビ
 ジネス本部 プロダクトディベロップメント部 データ
 基盤グループ)\n\nスタディサプリのデータ分析基盤運
 用にまつわる Tips を、ここ1年間の Treasure Data のアップ
 デートを振り返りながらご紹介します\n\n17:00〜 消えゆ
 くLegacy System ー Event Collectorの苦難と改善の歴史\n\nby Mit
 sunori Komatsu (@komamitsu_tw / @komamitsu\, Treasure Data)\n\nTreasure D
 ata JavaScript SDK / Mobile SDKs等からのData Ingestionを扱うEvent 
 Collectorは、負荷の増加とともに性能の改善を繰り返し
 運用に耐えてきました。新しいData Ingestion Pipelineであ
 るBigdamの登場により消えゆく運命のLegacy Systemの一つで
 すが、このセッションではEvent Collectorの苦難と改善の
 歴史についてお話しします。\n\n17:30〜 Planet-scale Data Ing
 estion Pipeline: Bigdam\n\nby Satoshi Tagomori (@tagomoris\, Treasure Dat
 a)\n\nTreasure Dataが提供するプラットフォームの顧客は全
 世界に及び、その顧客からのTreasure Dataへのデータ送信
 における高スループット・低レイテンシ・高信頼性の
 重要度は日々高まっています。Treasure Dataのデータ入力
 パイプラインは創業時から大きく設計を変えることな
 くスケールを増大させてきましたが、今後の更なる新
 機能・利便性向上・コスト削減を考えると限界のある
 ものでした。\n\nBigdamはTreasure Dataのデータ入力系統を
 一新するため、根本的にアーキテクチャから刷新した
 一連の分散システムプロジェクトです。全世界から膨
 大なデータ入力を低レイテンシで受け付け、Treasure Data
 のバックエンドデータベースに高効率で格納するため
 に設計されています。これはH2Oとmrubyにより構成され
 た高機能フロントエンドHTTPサーバ、独自の可用性ポリ
 シーのために新規開発された分散ストレージおよび高
 スループットタスクキューなどを含みます。\n\nこのセ
 ッションでは、なぜそういったものの開発が必要だっ
 たのか、各々のコンポーネントが何を目的にどのよう
 に設計されているかについて解説します。\n\n参加対象
 \n\n\nソフトウェアエンジニア\nリクルーティング、勧
 誘など、採用目的でのイベント参加はお断りしており
 ます\n飲食のみを目的としたご応募・ご来場はご遠慮
 ください\n補欠者の方は、ご来場いただいてもご入場
 いただくことが出来ませんのでご了承ください\n欠席
 される場合は、お手数ですが速やかにキャンセル処理
 をお願い致します\n\n\n参加費\n\n無料\n\nハッシュタグ\n
 \n#tdtech\n
LOCATION:JPタワーホール＆カンファレンス 東京都千代田区
 丸の内２丁目７−２ ＫＩＴＴＥ 4階
URL:https://techplay.jp/event/650390?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
