BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:CounterFactual Machine Learning勉強会 #6（オンライン
 ）
X-WR-CALNAME:CounterFactual Machine Learning勉強会 #6（オンライン
 ）
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:862958@techplay.jp
SUMMARY:CounterFactual Machine Learning勉強会 #6（オンライン）
DTSTART;TZID=Asia/Tokyo:20220702T130000
DTEND;TZID=Asia/Tokyo:20220702T173000
DTSTAMP:20260410T110829Z
CREATED:20220619T143150Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/86295
 8?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\n概要\n近年
 因果推論の知識を機械学習に応用したり、逆に因果推
 論の為に機械学習を応用するといった方法論が提案さ
 れています。 この勉強会はCounterfactual Machine Learning (CFM
 L) と呼ばれるこれらの手法に関する研究や実例の紹介
 を行う事を目的としたものです。\n機械学習 and/or 因果
 推論に関する論文を普段読んでいる研究者、学生、エ
 ンジニア、データサイエンティストの方を想定してお
 りますが、誰でもご参加いただけます。\nなお、CFMLに
 馴染みのない方は以下のサーベイ/チュートリアルを見
 てみると良いかもしれません。\n\n私のブックマーク：
 反実仮想機械学習 (Counterfactual Machine Learning\, CFML)\nTutori
 al on Counterfactual Learning and Evaluation for Recommender Systems: Fou
 ndations\, Implementations\, and Recent Advances (RecSys 2021)\n\n実施
 方法\nZOOMを使用します。各自インストールをお願いし
 ます。 \nURLは当日（7/2）に、connpassのメッセージ機能
 で登録者に事前にお送りいたします。\n一つの発表時
 間は約40~60分で、発表資料（日本語 or 英語）はイベン
 ト後に公開する予定です。\n質疑応答は、sli.doを使用
 して行います。 使用方法は以下の通りです。\n\nconnpass
 のメッセージ機能でお知らせしたURLにアクセスしてく
 ださい\n発表者に質問があれば、都度ここに書き込ん
 でください（匿名可）。\n質問は他の方も閲覧可能で
 す。自分も聞きたいという質問があれば「いいね」が
 できます。\n発表終了後時間が許す限り、発表者が「
 いいね」が多いものから優先して回答していきます。\
 n\n注意事項\n技術交流が目的の勉強会ですので、知識
 の共有および、参加者同士の交流を目的としない参加
 はお断りしています。\n参加目的が不適切だと判断さ
 れる場合には、運営側で参加をキャンセルさせていた
 だく場合がございます。\nタイムテーブル\n\n\n\n時間\n
 内容\n\n\n\n\n13:00 - 13:10\n挨拶・諸連絡・発表ラインナッ
 プ紹介\n\n\n13:10 - 14:10\n発表①：複数のアイテムを扱う
 「ランキング推薦」のためのオフライン方策評価技術
 の紹介 (WSDM'22)\n\n\n14:10 - 14:20\n休憩\n\n\n14:20 - 15:00\n発表
 ②： BigQuery“だけ”で因果推論\n\n\n15:00 - 15:40\n発表③
 ：ランダム欠損データに依存しない推薦システムのバ
 イアス除去 (IJCAI'22)\n\n\n15:40 - 16:20\n発表④：推薦の因
 果効果にもとづくランキング手法と評価手法\n\n\n16:20 -
  16:30\n休憩\n\n\n16:30 - 17:30\n発表⑤：Off-Policy Evaluation for 
 Large Action Spaces via Embeddings (ICML'22)\n\n\n\n※ 適宜休憩を
 取ります。当日予告なく時間配分、内容が変更になる
 可能性がございます。\n発表の詳細\nタイトル： 複数
 のアイテムを扱う「ランキング推薦」のためのオフラ
 イン方策評価技術の紹介\n発表者： 清原 明加\nプロフ
 ィール：東京工業大学 学士課程4年（経営工学）。人
 々の経済活動や行動選択を支援する意思決定システム
 での機械学習・最適化技術の応用に興味があり、主に
 強化学習領域のアルゴリズム開発・評価に関する研究
 を行う。現在は特に、半熟仮想、Yahoo、Sony、negociaと共
 同研究を行い、推薦システム・広告入札アルゴリズム
 の評価技術開発に携わる。\n発表概要：You TubeやYahoo!シ
 ョッピングなど、複数のアイテムを順序付けてユーザ
 ーに提示する「ランキング推薦」システムでは、ユー
 ザーに有益なランキングを提示するためのアルゴリズ
 ム（方策）開発が日々行われている。この方策開発に
 おいて、新たな方策の性能をデプロイ前にオフライン
 で評価することは、方策の有用性や安全性を保証する
 上で必要不可欠な工程である。本発表では、過去に別
 の方策によって蓄積されたログデータを用い、新たな
 方策のオフライン評価を行う研究を紹介する。まず前
 半では、既に多く研究されている単一のアイテムのみ
 を推薦する場合と比較した、ランキング推薦設定にお
 ける技術課題を解説する。後半では、前述の課題を克
 服するため私を含む研究チームが開発しWSDM2022にてBest 
 Paper Award Runner-Upを受賞した、新たなオフライン評価手
 法について解説する。 \n参考資料 \n論文: https://arxiv.org
 /abs/2202.01562\nタイトル：BigQuery“だけ”で因果推論\n発
 表者：今井 優作 \nプロフィール： データサイエンテ
 ィスト/機械学習エンジニア/データエンジニアを経験
 し、現在はマーケティングDX推進に従事。\n発表概要：
  本発表ではアナリスト向けにBigQuery“だけ”で因果推
 論(傾向スコア補正、Uplift Modeling)を実施する方法につ
 いて紹介します。\nタイトル： ランダム欠損データに
 依存しない推薦システムのバイアス除去\n発表者：野
 村 将寛\nプロフィール： サイバーエージェント株式会
 社 AI Lab リサーチサイエンティスト。ブラックボック
 ス最適化や機械学習に関する研究を行う。\n発表概要
 ： 推薦システムにおいては、ユーザーに関連のあるア
 イテムを適切に推薦できるよう予測器を高精度で学習
 することが重要となる。これが推薦システムにおいて
 困難になる理由としては、一般にデータの欠損メカニ
 ズムがランダムではない（missing-not-at-random\; MNAR）こと
 が挙げられる。具体的には、過去の推薦システムが人
 気のアイテムをより高い確率で推薦していたり、ユー
 ザーが好みのアイテムを評価しやすいといった理由か
 ら、観測されるデータは一般にバイアスを持ったもの
 になってしまう。これに対する既存手法（例えばIPS）
 ではある程度のランダム欠損（missing-completely-at-random\; 
 MCAR）データを必要としており、MNARデータから効率的
 な学習をしたいという元々の目的と矛盾するものにな
 っていた。本研究では、そのようなMCARデータを必要と
 しないバイアス除去手法を提案する。提案手法では、
 ドメイン適応的な方法により導出された汎化誤差の上
 界を最小化することでモデルの学習を行う。MCARデータ
 が全く存在しないという現実的な設定において、提案
 手法が既存手法よりも高精度にモデルを学習できるこ
 とを実験により確認する。\nタイトル： 推薦の因果効
 果にもとづくランキング手法と評価手法\n発表者：佐
 藤 政寛\nプロフィール： 主に情報推薦技術の研究開発
 を行なっている。因果推論やアップリフトモデリング
 を推薦に応用した研究が多い。\n発表概要： 推薦シス
 テムの重要な目的の一つは、ユーザーのポジティブな
 行動（閲覧や購入など）を増やし、エンゲージメント
 や売り上げを向上することである。一般に推薦システ
 ムはユーザーの興味関心を推定して行動確率が高いア
 イテムを推薦し、推薦したアイテムをユーザーが閲覧
 ・購入するとその推薦は成功とみなされる。しかしそ
 のユーザーは推薦しなくてもそのアイテムを閲覧・購
 入していたかもしれない。そこで推薦による閲覧・購
 入の増加（＝推薦の因果効果）に着目した研究を行っ
 てきた。本発表では期待される因果効果順にアイテム
 をランキングする手法や、推薦システムの因果効果を
 オンラインで比較評価する手法を紹介する。\nタイト
 ル： Off-Policy Evaluation for Large Action Spaces via Embeddings (ICML
 '22)\n発表者：齋藤 優太\nプロフィール： 2021年3月東京
 工業大学工学院経営工学系にて学士号取得。同年8月よ
 りコーネル大学大学院コンピュータサイエンス専攻博
 士課程にて反実仮想学習やランキングシステムの公平
 性に関する研究を行う。これまでにNeurIPS・ICML・KDD・Re
 cSys・WSDMなどの国際会議にて学術論文を発表。また、
 複数の国内企業と連携して、反実仮想学習領域の応用
 研究に従事。2021年に日本オープンイノベーション大賞
 内閣総理大臣賞を受賞。著書に『施策デザインのため
 の機械学習入門』（技術評論社）。\n発表概要：文脈
 付きバンディットにおけるオフ方策評価は、過去のロ
 グデータのみを用いた新しい方策の性能評価を可能に
 するため、多くの実応用で急速に採用されている。し
 かし、行動数が多くなる場合に、既存の推定量（多く
 は傾向スコア重み付けに基づく）の精度が著しく悪化
 してしまう問題がある。これは、推薦システムや言語
 モデルなど、行動数が多くなりがちな応用において特
 に深刻な未解決問題である。本講演では、この問題を
 解決するために、行動の埋め込み情報を活用した新た
 な推定量MIPSを提案する。またMIPSの重要な統計的性質
 を分析し、特に行動数が多い状況において、従来の推
 定量に対して統計的な利点をもたらすことを示す。最
 後に、MIPSが既存の推定量よりも行動数の増加に対して
 頑健であることを示す実験結果を紹介する。\n参考資
 料 \n論文: https://arxiv.org/abs/2202.06317
LOCATION:オンライン
URL:https://techplay.jp/event/862958?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
