キーワードはRAG ! Kaggle LLMコンペの攻略法を解説
イベント内容
講座概要
今年の7月から10月にかけて、Kaggle主催でKaggle - LLM Science Examというコンペが開催されました。 LLMに選択式の問題を解かせて正解率を競うという内容で、2,664チームが参加し、LLMを扱うコンペとしてはかなりの盛り上がりを見せていました。
発表者 (早野) はこれに参加し、上位8% (205th) で銅メダルを獲得することができました。本コンペでは特に、RAG (Retrieval Augumented Generation) によって、LLMへの入力となるプロンプトを如何に拡充させるかがキーとなっており、RAGに関するさまざまな手法が議論され試されていました。コンペに取り組んでいく中でこうした議論や試行錯誤を直に体験することができ、これまで参加した中でもトップクラスに実りの多いコンペだったと思います。
本講座では、発表者が「Kaggle - LLM Science Exam」へどう取り組んだか、その取り組みの中で活用した手法 (RAGのほか学習データ生成やモデルアンサンブルなど) について解説します。また、上位チームがどのようにアプローチしたかについても解説します。
主な対象者
- Kaggleに興味がある方
- RAGに興味がある方
前提とする知識
- 深層学習の基本的な知識
- LLM、トークナイザーなどの自然言語処理関連の用語についての知識
会場
Zoomウェビナーでの開催となります
※ 参加登録してくださった方に、このページ上部の「参加者への情報」の欄にZoom URLが表示されます。
タイムテーブル
時刻 | 内容 |
---|---|
19:30 | はじめに |
19:35 | キーワードはRAG ! Kaggle LLMコンペの攻略法を解説 |
20:20 | 質疑応答 |
20:30 | 終了 |
※質疑の内容や数などにより、終了時刻が前後する可能性があります。
発表者プロフィール
発表者: 早野康太
東京大学農学生命科学研究科生物・環境工学 修士課程修了。都内のIT企業で自然言語モデルに関わる研究開発に従事。Kaggleで獲得したメダルは銀メダル1個、銅メダル2個。
注意事項
※ 掲載タイミングや更新頻度によっては、情報提供元ページの内容と差異が発生しますので予めご了承ください。
※ 最新情報の確認や参加申込手続き、イベントに関するお問い合わせ等は情報提供元ページにてお願いします。
新規会員登録
このイベントに申し込むには会員登録が必要です。
アカウント登録済みの方はログインしてください。
※ ソーシャルアカウントで登録するとログインが簡単に行えます。
※ 連携したソーシャルアカウントは、会員登録完了後にいつでも変更できます。