イベント内容
本イベントは、原則毎週火曜日20:00から松尾研究室が主催するLLMに関する輪読会 & 実装のオンラインイベントです。
イベント概要
対象: 普段から論文を読んでいる/普段からLLMの実装を行なっている方々
レベル: ★★★★☆ (Expert)
発表者: 松尾研LLMCommunityメンバー チームJINIAC有志, 元谷 崇(インドサクラソフトウェアジャパン、旧行政職員)
テーマ:言語処理学会第31回年次大会(NLP2025) 第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップ報告
論文リンク:
-
Arora, D., & Zanette, A. (2025). Training Language Models to Reason Efficiently. arXiv preprint
-
Han, D., & Han, M. (2025, February 6). Train Your Own R1 Reasoning Model with Unsloth (GRPO).
-
Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large language models are zeroshot reasoners. Advances in neural information processing systems, 35, 22199-22213. arXiv preprint
-
Mekala, R. R., Razeghi, Y., & Singh, S. (2023). EchoPrompt: instructing the model to rephrase queries
for improved in-context learning.
-
Shao, Z., Wang, P., Zhu, Q., Xu, R., Song, J., Bi, X., ... & Guo, D. (2024). Deepseekmath: Pushing the
limits of mathematical reasoning in open language models.
-
Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., ... & Zhou, D. (2022). Self-consistency
improves chain of thought reasoning in language models.
-
Wang, Y., Zhao, S., Wang, Z., Huang, H., Fan, M., Zhang, Y., ... & Liu, T. (2024). Strategic chain-ofthought: Guiding accurate reasoning in llms through strategy elicitation.
-
Xu, X., Tao, C., Shen, T., Xu, C., Xu, H., Long, G., & Lou, J. G. (2023). Re-reading improves reasoning in
language models.
松尾研LLMコミュニティについて
松尾研LLMコミュニティは、「大規模言語モデルについて知って学べるオンライン空間」として、東京大学松尾・岩澤研究室が運営するコミュニティです。現在、学生を中心とした8100名以上が、原則無償で参加しています。
松尾研コミュニティへの参加はこちらからお申し込みください。
また、本コミュニティでは様々なセミナーやハンズオンイベント等を定期的に開催しております。是非上記のSlackコミュニティへの参加と併せて、connpass上のグループの登録しイベント開催情報をお待ちください。
松尾研LLMコミュニティの各種リンクはこちら;
-
今後のイベント開催情報/参加申込;こちら
-
松尾研LLMコミュニティ参加フォーム;こちら
-
過去イベントアーカイブ(Youtube);こちら
その他
- 2025年4月開講予定の「深層学習 DeepLearning基礎講座」の事前予約を開始しています。予約フォームはこちら
注意事項
※ こちらのイベント情報は、外部サイトから取得した情報を掲載しています。
※ 掲載タイミングや更新頻度によっては、情報提供元ページの内容と差異が発生しますので予めご了承ください。
※ 最新情報の確認や参加申込手続き、イベントに関するお問い合わせ等は情報提供元ページにてお願いします。