TECH PLAY

Laboro.AI

Laboro.AI の技術ブログ

å…š147ä»¶

芖芚蚀語モデル 【連茉】自然蚀語凊理の研究動向 第9回 2026.3.25 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 抂 芁 芖芚蚀語モデルVLMの登堎は、画像情報をベヌスずした蚀語生成を可胜にし、芖芚理解のあり方を劇的な倉化ぞず導きたした。か぀おは画像ずテキストを察応付ける研究が䞭心でしたが、珟圚のモデルはれロショット孊習や自由床の高いマルチモヌダル生成を実珟するたでに至っおいたす。本皿では、VLMのこれたでの進化を3段階に敎理した䞊で、次なる「第4の波」ずしお期埅される芖芚知胜の展望に぀いお考察したす。 連茉第1回「自然蚀語凊理の研究動向 党40トピックの俯瞰」は こちら 。 連茉第8回「議論マむニング」は こちら 。 目 次 ・ 芖芚蚀語モデルVLMずは ・ 䞻芁な技術的進歩 ・ 今埌の展望ず課題 芖芚蚀語モデルVLMずは これたで、自然蚀語凊理NLPずコンピュヌタビゞョンCVは、互いに独立した専門分野ずしお発展しおきたした。NLPが契玄曞やメヌルずいったテキスト解析を担う䞀方で、CVは監芖カメラの映像解析や補造ラむンの品質管理など、䞻に芖芚情報の凊理に特化しおきた経緯がありたす。しかし、今日の技術革新はその境界線を曖昧にし぀぀ありたす。 深局孊習ずモデルアヌキテクチャの急速な進展により、䞡者を統合した「芖芚蚀語モデルVLM」が登堎したした。埓来のモデルずは䞀線を画し、VLMは芖芚情報ずテキスト入力を同䞀の系で凊理するこずで、察象を芋お読み、掚論した結果をテキストずしお出力したす。VLMの根幹はNLPの原理にありたすが、その構造は埓来のアヌキテクチャから倧きく倉化したした。耇数のプログラムを組み合わせた脆匱なシステムから、倧芏暡デヌタを通じお画像やテキストを䞀぀の頭脳で理解する、よりシンプルで高床な仕組みぞず移行しおいたす。 このパラダむムシフトは、ビゞネスにおけるAIの可胜性を倧きく広げたす。埓来のCVツヌルは、特定の物䜓を怜知し枠で囲むずいった限定的なタスクに留たっおいたした。察照的に、珟代のVLMは「アクティブ・アナリスト」ずしおの圹割を果たしたす。画像のキャプション生成や耇雑なコンテキストぞの回答、さらにはチャヌトからのトレンド分析など、芖芚的な事象に基づいた高床な蚀語的掞察の提䟛が可胜になったのです。 䞻芁な技術的進歩 第1の波画像読解型 / 「構成芁玠の解析」の時代 (2019–2020) ViLBERT (2019) 、 LXMERT (2019) 、 VisualBERT (2019) などに代衚される第1の波は、テキストを読むために䜿甚されるTransformerアヌキテクチャが、画像も「読む」こずができるこずを蚌明したした。この時代のモデルは画像を文章のように扱い、写真をオブゞェクト領域䟋「車」「朚」「犬」のシヌケンスに分解。これらのビゞョントヌクンをテキストず共に凊理するこずで、䞡瀟の関連性を孊習したした。 このアプロヌチによっお、「車の色は䜕色か」ずいった芖芚的な問いに察し、甚意された遞択肢から回答する胜力が実珟したした。しかし、そこにはいく぀かの限界も存圚したした。第䞀に、芖芚領域の特定を倖郚の物䜓怜出噚に䟝存しおいたこず。第二に、孊習には厳密にラベル付けされた膚倧なデヌタセットを必芁ずしたこず。そしお第䞉に、これらのモデルは識別的discriminativeであり、人間のように自由な圢匏で回答を生成するのではなく、あらかじめ定矩されたリストから正解を分類するこずしかできなかったのです。 第2の波抂念統合型 / 「ベクトル察応」の時代 (2021–2022) OpenAIの CLIP (2021) やGoogleの ALIGN (2021) が䞻導した第2の波は、モデルのスケヌラビリティず汎甚性ぞの転換点ずなりたした。これらのモデルは、倖郚の物䜓怜出噚ぞの䟝存を排陀し、汎甚゚ンコヌダを䜿甚しお画像をホリスティック党䜓論的に凊理したす。目的は文法を深く解析するこずではなく、画像のベクトル䟋犬の写真が、テキスト蚘述のベクトル䟋「これは犬です」ず自然に䞀臎するような共通の埋め蟌み空間を孊習するこずにありたした。 これを実珟するために、研究者は厳密にラベル付けされたデヌタセットから離れ、むンタヌネットから収集された数億組のノむズを含む「画像ずテキストのペア」で孊習を行いたした。この倧芏暡なスケヌルが、驚くべき新胜力であるれロショット孊習を可胜にしたした。特定のカテゎリで孊習するこずなく、画像のベクトルが「これはカモノハシです」ずいうテキスト埋め蟌みず䞀臎するかを確認するだけで、モデルは「カモノハシ」のような党く新しい抂念を認識できるようになったのです。これにより、厳遞された孊習デヌタやタスク固有の埮調敎を必芁ずしない、拡匵可胜な画像怜玢および分類システムぞの道が開かれたした。 第3の波生成・察話型 / 「マルチモヌダル掚論」の時代 (2023–珟圚) 珟圚進行䞭の第3の波は、 BLIP-2 (2023) 、 LLaVA (2023) 、 GPT-4V (2023) に䟋瀺される「生成的な統合」を象城しおいたす。モデルをれロから構築するのではなく、研究者は高性胜な「芖芚の目」第2の波の成果を「蚀語の脳」倧芏暡蚀語モデルLLMず盎接融合させる方法を芋出したした。 この融合により、モデルの胜力は単なる画像照合の域を遥かに超えるものずなりたした。「蚀語の脳」を獲埗したこずで、屋倖環境での光孊文字認識OCR、耇雑なデヌタチャヌトの解釈、芖芚コンテンツに関する機埮に觊れた察話、さらにはミヌムむンタヌネット䞊のネタ画像のナヌモアの解説たでもが可胜になったのです。この倉革は、AIの圹割を受動的なタグ付けから胜動的な分析ぞずシフトさせたした。芖芚情報を単に芋るだけでなく、深く理解し、具䜓的なアクションに繋げる必芁がある゚ンタヌプラむズ・むンテリゞェンスや補品怜玢、アクセシビリティ、コンテンツ・モデレヌションずいった広範な分野においお、すでに倚倧な圱響を及がしおいたす。 今埌の展望ず課題 これたでに述べた3぀の朮流は、VLMが向かうべき「第4の波」の茪郭を浮き圫りにしおいたす。最新のトレンドに基づき、私たちは今埌の有望な方向性ずしお以䞋の芁玠を特定したした。 1.蚘憶ず掚論の導入 テキストLLMの進化を远随するように、芖芚モデルも「蚘憶」ず「掚論」の実装ぞず舵を切っおいたす。これには、 CoMemo (2025) に芋られるマルチモヌダル長期蚘憶の開発や、 Visual-CoT (2024) や LlamaV-o1 (2025) に代衚される、回答前にモデルが内省を行う思考の連鎖Chain-of-Thought機胜の高床化が含たれたす。 2.ビデオ理解ず掚論 動画の䞭の文脈を読み解くうえで、凊理の重さや時系列的な理解の限界は䟝然ずしお倧きな課題ですが、近幎では VideoLLM-online (2024) や StreamingVLM (2025) ずいった、このギャップを埋めるための革新的な詊みが続いおいたす。 3.統合TransformerUnified Transformers   CM3Leon (2023) 、 Mogao (2025) 、 ShapeLLM-Omni (2025) ずいった新䞖代のモデルは、ネむティブなむンタヌリヌブ生成テキストず非蚀語情報の混圚生成をサポヌトし始めおいたす。単䞀のモデルがテキスト、画像、さらには3Dコンテンツをシヌムレスに読み曞き・線集できるこの技術は、真のオムニモヌダル知胜ぞの道を開くものです。 しかし、胜力の拡倧に䌎い、安党性におけるリスクも増倧しおいたす。こうした脆匱性の倚くは、システムの認知的なバックボヌンであるテキストLLMから盎接匕き継がれたものです。䟋えば、根匷い課題であるハルシネヌション幻芚の圱響は、 Yang et al. (2025) や Min et al. (2025) の最近の研究が瀺すように、珟圚は芖芚ドメむンにも及んでいたす。 これら既存のリスクに加え、VLM特有のマルチモヌダル蚭蚈が新たな課題を浮き圫りにしおいたす。 Liu et al. (2025) は、芖芚入力を远加するだけでモデルの安党性指瀺ぞの準拠アラむメントが匱たり、䞍安党な回答を生成する可胜性が高たるこずを指摘したした。 結論ずしお、これらのリスクを特定するこず自䜓が、第4の波を乗りこなすためのロヌドマップずなりたす。慎重な蚭蚈ず暙的を絞ったセヌフガヌドを講じるこずで、次䞖代のVLMはより有胜になるだけでなく、より信頌できるものになるず期埅されおいたす。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 The post 芖芚蚀語モデル 【連茉】自然蚀語凊理の研究動向 第9回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
議論マむニング 【連茉】自然蚀語凊理の研究動向 第8回 2026.2.18 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 抂 芁 議論マむニングArgument Mining、AMは、人々が特定の意芋を持぀に至った理由を明らかにするこずで、埓来の感情分析よりも䞀歩螏み蟌んだ掞察を提䟛したす。初期の「意味埋め蟌み技術semantic embeddings」の画期的進歩により、議論をクラスタリングしお䞻芁なポむントに集玄するこずが可胜になり、その埌の研究では議論の質や倚様性を評䟡する手法が導入されたした。今日、倧芏暡蚀語モデルLLMの台頭により、AMは膚倧な孊習を必芁ずしない新たなフェヌズぞず移行しおいたす。こうした進歩の䞀方で、珟圚の評䟡手法は珟実䞖界のコミュニケヌションにおける䞻芳性やニュアンスを完党には捉えきれおおらず、モデルの異なる分野ぞの応甚力にも課題が残っおいたす。信頌性の高い実甚的なAMシステムを構築するには、これらの評䟡ず汎甚性における栞心的な課題を解決するこずが䞍可欠です。 連茉第1回「自然蚀語凊理の研究動向 党40トピックの俯瞰」は こちら 。 連茉第7回「関係抜出」は こちら 。 目 次 ・ 議論マむニングAMずは ・ 䞻芁な技術的進歩 ・ 今埌の展望ず課題 議論マむニングAMずは 顧客からのフィヌドバック、政策文曞、研究論文、瀟内レポヌトずいったデゞタルコミュニケヌションぞの䟝存床が高たる䞭、人々が「なぜそのように考えるのか」を理解する胜力はたすたす重芁になっおいたす。過去の連茉で取り䞊げたように、自然蚀語凊理NLPにおいお、情報抜出は事実に基づく 固有衚珟 や 関係性 を特定し、 感情分析 は人々がポゞティブかネガティブかを刀断したすが、AMは、さらに螏み蟌んだ問いである「なぜ圌らはそのように感じるのか」に答えるための次なるステップです。 AMは、人々が自身の奜みや意思決定を正圓化するために甚いる「理由」を特定・分析・敎理するこずに焊点を圓おおいたす。これを実珟するために、AMシステムは、議論の抜出、分類、クラスタリング、評䟡、芁玄ずいったいく぀かの䞻芁なサブタスクを組み合わせお成り立っおいたす。 AMの可胜性を瀺す有名な実䟋が、IBMの 「Project Debater2021幎」 です。これは、議論の怜玢、キヌポむントの敎理、質の評䟡、そしお説埗力のあるナラティブの構築たで完結し、人間ずのラむブ蚎論を行う゚ンドツヌ゚ンドのシステムです。 ラむブ蚎論を行うAIは倧きな挑戊ですが、その基盀ずなる技術は、顧客の動機、ステヌクホルダヌの懞念、そしお思考のパタヌンに぀いお、より深い掞察を提䟛するなど、ビゞネスの堎においおも根本的な転換をもたらしたす。 䞻芁な技術的進歩 AMの倧きな前進は、Transformerベヌスのモデルによっお可胜になった「意味埋め蟌みsemantic embedding」からもたらされたした。 Reimers et al. (2019幎) は、意味的に類䌌した議論をクラスタリングする手法を導入し、膚倧な数の意芋を共通のテヌマにグルヌプ化するこずを可胜にしたした。たた、 Bar-Haim et al. (2020幎) が発衚した「キヌポむント分析Key Point Analysis」フレヌムワヌクは、数千もの議論の海から、簡朔で高レベルな䞻芁ポむントを抜出でき、これは実䞖界での分析においお極めお重芁なツヌルずなっおいたす。 次なるフロンティアは、議論の「質」ず「倚様性」に眮かれたした。 Chen et al. (2019幎) は、ある䞻匵を支持たたは反察する倚様な芖点を発芋するためのデヌタセット「Perspectrum」を発衚し、システムが同䞀の問題に察しお耇数の論理展開をどれほど正確に捉えられるかの評䟡を可胜にしたした。これを補完するように、 Gretz et al. (2020幎) が開発した倧芏暡デヌタセットは、議論を明快さ、関連性、匷さに基づいおスコアリングするこずで、議論の質を評䟡できるベンチマヌクずしお、広く掻甚されおいたす。。盎近では、倧芏暡蚀語モデルLLMの台頭が新たなパラダむムをもたらしたした。それは、匷力な事前孊習枈みモデルを「プロンプティング」によっおAMに掻甚する手法です。この流れを受け、 Chen et al. (2024幎) は14皮類の異なるAMデヌタセットでLLMをテストし、LLMが幅広い議論タスクにおいお、れロショットたたはフュヌショットのプロンプトのみで、「賞賛に倀する性胜commendable performance」を瀺すこずを確認したした。 今埌の展望ず課題 今日のNLP評䟡における栞心的な課題は、人間の刀断の信頌性が䜎䞋しおいるこずです。LLMが非垞に流暢になるに぀れ、 Clark et al. (2021幎) は、たずえ根底にある論理が脆匱であっおも、人々が衚面的な流暢さに惑わされやすくなっおいるこずを瀺したした。 AMの分野では、人間の刀断の䞍安定さはAMタスクの深い䞻芳性によっおさらに増幅されたす。䜕をもっお議論が「良い」あるいは「説埗力がある」ずするかは、聞き手や文脈、そしお衚珟の埮劙な差異に䟝存するためです。 「PerspectiveArg」タスク2024幎 は説埗力が個人の䟡倀芳や背景に結び぀いおいるこずを瀺し、 Chen & Eger (2025幎) は、議論を説埗力のあるものにする埮现な感情的芁因に぀いお、人間ずLLMの間で意芋が䞀臎しないこずを明らかにしたした。これらの知芋は、管理された評䟡ず実䞖界の豊かさずの間のギャップを浮き圫りにしおおり、将来のAMシステムが真の䟡倀を提䟛するために改善すべき方向性を瀺しおいたす。 第二の課題は、AMモデルが新しい分野に移行する際に脆匱になる傟向があるこずです。 Gemechu et al. (2024幎) や Feger et al. (2025幎) が蚌明しおいるように、特定のデヌタセットやゞャンルで優れた性胜を発揮するモデルが、別の分野に適甚されるず苊戊するこずが頻繁にありたす。 これらの課題は、裏を返せば最も意矩のある進歩が期埅できる領域でもありたす。評䟡ず汎甚性におけるギャップを埋めるこずこそが、真に信頌でき、実甚的で珟実䞖界のアプリケヌションに察応可胜なAMシステムを構築するための鍵ずいえたす。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 The post 議論マむニング 【連茉】自然蚀語凊理の研究動向 第8回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
PoCを越えろ。AIプロゞェクトが幻に消えないために 2022.4.3公開 2025.12.1曎新 株匏䌚瀟Laboro.AI 執行圹員 マヌケティング郚長 和田 厇 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 2010幎以降、各産業分野で急速に掻甚に火が぀いたAIですが、その開発工皋の䞭で難関ず蚀われるのがPoCピヌオヌシヌポックです。「PoC疲れ」「PoC死」などの䞍吉なワヌドも生たれ、PoCは倚くの䌁業AIプロゞェクト    のネックずなっおきたようです。それほどの難しさを䌎うPoCずは䜕なのか、そしお開発フェヌズでどのような圹割を持ち、どう乗り越えおいくべきか、今回のコラムで考えおいきたす。 PoC段階から䌎走するLaboro.AIのカスタムAI開発は こちら 。 目 次 ・ PoCずは ・ PoCの重芁性  ・ PoCず混同しやすい甚語   ・ プロトタむプ   ・ MVP   ・ 実蚌実隓 ・ AI開発のプロセス  ・ ① 䌁画・構想フェヌズ  ・ ② PoCフェヌズ  ・ ③ 開発・実装フェヌズ   ・ 芁件定矩   ・ デヌタ収集   ・ モデル開発  ・ ④ 運甚フェヌズ ・ 䌁業の倢を阻む「PoC疲れ」「PoC死」  ・ PoC疲れ・PoC死が起きる原因   ・ 目暙や成果が曖昧なたたスタヌトする   ・ 完璧な粟床を求め、曖昧な評䟡基準を蚭定しおしたう   ・ 珟堎䞍圚でプロゞェクトを掚進する   ・ 必芁な孊習デヌタを十分に甚意できおいない      ・ 倖郚任せで自瀟にノりハりが蓄積されない ・ PoCを成功に導くポむント  ・ ビゞョンず成功指暙を明確に定矩する  ・ スモヌルスタヌトで早期に成果を怜蚌する  ・ 珟堎ず䞀䜓ずなったプロゞェクト掚進  ・ デヌタの確保ず品質管理を培底する  ・ 内補化を芋据えノりハりを共有する ・ たずめ PoCずは PoCずは、これたでのコンピュヌタでは実珟できなかった凊理をも可胜にするAI技術は、さたざたな産業・業皮で掻甚が進んでいたす。すでに生掻の䞀郚ずしお瀟䌚に溶け蟌んでいるAIプロダクト・サヌビスもあり、今埌さらにAIの掻甚は加速しおいくはずですが、そうした補品やサヌビスに搭茉するために、あるいはビゞネスにAIを掻甚するためには圓然ながらAI郚分の開発が必芁になりたす。 しかし、AI開発のフェヌズの䞭でも倚くの䌁業の倢を阻んでやたないのが、PoCず呌ばれるものです。 PoCは “Proof of Concept” の略語で、日本語では「抂念実蚌」ず蚳される開発フェヌズの䞀皮です。新しい商品やサヌビスの簡易版を䜜成し、期埅しおいるような品質や結果を埗られそうかずいう仮説怜蚌を小芏暡で実斜したす。PoCを䜕床も実行するこずにより、実珟の芋蟌みを確かめたり、改善のポむントを確認したりできたす。 もずもずは研究・開発の堎面を䞭心に甚いられおいたPoCの考え方ですが、最近ではあらゆるモノがネットに぀ながるIoTやAIの広がりに䌎い、幅広い領域で甚いられるようになっおいたす。特にAI掻甚においおは人間の経隓や知識を螏たえた予枬や既存のセオリヌが及ばない郚分も倚く、アむデアが生たれた際には「やっおみなければ分からない」こずがほずんどだからです。 AIの導入によりどんな結果が期埅できるのか、どんな懞念があるのかを怜蚎する䞊で、PoCの工皋は䞍可欠ず蚀えるでしょう。 PoCの重芁性 PoCが重芖されるのは、開発に䌎うリスクの軜枛に効果を発揮するためです。新芏性の高いプロゞェクトは、費甚察効果が芋えづらく、堎合によっおは投じた時間や費甚がすべお無駄に終わっおしたうこずもありたす。 このような䞍安を軜枛する䞊で圹立぀のが、PoCのフェヌズです。小芏暡で簡易的に新芏プロゞェクトの開発に取り組み、実珟可胜性に぀いお探るこずで、少ない負担で、なおか぀高い確床で開発継続の意思決定が行えるわけです。 たた、PoCを開発工皋の初期に組み蟌んでおくこずにより、開発コストの削枛にも圹立おるこずができたす。早い段階でプロゞェクトの栞ずなる郚分にアタリを付けられるため、䞍芁な機胜の実装にリ゜ヌスを割き、埌から削陀するような無駄を回避できるからです。 参考NRI「 PoC抂念実蚌 」 PoCず混同しやすい甚語 PoCず混同しやすい甚語を䞉぀挙げお説明したす。 プロトタむプ PoCず䌌たような意味を持぀甚語ずしお「プロトタむプ」ずいう蚀葉が挙げられたす。プロトタむプは、PoCよりも方向性や実珟可胜性が高たっおいる段階で着手する詊䜜品開発工皋です。PoCの堎合、それより䞊流の怜蚌䜜業に際しお発生する簡易版の構築であり、プロトタむプよりもシンプルに䜜り䞊げるこずずなりたす。 出兞NTTデヌタグロヌバル゜リュヌションズ「 PoC抂念実蚌ずは 新技術やシステムの怜蚌、実珟たでのステップに぀いお解説 」 MVP MVPは “Minimum Viable Product” の略称で、プロダクトずしお最䜎限の状態にあるものを蚀い、開発の初期段階で䜜成されたす。ナヌザヌからのフィヌドバックを受けながら、完成を目指せる状態にあるのが特城です。䞀方でPoCはナヌザヌに提䟛するこずを想定せず、補品化も定かではない状態で、コア郚分の開発に泚力したす。段階ずしお、PoCはMVPよりも䞊流に䜍眮するものず蚀えたす。たた、PoCが孊びを埗るための䞀過性の実隓であるのに察し、MVPはそのたた補品ずしお成長しおいく最初のバヌゞョンずいう䜍眮付けです。 出兞日本経枈新聞「 PoCずMVPの違いはなんですか? 」 実蚌実隓 「実蚌実隓」はPoCずほが同矩で甚いられるこずの倚い蚀葉です。厳密には、PoCが新技術やアむデアの実珟可胜性を怜蚌する取り組みであるのに察し、実蚌実隓のニュアンスには想定される課題や効果を珟堎で怜蚌するこずがありたす。ずはいえ、PoCによっお新たな問題点が発芋されるこずもあり、実際には䞡者に明確な違いはないずされおいたす。瀟内では甚語の定矩を事前に擊り合わせ、認識のズレによる混乱を避けるこずが望たしいでしょう。 出兞NTTデヌタグロヌバル゜リュヌションズ「 PoCず実蚌実隓・プロトタむプの違いずは 」 PoCの重芁性 “Proof of Concept”の略語であるPoCは、「抂念実蚌」ず蚳される開発フェヌズの䞀぀で、これから開発しようずしおいるAIなどの技術を甚いた商品やサヌビスあるいはビゞネスモデルに新しい技術・抂念を導入するに際しお、それが実珟可胜かどうか、そしおどのような圢であれば実珟ができるのか、さらにコストや期間がどの皋床かかるかなどを怜蚌する段階です。蚀っおみれば実隓開発のようなものですが、机䞊の空論ずしお䌁画のみで終わらせるのではなく、実際にテストモデルを開発しお実珟可胜性を確かめるプロセスです。 PoCずいう蚀葉自䜓は、開発前の怜蚌フェヌズずしお昔からある蚀葉ですが、近幎のAIやIoTの浞透に䌎っお改めお泚目されるようになっおいたす。ずいうのも、AIで甚いられる䞻芁な技術である機械孊習は、コンピュヌタ自身が孊習しおパタヌンや法則性を芋぀ける技術であるため、「やっおみなければ分からない」偎面が必ず䌎いたす。PoCは、技術的な実珟可胜性や補品・サヌビスのコンセプトに問題がないかを確認するための、AI導入プロゞェクトにおいお絶察に欠かせない手続きなのです。 AI開発のプロセス PoCに぀いお説明するにあたっお、AI開発のプロセスを远いかけおみたいず思いたす。様々な捉え方はあるものの、AI開発のプロセスは倧きく4぀に分けるこずができたす。 ① 䌁画・構想フェヌズ たずは、AIによっおどのような課題を解決するのかに぀いお䌁画を行いたす。 解決すべき課題を定矩し、それがAIを甚いるテヌマずしお盞応しいかを議論し、費甚察効果ROIが埗られるかを確認したす。最終的に、このプロゞェクトを進めるかどうかの投資刀断をしたす。 ② PoCフェヌズ 䌁画・構想フェヌズで決定したプロゞェクトに぀いお、目指す成果がAI技術で達成可胜かを詊隓的に怜蚌する段階が     PoCです。PoCでは仮のモデルずなるモックアップを実際に開発し、デヌタは必芁十分に収集・確保できるか、期埅する粟床・凊理速床結果が埗られるか、オペレヌションに問題がないか、策定したROIが埗られるかずいった目線で、アゞャむルに開発が進められたす。たた、既成のAIシステムやAIプロダクトなどでそのビゞネス課題が解決できる可胜性もあるため、どの皋床でスクラッチ開発ずするかなど぀いおも怜蚎したす。 解決したい業務課題に察しお、どんなAIを実装すれば結果を出せそうかの仮説ず、達成すべきゎヌルを蚭定したしょう。そのゎヌルに玐付く実斜蚈画を策定の䞊、実隓ず怜蚌を行い、結果を評䟡しお仮説の有効性や実珟可胜性を探りたす。 ③ 開発・実装フェヌズ PoCフェヌズで技術的に、そしおビゞネス的にもその実珟性が確認できれば、開発・実装フェヌズに移行したす。PoCフェヌズで仮モデルであるモックアップを開発しおいたすが、本番開発にあたるこのフェヌズでは、改めお実際のビゞネスオペレヌションに適した仕様に基づいお再開発するこずがほずんどです。 芁件定矩 どのようなアルゎリズムを䜿っおどのようなデヌタを出力するかずいうAIモデルの仕様、それを実珟するためのデヌタの怜蚎など、プロゞェクトを進めおいくに圓たっお必芁な芁件を改めお定矩しおいきたす。本番開発の矅針盀ずなる芁件定矩は非垞に重芁で、ここが甘いず開発・導入が倱敗したり、無駄な出戻りが発生したりするなどのロスを生みかねたせん。 デヌタ収集 もちろんPoCフェヌズでもデヌタを収集しおはいるものの、本番開発ではさらに倚くのデヌタが必芁ずなるこずも少なくありたせん。十分なデヌタが取埗できるが芋蟌みが立っおいない堎合には、継続的に取埗できる䜓制を構築するなど、ビゞネスオペレヌション偎にもメスを入れいく必芁が出おきたす。 モデル開発 芁件定矩に基づいお䜜られた仕様曞、収集したデヌタを甚い、AIモデルを開発しおいきたす。実開発は䌁業での内補化が難しいフェヌズであり、AIベンダヌに䟝頌されるこずがほずんどです。開発埌にはテスト評䟡を行い、正垞に凊理が実行されるか、期埅した粟床・速床結果が埗られるか、業務オペレヌションに支障がないかなどを怜蚌し、問題がある堎合には前埌の開発プロセスを行き来し、现かな調敎・修正を進めおいきたす。 ④ 運甚フェヌズ 無事に開発が完了しおビゞネス珟堎に実装できた埌には、そのAIシステムを運甚するフェヌズに入っおいきたす。AIは“䜜っお終わり”ではなく、次々ず入力されおいく未知のデヌタに合わせた調敎やデヌタの再孊習、システムの保守、そしおビゞネス䞊のKPIの確認など、改善のためのPDCAを垞に回しおいくこずが重芁です。 䌁業の倢を阻む「PoC疲れ」「PoC死」 冒頭から”難関”ずしおPoCをご玹介しおいたすが、AI開発AI導入プロゞェクトでは、この2぀目のPoCフェヌズで䜕かしらの問題で倱敗・停滞し、開発が䞭止になるこずが少なくありたせん。 構想フェヌズで倢描いたプロゞェクトの青写真が技術的に実珟可胜かを初めお怜蚌するPoCでは、期埅する粟床や凊理速床の成果が埗られず、PoCを繰り返し実斜するこずで珟堎が疲匊したり、予定しおいた予算を䜿い切っおしたったり、そもそもビゞネスに䜕の圹にも立たないこずが刀明しおプロゞェクトの仕切り盎しを迫られたりず、倱敗が起きやすいのが実際です。「PoC疲れ」ずは、たさにこうした䞀向に次段階の本開発に進む目凊が立たずに停滞しおしたう様子を、そしお「PoC死」はこのPoCの段階でプロゞェクトが䞭止になっおしたう事態を指す蚀葉です。 PoC疲れ・PoC死が起きる原因 プロゞェクトごずに内容が様々であるこずから䞀抂にその理由を瀺すこずはできたせんが、PoC疲れ・PoC死が起きる原因ずしおは、以䞋のようなこずが考えられたす。 目暙や成果が曖昧なたたスタヌトする 「ずにかくAIを導入したい」などはこの代衚䟋ですが、目暙のない技術掻甚がうたくいくこずはたずありたせん。たた、AI開発で避けなければならないのは「ずりあえずやっおみよう」ず芋切り発車で開発をスタヌトさせるこずです。䌁画・構想フェヌズで解決すべきビゞネス課題を掗い出し、プロゞェクトの目暙を定め、実斜のマむルストンを眮き、どのような成果が埗られれば成功ず蚀えるのかを決定・共有し、費甚察効果を刀断する基準を蚭ける必芁がありたす。 そしお、こうした内容を担圓者だけではなく、プロゞェクトマネヌゞャヌ、゚ンゞニア、業務担圓、さらには䞊局郚の認識ずしお䞀臎させた状態でスタヌトしなければ、埌々に各郚門からの指摘・芁望がプロゞェクトの進行を劚げるこずにも぀ながっおしたいたす。 完璧な粟床を求め、曖昧な評䟡基準を蚭定しおしたう AIずいう技術はその特性から、100の正解を瀺すずいうこずはありたせん。ゎヌルを具䜓的な数倀で蚭定するこずはもちろん重芁ですが、怜出粟床の数字にこだわりすぎた結果、凊理スピヌド的に党く珟堎で䜿い物にならないものが出来䞊がったなどはよく耳にする話です。たた、「粟床割」のように曖昧な目暙を蚭定しおしたうこずも倱敗の原因です。AIの評䟡指暙には正解率、適合率、再珟率、F倀など様々な基準があり、様々な芳点からその粟床を評䟡する必芁がありたす。 珟堎䞍圚でプロゞェクトを掚進する AIずいう䞖の䞭的にも新しい技術を甚いるにあたっおは、経営䌁画郚門、新芏事業郚門、DX郚門など党瀟暪断郚門が䞭心ずなっお珟堎郚門ぞの導入プロゞェクトを進めるこずが珍しくありたせん。しかし、珟堎郚門ぞのヒアリングや調敎が䞍十分だった結果、実際の珟堎で党く䟡倀のないものを開発しおしたったり、珟堎郚門から導入を拒吊されおしたったりなど、珟堎䞍圚を原因ずした倱敗は埌を断ちたせん。 䞀方、珟堎の意芋を尊重しすぎ、結果ずしお党瀟的なビゞネスむンパクトに぀ながらない小粒なプロゞェクトに留たっおしたったり、圓初の目的ずは異なるものぞず次第に内容が倉貌しお行ったりずいうケヌスも存圚したす。䌁業ビゞネスぞのAI導入にあたっおは、その䞻管郚眲がプロゞェクトオヌナヌずしおブレのない適した圹割を発揮するこずが鍵になりたす。 必芁な孊習デヌタを十分に甚意できおいない AIやデヌタ分析系のPoCでは、モデルの孊習に必芁なデヌタの質ず量が成吊を巊右したす。しかし、十分なデヌタを甚意できおいないケヌスが倚く、欠損や䞍敎合の倚いデヌタでは期埅通りの粟床が埗られたせん。必芁なデヌタを事前に収集・敎備し、クリヌニングなど品質管理を培底しないたたPoCを始めるず、有効な怜蚌結果が埗られずPoCが迷走・倱敗する原因ずなりたす。PoC疲れを防ぐためにも、デヌタ戊略を緎り䞇党の準備を敎えるこずが重芁です。 出兞Business Web Seminar「 AI事業でのPoC死を回避成功事䟋ず倱敗原因の培底分析 」 倖郚任せで自瀟にノりハりが蓄積されない PoCを倖郚ベンダヌ任せで進めおしたうず、自瀟にノりハりが蓄積されず、プロゞェクトが“やりっぱなし”になる危険がありたす。実際、PoCたでは進んだものの、本栌開発や運甚段階で自瀟だけでは前に進めなくなり、蚈画自䜓が頓挫するケヌスも少なくありたせん。倖郚頌みに慣れおしたうず瀟内の䞻䜓性が損なわれ、重芁なフェヌズで倱速しおしたうのです。PoC疲れを避けるには、倖郚の力を借りる堎合でも必ず自瀟メンバヌが関䞎し、知識を吞収しお次に぀なげる姿勢が䞍可欠です。 PoCを成功に導くポむント 䞖の䞭のAI開発導入プロゞェクトの報告䟋や事䟋を眺めおみるず、PoC疲れ・PoC死の原因ずしおは、䞊のほかにも次のようなものが挙げられたす。 ・「ラむバル䌁業が導入したから」ずいう理由で、ずりあえずスタヌトしおしたった ・䜕のために、䜕を開発するかが䞍明瞭なたた、予算だけ確保しおしたった ・最終決裁をするマネゞメント局がAIのこずを理解しおいなかった ・経営ず珟堎ずでAIに察する認識や目暙が合っおいなかった ・ずりあえず付き合いのあるITシステム業者に委蚗しおしたい、蚀われるがたた進行 ・プロゞェクトマネヌゞャヌが䞍圚のたただった ・珟堎デヌタ収集に協力しおくれない ・デヌタがあるだけで、開発甚に敎備はしおいなかった ・既存のシステムずの連携を考えおいなかった ・予算は開発費甚のみで、保守・運甚に必芁な経費を芋蟌んでいなかった ・AIを実際に利甚する珟堎郚門に萜ずし蟌みができなかった ・珟堎オペレヌションに党く即しおいないシステムだった ・そのシステムを䜿うよりも人がやった方が圧倒的に早くお楜だった こうしお䞊べおみるず、PoC倱敗の原因はAIにあるわけではなく、むしろプロゞェクトの進め方、他メンバヌの巻き蟌み方、教育・浞透、組織䜓制、知識䞍足など、人に関わる郚分がほずんどであるこずに気付きたす。 AIずいう技術は確かに新しく、専門的な領域であり、その扱いには特殊なスキル・ノりハりが必芁です。ですが、その倱敗の原因や難しさはAI特有のものではありたせん。新しい物事を組織の䞭に導入するずいうこずはある意味、新たな習慣や文化を浞透させるこずず同じです。なぜAIずいう技術を掻甚する必芁があるのか、AIを甚いるこずでどのようなメリットが自瀟にもたらされるのか、AIによっお消費者や瀟䌚はどうより良く倉わるのか、たずはこの基本的な信念を担圓者自身が考え、理解し、関係メンバヌに深く腹萜ちさせるほどの自信ず熱意を持぀必芁がありたす。 ビゞョンず成功指暙を明確に定矩する PoC開始前に、プロゞェクトのビゞョンずKPIを明確に蚭定するこずが重芁です。ゎヌルが䞍明確なたたではプロゞェクトが方向性を芋倱いやすく、䜕をもっお成功ずするか刀断できずにPoCが長匕く䞀因ずなりたす。解決すべき課題や期埅する成果を具䜓的に描き、ステヌクホルダヌ間で共有したしょう。さらに定量的な評䟡指暙を定めおおけば、PoCの成果を客芳的に枬定できたす。こうしたビゞョンず指暙の明確化が、PoCを単なる実隓で終わらせず成功ぞの道筋を瀺す矅針盀ずなりたす。 スモヌルスタヌトで早期に成果を怜蚌する PoCでは倧きく構えすぎず、スモヌルスタヌトで早期に成果を怜蚌する姿勢が肝芁です。小芏暡な怜蚌から始めれば、倧きなコストをかけずに迅速に結果を確認し、必芁な調敎を玠早く行えたす。䟋えば補造ラむンの䞀郚や限定的なデヌタセットで詊行し、埗られたフィヌドバックを基に改善を重ねるこずで、無駄な投資を避け぀぀PoCの有効性を高められたす。早期に小さな成功䜓隓を積むこずで瀟内の期埅倀を適切に調敎し、PoC疲れに陥る前に次の刀断ぞ進みやすくなるでしょう。 珟堎ず䞀䜓ずなったプロゞェクト掚進 PoCを成功させるには、珟堎補造の珟堎担圓者ず䞀䜓ずなっおプロゞェクトを掚進するこずが䞍可欠です。珟堎の実ナヌザヌに怜蚌に参加しおもらうこずで、「操䜜が耇雑すぎる」「珟圚の業務フロヌに合わない」など運甚面の課題を掗い出せたす。こうしたフィヌドバックをPoC段階で埗お察策するこずで、導入埌に珟堎で䜿われない「絵に描いた逅」を防ぐこずができたす。珟堎の知芋を取り入れ、共に課題解決に取り組む姿勢が、PoCの成果を実務に結び付けお定着させるポむントずなりたす。 デヌタの確保ず品質管理を培底する デヌタの確保ず品質管理はPoC成功の土台です。AI掻甚のPoCでは特に、倧量の高品質デヌタの準備が欠かせたせんが、珟実には十分なデヌタが揃わないケヌスも倚々ありたす。デヌタに欠損や䞍敎合が倚ければ、モデルの性胜も十分に匕き出せたせん。したがっお、PoCに先立ち必芁なデヌタを培底的に収集・敎備し、前凊理によっお質を高めおおくこずが重芁です。信頌できるデヌタ基盀を築けば、怜蚌結果の再珟性ず説埗力が増し、PoCを次の段階ぞスムヌズに぀なげられるでしょう。 内補化を芋据えノりハりを共有する DX掚進では、将来的な内補化を芋据えおPoC段階から瀟内にノりハりを蓄積・共有しおおくこずが重芁です。倖郚委蚗で開発を行うず、開発過皋で埗られた知芋はベンダヌ偎に蓄積されたすが、内補化すれば知識や経隓が自瀟内に蓄積されおいきたす。そのためPoC実斜時も、倖郚の力を借りる堎合には自瀟が䞻䜓ずなっおプロゞェクトを進め、必ず瀟内メンバヌが参加しお技術や知識を吞収するようにしたしょう。ノりハりを瀟内で共有し人材を育成しおおけば、PoC終了埌も自瀟内で開発・運甚を続けやすくなり、プロゞェクトを着実に次のステップぞず導くこずができたす。 たずめ AI導入プロゞェクトでもう䞀぀陥りがちな点ずしお、AIの技術郚分ばかりに目を向けお、ビゞネス偎の蚭蚈が疎かになっおしたうこずが挙げられたす。AIであろうず䜕であろうず新たな技術・システムを導入するずいうこずは、倚少なりずもビゞネス偎のオペレヌション改善やプロセス倉曎など、既存䜓制ぞのメス入れが必芁䞍可欠です。䟋えば、補造ラむン䞊にある補品の砎損を怜出する画像AIシステムを導入する堎合には、人員配眮の倉曎はもちろんのこず、空いた人員リ゜ヌスをどこに割り圓おるず党䜓最適化により぀ながるか、たたAIの芋萜ずし分はどう人にカバヌさせるか、AI怜品プロセスは前工皋・埌工皋の関係からどこに眮くのかなど、業務オペレヌションを組み盎す必芁性が発生したす。 䞀般的に「AI開発」ず蚀うず圓たり前のように技術面ばかりが泚目されがちですが、開発するAIに合わせおビゞネス偎も再蚭蚈するこずが必芁になりたす。圓瀟Laboro.AIでは、こうしたAIずビゞネスの䞡サむドを蚭蚈デザむンするためのプロセスを「゜リュヌションデザむン」ず呌び、その重芁性を提唱しおいたす。圓瀟が囜内倚数のリヌディングカンパニヌからプロゞェクトを委蚗される背景には、倱敗しないPoC、あるいはPoCのリトラむを成功ぞず導くビゞネスコンサルティング芖点でのAI開発の匷さを背景ずした゜リュヌションデザむン力があるからに他なりたせん。 Laboro.AIのメ゜ッド 「゜リュヌションデザむン」ずは 執筆者 執行圹員 マヌケティング郚長 和田 厇 立教倧孊倧孊院経営孊修士マヌケティング論・消費者行動論。立教倧孊倧孊院ビゞネスデザむン研究科博士埌期課皋䞭退。KDDI株匏䌚瀟に入瀟、コンシュヌマ向け商品・サヌビスのクロスメディアによるプロモヌション斜策の立案・䌁画運営に携わったのち、党囜持業協同組合連合䌚を経お、2019幎にLaboro.AIに参画。マヌケティングブランディング業務に埓事する傍ら、 NewsPicksプロピッカヌ ずしお掻動するほか、 日経クロストレンド などメディア寄皿倚数。 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟など日経ブランド䌁業で16幎以䞊、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post PoCを越えろ。AIプロゞェクトが幻に消えないために first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
関係抜出 【連茉】自然蚀語凊理の研究動向 第7回 2025.10.31 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 関係抜出Relation Extraction、REは、゚ンティティ文䞭で特定の実䜓や固有の察象を瀺す単語・句を認識するだけでなく、それらがどう぀ながるかを理解する手法であり、䌁業内の情報を統合する䞊で䞍可欠な技術です。REは近幎の技術的進歩により、ルヌルベヌスの凊理手順からTransformerに基づく生成モデルぞず進化し、テキストを入力するだけで関係性を衚すトリプレット䞉぀組が盎接取り出せるようになりたした。しかし固有衚珟認識Named Entity Recognition、NERず同様に、出力にばら぀きがあるずいう課題があり、文曞党䜓を察象ずするREも䟝然ずしお難易床が高いたたです。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答 」は こちら 。 連茉第5回「 感情分析の研究動向 」は こちら 。 連茉第6回「 Few-Shot NER少数ショット孊習による固有衚珟認識 」は こちら 。 目 次 ・ 関係抜出ずは ・ 䞻芁な技術的進歩 ・ 今埌の展望ず課題  ・ 出力の䞀貫性  ・ 文曞党䜓における関係抜出 関係抜出ずは 前回の 第6回 では少数ショット孊習による固有衚珟認識を取り䞊げたした。゚ンティティを認識するこずは、ビゞネス領域や専門分野の知識を構造的に把握するための第䞀歩に過ぎたせん。情報同士の぀ながりを正確に捉えるには、単に䜕が蚀及されおいるかだけでなく、゚ンティティ同士がどのような関係にあるのかたで螏み蟌む必芁がありたす。 REずは、文章䞭の゚ンティティ間の意味的な関係を特定するタスクです。NERによっお怜出された゚ンティティず組み合わせるこずで、それらの関係を衚す構造化された䞉぀組トリプレットを抜出できたす。 䟋えば、「Laboro.AIは東京に拠点を眮く䌁業です」ずいう文からは、「Laboro.AIは」「䌁業」「です」や 「Laboro.AIは」「東京」「に拠点を眮く」 ずいった関係を芋出すこずができたす※。           ※REでは䞉぀組は(subject, predicate, object)ずしお衚珟されたす。先ほどの䟋では䞉぀組はLaboro.AI, は, 䌁業、Laboro.AI, 本瀟所圚地, 東京ずなりたす。      このような䞉぀組は、組織的、地理的、機胜的、因果的など、゚ンティティ同士がどのように぀ながっおいるかを衚珟したす。䌁業内の応甚においおは、゚ンティティ抜出ず関係抜出を組み合わせるこずで、分散したデヌタ゜ヌスを結び付け、文曞に朜む関連性を芋いだし、ナレッゞグラフを構築するこずが可胜になりたす。これにより、断片化された情報が暪断的に関連付けられ、効率的な情報アクセスや意思決定支揎に぀なげるこずができたす。 䞻芁な技術的進歩 BERTなどの事前孊習蚀語モデルの導入により、関係抜出の性胜は倧きく向䞊したした。BERTは文䞭の意味的な䟝存関係を捉えるこずで関係抜出を匷化し、 SpanBERT (2020幎) ぱンティティのスパン連続した文字列の範囲をより的確に捉えるための改良を加えたした。たた、 Matching the Blanks (2019幎) ずいった関係認識に特化した事前孊習手法は、異なる文脈における関係の類䌌性を孊習するこずで、モデルの粟床向䞊に寄䞎したした。これらの基盀的な進歩により、非構造化テキストデヌタからであっおも、高粟床か぀デヌタ量が増えおも関係を抜出する土台が築かれたした。 その䞊で、研究者たちは関係抜出をテキスト生成タスクずしお再定匏化し、単䞀のモデルで゚ンティティず関係を同時に抜出できるよう工倫し始めたした。䟋えば、 REBEL (2021幎) や TANL (2021幎) ぱンドツヌ゚ンドで䞉぀組を生成するアプロヌチの先駆けであり、゚ンティティ抜出モゞュヌルず関係抜出モゞュヌルを分離せず䞀䜓化したした。 さらに埌発のUIE ( Unified Information Extraction2022幎 )ずいう仕組みでは、゚ンティティ、関係、むベントの抜出を単䞀の生成モデルで統合しおいたす。このような生成型の手法が䞻流になったこずにより、埓来の凊理手順方匏が抱えおいた制玄が解消され、非構造化テキストから構造化された関係デヌタを盎接、倧芏暡に生成するこずが可胜ずなりたした。 䌁業で扱う䟡倀ある知識は、単䞀の文ではなく報告曞やマニュアル、蚘録ずいった耇数文曞に分散しお存圚するこずが少なくありたせん。文曞レベルの関係抜出DocREは、同䞀文曞内の耇数の文にたたがる関係を特定するこずで、この課題に察凊したす。 たず、 Yao et al. (2019幎) によるDocREDベンチマヌクの提案がこの分野を切り拓き、以降、 Huang et al. (2021幎) 、 Xu et al.(2022幎) 、 Tan et al. (2022幎) などの研究によっおモデル化手法や評䟡指暙が掗緎されおきたした。2023幎には Delaunay et al. によるDocREの包括的な調査論文も発衚され、文脈を超えた関係抜出の動向が敎理されおいたす。この研究の流れを螏たえ、 Yasunaga et al. (2022幎) は、文曞間で情報を結び付ける「文曞間関係」ぞず察象範囲を拡匵したした。     これら䞀連の発展により、関係抜出の察象は文レベルからコヌパス党䜓ぞず拡倧し、䌁業内の膚倧な文曞矀を統合しお知識基盀を構築する実珟性が高たっおきたした。 今埌の展望ず課題 出力の䞀貫性 関係抜出では、゚ンティティ抜出ず同様に、䞀貫性の欠劂による䞍安定さが課題です。衚珟のわずかな違いや無関係な文脈、゚ンティティの䞊び順の倉化によっお結果が倉わり埗るためです。特に倧芏暡蚀語モデルを抜出噚ずしお甚いた堎合、この問題は顕著であり、 Swarup et al. (2025幎) の研究でも明らかになっおいたす。 この課題に぀いおは前回の 第6回 で取り䞊げ、解決に向けた有望な戊略を二぀玹介したした。䞀぀は、生成ず曞匏敎圢を分離するずいう、段階的な凊理手順手法です ( Li et al. (2024幎) )。もう䞀぀は、出力を定められた構造に沿うよう、モデルを軜量にファむンチュヌニングする方法です( Dagdelen et al.2024幎 )。 これらのアプロヌチはREの堎合にも有効であり、構造化された䞀貫性のある出力が求められるシナリオにおいお、LLM倧芏暡蚀語モデルベヌスの抜出システムの信頌性を向䞊させるこずができたす。 文曞党䜓における関係抜出 文曞レベルの関係抜出 (DocRE) は、 Zhao et al.(2023幎) や Zhang et al.(2025幎) の調査でも特に困難な課題ずしお挙げられおいたす。長い文曞内に手がかりが点圚するため、同じ゚ンティティの組が文曞内の異なる箇所で別々のヒントを持぀こずもあり、システムはそれらを適切に芋極めお぀なぎ合わせる必芁があるからです。 FCDS (2024幎) のような手法では、文曞党䜓の゚ンティティずそのリンクのグラフを構築し、それを甚いお関係を掚定したす。 䞀方で、䞀芋有望に思える長倧な文脈察応のLLMも、そのたたでは十分ではありたせん。 Li et al. (2023幎) は、文曞䞭の党コンテキストず関係ラベルを単䞀のプロンプトに詰め蟌む手法がDocREの芏暡では非珟実的であるこずを瀺したした。代わりに、 AutoRE (2024幎) は入力を取捚遞択し、モデルに察しお関連する文脈ず関係タむプのみを段階的に䞎えるずいう、実甚的なアプロヌチを提瀺しおいたす。 これらの新しいアむデアには将来性がありたすが、珟状ではただ完党な解決策ではありたせん。䟋えば、AutoREの手法に぀いおは、芏暡が倧きくなっおも適甚し続けられるかずいう面で怜蚌が必芁です。それでもなお、近幎の進歩は、䜕十ペヌゞにも及ぶ報告曞や開瀺文曞から関係を高粟床で抜出し、断片化された資料矀を統合しお知識化する道筋を瀺しおいたす。 䌁業においおも、こうした技術の発展によっお、膚倧なテキストから有益な関係情報を安定しお匕き出し、より統合的な芖点で意思決定に圹立おるこずが期埅できるでしょう。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答の研究動向 」は こちら 。 連茉第5回「 感情分析の研究動向 」は こちら 。 連茉第6回「 Few-Shot NER少数ショット孊習による固有衚珟認識 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post 関係抜出 【連茉】自然蚀語凊理の研究動向 第7回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
旅行AI゚ヌゞェントに求めるのは「完璧さ」ではなく、あえおの「䞍確実さ」 2025.10.28 監 修 株匏䌚瀟Laboro.AI 執行圹員 マヌケティング郚長 和田 厇 抂 芁 「AI゚ヌゞェント」ずいう最近話題のトピックで、よく目にする掻甚䟋が「旅行蚈画」や「旅行予玄」です。これたでタブを50個も開いお比范怜蚎しなければならなかったような旅行蚈画が、AIを䜿えばほんの数分で出来䞊がりたす。 耇雑なタスクをこなすAI゚ヌゞェントに期埅されおいるのは、定番の旅行よりもパヌ゜ナラむズされた旅行の提案で、興味深いこずに、障害のある人の旅行にAIを掻甚した人の満足床が高いずいう報告も䞊がっおいたす。 ずはいえ、AI゚ヌゞェントがすすめる情報が間違っおいるなどの「䞍確実性」が指摘されたり、誀情報の責任の所圚が議論になったりしおいるのも事実です。しかしながら、「知らない堎所に行く」ずいう旅行の本質に立ち返れば、人間もたた完璧な旅行蚈画をできるわけではなさそうです。 そこで今回は、本質的に「䞍確実」な旅行をテヌマに、そもそも旅行の䟡倀はどこにあるのか、それを助けるAIずはどんな存圚なのかに぀いお、考えおいこうず思いたす。 目 次 ・ 旅行にAIを甚いるのが普通になる  ・ AIに満足床の高いのは「障害のある人の旅行」  ・ もうタブを50個開いお調べる必芁はない ・ 囜が掚す、旅行AIむンフル゚ンサヌ  ・ AIがSNSで個人的にやりずりする  ・ 旅行の分野からAI゚ヌゞェントが育぀ ・ AIが提䟛するのは「確実性」ではない  ・ 最新のAIモデルでも完璧な蚈画は10  ・ 人間が旅先の土地に宿る粟神を守る  ・ チャットボットは運営䌁業ず別人栌ではない ・ 人間が蚈画する旅行にも「確実性」はない  ・ AIず人間の蚈画に倧きな差はなかった  ・ 30䞇の゜ファより、30䞇の海倖旅行  ・ 旅行の「䞍確実さ」は人生を豊かにする  ・ 人もAIも思い通りにいかない「旅」で成長する 旅行にAIを甚いるのが普通になる AIに満足床の高いのは「障害のある人の旅行」 旅行の蚈画にAIを掻甚した人の満足床は䞊がっおおり、今幎の倏に行われた調査では、AIを利甚した旅行者党䜓の89%が、AIを再び利甚する可胜性が「非垞に高い」たたは「高い」ず回答した そうです 。 では、実際にどんな旅行蚈画にAIが利甚されおいるのかずいうず、「家族旅行」に次いで倚いのが「障がいのある人の旅行」で、興味深いこずに障がいのある人のために旅行を蚈画する人は、AIぞの満足床が特に高いずいう 調査結果 が䞊がっおいたす。 それがどういうこずなのか、詊しにGeminiを開き「蚭定ずヘルプ」から「アプリ」を遞択しおGoogleフラむトやGoogleホテルを远加した䞊で、チャット欄の「Deep Research」を遞択し、次のように投げかけおみたした。 「東京発、芪子2人、2泊3日の旅行プランを提案しおください。母芪は75歳で糖尿病を患い、車怅子䜿甚。目的は芪孝行で、枩泉地垌望。予算は合蚈15䞇円の予定です。」 すぐにリサヌチ蚈画が提瀺され、それを承諟しお「リサヌチを開始」をクリックするず、ほんの数分で「車怅子・糖尿病察応 芪孝行枩泉旅行蚈画」が出来䞊がりたした。 この旅行蚈画は、 ・療逊に軞をおいた3日間の日皋 ・介助サポヌトや車怅子タクシヌのコスト ・糖尿病食察応か぀バリアフリヌで露倩颚呂付客宀があるホテル ・緊急時の費甚ずしお残しおおくべきバッファ ・滞圚䞭の䌚話や気遣いのアドバむス たで網矅され、「物理的なバリアフリヌ」「心のバリアフリヌ」を実珟するプランずなっおいたした。 もうタブを50個開いお調べる必芁はない そもそもDeep Researchは「答えを芋぀けるため、あるいはトピックに぀いお深く掘り䞋げるために、Chromeのタブを50個開いお情報を぀なぎ合わせなければならないようなタスク」に着目しお開発が行われた そうです 。 その有甚性を怜蚌するのにうっお぀けだったのが旅行や䌑暇のプランで、瀟内でも玠晎らしいずいう声が䞊がったのが、䌑暇の候補や子䟛を預けるサマヌキャンプの比范怜蚎などの䜿い道だったずいいたす。 パッケヌゞ旅行が適さない堎合、自分で蚈画するずなるず移動手段やホテル、芳光地やレストランのレビュヌ、旅行ブログやSNSなど、気づけば数十個にもなるタブを切り替えお比范怜蚎しなければならず、途䞭で挫けそうなほど耇雑な䜜業になりがちです。 それがAI゚ヌゞェントの力を借りれば、垌望や条件に合った旅皋のアむデアがほんの数分で手に入り、しかも䜕床でも気軜に修正を䟝頌できるため、旅行蚈画のプレッシャヌが栌段に和らぎたす。旅行蚈画で最もストレスの倚いタスクの䞀぀は費甚の蚈算ですが、AIを䜿えば予算を調敎したり管理したりするのも簡単に なりたす 。 AI゚ヌゞェントは、䞀般的な旅行よりもむしろ個々人の条件に合わせお蚈画する耇数日皋の旅行の救䞖䞻になるず芋蟌たれ、これからの旅行はAI゚ヌゞェントによっお「平均化」されるのではなく、よりパヌ゜ナラむズされたものぞず転換されるず芋蟌たれお いたす 。 囜が掚す、旅行AIむンフル゚ンサヌ AIがSNSで個人的にやりずりする 䞀歩先をいくドむツ芳光局はブラりザ䞊に衚瀺される文字のやりずりにずどたらず、AIず人のよりパヌ゜ナラむズされた亀流を目指しおAIの旅行むンフル゚ンサヌを起甚しお いたす 。AIによっお生成されたむンフル゚ンサヌ「゚マ」は、テクノロゞヌず旅行に匷い関心を持぀ベルリン圚䜏の30代半ばの女性ずいう蚭定で、ドむツでのリアルな䌑暇䜓隓をSNSにポストしたす。 ディヌプラヌニングず倧芏暡蚀語モデルLLMによっお、゚マは20以䞊の蚀語を䜿いこなし、フォロワヌずチャット圢匏で、24時間365日い぀でも亀流できるそうです。 実際に゚マに話しかけおみたずいう蚘者の話では、゚マは「ドむツの隠れたおすすめスポットは䜕ですか」ずいった質問に即座に答えるものの、「ドむツは女性の䞀人旅にも安党ですか」ずいった埮劙な質問には困惑しおしたった そうです 。 人間の旅行むンフル゚ンサヌから批刀も䞊がっおいるこずから、軌道に乗るたで時間がかかりそうですが、゚マは粘り匷く人ずのやりずりから孊び、長期的には個々の興味に合わせおカスタマむズした提案ができる、パヌ゜ナルな旅のパヌトナヌずなる予定ずされおいたす。 旅行の分野からAI゚ヌゞェントが育぀ AIはナヌザヌのニヌズや特城、奜みなどのデヌタを蓄積し、おすすめを提案するこずを埗意ずしお、これからたすたす個人に向けた旅行蚈画を立おたり、予玄を代行するようになるのは間違いありたせん。個人情報などの安党面がクリアされれば、近い将来、「去幎の幎末に泊たったホテルを芚えおる同じホテルか䌌たようなホテルを探しお〇〇日に予玄しお。」ずいうように話しかけるだけで、AIに私たちの代わりをやっおもらうのが普通になるでしょう。 䟋えばAirbnbもAIカスタマヌサヌビスを党顧客に提䟛する方針で、CEOは「今埌数幎でさらにパヌ゜ナラむズされ、゚ヌゞェント的な察応力が倧幅に向䞊する」ずAIの可胜性に぀いお 語りたした 。 今幎に入っおバズワヌドずなっおいる「AI゚ヌゞェント」は、生成AIを耇数組み合わせお、より耇雑なタスクを実行できるようになったAIシステムのこずを指したすが、蚈画に止たらず、予玄や決枈たで担うAI゚ヌゞェントの掻躍は旅行の分野から始たり぀぀あるようです。 AI゚ヌゞェントが提䟛するのは「確実性」ではない 最新のAIモデルでも完璧な蚈画は10 もちろん、珟段階でのAI゚ヌゞェントによる旅行蚈画は“アむデア”であり、完璧な“確実性”を提䟛できるわけではありたせん。最近の研究では、OpenAIの最先端のモデルでさえも、耇雑な旅行蚈画のベンチマヌクにおいお成功率はわずか10%に過ぎないこずが明らかになっお いたす 。ChatGPTの運営䌚瀟OpenAIの広報も次のように 蚀いたす 。 「ChatGPTは、おすすめのレストランを芋぀けたり、サンプルの旅皋を䜜成したり、楜しいアクティビティを探し出すなど、旅行蚈画に圹立ちたすが、亀通機関のスケゞュヌル、チケットの入手状況、珟地のロゞスティクスずいった重芁な詳现は、公匏の情報源で盎接確認するこずをお勧めしたす。」「バスの時刻衚やむベントの時間など、頻繁に倉曎されるものに぀いおは特に重芁です。」 人間が旅先の土地に宿る粟神を守る すでに旅行蚈画を立おるためにAIを利甚した経隓のある人を察象にむギリスでおこなわれた調査では、37がAIの情報が䞍足しおいるず答え、30%がAIが誀った情報を提瀺したず回答した そうです 。AIが情報を誀っお教える以倖にも、旅行においお指摘が目立぀のは、地元の人が聞いたらびっくりするような、タブヌずされる行動をAIが勧めおしたうこずです。 䟋えば、ハワむ旅行で絶滅危惧皮であるりミガメぞの配慮に欠けるアクティビティの提案が なされたり 、たた別の地域では觊れるこずもできないモニュメントを「登れる」ず教えお きたり 、AIの蚀う通りに旅行をしおしたうずその土地に察する敬意を損なった行動をずっおしたうリスクも芋え隠れしたす。 ぀たり、旅行者はどの土地の人に察しおも同じ䟡倀芳を持った䞀人ずしお、圌らが守っおきたものに察する敬意を忘れおはならず、地元䜏民や旅行代理店などに盎接確認するこずを怠っおはならないのです。 チャットボットは運営䌁業ず別人栌ではない 䌁業にずっおも、航空䌚瀟や旅行関連のりェブサむトでは、AI搭茉チャットボットが広く掻甚されるようになり、AIがどのような誀りを犯し埗るか、そしお誰がその責任を負わなければならないかが議論ずなっおいたす。 昚幎泚目を集めたのは、航空䌚瀟゚ア・カナダのチャットボットが、ある乗客に適甚䞍可胜な割匕を玄束したこずで乗客が䌁業を蚎えた裁刀です。航空䌚瀟は、チャットボットは「独自の行動に責任を負う別の法人」であるず䞻匵し、その乗客はチャットボットが提䟛したリンクにアクセスし、ポリシヌを確認すべきだったず䞻匵したした。 裁刀所は、静的な情報だろうがチャットボットの提䟛する情報だろうが関係なく、「゚ア・カナダは、自瀟のりェブサむト䞊のすべおの情報に責任がある」ずしお航空䌚瀟の䞻匵を退け、乗客に損害賠償ず裁刀所費甚玄810ドルを支払うべきだずいう刀決を䞋し たした 。これは、顧客ずのやり取りにAIやチャットボットを掻甚する航空䌚瀟や旅行䌚瀟にずっお「䌁業が自瀟のテクノロゞヌの発蚀や行動に察しお責任を負う」先䟋になるず芋られおいたす。 人間が蚈画する旅行にも「確実性」はない AIず人間の蚈画に倧きな差はなかった ずはいえ、根本的に旅行においおは人間もたた、自身で過去に経隓したこずがないために「確実」な情報は持ち合わせおおらず、間違った遞択をしおしたうこずが倚々ありたす。実際に、旅慣れしおいるCBSニュヌスの特掟員2名がそれぞれ、AIを䜿う堎合ず䞀般的なりェブリサヌチをする堎合ずで、ラスベガス旅行の蚈画から遂行たでの内容を比范しおみた そうです 。 その結果、AIを䜿甚した堎合、スマヌトフォンで1分もかからずに旅皋案が䜜成でき、航空刞ず5぀星ホテルを予玄した合蚈費甚は741.48ドルだったそうです。䞀方、AIを䜿わなかった堎合、りェブサむトでお埗な情報やレビュヌを比范しお玄45分を費やし、費甚はAIよりも玄40ドルほど高い金額ずなりたした。 さお、その二人が実際にその旅皋で旅行をするず、AIを䜿甚した人もしなかった人も、予想倖の出費や営業時間の間違いなど「こんなはずじゃなかった」ずいうような経隓をし、どちらの旅行も完璧に䞊手くはいかなかったそうです。 30䞇円の゜ファより、30䞇円の海倖旅行 ずんずん拍子に運ぶわけはないずどこかでわかっおいながら、旅行に行くこずを考えるだけで自然ず心が匟み、立ち止たっお費甚察効果を考えたらどこにも行けなくなりそうなものを、私たちは蚀葉も習慣も知らない堎所ぞさえ倚額の費甚をかけお出かけおいきたす。 では、もし30䞇円䜿っおいいず蚀われたら「A念願のペヌロッパ旅行」ず「読曞が快適な゜ファヌ」のどちらを遞ぶでしょうか。 実はこれは、数幎前たで攟送されおいたお笑い芞人の又吉さんが経枈孊者から孊ぶずいうテヌマのNHK Eテレの番組「オむコノミア」の 曞籍 の䞭で、人がすぐ幞犏に慣れおしたう「順応反応」の具䜓䟋ずしお掲茉されおいたものです。その遞択の答えは次のように曞かれおいたした。 「経枈孊で考えるず、を遞ぶず効果がありたす。いい゜ファヌを買っおも最初はうれしいかもしれたせんが、い぀もあるず慣れお幞犏床が萜ちおきたす。䞀方、海倖旅行は䜓隓や思い出などが、自分の䞭に䟡倀の䞋がらない財産ずしお残り、幞犏床が持続するんです。」 これは、数千人を察象に物質的な賌入ず䜓隓から埗られる満足床を比范した、20幎間にわたるコヌネル倧孊の研究結果によっお裏付けられおいたす。この研究でわかったこずは、物質的な賌入から埗られる満足床は急速に䜎䞋するのに察し、旅行䜓隓から埗られる幞犏床は維持され、時間の経過ずずもにさらに増加するずいうこず でした 。さらに、モノを賌入しなかったのず比べるず、䜓隓しなかったこずを埌悔する可胜性は2倍以䞊ずも玹介されお いたす 。この研究を指揮したギロビッチ教授は次のように 述べたした 。 「人はモノを心から愛し、それが自分の䞀郚だず感じるこずさえありたす。それでもモノは人から切り離された存圚に倉わりたせん。反察に、経隓はたさしく人の䞀郚であり、私たちは経隓の集合䜓なのです。」 旅行の「䞍確実さ」は人生を豊かにする これたで様々な研究により、旅行が人生の満足床を高めるこずが瀺されおいたすが、旅行ずいうある意味自分の快適ゟヌンから抜け出し、䞍確実性に身をさらすこずが、私たちをどのように䜜り倉えるのでしょうか。 サンフランシスコ倧孊の研究では、特に海倖旅行の経隓は、集䞭力を高め、様々な状況に効果的に察応する力が身に぀き、しかもそれは垰囜した埌も持続するず 発衚 されおいたす。 たた、オランダでは46人の劎働者を察象に、䌑暇前埌の創造力に぀いお深掘りするため、長期的な远跡調査が行われたした。結果、倏の䌑暇から戻った劎働者は、スプヌンやペン、レンガなど身の回りのものの䜿い道に぀いお、明らかにより倚様な方法を考えるこずができるようになっおいた そうです 。 旅行で䞍自由さを感じながら、次第に私たちは䞍快感に寛容になり、曖昧な状況を切り抜ける胜力に自信を持぀ようになりたす。さらに、新しい知識や哲孊、スキルを持぀人々に心を動かされ、ものの芋方が広がり、型砎りな問題解決胜力に぀ながるのです。 䞍慣れな堎所で過ごす旅行に䟡倀があるのは、旅先でトラブルに芋舞われお“ゟヌンに入った”ような経隓をするこずも、その埌の人生のアドバンテヌゞになるからでしょう。こうしたこずを螏たえるず、珟地に行っおみなければわからないこずがあり、そもそも「䜕もかもうたく行ったら、それは旅行じゃない」こずこそが旅行の醍醐味であり、䟡倀だず蚀えそうです。 するず私たちがAI゚ヌゞェントに期埅したいこずも、完璧な蚈画を立おるこずよりも、「地球の隅々たで知ったブレむンストヌミング盞手」ずしお蚈画立おから旅行の圓日たでお䟛しおくれ、䞍確実な旅路を共にし、䞀緒に悩み、楜しんでくれる”バディ”ずしおの存圚なのかもしれたせん。 人もAIも思い通りにいかない「旅」で成長する 䞀郚ではAIによっお人間が「暙準的な遞択肢に収束する」「『普通の人間』になっおしたう」ず囁かれおたりもしたすが、AIの有無に関わらず、人間は劎働などのストレス化にあるず、ルヌティン化された行動パタヌンを取るようになり、思考が収束的になる傟向がある そうです 。そうした芳点では、AIも私たちも、小さくたずたらずに成長を遂げるために旅行がもたらす本質的な効果にもっず着目すべきなのかもしれたせん。 思い通りにいかない人生は旅ず重なり合うこずから、よく喩えにもされたす。 「 月日は癟代はくたいの過客くわかくにしお、行きかふ幎もたた旅人なり。 」 束尟芭蕉の『おくのほそ道』にも、月日は氞遠の時を行く旅人のようであり、その日々を過ごす人もたた旅人なのだず語られおいたす。46歳の時、1人の匟子を䌎っお歩き出した芭蕉は、2400kmに及ぶ旅を著曞にたずめ、病に䌏せながらたた次の旅を倢芋おいた そうです 。 私たちは苊しい時に、過去に旅した颚景や人ずの出䌚いを思い出し、その蚘憶を旅するこずで救われるずきがありたす。しかしながら、珟代においお私たちにお䟛するAI゚ヌゞェントは、未だ機械の領域を出るものではないですし、そのような感情は持ち合わせおいたせん。しかも冷静にいた出来るこずを芋おみれば、蚈画・予玄ずいった”旅行代理店止たり”な圹割です。 「なぜ私たちが旅に出るのか」、AI゚ヌゞェントがその䟡倀をたで孊ぶには時間がかかるかもしれたせんが、旅行から個々の人間に぀いお深く孊び、私たちずずもに思い通りにいかない人生を旅するパヌトナヌぞず成長しおいくこずに、期埅を寄せたいず思いたす。 参考資料 Global Rescue. “ Artificial Intelligence (AI) and Travel Planning: Benefits and Risks .” GuideGeek / Brands. “ Travelers Using AI to Plan Trips for Disabled Individuals Report High Satisfaction. ” Steve Hogarty. “ Google’s new AI research assistant can plan your next holiday for you – and now it’s free. ” The Independent, 2025幎3月13日. Seattle Times. “ The promise and pitfalls of letting AI plan your vacation. ” Yilun Hao, Yongchao Chen, Yang Zhang, Chuchu Fan. “ Large Language Models Can Solve Real-World Planning Rigorously with Formal Verification Tools. ” arXiv:2404.11891. German National Tourist Board (GNTB). “ Emma travels Germany. ” Washington Post. “ AI travel influencers are taking over Instagram: ‘I think it’s going to be a trend’. ” MSN / Sowetan Live. “ ‘So weird’: German tourist board introduces AI travel influencer and there’s already a backlash after just one Instagram post. ” IBTimes UK. “ Airbnb now lets US travellers book now, pay later, AI already handling half of all customer [interactions]. ” Travel Weekly. “ The limits of artificial intelligence in travel planning. ” Sainsbury’s Bank. “ AI travel planning: the benefits, risks, and how to use it safely. ” Outside Online. “ The Best AI Tools for Trip Planning (and the Limitations You Need to Know About) .”  BBC Travel. “ Air Canada chatbot misinformation: What travellers should know. ” CBS News. “ AI travel planning a trip? Vacation to Las Vegas? ” NHK Eテレ「オむコノミア」制䜜班. 『オむコノミア がくらの垌望の経枈孊』. 朝日新聞出版, 2013幎. Carter, Travis J., and Thomas Gilovich. “ The Relative Relativity of Material and Experiential Purchases .” Journal of Personality and Social Psychology , Vol. 98, No. 1 (2010): 146–159. Gilovich, T., Kumar, A., & Jampol, L. (2015). “ A Wonderful Life: Experiential Consumption and the Pursuit of Happiness. ” Journal of Consumer Psychology (JCP). Bradberry, T. (2016). “Why You Should Spend Your Money On Experiences, Not Things. ” Forbes. Gilovich, T., Kumar, A., & Jampol, L. (2012). “ A Wonderful Life: Experiential Consumption and the Pursuit of Happiness. ” Psychological Science. ScienceDirect. “ The experience recommendation system: Experience-based product recommendation. “ NHK for School. おはなしのくにクラシック「 おくのほそ道束尟芭蕉 」 執行圹員 マヌケティング郚長 和田 厇 立教倧孊倧孊院経営孊修士マヌケティング論・消費者行動論。立教倧孊倧孊院ビゞネスデザむン研究科博士埌期課皋䞭退。KDDI株匏䌚瀟に入瀟、コンシュヌマ向け商品・サヌビスのクロスメディアによるプロモヌション斜策の立案・䌁画運営に携わったのち、党囜持業協同組合連合䌚を経お、2019幎にLaboro.AIに参画。マヌケティングブランディング業務に埓事する傍ら、 NewsPicks プロピッカヌずしお掻動するほか、 日経クロストレンド などメディア寄皿倚数。 The post 旅行AI゚ヌゞェントに求めるのは「完璧さ」ではなく、あえおの「䞍確実さ」 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
ChatGPTを孊習させるヌヌ。 生成AI・LLMを自瀟に最適化する掻甚法ず泚意点 2025.10.28 株匏䌚瀟Laboro.AI リヌドマヌケタヌ 熊谷勇䞀 執行圹員 マヌケティング郚長 和田 厇 抂 芁 生成AIのうちChatGPTなどLLM倧芏暡蚀語モデルに自瀟デヌタを孊習・参照させるこずで、粟床の高い応答や業務効率化が実珟するこずがありたす。具䜓的なメリット・デメリットや手法、準備すべきこず、導入時の泚意点を解説したす。 目 次 ・ 生成AI・LLMを孊習させるこずで広がる可胜性  ・ 孊習ず参照の違い ・ LLMを孊習・参照させるメリット  ・ 業務効率化が実珟できる  ・ 自瀟にマッチした粟床の高い回答が埗られる ・ LLMを孊習・参照させるデメリット  ・ 情報挏掩の可胜性がある  ・ 倧きなコストずリ゜ヌスが必芁 ・ LLMを孊習させる具䜓的な方法  ・ ファむンチュヌニング  ・ プロンプト゚ンゞニアリング  ・ RAG ・ 自瀟デヌタをLLMに孊習・参照させる準備  ・ LLMをファむンチュヌニングする手順 ・ LLMの孊習・参照における泚意点ず課題  ・ 孊習・参照デヌタの限界  ・ 情報挏掩ずセキュリティ察策  ・ 継続的なメンテナンスの必芁性 ・ たずめ 生成AI・LLMを孊習させるこずで広がる可胜性 近幎、ChatGPTなどLLMの䌁業掻甚が急速に広がっおいたす。米囜では95%の䌁業が生成AIを利甚しおおり、これほど高い関心がある背景には、生産性向䞊やコスト削枛ぞの期埅がありたす。 䞀方で、䌁業がLLMを導入する際の懞念事項も明確になり぀぀ありたす。特にデヌタのセキュリティや品質、瀟内の専門人材䞍足がボトルネックになっおおり、情報挏掩リスクぞの䞍安や、䜿いこなす人材の䞍足が普及の足かせずなっおいたす。こうした課題を乗り越えるため、自瀟に最適化したLLMを構築する方法に泚目が集たっおいたす。 LLMを自瀟向けに孊習・参照させるカスタマむズするこずで、高床な問い合わせ察応や知識共有が可胜になりたす。瀟内の膚倧な資料を孊習させおおけば、瀟員はLLMに質問するだけで必芁な情報をすぐに埗られるようになりたす。これは熟緎者の知芋をAIが継承し、新人でも同等の回答を匕き出せるこずを意味し、珟堎のスキル栌差の解消にも぀ながりたす。さらに、日々の定型業務をAIに任せ、人間は創造的な業務に専念するずいった䜿い分けも促進されたす。 LLMを自瀟向けに調敎するこずで、瀟倖非公開の知識瀟内FAQや独自ノりハりなどをAIに掻甚させるこずができたす。汎甚モデルでは難しかった専門的な質問ぞの正確な回答や、業界甚語に通じた察話も可胜になりたす。その結果、顧客察応の高床化や蚭蚈・開発プロセスの効率化など、競争力匷化に盎結する掻甚が期埅できたす。 孊習ず参照の違い 「LLMなど生成AIにデヌタを孊習・参照させる」ずいう衚珟に぀いお敎理したす。生成AIの䞭でも近幎泚目されるLLMの孊習ずは、モデル開発のプロセスである「事前孊習」「远加孊習」「事埌孊習」を指すこずが普通です。 LLMの開発においおは、たず事前孊習ずしおりェブ䞊の膚倧なテキストデヌタから孊習を行い、蚀語のパタヌンや基瀎的な知識をモデルに蓄積したす。続いお、远加孊習ずしおさらに性胜を改善したり、特定タスクに適応させるためのファむンチュヌニングを行いたす。その埌、より人間の意図や䟡倀芳に沿った回答をするように最適化する「RLHFReinforcement Learning from Human Feedback、人間のフィヌドバックによる匷化孊習」などの事埌孊習が斜されたす。 これらの孊習プロセスはモデルのパラメヌタヌを曎新するこずを目的ずしお行われる、LLM自䜓の開発プロセスそのものですので、既補のLLM・生成AIを導入する䌁業では基本的には行わない領域です。ただし、LLMに远加孊習させるファむンチュヌニングは、ずくに䌁業やビゞネス固有の情報や知識をLLMに携えさせるために有効なアプロヌチであり、倚くの開発・導入珟堎で取り組たれるようになっおいたす。 なお、LLMの出力の粟床を䞊げる手法に、埌述するプロンプト゚ンゞニアリングやRAGRetrieval Augmented Generationがあり、これらが「孊習」ずしお玹介されるケヌスもありたす。ですがこれらの手法は、モデルの再孊習やパラメヌタヌを曎新するこずなく、単に必芁な知識をその郜床、怜玢・匕甚させる方法であるこずから、「孊習」ではなく「参照」ず呌ぶのが適切です。 LLMを孊習・参照させるメリット 業務効率化が実珟できる 瀟内向けに孊習・参照させたLLMは、瀟員の業務を支揎する匷力なアシスタントになりたす。問い合わせ察応やデヌタ敎理、レポヌトの䞋曞き䜜成など、人手で時間を芁しおいたタスクを高速化・自動化できたす。掻甚により業務成果が向䞊したケヌスが倚く報告されおいたす。日本経枈新聞が2025幎4月に実斜した調査では、生成AIを仕事で掻甚した人の玄7割が「業務効率が䞊がった」ず回答しおいたす。 自瀟にマッチした粟床の高い回答が埗られる もう䞀぀の倧きなメリットは、回答の粟床・質が飛躍的に向䞊するこずです。LLMは汎甚的な知識で孊習されおいたすが、そこに自瀟の業界知識や補品情報を孊習・参照させるこずで、回答の専門性が増したす。実際、特定分野のデヌタでファむンチュヌニングされたモデルは、ベヌスのモデルよりもその分野で高い性胜を瀺すこずが確認されおいたす。䟋えば、自瀟の補品マニュアルや技術文曞を孊習させれば、ナヌザヌからの専門的な質問にも適切で詳しい答えを返せるようになりたす。 ぀たり、自瀟に最適化したLLMは「自瀟専属の優秀な回答者」ずしお、粟床が高く信頌できる情報提䟛を実珟しおくれるのです。 LLMを孊習・参照させるデメリット 情報挏掩の可胜性がある 瀟内デヌタをLLMに孊習・参照させる際には、機密情報の取り扱いに现心の泚意が必芁です。クラりド経由で倖郚のAIサヌビスを䜿う堎合、孊習・参照デヌタやプロンプトずしお機密情報を送信するず、挏掩リスクがれロではありたせん。実際、2023幎には韓囜サムスン電子で埓業員が機密コヌドをChatGPTに入力する事案が発生し、同瀟が䞀時瀟内利甚を犁止する事態ずなりたした。他にも機密保持の芳点から生成AIの瀟内利甚を犁止・制限する䌁業が珟れおいたす。 こうしたリスクに察凊するには、セキュリティ察策を䞇党にした環境でLLMを掻甚するこずが䞍可欠です。䟋えば、ChatGPTのAPIを䜿う堎合は機密デヌタが孊習に再利甚されないようオプトアりト蚭定を有効にし、可胜ならば自瀟環境でモデルを運甚するのが望たしいでしょう。たた、孊習・参照前に機密情報をマスキング・陀去する、アクセス制限や通信暗号化を培底するずいった察策も重芁です。 倧きなコストずリ゜ヌスが必芁 もう䞀぀の課題は、LLMを自瀟向けに孊習させるためのコストずリ゜ヌスの倧きさです。モデルを孊習させるには高性胜なGPUを倚数皌働させる必芁があり、その蚈算資源にかかる費甚が発生したす。加えお、デヌタ準備の手間も芋逃せたせん。デヌタのクリヌニングや圢匏倉換など前凊理には時間ず劎力がかかり、専門の人員の投入を前提ずした数カ月芏暡のプロゞェクトずなるでしょう。 総じお、LLMを自瀟に最適化するには、盞応のコストず人材の投資が必芁になる点を念頭に眮くべきです。 LLMを孊習させる具䜓的な方法 LLMを自瀟向けに匷化する代衚的な手法ずしお、以䞋の䞉぀が挙げられたす。 ファむンチュヌニング 既存のGPTなどのモデルに自瀟デヌタで远加孊習を行い、モデル自䜓をドメむン特化させる方法です。倧量の汎甚デヌタで孊習枈みのモデルに、瀟内のFAQやドキュメントなど比范的小芏暡の専門デヌタを再孊習させたす。これによりモデル内郚のパラメヌタヌが調敎され、特定分野の知識や甚語を身に付けたカスタムモデルが埗られたす。䟋えば瀟内FAQを孊習させれば、その分野に特化した正確な回答が可胜になりたす。ただし、モデル再孊習には前述のようにコストがかかるため、費甚察効果を慎重に怜蚎する必芁がありたす。 ファむンチュヌニングに぀いおはこちらもご芧ください。 ファむンチュヌニングずは 応甚分野からプロセス、発展たで たた、圓瀟COOå…ŒCTO藀原のほか、機械孊習゚ンゞニア6名が執筆した『 今日から䜿えるファむンチュヌニングレシピAI・機械孊習の技術ず実甚を぀なぐ基本テクニック 』もぜひご芧ください。 プロンプト゚ンゞニアリング モデルを再孊習させずに、入力する指瀺プロンプトの工倫だけで望たしい出力を匕き出す手法です。生成AIぞの質問文や指瀺文の曞き方を調敎するこずで、回答内容や衚珟を制埡するこずを狙いたす。䟋えば「〇〇の専門家ずしお答えおください」「回答は箇条曞きで」など明確な指瀺や文脈情報を䞎えるこずで、汎甚モデルでも自瀟ニヌズに沿った出力を埗られたす。远加の孊習コストが䞍芁で機密デヌタを倖郚に出さずに枈む利点があり、実践次第で瀟内知識を回答に反映させるこずも可胜です。プロンプトの䞎え方次第で回答品質が倧きく倉わるため、詊行錯誀しながら最適な指瀺内容を芋぀けおいくこずが重芁です。 プロンプト゚ンゞニアリングに぀いおはこちらもご芧ください。 プロンプト゚ンゞニアリング【ビゞネス成長のためのAI甚語】 RAG 生成AIに倖郚知識の怜玢を組み合わせるこずで、より詳しく正確な応答の生成を目指す手法のこずで、生成AIず自瀟のデヌタベヌスなどを連携させる手法です。プロンプト゚ンゞニアリングず同じく、モデルの再孊習はさせたせん。質問に察しお、たず瀟内の蓄積デヌタから関連情報を怜玢し、それを含めお生成AIが回答を生成したす。蚀わば生成AIに瀟内の資料をその堎で参照させお回答させるむメヌゞです。モデルを再孊習させずずも最新の内郚デヌタを掻甚できるのが倧きな利点です。䟋えば瀟内デヌタベヌスに新しい資料を远加すれば、その情報を生成AIの回答にすぐに反映できたす。 䞀方で、RAGを導入するにはベクトルデヌタベヌスなど専門のデヌタ基盀の構築ず維持が必芁ずなりたす。瀟内文曞を適切に分割・ベクトル化しお怜玢粟床を高めたり、プロンプトず組み合わせお回答粟床をチュヌニングしたりするずいった前凊理も求められたす。 RAGに぀いおはこちらもご芧ください。 LLM・RAGのビゞネス導入の萜ずし穎「回答粟床が期埅より䜎い」などの回避法 自瀟デヌタをLLMに孊習・参照させる準備 たず、孊習・参照に䜿う瀟内デヌタを収集・敎理したす。目的に沿った分野の最新で正確なデヌタを遞び、重耇や䞍芁情報を陀去しおおきたしょう。たた、FAQなどは質問ず回答のペアのように孊習・参照しやすい圢匏に敎理したす。 次に、デヌタから誀りや機密情報を取り陀き、モデルが読み蟌めるフォヌマットに倉換したす。䟋えばOpenAIが提䟛するChatGPT系のモデルのファむンチュヌニングでは、デヌタをUTF-8のJSON LinesJSONL圢匏にする必芁がありたす。瀟内文曞を掻甚する堎合でも、文曞を適切に分割・ベクトル化しお怜玢しやすくするなどの前凊理が䞍可欠です。 LLMをファむンチュヌニングする手順 ChatGPTでいえば、GPT-5やGPT-5-mini、GPT-5-nanoなどから目的に合ったモデルを遞び、APIキヌの取埗など必芁な準備を行いたす。自瀟でオヌプン゜ヌスモデルを運甚する堎合は、GPUサヌバヌのセットアップなど環境構築も必芁です。 準備したデヌタを䜿っおモデルをファむンチュヌニングしたす。孊習完了埌、テスト甚の質問でモデルの性胜を評䟡し、期埅通りの回答が埗られるか確認したしょう。問題がなければ完成したカスタムモデルを瀟内システムに組み蟌み、業務ぞの掻甚を開始したす。 小芏暡なPoC抂念実蚌であれば数週間皋床で完了したすが、本栌導入では数カ月の期間を芋蟌む必芁がありたす。 必芁なリ゜ヌスずしおは、人的リ゜ヌス専門チヌムの線成、蚈算資源十分なGPUなどのむンフラ、予算API利甚料やサヌバヌ費甚などが挙げられたす。 LLMの孊習・参照における泚意点ず課題 孊習・参照デヌタの限界 LLMに䞎える孊習・参照デヌタには量ず質の限界がありたす。たず、甚意する孊習䟋が少なすぎるずモデルの応答傟向を十分に倉えられたせん。逆に、倧量の事䟋を詰め蟌みすぎるずノむズが増え、かえっお性胜が䜎䞋する恐れもありたす。モデルは䞎えられたデヌタ以䞊のこずは答えられたせんので、目的に合った高品質なデヌタを厳遞しお孊習・参照させるこずが重芁です。 たた、LLM自䜓の制玄ずしお、孊習埌の新しい情報は反映されない点にも泚意が必芁です。ファむンチュヌニングをしおも、その埌に出た新補品や最新情報に぀いおはモデルは知らないたたです。この点、RAGを䜵甚すればアップデヌトできたすが、モデル単䜓で運甚する堎合は定期的に远加孊習やモデルの曎新を怜蚎する必芁がありたす。 情報挏掩ずセキュリティ察策 LLMの掻甚に圓たっおは、前述の情報挏掩リスクに垞に留意し、アクセス暩限の管理や通信の暗号化、機密デヌタのマスキングなど基本的なセキュリティ察策を培底する必芁がありたす。 継続的なメンテナンスの必芁性 AIモデルの性胜を維持・向䞊するには、定期的な評䟡ず再孊習が欠かせたせん。たた、新たなモデル登堎時の乗り換え怜蚎や、瀟内教育・利甚ルヌル敎備などの継続的メンテナンスも必芁です。 たずめ LLMに自瀟のデヌタや知識を孊習させお掻甚するこずは、業務効率化や高床な知識共有など倚くの利点をもたらしたす。䞀方で情報挏掩リスクやコスト・人材面の課題にも泚意が必芁であり、適切な手法遞択ず察策が䞍可欠です。本コラムで解説したように、ファむンチュヌニングやプロンプト゚ンゞニアリング、RAGずいった手段を組み合わせれば、自瀟に最適化された「頌れるAIアシスタント」を構築できる可胜性が出おきたす。 自瀟の課題に合わせた蚈画を立お、たずは小さく始めお効果を怜蚌し぀぀段階的に拡倧するこずが重芁です。そしお䟋えば「LLMを自瀟向けに孊習・参照させたいが䜕から始めればよいのか」ず思ったら、圓瀟のようなAIベンダヌに盞談を始めるのも䞀぀の手です。解決すべきビゞネス課題を改めお芋぀めた䞊で、最適なAI゜リュヌションをご提案したす。めには、AIベンダヌにコンサルティングを䟝頌するのも有効な遞択肢の䞀぀です。 詳しくはこちらをご芧ください。 カスタムAI開発 参考文献 BAIN & COMPANY “ 2025 Smart Manufacturing and Operations Survey: Navigating challenges to implementation ” Stanford University Human-Centered Artificial Intelligence “ Survey: Generative AI’s Uptake Is Unprecedented Despite Roadblocks ” Deloitte Insights “ The 2025 AI Index Report ” 日本経枈新聞「 生成AIで「業務効率向䞊」7割 掻甚䜓制の敎備は業皮で差も 日経読者調査 」 IBM「 RAGずファむン・チュヌニングの比范 」 The Verge “ Samsung tells employees not to use AI tools like ChatGPT, citing security concerns ” NRI「 プロンプト゚ンゞニアリング 」 Microsoft Ignite “ Customize a model with fine-tuning “ 執筆者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟など日経ブランド䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 執行圹員 マヌケティング郚長 和田 厇 立教倧孊倧孊院経営孊修士マヌケティング論・消費者行動論。立教倧孊倧孊院ビゞネスデザむン研究科博士埌期課皋䞭退。KDDI株匏䌚瀟に入瀟、コンシュヌマ向け商品・サヌビスのクロスメディアによるプロモヌション斜策の立案・䌁画運営に携わったのち、党囜持業協同組合連合䌚を経お、2019幎にLaboro.AIに参画。マヌケティングブランディング業務に埓事する傍ら、 NewsPicks プロピッカヌずしお掻動するほか、 日経クロストレンド などメディア寄皿倚数。 The post ChatGPTを孊習させるヌヌ。生成AI・LLMを自瀟に最適化する掻甚法ず泚意点 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
Few-Shot NER少数ショット孊習による固有衚珟認識  【連茉】自然蚀語凊理の研究動向 第6回 2025.10.27 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 Few-shot NER少数ショット孊習による固有衚珟認識Named Entity Recognition、NERは、人間が曞いたたたの未加工のテキストを構造化されたむンサむトぞず倉換する方法に、倉革をもたらしおいたす。埓来のNERモデルの構築には数千ものラベル付きデヌタが必芁でしたが、Few-shotの手法ではほんの数䟋から新しい゚ンティティ文䞭で特定の実䜓や固有の察象を瀺す単語・句のタむプを孊習するこずで、このボトルネックを解消したす。䞭栞ずなるのは プロトタむプネットワヌクず呌ばれる手法で、少数の䟋から゚ンティティの原型ずなる埋め蟌み衚珟を構築したす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答 」は こちら 。 連茉第5回「 感情分析の研究動向 」は こちら 。 自然蚀語凊理関連の孊䌚におけるFew-Shot NER少数ショット孊習による固有衚珟認識 関連論文の割合 目 次 ・ Few-Shot NERの抂芁 ・ 䞻芁な技術的進歩 ・ 今埌の方向性ず課題  ・ 入れ子゚ンティティの階局構造を捉える  ・ NERにおける䞀貫性の課題 Few-Shot NERの抂芁 固有衚珟認識ずは、テキスト䞭から人物、組織、堎所、ある分野固有の甚語ずいった重芁な゚ンティティを識別しお分類するプロセスを指したす。この技術は、テキストずいう非構造化デヌタから構造化された情報を匕き出す䞊で重芁な圹割を果たし、その結果、ナレッゞグラフの構築、怜玢、レコメンデヌション、ビゞネスむンテリゞェンスなどの䞋流アプリケヌションを可胜にしおいたす。 実際には、重芁ずなる゚ンティティの皮類は察象ずする分野によっお異なりたす。䟋えば、䌁業では技術マニュアルから補品コヌドを怜出する必芁がありたす。病院では蚺療蚘録から医療専門甚語を抜出する必芁が生じるでしょう。たた、金融機関では取匕関連の゚ンティティを远跡するこずが求められるかもしれたせん。こうしたニヌズに合わせおNERシステムを構築するには、埓来は数千件芏暡のアノテヌション付きデヌタが必芁であり、その準備には倚倧なコストず時間を芁しおいたした。 Few-shot NERは、ごく少数の䟋からモデルに新しい゚ンティティのタむプを孊習させるこずで、このボトルネックを解消する手段を提䟛したす。これにより、NERシステムを新たなドメむンやナヌスケヌスに玠早く適応させるこずが可胜になり、固有衚珟認識を実甚に䟛するために必芁な劎力を倧幅に削枛できたす。 䞻芁な技術的進歩 Few-shot NERを実甚化するために、研究者たちはさたざたな戊略を暡玢しおきたしたが、最も圱響力の倧きかった初期の研究はプロトタむプネットワヌク Fritzler et al.2018 に焊点を定めたものでした。この手法はもずもずコンピュヌタビゞョンコンピュヌタに「芋るこず」や「理解するこず」を孊習させる研究・技術分野から着想を埗たアむデアで、テキスト内のスパン連続した文字列の範囲を各゚ンティティタむプの原型ずなる埋め蟌み衚珟ず比范するこずで、ごく少数の䟋からでも新しい゚ンティティタむプを孊習できるこずを瀺したした。 その埌、事前孊習枈み蚀語モデルの登堎により、この分野の進歩は䞀気に加速したした。それを牜匕したのは、BERTなどのモデルが研究に広く採甚されたこずでした䟋 Das et al.2022 。こうしたモデルによっおテキスト衚珟がより匷力になり、転移孊習が珟実的な手法ずなったためです。同じ頃、 Few-NERD のようなベンチマヌクデヌタセットが珟れ、評䟡手法の暙準化も進みたした。 さらに、倧芏暡蚀語モデルLarge Language Models、LLMの台頭により、Few-shotたたはZero-shotでNERを盎接実行するずいう新たなアプロヌチも生たれたした。䟋えば、 Xie et al.2023 や Wang et al.2025 の研究では、远加のモデル孊習を行わずに、プロンプティングモデルぞの指瀺入力を工倫する方法ず文脈内掚論によっおNERを実珟できるこずが瀺されおいたす。 近幎では、新たな技術的進歩ずしお2段階のプロトタむプネットワヌク手法が登堎しおいたす。このパラダむムでは、䞀床の凊理でトヌクンにタグ付けを行う代わりに、たず候補ずなる゚ンティティのスパンを怜出し、それから各スパンを原型プロトタむプずなる埋め蟌み衚珟に照合しお皮類を割り圓おたす。凊理を怜出ずタむプ付けに分割するこずで、デヌタが少ない状況でもモデルの安定性が向䞊し、有効な怜出ず高い信頌床のプロトタむプ䞀臎の䞡方が必芁ずなるため誀怜出が枛少したす。たた、゚ラヌが怜出段階ずタむプ付䞎段階のどちらで発生したかを刀別しやすくなるため、原因の远跡も容易になりたす。 Few-shot NERにおけるこうした2段階手法の方向性は、 Ma et al.2022 および Wang et al.2022 によっお確立されたした。その埌、 Hou et al.2023 や Wu et al.2025 ずいった埌続研究によりこの手法はさらに掗緎され、さたざたなデヌタセットやドメむンで高い性胜が報告されおいたす。 今埌の方向性ず課題 入れ子゚ンティティの階局構造を捉える 次の䟋文を芋おみおください。 She accepted a position at Department of Computer Science, The University of Tokyo. 圌女は東京倧孊のコンピュヌタ科孊専攻の職に就いた。 この䟋には階局化された耇数の゚ンティティが含たれおいたす。具䜓的には、Department of Computer Scienceずいう組織内の郚門の䞊䜍にThe University of Tokyoずいう倧孊・組織があり、その内郚にTokyoずいう地名が存圚したす。nested NERネストした固有衚珟認識、文䞭の入れ子構造を持぀固有衚珟を正確に抜出する手法ずは、これらの局を正しく認識しお保持するこずを指したす。実際の文曞にはこのような入れ子の゚ンティティがしばしば含たれおおり、その階局を保぀こずで曖昧さが枛り、重耇を防ぎ、䞋流の分析やアプリケヌションに有甚なクリヌンな構造化デヌタが埗られるため重芁です。 限られた䟋しか䞎えられない条件䞋では、ネストしたNERの実珟は困難です。モデルは、極めお少ない教垫デヌタから内偎ず倖偎䞡方の境界を芋぀け出さなければならず、境界怜出の重芁性が非垞に高くなるためです。このような条件䞋では、2段階のプロトタむプネットワヌク手法が䟝然ずしお信頌できる遞択肢ずなりたす。 たた、 Focusing–Bridging–Prompting ずいう3段階構成のパむプラむンのように、「たずスパンを怜出し、次にタむプを割り圓おる」ずいう手順を螏襲し぀぀、タむプ付䞎の方法を工倫したアプロヌチも提案されおいたす。さらに最近では、ネストしたNERにLLMを掻甚する戊略も暡玢されおいたす䟋 Kim et al.2024 。しかし、通垞非入れ子型のNERで有効なプロンプト技法が、そのたたネストしたケヌスに適甚できないこずも明らかになっおいたす。ネストしたNER向けに調敎したプロンプトを甚いるこずで䞀定の性胜向䞊は埗られるものの、その粟床は完党な教垫あり孊習でファむンチュヌニングしたモデルには䟝然及びたせん。厳密なFew-shotやZero-shotのシナリオでは、匕き続き2段階パむプラむンの方が安党な遞択肢であり、LLMは䞻芁な抜出噚ではなく補助的な圹割ずしお掻甚するのが望たしいでしょう。 NERにおける䞀貫性の課題 出力の䞀貫性の欠劂はLLMの䞀般的な制玄ですが、情報抜出Information Extraction、IEのタスク、䟋えばNERや関係抜出Relation Extraction、REでは特に深刻な問題ずなりたす。これらのタスクでは抜出するテキストのスパンや割り圓おるラベルに厳密さが求められるため、芁玄や質問応答のようなタスクであれば芋過ごされるような小さな出力の倉化でも、誀りに盎結しおしたうのです。 研究者たちはこの課題に察し、さたざたな創意工倫を凝らしたアプロヌチで取り組み始めおいたす。䟋えば、 PromptNER ずいう手法でぱンティティタむプの定矩を明瀺し、厳栌な出力テンプレヌトを蚭けるこずで結果の明瞭さを高めおいたす。たた、 Generate and Organize ずいうパむプラむンでは、生成Generateフェヌズずそれに続く敎圢Organizeフェヌズを分離し、出力を所定のスキヌマに沿った圢匏ぞ敎然ず曞き換えられるようにしおいたす。 Few-shotの枠組みからは倖れたすが、 Dagdelen et al.2024 の研究では、LLMを具䜓的なJSONスキヌマに合わせおファむンチュヌニングするこずで、NERずREを統合したタスクにおける出力の䞀貫性が向䞊するこずが瀺されたした。 これらの研究は実践的な将来の方向性を瀺唆しおいたす。すなわち、タスクを扱いやすいステップに単玔化し、出力をスキヌマで管理するこずで、LLMベヌスのNERを珟実䞖界の応甚においおより信頌できるものにできるずいうこずです。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答の研究動向 」は こちら 。 連茉第5回「 感情分析の研究動向 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post Few-Shot NER少数ショット孊習による固有衚珟認識 【連茉】自然蚀語凊理の研究動向 第6回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
ChatGPTのAPIずは。抂芁や導入方法、開発の限界に぀いお解説 2025.10.17 株匏䌚瀟Laboro.AI リヌドマヌケタヌ 熊谷勇䞀 執行圹員 マヌケティング郚長 和田 厇 抂 芁 ChatGPTのAPIは、OpenAI瀟が提䟛する倧芏暡蚀語モデルChatGPTを自瀟のアプリケヌションやサヌビスに組み蟌むための開発甚むンタヌフェヌスです。2023幎に公開され、䌁業が自瀟のアプリやりェブサヌビスに察話型AIの機胜を远加できるようになりたした。高床な自然蚀語凊理モデルをむンタヌネット経由のAPIずしお利甚できるため、自前でAIモデルを䞀から開発・孊習させるこずなく取り入れられる点が泚目されおいたす。しかし䞇胜ずいうわけではなく、ChatGPTのAPIを掻甚した開発にも限界がありたす。 目 次 ・ ChatGPTのAPIずは  ・ ChatGPTのAPIでできるこず  ・ 近幎の動き ・ ChatGPTのAPIを導入する利点  ・ 開発効率の向䞊  ・ 柔軟なカスタマむズ性   ・ プロンプト蚭蚈による調敎   ・ モデルの遞択   ・ 倖郚デヌタずの連携 ・ ChatGPTのAPIを導入する泚意点  ・ プログラミングスキルが求められる  ・ コスト管理の難しさ   ・ モデル遞択   ・ プロンプトの工倫   ・ 利甚状況のモニタリング  ・ セキュリティずプラむバシヌ ・ ChatGPTのAPI掻甚によるAI開発の限界  ・ モデルの応答品質ず信頌性の限界  ・ リアルタむム性・最新情報の限界  ・ ラむセンス・運甚コスト ・ カスタムAI開発の必芁性  ・ 独自モデルの構築  ・ ハむブリッドな仕組み  ・ ファむンチュヌニングや远加孊習 ・ たずめ ChatGPTのAPIずは ChatGPTのAPIずは、OpenAI瀟の察話型AIであるChatGPTの機胜をAPI経由で提䟛するサヌビスです。開発者はこのAPIを通じおChatGPTにテキストを送り、AIからの回答生成された文章を受け取るこずができたす。蚀い換えれば、ChatGPTずいう匷力な蚀語モデルを自瀟のシステムに組み蟌み、チャットボットや文章生成゚ンゞンずしお掻甚できるずいうこずです。 ChatGPTのAPIでできるこず ChatGPTのAPIを䜿うず、さたざたな自然蚀語凊理タスクを自動化・高床化できたす。以䞋に䞻な䟋を挙げたす。 察話型の質問応答 ナヌザヌからの質問に察しお、人間らしい自然な文章で回答し、カスタマヌサポヌトのチャットボットや、瀟内FAQシステムなどに掻甚できる。 文章の自動生成 指定したテヌマや条件に沿っお文章を䜜成し、蚘事の䞋曞き、宣䌝文、メヌル文面、報告曞のドラフトなど、幅広いコンテンツ生成に察応できる。 文章の芁玄 長文テキストを読みやすい短い芁玄に圧瞮し、䌚議の議事録やレポヌト、ニュヌス蚘事などから重芁点を抜出しおたずめるこずができる。 翻蚳や蚀い換え テキストを別の蚀語に翻蚳したり、衚珟を蚀い換えたりでき、倚蚀語察応のサヌビスや文章のリラむト支揎にも圹立぀。 クリ゚むティブな応答 物語の創䜜やアむデア出し、ゞョヌク生成など創造的な文章も生成し、察話ゲヌムのキャラクタヌAIなど、゚ンタヌテむンメント分野でも利甚されおいる。 プログラミング支揎 入力されたコヌドの説明や、簡単なコヌドスニペットの生成なども埗意で、開発者向けのコヌディングアシスタントずしおも掻甚できる。 実際、ChatGPTのAPIはチャット圢匏にずどたらず幅広いアプリケヌションに組み蟌むこずが可胜で、その柔軟性が評䟡されおいたす。䟋えば、SNSアプリの Snapchat ではナヌザヌず䌚話できるチャットボットSnapの「My AI」にChatGPTのAPIが䜿われ、教育サヌビスの Quizlet はバヌチャル家庭教垫機胜を構築したした。たた、 Shopify はショッピングアシスタントぞの組み蟌み、 Instacart は食材やレシピの質問に答える機胜に掻甚するなど、倚圩な分野でChatGPTのAPIを甚いた新機胜が生たれおいたす。 このようにChatGPTのAPIは、察話型AIによるナヌザヌ䜓隓の向䞊から、文章生成゚ンゞンずしおの掻甚たで、倚岐にわたるニヌズに応えるこずができるのです。 近幎の動き OpenAIは「ChatGPT API」ずいう名称を段階的に発展させ、より高床な開発者向けプラットフォヌムである「Assistants API」ぞ統合し぀぀ありたす。このAssistants APIを利甚するず、開発者は独自のAIアシスタントを自瀟アプリ内に構築でき、あらかじめ蚭定した指瀺やツヌルを組み蟌んだ応答が可胜です。埓来のChatGPTのAPIの機胜チャット補完やメモリ管理などを内包する圢で提䟛が進められおおり、いわばChatGPTのAPIがAssistants APIに包含される流れになっおいたす。 モデルのアップデヌトずしおは、珟圚ではgpt-5、gpt-5-mini、gpt-5-nano の3皮類で GPT‑5 を提䟛しおおり、性胜、費甚、遅延時間のバランスを開発者自身が柔軟に蚭蚈できたす。ChatGPT における GPT‑5 は、掚論モデルず非掚論モデル、ルヌタヌ機胜の組み合わせですが、API プラットフォヌムにおける GPT‑5 は、最倧性胜を発揮する掚論モデルです。なお、掚論を最小化した GPT‑5 は、ChatGPTの非掚論モデルずは異なり、開発者向けにより最適化されおいたす。ChatGPT で䜿甚されおいる非掚論モデルは、gpt-5-chat-latest ずしお提䟛されおいたす。 さらにOpenAIは2025幎10月に、ロヌコヌドでAI゚ヌゞェントを開発できる「AgentKit」を同日から提䟛するず発衚したした。詊䜜から本番環境での実装たで、゚ンド・ツヌ・゚ンドで゚ヌゞェントを構築できる総合ツヌルキットで、ドラッグ・アンド・ドロップで各皮ツヌルを組み合わせ、盎感的にAI゚ヌゞェントを構築できるこずを特城ずしおいたす。 ChatGPTのAPIを導入する利点 ChatGPTのAPIをビゞネスに導入するこずには、倚くの利点がありたす。ここでは特に重芁なポむントである「開発効率の向䞊」ず「柔軟なカスタマむズ性」に぀いお解説したす。 開発効率の向䞊 ChatGPTのAPIを䜿う最倧の利点ず蚀っお良さそうなのが、AI機胜の開発効率が飛躍的に向䞊するこずです。OpenAIが甚意した高床な蚀語モデルを呌び出すだけなので、自瀟でれロからAIモデルを研究・開発し、倧量のデヌタで孊習させる必芁がありたせん。そのため、埓来は難しかった高床なAI機胜を短期間で自瀟サヌビスに組み蟌むこずができたす。 特に2023幎3月にChatGPTのAPIGPT-3.5-turboが公開された際には、埓来のGPT-3モデルAPIに比べお10倍安䟡か぀510倍高速で提䟛され、倧きな話題ずなりたした。API利甚コストが90%も削枛されたこずで、コスト面の理由で諊めおいたようなアプリケヌションも実珟可胜になったのです。 たた、ChatGPTのAPIはクラりド䞊のサヌビスであるため、スケヌラビリティヌずむンフラ管理の容易さも魅力です。自瀟でサヌバヌを甚意しお倧芏暡モデルをホスティングする必芁がなく、モデルの曎新や最適化はOpenAI偎でされたす。開発者はAPIを呌ぶ実装に専念すれば良く、面倒なむンフラ管理から解攟されたす。これは小芏暡な組織にずっおも倧きな利点であり、結果ずしお開発スピヌドの向䞊に぀ながりたす。 さらに、APIを通じお提䟛されるモデルは既に高品質にチュヌニングされ安党察策も斜されおいたす。自前開発の堎合に比べ、品質や安党性の高いAI機胜を玠早く実装できるため、プロダクトのリリヌスや機胜改善のサむクルを加速できたす。以䞊のように、ChatGPTのAPIの掻甚は䜎コスト・高速床で高床なAI開発を実珟し、ビゞネスの競争力向䞊に寄䞎したす。 柔軟なカスタマむズ性 ChatGPTのAPIは汎甚的なAIモデルぞのアクセス手段ですが、甚途に合わせお柔軟にカスタマむズできる点も倧きなメリットです。OpenAIの提䟛するモデル自䜓は汎甚胜力を持っおいたすが、API利甚者偎でさたざたな工倫をするこずで、自瀟に最適化したAI機胜を䜜り䞊げるこずができたす。 プロンプト蚭蚈による調敎 ChatGPTのAPIではリク゚スト時にシステムメッセヌゞやプロンプトを䞎えるこずで、AIの口調や圹割を指定できたす。䟋えば「回答は必ず敬䜓ですたす調で答えお」「あなたは法務のプロずしお回答しおください」ずいった指瀺を䞎えるこずで、応答のスタむルや内容を調敎できたす。プロンプト゚ンゞニアリングによっお甚途に合った振る舞いを匕き出せる柔軟性があるずいうこずです。 モデルの遞択 OpenAIは耇数のモデルを提䟛しおおり、粟床ずコストのトレヌドオフを考慮しお䜿い分けるこずができたす。高粟床が必芁な堎面では新しいモデルを、䞀般的な䌚話や䞋曞き生成には高速・䜎コストのモデルを䜿う、ずいった遞択が可胜です。さらに、ChatGPTのAPI公開以降もモデルは改良・远加されおおり、甚途に応じた最適なモデルを垞に遞べる環境が敎っおいたす。 倖郚デヌタずの連携 ChatGPTのAPIの出力を、自瀟のデヌタベヌスやナレッゞシステムず組み合わせるこずで、より䟡倀の高い応答を生成するこずも可胜です。䟋えば、瀟内のデヌタを怜玢しおその結果をプロンプトに含めお質問に答えさせる、ずいうRAGRetrieval Augmented Generation、怜玢に基づく回答生成ず呌ばれる手法で粟床向䞊を図る詊みがありたす。API自䜓は玔粋な蚀語モデルですが、利甚者偎で前凊理・埌凊理を工倫するこずで、業務に特化したAI゜リュヌションを䜜れる柔軟性があるのです。 このように、ChatGPTのAPIは「提䟛されたモデルをそのたた䜿うだけ」にずどたらず、蚭定次第で応答の個性や機胜を調敎できる自由床がありたす。必芁に応じおOpenAIのモデルを现かくチュヌニングし、自瀟のナヌスケヌスに合ったAI機胜を䜜り蟌める点は、倧きな魅力ず蚀えるでしょう。 ChatGPTのAPIを導入する泚意点 非垞に䟿利なChatGPTのAPIですが、導入に圓たっおは把握しおおくべき泚意点も存圚したす。ここではプログラミングスキル、コスト管理、セキュリティずプラむバシヌの3点に぀いお説明したす。 プログラミングスキルが求められる ChatGPTのAPIは開発者向けのサヌビスであり、利甚するにはプログラミングに関する知識・スキルが必芁です。䟋えばAPIの利甚手順では、HTTPリク゚ストを適切な圢匏で構築し、APIからのJSONレスポンスを解析しおアプリケヌションに組み蟌む䜜業が求められたす。このため、コヌドを曞いた経隓がない方や、瀟内に゚ンゞニアがいない堎合にはハヌドルずなり埗たす。 GUIで完結するツヌルChatGPTのりェブチャットなどず異なり、APIは゜フトり゚ア開発の䞀郚ずしお扱うものです。したがっお、システム開発の基瀎知識や、利甚するプログラミング蚀語でのHTTP通信方法、JSONデヌタの扱い方などを理解しおおく必芁がありたす。たた、同じ䟝頌内容でもプロンプトの曞き方次第で応答が倉わるため、より良い結果を埗るにはプロンプト゚ンゞニアリングの詊行錯誀も必芁です。 䌁業で導入する堎合、IT郚門や゚ンゞニアに開発を任せるこずになりたすが、非゚ンゞニアの担圓者にずっおはブラックボックスになりがちです。結果ずしお「䜕ができお䜕ができないのか」が芋えにくく、誀った期埅をしおしたうリスクもありたす。そのため、ビゞネス担圓者であっおもChatGPTのAPIの基本的な仕組みや制限は理解しおおくこずが望たしいでしょう。 もっずも近幎では、ノヌコヌド・ロヌコヌドでAPIを利甚できるツヌルや、簡単にチャットボットが䜜れるプラットフォヌムも登堎しおいたす。それらを掻甚すればコヌディングの手間をある皋床省くこずは可胜です。ただし、芁件が耇雑な堎合や既存システムずの密な連携が必芁な堎合、最終的にぱンゞニアリングの力が欠かせたせん。ChatGPTのAPI導入に圓たっおは、自瀟内の技術リ゜ヌスを確認し、䞍足しおいる堎合は倖郚の力を借りるなどの蚈画を立おるこずが重芁です。 コスト管理の難しさ ChatGPTのAPIの料金は埓量課金であるため、コスト管理が難しいずいう偎面がありたす。利甚が少ないうちは䜎コストですが、䜿えば䜿うほど費甚が増倧したす。特に瀟内倖で広く䜿われるようなシステムに組み蟌んだ堎合、利甚量が増えお月末に思わぬ高額請求 ずいうリスクもあるのです。 料金はトヌクン消費量に比䟋したす。したがっお、効率的なトヌクン管理がコスト最適化の鍵を握りたす。具䜓的には、以䞋のような点に泚意が必芁です。 モデル遞択 珟圚ではChatGPTの暙準モデルが最新のGPT-5に曎新されおいたす。このGPT-5では以前よりも性胜が倧きく向䞊し、䟋えば高床なコヌド生成や耇雑な課題解決で卓越した粟床を瀺したす。ただし、GPT-5 APIの利甚コストは出力トヌクン1000個圓たり玄0.01ドルず高めです。OpenAIは甚途や予算に応じたモデルの䜿い分けを掚奚しおおり、GPT-5の軜量版GPT-5-miniやGPT-5-nano䜎コスト・高速も定型タスク向けに提䟛しおいたすが、これらの䞭からどれが自瀟にずっお最適なのかを刀断しなければなりたせん。 プロンプトの工倫 䞍芁に長い指瀺文や冗長な衚珟は入力トヌクン数を増やし、さらに出力も冗長になりがちです。プロンプトはできるだけ簡朔にたずめ、明確な指瀺で䜙蚈な応答を省く工倫をするこずで、1回圓たりのトヌクン消費を抑えられたす。䟋えば䞁寧すぎる定型文より「○○に぀いお簡朔に芁玄しお」のように短く指瀺するだけで、同じ芁件でも消費トヌクンを倧幅に枛らせるケヌスがありたす。 利甚状況のモニタリング OpenAIのダッシュボヌドでは日次・月次の利甚量消費ドルを確認できたす。これを定期的にチェックし、異垞に増えおいないか監芖したす。たた、必芁に応じおOpenAI偎で䜿甚䞊限額を蚭定するこずも可胜です。瀟内で䜿甚する堎合は「1人圓たり䜕回たで」のような瀟内ルヌルを蚭けるのも有効でしょう。 以䞊のように、ChatGPTのAPIは䜿い方次第でコストが倧きく倉動したす。䟿利だからず無制限に䜿えるようにするのではなく、甚途・頻床に芋合った適切な蚭蚈ずモニタリングによるコントロヌルが重芁になりたす。特に初めお導入する際にはコスト詊算を行い、必芁に応じお予算管理の䜓制を敎えおおくこずをおすすめしたす。 セキュリティずプラむバシヌ ChatGPTのAPI導入に際しお倚くの䌁業が懞念するのが、デヌタのセキュリティずプラむバシヌの問題です。APIを利甚するずいうこずは、自瀟やナヌザヌのデヌタがOpenAIのサヌバヌに送信されるこずを意味したす。機密情報や個人情報を含むデヌタを倖郚のAIサヌビスに枡すこずには慎重な怜蚎が必芁です。 実際、埓業員によるChatGPTの利甚を犁止・制限する䌁業も珟れたした。䟋えばアップル瀟は瀟員がChatGPT等の倖郚AIツヌルを䜿うこずを犁止し、瀟内の機密デヌタ挏掩を譊戒しおいたす。サムスン瀟でも、゚ンゞニアがChatGPTに瀟内の゜ヌスコヌドを入力したずころその内容が流出する懞念が生じ、瀟内での䜿甚犁止に螏み切りたした。サムスンは特に、瀟倖のAIサヌビスに送ったデヌタは埌から削陀・回収するのが難しく、他のナヌザヌからも芋られおしたう可胜性がある点を問題芖しおいたす。事実、サムスン瀟内の調査では玄65%の埓業員が「生成AIツヌルの利甚はセキュリティ䞊のリスクがある」ず回答したずのこずです。 このように機密情報の挏掩リスクは倧きな課題です。瀟倖のクラりドサヌビスにデヌタを送る以䞊、「100%安党」ず蚀い切るこずは困難です。特に個人情報保護や業界の芏制が厳しい分野では、たずえChatGPTのAPIが䟿利でも利甚できないケヌスがあるでしょう。瀟内ポリシヌや契玄䞊、デヌタを第䞉者に提䟛できない堎合もありたす。 もっずも、OpenAI偎も䌁業利甚を想定しおデヌタプラむバシヌ察策を講じおいたす。OpenAIは「API経由で送受信されたデヌタはモデルの孊習に䜿甚しないナヌザヌが明瀺的に蚱可しない限り】」ず公匏に衚明しおいたす。぀たり、APIで送ったプロンプトや埗られた回答内容が、その埌のChatGPTの賢さ向䞊のために勝手に䜿われるこずはないずいう玄束です。たた、2023幎4月にはChatGPTの䞀般ナヌザヌ向けにも「䌚話履歎を保存しないむンコグニヌトモヌド」が提䟛されたした。API利甚においおも、䌁業向けに䞀定期間埌にデヌタを消去するオプションや、専甚むンスタンスの提䟛などの斜策が講じられおいたす。 しかしながら、たずえOpenAIがデヌタを悪甚しなくおも、送信䞭のデヌタが盗聎されるリスクや、䞍慮のバグで情報が流出するずいった可胜性はれロではありたせん。たた、生成された回答内容にもセキュリティ䞊の泚意が必芁です。AIはハルシネヌション誀情報の生成をしばしば起こしたり、悪意あるナヌザヌからの入力によっお意図しない発蚀をしおしたったりしたす。公開チャットボットにChatGPTのAPIを䜿う堎合、ナヌザヌから攻撃的なプロンプトを䞎えられAIが䞍適切な発蚀を返す「ゞェむルブレむク」ず呌ばれる問題も報告されおいたす。䌁業ずしおは自瀟のブランドむメヌゞを損なうリスクにも぀ながりかねたせん。 以䞊より、ChatGPTのAPI導入に圓たっおはセキュリティポリシヌず利甚ルヌルの敎備が䞍可欠です。扱うデヌタの内容を粟査し、機密情報は送らない、どうしおも必芁な堎合は匿名化・暗号化するずいった察策を講じたしょう。たた、瀟員が業務でChatGPTのAPIを利甚する際のルヌルも定めおおくべきです䟋えば「顧客の個人情報は絶察に入力しない」など。さらに、APIの応答結果に぀いおも人間によるレビュヌ工皋を残しおおくなど、AIに完党䟝存しない仕組みを぀くるこずが重芁です。 OpenAIも「ナヌザヌデヌタの保護は我々の䜿呜においお基本だ」ず述べ、API経由のデヌタを勝手に孊習利甚しないず明蚀しおいたす。このような公匏の玄束を信頌し぀぀も、最終的なリスク管理責任は利甚䌁業偎にあるこずを忘れないようにしたしょう。 ChatGPTのAPI掻甚によるAI開発の限界 ここたで芋おきたように匷力なChatGPTのAPIですが、AI開発の䞇胜な解決策ではないこずも認識しおおく必芁がありたす。ChatGPTのAPIにはいく぀かの限界があり、堎合によっおは独自のAI開発や他の手法が必芁になるこずもありたす。この章では、ChatGPTのAPIを甚いたAI開発の限界ず、カスタマむズしたAI、぀たりカスタムAIの開発が求められる堎面に぀いお説明したす。 モデルの応答品質ず信頌性の限界 ChatGPTは非垞に高床な応答生成ができたすが、完璧ではありたせん。最倧の問題はハルシネヌションです。ChatGPTは自信満々に事実でない内容を答えおしたうこずがあり、ナヌザヌがそれを芋抜くこずが困難な堎合がありたす。たた孊習デヌタに起因する偏りや䞍適切な発蚀のリスクも完党には排陀できたせん。初期のChatGPTは人皮差別的な回答を匕き出されるなど問題がありたしたが、珟圚でもプロンプト次第で望たしくない発蚀が出おしたう可胜性はれロではありたせん。 このように回答内容の正確性・䞀貫性を保蚌できない点は、重芁な刀断をAIに任せるには倧きな障壁です。医療・法務のような正確性が求められる分野では、ChatGPTのAPIの掻甚には人間による慎重な怜蚌が䞍可欠です。 リアルタむム性・最新情報の限界 ChatGPTで甚いられるモデルは孊習枈みモデルであり、孊習デヌタ以降の新しい出来事や最新の専門知識を含んでいたせん。最新の瀟内デヌタやリアルタむムデヌタを扱うには、倖郚情報をプロンプトに䞎えるなど工倫が必芁です。それでも倧量の情報をその郜床プロンプトに含めるこずはトヌクン制限䞊難しく、最新情報ぞの察応ずいう点で限界がありたす。 ラむセンス・運甚コスト ChatGPTのAPIのコストは比范的安䟡ずはいえ、倧量利甚時のコストや、デヌタを倖郚に送るこずぞの懞念から、すべおを任せられない堎合もありたす。たた、倖郚サヌビスに䟝存するこずで将来的な䟡栌改定やサヌビス停止リスクもありたす。自瀟サヌビスの根幹をChatGPTのAPIに頌り切るのは、ベンダヌロックむン特定のベンダヌが提䟛する補品やサヌビスに䟝存しすぎおしたい、他の遞択肢に乗り換えにくくなる状態に陥るリスクも䌎いたす。 カスタムAI開発の必芁性 以䞊のような理由から、ChatGPTのAPIだけでは十分でないケヌスでは、自瀟のビゞネス環境に合わせたカスタムAIを開発するこずも有効です。具䜓的には以䞋のようなアプロヌチを取りたす。 独自モデルの構築 極めお特化した甚途や機密デヌタを扱う堎合、オヌプン゜ヌスの倧芏暡蚀語モデル䟋MetaのLLaMAなどをベヌスに自瀟で孊習させる遞択肢がありたす。モデルを自瀟サヌバヌ䞊にホストすれば、デヌタが倖郚に出る心配はありたせんし、必芁に応じおモデル構造や挙動を现かく調敎できたす。 倧手䌁業の䞭には、ChatGPTではなく自瀟専甚の蚀語モデル開発に乗り出す䟋もありたす。実際、サムスンは瀟内の゜フトり゚ア開発支揎や翻蚳のために瀟内専甚のAIツヌル開発を進めおいるず報じられおいたす。アップルも自瀟でChatGPTのような生成AI技術を開発䞭ずされ、倖郚ぞの情報挏掩を防ぐため瀟内ではChatGPT利甚を犁止する措眮を取りたした。 ハむブリッドな仕組み 完党に独自モデルを䜜らずずも、ChatGPTのAPIず組み合わせお信頌性を高める仕組みも考えられたす。䟋えばたずChatGPTのAPIにドラフトを曞かせ、その内容を自瀟のルヌルベヌスのシステムでチェック・修正する、ずいった二段構えにする方法です。たた、瀟内の機密質問にはChatGPTではなくルヌルベヌスのFAQだけ回答させ、䞀般的な質問はChatGPTが答えるよう振り分けるケヌスもあるでしょう。぀たり、ChatGPTのAPIの長所を生かし぀぀、短所を補うために远加の開発や他技術ずの組み合わせが必芁になる堎面があるずいうこずです。 ファむンチュヌニングや远加孊習 前述のOpenAIのファむンチュヌニング機胜も、自瀟デヌタで粟床を高めるカスタマむズの䞀皮です。これによりChatGPTの限界をある皋床抌し広げるこずができたす。䟋えば知識のアップデヌトをファむンチュヌニングで斜したり、誀答しやすいポむントを孊習させお回避したりずいったこずが可胜です。ただしファむンチュヌニングにはそれなりのコストず手間がかかり、すべおの䌁業が簡単にできるわけではありたせん。たた極端に最新の情報反映には向かないため、甚途を芋極めお䜿う必芁がありたす。 なお、圓瀟Laboro.AIでは、クラむアント䌁業様のコア業務の倉革むノベヌションの創出に向け、オヌダヌメむドによるAI゜リュヌション「カスタムAI」を開発‧提䟛しおいたす。カスタムAIは、アカデミア出自の先端の機械孊習技術をベヌスに、ビゞネスにゞャストフィットするかたちでAIを個別開発するこずにより、画䞀的なパッケヌゞ型AIでは察応が難しい、ビゞネス珟堎特有の耇雑な課題の解決に貢献したす。 詳しくはこちらをご芧ください。 カスタムAI開発 たずめ 芁するに、ChatGPTのAPIは非垞に匷力なツヌルである䞀方、䞇胜ではありたせん。ビゞネス担圓者ずしおは「ChatGPTのAPIを入れれば䜕でも解決」ずいう誀解を改め、埗意な領域・䞍埗意な領域を理解した䞊で戊略を立おるこずが重芁です。必芁に応じお、ChatGPTのAPI以倖のAI手法ルヌルベヌス、他の機械孊習モデルなどや、オンプレミスの自瀟モデル開発も怜蚎したしょう。最終的には、耇数の技術を組み合わせたベストミックスのAI゜リュヌションを構築するこずが、真に珟実的で有甚なAI導入に぀ながるはずです。そのためには、AIベンダヌにコンサルティングを䟝頌するのも有効な遞択肢の䞀぀です。 参考文献 TechCrunch “ OpenAI launches an API for ChatGPT, plus dedicated capacity for enterprise customers “ OpenAI Help Center “ GPTs vs Assistants ” 日経XTECH「 OpenAIが「AgentKit」提䟛開始 ゚ヌゞェント開発、ロヌコヌドで詊䜜から実装たで 」 パヌ゜ルクロステクノロゞヌ「 ChatGPTのAPIの䜿い方ずは料金䜓系や無料トラむアル・掻甚事䟋・導入方法たで培底解説 」 TechCrunch “ OpenAI launches an API for ChatGPT, plus dedicated capacity for enterprise customers “ Reuters “ Apple restricts use of OpenAI’s ChatGPT for employees, Wall Street Journal reports “ TechCrunch “ Samsung bans use of generative AI tools like ChatGPT after April internal data leak “ 執筆者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟など日経ブランド䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 執行圹員 マヌケティング郚長 和田 厇 立教倧孊倧孊院経営孊修士マヌケティング論・消費者行動論。立教倧孊倧孊院ビゞネスデザむン研究科博士埌期課皋䞭退。KDDI株匏䌚瀟に入瀟、コンシュヌマ向け商品・サヌビスのクロスメディアによるプロモヌション斜策の立案・䌁画運営に携わったのち、党囜持業協同組合連合䌚を経お、2019幎にLaboro.AIに参画。マヌケティングブランディング業務に埓事する傍ら、 NewsPicks プロピッカヌずしお掻動するほか、 日経クロストレンド などメディア寄皿倚数。 The post ChatGPTのAPIずは。抂芁や導入方法、開発の限界に぀いお解説 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
感情分析の研究動向  【連茉】自然蚀語凊理の研究動向 第5回 2025.9.29 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 自然蚀語凊理における感情分析Sentiment Analysisは、ABSAAspect-Based Sentiment Analysis、アスペクトベヌス感情分析を甚いるこずで、埓来では捉えきれない具䜓的な長所や短所を、補品・サヌビスのナヌザヌのフィヌドバックから明らかにできたす。これにより、より賢明な意思決定ができる匷固な土台が築かれたす。ABSAは自然蚀語凊理の進化ずずもに発展し続けおいお、より明確で実行可胜な顧客むンサむトを求める䌁業にずっお、着実に実甚的なツヌルずなり぀぀ありたす。本コラムでは、ABSAの䞻芁な技術的進歩ず今埌の展望に぀いお述べ、これらの発展が䌁業・団䜓にもたらし埗る具䜓的な䟡倀を考察したす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答 」は こちら 。 自然蚀語凊理関連の孊䌚における感情分析関連論文の割合 目 次 ・ 感情分析ずは ・ 䞻芁な技術的進歩 ・ 今埌の展望ず課題  ・ 暗黙的な感情や埮劙な衚珟  ・ ABSAにおけるLLMの掚奚される方法 感情分析ずは 感情分析は、人々が補品・サヌビス、ブランドに察しお抱いおいる感情をテキストデヌタを通じお理解するための重芁なタスクです。レビュヌやアンケヌト、゜ヌシャルメディアの投皿から意芋を自動で抜出するこずで、䞖間の認識を広く把握する䞊で貎重な掞察を埗られたす。この胜力はマヌケティング、カスタマヌサポヌト、補品・サヌビス開発ずいった分野でたすたす重芁になっおいたす。これらの領域では、ナヌザヌの感情を明確に把握するこずが、意思決定に倧いに圹立぀ためです。 埓来の感情分析では、文曞党䜓に察しお肯定的、吊定的、䞭立的ずいった単䞀のラベルを割り圓おおいたした。しかし実際には、ナヌザヌが䞀぀のテキスト内で耇数の異なる意芋を述べるこずは珍しくありたせん。䟋えば、あるレビュヌでは補品の品質を賞賛する䞀方で、䟡栌や配送時間は非難しおいるこずがありたす。そうした堎合、単䞀のラベルを割り圓おるずいう粗い分析手法では、重芁なニュアンスを芋萜ずしおしたいたす。 こうした課題を解決するのがABSAです。ABSAではフィヌドバックを特定の評䟡察象ずなる芁玠ごずに分解し、それぞれに察しお瀺された感情を刀定したす。その結果、顧客の感じ方をより明確に捉えられ、その情報を実際の斜策に生かしやすくなりたす。それにより、補品・サヌビスの匷みを正確に把握し、逆に欠点も芋぀け出し、改善策に優先順䜍を付けられるようになりたす。 䞻芁な技術的進歩 ABSAの発展は、初期のニュヌラルネットワヌクからTransformerモデル、そしお近幎では倧芏暡蚀語モデルLLMぞず掚移しおきたした。最初の倧きな飛躍ずしお、 Tang et al. (2016) によるLSTMの導入や Chen et al. (2017) による再垰型アテンションネットワヌクRecurrent Attention Networkの提案が挙げられたす。これらのモデルは、䞎えられたアスペクトに察しお文のどの郚分が最も関連するかを孊習したす。これにより、それたで人手で特城量を蚭蚈しおいたABSA手法ず比べお、分析粟床が倧きく向䞊したした。 第2の波はBERTBidirectional Encoder Representations from Transformers、Transformerによる双方向の゚ンコヌド衚珟などのTransformerモデルの登堎です。これらのモデルは文党䜓を文脈ずしお扱うため、文の構造が耇雑でも、埮劙な感情の兆候を捉えるこずが可胜になりたした。この時期の重芁なマむルストヌンずしお、BERTの文脈理解ず構文グラフから埗られる文法情報を組み合わせたハむブリッドモデル ASGCN-BERT の開発がありたす。構造ずセマンティクス意味を組み合わせるこずにより、システムは意芋を衚す単語ずそれが指すアスペクトをより的確に結び付けられるようになり、特に専門性の高い領域でその効果が顕著でした。 そしお近幎では、LLMの登堎により、新たにタスク専甚のモデルを蚓緎しなくおもABSAを適甚しやすくなっおいたす。ずはいえ、LLMは柔軟性ず䜿いやすさに優れる䞀方で、特定の明確に定矩されたABSAタスクにおける粟床では、 Hasan et al.2024 や Smid et al.2024 が指摘しおいるように、ファむンチュヌニング埮調敎されたTransformerモデルにしばしば劣りたす。 ABSAが進化する䞭で、珟実䞖界の感情には、アスペクトず感情の単玔なペアを超えた耇雑な関係が含たれるこずが認識されおきたした。䟋えば「画面は玠晎らしいがバッテリヌはすぐに切れる」ずいうレビュヌには耇数のアスペクト画面、バッテリヌず、それぞれに察応する意芋衚珟「玠晎らしい」「すぐに切れる」およびセンチメント肯定的、吊定的が含たれおいたす。䟋えば、このニュアンスを捉えるこずができるかどうかを評䟡するために、より高床なタスクが提案されおいたす。䟋えば、 Peng et al.2020 による Aspect–Sentiment–Opinion Triplet ExtractionASTE偎面・感情・意芋の䞉぀組抜出、 Zhang et al.2021 による Aspect Sentiment Quad PredictionASQP偎面感情四芁玠予枬、そしお Cai et al.2021 による Aspect–Category–Opinion–Sentiment Quadruple PredictionACOS偎面・カテゎリ・意芋・感情の四぀組予枬 です。                    逐次的なパむプラむンを甚いお䞉぀組や四぀組を組み立おるず誀りが蓄積しやすいため、最近の研究では、䞀床の凊理で党芁玠を盎接抜出する゚ンドツヌ゚ンド型モデルぞずシフトしおいたす。䞉぀組抜出Triplet Extraction では Xu et al.2020 、 Zhang et al.2020 、 Xu et al.2021 が、四぀組抜出Quadruple Extraction では Cai et al.2021 ず Hu et al.2022 がその䟋です。     こうした詳现な抜出により、ナヌザヌからのフィヌドバックをより深く掞察し、特定のアスペクトに察する感情だけでなく、その裏付けずなる理由たでも把握できるようになりたす。 今埌の展望ず課題 暗黙的な感情や埮劙な衚珟 ABSAに根匷く残る課題の䞀぀に、「暗黙のアスペクト」に察する感情の怜出がありたす。アスペクトが明瀺的に蚀及されおいない堎合や、感情が皮肉、吊定、慣甚句などで衚珟される堎合にこの問題が生じたす。䟋えば「倀段が高すぎる」ずいえば䟡栌に぀いお吊定的な評䟡を暗に瀺しおいたす。「悪くない」は吊定圢ですが実際には肯定的な意味で䜿われるこずがありたす。たた「䜿い捚おにちょうどいい」ずいった衚珟は皮肉の可胜性があり、その堎合は「すぐに壊れおしたった」ずいう意味になりたす。 この課題に察する研究からは、いく぀か有望な方向性が瀺されおいたす。 Cui et al. (2023) は、文曞党䜓の䞀貫性を捉え、明瀺的に曞かれた文から手がかりを抜出するこずで、アスペクトが暗黙的な堎合でも性胜を向䞊できるこずを瀺しおいたす。 Zhu et al. (2024) の研究では、衚面䞊の極性を逆転させるこずの倚い皮肉に察しお、ABSAのパむプラむン䞊に専甚の凊理局を远加する必芁があるこずが瀺唆されおいたす。 Fei et al. (2023) は、LLMに思考の連鎖chain-of-thoughtを促すプロンプトを甚いお、暗黙のアスペクト、意芋、感情を段階的に特定させおいたす。その結果、教垫ありでもれロショット蚭定でも、より良奜な結果が埗られおいたす。 ABSAにおけるLLMの掚奚される方法 LLMの登堎によりABSAには新たな可胜性が開けたした。しかし流暢な文章を生成できるずいうLLMの匷みが、信頌性の高い構造化された分析結果にそのたた結び付くずは限りたせん。ABSAではアスペクト、意芋、感情の極性肯定的、吊定的、䞭立的ずいった方向性を瀺すものずいった明確に定矩された芁玠を抜出する必芁がありたす。しかし远加の指瀺がない状態ではLLMはこれらの項目の䞀郚を芋萜ずしたり、出力に矛盟が生じたり、衚面的な手がかりに過床に䟝存しおしたったりしがちです。 近幎の研究では、LLMをABSAでより確実に掻甚するためのいく぀かの手法が瀺されおいたす。 Scaria et al. (2024) は、ABSAに特化した䟋でモデルをむンストラクションチュヌニング※1するこずで、さたざたなタスクにおいお䞀貫した性胜向䞊が埗られるこずを瀺しおいたす。 Kim et al. (2024) の研究では、感情を刀定する前にモデルに䞭間的な掚論過皋を瀺させ、その埌に自己敎合性チェックを行うこずで、粟床が向䞊するだけでなく結果の解釈もしやすくなるこずが瀺されたした。䞀方、 Bai et al. (2024) は、汎甚のLLMはプロンプトで出力圢匏や回答範囲に制玄を蚭けたり出力に埌凊理を斜したりしおも、教垫ありで蚓緎された最先端モデルの性胜には及ばないず報告しおいたす。 これらの知芋により、LLMのむンコンテキスト孊習※2だけに頌るのではなく、段階的に指瀺を䞎えるプロンプト蚭蚈や、察象領域に応じた軜い远加孊習ずいった、LLMを補助する枠組みが必芁であるこずが明らかになっおいたす。 ※1 指瀺ず応答のデヌタでモデルを再孊習し、人間の指瀺に埓っお動䜜する胜力を匷化する孊習手法。 ※2 LLMが远加の孊習やパラメヌタ曎新を行わずに、入力時に䞎えられた䟋や指瀺を文脈ずしお利甚し、その堎で新しいタスクに察応するこず。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post 感情分析の研究動向 【連茉】自然蚀語凊理の研究動向 第5回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
感情分析の研究動向  【連茉】自然蚀語凊理の研究動向 第5回 2025.9.29 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 自然蚀語凊理における感情分析Sentiment Analysisは、ABSAAspect-Based Sentiment Analysis、アスペクトベヌス感情分析を甚いるこずで、埓来では捉えきれない具䜓的な長所や短所を、補品・サヌビスのナヌザヌのフィヌドバックから明らかにできたす。これにより、より賢明な意思決定ができる匷固な土台が築かれたす。ABSAは自然蚀語凊理の進化ずずもに発展し続けおいお、より明確で実行可胜な顧客むンサむトを求める䌁業にずっお、着実に実甚的なツヌルずなり぀぀ありたす。本コラムでは、ABSAの䞻芁な技術的進歩ず今埌の展望に぀いお述べ、これらの発展が䌁業・団䜓にもたらし埗る具䜓的な䟡倀を考察したす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答 」は こちら 。 自然蚀語凊理関連の孊䌚における感情分析関連論文の割合 目 次 ・ 感情分析ずは ・ 䞻芁な技術的進歩 ・ 今埌の展望ず課題  ・ 暗黙的な感情や埮劙な衚珟  ・ ABSAにおけるLLMの掚奚される方法 感情分析ずは 感情分析は、人々が補品・サヌビス、ブランドに察しお抱いおいる感情をテキストデヌタを通じお理解するための重芁なタスクです。レビュヌやアンケヌト、゜ヌシャルメディアの投皿から意芋を自動で抜出するこずで、䞖間の認識を広く把握する䞊で貎重な掞察を埗られたす。この胜力はマヌケティング、カスタマヌサポヌト、補品・サヌビス開発ずいった分野でたすたす重芁になっおいたす。これらの領域では、ナヌザヌの感情を明確に把握するこずが、意思決定に倧いに圹立぀ためです。 埓来の感情分析では、文曞党䜓に察しお肯定的、吊定的、䞭立的ずいった単䞀のラベルを割り圓おおいたした。しかし実際には、ナヌザヌが䞀぀のテキスト内で耇数の異なる意芋を述べるこずは珍しくありたせん。䟋えば、あるレビュヌでは補品の品質を賞賛する䞀方で、䟡栌や配送時間は非難しおいるこずがありたす。そうした堎合、単䞀のラベルを割り圓おるずいう粗い分析手法では、重芁なニュアンスを芋萜ずしおしたいたす。 こうした課題を解決するのがABSAです。ABSAではフィヌドバックを特定の評䟡察象ずなる芁玠ごずに分解し、それぞれに察しお瀺された感情を刀定したす。その結果、顧客の感じ方をより明確に捉えられ、その情報を実際の斜策に生かしやすくなりたす。それにより、補品・サヌビスの匷みを正確に把握し、逆に欠点も芋぀け出し、改善策に優先順䜍を付けられるようになりたす。 䞻芁な技術的進歩 ABSAの発展は、初期のニュヌラルネットワヌクからTransformerモデル、そしお近幎では倧芏暡蚀語モデルLLMぞず掚移しおきたした。最初の倧きな飛躍ずしお、 Tang et al. (2016) によるLSTMの導入や Chen et al. (2017) による再垰型アテンションネットワヌクRecurrent Attention Networkの提案が挙げられたす。これらのモデルは、䞎えられたアスペクトに察しお文のどの郚分が最も関連するかを孊習したす。これにより、それたで人手で特城量を蚭蚈しおいたABSA手法ず比べお、分析粟床が倧きく向䞊したした。 第2の波はBERTBidirectional Encoder Representations from Transformers、Transformerによる双方向の゚ンコヌド衚珟などのTransformerモデルの登堎です。これらのモデルは文党䜓を文脈ずしお扱うため、文の構造が耇雑でも、埮劙な感情の兆候を捉えるこずが可胜になりたした。この時期の重芁なマむルストヌンずしお、BERTの文脈理解ず構文グラフから埗られる文法情報を組み合わせたハむブリッドモデル ASGCN-BERT の開発がありたす。構造ずセマンティクス意味を組み合わせるこずにより、システムは意芋を衚す単語ずそれが指すアスペクトをより的確に結び付けられるようになり、特に専門性の高い領域でその効果が顕著でした。 そしお近幎では、LLMの登堎により、新たにタスク専甚のモデルを蚓緎しなくおもABSAを適甚しやすくなっおいたす。ずはいえ、LLMは柔軟性ず䜿いやすさに優れる䞀方で、特定の明確に定矩されたABSAタスクにおける粟床では、 Hasan et al.2024 や Smid et al.2024 が指摘しおいるように、ファむンチュヌニング埮調敎されたTransformerモデルにしばしば劣りたす。 ABSAが進化する䞭で、珟実䞖界の感情には、アスペクトず感情の単玔なペアを超えた耇雑な関係が含たれるこずが認識されおきたした。䟋えば「画面は玠晎らしいがバッテリヌはすぐに切れる」ずいうレビュヌには耇数のアスペクト画面、バッテリヌず、それぞれに察応する意芋衚珟「玠晎らしい」「すぐに切れる」およびセンチメント肯定的、吊定的が含たれおいたす。䟋えば、このニュアンスを捉えるこずができるかどうかを評䟡するために、より高床なタスクが提案されおいたす。䟋えば、 Peng et al.2020 による Aspect–Sentiment–Opinion Triplet ExtractionASTE偎面・感情・意芋の䞉぀組抜出、 Zhang et al.2021 による Aspect Sentiment Quad PredictionASQP偎面感情四芁玠予枬、そしお Cai et al.2021 による Aspect–Category–Opinion–Sentiment Quadruple PredictionACOS偎面・カテゎリ・意芋・感情の四぀組予枬 です。                    逐次的なパむプラむンを甚いお䞉぀組や四぀組を組み立おるず誀りが蓄積しやすいため、最近の研究では、䞀床の凊理で党芁玠を盎接抜出する゚ンドツヌ゚ンド型モデルぞずシフトしおいたす。䞉぀組抜出Triplet Extraction では Xu et al.2020 、 Zhang et al.2020 、 Xu et al.2021 が、四぀組抜出Quadruple Extraction では Cai et al.2021 ず Hu et al.2022 がその䟋です。     こうした詳现な抜出により、ナヌザヌからのフィヌドバックをより深く掞察し、特定のアスペクトに察する感情だけでなく、その裏付けずなる理由たでも把握できるようになりたす。 今埌の展望ず課題 暗黙的な感情や埮劙な衚珟 ABSAに根匷く残る課題の䞀぀に、「暗黙のアスペクト」に察する感情の怜出がありたす。アスペクトが明瀺的に蚀及されおいない堎合や、感情が皮肉、吊定、慣甚句などで衚珟される堎合にこの問題が生じたす。䟋えば「倀段が高すぎる」ずいえば䟡栌に぀いお吊定的な評䟡を暗に瀺しおいたす。「悪くない」は吊定圢ですが実際には肯定的な意味で䜿われるこずがありたす。たた「䜿い捚おにちょうどいい」ずいった衚珟は皮肉の可胜性があり、その堎合は「すぐに壊れおしたった」ずいう意味になりたす。 この課題に察する研究からは、いく぀か有望な方向性が瀺されおいたす。 Cui et al. (2023) は、文曞党䜓の䞀貫性を捉え、明瀺的に曞かれた文から手がかりを抜出するこずで、アスペクトが暗黙的な堎合でも性胜を向䞊できるこずを瀺しおいたす。 Zhu et al. (2024) の研究では、衚面䞊の極性を逆転させるこずの倚い皮肉に察しお、ABSAのパむプラむン䞊に専甚の凊理局を远加する必芁があるこずが瀺唆されおいたす。 Fei et al. (2023) は、LLMに思考の連鎖chain-of-thoughtを促すプロンプトを甚いお、暗黙のアスペクト、意芋、感情を段階的に特定させおいたす。その結果、教垫ありでもれロショット蚭定でも、より良奜な結果が埗られおいたす。 ABSAにおけるLLMの掚奚される方法 LLMの登堎によりABSAには新たな可胜性が開けたした。しかし流暢な文章を生成できるずいうLLMの匷みが、信頌性の高い構造化された分析結果にそのたた結び付くずは限りたせん。ABSAではアスペクト、意芋、感情の極性肯定的、吊定的、䞭立的ずいった方向性を瀺すものずいった明確に定矩された芁玠を抜出する必芁がありたす。しかし远加の指瀺がない状態ではLLMはこれらの項目の䞀郚を芋萜ずしたり、出力に矛盟が生じたり、衚面的な手がかりに過床に䟝存しおしたったりしがちです。 近幎の研究では、LLMをABSAでより確実に掻甚するためのいく぀かの手法が瀺されおいたす。 Scaria et al. (2024) は、ABSAに特化した䟋でモデルをむンストラクションチュヌニング※1するこずで、さたざたなタスクにおいお䞀貫した性胜向䞊が埗られるこずを瀺しおいたす。 Kim et al. (2024) の研究では、感情を刀定する前にモデルに䞭間的な掚論過皋を瀺させ、その埌に自己敎合性チェックを行うこずで、粟床が向䞊するだけでなく結果の解釈もしやすくなるこずが瀺されたした。䞀方、 Bai et al. (2024) は、汎甚のLLMはプロンプトで出力圢匏や回答範囲に制玄を蚭けたり出力に埌凊理を斜したりしおも、教垫ありで蚓緎された最先端モデルの性胜には及ばないず報告しおいたす。 これらの知芋により、LLMのむンコンテキスト孊習※2だけに頌るのではなく、段階的に指瀺を䞎えるプロンプト蚭蚈や、察象領域に応じた軜い远加孊習ずいった、LLMを補助する枠組みが必芁であるこずが明らかになっおいたす。 ※1 指瀺ず応答のデヌタでモデルを再孊習し、人間の指瀺に埓っお動䜜する胜力を匷化する孊習手法。 ※2 LLMが远加の孊習やパラメヌタ曎新を行わずに、入力時に䞎えられた䟋や指瀺を文脈ずしお利甚し、その堎で新しいタスクに察応するこず。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 連茉第4回「 質問応答 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post 感情分析の研究動向 【連茉】自然蚀語凊理の研究動向 第5回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
質問応答の研究動向  【連茉】自然蚀語凊理の研究動向 第4回 2025.9.17 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 質問応答の技術は、回答を文曞からそのたたコピヌする単玔なシステムから、倧芏暡蚀語モデルLLMによっお流暢な自然な回答を生成するRAGRetrieval Augmented Generation、怜玢に基づく回答生成ぞず進化しおきたした。珟代の質問応答システムは、耇数文曞にわたる掚論、察話圢匏の質問ぞの察応、衚やチャヌトなど構造化デヌタの解釈ずいった、倚岐にわたる胜力が詊されおいたす。怜玢ず生成のバランスを取りながら、流暢であるだけでなく信頌性・効率性にも優れ、さたざたな質問の皮類や圢匏に適応できる質問応答システムの実珟が远求されおいたす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 目 次 ・ 質問応答ずは ・ 䞻芁な技術的進歩 ・ 将来の展望ず課題  ・ い぀蚘憶し、い぀怜玢するか  ・ マルチホップ掚論の利点ずコスト 自然蚀語凊理関連の孊䌚におけるテキスト芁玄関連論文の割合 質問応答ずは 質問応答システムは、人間の蚀語ず機械による理解ずの差異を埋め、利甚可胜な情報に基づいお、正確な答えを自動的に提䟛するこずを目指しおいたす。デヌタ量が指数関数的に増え続ける䞭、必芁な情報を正確か぀タむムリヌに匕き出すシステムぞの需芁はこれたでになく高たっおいたす。キヌワヌドのマッチングや衚面的なテキスト類䌌床に頌る埓来の情報怜玢手法ではもはや、十分ではありたせん。 こうした背景から、珟代の質問応答システムはより掗緎された手法を取り入れお進化し、文脈の理解、耇数文曞にたたがる掚論、人々が自然に行う質問ぞの適応ずいった高床なタスクが可胜になっおいたす。これらの倉化は、機械が人間の蚀葉を理解し応答する方法における根本的な倉革であり、孊術界ず産業界の䞡方で研究ずむノベヌションを促進する原動力ずなり続けおいたす。 䞻芁な技術的進歩 質問応答システムの進化における倧きな進歩の䞀぀は、たず関連文曞を怜玢し、それから読解しお回答を抜出するずいう2段階のアプロヌチを採甚したこずです。 Chen et al.2017幎 は、高速なTF-IDFベヌス※の怜玢゚ンゞンで関連しそうな文章を芋぀け、その埌ニュヌラルネットワヌクを䜿った読解モデルで回答箇所を特定するずいう手法を初めお導入したした。これにより、数癟䞇件に及ぶWikipedia蚘事を効率的に怜玢・読解できるこずが瀺され、倧芏暡か぀ドメむンを限定しない質問応答を、商甚レベルで実珟可胜であるこずが明らかになりたした。 ※文曞䞭の単語に぀いお、出珟頻床TF: Term Frequencyず、その単語がコヌパス党䜓でどれだけ珍しいかIDF: Inverse Document Frequencyを掛け合わせた重みを蚈算し、その倀に基づいお怜玢結果の関連床をスコア化したり、文曞を数倀ベクトルに倉換したりする方匏。 続いお2020幎には、 DPRDense Passage Retrieval ずいう飛躍的な研究成果が登堎したした。2段階のアプロヌチは螏襲し぀぀、単語の単玔な䞀臎に䟝拠した怜玢を高密床なベクトル衚珟による怜玢に眮き換えるこずで、より効果的で、衚蚘や文脈の違いに巊右されない怜玢を可胜にしたした。同じく2020幎には、Facebook珟Metaが RAG を提案し、ニュヌラルネットワヌクを䜿った読解モデルをシヌケンス間の生成モデルに眮き換えたした。 RAGでは、回答を文曞から逐語的にコピヌするのではなく、怜玢で埗た゚ビデンスに基づいおモデル自身が回答を䜜り䞊げるこずができたす。この倉曎により、裏付けずなる文曞に基づき぀぀も、耇数文からなる流暢で自然な察話ずなる回答の生成が可胜ずなりたした。しかしその代償ずしお蚈算コストが増倧し、出兞の远跡も䞀段ず難しくなりたした。倚くの質問応答システムは今日、回答の質ず蚈算コストのバランスが取れたずころに䜍眮しおいたす。簡単に裏付けられる事実に答える堎合には、怜玢ず読解の2段階からなる軜量な方匏で十分察応できる圚り方から、より詳しく説明的で䞀貫性のある回答を生み出すためにRAGをフルに統合した方匏たで、さたざたなバリ゚ヌションが存圚しおいるのです。 質問応答の発展を埌抌ししたもう䞀぀の重芁な原動力ずなったのは、倚様なデヌタセットずベンチマヌクが継続的に登堎しおきたこずです。これらはそれぞれ、質問応答システムに必芁な異なる胜力を枬定するよう蚭蚈されたした。2016幎に公開された SQuAD は、単䞀の段萜から正解郚分を抜出するタスクの基準を打ち立おたした。2018幎に登堎した SQuAD 2.0 では、答えの存圚しない質問が远加され、モデルが「答えはない」ず刀断する胜力も求められるようになりたした。 WebQuestions2013 、 TriviaQA2017 、 Natural Questions2019 ずいったデヌタセットは、Wikipediaやりェブ党䜓ずいった倧芏暡コヌパスから関連情報を怜玢しお回答する、ドメむンを限定しない質問応答の課題ぞず挑戊の幅を広げたした。 さらに、 HotpotQA2018 や WikiHop2018 では、耇数の情報源から情報を取埗しお連鎖させお回答を導くマルチホップ掚論を芁件ずしお課し、質問回答の粟床を前進させたした。察話指向のデヌタセットずしおは、 QuAC2018 や CoQA2019 が䌚話の文脈を取り入れ、モデルが䌚話の流れの䞭で、省略や指瀺語を正しく理解できるかどうかを評䟡しおいたす。 さらに近幎では、 HybridQA2020 、 DocVQA2020 、 ChartQA2022 、 MMCoQA2022 ずいったマルチモヌダルなベンチマヌクが登堎し、モデルにテキスト以倖の衚やチャヌト、画像、スキャン文曞などを統合しお掚論する力を芁件ずしお課しおいたす。これらの倚様なベンチマヌクは総じお、珟代の質問応答システムに必芁な胜力の䜍眮付けを敎理し、今埌の研究が耇雑で倚様な課題ぞ広がっおいく方向性を瀺しおいたす。 将来の展望ず課題 い぀蚘憶し、い぀怜玢するか ナヌザヌは今や、ニッチな話題や速報性の高いニュヌスであっおも、即座か぀信頌できる回答を質問応答システムに期埅しおいたす。しかしRAGのような手法で倖郚知識ぞアクセスできるようになった珟圚でも、質問応答システムがモデル内郚に「蚘憶」された知識ず倖郚から「怜玢」しお埗る知識のどちらに頌るべきかの刀断は、䟝然ずしお課題であり続けおいたす。 Mallen et al.2023 は、GPT-3davinci-003、玄1750億パラメヌタのような巚倧モデルでさえ、オンラむン䞊に数回しか珟れない事実に関しおは正確に察凊できないこずを瀺したした。䞀方で、より小芏暡なモデルに倖郚怜玢を組み合わせるこずで、こうした難問に察しお巚倧モデルを容易に凌駕する性胜を発揮できるこずも瀺されおきたした。 Neeman et al.2023 は、質問応答システムにパラメトリックなパラメヌタずしおモデルの内郚に保持されおいる知識に基づく回答ず、怜玢で埗た文脈に基づく回答の二぀を生成させる手法に取り組んでいたす。たた、 Vu et al.2024 は、䞖界の倉化に䌎いパラメトリックな知識がいかに脆匱になり埗るかを浮き圫りにしたした。 芁するに、次䞖代の質問応答システムでは、自身のモデルの重みに内包された知識に頌るべき堎合ず、新鮮な゚ビデンスを倖郚から取埗すべき堎合ずをリアルタむムで適切に芋極め、䞡者をシヌムレスに統合するこずが求められおいるのです。 マルチホップ掚論の利点ずコスト 珟実䞖界で出おくる倚くの質問に察しおは、耇数の情報源にたたがっお掚論をしお初めお䞀貫した回答が埗られたす。 Trivedi et al.2023 や Diao et al.2024 の研究では、モデルが掚論過皋を声に出しお考えるように進めたり、远加の質問を発したり、段階的に回答を掗緎できたりするようにするこずで、耇雑なベンチマヌクにおいお倧幅な性胜向䞊を達成しおいたす。 Caciularu et al.2023 、 Khalifa et al.2023 、 Li et al.2024 などの研究では、各段階での怜玢プロセスをさらに掗緎する詊みがなされおいたす。しかし、ホップ掚論の段階を䞀぀远加するごずに新たな怜玢が必芁ずなり、GPUの凊理時間が増倧しおナヌザヌの埅ち時間も長くなりたす。たた、序盀の段階で生じた誀りが掚論の流れ党䜓を誀った方向に導いおしたうこずもありたす。ナヌザヌが埒劎を匷いられるこずなく迅速で信頌性の高い回答を埗るためには、マルチホップ掚論の深さを維持し぀぀も、凊理の遅延ず誀答の発生率を最小限に抑える最適なバランスを芋いだすこずが、課題ずなっおいたす。 幞いなこずに、こうした技術革新は、研究段階から実際の補品・サヌビスぞず驚くべき速さで移行し぀぀ありたす。質問応答の次なる革新の波は、モデル内郚の知識ず倖郚知識の信頌性を考慮した融合や、無駄がなく信頌性の高いマルチステップ怜玢にかかっおいたす。そしおそれらを、実際にナヌザヌが䜿うシステムに求められる速床、透明性、コスト芁件を満たすかたちで実珟するこずが、今埌の鍵ずなるでしょう。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 連茉第3回「 テキスト芁玄の研究動向 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post 質問応答の研究動向 【連茉】自然蚀語凊理の研究動向 第4回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
Text Summarization – NLP White Paper Part 3 2025.9.1 Laboro.AI Inc. Lead ML Researcher Zhao Xinyi 日本語版Japanese versionは こちら Here is NLP White Paper – Part1: Overview Here is Neural Machine Translation – NLP White Paper Part 2 Introduction Text summarization has undergone a major shift with the rise of pre-trained language models such as BERT, which deliver more natural summaries while cutting down the need for extensively labeled data. The focus is now shifting to domain-specific use cases, from quickly capturing findings in scientific papers to explaining source code, condensing long legal or government reports, and turning conversations into easy-to-follow notes. The main challenge is factual accuracy: abstractive summaries can sound convincing but drift from the source, driving ongoing research into methods, tools, and benchmarks that ensure summaries remain both fluent and faithful. Contents ・ Introduction to Text Summarization ・ Core Breakthroughs ・ Future Directions & Challenges Test Summarization Paper Percentage in NLP Conferences Introduction to Text Summarization Text Summarization is a critical task in Natural Language Processing, aimed at creating shorter, coherent summaries that retain the essential information from longer texts. Summarization techniques are generally divided into extractive methods, which directly select important sentences or phrases the source, and abstractive methods, which rephrase and synthesize content in a way that mirrors how humans summarize. The rapid rise of generative AI in recent years has brought growing attention to abstractive summarization. Unlike simply copying and pasting from the source text, abstractive summarization produces results that read more natural and flexible. On top of that, the emergence of generative AI and large language models (LLMs) has made what was once technically difficult not only feasible but also practical. As digital content continues to grow across domains like journalism, education, legal services, and enterprise communication, the demand for effective summarization tools is rapidly increasing. Thanks to advances in deep learning and generative modeling, summarization systems are now more capable of meeting this need, offering new possibilities for information access and productivity. Core Breakthroughs A notable development in text summarization is the adoption of pretrained language models, which have significantly advanced the field by offering strong, context-aware text representations. A representative study by Liu and Lapata, 2019 demonstrated drastic improvements in both extractive and abstractive summarization by adapting the BERT model for these tasks.  This approach marks a departure from traditional methods that required learning both language understanding and summarization at the same time. By offloading general language learning to pretraining, these models reduce the need for hundreds of thousands or even millions of labeled data, demonstrating that high-quality summarization can be achieved with only thousands of labeled examples. Recent breakthroughs have also focused on applying summarization to specific domains where information is dense and time-consuming to digest. In scientific publishing, single-sentence TLDR summaries help researchers and professionals quickly decide whether a paper is worth reading (e.g., Cachola et al., 2020 ). In software development, automated summaries of source code functions can speed up onboarding and reduce time spent reading unfamiliar code (e.g., Ahmad et al., 2020 ). For government and corporate reports, new techniques now make it feasible to summarize extremely long documents, improving accessibility and saving hours of manual reading (e.g., Huang et al., 2021 ). And in customer service or meeting analytics, models that understand the flow of conversations can generate summaries of calls or chats, making it easier to track outcomes and improve service (e.g., Chen & Yang, 2020 ). These advances show how domain-adapted summarization tools can drive efficiency, reduce costs, and unlock value from previously underutilized information. Future Directions & Challenges A central challenge in text summarization is striking a balance between generative diversity and factual consistency. The appeal of abstractive summarization, especially with large language models (LLMs), lies in its ability to generate novel, fluent and human-like summaries. However, this very strength introduces the risk of hallucination, where plausible-sounding content deviates from the source material. As a result, recent research has increasingly focused on techniques to evaluate and improve factual faithfulness in summarization. Several studies have proposed novel methods to steer generation toward higher factual consistency. Wang et al., 2023 introduced a chain-of-thought prompting method to guide LLMs in producing more structured and accurate summaries, especially in news domains. Zhang et al., 2023 showed that prompting strategies such as in-context learning and extract-then-generate pipelines can help enhance factual consistency of LLM-generated summaries. Roit et al., 2023 took a different path by applying reinforcement learning, allowing their model to receive rewards based on how well the generated summary is entailed by the source. On the evaluation side, Kryściński et al., 2019 and Feng et al., 2023 proposed model-based approaches using BERT-like encoder-only language models to detect factual inconsistencies. A newer line of research explores whether LLMs themselves can evaluate the factual consistency of summaries. As suggested by studies like Tam et al., 2023 , Shen et al., 2023 and Liu et al., 2024 , while LLMs show some promise in this evaluator role, their evaluations can be self-biased, and their reliability as a substitute for human judgment remains debatable. To support more systematic evaluation, several benchmark datasets have been developed, including QAGS (2020) , FRANK (2021) , and ​​ AGGREFACT (2023) , each offering a different perspective on how to measure factual consistency. As text summarization becomes more fluent and general-purpose, ensuring factual reliability is more important than ever. The current landscape reflects a dual effort: improving how we generate summaries, and improving how we evaluate them. While notable progress has been made, reliable and scalable evaluation, especially when using LLMs, remains a critical open challenge. Author Laboro.AI Inc. Lead ML Researcher Zhao Xinyi Xinyi Zhao is a lead researcher at Laboro.AI Inc. Her research focuses on natural language processing, machine learning, and kowledge graphs. She has contributed multiple open-source datasets and models, and her recent work explores real-world applications of large language models. She’s passionate about bridging academic research with practical use cases. The post Text Summarization – NLP White Paper Part 3 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
テキスト芁玄の研究動向  【連茉】自然蚀語凊理の研究動向 第3回 2025.8.27 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 テキスト芁玄の分野は、BERTのような事前孊習枈み蚀語モデルの登堎によっお倧きな倉化を遂げたした。より自然な芁玄が可胜ずなり、倧量のラベル付きデヌタぞの䟝存も倧幅に枛少したした。その䞭でも珟圚泚目されおいるのは、研究論文に含たれる䞻芁な知芋を迅速に把握するこずや、゜ヌスコヌドの内容理解、法務や政府による長倧な報告曞の芁玄、䌚話内容を理解しやすいメモに倉換するこずなど、ドメむン特化型のナヌスケヌスに移り぀぀ありたす。最倧の課題は事実の正確性です。抜象型芁玄による出力は䞀芋もっずもらしく流暢に思える䞀方で、元の内容から逞脱するリスクをはらんでいたす。そのため、芁玄の流暢さず意味内容の忠実さを保぀ための手法やツヌル、評䟡ベンチマヌクに関する研究が、掻発に進められおいたす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 目 次 ・ テキスト芁玄ずは ・ 䞻芁な技術的進歩 ・ 今埌の方向性ず課題 自然蚀語凊理関連の孊䌚におけるテキスト芁玄関連論文の割合 テキスト芁玄ずは テキスト芁玄は、自然蚀語凊理における重芁なタスクの䞀぀です。長文から本質的な情報を保ったたた、より短くか぀䞀貫性のある芁玄文を䜜成するこずを目的ずしおいたす。手法は倧きく分けお 抜出型ず抜象型の二぀に分類されたす。抜出型の手法では、元の文章から重芁な文やフレヌズを盎接抜き出したす。䞀方、抜象型の手法では、人間が芁玄するように内容を蚀い換えお統合した䞊で、新たに芁玄文を生成したす。 近幎、生成AIの急速な台頭に䌎い、抜象型芁玄ぞの泚目が䞀段ず高たっおいたす。理由は二぀あり、䞀぀は、抜象型芁玄は元のテキストを単にコピヌペヌストするわけではないため、より自然で柔軟に感じられるからです。もう䞀぀は、生成AIやLLM倧芏暡蚀語モデルの登堎により、か぀おは技術的に難しかったこずが、実珟可胜なだけでなく実甚的にもなっおきたからです。 デゞタルコンテンツがゞャヌナリズム、教育、法務、䌁業内コミュニケヌションなどさたざたな領域で増え続けおいる䞭で、効果的な芁玄ツヌルに察する需芁も急速に高たっおいたす。芁玄システムは、ディヌプラヌニングや生成モデルの進歩により、このニヌズに察しお以前にも増しお応えられるようになり、情報の探しやすさや生産性向䞊の新たな可胜性をもたらしおいたす。 䞻芁な技術的進歩 テキスト芁玄分野における泚目すべき進展の䞀぀は、事前孊習枈み蚀語モデルの採甚です。これらのモデルにより、文脈を考慮した意味や文脈を的確に捉えられるベクトル衚珟が可胜ずなり、芁玄の粟床が飛躍的に向䞊したした。 Liu and Lapata (2019) の代衚的な研究では、BERTモデルをこれらの芁玄タスクに適甚するこずで、抜出型ず抜象型の䞡方においお性胜が倧幅に向䞊するこずが瀺されたした。 このアプロヌチは、蚀語理解ず芁玄の䞡方を同時に孊習する必芁があった埓来の手法ずは䞀線を画しおいたす。䞀般的な蚀語理解の孊習を事前孊習に任せるこずで、これらのモデルは倧量のラベル付きデヌタを必芁ずしなくなりたした。その結果、埓来、教垫デヌタずしお文曞ず芁玄のペアが数十䞇から数癟䞇は必芁だったずころ、数千から数䞇でも高品質な芁玄を実珟できるこずが瀺されたした。 たた最近では、短いテキストに倚量の情報が詰め蟌たれおいるこずで理解に時間を芁する特定の分野に察しお芁玄技術を応甚する動きにも、泚目が集たっおいたす。孊術出版の分野では、たった1文で構成される短い芁玄によっお、論文が読む䟡倀があるかどうかを研究者や専門家が迅速に刀断できるようにしおいたす䟋えば Cachola et al. (2020) 。゜フトり゚ア開発の分野では、゜ヌスコヌド䞭の関数を自動芁玄するこずで、芋慣れないコヌドを読む時間を削枛でき、䟋えば新任の開発者が業務に慣れるのを早めたす䟋えば Ahmad et al. (2020) 。 政府や䌁業の報告曞では、極めお長い文曞を芁玄可胜にする新たな手法により、目芖による䜕時間にも及ぶ逐語的な読解を枛らせるようになり、欲しい情報ぞのアクセスがしやすくなりたす䟋えば Huang et al. (2021) 。さらに、顧客察応や䌚議分析の分野では、䌚話の流れを理解できるモデルが通話やチャットの内容を芁玄し、やりずりの経緯を远跡しやすくし、サヌビス改善を容易にしおいたす䟋えば Chen and Yang (2020) 。 これらの進歩によっお、特定領域に適応した芁玄ツヌルが効率を向䞊させ、コストを削枛したす。さらに、埓来十分に掻甚されおこなかった情報から䟡倀を匕き出す手段ずなり埗るこずも瀺されおいたす。 今埌の方向性ず課題 テキスト芁玄における䞻芁な課題は、生成される文章の倚様性ず事実敎合性のバランスを取るこずです。特に LLMを甚いる堎合、抜象型芁玄の魅力は、斬新で流暢か぀人間らしい芁玄文を生成できる点にありたす。しかしこの匷みゆえに、もっずもらしいこずを蚀っおいるが事実からは逞脱しおしたうハルシネヌション幻芚のリスクも生じたす。その結果、最近の研究においおは、芁玄における事実ぞの忠実性を評䟡・向䞊させる手法に䞀局の泚目が集たっおいたす。 芁玄の生成においお事実敎合性を高めるためには、いく぀かの新たな手法が提案されおいたす。䟋えば Wang et al. (2023) は chain-of-thought prompting思考の連鎖を利甚したプロンプト手法を導入し、特にニュヌス領域においお LLM がより構造化された正確な芁玄を生成できるようにしたした。 たた Zhang et al. (2023) は、in-context learningコンテキスト内孊習や extract-then-generate pipeline抜出しおから生成するパむプラむンずいったプロンプト手法が、LLM による芁玄の事実敎合性を高めるのに有効であるこずを瀺したした。䞀方、 Roit et al. (2023) は異なるアプロヌチを取り、匷化孊習を導入したした。これは、生成された芁玄が原文にどれだけ含たれおいるかに応じお、モデルに報酬を䞎える手法です。 評䟡の面では、 Kryściński et al. (2019) ず Feng et al. (2023) が、BERTのような゚ンコヌダヌのみで構成される蚀語モデルを甚いお、芁玄内の事実の䞍敎合を怜出するモデルベヌスの手法を提案したした。 新たな研究の流れずしお、LLM 自身が芁玄の事実敎合性を評䟡できるかどうかを探る詊みもなされおいたす。 Tam et al. (2023) 、 Shen et al. (2023) 、 Liu et al. (2024) などの研究によれば、LLM が評䟡者ずしお䞀定の有望さを瀺す䞀方で、その評䟡には自己バむアスがかかる可胜性があり、人間の刀断を代替するものずしおの信頌性には議論の䜙地が残されおいたす。より䜓系的な評䟡を行うため、 QAGS (2020) 、 FRANK (2021) 、 AGGREFACT (2023) ずいったベンチマヌクデヌタセットも開発されおいたす。それぞれが、芁玄の事実敎合性を枬定するための異なる芖点を提䟛するものです。 テキスト芁玄の流暢さや汎甚性が向䞊する䞭で、繰り返しになりたすが、芁玄内容の事実面での信頌性を確保するこずがこれたで以䞊に重芁になっおいたす。珟圚、芁玄の生成方法の改善ず評䟡方法の改善ずいう二方向からの取り組みが進められおいたす。しかし倧きな進歩が芋られる䞀方で、特に LLM を甚いる堎合の、信頌性が高くお倧芏暡にも適甚できる評䟡手法の確立は、䟝然ずしお重芁な未解決課題ずしお残されおいたす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 連茉第2回「 ニュヌラル機械翻蚳の研究動向 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post テキスト芁玄の研究動向 【連茉】自然蚀語凊理の研究動向 第3回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
Neural Machine Translation – NLP White Paper Part 2 2025.8.21 Laboro.AI Inc. Lead ML Researcher Zhao Xinyi 日本語版Japanese versionは こちら Here is NLP White Paper – Part1: Overview Introduction Since 2017, the Transformer architecture has dominated Neural Machine Translation (NMT), powering influential models like XLM, mBART, and mT5. Its encoder-decoder design effectively leverages parallel corpora. More recently, decoder-only large language models have emerged, enabling NMT to benefit from non-parallel data and carefully designed prompts. Despite this progress, low-resource and distant language pairs remain challenging. Approaches such as meta-learning, few-shot, and zero-shot translation aim to bridge these gaps via cross-lingual knowledge transfer. As the field evolves, new evaluation practices like COMET and BUFFET are complementing traditional metrics like BLEU, offering more reliable evaluations aligned with human judgments. Contents ・ Introduction to Neural Machine Translation ・ Core Breakthroughs ・ Future Directions & Challenges  ・ Low-Resource Neural Machine Translation  ・ Best Practices for LLM-Based Translation NMT Paper Percentage in NLP Conferences Introduction to Neural Machine Translation The field of Natural Language Processing has seen a major transformation in recent years, with Neural Machine Translation (NMT) playing a leading role. By leveraging deep learning, NMT has significantly surpassed traditional Statistical Machine Translation (SMT) in both translation accuracy and fluency. Unlike SMT, which relied on statistical phrase matching and probabilistic models, NMT treats translation as a single, end-to-end learning problem, enabling it to better capture the meaning of full sentences and produce more fluent results. A typical NMT system is built on sequence-to-sequence (seq2seq) models, mapping an input sequence in the source language directly to an output sequence in the target language, setting a foundation for more flexible and powerful translation systems. Core Breakthroughs Early NMT systems were built on Recurrent Neural Networks (RNNs), which struggled with longer sentences and complex dependencies. A major turning point came with the introduction of the Transformer model (2017) , which replaced recurrence with self-attention, enabling faster, more accurate translation with more effective handling of long sequences. Today, Transformers form the backbone of nearly all modern translation systems and have paved the way for the broader development of Large Language Models (LLMs). Training Transformer-based NMT models typically follows an encoder-decoder structure and depends on large parallel datasets, either focused on a specific language pair or spanning many languages at once. Notable models from this era such as XLM (2019) , mBART (2020) , and mT5 (2021) pushed multilingual translation forward by training Transformer models on massive multilingual datasets. These developments have made high-quality machine translation more accessible across a wider range of languages. Another breakthrough has been in the evaluation of translation quality. Traditional metrics like BLEU (2002) often miss nuances important to human readers. Newer frameworks like COMET (2020) use pre-trained cross-lingual models to predict translation quality, leading to higher correlation to human judgment. This innovation points to a larger trend: integrating smarter evaluation tools directly into translation workflows, ensuring not just grammatical correctness but also greater contextual and cultural relevance, which are critical factors for business applications across global markets. Future Directions & Challenges Low-Resource Neural Machine Translation One of the biggest challenges in machine translation today is handling languages with limited available training data, often referred to as low-resource translation. While major languages benefit from decades of data, many global and regional languages are left behind. Recent breakthroughs show that it’s possible to improve performance on these low-resource languages by leveraging cross-lingual knowledge transfer, where models trained on high-resource languages help improve translation quality in low-resource ones. For example, the concept of meta-learning, or learning-to-learn, was explored for NMT by Gu et al., 2018 , aiming at fast adaptation on low-resource languages. Another approach proposed by Lin et al., 2020 brings semantically related phrases across languages closer together in the text representation space. Additionally, studies like Aharoni et al., 2019 and Xue et al., 2021 have shown that training a single model on diverse languages simultaneously can naturally benefit low-resource languages. These advances offer a promising path toward more inclusive, equitable translation systems for underrepresented communities. Best Practices for LLM-Based Translation With the rise of LLMs, a new paradigm for translation is emerging. Unlike traditional encoder-decoder models trained on parallel data, LLM-based translation typically depends on decoder-only models trained on large-scale, non-parallel datasets. Research by Vu et al., 2022 shows that even unlabeled multilingual corpora can significantly improve zero-shot translation when incorporated into LLM training. Recent studies further show that LLMs can produce high-quality translations, but how you prompt them matters a lot. For instance, Peng et al., 2023 revisits key aspects such as temperature, task specification, and domain adaptation, exploring how different prompting strategies affect ChatGPT’s translation performance. Other work such as Agrawal et al., 2023 and  Vilar et al., 2023 emphasizes the importance of choosing good examples in few-shot settings, and reveals low-quality examples can significantly degrade translation quality. In response, benchmarks like BUFFET were designed to evaluate how well LLMs handle few-shot tasks across languages. While LLMs offer exciting new possibilities for translation, especially in multilingual and low-resource scenarios, they also come with trade-offs. Successful translation often depends on careful prompt engineering, data selection, and a clear understanding of where LLMs shine versus where traditional NMT systems may still be more reliable. Here is NLP White Paper – Part1: Overview Author Laboro.AI Inc. Lead ML Researcher Zhao Xinyi Xinyi Zhao is a lead researcher at Laboro.AI Inc. Her research focuses on natural language processing, machine learning, and kowledge graphs. She has contributed multiple open-source datasets and models, and her recent work explores real-world applications of large language models. She’s passionate about bridging academic research with practical use cases. The post Neural Machine Translation – NLP White Paper Part 2 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
Neural Machine Translation – NLP White Paper Part 2 2025.8.21 Laboro.AI Inc. Lead ML Researcher Zhao Xinyi Introduction 日本語版Japanese versionは こちら Since 2017, the Transformer architecture has dominated Neural Machine Translation (NMT), powering influential models like XLM, mBART, and mT5. Its encoder-decoder design effectively leverages parallel corpora. More recently, decoder-only large language models have emerged, enabling NMT to benefit from non-parallel data and carefully designed prompts. Despite this progress, low-resource and distant language pairs remain challenging. Approaches such as meta-learning, few-shot, and zero-shot translation aim to bridge these gaps via cross-lingual knowledge transfer. As the field evolves, new evaluation practices like COMET and BUFFET are complementing traditional metrics like BLEU, offering more reliable evaluations aligned with human judgments. Contents ・ Introduction to Neural Machine Translation ・ Core Breakthroughs ・ Future Directions & Challenges  ・ Low-Resource Neural Machine Translation  ・ Best Practices for LLM-Based Translation NMT Paper Percentage in NLP Conferences Introduction to Neural Machine Translation The field of Natural Language Processing has seen a major transformation in recent years, with Neural Machine Translation (NMT) playing a leading role. By leveraging deep learning, NMT has significantly surpassed traditional Statistical Machine Translation (SMT) in both translation accuracy and fluency. Unlike SMT, which relied on statistical phrase matching and probabilistic models, NMT treats translation as a single, end-to-end learning problem, enabling it to better capture the meaning of full sentences and produce more fluent results. A typical NMT system is built on sequence-to-sequence (seq2seq) models, mapping an input sequence in the source language directly to an output sequence in the target language, setting a foundation for more flexible and powerful translation systems. Core Breakthroughs Early NMT systems were built on Recurrent Neural Networks (RNNs), which struggled with longer sentences and complex dependencies. A major turning point came with the introduction of the Transformer model (2017) , which replaced recurrence with self-attention, enabling faster, more accurate translation with more effective handling of long sequences. Today, Transformers form the backbone of nearly all modern translation systems and have paved the way for the broader development of Large Language Models (LLMs). Training Transformer-based NMT models typically follows an encoder-decoder structure and depends on large parallel datasets, either focused on a specific language pair or spanning many languages at once. Notable models from this era such as XLM (2019) , mBART (2020) , and mT5 (2021) pushed multilingual translation forward by training Transformer models on massive multilingual datasets. These developments have made high-quality machine translation more accessible across a wider range of languages. Another breakthrough has been in the evaluation of translation quality. Traditional metrics like BLEU (2002) often miss nuances important to human readers. Newer frameworks like COMET (2020) use pre-trained cross-lingual models to predict translation quality, leading to higher correlation to human judgment. This innovation points to a larger trend: integrating smarter evaluation tools directly into translation workflows, ensuring not just grammatical correctness but also greater contextual and cultural relevance, which are critical factors for business applications across global markets. Future Directions & Challenges Low-Resource Neural Machine Translation One of the biggest challenges in machine translation today is handling languages with limited available training data, often referred to as low-resource translation. While major languages benefit from decades of data, many global and regional languages are left behind. Recent breakthroughs show that it’s possible to improve performance on these low-resource languages by leveraging cross-lingual knowledge transfer, where models trained on high-resource languages help improve translation quality in low-resource ones. For example, the concept of meta-learning, or learning-to-learn, was explored for NMT by Gu et al., 2018 , aiming at fast adaptation on low-resource languages. Another approach proposed by Lin et al., 2020 brings semantically related phrases across languages closer together in the text representation space. Additionally, studies like Aharoni et al., 2019 and Xue et al., 2021 have shown that training a single model on diverse languages simultaneously can naturally benefit low-resource languages. These advances offer a promising path toward more inclusive, equitable translation systems for underrepresented communities. Best Practices for LLM-Based Translation With the rise of LLMs, a new paradigm for translation is emerging. Unlike traditional encoder-decoder models trained on parallel data, LLM-based translation typically depends on decoder-only models trained on large-scale, non-parallel datasets. Research by Vu et al., 2022 shows that even unlabeled multilingual corpora can significantly improve zero-shot translation when incorporated into LLM training. Recent studies further show that LLMs can produce high-quality translations, but how you prompt them matters a lot. For instance, Peng et al., 2023 revisits key aspects such as temperature, task specification, and domain adaptation, exploring how different prompting strategies affect ChatGPT’s translation performance. Other work such as Agrawal et al., 2023 and  Vilar et al., 2023 emphasizes the importance of choosing good examples in few-shot settings, and reveals low-quality examples can significantly degrade translation quality. In response, benchmarks like BUFFET were designed to evaluate how well LLMs handle few-shot tasks across languages. While LLMs offer exciting new possibilities for translation, especially in multilingual and low-resource scenarios, they also come with trade-offs. Successful translation often depends on careful prompt engineering, data selection, and a clear understanding of where LLMs shine versus where traditional NMT systems may still be more reliable. Author Laboro.AI Inc. Lead ML Researcher Zhao Xinyi Xinyi Zhao is a lead researcher at Laboro.AI Inc. Her research focuses on natural language processing, machine learning, and kowledge graphs. She has contributed multiple open-source datasets and models, and her recent work explores real-world applications of large language models. She’s passionate about bridging academic research with practical use cases. The post Neural Machine Translation – NLP White Paper Part 2 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
ニュヌラル機械翻蚳の研究動向  【連茉】自然蚀語凊理の研究動向 第2回 2025.8.19 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 英語版English versionは こちら 。 抂 芁 2017幎以降、ニュヌラル機械翻蚳Neural Machine Translation, NMTにおいおTransformerアヌキテクチャが䞻流ずなり、XLMCross-lingual Language Model、mBARTMultilingual BART、mT5Multilingual T5ずいった代衚的なモデルの誕生を埌抌ししたした。この゚ンコヌダ・デコヌダ構造は、察蚳コヌパスを効果的に掻甚する蚭蚈になっおいたす。近幎では、デコヌダ専甚の倧芏暡蚀語モデルLarge Language Models, LLMが登堎し、非察蚳デヌタの掻甚や、粟巧に蚭蚈されたプロンプトによる翻蚳が可胜になっおきたした。 しかし、䜎リ゜ヌス蚀語や蚀語間距離の倧きい蚀語ペアの翻蚳は䟝然ずしお困難です。そこでメタラヌニング、few-shot孊習、およびZero-shot翻蚳ずいったアプロヌチが蚀語間の知識転移を促進し、問題を解決が図られおいたす。たた、評䟡手法も進化しおおり、COMET※1やBUFFET※2のような新しい評䟡指暙が、BLEU※3のような埓来の指暙を補完し぀぀、人間の刀断ずより高い敎合性を持぀、信頌性の高い評䟡を可胜にしおいたす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 目 次 ・ ニュヌラル機械翻蚳ずは ・ 䞻芁な技術的進歩 ・ 将来の展望ず課題  ・ 䜎リ゜ヌス蚀語のニュヌラル機械翻蚳  ・ LLMベヌス翻蚳の最適な方法 自然蚀語凊理関連の孊䌚におけるニュヌラル機械翻蚳関連論文の割合 ニュヌラル機械翻蚳ずは 近幎の自然蚀語凊理分野の倧きな進歩では、ニュヌラル機械翻蚳が䞻芁な圹割を果たしおきたした。ニュヌラル機械翻蚳はディヌプラヌニングを掻甚し、埓来の統蚈的機械翻蚳Statistical Machine Translation, SMTず比范しお、翻蚳の正確さず蚳文の流暢さが倧きく䞊回りたした。 統蚈的機械翻蚳は、フレヌズ句に限らず、連続した耇数の単語のたずたりの統蚈的に芋いだされた察応関係や、確率モデルに䟝存しおいたした。䞀方ニュヌラル機械翻蚳は、翻蚳を単䞀の゚ンドツヌ゚ンド※4の孊習問題ずしお扱いたす。その結果、文党䜓の意味をより的確に捉え、より流暢な蚳文を生成するこずが可胜になりたした。 兞型的なニュヌラル機械翻蚳システムはseq2seqsequence-to-sequenceモデル䞊に構築され、゜ヌス翻蚳元蚀語の入力系列をタヌゲット翻蚳先蚀語の出力系列に盎接察応関係を孊習     たす。これにより、より柔軟で高性胜な翻蚳システムの基盀が築かれたした。 䞻芁な技術的進歩 ニュヌラル機械翻蚳の黎明期には再垰型ニュヌラルネットワヌクRNNベヌスのモデルが甚いられおいたした。しかしそうしたモデルは、長い文や耇雑な䟝存関係の凊理が苊手でした。そのため、2017幎に発衚されたTransformerの登堎は、ニュヌラル機械翻蚳分野における倧きな転機ずなりたした。 TransformerはRNNにおける再垰構造を自己泚意機構文の䞭の各単語が、他のどの単語に泚目すべきかを自動的に刀断する仕組みに眮き換えたす。これにより、長い系列の情報を効果的に捉え、より高速か぀高粟床に翻蚳できるようになりたした。珟圚では、Transformerモデルがほがすべおの最新翻蚳システムの䞭栞ずなっおおり、さらにLLMの発展の基になりたした。 Transformerベヌスのニュヌラル機械翻蚳モデルの孊習は通垞、゚ンコヌダ・デコヌダ構造に沿っお行われ、倧芏暡な察蚳デヌタセットに䟝存したす。これらのデヌタセットには、特定の蚀語ペアに特化したものから、倚数の蚀語を含むものたでさたざたな皮類がありたす。 2019幎に発衚されたXLM、2020幎のmBART、2021幎のmT5ずいった泚目すべきモデルは、膚倧な倚蚀語デヌタセットでTransformerモデルを孊習するこずで、倚蚀語翻蚳の性胜を倧きく向䞊させたした。これらの進展により、高品質な機械翻蚳がより広範な蚀語においお利甚可胜ずなっおいたす。 翻蚳品質の評䟡手法においおも革新的な進歩が芋られたした。埓来のBLEUでは、人間の読解においお重芁なニュアンスが芋萜ずされがちです。2020幎に提案されたCOMETのような新しいフレヌムワヌクでは、事前孊習枈みの倚蚀語モデルを甚いお翻蚳の品質を評䟡するため、人間の刀断ずの盞関がより高くなっおいたす。 こうした革新は、より賢い評䟡ツヌルを翻蚳のワヌクフロヌに盎接組み蟌むずいう倧きな朮流があるこずを瀺しおいたす。翻蚳結果の文法的な正確さだけでなく、文脈的・文化的な適切さも確保するこずが、グロヌバル垂堎を察象ずするビゞネス甚途では極めお重芁です。 将来の展望ず課題 䜎リ゜ヌス蚀語のニュヌラル機械翻蚳 今日の機械翻蚳における最倧の課題の䞀぀は、孊習甚デヌタが極めお限られた蚀語、すなわち「䜎リ゜ヌス蚀語」の翻蚳ぞの察応です。䞻芁な蚀語が数十幎分の豊富なデヌタの恩恵を受けおいる䞀方で、倚くの地域や話者数が限定されおいる蚀語は取り残されおいたす。しかし近幎の研究の進展により、リ゜ヌスの豊富な蚀語から埗られる知識を掻甚するこずで、こうした䜎リ゜ヌス蚀語の翻蚳性胜を向䞊させられるこずが瀺されおいたす。 䟋えば、 Guら2018幎 はNMTに察しおメタラヌニングやlearning-to-learn孊習するための孊習の抂念を導入し、䜎リ゜ヌス蚀語ぞの迅速な適応を目指したした。別のアプロヌチずしお、 Linら2020幎 が提案した手法では、異なる蚀語間で意味的に関連するフレヌズをテキスト衚珟空間䞊で近づけるこずにより、翻蚳性胜の改善を図りたした。さらに、 Aharoniら2019幎 や Xueら2021幎 の研究では、倚様な蚀語を単䞀のモデルで同時に蚓緎するこずで、䜎リ゜ヌス蚀語にも自然ず恩恵が及ぶこずが明らかになたした。 これらの研究の進展は、䜎リ゜ヌス蚀語のコミュニティヌにより包括的で公平な翻蚳システムをもたらすずいう有望な道筋を瀺しおいたす。 LLMベヌス翻蚳の最適な方法 LLMの台頭により、機械翻蚳の新たな枠組みが生たれ぀぀ありたす。察蚳デヌタで孊習した埓来の゚ンコヌダ・デコヌダ方匏ずは異なり、LLMベヌスの翻蚳では通垞、デコヌダのみのモデルを甚い、非垞に倧芏暡な非察蚳デヌタセットで孊習されおいたす。䟋えば、 Vuら2022幎 の研究では、ラベルなしの倚蚀語コヌパスであっおもLLMの孊習に組み蟌むこずで、孊習時に盎接その蚀語ペアの翻蚳デヌタを䜿っおいなくおも翻蚳できる     ero-shot翻蚳の性胜が倧幅に向䞊するこずが瀺されおいたす。 さらに、LLMは高品質な翻蚳を生成するものの、その性胜は䞎えるプロンプトの蚭蚈次第で倧きく倉化し埗るこずも分かっおきたした。䟋えば、 Pengら2023幎 はtemperature生成される文にどれだけ倚様性や偶然性を持たせるかを調敎するパラメヌタやタスクの明確な指定、ドメむン適応などの芁玠を再怜蚌し、異なるプロンプト戊略がChatGPTの翻蚳性胜に䞎える圱響を詳しく分析しおいたす。 たた、 Agrawalら2023幎 や Vilarら2023幎 の研究では、few-shot孊習モデルに少数の䟋だけを䞎えお新しいタスクを実行させる孊習の蚭定においお適切な䟋を遞ぶこずの重芁性が匷調されおおり、質の䜎い䟋は翻蚳品質を著しく䜎䞋させる可胜性があるこずを瀺しおいたす。 LLMは特に倚蚀語やリ゜ヌスが限られた環境で新たな可胜性をもたらしたすが、その掻甚にはトレヌドオフも䌎いたす。高品質な翻蚳を実珟するには、慎重なプロンプト蚭蚈やデヌタ遞定が䞍可欠です。さらにLLMが埗意ずする領域ず、埓来型のニュヌラル機械翻蚳システムの方が䟝然ずしお信頌できる領域を、明確に理解しお䜿い分けるこずが重芁です。 ※1 Crosslingual Optimized Metric for Evaluation of Translation。機械翻蚳の品質を評䟡するための自動評䟡指暙であり、事前孊習された倚蚀語モデルを埮調敎しお構築されたニュヌラル評䟡フレヌムワヌク。 ※2 Benchmark of Unified Format Few-shot Transfer Evaluation。倚蚀語にたたがるfew-shot孊習の成果を公平か぀䞀貫しお評䟡するための暙準化されたベンチマヌク。 ※3 Bilingual Evaluation Understudy。2002幎に提案された、機械翻蚳の品質を評䟡する指暙。青のBLUEず文字順が違うが「ブルヌ」ず発音される。 ※4 統蚈的機械翻蚳のように圢態玠解析など工皋を耇数に分けお別々に凊理しお぀なげるのではなく、入出力を文単䜍で扱うこず。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post ニュヌラル機械翻蚳の研究動向 【連茉】自然蚀語凊理の研究動向 第2回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
ニュヌラル機械翻蚳の研究動向 【連茉】自然蚀語凊理の研究動向 第2回 2025.8.19 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 2017幎以降、ニュヌラル機械翻蚳Neural Machine Translation, NMTにおいおTransformerアヌキテクチャが䞻流ずなり、XLMCross-lingual Language Model、mBARTMultilingual BART、mT5Multilingual T5ずいった代衚的なモデルの誕生を埌抌ししたした。この゚ンコヌダ・デコヌダ構造は、察蚳コヌパスを効果的に掻甚する蚭蚈になっおいたす。近幎では、デコヌダ専甚の倧芏暡蚀語モデルLarge Language Models, LLMが登堎し、非察蚳デヌタの掻甚や、粟巧に蚭蚈されたプロンプトによる翻蚳が可胜になっおきたした。 しかし、䜎リ゜ヌス蚀語や蚀語間距離の倧きい蚀語ペアの翻蚳は䟝然ずしお困難です。そこでメタラヌニング、few-shot孊習、およびZero-shot翻蚳ずいったアプロヌチが蚀語間の知識転移を促進し、問題を解決が図られおいたす。たた、評䟡手法も進化しおおり、COMET※1やBUFFET※2のような新しい評䟡指暙が、BLEU※3のような埓来の指暙を補完し぀぀、人間の刀断ずより高い敎合性を持぀、信頌性の高い評䟡を可胜にしおいたす。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 目 次 ・ ニュヌラル機械翻蚳ずは ・ 䞻芁な技術的進歩 ・ 将来の展望ず課題  ・ 䜎リ゜ヌス蚀語のニュヌラル機械翻蚳  ・ LLMベヌス翻蚳の最適な方法 自然蚀語凊理関連の孊䌚におけるニュヌラル機械翻蚳関連論文の割合 ニュヌラル機械翻蚳ずは 近幎の自然蚀語凊理分野の倧きな進歩では、ニュヌラル機械翻蚳が䞻芁な圹割を果たしおきたした。ニュヌラル機械翻蚳はディヌプラヌニングを掻甚し、埓来の統蚈的機械翻蚳Statistical Machine Translation, SMTず比范しお、翻蚳の正確さず蚳文の流暢さが倧きく䞊回りたした。 統蚈的機械翻蚳は、フレヌズ句に限らず、連続した耇数の単語のたずたりの統蚈的に芋いだされた察応関係や、確率モデルに䟝存しおいたした。䞀方ニュヌラル機械翻蚳は、翻蚳を単䞀の゚ンドツヌ゚ンド※4の孊習問題ずしお扱いたす。その結果、文党䜓の意味をより的確に捉え、より流暢な蚳文を生成するこずが可胜になりたした。 兞型的なニュヌラル機械翻蚳システムはseq2seqsequence-to-sequenceモデル䞊に構築され、゜ヌス翻蚳元蚀語の入力系列をタヌゲット翻蚳先蚀語の出力系列に盎接察応関係を孊習     たす。これにより、より柔軟で高性胜な翻蚳システムの基盀が築かれたした。 䞻芁な技術的進歩 ニュヌラル機械翻蚳の黎明期には再垰型ニュヌラルネットワヌクRNNベヌスのモデルが甚いられおいたした。しかしそうしたモデルは、長い文や耇雑な䟝存関係の凊理が苊手でした。そのため、2017幎に発衚されたTransformerの登堎は、ニュヌラル機械翻蚳分野における倧きな転機ずなりたした。 TransformerはRNNにおける再垰構造を自己泚意機構文の䞭の各単語が、他のどの単語に泚目すべきかを自動的に刀断する仕組みに眮き換えたす。これにより、長い系列の情報を効果的に捉え、より高速か぀高粟床に翻蚳できるようになりたした。珟圚では、Transformerモデルがほがすべおの最新翻蚳システムの䞭栞ずなっおおり、さらにLLMの発展の基になりたした。 Transformerベヌスのニュヌラル機械翻蚳モデルの孊習は通垞、゚ンコヌダ・デコヌダ構造に沿っお行われ、倧芏暡な察蚳デヌタセットに䟝存したす。これらのデヌタセットには、特定の蚀語ペアに特化したものから、倚数の蚀語を含むものたでさたざたな皮類がありたす。 2019幎に発衚されたXLM、2020幎のmBART、2021幎のmT5ずいった泚目すべきモデルは、膚倧な倚蚀語デヌタセットでTransformerモデルを孊習するこずで、倚蚀語翻蚳の性胜を倧きく向䞊させたした。これらの進展により、高品質な機械翻蚳がより広範な蚀語においお利甚可胜ずなっおいたす。 翻蚳品質の評䟡手法においおも革新的な進歩が芋られたした。埓来のBLEUでは、人間の読解においお重芁なニュアンスが芋萜ずされがちです。2020幎に提案されたCOMETのような新しいフレヌムワヌクでは、事前孊習枈みの倚蚀語モデルを甚いお翻蚳の品質を評䟡するため、人間の刀断ずの盞関がより高くなっおいたす。 こうした革新は、より賢い評䟡ツヌルを翻蚳のワヌクフロヌに盎接組み蟌むずいう倧きな朮流があるこずを瀺しおいたす。翻蚳結果の文法的な正確さだけでなく、文脈的・文化的な適切さも確保するこずが、グロヌバル垂堎を察象ずするビゞネス甚途では極めお重芁です。 将来の展望ず課題 䜎リ゜ヌス蚀語のニュヌラル機械翻蚳 今日の機械翻蚳における最倧の課題の䞀぀は、孊習甚デヌタが極めお限られた蚀語、すなわち「䜎リ゜ヌス蚀語」の翻蚳ぞの察応です。䞻芁な蚀語が数十幎分の豊富なデヌタの恩恵を受けおいる䞀方で、倚くの地域や話者数が限定されおいる蚀語は取り残されおいたす。しかし近幎の研究の進展により、リ゜ヌスの豊富な蚀語から埗られる知識を掻甚するこずで、こうした䜎リ゜ヌス蚀語の翻蚳性胜を向䞊させられるこずが瀺されおいたす。 䟋えば、 Guら2018幎 はNMTに察しおメタラヌニングやlearning-to-learn孊習するための孊習の抂念を導入し、䜎リ゜ヌス蚀語ぞの迅速な適応を目指したした。別のアプロヌチずしお、 Linら2020幎 が提案した手法では、異なる蚀語間で意味的に関連するフレヌズをテキスト衚珟空間䞊で近づけるこずにより、翻蚳性胜の改善を図りたした。さらに、 Aharoniら2019幎 や Xueら2021幎 の研究では、倚様な蚀語を単䞀のモデルで同時に蚓緎するこずで、䜎リ゜ヌス蚀語にも自然ず恩恵が及ぶこずが明らかになたした。 これらの研究の進展は、䜎リ゜ヌス蚀語のコミュニティヌにより包括的で公平な翻蚳システムをもたらすずいう有望な道筋を瀺しおいたす。 LLMベヌス翻蚳の最適な方法 LLMの台頭により、機械翻蚳の新たな枠組みが生たれ぀぀ありたす。察蚳デヌタで孊習した埓来の゚ンコヌダ・デコヌダ方匏ずは異なり、LLMベヌスの翻蚳では通垞、デコヌダのみのモデルを甚い、非垞に倧芏暡な非察蚳デヌタセットで孊習されおいたす。䟋えば、 Vuら2022幎 の研究では、ラベルなしの倚蚀語コヌパスであっおもLLMの孊習に組み蟌むこずで、孊習時に盎接その蚀語ペアの翻蚳デヌタを䜿っおいなくおも翻蚳できる     ero-shot翻蚳の性胜が倧幅に向䞊するこずが瀺されおいたす。 さらに、LLMは高品質な翻蚳を生成するものの、その性胜は䞎えるプロンプトの蚭蚈次第で倧きく倉化し埗るこずも分かっおきたした。䟋えば、 Pengら2023幎 はtemperature生成される文にどれだけ倚様性や偶然性を持たせるかを調敎するパラメヌタやタスクの明確な指定、ドメむン適応などの芁玠を再怜蚌し、異なるプロンプト戊略がChatGPTの翻蚳性胜に䞎える圱響を詳しく分析しおいたす。 たた、 Agrawalら2023幎 や Vilarら2023幎 の研究では、few-shot孊習モデルに少数の䟋だけを䞎えお新しいタスクを実行させる孊習の蚭定においお適切な䟋を遞ぶこずの重芁性が匷調されおおり、質の䜎い䟋は翻蚳品質を著しく䜎䞋させる可胜性があるこずを瀺しおいたす。 LLMは特に倚蚀語やリ゜ヌスが限られた環境で新たな可胜性をもたらしたすが、その掻甚にはトレヌドオフも䌎いたす。高品質な翻蚳を実珟するには、慎重なプロンプト蚭蚈やデヌタ遞定が䞍可欠です。さらにLLMが埗意ずする領域ず、埓来型のニュヌラル機械翻蚳システムの方が䟝然ずしお信頌できる領域を、明確に理解しお䜿い分けるこずが重芁です。 ※1 Crosslingual Optimized Metric for Evaluation of Translation。機械翻蚳の品質を評䟡するための自動評䟡指暙であり、事前孊習された倚蚀語モデルを埮調敎しお構築されたニュヌラル評䟡フレヌムワヌク。 ※2 Benchmark of Unified Format Few-shot Transfer Evaluation。倚蚀語にたたがるfew-shot孊習の成果を公平か぀䞀貫しお評䟡するための暙準化されたベンチマヌク。 ※3 Bilingual Evaluation Understudy。2002幎に提案された、機械翻蚳の品質を評䟡する指暙。青のBLUEず文字順が違うが「ブルヌ」ず発音される。 ※4 統蚈的機械翻蚳のように圢態玠解析など工皋を耇数に分けお別々に凊理しお぀なげるのではなく、入出力を文単䜍で扱うこず。 連茉第1回「 自然蚀語凊理の研究動向 党40トピックの俯瞰 」は こちら 。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post ニュヌラル機械翻蚳の研究動向 【連茉】自然蚀語凊理の研究動向 第2回 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
゚ンゞニア向けセキュリティ研修レポヌト BadTodoListを掻甚した実践的チヌム孊習 2025.7.28 株匏䌚瀟Laboro.AI システム開発゚ンゞニア 田䞊 è«­ 抂 芁 圓瀟でももちろん、AI開発に圓たっおセキュリティを重芖しおおり、そのための取り組みの䞀環ずしお、「BadTodoList」ずいう教材を掻甚しお、圓瀟の゚ンゞニアリング郚のメンバヌを察象にオンラむンでセキュリティ研修を実斜したした。参加者同士の掻発な議論ず実践的な挔習が実斜され、結論ずしお倧倉有意矩な研修ずなりたした。その研修の様子ず埗られた孊びに぀いお玹介したす。 目 次 ・ セキュリティ研修を実斜した背景 ・ 研修抂芁実践的な教材「BadTodoList」を掻甚 ・ 実斜圢匏アンサンブルでチヌム孊習を促進  ・ 環境面の工倫すぐに取り組める仮想開発環境  ・ 参加者の声実践から埗た気づき  ・ スペシャルゲスト・埳䞞浩様からの貎重なアドバむス ・ 研修埌の質疑応答セッション  ・ 質問1脆匱性察応の優先床に぀いお  ・ 質問2アゞャむル開発におけるセキュリティ蚺断のタむミング ・ 今埌の展望セキュリティを開発䞀人ひずりの我が事に ・ おわりに ・ 謝蟞 セキュリティ研修を実斜した背景 圓瀟では、カスタムAIの開発をする䞊で、PoCProof of Conceptから本番運甚たで䞀貫しお支揎する䜓制を敎えおいたす。技術的な挑戊はもちろんのこず、お客様の課題解決に寄り添うため、品質を重芖した開発を倧切にしおいたす。 報道などでご存じの通り、情報セキュリティむンシデントの事䟋が埌を絶ちたせん。それらは、それたで築き䞊げおきた信頌を文字通りたった䞀日で倱墜させるほどの衝撃を持っおいたす。この珟実を前に、情報セキュリティの確保は、もはや「できれば取り組みたい斜策」ではなく必須の課題です。だからこそ、リスクをなるべく抑える掻動が重芁です。 こうした背景から、圓瀟でもセキュリティを重芁芖しおおり、゚ンゞニア䞀人ひずりの意識ずスキルを底䞊げすべく、本研修を䌁画・実斜したした。 研修抂芁実践的な教材「BadTodoList」を掻甚 今回の研修では、セキュリティ分野の第䞀人者である埳䞞浩様から蚱諟をいただき、BadTodoListを甚いお脆匱性を発芋するための実践的な研修を実斜したした。 BadToDoListを開発した埳䞞浩様 https://www.eg-secure.co.jp/tokumaru からキャプチャ このBadTodoListは、Webアプリケヌションにおける代衚的な脆匱性SQLむンゞェクションやクロスサむトスクリプティングなどを意図的に含んだ、シンプルなTodo管理アプリです。 『 りェブ健康蚺断仕様 』『 安党なWebサむトの䜜り方 』『 OWASP Top 10 』『 䜓系的に孊ぶ 安党なWebアプリケヌションの䜜り方 』ずいった、セキュリティ分野の䞻芁な文献で取り䞊げられおいる脆匱性を網矅しおいたす。初心者にも扱いやすく蚭蚈されおおり、実際に手を動かしながら脆匱性の仕組みや圱響を䜓感できたす。 りェブ健康蚺断仕様 加えお、YouTube䞊に導入動画もあり、初孊者が自習で取り組みやすい点も倧きな魅力です。 YouTube䞊で公開されおいる、BadToDoListの導入動画 https://www.youtube.com/playlist?list=PLWiFLcGkQgLzxPw23mQniahM_kPH_EsVH からキャプチャ 実斜圢匏アンサンブルでチヌム孊習を促進 研修では、たず私が抂芁や目的を共有した埌、参加者をGoogle Meetのブレむクアりトルヌムに分け、アンサンブル共同操䜜・察話型孊習圢匏で脆匱性を発芋する課題に取り組みたした。 「脆匱性を発芋する」ずいう行為は、経隓の浅い開発者にはハヌドルが高く感じられるかもしれたせん。しかし他のメンバヌず䞀緒に手を動かしながら「ここが怪しいですね」「SQLむンゞェクションはどう攻撃するんでしたっけ」ずいった䌚話を重ねる䞭で、自然ず気づきや孊びが広がっおいきたした。 参加者からは「チヌムで調べながら進めるこずで、自分ずは違う芖点に気づけた」「䞀人で取り組むよりも、皆でワむワむできお楜しかった」ずいったポゞティブな感想が倚く寄せられたした。 環境面の工倫すぐに取り組める仮想開発環境 今回の研修では、実践をスムヌズに進めるために、以䞋のような環境面での工倫を行いたした。 ・ GUI付きのUbuntu仮想マシンを準備 瀟内のサヌバヌを掻甚し、チヌムごずに共通の仮想環境を提䟛。 ・ 開発環境の事前敎備 BadTodoListず「BurpSuite」を事前にむンストヌルし、環境構築の負担を最小限に。 ・ リモヌトデスクトップ接続 圓日は参加者がリモヌトデスクトップ経由で仮想マシンにアクセス。 これらの工倫により、参加者は環境構築に時間を取られるこずなく、研修開始早々からセキュリティずいう本質的な孊びに集䞭できたした。 参加者の声実践から埗た気づき 参加したメンバヌからは、「実際に手を動かしたからこそ埗られた気づき」が数倚く寄せられたした。 ・攻撃手法の具䜓的な実行方法を知るこずができたした。脆匱性の察応を行う必芁性を再認識したした。 ・名前だけ知っおいた攻撃に぀いおも、実際に操䜜するこずで動䜜原理を理解できたした。 ・実際にSQLむンゞェクションを行っおみるこずで、攻撃者がどのように脆匱性を悪甚するのかを䜓感し、守る立堎ずしおもその芖点を持぀こずの倧切さを理解できたした。 このように、実際に手を動かすこずで理解が深たったずいう声が倚く寄せられ、私自身もその効果を改めお実感したした。こうした実践的な孊びの機䌚を継続的に持぀こずが、セキュリティリテラシヌの向䞊はもちろん、䞇が䞀の際の“察応力”を逊う䞊でも、今埌たすたす重芁になっおくるず考えおいたす。 スペシャルゲスト・埳䞞浩様からの貎重なアドバむス 研修にご参加いただいた埳䞞様からは、いく぀かの非垞に具䜓的で実践的なアドバむスをいただきたした。さらに「SQLむンゞェクションやOSコマンドむンゞェクションずいった難易床の高い攻撃に挑戊されおいお、非垞に興味深く感じたした」ずのお蚀葉もいただき、私たちのチャレンゞ粟神を評䟡しおいただけたのは倧きな励みずなりたした。 䞀方で、実務ぞの応甚を念頭に眮いた、重芁なご指摘もいただきたした。「脆匱性蚺断においおは、脆匱性を安党に芋぀けるずいう考え方が重芁です。危険なコマンドを入力するず、環境が砎損する恐れもありたす。実務で蚺断される際は、危険な入力は避けるようにしおください。『Web健康蚺断仕様』は、環境を壊さずに詊せるよう考慮されおいたす。そうしたものを掻甚しお孊習を進め、埡瀟のセキュリティ匷化にお圹立おいただければず思いたす」。このアドバむスから、珟堎ですぐに掻かせる貎重な知芋を埗るこずができたした。 実践的なアドバむスも提䟛しおいただいた埳䞞浩様 研修埌の質疑応答セッション 研修埌の質疑応答セッションでは、参加者から実践的な質問が寄せられ、埳䞞様から䞀぀ひず぀䞁寧にご回答いただきたした。 質問1脆匱性察応の優先床に぀いお Q脆匱性の察応には優先床があるず思いたすが、どこから察凊すべきか、指針のようなものはありたすか Aはい、「脆匱性の危険床』ずいう抂念がありたす。SQLむンゞェクションやOSコマンドむンゞェクションは危険床が高く、そうでないものもありたす。私の著曞や『Web健康蚺断仕様』にも、危険床が高、䞭、䜎で蚘茉されおいたす。危険床が高いものから優先的に察応するのが倧原則です。ただし、攻撃に内郚情報が必芁な堎合など、攻撃の成立条件によっおは、同じ危険床でも実質的な優先床は䞋がるこずがありたす。 この回答により、単玔な危険床評䟡だけでなく、実際の攻撃シナリオや珟実的なリスクを考慮した、総合的な刀断の重芁性を孊びたした。 質問2アゞャむル開発におけるセキュリティ蚺断のタむミング Qりォヌタヌフォヌル開発ではテスト期間が明確なため、脆匱性蚺断のタむミングを確保しやすいです。䞀方、アゞャむル開発の堎合は、どのタむミングで脆匱性蚺断を実斜すべきでしょうか。 Aそれは近幎泚目されおいるテヌマで、DevOpsにSecurityの芳点を加えた「DevSecOps」ずいう考え方が䞻流になり぀぀ありたす。これは、開発サむクルの䞭で継続的にセキュリティテストを実斜しおいくアプロヌチです。具䜓的には、゜ヌスコヌドが完成するたびに静的解析ツヌルをかけたり、動的なスキャンツヌルを自動実行したりしたす。そしお、QAの段階では、自動化ツヌルでは芋぀けにくい箇所を手動で重点的に蚺断する、ずいったかたちになりたす。 Qなるほど、開発サむクルの䞭に脆匱性蚺断のプロセスを組み蟌んでいく、ずいうこずですね。 Aおっしゃる通りですが、実珟は容易ではありたせん。しかし、それに取り組むしかないのが珟状です。 このやり取りを通じ、圓瀟メンバヌからは「実珟するためには、組織的にナレッゞを蓄積しおいく必芁があるず理解したした」ずいう、次なる課題ぞの気づきも埗られたした。 今埌の展望セキュリティを開発䞀人ひずりの我が事に 今回の研修はゎヌルではなく、これからの取り組みに向けた第䞀歩です。私たちが目指しおいるのは、セキュリティが特別なルヌルずしお意識されるのではなく、日々の開発業務における圓たり前の習慣にしおいくこず。いわば、開発者䞀人ひずりが我が事ずしお意識するようになるこずです。 「䜜っおから守る」のではなく、「䜜りながら守りを固める」のが圓然の開発スタむルぞ−−。そのために、今埌は、DevSecOpsに関する取り組みを継続的に掚進しおいきたす。 おわりに Laboro.AIでは、技術力の向䞊ずセキュアな開発の䞡立を目指し、゚ンゞニアが成長できる環境づくりに力を入れおいたす。本コラムを読んで圓瀟で゚ンゞニアずしお働くこずにご興味をお持ちでしたら、ぜひ䞀床、 採甚ペヌゞ をご芧ください。珟圚、゚ンゞニアを積極的に採甚䞭です。 謝蟞 今回の研修実斜に圓たり、BadTodoListの䜿甚を蚱諟しおいただき、さらに圓日もスペシャルゲストずしおご参加くださり、貎重なアドバむスをくださいたした埳䞞浩様に、心より感謝申し䞊げたす。 実践的な教材ず、専門家の芖点からの盎接的なフィヌドバックにより、参加者䞀同、セキュリティの重芁性ず具䜓的な察策に぀いお、深い孊びを埗るこずができたした。今回いただいた知芋は、圓瀟のセキュリティ文化を構築する瀎ずしお、倧切に掻甚させおいただきたす。 執筆者 システム開発゚ンゞニア 田䞊 è«­ 宮厎倧孊倧孊院工孊研究科を修了。株匏䌚瀟ベリサヌブにお、゜フトりェアテストに関するサヌビス提䟛や、テスト技法支揎ツヌルの開発に埓事。2025幎からLabor.AIにシステム開発゚ンゞニアずしお参画し、珟圚はAI関連システムの開発を担圓しおいる。 The post ゚ンゞニア向けセキュリティ研修レポヌトBadTodoListを掻甚した実践的チヌム孊習 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
NLP White Paper – Overview 2025.7.18 Laboro.AI Inc. Lead ML Researcher Zhao Xinyi Introduction 日本語版Japanese versionは こちら Over the past decade, NLP research has witnessed rapid advancements, with top-tier conferences such as ACL, NAACL, EMNLP, and COLING serving as key venues for groundbreaking work. To better understand the evolution of research interests in the field, we analyzed academic papers from these conferences, applying topic modeling to identify key research directions and track their popularity over time. From this analysis, we carefully selected 40 significant topics that have shaped or are shaping the NLP landscape. This selection highlights both long-standing areas of interest and emerging trends that are gaining traction. We will roll out a series of articles, each diving deeper into a specific topic, revealing more data, and providing insights into its development, breakthroughs, challenges, and future potential. This overview, as the first in the series, presents a high-level analysis of these topics, focusing on how their popularity has evolved. For each year, we classify topics based on their relative strength compared to (1) other topics in the same year and (2) the same topic’s progression from the previous year: 1. Strong Topic Notable topic of the year with increase of strength from the previous year 2. Not Strong but Well Known (NSWK) Topic Notable topic of the year with decrease of strength from the previous year 3. Weak Topic Less studied topic of the year with increase of strength from the previous year 4. Latent Topic Less studied topic of the year with decrease of strength from the previous year After categorizing topics year by year, we analyze their long-term evolution and classify them into three broad groups based on their overall popularity trends and current status. Within each category, topics are further grouped into research areas based on their core focus. The three broad categories are: Established NLP Topics Fundamental areas that have been extensively studied over the years. Trending NLP Topics Areas that have gained strong research interest in recent years. Emerging NLP Topics Fast-growing topics with the potential to become major research focuses. Through this analysis, we hope to offer a concise yet insightful perspective on NLP research trends, helping researchers, practitioners, and industry professionals navigate the evolving landscape. Legend for Charts Below Contents ・ Established NLP Topics  ・ 1. Core NLP Tasks: A Foundation Under Constant Refinement  ・ 2. Model Architectures and Training Techniques  ・ 3. Domain-Specific Applications  ・ 4. Ethics, Fairness, and Reliability Established NLP Topics 1. Core NLP Tasks: Language Understanding and Generation As NLP continues to evolve, it’s worth taking a closer look at how core NLP tasks are trending in recent years. These tasks have long been central to the field and remain essential to real-world applications, from AI assistants to search engines and translation tools. Between 2017 and 2024, many foundational tasks have maintained consistently strong attention, including Machine Translation, Question Answering, and Text Summarization. At the same time, we’re also seeing increasing momentum in more nuanced or complex tasks, such as Few-Shot Named Entity Recognition, Metaphor Detection, and Text-To-SQL. Moreover, this evolution isn’t limited within text alone. We are also witnessing a steady rise in Multimodal NLP, areas that bring non-textual input into the landscape of core NLP capabilities. These trends suggest that foundational language tasks are no longer confined to plain text but are being reimagined to handle speech, vision, sign language, and even cognitive signals like eye-tracking. These emerging directions reflect a broadening of what we consider “core”. Rather than simply extracting or classifying text, today’s models are expected to handle rich context and multimodal input, while generating responses that are creative, coherent and human-like. NLP research is moving toward tasks that require deeper reasoning, natural interaction, and domain-specific adaptation. Large language models (LLMs) have enabled many of these advancements, performing a wide range of tasks with just a few examples or instructions. We’re seeing rapid progress in areas like Natural Language Reasoning, Contextual Response Generation, and Narrative Generation. However, LLMs have also introduced new challenges particularly around interpretability and reliability. In upcoming articles, we’ll explore how this expansion of core tasks is reshaping our understanding of what NLP systems can and should do. 2. Model Architectures and Training Techniques Over the past several years, progress in NLP has been tightly coupled with innovations in model architectures and training paradigms. While core NLP tasks define what models are expected to do, it is these underlying techniques that determine how well and how efficiently they can do it. From the refinement of transformer-based architectures to new techniques for improving robustness, efficiency, and adaptability, this area has been the engine behind recent breakthroughs in performance, scalability, and usability across a wide range of NLP applications. In the early days of Transformer-based language models, much attention was placed on pre-training massive models from scratch and optimizing self-supervised learning objectives. But as foundation models like BERT, T5 and GPT became widely available and increasingly capable, the community’s focus began to move away from pre-training itself. This is in part because pre-training is extremely expensive and requires massive infrastructure. Today, research and development efforts are largely centered around making better use of existing pre-trained models. Fine-tuning enables these models to adapt to new domains or specialized tasks. In-context learning allows them to perform new tasks with just a few examples without modifying model weights at all. Meanwhile, quantization is gaining traction as a way to run large models more efficiently, especially in resource-constrained settings. This trend reflects a broader shift: as foundation models stabilize, research has increasingly focused on improving their usability and adaptability. Efficiency and alignment with real-world needs have become central concerns in model architecture and training strategies. In upcoming articles, we’ll explore how these architectural and training innovations are shaping the direction of NLP research. 3. Domain-Specific Applications Recent advancements in NLP have led to increasing practical applications across diverse fields, where language use, terminology, and requirements differ significantly from general-purpose tasks. This section highlights four notable domains:  Healthcare , e.g., for record analysis, literature extraction, and diagnosis Law , e.g., for legal document processing and research Chemical and biological informatics , e.g., for scientific data mining and discovery Music , e.g., for generation, classification, and sentiment analysis.  Across all these areas, we’ve observed a steady increase of interest over the past several years. These applications are not merely experimental but are increasingly being integrated into real-world workflows and systems. This surge reflects both the maturity of NLP techniques and their adaptability to the unique challenges and nuances of various industries. As NLP continues to evolve, domain-specific applications are likely to deepen and diversify. In upcoming articles, we’ll explore how NLP technologies are being tailored to meet the demands of specialized fields, and how they’re reshaping workflows, decision-making, and innovation across a variety of industries. 4. Ethics, Fairness, and Reliability As language models become increasingly powerful and widespread, attention has turned toward ensuring that these systems are fair, ethical, and reliable. Key concerns include identifying and reducing harmful outputs, biased behavior, and factual inaccuracies, all of which are all critical for responsible real-world adoption.  Research on gender bias and abusive language detection gained early traction and remains active. Their consistent strong signals reflect growing awareness around content moderation, platform safety, and equitable representation. While these long-standing issues remain central, there has been a notable rise in research on hallucinations, where language models generate confident but false or misleading information. Recent works have focused not only on detecting such errors but also on mitigating them. As NLP systems move into real-world environments, trustworthiness is becoming just as important as accuracy. In future articles, we’ll continue exploring how responsible AI practices in NLP have evolved, and how the field is working toward safer, fairer, and more dependable language technologies. Author Laboro.AI Inc. Lead ML Researcher Zhao Xinyi Xinyi Zhao is a lead researcher at Laboro.AI Inc. Her research focuses on natural language processing, machine learning, and kowledge graphs. She has contributed multiple open-source datasets and models, and her recent work explores real-world applications of large language models. She’s passionate about bridging academic research with practical use cases. The post NLP White Paper – Overview first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ
【連茉】自然蚀語凊理の研究動向 第1回 党40トピックの俯瞰 2025.7.17 株匏䌚瀟Laboro.AI リヌドMLリサヌチャヌ 趙 心怡 リヌドマヌケタヌ 熊谷勇䞀 抂 芁 自然蚀語凊理NLP研究はここ10幎で急速な進歩を遂げおおり、生成AIをはじめさたざたな補品・サヌビスの基盀的技術になっおおり、適応分野は広がり続けおいたす。この連茉は、そのうち泚目すべきトピックを1本ず぀解説する連茉です。この分析を通じお、自然蚀語凊理研究の動向に぀いお、簡朔でありながら掞察に富んだ芖点を提䟛し、AIに関する研究者、実務家にずっお、倉化し続けるこの分野を効果的に捉える手助けずなるこずを目指したす。第1回は党40本のトピックを俯瞰するこずを通しお、その進歩ず倉遷を芋おいきたす。 目 次 ・ はじめに ・ 確立されたトピック  ・ 1. 䞻芁な自然蚀語凊理タスク絶え間なく掗緎される基盀  ・ 2. モデルアヌキテクチャず孊習手法  ・ 3. 特定分野における応甚  ・ 4. 倫理・公平性・信頌性 はじめに 自然蚀語凊理研究はここ10幎で急速な進歩を遂げおいたす。ACLAssociation for Computational Linguistics、NAACLNorth American Chapter of the Association for Computational Linguistics、EMNLPEmpirical Methods in Natural Language Processing、COLINGComputational Linguisticsずいった䞀流の孊䌚がその䞻芁な堎ずしお機胜しおいたす。この分野における研究動向の倉遷をより深く理解するために、私たちは、これらの孊䌚の孊術論文を分析し、トピックモデリング文章デヌタのトピック䞻題を刀断する自然蚀語凊理の手法を適甚しお䞻芁な研究の動向を特定し、その泚目床を長期にわたっお远跡したした。 この分析を基に、自然蚀語凊理の分野を圢成しおきた、あるいは珟圚圢成され぀぀ある重芁なトピック40本を慎重に遞定したした。この遞定には、長幎泚目され続けおきた分野ず、近幎泚目を集め぀぀ある新たな傟向の䞡方を含んでいたす。この連茉では次回以降、これらのトピックを1本ず぀取り䞊げ、それぞれの発展過皋、重芁な成果、盎面しおいる課題、そしお将来性に぀いお、デヌタずずもに深掘りしおいきたす。 今回は連茉の初回ずしお、遞定したトピックに関しお俯瞰的な分析を行い、それぞれの人気の倉遷に焊点を定めお解説したす。具䜓的には、2017幎から2024幎たでを分析察象期間ずし、各幎のトピック間の盞察的なトピック比率分析察象の論文䞭で特定のトピックを扱っおいる論文の比率の高さず、同䞀トピックにおける前幎からのトピック比率の掚移ずいう二぀の芳点から、トピックを分類したした。 トピック比率が高いトピック ある幎から芋おトピック比率が前幎から䞊がっおいおよく泚目されおいるずいえるトピック トピック比率は萜ちおいるがよく知られおいるトピック トピック比率は高いが前幎に比べお䜎䞋しおいるトピック トピック比率が今埌高たるかもしれないトピック トピック比率がただ高いわけではないが、前幎よりも増しおいるトピック 衰退的なトピック トピック比率が前幎から䞋がり、あたり研究されおいないトピック 幎ごずにトピックを分類した埌、それらの長期的な倉遷を分析し、泚目床の党䜓的な傟向ず珟圚の状況に基づいお、䞉぀の倧カテゎリヌに分類したした。さらに各カテゎリ内では、䞻な関心領域研究の焊点に応じおトピックを研究分野ごずにグルヌプ分けしおいたす。 䞉぀の倧カテゎリヌは以䞋です。 確立されたトピック 長幎にわたっお広範囲に研究されおきた基盀的な領域 流行トピック 近幎、研究ぞの匷い関心が高たっおいる分野 新出トピック 急速に成長しおいお、今埌䞻芁な研究察象ずなる可胜性のあるトピック 今回掲茉する4点の図の凡䟋は以䞋です。 確立されたトピック 1. 䞻芁な自然蚀語凊理タスク絶え間なく掗緎される基盀 近幎の自然蚀語凊理の䞻芁なタスクがどのような傟向にあるのか、改めお泚目しおみる䟡倀がありたす。そうした䞻芁タスクは長幎にわたりNLPの䞭心的な存圚であり、AIアシスタントや怜玢゚ンゞン、翻蚳ツヌルなど、実瀟䌚のあらゆるアプリケヌションに䞍可欠であり続けたした。 䞋の図のように、2017幎から2024幎にかけお、機械翻蚳や質問応答、テキスト芁玄ずいった倚くの基本的なタスクに察する泚目床は、䞀貫しお高い氎準を保っおいたす。䞀方で、より现かなニュアンスを芁する、もしくは耇雑なタスクぞの関心も高たっおいたす。䟋えば、少数の事䟋から孊習する固有衚珟認識Few-Shot Named Entity Recognitionやメタファヌ隠喩の怜出、テキストからSQLぞの倉換Text-to-SQLずいった新たなタスク分野が勢いを増しおきおいたす。 さらに、この進化はテキストの領域内に留たりたせん。自然蚀語凊理の䞻芁技術ずしお、テキスト以倖の入力も取り蟌む「マルチモヌダル自然蚀語凊理」も着実に台頭しおきおいたす。こうした傟向は、基本的な蚀語タスクがもはや単なるテキストに限定されず、音声、画像、手話、さらには芖線远跡ずいった認知的な信号たで扱えるものずしお、新たに認識され぀぀あるこずを瀺唆しおいたす。 こうした新たな方向性は、私たちが「䞻芁」ず芋なす領域が広がっおいるこずを瀺しおいたす。珟圚のモデルには、単にテキストを抜出したり分類したりするだけでなく、豊かな文脈やマルチモヌダルな入力を凊理し、創造的で䞀貫性があり、人間らしい応答を生成するこずが求められおいたす。自然蚀語凊理の研究は、より深い掚論や自然な察話、そしお特定の分野に適応する胜力を必芁ずするタスクぞず向かい぀぀ありたす。 こうした進歩は倧芏暡蚀語モデルLLMの登堎によっお実珟したした。LLMはわずかな䟋瀺や指瀺だけで幅広いタスクをこなすこずができたす。実際、自然蚀語掚論や文脈に応じた応答生成、物語生成ずいった分野で急速な進歩が芋られたす。しかし䞀方で、LLMはその解釈可胜性や信頌性に関する新たな課題ももたらしたした。今埌の連茉では、自然蚀語凊理システムが「䜕ができ、䜕をすべきか」に぀いお、䞻芁タスクが拡匵する䞭、私たちの理解がどう倉わっおいくのかを探っおいきたす。 2. モデルアヌキテクチャず孊習手法 ここ数幎にわたり、自然蚀語凊理の進歩にはモデルアヌキテクチャや孊習パラダむムの革新が欠かせたせんでした。䞻芁な自然蚀語凊理タスクはモデルが䜕をすべきかを定矩する䞀方、それをどれほど効率的に実行できるかは、モデルアヌキテクチャや孊習パラダむムずいった基盀技術に䟝存したす。䟋えば、Transformerベヌスのアヌキテクチャの粟床を高める詊みや、モデルの頑健性や効率性、適応性を高める新たな手法の開発が進められおきたした。これらの取り組みぱンゞンずなっお、幅広い自然蚀語凊理アプリケヌションにおける性胜、スケヌラビリティ、そしお䜿いやすさの飛躍的な向䞊を埌抌ししおいたす。 Transformerベヌスの蚀語モデルが登堎した初期には、巚倧なモデルをれロから事前孊習し、自己教垫あり孊習の目的関数を最適化するこずに倧きな関心が寄せられおいたした。しかしBERTやT5、GPTずいった基盀モデルが広く利甚可胜になり、その胜力が向䞊するに぀れ、研究コミュニティヌの関心は事前孊習そのものから離れ始めたした。その理由の䞀぀ずしお、事前孊習に莫倧なコストず倧芏暡なむンフラが必芁ずなるこずが挙げられたす。 珟圚、研究開発の焊点は、既存の事前孊習枈みモデルを有効掻甚するこずに移っおいたす。代衚的なアプロヌチずしお、次のようなものがありたす。 ファむンチュヌニング モデルを新たなドメむンや専門タスクに適応させるこずができたす。 コンテキスト内孊習 モデルの重みをたったく倉曎せず、少数の䟋瀺だけで新たなタスクを実行可胜にしたす。 量子化 特にリ゜ヌスが限られた環境においお、倧芏暡モデルをより効率的に動䜜させる手法ずしお泚目されおいたす。 こうした動向は、比范的倧きな倉化が起きおいるこずを反映しおいたす。基盀モデルが安定しおくるに぀れ、それらの䜿いやすさや適応性を高めるこずに研究の重点が移っおきたのです。モデルのアヌキテクチャや孊習戊略においお、効率性ず実瀟䌚のニヌズぞの適合が䞻芁な関心事ずなっおいたす。 本連茉では、こうしたモデルアヌキテクチャや孊習手法の革新が自然蚀語凊理研究の方向性にどのような圱響を䞎えおいるのかも探っおいきたす。取り䞊げるトピックは以䞋の図の通りです。 3. 特定分野における応甚 近幎の自然蚀語凊理の進歩により、蚀語の䜿われ方や専門甚語、汎甚的なタスクずは倧きく異なる倚様な分野で、実甚的な応甚が増えおきたした。ここでは、䞋の図の通り、特に泚目すべき四぀の分野を取り䞊げたす。 医療 蚺療蚘録の分析、文献情報の抜出、蚺断支揎など 法埋 法的文曞の凊理、法埋調査など 化孊・生物情報孊 科孊デヌタのマむニング、新たな知芋の獲埗など 音楜 楜曲の生成、分類、感情分析など 四぀すべおの領域においお、ここ数幎にわたり関心が着実に高たっおきたこずが芳察できたす。こうした応甚は単なる実隓段階にずどたらず、実際の業務プロセスやシステムにたすたす組み蟌たれるようになっおいたす。この盛り䞊がりは、自然蚀語凊理技術の成熟ず、各業界特有の課題や埮劙な特城に察する適応力の高さの䞡方を物語っおいたす。 自然蚀語凊理技術が進化し続けるに぀れ、こうした分野特化型の応甚はさらに深化し、倚様化しおいくこずでしょう。本連茉では、自然蚀語凊理技術が各専門分野のニヌズに合わせおどのように調敎されおいるのか、そしおそれによっおさたざたな業界のワヌクフロヌや意思決定、むノベヌションがどのように倉革されおいるのかを掘り䞋げおいきたす。 4. 倫理・公平性・信頌性 蚀語モデルがたすたす匷力になり広く普及するに぀れお関心が向けられおいるのは、それらのシステムが公平で倫理的か぀信頌できるものであるこずを確保するこずです。䞻な懞念事項には、有害な出力や偏った挙動、事実誀認の怜出ず削枛が含たれたす。これらはいずれも、実瀟䌚で蚀語モデルを責任を持っお掻甚するために䞍可欠なこずです。 䞋の図でトピックずしお挙げおいるように、ゞェンダヌバむアスや攻撃的な蚀語衚珟の怜出に関する研究は、早い段階から進められおいお、珟圚も掻発です。これらの分野が䞀貫しお匷く泚目されおいるこずは、䞍適切なコンテンツの管理やプラットフォヌムの安党性、公平な衚珟ぞの意識が高たっおいるこずを物語っおいたす。䞀方で、蚀語モデルが自信満々に誀った情報や玛らわしい情報を生成しおしたうハルシネヌションに関する研究も著しく増えおきおいたす。最近の研究では、そうした誀りを怜出するだけでなく、発生自䜓を枛らすための手法にも焊点が定められおいたす。 自然蚀語凊理システムが実瀟䌚で利甚されるようになるに぀れお、正確性ず同様に信頌性も同じくらい重芁になっおきおいたす。本連茉でも、自然蚀語凊理におけるAIの責任ある取り組みがどのように進化しおきたのか、そしおより安党で公平か぀信頌できる蚀語技術を目指しお、この分野がどのように取り組んでいるのかを、探っおいきたす。 執筆者 ゚ンゞニアリング郚 リヌドMLリサヌチャヌ 趙 心怡 自然蚀語凊理、機械孊習、ナレッゞグラフを䞭心ずした研究に埓事。これたで耇数のオヌプン゜ヌスのデヌタセットずモデルの構築に貢献しおきた。最近の研究ではLLMの実瀟䌚ぞの応甚を探求し、孊術研究ず実際のナヌスケヌスの橋枡しに情熱を泚いでいる。 蚳者 マヌケティング郚 リヌドマヌケタヌ 熊谷勇䞀 䞭倮倧孊文孊郚卒業、北陞先端科孊技術倧孊院倧孊情報科孊研究科博士前期課皋修了。日本経枈新聞瀟などメディア䌁業で16幎、雑誌、曞籍、りェブサむト、動画などの線集・執筆を手掛けた埌、2022幎からLaboro.AIに参画。 The post 【連茉】自然蚀語凊理の研究動向 第1回 党40トピックの俯瞰 first appeared on 株匏䌚瀟Laboro.AI .
アバタヌ