TECH PLAY

電通総研

電通総研 の技術ブログ

836

こんにちは。CIT事業部の山田です。 本記事は、下記の方々を対象にした内容となります。 BtoB マーケティング を実施中で、「Marketing Automationツール(以後MAツールを記載)の効果を改善したい or もっと活用していきたい!」方 Salesforce 製品を導入済みで「MAツールの導入 or 製品移行を検討中」の方 また技術的な対応方法詳細に焦点を当てるのではなく、 「MAツール導入効果が見えにくい」「どう改善すべきか」 という課題に対して、BtoB マーケティング で必要なアクション/Account Engagement(旧Pardot)機能との マッピング を中心としています。 1.BtoBマーケティングとMAツール導入 2.BtoBマーケティングで必要なアクション↔︎Account Engagement機能とのマッピング 2-1.リード収集/ セグメント化 2-2.ジャーニーの作成 2-3.リードの引き渡し/選定 2-4.アポ/商談/クロージング/受注 2-5.顧客維持・育成 3.ジャーニーの作成・改善 AE導入によるデータ収集・分析 4.終わりに 参考・補足情報 採用関連リンク 1.BtoB マーケティング とMAツール導入 BtoB マーケティング を実施するために「MAツールを導入してみた」ものの、効果を感じられないという企業様が多く存在します。 参考:Sansan 2023年5月実施「BtoB マーケティング に関する実態調査」 https://jp.corp-sansan.com/news/2023/0601.html MAツールの導入目的は「効率的な受注獲得」にも関わらず、「リード(=見込み)を増やす」ことが目的となってしまっているケースも少なくないのではないでしょうか? ここで1つ質問をさせてください。皆様にとっての「質の良いリード(=見込み客)」とは具体的にどんな”ヒト”でしょうか? 上記を知り得るために、後述の図1:業務プロセス を繰り返し実施し、「効率的な受注獲得」に繋げていくのがBtoB マーケティング の基本だと思います。ただ、これら全てを”人手”で管理するのは作業負荷が高いため、「社内で一元化&効率的に管理したい!」と導入されるのがMAツールです。 言い換えれば、 上記機能を満たしていない(満たせない)MAツールを導入しても意味がない! とはいえMAツールを導入しただけではNG。ジャーニーはじめ、データ分析した結果をもとに改善&質の良いリードを見極めて効率的にアプローチ… etc. と常に改善・チューニングが必要! となります ▼図1:業務プロセス( マーケティング 部門とセールス部門での一般的な対応イメージ) 2.BtoB マーケティング で必要なアクション↔︎Account Engagement機能との マッピング ここからは、 Salesforce 社のMAツール製品の1つ Account Engagement(旧Pardot) (以後「AE」と記載)に絞り、先述した「業務プロセス」ベースでBtoB マーケティング で必要なアクション↔︎AE機能との マッピング を深掘りします。 2-1.リード収集/ セグメント化 ジャーニーを作成・改善する際に、切っても切れないのが「セグメント化」です。リードの属性ごとにジャーニーを分けて管理することが重要です。 AEでは「リスト」や「タグ」でセグメントを管理できます。(詳細は Salesforce社のヘルプ をご参照) セグメント化の一例) リスト 指定した条件や行動ログ、(後述の)Engagementプログラム上での条件分岐結果、外部データのインポート単位、画面上での個別指定 …etc. 多岐にわたる方法でリストを作成できます このリストにて、メルマガ配信先・除外先/Engagementプログラム上の分岐条件 等に流用可能です タグ ヒトやコンテンツ単位で、タグを複数付与することが可能で、このタグを用いてデータを絞り込むことが可能です ▼図2:リストの作成方法(一例) ダイナミックリスト機能 リードに関する情報をもとに、UI上で指定した項目・条件に合致するリードを自動抽出可能 2-2.ジャーニーの作成 ジャーニーを作成する上では、「売り手」(=読者の皆様)と「買い手」のアクションいずれも、条件分岐に設定することが重要となります。 AEの「Engagementプログラム」機能では多岐に渡る項目を、分岐条件として画面上で指定&実現可能です。(詳細は Salesforce社のヘルプ をご参照) Engagement プログラム AE側で管理しているコンテンツ・データ項目だけでなく、 Salesforce 側へのデータ連携なども、ジャーニーとして指定することも可能です。 さらにインテグレーションを行えば、3rd.Party連携側でのアクション結果(Engagementプログラム上では「外部アクティビティ」と表現)を分岐条件に設定することも可能です! 3rd.Party連携の利用例) ビデオ動画の視聴、Webinar受講、アンケート回答結果、SMS連携 …etc. から連携された値をもとに、条件分岐を設定可能 ▼図3:Engagement プログラム 2-3.リードの引き渡し/選定 マーケからセールスへリードを引き渡す際、リードの「関心度」「マッチ度」のスコアリングが重要です。営業側でリード選定できる情報が SFA ・ CRM 側に連携されていないと、無駄なアポ・商談が発生します。 AEでは Salesforce とコネクタ同期しており、AEで取得したデータを Salesforce 側( SFA ・ CRM )ににシームレスに連携&管理できることはもちろん、 Salesforce 側機能を活用して アサイ ンすることなども可能です リードの引き渡し/選定 の一例) AE側で取得・スコアリングしたデータを、 Salesforce 側に同期&参照可能 AE→SFにレコードを新規作成・同期する際に、営業担当者/キュー を自動 アサイ ン (AEの複数機能で本業務に関する設定が可能です。本記事ではオートメーションルール機能に絞っております) ▼図4:AE側で取得・スコアリングされたレコード ▼図5: Salesforce 側でのレコード表示 ▼図6:AE側で指定した条件に応じて、営業担当者/キュー を自動 アサイ ン 一例)「オートメーションルール」機能を用いて、自動 アサイ ンするようAE上で設定 2-4.アポ/商談/クロージング/受注 B2B マーケティング の場合、「リード」の獲得・育成においてDMU(Decision Making Unit)のどのタイプが「リード」になるかは、売り手側ではコン トロール できません。そのため受注までこぎつけるためには、DMUの把握も必要です。 しかし、DMUを把握し決裁者を特定したとしても、決裁者にのみ刺さるコンテンツ作成だけでは不十分です。 DMUのタイプに応じて興味・関心が異なるため、それぞれに適したコンテンツを作成するのが重要となります。 AEでは、容易に様々なコンテンツを作成& Salesforce と横断したコンテンツ流用も可能です。 標準機能 Lightningビルダーを用いて、 ドラッグ&ドロップ での直感的なコンテンツ作成が可能です もちろん、HTMLや CSS を用いた、細かいデザイン・レイアウトを実現可能なコンテンツ作成も可能です カスタマイズ 加えて、 Lightning Web Components ( ※2)を活用すれば、SalesfoorceとAEでの横断コンテンツとして多岐に渡り流用することも可能です ▼図7:Lihghtning ビルダーを用いたコンテンツ作成 2-5.顧客維持・育成 この「顧客維持・育成」プロセスについては「データ収集・分析/ 改善」と大きく関係しており、AEで利用する機能説明も重複してしまうため、次の章でまとめて説明します。 3.ジャーニーの作成・改善 AE提供機能を利用すれば、業務プロセスを自動化でき人手による管理削減に繋げられることは、ご理解いただけたかと思います。ただ実際にMAを導入した場合、次に障壁となるのは「データ収集・分析/ 改善」と「ジャーニーの作成・具体的な改善方法」かと思われます。 AEでは「収集・分析」を実施できる機能が購入時に付いてくる(※2)ため、導入後すぐにこのサイクルを実践できます。 ▼図8:一般的に推奨されている、データ収集・分析/ ジャーニー作成・改善方法 AE導入によるデータ収集・分析 AEでは、標準レポートと ダッシュ ボードが提供されるため、以下の視点でデータ収集・分析が可能です。【図9参照】 メールマガジン (一例) 開封 数、クリック数、バウンス率、CTRなど LP(一例) 訪問数、クリック数など さらに、AE購入時に付属してくるライセンスや機能(※2)を活用&カスタマイズすることで、より詳細なレポートと ダッシュ ボードを作成し視覚化できます。 CRM Analytics (旧:Tableau CRM) の レシピ機能 を用いれば、 Salesforce のユーザー情報とAEで取得したアクションを結合したデータを Analytics Studio 上で分析可能です。【図10参照】 もちろん、AE上で作成・管理しているコンテンツ単位での分析だけでなく、 Google Tag Manager や Google Analytics 側で一元管理・分析することも可能です。 ▼図9:AE標準レポート(配信したメール単位での分析) ▼図10:Analytics Studioでの分析 <本記事上の用語補足> ※詳細は Salesforce 担当営業等にご確認ください ・ CRM Analytics(旧:Tableau CRM および Einstein Analytics) = データ分析ツールとしての製品名 ・ B2B Marketing Analytics =  CRM Analytics上のアプリケーション名(≒フォルダー名) ・Analytics Studio =  CRM Analytics上の機能名(≒アプリケーションランチャー名) 4.終わりに 簡易ではありますが、AEで下記が実現可能な理由を"業務プロセスベース"でAE機能と マッピング しつつ説明いたしました。 「BtoB マーケティング で必要なアクションをカバー可能」 「ジャーニーをはじめ、データ分析した結果をもとに改善&質の良いリードを見極めて効率的にアプローチ可能」 ただし要件に応じて、やはりAE標準機能だけではカバーしきれずにカスタマイズが必要な箇所も一部存在します。 ▼図11:アクション&要件と、AE機能(標準/カスタマイズ可否)の マッピング 表(一例) 弊社では、Salesfoce側のカスタマイズを含む、横断的なAccount Engagementの導入・改善サポートも可能です。 「BtoB マーケティング を実施中で、AEの効果を改善したい or もっと活用していきたい方」 「 Salesforce 製品を導入済みで、MAツールの導入or移行を検討中の方」 上記に該当する方は是非、下記リンクよりお気軽にご相談ください! https://www.dentsusoken.com/request/cb2b 参考・補足情報 (※1)… Salesforce から提供されているSketchの プラグイン を使用してデザイン( モックアップ )を制作してみた 記事も公開済 です。ご興味のある方は是非こちらもご参照ください。 (※2)…ご利用製品のエディション・オプション購入可否に応じて、一部機能の利用可否が異なります。既にAE導入済のお客様は、 Salesforce 社の担当営業等にご確認ください。 採用関連リンク 私たちは一緒に働いてくれる仲間を募集しています! コミュニケーションIT 執筆: @yamada.shiori 、レビュー: @handa.kenta ( Shodo で執筆されました )
グループ経営ソリューション事業部社員の水上です(24年4月から3年目になりました!)。昨年、 日商簿記 1級を受験し合格することができました。この記事では、IT コンサルタント として働く私が簿記1級を受験した経緯や学習方法、資格取得して良かったこと・期待外れだったことをご紹介します。 <受験した経緯> ▶仕事内容のご紹介 まずは私の仕事内容について、簡単にご紹介します。 私が所属するグループ経営 コンサルティング 第1ユニット(GMC1ユニット)は、STRAVISという 連結会計 ソリューションを扱う部署です。私はその中で、STRAVISの コンサルタント として、システムの導入PJやセールスに携わっています。導入PJでは 経理 部のお客様とご相談しながら要件を決定したり、セールスではシステム導入を通じて 経理 部の連結決算業務がどのように効率化されるのかをご説明したりします。そのため、主に 経理 部のお客様と関わることが多い業務です。 詳細はこちらの記事 新卒3年目社員の働き方紹介(GMS事業部) にありますので、よろしければご覧ください! ▶受験を決意したきっかけ 簿記1級を決意したきっかけは、 経理 部のお客様の話す内容を正しく理解できるようになりたいと考えたことです。配属後はじめて アサイ ンされたPJでは、お客様の説明内容(主に 経理 業務について )をなかなか理解できず、議事録作成にかなり時間がかかってしまっていました。 そこで、残業がまだ少ない1-2年目の内に、当時の自分からすればちょっとハイレベルな簿記1級試験にチャレンジしてみよう!と考えました。 < 日商簿記 1級合格への道のり> 簿記1級に挑戦するぞ!と決意したのが2022年12月、試験に合格したのが2023年11月(合格発表は2024年1月)でした。受験期間が約1年間と長期のため、時期により取り組んでいた内容が異なります。 ▶試験結果 2023年6月   164回試験:38点(不合格) 2023年11月 165回試験:88点(合格) ※ボーダー:70点 ▶学習記録 2023年1月〜2023年11月 1月  2級復習 2月-5月  テキスト読込&確認問題挑戦 5月-6月  過去問演習 7月    休憩 会計本を読む等のみ 8月-11月 問題演習※ ※基礎から過去問レベルまで満遍なく、商会:工原を6:4程度でこなす。 ▶学習時に取り組んで良かったこと ①勉強時間の記録・公表 (8月以降) 6月試験の結果を受けて、さすがにまずいと思い勉強時間の記録を始めました。 今まで「勉強は量より質、理解してるかどうかが大切」と思って重要視していなかったのですが、すごく効果的でした。社会人はそもそも勉強時間をなかなか確保できていないことが多いので、まずはそれを可視化するのがオススメです。 私は、記録を始めてから「そもそも勉強時間を確保できていない」ことに気が付いたので、自習室を契約して土日は必ず行くようにしていました。 使用アプリ:YPT 勉強時間を記録して統計を確認できます。任意のグループに所属すると、メンバーの学習状況も分かります。「この人めっちゃ勉強してる、私も頑張らなきゃ!」と勝手にライバル認定して勉強していました。 ②読書 勉強する気持ちが起きなかったときは、会計本を読む等をして勉強から逃げていました。現実逃避のつもりでしたが、会計の基礎の部分への理解度がぐっと高まったのでとても良かったです。資格勉強では「どう点を取るか」についつい意識がいきがちですが、時間がある時にはそもそもなぜそのような決まりになっているのか?を本でじっくり勉強するのも、土台作りには有益だと思います! ↑おすすめの本です! <業務への影響> 簿記1級の勉強を通じて、「システムで何を実現するのか?」のゴール部分をよく理解できたことで、システムの機能への理解が深まりました。それによって、システムのデモンストレーションを実施する際にも、データを取捨選択したり自分で考えて入れたりすることもできるようになりました。また、当初の目的であった「お客様の話をちゃんと理解できるようになりたい」についても、期待する成果が得られたと感じています。例えばセールスでも、「お客様からの質問を聞き、求める情報を理解して説明する」という一連の流れをスムーズに行えるようになってきました。 簿記1級を勉強しても期待外れだったこともありました。簿記1級取得によりシステムのほとんどを理解できるのではないかと期待していましたが、そんなことはなかったです。例えば「このデータは小数点以下〇桁で持っている」「処理Aと処理Bは必ずA→Bの順に処理が走る」など、保持するデータ種類や処理ロジックなどのシステム理解はまだまだ不足していると感じています。またお客様の話を理解することにおいても、学習簿記と実務とでは異なる点も多いためまだまだ勉強していくべきことが多いです。 ただ、それらは学習簿記で学んだ土台があれば隙間を埋めていくようにインプットしていけば良い事項であり、また土台があることでインプット効率も上がるのではないかとも考えています。総じて、簿記1級取得は今のところ業務に大変役立っています! <最後に> この記事では、IT コンサルタント として働く私の簿記1級受験体験談をご紹介しました。ひとくちに IT技術 者といっても、情報系に特化した人はもちろん、会計系に特化した私みたいな人もいるんだ、ということが伝わっていれば幸いです。 就活生の皆さんの中には、情報系専攻ではないけれど 電通 総研に興味を持ってくださっている方もいらっしゃると思います。入社してから情報系の道を極めるもよし、会計系など独自路線を極めるもよし!いろんな人が楽しく働いている会社です。興味を持ってくださった方は、以下のページをぜひご覧ください。 私たちは共に働いていただける仲間を募集しています! みなさまのご応募、お待ちしています! 連結会計システム導入プロジェクトマネージャー <連結会計業務領域>業務スペシャリスト/BPOリーダー ◎IT業界未経験者歓迎 (大阪)会計システム導入PM/メンバー(財務会計/経営管理/連結会計)    株式会社電通総研 新卒採用 執筆: @mizukami.koharu 、レビュー: @akutsu.masahiro ( Shodo で執筆されました )
こんにちは。コーポレート本部 サイバーセキュリティ推進部の耿です。 Amazon Translate による GuardDuty の説明の 機械翻訳 電通 総研では社内向け クラウド SOC として、案件が管理している AWS アカウントで発生した GuardDuty アラートを集中して監視し、担当者へ通知しています。( 参考 ) GuardDuty 検出結果には説明(Description)フィールドがあり、検出内容の要約が文章で示されています。 (例) "Description": "APIs commonly used in Impact tactics were invoked by user AssumedRole : my-role under unusual circumstances. Such activity is not typically seen from this user.", 英語だと分かりづらいことがあるので、案件担当者に通知する時には Amazon Translate のリアルタイム翻訳を利用して、日本語に 機械翻訳 した説明も合わせてお知らせしています。 import { TranslateClient , TranslateTextCommand , TranslateTextCommandInput } from "@aws-sdk/client-translate" ; const client = new TranslateClient (); const command = new TranslateTextCommand ( { Text : "APIs commonly used in Impact tactics were invoked by user AssumedRole : my-role under unusual circumstances. Such activity is not typically seen from this user." , SourceLanguageCode: "en" , TargetLanguageCode: "ja" , } ); const result = await client.send ( command ); console .log ( result.TranslatedText ); 翻訳結果 インパク ト戦術でよく使われる API は、通常とは異なる状況下で AssumeDrole: my-role というユーザーによって呼び出されました。このようなアクティビティは、通常、このユーザーからは見られません。 概ね自然な日本語に翻訳してくれている印象ですが、一部の用語が(翻訳前からそもそも)分かりにくいことがありました。 例えば「 インパク ト戦術」と言われてもすぐにピンとくる人はあまりいないでしょう。(原文でも Impact tactics で分かりづらい。Impact というのは GuardDuty において脅威の目的によるカテゴリ分けの一種である。) カスタム用語で Amazon Translate の翻訳をカスタマイズ Amazon Translate には カスタム用語 という機能があり、特定の用語の翻訳を事前に登録しておくことができます。これを利用すると翻訳文をより分かりやすくすることができると思いました。 その際、既存の継続的デリバリーの仕組みを利用するために、カスタム用語の登録は CDK で行いたいと思いました。 まずカスタム用語の翻訳の マッピング を CSV ファイルで用意します。 今回は「Impact tactics 」をより説明的に「データやプロセスの改ざんが目的」という翻訳に割り当てます。 terminology. csv en,ja Impact tactics,データやプロセスの改ざんが目的 Persistence tactics,AWS環境への不正アクセスを維持することが目的 あとはこれを Translate に登録するわけですが、残念ながら Translate サービスのリソースは CloudFormation による作成がサポートされていません。(2024/3時点) こんな時はカスタムリソースを利用します。シンプルな AWS API の呼び出しを行うカスタムリソースなら、CDK の AwsCustomResource コンスト ラク トで簡単に構築することができます。 // カスタムリソースが使用するポリシー const policyStatement = new iam.PolicyStatement ( { resources: [ "*" ] , actions: [ "translate:ImportTerminology" , "translate:DeleteTerminology" ] , effect: iam.Effect.ALLOW , } ); // 用語ファイルを読み込み const terminology = fs.readFileSync ( "terminology.csv" , "utf-8" ); const terminologyName = "my-terminology" ; // カスタムリソース作成 new AwsCustomResource ( this , "Terminology" , { // リソース作成時:importTerminology APIでカスタム用語を登録 onCreate: { service: "Translate" , action: "importTerminology" , physicalResourceId: PhysicalResourceId. of( "translate-terminology" ), parameters: { Name: terminologyName , MergeStrategy: "OVERWRITE" , TerminologyData: { File: terminology , Format: "CSV" } , } , } , // リソース更新時:同じくimportTerminology APIでカスタム用語を上書き onUpdate: { service: "Translate" , action: "importTerminology" , parameters: { Name: terminologyName , MergeStrategy: "OVERWRITE" , TerminologyData: { File: terminology , Format: "CSV" } , } , } , // リソース削除時:deleteTerminology APIでカスタム用語を削除 onDelete: { service: "Translate" , action: "deleteTerminology" , parameters: { Name: terminologyName , } , } , policy: AwsCustomResourcePolicy.fromStatements ( [ policyStatement ] ), } ); デプロイ後、 AWS マネジメントコンソールからもカスタム用語が登録されていることが確認できます。 カスタム用語を利用して翻訳を実行させると、より分かりやすい説明文になりました。 const command = new TranslateTextCommand ( { Text : "APIs commonly used in Impact tactics were invoked by user AssumedRole : my-role under unusual circumstances. Such activity is not typically seen from this user." , SourceLanguageCode: "en" , TargetLanguageCode: "ja" , TerminologyNames: [ "my-terminology" ] , // 登録した用語を使用させる } ); const result = await client.send ( command ); console .log ( result.TranslatedText ); 翻訳結果 データやプロセスの改ざんが目的でよく使われる API は、通常とは異なる状況下で AssumeDrole: my-role というユーザーによって呼び出されました。このようなアクティビティは、通常、このユーザーからは見られません。 私たちは一緒に働いてくれる仲間を募集しています! キャリア採用 クラウドアーキテクト 執筆: @kou.kinyo 、レビュー: @yamada.y ( Shodo で執筆されました )
はいどーもー! コミュニケーションIT事業部の宮澤響です! 本日は4月1日! ということで、(4月入社前提の新卒一括採用形式を導入している企業の)新入社員のみなさま、入社おめでとうございます! 慣れない環境で戸惑うことや大変なことも多いかもしれませんが、私としては 心身ともに健康でいてくれればそれだけで100点満点 かなと思っていますので、無理せずほどほどに頑張っていただければと思います…! さて、本記事では、Teamsカレンダーで誤って オンライン会議 オンで登録してしまった予定をあとから オンライン会議 オフに変更する小技をご紹介します! エイプリルフールではありますが、嘘は記載していませんのでご安心ください…!笑 前置き①:こんな経験ありませんか 前置き②:こうならないために 本編 結論 余談 おわりに 前置き①:こんな経験ありませんか あなたのTeamsカレンダーのある時間帯に、Zoomで開催される打ち合わせの予定が登録されています。 打ち合わせの開催時刻になったので、あなたは 参加 ボタンから、打ち合わせに参加しました。 しかし、開始時刻を過ぎても、一向に他の参加者が入室してきません。 不審に思ったあなたは、自分が開催時刻を勘違いしていないか、予定の詳細画面を今一度確認します。 そこであなたはこの打ち合わせがZoom開催であることに気づき、詳細画面に記載されていたリンクから慌ててZoomでの打ち合わせに参加し直します。 「遅くなってしまい申し訳ございません…!」 前置き②:こうならないために 上述の予定は、デフォルトのまま オンライン会議 オンで登録されていたため、 参加 ボタンが表示されていました。 そのため、 参加 ボタンが表示されないように、 オンライン会議 をオフに設定しておけば、上述の事態は防げたことになります。 しかし、予定の詳細画面を確認すると、 オンライン会議 のトグルボタンがオンのままグレーアウトしています。 そのため、トグルボタンを操作して直接 オンライン会議 をオフに変更することはできないようです。 (※複数環境で確認しましたが、バージョンやテナントの権限設定などに依存している可能性はあります。) もちろん、この予定自体を丸ごと削除して、最初から オンライン会議 をオフに設定した予定を登録し直すことは可能です。 しかし、多数の参加者が含まれる予定の場合には、登録する側も参加者全員を入力し直す必要があるため面倒ですし、登録される側も必要に応じて 承諾 をし直す必要があるため面倒です。 また、通知メールも再送信されることになります。 そのため、可能であれば、既に登録されている予定を オンライン会議 オフに設定変更したいところです。 ということで、そのような方法がないか、次のセクションで試行錯誤してみます。 本編 まずはTeamsカレンダーに 宮澤テスト という予定を登録してみます。 登録された予定を確認すると、 場所 が Microsoft Teams Meeting となっていて、 参加 ボタンが表示されています。 これは、上述のとおり、デフォルトでは オンライン会議 がオンになっているためです。 そこで、試しに 場所 の欄の Microsoft Teams Meeting を削除して保存してみます。 更新した予定を確認すると、 場所 の欄こそ削除されているものの、 参加 ボタンは表示されたままです。 また、詳細画面でも、 オンライン会議 がオンのままです。 そこで、次は 会議の詳細 の欄の記述を削除して保存してみます。 更新した予定を確認すると、 参加 ボタンが表示されておらず、 オンライン会議 がオフになっています。 どうやら、 会議の詳細 の欄の記述が、 オンライン会議 のオンオフと関係しているようです。 今度は、 場所 の欄の Microsoft Teams Meeting を残した状態で、 会議の詳細 の欄の記述を削除してみます。 更新した予定を確認すると、 参加 ボタンが表示されておらず、 オンライン会議 がオフになっています。 また、 場所 の欄の Microsoft Teams Meeting が自動で削除されています。 以上の結果から、 オンライン会議 をオフにするためには、 場所 の欄の Microsoft Teams Meeting は手動で削除する必要がなく、 会議の詳細 の欄の記述のみを削除すればよいことを確認できました。 結論 Teamsカレンダーで誤って オンライン会議 オンで登録してしまった予定をあとから オンライン会議 オフに変更するためには、 会議の詳細 の欄の記述を削除 すればOKです! 余談 厳密には、 会議の詳細 の欄の記述に含まれる 今すぐ会議に参加する の部分のみを削除(またはリンク先を別のURLに変更)するだけで、 オンライン会議 をオフにできます。 記述を残しておく必要性はおそらく皆無(むしろ削除した方が綺麗)ですが…。 おわりに 本記事では、Teamsカレンダーで誤って オンライン会議 オンで登録してしまった予定をあとから オンライン会議 オフに変更する小技をご紹介しました! 最初から オンライン会議 オフで登録しておけば実施する必要のない操作ではありますが、いざというときのために頭の片隅にでも入れておいていただけると幸いです。 最後までお読みいただき、本当にありがとうございました! 私たちは同じ事業部で共に働いていただける仲間を募集しています! みなさまのご応募、お待ちしています! <電通×IT>電通グループ基幹システムプロジェクトマネージャー エンタープライズ向けDX推進リーダー/エンジニア <電通×IT>クラウドアーキテクト <電通×IT>アプリケーションアーキテクト 製品・プラットフォーム開発エンジニア 執筆: @miyazawa.hibiki 、レビュー: @ozaki.hisanori ( Shodo で執筆されました )
こんにちは。XI 本部 AIトランスフォーメーションセンター 所属の山田です。 今回は比較的にライトな内容で、 GitHub Actionsのワークフロー設計のTipsを紹介したいと思います。 紹介するワークフロー ここで紹介するワークフローは、Node.js系アプリケーションで静的解析、テスト、ビルド実行を想定したものになります。 依存関係インストール用のジョブ このワークフローの特徴は、依存関係の解決に重点を置き、取得した依存関係をキャッシュエントリに追加することを目的とするsetupジョブを配置している点です。 setupジョブの定義部分を抜粋すると以下になります。 jobs: setup: runs-on: ubuntu-latest defaults: run: shell: bash steps: - name: Check out repository uses: actions/checkout@v3 - name: Set up Node.js uses: actions/setup-node@v2 with: node-version: ${{ env.NODE_VERSION }} cache: 'yarn' cache-dependency-path: '**/yarn.lock' - name: Get yarn cache directory path id: yarn-cache-dir-path run: echo "dir=$(yarn cache dir)" >> $GITHUB_OUTPUT - uses: actions/cache@v3 id: yarn-cache # use this to check for `cache-hit` (`steps.yarn-cache.outputs.cache-hit != 'true'`) with: path: | **/node_modules ${{ steps.yarn-cache-dir-path.outputs.dir }} key: ${{ runner.os }}-yarn-${{ hashFiles('**/yarn.lock') }} - name: Install dependencies if: steps.yarn-cache.outputs.cache-hit != 'true' run: yarn setupジョブでの依存関係の解決部分でもキャッシュがヒットする場合は、キャッシュを利用するようにしています。 静的解析、テスト、ビルドのジョブの並列実行 静的解析、テスト、ビルドの3つのジョブはそれぞれ独立して実行可能なため並列に実行します。 ※ GitHub Actionsでは依存関係を指定しない限りジョブは並列に実行されます。 それぞれのジョブ定義で needs: setup と記述します。 lint: needs: setup # 省略 test: needs: setup # 省略 build: needs: setup # 省略 ジョブの依存関係にsetupジョブに指定しているため、各ジョブの依存関係の解決時には常にキャッシュが利用され、処理がスキップされるため静的解析、テスト、ビルドが速やかに開始されます。 ワークフローの実行時間 今回の例のワークフローの実行時間を確認すると、setupジョブの2分36秒、並行実行されるジョブの中で最も時間のかかったbuildジョブの実行時間1分30秒を加え、4分6秒ほどで開発者は静的解析、テスト、ビルドの結果を確認できます。 なお上記はsetupジョブでキャッシュがヒットしなかった場合になります。 setupジョブでキャッシュがヒットする場合も確認してみると、setupジョブで47秒、並行して実行されるジョブの中で最も長かったbuildジョブの1分12秒を足して1分59秒ほどで開発者は静的解析、テスト、ビルドの結果を見ることができます。 ただしジョブの実行時間の請求は秒数が切り上げで計算される点には注意が必要です(画像中のBillable time部分をご参照ください)。 まとめ 本記事では GitHub Actionsのワークフローを設計する際に依存関係の解決だけを行うsetupジョブを用意することで後続のジョブを並行して速やかに実行するというTipsを紹介しました。 記事ではNode.jsを例に説明しましたが、 Java やGo、 Python などの多くの プログラミング言語 で活用できる方法だと思います。ぜひ試してみてください。 参考 依存関係をキャッシュしてワークフローのスピードを上げる - GitHub Docs 執筆: @yamada.y 、レビュー: @kinjo.ryuki ( Shodo で執筆されました )
こんにちは。 電通 総研コーポレート本部システム推進部の山下です。 AWS でサービスを構築していると、固定IPでサービスを公開したい場合があります。 DNS などのIPで通信先を指定するようなサービスでは、 AWS ではNetwork LoadBalancer(NLB)を利用するのが一般的です。 本記事では、 AWS Cloud Development Kit (CDK) を使ってElastic Container Service (ECS) とNLBを組み合わせてサービスを公開する方法について紹介します。 CDKのNetworkLoadBalancedFargateServiceを使ってサービスを公開する CDKの NetworkLoadBalancedFargateService を利用すると、簡単にNLBとFargateを組み合わせたサービスの構築が出来ます。 しかし、以下のような形でこの関数だけを呼び出して cdk deploy を実施すると失敗します。 const loadBalancedFargateService = new NetworkLoadBalancedFargateService ( this , "Service" , { memoryLimitMiB: 1024 , cpu: 512 , taskImageOptions: { image: ecs.ContainerImage.fromRegistry ( "nginx" ) } , } ); これは、 NetworkLoadBalancedFargateService で構築されたFargateにはSecurityGroupが適切に設定されておらず NLBからのヘルスチェックに失敗してしまうため cdk deploy にも失敗してしまうためです。 例えば、以下のような記述を追加して特定のポートに対するアクセスを許可する必要があります。 const myService = loadBalancedFargateService.service ; const mySg = myService.connections.securityGroups [ 0 ] ; mySg.addIngressRule ( ec2.Peer.ipv4 ( '0.0.0.0/0' ), ec2.Port.tcp ( 80 ), 'SSH frm anywhere' ); これで、NLBからのヘルスチェックが動くようになり cdk deploy が成功します。 UDP のサービスをNLBで公開する NLBで UDP のサービスを公開するには、NLBのヘルスチェックは TCP を使った通信で実施されるということに注意する必要があります。 つまり、 UDP のサービス単体ではNLBのヘルスチェックに応答することが出来ず公開できないということになります。 ECSからサービスを公開する場合にもこれは同様です。 ECSのServiceに2つのタスクを起動し片方をヘルスチェック用として公開するなどの工夫を行う必要があります。 例えば以下のように、 UDP でサービスを公開するタスクのタスク定義を作ります。 // ECS Clusterの作成 const cluster = new ecs.Cluster ( this , 'udp-service-cluster' , { vpc: vpc // 事前に作成してあるVPC } ); const taskDef = new ecs.FargateTaskDefinition ( this , "udp-task" , { family: 'udp-task' , memoryLimitMiB: 512 , cpu: 256 , executionRole: execRole , // 事前に定義してあるRole taskRole: taskRole // 事前に定義してあるRole } ); const repository = Repository.fromRepositoryName ( this , "udp-service-registry" , 'udp-service' ); taskDef.addContainer ( "udp-service-container" , { containerName: "udp-service" , image: ecs.ContainerImage.fromEcrRepository ( repository , 'latest' ), portMappings: [{ containerPort: 1234 , protocol: ecs.Protocol.TCP }] } ) // CDK上でUDPしか公開していないタスク定義はエラーになるので以下のように addPropertyOverrideで対応する const td = taskDef.node.defaultChild as ecs.CfnTaskDefinition ; td.addPropertyOverride ( 'ContainerDefinitions.0.PortMappings.0.Protocol' , 'udp' ); これで、 UDP だけを公開するタスク定義は作成できます。 これに加えて、ヘルスチェック用に追加でコンテナを稼働させるように変更します。 ここでは、以下のようなシェルの ワンライナー で動作するような簡易サーバを動作させてヘルスチェックに応答させることにします。 8080番ポートで動作し、'ok' と返すだけのサーバ(もどき)です。 これでは実際のサービスのヘルスチェックにはなりません。あくまでNLBからのヘルスチェックに応答させるためのものです。 死活監視は別の方法で担保する必要があることに注意してください。 const healthCheckcontainer = taskDef.addContainer ( "healthcheck-container" , { image: ecs.ContainerImage.fromRegistry ( "busybox:latest" ), entryPoint: [ "sh" , "-c" ] , command: [ "while true; do { echo -e 'HTTP/1.1 200 OK\r\n'; echo 'ok'; } | nc -l -p 8080; done" ] } ) healthCheckcontainer.addPortMappings ( { containerPort: 8080 , } ); そして、このタスク定義を使ったFargateServiceを作ります。 アクセスを許可するためのセキュリティグループも合わせて作ります。 const secGroup = new ec2.SecurityGroup ( this , 'ntp-sg' , { vpc: vpc , allowAllOutbound: true } ); secGroup.addIngressRule ( ec2.Peer.ipv4 ( '0.0.0.0/0' ), ec2.Port.udp ( 1234 ), 'for UDP service' ); secGroup.addIngressRule ( ec2.Peer.ipv4 ( '0.0.0.0/0' ), ec2.Port.tcp ( 8080 ), 'for healthCheck' ); const fargateService = new cdk.aws_ecs.FargateService ( this , 'udp-service' , { cluster , taskDefinition: taskDef , assignPublicIp: false , securityGroups: [ secGroup ] , enableExecuteCommand: true , } ); ここまでで、 UDP サービスを公開するFargateは完成しました。 あとは、公開に利用するNLBの構築、ターゲットグループなどの設定を行う必要があります。 // NLB を作成する const nlb = new NetworkLoadBalancer ( this , 'udp-service-nlb' , { internetFacing: false , // 今回は内部向けサービスを想定 vpc: vpc , crossZoneEnabled: false , ipAddressType: IpAddressType.IPV4 , } ); const listener = nlb.addListener ( 'udp-service-listener' , { port: 1234 , protocol: lb.Protocol.UDP } ); listener.addTargets ( 'udp-service-tg' , { port: 1234 , protocol: lb.Protocol.UDP , targets: [ fargateService.loadBalancerTarget ( { containerName: "udp-service" , containerPort: 1234 } ) ] , deregistrationDelay: Duration.seconds ( 300 ), // 作成したヘルスチェック用のコンテナに通信するよう設定 healthCheck: { port: "8080" , protocol: lb.Protocol.TCP } } ); これで、NLBと作成したFargateの連携ができるようになりました。 ヘルスチェック向けのコンテナ追加などの手間は増えてしまいますが、 NLBと連携させることで可用性や冗長性の確保、IPの固定などが可能になりました。 まとめ 今回はNLBとECSの組み合わせでサービスを公開する際のハマりポイントを紹介してみました。 注意点をまとめますと セキュリティグループの設定を実施しないとヘルスチェックに失敗する UDP のサービスを公開する場合でも TCP でヘルスチェックは実施される この2点となります。 もし、NLBを使ってサービス公開する場面があったら本記事が参考になれば幸いです。 執筆: @yamashita.tsuyoshi 、レビュー: @kinjo.ryuki ( Shodo で執筆されました )
こんにちは、コーポレート本部 サイバーセキュリティ推進部 セキュアシステムデザイングループの福山です。 今回は、 AWS の脅威検知サービス Amazon GuardDutyで利用できる マルウェア 検出機能「 Malware Protection」について整理してみました。 サーバーにおけるマルウェア対策について Malware Protectionとは Malware Protectionのスキャン手法 従来のアンチウイルスソフトとの比較 有効化・実行する方法 実行型マルウェアスキャンの場合 オンデマンドスキャンの場合 スキャン結果の確認方法 費用 Malware Protectionのユースケース別の活用例 最後に サーバーにおける マルウェア 対策について マルウェア とは、ウイルス、 トロイの木馬 、ワーム、 スパイウェア 、そして近年被害が話題になっている ランサムウェア などの総称です。 マルウェア の脅威は Windows だけに及ばず、近年では Linux のサンプル数も急速に増加傾向にあります。 参考: https://atlasvpn.com/blog/linux-malware-on-a-rise-reaching-all-time-high-in-h1-2022 また、EC2 インスタンス への 不正アクセス などによって マルウェア が仕込まれるケースや、さらにその インスタンス が感染源となり、他のクライアント端末にも マルウェア が広がるケースもあります。 このように、クライアント端末だけでなくサーバー側でも マルウェア 対策が必要になってきています。 そこで AWS のソリューションの一つとして、 Amazon GuardDutyの Malware Protectionをご紹介します。 Malware Protectionとは 以下、 Malware Protectionの概要について要点をまとめてみました。 エージェントレスで動く、フルマネージドな マルウェア 検出オプション EC2とEC2上で動作するコンテナ(ECS、EKS)をスキャン対象とする [ NEW ] 2024年2月より、 AWS 管理のキー(KMS)で暗号化されたEBSもスキャン対象に! 駆除/削除/隔離は実施しない( マルウェア の検出のみ) 一時的にEBSのスナップショットを作成し、それに対してスキャンをかけるためパフォーマンスへの影響なし 実行した分だけ費用が発生する従量課金制となっており、東京リージョンで0.05USD/GB 動的に増減するコンテナワークロードや、通信が制限されたプライベートサブネット上の インスタンス 、停止中の インスタンス に対してもスキャン可能 Security Hub やGuardDutyマルチアカウント構成による集約が可能 Malware Protectionのスキャン手法 スキャン手法は2種類あります。 実行型 マルウェア スキャン オンデマンドスキャン 概要 マルウェア の挙動に関連性のある 特定のGuardDutyアラート をトリガーに実行される ユーザーの任意のタイミングで実行できる スキャンの待ち時間 前のスキャンから24時間空ける必要あり 前のスキャンから1時間空ける必要あり 30日の無料期間 あり なし 従来の アンチウイルスソフト との比較 一般的なエージェント型で有償の アンチウイルスソフト や無償ツールと比較してみました。 Malware Protection 有償の アンチウイルスソフト Microsoft Defender(デフォルト) ClamAV 検出方法 パターンマッチング(スキャンエンジンには、 AWS 独自の検出エンジンと Bitdefender が取り入れられている) パターンマッチング以外に振る舞い検知といった高度な検出手法が可能な製品もある パターンマッチング パターンマッチング マルウェア の駆除/削除/隔離 不可 可 可 可 リアルタイムスキャン できない ※GuardDutyアラートをトリガーにしたスキャンは可 可 可 可 サーバへの負荷 なし あり あり あり ユーザーによる初期設定 AWS アカウント単位で、数クリックで完了 サーバー単位でエージェントのインストールが必要 不要 サーバー単位でエージェントのインストールが必要 ユーザーによる定義ファイルの更新 不要 必要 必要 必要 集中監視の仕組み AWS アカウント単位でリソース設定が必要(マルチアカウント構成やSecurity Hubでのアカウント集約も可能) 集中管理サーバーなどを用いれば標準機能として利用できる製品が多い サーバー単位でのカスタマイズが必要 サーバー単位でのカスタマイズが必要 サポートによる検体の解析 不可 可 可 不可 課金体系 従量課金 定額課金 - - 有効化・実行する方法 実際に Malware Protectionを利用する方法について紹介します。 まずは前提としてGuardDutyを有効化する必要があります。また、通知する仕組みも作っておくことをおすすめします。 参考: https://docs.aws.amazon.com/ja_jp/guardduty/latest/ug/guardduty_findings_cloudwatch.html#guardduty_cloudwatch_severity_notification 実行型 マルウェア スキャンの場合 GuardDutyコンソール -> Malware Protection -> GuardDuty が開始する マルウェア スキャン -> 有効にする タグを使用して、特定の インスタンス だけスキャン対象にするといったことも可能 オンデマンドスキャンの場合 GuardDutyコンソール -> マルウェア スキャン -> 新しいオンデマンドスキャンを開始 EC2 インスタンス ARN にて以下ARNを入力し、確認 をクリック arn: aws :ec2:ap-northeast-1:{account_id}:instance/{instance_id} スキャン結果の確認方法 検出後、スキャン結果を確認する方法について紹介します。 GuardDutyコンソール -> マルウェア スキャン にてスキャンステータスが Completed になった後に結果を確認できる スキャン結果の種類はClean(問題なし)、Infected(感染の疑いあり)の2種類 GuardDutyコンソール -> 検出結果から、ファイル名・ファイルパス・ ハッシュ値 などを確認できる 費用 Malware Protectionはスキャンした時だけ費用が発生する従量課金制です。 EBSデータボリュームのスキャン費用 東京リージョンの場合:0.05USD/GB(実際のスキャンサイズの費用が発生する。ボリュームの最大サイズではない) スキャンのために一時的に取得されるEBSスナップショットの費用 デフォルトでは数分後に自動で削除される。 Malware Protectionの ユースケース 別の活用例 Malware Protectionの ユースケース 別の活用例を考えてみました。 アンチウイルスソフト を導入していないケース 既に アンチウイルスソフト を導入して監視の仕組みができているケース 平時 Malware Protection 実行型 マルウェア スキャンを有効にしておく( Windows インスタンス の場合は Microsoft Defenderも有効にしておくとより安心でしょう) アンチウイルスソフト による定期スキャンおよびリアルタイムスキャン+必要に応じて Malware Protection 実行型 マルウェア スキャンを有効にしておく( インスタンス の増減が頻繁に発生する環境でのエージェントの導入漏れ対策として) 有事( 不正アクセス などが疑われる場合) 調査用途として Malware Protection オンデマンドスキャンを実施する( Windows インスタンス の場合は Microsoft Defenderによるスキャンも実施しておくと良いでしょう) アンチウイルスソフト によるスキャン+必要に応じて Malware Protection オンデマンドスキャンを実施する(異なる検出エンジンを用いて検知漏れを防いだり、自らをエージェントの検知から隠蔽する マルウェア をスキャン) メリット 手軽に マルウェア 対策を開始でき、必要最低限のコストに抑えられる アンチウイルスソフト を補完するかたちとして マルウェア 対策を強化できる 注意点 ユーザー側で検知後のアクション(削除/隔離など)が必要。また、 APIで定期的にオンデマンドスキャンを実行する方法 もあるが、費用に注意 アンチウイルスソフト の運用(定義ファイルの更新など)は従来通り対応が必要 最後に GuardDuty Malware Protection自体は2022年7月にリリースされましたが、2024年2月より、 AWS 管理のキー(KMS)で暗号化されたEBSもスキャン対象になったことで、本格的に活用できる状態となりました。 ただし、 Malware Protectionが既存の アンチウイルスソフト に完全に取って代わるかというとそうではありません。 一般的な アンチウイルスソフト はディスクI/Oをトリガーに マルウェア の実行を止めるのに対し、 Malware Protectionは悪意のある挙動を確認した後にスキャンを実施することとなるため、実施タイミング(守備範囲)が異なります。 参考: https://www.trendmicro.com/ja_jp/business/campaigns/aws/column/guarddutymalwareprotection.html とは言え、 マルウェア 対策ができていない状況であれば、有力な選択肢となるのは間違いなさそうです。 以上、GuardDuty Malware Protectionについてでした。 執筆: @fukuyama.kenta ( Shodo で執筆されました )
こんにちは。コーポレート本部 サイバーセキュリティ推進部の耿です。 当社は2024年1月に社名が「 電通国際情報サービス 」(ISID)から「 電通 総研」に変わりました。 当然、各種システムの変更も社名変更に合わせて行われました。 今回は AWS CDK を利用して構築したある社内向け Web アプリの ドメイン を切り替える際に、意外とサクッと終わった話をしたいと思います。 ドメイン の切り替えは緊張感のある作業ですが、結果的に本番環境での実作業時間はわずか30分で終わりました。 アプリのインフラ構成 切り替え手順 CDKによる切り替え作業: 切り替え前 CDKによる切り替え作業: 事前準備 CDKによる切り替え作業: 本番切り替え 所感 アプリのインフラ構成 今回 ドメイン 切り替えを行った社内向け Web アプリの大雑把なインフラ構成は次の図の通りです。関連する コンポーネント のみを抜き出しており、DB や WAF などは省略しています。また実際は ECS アプリケーションのブルーグリーンデプロイを行っているのですが、これも省略しています。 cool-app.isid.example ドメイン を利用し、ALB のターゲットグループとして ECS サービスを登録しています。 このWeb アプリの ドメイン を cool-app.dentsusoken.example に切り替えます。 切り替え手順 事前準備作業と、本番切り替え作業の2段階に分けて ドメイン 切り替えを実施しました。 事前準備作業として以下を行います。 新 ドメイン のホストゾーンの用意 リダイレクト用ALBの新規作成 新 ドメイン の ACM 証明書作成 新 ドメイン はこの段階ではリダイレクト用ALBを指しており、リダイレクト用ALBは旧 ドメイン に302リダイレクトします。 この時点でアプリケーションへの従来のアクセスには何も影響はありません。 続いて本番切り替え作業では、アプリケーション用ALBの ドメイン を新 ドメイン に変更し、旧 ドメイン はリダイレクト用ALBを指すように切り替えます。 リダイレクト用ALBも新 ドメイン に301リダイレクトするように変更します。 これによりブラウザによる旧 ドメイン へのアクセスは全て新 ドメイン にリダイレクトされるようになります。ところで ALBのURLリダイレクト機能 は元のパス、クエリパラメータを保持したままリダイレクトを実現できるので、ほぼユーザーが意識することなく ドメイン 切り替えを実現できるのは嬉しいです。 CDKによる切り替え作業: 切り替え前 ドメイン 切り替え前は、以下のサンプルコードのような構成でCDKを実装していました。 アプリケーション new MyAppStack ( app , "MyAppStack" , { hostedZoneId: "Z1111111OLDHOSTEDZONE" , hostedZoneName: "isid.example" , webAppRecordName: "cool-app" , } ); スタック(一部のプロパティのみ掲載) // アプリケーション用ALB const alb = new elb.ApplicationLoadBalancer ( this , "Alb" , { vpc , vpcSubnets: { subnetGroupName } , securityGroup , internetFacing: true , } ); // ターゲットグループ const targetGroup = new elb.ApplicationTargetGroup ( this , "TargetGroup" , { vpc , port: 3000 , protocol: elb.ApplicationProtocol.HTTP , targetType: elb.TargetType.IP , } ); // ホストゾーン const hostedZone = route53.PublicHostedZone.fromHostedZoneAttributes ( this , "HostedZone" , { hostedZoneId: props.hostedZoneId , zoneName: props.hostedZoneName , } ); // アプリケーション用ALBへのAレコード new route53.ARecord ( this , "WebARecord" , { zone: hostedZone , recordName: props.webAppRecordName , target: route53.RecordTarget.fromAlias (new route53Targets.LoadBalancerTarget ( alb )), } ); // ACM証明書 const certificate = new certificatemanager.Certificate ( this , "Certificate" , { domainName: ` ${ props.webAppRecordName } . ${ props.hostedZoneName } ` , validation: certificatemanager.CertificateValidation.fromDns ( hostedZone ), } ) // ALBリスナー alb.addListener ( "ApplicationListener" , { protocol: elb.ApplicationProtocol.HTTPS , port: 443 , certificates: [ certificate ] , sslPolicy: elb.SslPolicy.TLS13_RES , defaultTargetGroups: [ targetGroup ] , open: false , } ); CDKによる切り替え作業: 事前準備 事前準備段階として、リダイレクト用ALB、新 ドメイン のAレコード、 ACM 証明書などを新規に作成します。 CDKのコード上ではプロパティ名を変更し、新旧どちらの ドメイン を使用しているのか明確に分かるようにしました。 アプリケーション new MyAppStack ( app , "MyAppStack" , { // 旧ホストゾーンのプロパティ名を変更 oldHostedZoneId: "Z1111111OLDHOSTEDZONE" , oldHostedZoneName: "isid.example" , // 新ホストゾーンのプロパティを追加 newHostedZoneId: "Z2222222NEWHOSTEDZONE" , newHostedZoneName: "dentsusoken.example" , webAppRecordName: "cool-app" , } ); スタック // 【変更なし】アプリケーション用ALB const alb = new elb.ApplicationLoadBalancer ( this , "Alb" , { vpc , vpcSubnets: { subnetGroupName } , securityGroup , internetFacing: true , } ); // 【追加】リダイレクト用ALB // ドメイン切り替え前は新ドメインから旧ドメインへ、 // ドメイン切り替え後は旧ドメインから新ドメインへリダイレクトする const redirectAlb = new elb.ApplicationLoadBalancer ( this , "RedirectAlb" , { vpc , vpcSubnets: { subnetGroupName } , securityGroup , internetFacing: true , } ); // 【変更なし】ターゲットグループ const targetGroup = new elb.ApplicationTargetGroup ( this , "TargetGroup" , { vpc , port: 3000 , protocol: elb.ApplicationProtocol.HTTP , targetType: elb.TargetType.IP , } ); // 【変数名変更】旧ホストゾーン const oldHostedZone = route53.PublicHostedZone.fromHostedZoneAttributes ( this , "HostedZone" , { hostedZoneId: props.oldHostedZoneId , zoneName: props.oldHostedZoneName , } ); // 【追加】新ドメインのホストゾーン const newHostedZone = route53.PublicHostedZone.fromHostedZoneAttributes ( this , "NewHostedZone" , { hostedZoneId: props.newHostedZoneId , zoneName: props.newHostedZoneName , } ); // 【変数名変更】旧ドメインのAレコード new route53.ARecord ( this , "WebARecord" , { zone: oldHostedZone , recordName: props.webAppRecordName , target: route53.RecordTarget.fromAlias (new route53Targets.LoadBalancerTarget ( alb )), } ); // 【追加】新ドメインのAレコード new route53.ARecord ( this , "NewWebARecord" , { zone: newHostedZone , recordName: props.webAppRecordName , target: route53.RecordTarget.fromAlias (new route53Targets.LoadBalancerTarget ( redirectAlb )), } ); // 【変数名変更】旧ドメインのACM証明書 const oldCertificate = new certificatemanager.Certificate ( this , "Certificate" , { domainName: ` ${ props.webAppRecordName } . ${ props.oldHostedZoneName } ` , validation: certificatemanager.CertificateValidation.fromDns ( oldHostedZone ), } ) // 【追加】新ドメインのACM証明書 const newCertificate = new certificatemanager.Certificate ( this , "NewCertificate" , { domainName: ` ${ props.webAppRecordName } . ${ props.newHostedZoneName } ` , validation: certificatemanager.CertificateValidation.fromDns ( newHostedZone ), } ) // 【変数名変更】アプリケーション用ALBのリスナー alb.addListener ( "ApplicationListener" , { protocol: elb.ApplicationProtocol.HTTPS , port: 443 , certificates: [ oldCertificate ] , sslPolicy: elb.SslPolicy.TLS13_RES , defaultTargetGroups: [ targetGroup ] , open: false , } ); // 【追加】リダイレクト用ALBのリスナー redirectAlb.addListener ( "RedirectAlbListener" , { protocol: elb.ApplicationProtocol.HTTPS , port: 443 , certificates: [ newCertificate ] , sslPolicy: elb.SslPolicy.TLS13_RES , open: false , // ALB の機能で旧ドメインへ 302 リダイレクト defaultAction: elb.ListenerAction.redirect ( { host: ` ${ props.webAppRecordName } . ${ props.oldHostedZoneName } ` , permanent: false , } ), } ); CDKによる切り替え作業: 本番切り替え ドメイン 切り替え本番では、ホストゾーンのレコードの指す先と証明書がアタッチされるALBを変更し、リダイレクト用ALBのリダイレクト先 ドメイン も変更しました。 スタック // 【変更なし】アプリケーション用ALB const alb = new elb.ApplicationLoadBalancer ( this , "Alb" , { vpc , vpcSubnets: { subnetGroupName } , securityGroup , internetFacing: true , } ); // 【変更なし】リダイレクト用ALB const redirectAlb = new elb.ApplicationLoadBalancer ( this , "RedirectAlb" , { vpc , vpcSubnets: { subnetGroupName } , securityGroup , internetFacing: true , } ); // 【変更なし】ターゲットグループ const targetGroup = new elb.ApplicationTargetGroup ( this , "TargetGroup" , { vpc , port: 3000 , protocol: elb.ApplicationProtocol.HTTP , targetType: elb.TargetType.IP , } ); // 【変更なし】旧ホストゾーン const oldHostedZone = route53.PublicHostedZone.fromHostedZoneAttributes ( this , "HostedZone" , { hostedZoneId: props.oldHostedZoneId , zoneName: props.oldHostedZoneName , } ); // 【変更なし】新ドメインのホストゾーン const newHostedZone = route53.PublicHostedZone.fromHostedZoneAttributes ( this , "NewHostedZone" , { hostedZoneId: props.newHostedZoneId , zoneName: props.newHostedZoneName , } ); // 【変更】旧ドメインのAレコード new route53.ARecord ( this , "WebARecord" , { zone: oldHostedZone , recordName: props.webAppRecordName , // 旧ドメインはリダイレクト用ALBをターゲットに転送 target: route53.RecordTarget.fromAlias (new route53Targets.LoadBalancerTarget ( redirectAlb )), } ); // 【変更】新ドメインのAレコード new route53.ARecord ( this , "NewWebARecord" , { zone: newHostedZone , recordName: props.webAppRecordName , // 新ドメインはアプリケーション用ALBをターゲットに転送 target: route53.RecordTarget.fromAlias (new route53Targets.LoadBalancerTarget ( alb )), } ); // 【変更なし】旧ドメインのACM証明書 const oldCertificate = new certificatemanager.Certificate ( this , "Certificate" , { domainName: ` ${ props.webAppRecordName } . ${ props.oldHostedZoneName } ` , validation: certificatemanager.CertificateValidation.fromDns ( oldHostedZone ), } ) // 【変更なし】新ドメインのACM証明書 const newCertificate = new certificatemanager.Certificate ( this , "NewCertificate" , { domainName: ` ${ props.webAppRecordName } . ${ props.newHostedZoneName } ` , validation: certificatemanager.CertificateValidation.fromDns ( newHostedZone ), } ) // 【変更】アプリケーション用ALBのリスナー alb.addListener ( "ApplicationListener" , { protocol: elb.ApplicationProtocol.HTTPS , port: 443 , // 新ドメインの証明書に変更 certificates: [ newCertificate ] , sslPolicy: elb.SslPolicy.TLS13_RES , defaultTargetGroups: [ targetGroup ] , open: false , } ); // 【変更】リダイレクト用ALBのリスナー redirectAlb.addListener ( "RedirectAlbListener" , { protocol: elb.ApplicationProtocol.HTTPS , port: 443 , // 旧ドメインの証明書に変更 certificates: [ oldCertificate ] , sslPolicy: elb.SslPolicy.TLS13_RES , open: false , // ALB の機能で新ドメインへ 301 リダイレクト defaultAction: elb.ListenerAction.redirect ( { host: ` ${ props.webAppRecordName } . ${ props.newHostedZoneName } ` , permanent: true , } ), } ); 以上で難なく ドメイン 切り替え作業が完了しました。あとは DNS のキャッシュが切れたら新 ドメイン でアプリにアクセスできるようになります。 本番切り替え作業にかかった時間はCDKのデプロイから切り替え後の接続確認まで含めても30分ほどでした。(実際はもっと色々なイン フラリ ソースに関わる作業があったので、本記事に記載した構成だけならもっと早く終わっていたと思います) 所感 これまでの内容では省いていますが、各作業段階においてもちろんステージング環境での検証が重要です。 IaCでインフラを管理することのメリットは、ステージング環境で検証したことをその通りに本番環境にも適用できることです。 特にCDKでは旧 ドメイン が使われている場所を、コードエディタで簡単に洗い出し、変数として辿れるのが便利だと改めて思いました。 そもそも複数環境を構築するときに同じスタックを使い回す前提で実装することで、実装段階から環境に固有の変数( ドメイン 名が典型的な例ですね)を意識して切り出すような書き方になります。既にそのような書き方がされているCDKアプリにおいて、 ドメイン を変更する作業が簡単に終わったのも当然といえるかもしれません。 CDK最高です。 執筆: @kou.kinyo 、レビュー: @yamashita.tsuyoshi ( Shodo で執筆されました )
こんにちは。 電通 総研テックブログ編集部です。当社は2024年1月に 電通国際情報サービス (ISID)から 電通 総研に商号変更しました。このテックブログ、 はてなブログ 上に構築しているのですが、商号変更にともない実施した ドメイン 移行などについて、本記事で説明します。商号変更なんて頻繁にすることはないと思いますが、 はてなブログ 上で企業技術ブログを運営している方の参考になればと思います。 画像は適当にAIで作成したものです。 スケジュール キックオフ(2023/11) 準備期間(2023/11~12) 切替(2024/1) ふりかえり(2024/1) やったこと サブドメインの取得 はてなブログ側のドメイン設定変更、リダイレクト設定 はてなブログ側のデザイン変更 告知用TwitterアカウントのID、名称変更 動画配信用YouTubeアカウント、ハンドル、チャネル名称変更 運営関連対応いろいろ やらなかったこと 過去の公開記事の文中にある旧社名(ISIDなど)の表記の洗い替え 商号変更日(1/1)のドメイン切替対応 はてなブログのオーナーID変更 トラブルメモ SNS上でのOGP画像が新社名にならない OGP画像のサイズがいまいち ふりかえり スケジュール キックオフ(2023/11) 商号変更の2カ月前に「社名変更チーム」を組成して、ざっくりと作業内容を洗い出して役割分担を行いました。わたしたちはテックブログの運営を業務として実施していますが、外部サービスを最大限に活用して省力化を行っています。利用している外部サービスの設定変更を行えばよさそうです(実際には課題はありました)。テックブログは SNS や各種の情報サイトにURLが連携され、蓄積されています。旧 ドメイン へのリンクは適切に全て転送させることを大方針として、対応を進めることにしました。 また、業務ではありますが重要度を勘案して、実際の商号変更が行われる2024/1/1ではなく当社の業務開始日である2024/1/4に作業を実施することもキックオフの時点で決めています。休日出勤するほどのことではないですしね。 準備期間(2023/11~12) ドメイン 変更のための事前調査、各種サービスへの問合せや、社内の広報部門等との調整を進めました。 切替(2024/1) 後述の対応を、日中にほどほどのスピード感で実施しました(専任体制ではないので、ゆるく実施) ふりかえり(2024/1) この記事のレビューも兼ねて、対応メンバーでふりかえりを実施しました :-) その結果が本記事になります! やったこと サブドメイン の取得 旧 ドメイン (tech.isid.co.jp)も新 ドメイン (tech.dentsusoken.com)も自社管理だったので、担当部署にさくっと依頼して対応してもらいました。他の部署に奪取されるのが嫌なので、申請開始日にさくっと取得しました。早い者勝ちです。 はてなブログ 側の ドメイン 設定変更、リダイレクト設定 旧 ドメイン (tech.isid.co.jp)については SNS を始めいろいろな場所からリンクされているので、これを全て301リダイレクトする必要があります。推進メンバーは全員エンジニアなので「あー、 はてな でリダイレクト設定したら終わりでしょ。楽勝」と考えていましたが、実際には転送機能はありませんでしたw クラウド サービスをうまく活用して手軽にやる方法を模索しましたが、最終的には CARTA さんが公開していた手法を採用することにしました。CARTA TECH BLOGも ドメイン 変更をしたことがあって、現在も以下の手法でリダイレクトしているようでした。情報公開ありがとうございます! 【AWS】CloudFront Functions を使ったリダイレクト機能の実装方法 - CARTA TECH BLOG はてなブログ 側のデザイン変更 はてなブログ の記事以外の要素について、見直しを実施しました。 サムネイル画像、 favicon の入れ替え ヘッダー修正(ブログ名称) フッターおよび各種のリンクのはり替え 社名変更に関する免責文言をフッターに追加 免責文言は、(本記事公開時点で)右下に配置している以下の文章のことです。 2024年1月1日に 電通国際情報サービス ( ISID )は、 電通 総研へ商号変更しました。社名、サービス名、その他の情報は発表当時のものです。あらかじめご了承ください。 過去に執筆された記事の中には旧社名などが記載されています。この修正(洗い替え)は行わず、免責文言を表示することにしました。旧社名は思い出として、ずっと取っておけます。 告知用 Twitter アカウントのID、名称変更 本テックブログでは新規投稿をX(旧 Twitter )に連携して情報発信をしています。アカウント名を「 電通 総研テックブログ」、IDをdentsusokenに変更しました。なお旧アドレスは せどり 防止のため継続して確保しました。 動画配信用 YouTube アカウント、ハンドル、チャネル名称変更 ブログに動画を投稿するための YouTube アカウントも保持していますので、dentsusokenTechBlogに変更しました。 運営関連対応いろいろ 上記までが対外向けに見える対応ですが、社名変更に伴いメールアドレスが変更となるので、内部向けの執筆者向けアカウントの移行(メールアドレス変更対応)や、執筆時に利用しているAI校正ツール「 Shodo 」の社名変更対応等を実施しています。このあたりは、いろいろと取りこぼしもありそうですが、気づいたタイミングで少しずつ是正していく方針でゆるくやっています。 やらなかったこと 過去の公開記事の文中にある旧社名(ISIDなど)の表記の洗い替え 過去記事の文中には旧社名(ISIDなど)が記載されていることもありますが、これは特に修正しない方針としています。 はてなブログ のフッターに免責文言を入れて対応することとしました。面倒くさいしね。 商号変更日(1/1)の ドメイン 切替対応 キックオフの段階でテックブログの ドメイン 移行日は業務開始日の1/4にしたのですが、実際には社内の他サイトからは1/1に切り替えてほしいという声はありました。リダイレクト対応もするので、1/1にしかリンク先を変更できないサイトは旧 ドメイン にリンクしてもらいました。塩対応です。 はてなブログ のオーナーID変更 実はこれは「やらなかった」というより「やれなかった」ことです。 当ブログは はてなブログ 上でISID(旧社名)というユーザーを作成し、オーナーとして開設しています。 このオーナーIDを別アカウントに変更しようと思いましたが、 出来ませんでした …… オーナーを変更したり、メンバーから削除することはできません。 複数人でブログを編集・管理する(ブログメンバー) - はてなブログ ヘルプ ほとんど害がないのですが、実は個別記事のライターとしてこのオーナーIDが表示されてしまっている部分がありました。 このテックブログでは Shodoを使って記事を配信 していますが、配信に使っている はてなブログ のAtomPub API では オーナー以外のブログメンバーのAPIキーでも記事を配信 できるため、新社名の はてなID を取得して記事を配信することにしました。 実はこの記事を書き始めたタイミングではShodoはこの機能に対応していませんでしたが、リク エス トしたらすぐに対応していただけました。おかげさまでこの記事も、新社名のIDで公開できています。( 清原さん 、ありがとうございます!) トラブルメモ というわけで、 はてなブログ 上でテックブログの ドメイン 移行をしたわけですが、ノートラブルというわけではありませんでした。移行後に発生した事をいくつか紹介します。 SNS 上でのOGP画像が新社名にならない 広報:あのーすいません SNS で古い社名が出ちゃってるんですけどー 担当:サムネイル用の画像はちゃんと差し替えたんですけど……あー、OGPキャッシュか! 本ブログは新規投稿時にX(旧 Twitter )に連携していますし、それ以外にも引用されることもあるのですが、その際に表示されるOGP画像が旧社名のままでした。他にも社内で利用しているSharePointPortalや Facebook などでも同様の事象が発生していました。 これは知っている人も多いのですが、各サービスが 保有 しているOGP画像キャッシュが悪さをしているようです。ネット情報を頼りにいろいろやっているうちにキャッシュが書き換わりました。 X(旧 Twitter ):Card Validator を試したけど動かず。でも少ししたらキャッシュが新しくなっていた(謎) Facebook :シェアデバッガーで更新 SharePointPortal:対応するのを忘れているうちに、いつのまにか直ってました OGP画像のサイズがいまいち 広報:あのーすいません SNS で出ている社名のサイズがイマイチなんですけど 担当:えー サムネイルの画像サイズがうまくハマっておらず、周囲の余白(マージン)が足りずに格好悪いということになっていました。が、OGPやブログのサムネイル画像のベストプ ラク ティスはよくわかりません。ネットを検索すると1200px・630pxが良いとされているのですが、うまくハマりませんでした。最終的には630px・630pxのサイズにして周囲に余白ができるようにしました。このあたりは試行錯誤とテストをしたほうが良かったと反省しています。 ふりかえり 以上、 はてなブログ 上で構築したテックブログの ドメイン 移行方法のご紹介でした。準備やリダイレクト対応には少し工夫が必要でしたが、先人の情報を参考にしながら比較的 ラク に実施できたと思います。 引続き、 電通 総研テックブログをよろしくおねがいします。 執筆: Ishizawa Kento (@kent) ( Shodo で執筆されました )
こんにちは。XI 本部 AIトランスフォーメーションセンター 所属の山田です。 先日、部内の勉強会でAzure AI Searchについて紹介したので、テックブログでもその内容を紹介したいと思います。 Azure AI Searchとは? Azure AI Searchに保存されるデータに関する用語と概念 Azure AI Searchのスケーラビリティに関する用語と概念 Azure AI Searchでサポートされる検索の仕組み 全文検索について Azure AI Searchのアナライザー ベクトル検索について ベクトルの近傍検索アルゴリズム ハイブリッド検索 検索インデックスのスキーマ設計 検索インデックスにドキュメントを追加する方法 Pushモデル Pushモデルを利用する場合のアーキテクチャの例 Pullモデル Pullモデルを利用する場合のアーキテクチャの例 インデクサーの計算リソース Azure AI Search側からのAzure OpenAI Serviceとの連携 利用されるスキル マッピングされる検索インデックスのスキーマ インデックスプロジェクション Azure OpenAI Service側からのAzure AI Searchとの連携(Add your data) Azure AI Search側に作成されるインデクサー 利用されるスキル マッピングされる検索インデックスのスキーマ まとめ Azure AI Searchとは? Azure AI SearchはAzureのフルマネージドの検索サービスで、以下のような機能をサポートしています。 全文検索 、ベクトル検索、ハイブリッド検索、あいまい検索、自動補完、geo検索など豊富な検索ソリューションに対応 他のAzureサービスとの強力な統合機能を提供 データソースから自動で検索インデックスへの保存処理(インデクサー) OCR やテキストの翻訳などデータソースのコンテンツをAIで解析(スキル、エンリッチメント、ナレッジストア) 最近は、Azure Open AI Serviceと組み合わせたRAGソリューションを実現するための コンポーネント として利用されることが多く、 Microsoft もこのパターンを強く推しています。 本記事では、Azure AI Searchの基本的な用語・概念の紹介からAzure OpenAI Serviceとの連携についてまで紹介します。 Azure AI Searchに保存されるデータに関する用語と概念 Azure AI Searchで扱うデータ構造について理解をするために「検索インデックス」「 スキーマ 」「ドキュメント」「フィールド」という用語・概念を整理しておきます。 用語 概要 検索インデックス 検索のためのデータのコレクション。1つの検索インデックス内に複数のドキュメントが格納される。※単に「インデックス」と表記をする場合もあるが本資料内では「検索インデックス」と表記する。 スキーマ 検索インデックスの構造を定義するもの。 スキーマ は、検索インデックスに格納されるドキュメントにどのようなフィールドが含まれ、それぞれのデータ型など情報を含む。 ドキュメント 検索インデックス内に格納される個々のデータ項目。Azure AI Searchでは JSON 形式で表現される。 フィールド ドキュメント内の個々の属性を示す。 RDB の列に似たもので型が存在する。フィールドによって検索結果の並び替えやフィルタリングが行える。 Azure AI Searchでは、検索インデックスというデータのコレクションを作成し、検索インデックス内に複数のドキュメントを格納する形式でデータを保存します。 Azure AI Searchのスケーラビリティに関する用語と概念 Azure AI Searchのスケーラビリティやコストについて理解するために「SU(検索ユニット、スケールユニット)」「レプリカ」「 パーティション 」「シャード」という用語・概念について整理しておきます。 用語 概要 SU(検索ユニット、スケールユニット) Azure AI Searchサービスの課金単位。SUの数はレプリカと パーティション の数によって決定される。 レプリカ Azure AI Searchでホストされる インスタンス の数。各レプリカは検索インデックスの完全なコピーを持っており、独立でクエリの処理が可能。レプリカ数を増やすことで負荷分散、高可用性を実現できる。 パーティション Azure AI Searchでのストレージの単位。 シャード 検索インデックスを分割した単位。Azure AI Searchでは各検索インデックスは事前にシャードの単位で分割され、 パーティション ごとに均等に分散されて保存される。なおシャードは実装の詳細であるためサービス利用者が意識する必要はない。 検索ユニット(SU)はレプリカと パーティション の数によって決まります。 下図はレプリカ数 1、 パーティション 数 2でのイメージです。この場合、課金単位であるSUは2となります。 ポイントとして可用性に影響を与えるのは「レプリカ数」です。 読み取り/書き取りで99.9%の可用性が必要な場合は3つ以上のレプリカが必要になります。 パーティション は全てのレプリカに適用されるため、レプリカ数の多いリソースで パーティション を増加させるとコスト インパク トが大きいため注意が必要です。 実際、レプリカ数3のリソースで パーティション 数を2に増加した場合にSAの数が6となりコストが大きく跳ねることのイメージがつくかと思います。 また作成可能な検索インデックスの数、ストレージの容量、スケール上限はプランによって決まっているので注意が必要です。 azure.microsoft.com Azure AI Searchでサポートされる検索の仕組み Azure AI Search は「 全文検索 」と「ベクトル検索」のどちらにも対応しています。 全文検索 フルテキストインデックスによって作成された 転置インデックス を利用してドキュメントを検索します。 ベクトル検索 ベクトルの近傍検索によってドキュメントを検索します。これにより検索クエリを直接含んでいない場合にも意味的な類似したドキュメントを抽出できます。 全文検索 について 全文検索 機能を理解するために「 転置インデックス 」と「アナライザー」について整理しておきます。 用語 概要 転置インデックス 文書に含まれる各単語( トーク ン)とその単語が出現する文書IDの組み合わせによって構成される索引(インデックス)。これにより単語が含まれる文書を高速に探し出すことができる。 アナライザー 転置インデックス を構成する際に、文章を単語( トーク ン)の単位に分割する処理機能や コンポーネント を指す。アナライザーでは単語分割( 形態素解析 )やノイズとなる単語( ストップワード )の除去、小文字や原型への変換処理などが行われる。 Azure AI Searchではドキュメントを保存する際に、 転置インデックス の作成・更新処理が行われます。 転置インデックス に格納される単語はアナライザーの種類によって単語分割などの処理が異なるため、利用するアナライザーによって 転置インデックス に格納される単語が変化します。 ユーザーから入力される検索クエリもアナライザーによる単語の分割が行われ、分割した単語を 転置インデックス から探すことでドキュメントの抽出が行われます。 Azure AI Searchのアナライザー 全文検索 機能を利用する上でアナライザーの選択は重要になります。 Azure AI Searchで利用可能なアナライザーは大きく分けると2種類あります。 組み込みアナライザー Azure AI Searchに標準で組み込まれているアナライザーです。組み込みアナライザーには「標準 Lucene のアナライザー」、「言語固有アナライザー」、「特殊アナライザー」があります。言語固有アナライザーは Lucene 言語アナライザーと Microsoft 言語アナライザーがあります。 カスタムアナライザー ユーザー定義のアナライザーです。組み込みアナライザーを拡張するようなこともできます。 アナライザーを特に指定をしない場合「標準 Lucene のアナライザー」が利用され、 転置インデックス が作成されます。 選択するアナライザーによって処理結果がどのように変化するかを少し紹介します。 ここでは組み込みアナライザーの「標準 Lucene のアナライザー(standard)」「 Lucene の日本語アナライザー(ja. lucene )」「 Microsoft の日本語アナライザー(ja. microsoft )」「キーワードアナライザー(keyword)」を使って処理して結果の違いを紹介します。 入力文は以下で試しています。 私は 機械学習 エンジニアです。 アナライザー 分割結果 standard [{'token': '私', 'startOffset': 0, 'endOffset': 1, 'position': 0}, {'token': 'は', 'startOffset': 1, 'endOffset': 2, 'position': 1}, {'token': '機', 'startOffset': 2, 'endOffset': 3, 'position': 2}, {'token': '械', 'startOffset': 3, 'endOffset': 4, 'position': 3}, {'token': '学', 'startOffset': 4, 'endOffset': 5, 'position': 4}, {'token': '習', 'startOffset': 5, 'endOffset': 6, 'position': 5}, {'token': 'エンジニア', 'startOffset': 6, 'endOffset': 11, 'position': 6}, {'token': 'で', 'startOffset': 11, 'endOffset': 12, 'position': 7}, {'token': 'す', 'startOffset': 12, 'endOffset': 13, 'position': 8}] ja.lucene [{'token': '私', 'startOffset': 0, 'endOffset': 1, 'position': 0}, {'token': '機械', 'startOffset': 2, 'endOffset': 4, 'position': 2}, {'token': '学習', 'startOffset': 4, 'endOffset': 6, 'position': 3}, {'token': 'エンジニア', 'startOffset': 6, 'endOffset': 11, 'position': 4}] ja.microsoft [{'token': '私', 'startOffset': 0, 'endOffset': 1, 'position': 0}, {'token': '機械', 'startOffset': 2, 'endOffset': 4, 'position': 2}, {'token': '学習', 'startOffset': 4, 'endOffset': 6, 'position': 3}, {'token': 'エンジニア', 'startOffset': 6, 'endOffset': 11, 'position': 4}, {'token': 'です', 'startOffset': 11, 'endOffset': 13, 'position': 5}] keyword [{'token': '私は機械学習エンジニアです。', 'startOffset': 0, 'endOffset': 14, 'position': 0}] 同一の文に対する処理結果を比較することで、それぞれのアナライザーの特徴を大まかにですが把握できます。 標準 Lucene のアナライザー(standard)は多言語にも対応するため、日本語を扱う際には区切られる単語長が短い傾向にありそうです。 言語アナライザーである Lucene の日本語アナライザー(ja. lucene )の場合は日本語の検索で使いやすいように名詞の抽出が行われています。 同様に言語アナライザーである Microsoft の日本語アナライザー(ja. microsoft )の場合は Lucene の日本語アナライザー(ja. lucene )との違いとしては助動詞「です」が含まれていました。 特殊アナライザーのキーワードアナライザー(keyword)は入力文を区切らずに全体を1つの単語として扱います。 これらの違いは入力する文章によっても異なりますが、選択したアナライザーがどのような特徴を持っているかを把握しておくことは重要です。 ベクトル検索について ベクトル検索機能について理解するには「Embedding(埋め込みベクトル、分散表現)」「vectorizer(ベクタライザー)」「最近傍検索」「近似最近傍検索」について整理しておきます。 用語 概要 Embedding(埋め込みベクトル、分散表現) テキストなどのデータを多次元のベクトルとして表現したもの。意味的に類似性の高いコンテンツはベクトル空間内で互いに近くに位置する。 vectorizer(ベクタライザー) テキストなどembeddingに変換する コンポーネント 最近傍検索 与えられたクエリポイント(ベクトル値)に最も近いデータポイントをベクトル空間から探索する方法。クエリポイントと各データポイントのベクトル間の距離を計算し、最も距離が小さいポイントを特定する必要があるため大規模なデータほど計算コストが必要になる。 近似最近傍検索 与えられたクエリポイント(ベクトル値)に近似的に最も近いデータポイントをベクトル空間から探索する方法。正確さを犠牲にしてパフォーマンスを向上させる方法であり、大規模なデータにも対応できる。 ベクトル検索では事前に文書群をベクトル化し、検索インデックスのドキュメント内のフィールドとして保存しておきます。 ユーザーから入力される検索クエリもベクトル化し、ベクトルの近傍検索によってドキュメントの抽出を行います。 このとき、ユーザーの検索クエリと保存されているベクトルの次元がそろっている必要があります。 なおAzure AI Searchのvectorizer(ベクタライザー)は2024年2月現在パブリックプレビュー版機能であるため注意が必要です。 ベクトルの近傍検索 アルゴリズム Azure AI Searchではベクトルの近傍検索の アルゴリズム として最近傍検索のk近傍法(kNN)と近似最近傍検索のHierarchical Navigable Small Worlds(HNSW)をサポートしています。 デフォルトではHNSWが利用されますが、これはAzure AI Searchを利用する際に保存するデータ量の上限が事前にわからないシナリオが多いためです。 なおパラメータ指定などについては、若本さんの記事が参考になるのでこの部分に興味がある方はぜひご覧ください。 tech.dentsusoken.com ハイブリッド検索 Azure AI Searchでは、 全文検索 とベクトル検索を組み合わせたハイブリッド検索をサポートしています。 ハイブリッド検索は 全文検索 とベクトル検索の結果をReciprocal Rank Fusion (RRF) という アルゴリズム で再ランク付けするもので内部的には 全文検索 とベクトル検索の両方が行われます。 詳細については Microsoft Learn側で紹介されているため興味がある方はご覧ください。 learn.microsoft.com 検索インデックスの スキーマ 設計 実際にAzure AI Searchを使って検索サービスを実現するには、検索インデックスを作成する必要があります。 検索インデックスを作成する際は、検索対象のデータ特性と ユースケース に合わせて スキーマ 設計を行います。 フィールドにはデータ型に加えて、検索時にフィールドがどのように使用されるかを表す属性を定義します。 Azure AI Searchで定義可能な属性は以下になります。 属性 概要 searchable フルテキストインデックスを作成するかを制御する。 true のフィールドには指定されたアナライザーで 転置インデックス が作成される。 filterable $filterクエリで参照できるかを制御する。 sortable ソート対象に利用できるかを制御する。 facetable 検索結果の集約化に利用するかを制御する。 key ドキュメントの一意識別子となるフィールド。このフィールドは文字列(Edm.string)で定義される。 retrievable 検索結果に含めるかを制御する。 false にしたフィールドはスコアリングの内部ロジックなどに応用できる。 スキーマ 設計時は ユースケース に応じてフィールドの属性を設定することが重要です。 リッチな スキーマ を定義することで強力な検索機能を実現できますが、より多くのストレージを利用することになります。 特に検索可能(searchable)なフィールドは必要なものだけを定義し、無駄な 転置インデックス が作成されるのを防ぎましょう。 フィルタ可能なフィールドやソート可能なフィールドもインデックスサイズに影響を及ぼします。 インデックスのサイズと検索パフォーマンスには トレードオフ があることを理解しておくことが重要です。 検索インデックスにドキュメントを追加する方法 Azure AI Searchでは、検索インデックスに対してドキュメントを追加する方法としてPushモデルとPullモデルの二種類があります。 Pushモデル Pushモデルは、Azure AI SearchのAzure SDK や REST API を利用して、検索インデックスに対して JSON 形式のドキュメントを追加する方法です。 PushモデルはAzure SDK /HTTPリク エス トをサポートする任意の プログラミング言語 やモジュールで検索インデックスへのドキュメントの追加処理を記述可能です。 Pushモデルを利用する場合の アーキテクチャ の例 Pushモデルでは任意の プログラミング言語 で処理の記述が行えるため、Azure AI Searchへのドキュメント追加方法について様々なアプローチを取ることができます。 以下の アーキテクチャ イメージは、ファイルからテキストデータの抽出、Azuree AI Searchへのドキュメント追加をAzure App Serviceのアプリケーションで行う場合になります。 RAG と生成 AI - Azure AI Search | Microsoft Learn その他にも、Azure Functionsを用いてイベント駆動型の アーキテクチャ でAzure AI Searchにドキュメント追加を行う場合の アーキテクチャ イメージもあります。 Azure でドキュメントの分類を自動化する - Azure Architecture Center | Microsoft Learn Pullモデル Pullモデルは、Azure AI Searchがサポートしているデータソースをクロールし、自動で検索インデックスにドキュメントを追加する方法です。 Pullモデルの仕組みや機能を理解するために「データソース」「インデクサー」「スキル」「スキルセット」「エンリッチメント」「ナレッジストア」という用語・概念を整理しておきます。 用語 概要 データソース インデクサーのデータ抽出対象となる クラウド 上のデータソース。Azure Blob StorageやAzure Cosmos DBなどがサポートされる。 インデクサー インデクサーはデータソースのデータを検索インデックスの スキーマ 構造に マッピング する処理を行う コンポーネント 。一般的な検索システムの「 クローラー 」のような処理を担う。 スキル インデクサーでコンテンツを検索インデックスに投入する際に、コンテンツを変換する単一の操作を提供するもの。 スキルセット スキルセットは特定のインデクサーで利用するスキルの集合。少なくとも1つのスキルから構成され、最大で30のスキルを含む。 エンリッチメント インデクサーの 拡張機能 で、画像などのテキスト情報を持たないデータを検索可能な構造に変換するもの。 ナレッジストア エンリッチメントされたコンテンツを保存するストレージ。Azure Blob StorageやAzure Table Storageを利用できる。 Pullモデルを使って検索インデックスにドキュメントを追加する場合は、インデクサーを使って検索インデックスに対してドキュメントを追加します。 インデクサーの作成手順としてはデータソース、スキルセットを作成し、それらを利用するインデクサーを作成するという流れになります。 Pullモデルを利用する場合の アーキテクチャ の例 Pullモデルでは、Azure AI Searchの検索インデックスへのドキュメントの追加処理はAzure AI Searchに閉じた形になります。 以下の アーキテクチャ イメージは、ストレージアカウントをデータソースに登録して自動で検索インデックスにドキュメントを追加する場合になります。 スキルセットを利用することで、抽出したテキストデータをTranslatorで他言語に翻訳することやAzure AI Document Intelligenceと組み合わせたドキュメント分析なども可能です。 RAG と生成 AI - Azure AI Search | Microsoft Learn Pullモデルのインデクサーでは マッピング 対象の検索インデックスを1つだけ指定する必要がありますが、複数のデータソースを1つの検索インデックスに マッピング できます。 以下の アーキテクチャ イメージは別のデータソースとして登録されたBlobストレージとTableストレージに対し、個別のインデクサーを定義し、1つの検索インデックスに マッピング をしている例です。 Azure AI 検索を使用してファイルの内容とメタデータをインデックスする - Azure Architecture Center | Microsoft Learn インデクサーの計算リソース Pullモデルでのインデクサーを使ってのドキュメントの追加処理はAzure AI Search側で行われます。 この実行環境には「プライベート実行環境」と「マルチテナント実行環境」の2つが存在します。 環境 概要 プライベート実行環境 リソース固有の環境。ここで実行されるインデクサージョブは最大24時間実行可能。プライベート環境で実行可能なインデクサージョブの数は検索ユニットで1つ。プライベートエンドポイント経由で他のリソースにアクセスする必要があるインデクサージョブはこの環境で実行する必要がある。 マルチテナント実行環境 マネージドな環境。ここで実行されるインデクサージョブは最大2時間実行可能。実行できるインデクサージョブの数は不確定。 インデクサーがネットワークで保護されたリソースにアクセスする場合は、この実行環境の違いについて把握しておく必要があります。特にプライベートエンドポイントでリソースにアクセスする必要がある場合はプライベート実行環境でインデクサーが実行されるように追加で構成をする必要があります。 Azure AI Search側からのAzure OpenAI Serviceとの連携 Azure AI SearchからAzure OpenAI Serviceリソースを連携させ、Blobストレージのコンテンツをベクトル化し、検索インデックスにドキュメントに追加するインデクサーを構成できます。 この操作はAzureポータルの「データのインポートと ベクター 化」から実施できます。 「データへの接続」ではBlobストレージの情報を入力します。 「データの ベクター 化と強化」ではAzure OpenAI Serviceリソースの情報を入力します。 画面キャプチャ上では「毎時間」となっていますが、インデックス作成のスケジュールを「即時」にすると操作終了後にインデクサーが実行できます。 この操作の裏では、Pullモデルの節で紹介したインデクサーの作成と同じことが行われておりデータソース、スキルセット、インデクサーのリソースがAzure AI Search内に作成されています。 利用されるスキル 作成されるインデクサーのスキルセットには「テキスト分割スキル」と「Azure OpenAI Embedding スキル(プレビュー)」の2つのスキルが含まれています。 テキスト分割スキルはBlobストレージのコンテンツから抽出したテキストデータをいわゆる「チャンク」という単位に分割するスキルになります。 learn.microsoft.com テキスト分割スキルの定義の JSON 情報(一部抜粋)を確認すると、チャンクに含まれる最大文字列長は2,000、オーバラップサイズは100で構成されているようです。 { " @odata.type ": " #Microsoft.Skills.Text.SplitSkill ", " name ": " #1 ", " description ": null , " context ": " /document ", " defaultLanguageCode ": " en ", " textSplitMode ": " pages ", " maximumPageLength ": 2000 , " pageOverlapLength ": 100 , " maximumPagesToTake ": 1 } Azure OpenAI Embeddingスキルはチャンクに区切られた各テキストをEmbeddingモデルの「text-embedding-ada-002」を使ってベクトル化するスキルになります。 learn.microsoft.com Azure OpenAI Embeddingスキルの定義の JSON 情報(一部抜粋)を確認すると「emebedding-ada-002」モデルが利用されていることがわかります。 { " @odata.type ": " #Microsoft.Skills.Text.AzureOpenAIEmbeddingSkill ", " name ": " #2 ", " description ": " Azure OpenAI Embedding Skill ", " context ": " /document/pages/* ", " resourceUri ": " https://*****.openai.azure.com ", " apiKey ": " ***** ", " deploymentId ": " emebedding-ada-002 ", " authIdentity ": null } マッピング される検索インデックスの スキーマ マッピング 対象の検索インデックスは選択できず自動で作成されます。そのため マッピング 対象の スキーマ には制限があります。 以下は作成される検索インデックスの スキーマ になります。 インデックスプロジェクション この操作で構築されるインデクサーは内部でインデックスプロダクションという機能を利用しています(2024年1月時点で プレビュー機能 )。 これは通常のインデクサーが1ファイルを1つのドキュメントに マッピング するのに対し、1ファイルを複数のドキュメントに マッピング させる機能です。 これはチャンク分割、ベクトル化の処理で1対多の マッピング が必要なためです。 learn.microsoft.com Azure OpenAI Service側からのAzure AI Searchとの連携(Add your data) 続いてAzure OpenAI Service側からAzure AI Searchと連携する操作を試してみます。この機能は「Add your data」とも呼ばれています。 Azure AI Studioのチャットプレイグラウンドの「データの追加(プレビュー)」の「データソースの追加」より操作可能です。 「データの追加」では対象のデータソース、データを保存するAzure AI Searchリソース、検索インデックス名の指定などをします。ここでAzure AI Searchの「インデクサー」という単語が登場しています。 またベクトル検索を有効にするかの チェックボックス が存在します。 「データ管理」ではAzure AI Searchで行う検索の種類、チャンクサイズを指定します。 構成が完了するとAzure OpenAI ServiceのチャットプレイグラウンドでAzure AI Searchをデータソースとして回答生成させることができます。 Azure AI Search側に作成されるインデクサー Azure OpenAI Service側から連携した場合も、Azure AI Searchのインデクサーが利用されます。 そのためAzure AI Searchにデータソース、スキルセット、インデクサーが作成されます。 インデクサーの処理で重要となる、スキルセット内で利用されるスキルについて紹介します。 利用されるスキル Azure OpenAI Serviceから連携した場合に作成されるインデクサーでは「カスタム Web API 」スキルが利用されます。 learn.microsoft.com 以下はスキルの定義の JSON 情報(一部抜粋、パラメータマスク済み)です。 { " @odata.type ": " #Microsoft.Skills.Custom.WebApiSkill ", " name ": " {スキルセット名} ", " description ": null , " context ": " /document/content ", " uri ": " https://******.openai.azure.com/openai/preprocessing-jobs?api-version=2023-03-31-preview ", " httpMethod ": " POST ", " timeout ": " PT3M ", " batchSize ": 10 , " degreeOfParallelism ": 10 , " inputs ": [] , " outputs ": [] , " httpHeaders ": { " original-request-id ": " {検索インデックス名} ", " num-tokens ": " 1024 ", " embedding-deployment-name ": " {ベクトル化に利用するモデルのデプロイ名} ", " api-key ": " {Azure OpenAI ServiceのAPIキー} ", " connection-string ": " {Blobストレージへの接続文字列} ", " container-name ": " {Blobストレージのコンテナ名} " } } カスタムWeb API はAzure OpenAI Serviceの preprocessing-jobs というエンドポイントを呼び出しており、チャンク分割の トーク ン数はHTTPヘッダーの num-tokens で送信していることがわかります。 なお preprocessing-jobs の詳細な情報は公開されている情報を見つけることができませんでした。 ここまででわかったことは、Azure OpenAI Service側からAzure AI Searchと連携する場合とAzure AI Search側からAuzre OpenAI Serviceと連携する場合で似たパラメータを設定しますが内部で利用されるスキルなどは異なっているということです。 マッピング される検索インデックスの スキーマ マッピング される検索インデックスの スキーマ は以下のようになっています。 検索インデックスの スキーマ もAzure OpenAI Service側からAzure AI Searchと連携する場合とAzure AI Search側からAuzre OpenAI Serviceと連携する場合で異なります。 こちらの検索インデックスの スキーマ も自動で作成されるため、 マッピング 対象の スキーマ には制限があります。 まとめ 本記事ではAzure AI Serchを理解するために基本的な用語や概念の説明からAzure OpenAI Serviceとの連携部分まで紹介しました。 Azure OpenAI Serviceとの連携では、Azure AI Serch側から連携する場合とAzure OpenAI Service側から連携する場合のどちらもインデクサーを利用しますが、その処理内容に違いがあることを取り上げました。 処理の違いについては、時系列的にAzure OpenAI Service側から「Add your data」によるAzure AI Serchとの連携機能の方が先に公開されていた影響が大きいかと個人的には考えています。 なおどちらの場合も、現在(2024年2月)はプレビュー版の機能が使われており、プロダクションへの適用は難しい状態です。 しかしながらスキルなどのパラメータは十分カスタマイズ可能なものが用意されているので、今後、 SDK などからの操作がサポートされると安定して使えそうなビジョンがあります。 本記事の内容が役に立てれば幸いです。 私たちは一緒に働いてくれる仲間を募集しています! 電通総研中途採用ページ 電通総研新卒採用ページ 執筆: @yamada.y 、レビュー: @wakamoto.ryosuke ( Shodo で執筆されました )
初めに 電通 総研 X(クロス) イノベーション 本部 の三浦です。 プライベートではChatGPT4を積極的に利用しておりますが、いくつかの不満点も抱えておりました。そんな中、ローカル環境で高性能なモデル「Orion-14B」がリリースされたと聞き、試しに使ってみることにしました。 なお、最初に結論を書いてしまいますが、「Orion-14B」を使用しても「ChatGPT4」で感じていた不満は解消されなく、「ChatGPT4」の強さを思い知らされた・・といった感じです。 しかし、個人でも最新モデルを容易に試せるという点で、今回の試行内容をご紹介いたします。 Orion-14Bとは? ChatGPT4様による解説 Orion-14BはOrionStarAIによって開発された大規模な多言語対応の言語モデルシリーズです。このモデルは、14億のパラメータを持つ基礎モデルと、それに関連するいくつかの特化モデルから構成されています。これらのモデルには、チャットモデル、長文テキストモデル、量子化モデル、RAG微調整モデル、エージェント微調整モデルなどが含まれます。 Orion-14Bの基礎モデルは、2.5兆トークンの多様なコーパス上でトレーニングされ、そのデータは英語、中国語、日本語、韓国語などのテキストから収集されています。このモデルは、様々な言語で優れた性能を示しています。また、Orion-14Bには会話アプリケーションやその他の特定の用途に合わせて微調整されたモデルシリーズも含まれています。評価結果によると、Orion-14Bは多くのタスクで最先端の性能を達成しているとされています。 参考リンク https://github.com/OrionStarAI/Orion https://huggingface.co/OrionStarAI/Orion-14B-LongChat 下準備 Google Colabを契約する 無償で使用できる範囲では利用できないため、まず契約からとなります。 が、そこまでの Google Colabヘビーユーザーではないため、 「Pay As You Go」「100 Colab コンピューティング ユニット¥1,072」 を購入して今回は試しました。 月額契約をしなくても使いたい時だけ Google Colabを使えるのは非常に助かりますね。 https://colab.research.google.com/signup/pricing?hl=ja 初期化部分 最高レベルの性能がどれくらい出るか知りたいため、 量子化 モデルでは試さずに一番性能がよさそうな? 「Orion-14B-LongChat」で試行します。 そのためには、大量のリソースが必要となるため、 Google Colabのランタイムは、「A100 GPU 」を選択します。 A100 インスタンス につなげたら、下のノートブックを実行します。 モデルのダウンロードにかなりの時間がかかります。 !pip install -U transformers accelerate bitsandbytes !pip install -U sentencepiece flash_attn autoawq !pip install -U torch-sdp import torch from transformers import AutoModelForCausalLM, AutoTokenizer from transformers.generation.utils import GenerationConfig tokenizer = AutoTokenizer.from_pretrained( "OrionStarAI/Orion-14B-LongChat", use_fast=False, trust_remote_code=True ) model = AutoModelForCausalLM.from_pretrained( "OrionStarAI/Orion-14B-LongChat", device_map="auto", torch_dtype=torch.bfloat16, trust_remote_code=True ) model.generation_config = GenerationConfig.from_pretrained( "OrionStarAI/Orion-14B-LongChat" ) 質問編 こんな単純なコードで使用できます。 messages = [ {"role": "user", "content": """ logstashのメモリ設定状況をしりたいです。 curlで調べる方法をおしえてください。9600で調べるやつありましたよね? """} ] response = model.chat(tokenizer, messages, streaming=False) print(response) 返ってきた答えはこちら はい、curlでログを表示させる方法があります。 curl -i http://localhost:9600/_cat/var?v=true このコマンドを実行すると、サーバーのメモリ使用量が表示されます。 また、`-i`オプションを指定することで、ヘッダ情報も表示されます。 curl -i http://localhost:9600/_cat/var?v=true&h=memory このコマンドを実行すると、サーバーのメモリ使用量とヘッダ情報が表示されます。 以上です。 結果は残念ながら、明らかな誤りが含まれています。 これはChatGPT4による回答で、非常に有用な内容です。 ぱっといろんなことが思い出せなくなってきている中年エンジニアにはとてもありがたいです。 もっと簡単なことも頼んでみましょう。 ローカルのファイル名一覧(拡張子無し)を作ってお願いします。 # メッセージリストの準備 messages = [ {"role": "user", "content": """powershellで、特定フォルダのファイル名一覧をください。拡張子は抜いてください"""} ] # 推論の実行 response = model.chat(tokenizer, messages, streaming=False) print(response) それっぽい結果が出ました。 Get-ChildItem -Path "C:\test" | Select-Object -Property Name, FullName | Where-Object {$_.FullName -ne $null} | ForEach-Object {$_.Name -replace '\.',''} が、実際にこれを実行してみると拡張子を取り除くという要件が満たせておらず、ただ拡張子前の「.」を取り除くだけのコードとなっています。 ChatGPT4様の場合 powershellで、特定フォルダのファイル名一覧をください 拡張子は抜いてください えっと、jsonにするパターンも 簡潔な質問にも丁寧に回答しています。 まとめ ChatGPT4を上回るローカルLLM(Large Language Model)が存在すれば大いに助かるという期待を持ち、今回の試用に臨みましたが、残念ながら期待した成果は得られませんでした。しかし、この分野の進歩は著しく速いため、今後も定期的に有望なモデルを探し、その可能性を探っていきたいと思います。 執筆: @miura.toshihiko 、レビュー: @yamashita.tsuyoshi ( Shodo で執筆されました )
初めに ISID X(クロス) イノベーション 本部 の三浦です。 日に日に生成AIへの依存を深める日々を過ごしています。 今回は、OpenAIの API (デフォルトモデルはgpt-3.5-turbo-16kです)を利用したOpenCommitという OSS を使用しましたのでご紹介いたします。 コミットメッセージ生成ツールとなります。 OpenCommitとは? 公式ページ https://github.com/di-sukharev/opencommit 実行イメージ ChatGPT4による特徴解説 主な特徴は以下のとおりです: AI駆動: OpenCommitは、GPT-3.5ターボまたはGPT-4を使用してコミットメッセージを生成します。 カスタマイズ可能: ユーザーは絵文字の使用やコミット説明の長さをカスタマイズできます。 簡単な使用法: OpenCommitは、ステージングされた変更に対してコミットメッセージを生成するために直接呼びだすことができます。使用法はgit add <files...> に続いて opencommit または oco を実行するだけです。また、GitHub actionで呼びだすことも可能です。 ローカルおよびグローバル設定: .env ファイルを作成してOpenCommit設定変数を追加することで、リポジトリごとのローカル設定を行うことができます。また、oco config set コマンドを使用してグローバル設定も可能です。 OpenCommitは、コーディングプロセスを簡素化し、コミットメッセージの品質を向上させることを目的としています。詳細は、GitHubのOpenCommitリポジトリやGitHub Marketplaceのページで確認できます。 今回の目的、背景 コミットメッセージの自動生成には、以下の方法が考えられます(他の OSS もありますがその辺は割愛します)。 GitHub Copilotで生成する OpenCommitで開発者の端末でコミットメッセージを生成する OpenCommitで GitHub Actions上で生成する 今回の主な目的は、適切なコミットメッセージを記入しない開発者への牽制と、ブラウザを介して修正を行うメンバーへの対応です。そのため、開発者の手間がかからない 「OpenCommitで GitHub Actions上で生成する」 を進めます。 なお、この機能は現在β版として提供されているため、使用する際は各自の責任で十分に検証した上でご利用ください。 Github Actionの設定 https://github.com/di-sukharev/opencommit?tab=readme-ov-file#setup-opencommit-as-a-github-action-beta- 設定プロセスは非常に簡単です。指定されたリンク先のファイルを作成するだけで済みます。 基本的な設定を行い、次に動作に必要なOCO_OPENAI_ API _KEYを設定します(OpenAIの API キーです。OpenCommit用にキーを発行しておくとよいでしょう)。 現時点で、OpenCommitはOpenAIの API のみに対応しており、AzureのOpenAIモデルはサポートされていません。 この設定で基本的な機能は動作しますが、さらに使いやすくするために私の環境では以下のような改変を加えました。 上記コミットに対して自動生成されたコミットメッセージが下記です。 OpenCommitが生成したコミットメッセージを確認してみましょう 🔧 修正(OpenCommit.yml): OpenCommitワークフローのカスタマイズ設定を変更 ✨ 新機能(OpenCommit.yml): OCO_DESCRIPTIONとOCO_EMOJIを有効化し、OCO_LANGUAGEをjaに変更 OpenCommitワークフローのカスタマイズ設定を変更しました。OCO_DESCRIPTIONとOCO_EMOJIをtrueに設定することで、コミットメッセージに説明と絵文字を追加するようになりました。また、OCO_LANGUAGEをjaに変更することで、コミットメッセージを日本語で生成するようになりました。これにより、より詳細なコミットメッセージが生成され、開発者間のコミュニケーションが向上しました。 おお、いい感じですね!! OpenAIの API 利用費用の確認 OpenAIのプラットフォーム( https://platform.openai.com/usage )から、使用状況を確認することができます。このように、費用のリアルタイムな把握、 API キーごとの利用状況が一覧できるため、安心して利用できますね。 まとめ この記事では、コストを抑えつつコミットメッセージを改善する方法をご紹介しました。私自身、簡単な作業を頻繁に行い、ブラウザを通じて修正を加えることが多いのですが、ブラウザを介してもコミットメッセージのアシストが得られるのは非常に助かります。 執筆: @miura.toshihiko 、レビュー: @fukutake.hiroaki ( Shodo で執筆されました )
こんにちは。 電通 総研 金融ソリューション事業部の若本です。 今回は、RAG内部で使用するベクトル検索の設定のチューニングについての記事になります。 RAGとは ベクトル検索になぜチューニングが必要なのか? 近似近傍探索 実験 検索対象 検索クエリ 評価方法 結果 おわりに RAGとは RAG(Retrieval-Augmented Generation)は、ユーザーのクエリに対して外部の知識を検索し、それをもとにChatGPTのような大規模 言語モデル (LLM: Large Language Model)に回答を生成させる手法になります。 具体的な方法は 山下さんの記事 でも紹介されていますので、興味のある方はぜひご一読ください。 ベクトル検索になぜチューニングが必要なのか? RAGの検索において、よく使われる検索方法の1つがベクトル検索です。 ベクトル検索では文章を「ベクトル」という表現に変換して検索を行います。意味合いが似ている文章を、使われる単語が異なっていても検索できるため、非常に重宝される技術です。 しかし、「ベクトル」という複雑な表現同士で検索するには工夫が必要です。 例えば、langchainのfaissの Vector storeではデフォルト設定が L2 normを用いた総当たりのベクトル検索(IndexFlatL2) になっています。 総当たりのベクトル検索では、ユーザーのクエリのベクトルとDBに保持しているベクトルを1件ずつ比較する必要があるため、 DBに保持しているベクトル数が多いほど検索に時間がかかってしまい(O(n))、プロダクション向きではありません。 そこで、より高速なベクトル検索として近似近傍探索(ANN: Approximate nearest neighbor search)という技術があります。 近似近傍探索 近似近傍探索では、様々なアプローチで高速なベクトル検索の実装が試みられています。近似近傍探索の種類については、 ANNベンチマーク )などを参照ください。 しかし、近似近傍探索も万能ではなく、速度が総当たりのベクトル検索より早いぶん 総当たりと同じ検索結果を取得できない場合があります。 検索結果をもとに回答を行うRAGの仕組みでは、本来取得できたはずの検索結果が抜け落ちてしまうことは性能の悪化に繋がります。 近似近傍探索の有名な手法の1つであるHNSWについて実装し、RAGを想定したパフォーマンスのチューニングを試みます。 例えば、 Azure AI Searchでも近似近傍探索としてHNSWが使用されています 。 HNSW(Hierarchical Navigable Small Worlds)は、ベクトル同士が連結されたグラフを順番に辿ることで、最も似ているベクトルを探策する手法です。詳細な理論については、 Pineconeの記事 などにわかりやすくまとめられています。 HNSWには3つのパラメータがあり、それぞれ増やすメリット/デメリットが存在します。 M: 接続できるノードの数を表す 増やすと検索精度が上がるが、検索時間と消費メモリも増加する efConstruction: インデックスの構築時に探索されるエントリポイント数 増やすと検索精度が上がるが、検索時間※とインデックス構築時間も増加する efSearch: 検索中にレイヤー間で探索されるエントリポイント数 増やすと検索精度が上がるが、検索時間が増加する ※Mが高い場合のみ 参考までに、Azure AI SearchにおけるHNSWのデフォルトのパラメータはmが低く、その他のパラメータが高く設定されています( 引用元 )。 今回は、上記のパラメータを ベンチマーク として、HNSWを用いたベクトル検索でRAGを行うためのパラメータ探索を行います。 実験 検索対象とクエリについてデータを用意し、ベクトル検索の実行と評価を行いました。 検索対象 検索対象として、様々なトピックの Powerpoint ファイルを120件用意しました。 上記のファイルをlang chainのUnstructuredPowerPointLoaderで読み込み、Text splitterで分割しています。 なお、今回のText splitterの設定は下記としました。 chunk size(分割した文章単位の文字数): 1000 overlap size(文章のオーバーラップ): 500 作成後のindexのサイズは1069となりました。 また、ベクトル検索に使用するembeddingはOpen AI API のtext-embedding-ada-002を使用しました。ada-002の次元数(ベクトルのサイズ)は1536です。 検索クエリ 今回はRAGで使用することを想定したチューニングのため、実際のRAGでユーザーが入力しそうなクエリをGPT-4で大量に生成しました。生成した件数は200件です。 評価方法 今回評価する内容は2つです。 一致率(%) クエリでベクトル検索を行い、 ヒットした結果のセットが総当たり検索の結果セットと完全一致するかを確認します (単一の正解を定めてRecallを取っているわけではない)。今回は検索数を10としました。 このとき、結果セットの順序変動はRAGへの影響が(実際にはありますが)少ないとみて無視します。 1件当たりの検索時間(s) バッチ的に処理した検索時間を件数で割ったもの。 faissに実装されているHNSW を用いて、M、efSearch、efConstructionのパラメータを探索しながら上記の評価を行います。 その他、本来であればインデックス作成時間なども計測すべきところですが、今回は対象外としました。 結果 M、efSearch、efConstructionを変えたときのHNSWの評価結果は下記のようになりました。 まずは一致率です。Y軸が一致率(%)を、X軸がefSearchを表しています。Mを変えた場合はラベルで、efConstructionを変えた場合はサブプロットで表現しています。 同様に、Y軸を検索時間(s)に変えて評価結果を集計しました。 ここで、Azure AI Searchで使用されているデフォルトのHNSWパラメータでは、今回の実験設定において5.5%のクエリで検索結果が異なる結果となっていました。検索速度は1件当たり約0.25ミリ秒を計測しています。 ※今回はローカル上のfaiss実装(CPU)で実験を行っています。そのため実際のAzure AI Searchでの検索結果/検索速度ではないことにご注意ください。 実験の結果より、M、efSearch、efConstructionを抑えつつ、一致率を100%にする設定は下記となりました。 検索速度についても1件当たり約0.1ミリ秒となっており、上記の設定よりも高速に検索できています。 精度と検索速度が上がった一方、メモリの消費量は増加しました。HNSWにおける1件当たりのメモリ消費量は以下のとおりです( 引用 )。 4 × d + x × M × 2 × 4 ※d=ベクトルの次元数、x=インデックスの数 インデックスのメモリサイズを試算すると、デフォルトのHNSWパラメータでは43MB(1件あたり約40KB)、一致率100%の設定では79MB(1件あたり約75KB)となりました。精度と検索速度が改善した代わりに、インデックスのメモリサイズが約2倍に増加しています。 そこで、メモリの増加を防ぐためにMについてより詳細に探索します。Mを4から8の間に設定し、再度検証を行いました。 上記より、M=5のとき一致率が100%となる設定を発見できました。検索速度もデフォルトパラメータよりよい結果が得られています。 インデックスのメモリサイズについても52MB(1件あたり49KB)となり、ある程度抑えることができているため、今回の設定では上記のパラメータで検索インデックスを作成するのがよさそうです。 また余談ですが、今回は8-bit PQ(Product Quantization)を組み合わせたチューニングも実施しましたが、今回の実験設定では効果が出ない結果となりました。 おわりに 次元数の多いembeddingでのHNSWパラメータの探索や、RAG向けのベクトル検索についての技術記事があまり見当たらなかったため、今回は独自で検証を行いました。 結果として、今回はより一致率や検索時間に優れたパラメータを探索することができました。ベクトル検索のチューニングにおいては精度・検索速度・メモリの トレードオフ となるため、提供するRAGシステムの問題設定(ファイル数、文章 ドメイン 、RAGの仕様)やサービス設計などに合わせて同様の検証が求められます。 今回はHNSWに閉じた検証となりましたが、用途に応じて他の近似近傍探索手法を採用することも考えると非常に奥が深いですね。 この記事がどなたかの役に立てれば幸いです。ここまでお読みいただきありがとうございました。 執筆: @wakamoto.ryosuke 、レビュー: @yamada.y ( Shodo で執筆されました )
こんにちは。コーポレート本部 サイバーセキュリティ推進部の耿です。 以前 Amazon Verified Permissions についての 記事を書きました が、アプリケーションの認可以外にもこのサービスを利用できるのではないかと思い、汎用のポリシー判定エンジンとして使ってみました。具体的な ユースケース でお話ししたいと思います。 社内クラウド SOC 運用上の課題 Verified Permissions を汎用ポリシー判定エンジンとして使う Cedar ポリシー スキーマ定義 ポリシーの例1 ポリシーの例2 評価結果の例 SDK で Verified Permission を呼びだす例 Verified Permissions のサービスクオータ まとめ 社内 クラウド SOC 運用上の課題 Verified Permissions の話に繋げる前に、まずは普段の業務で発生している具体的な課題についてお話します。 電通 総研では クラウド 環境を組織的にセキュアに保つために、 クラウド SOC による複数案件アカウントの集中監視を行っております。 こちらのオペレーションの一つに、 案件アカウントが GuardDuty アラートを検知した場合、 クラウド SOC でも内容を確認して案件担当に確認を依頼する というものがあります。(以前のブログ「 Security Hub の社内展開を支えるツールたち 」でもご説明しています。) ただし、GuardDuty がアラートとして検知した挙動が、案件アカウントの正当な挙動であって実際には問題がない場合が多くあります。 正当な挙動が繰り返されれば、そのうち GuardDuty が学習してアラートを出さなくなることもありますが、頻繁に行われない操作などの場合はいつまでも GuardDuty にアラートとして扱われる場合もありました(GuardDuty のアラート検知ロジックは ブラックボックス なので、どうすればアラート扱いされなくなるかは分かりません)。このように「正当」と分かりきっている挙動の場合は、 煩わしさを解消するために クラウド SOC から案件担当への連絡をスキップしたい ことがあります。 例として、案件 A では以下のような条件のアラートは正当な操作なので、 クラウド SOC からの確認依頼はスキップする運用としたいです。(以下に当てはまらないアラートは、通常通り確認依頼を行いたいです) <通知スキップの条件> ・アカウントID: 111122223333 ・GuardDutyの検出タイプ: TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver ・対象EC2インスタンス: arn:aws:ec2:ap-northeast-1:111122223333:instance/i-0123456789 ・リモートIPアドレス: 1.2.3.4/32 または 1.2.3.5/32 また案件 B では、以下のような条件のアラートは正当な操作なので、確認依頼はスキップする運用としたいです。 <通知スキップの条件> ・アカウントID: 444455556666 ・GuardDutyの検出タイプ: TTPs/Exfiltration:S3-AnomalousBehavior ・操作対象のS3バケット名: 「my-log-bucket-」から始まるバケット名 ・発生時間帯: 毎月1日の 2:00AM ~ 6:00AM 案件ごとに異なる条件が多数ある状況で、アラートがスキップ対象かどうかをいかに素早く、正確に判定するかが課題となっていました。条件が増えてくると人手で突き合わせるのは間違えやすいですし、時間がかかってしまいます。GuardDuty のアラートを受け取る Lambda 関数にロジックを書いてスキップ判断をすることがまず思いつくやり方ですが、 条件によってスキップと判定するためのフィールドが全く異なる上、AND 条件と OR 条件が入り混じっていたり、文字列の部分一致条件があったり、時間帯のように値の範囲による判定条件があったり 、判定ロジックの実装や判定条件データの保持方法には工夫が必要だと感じました。 そこで Verified Permissions が登場します。Verified Permissions を汎用的なポリシー判定エンジンとして利用すれば、判定ロジックの実装の手間を省けるのではないかと考えました。 ※ AWS は Verified Permissions を認可サービスとして打ち出している現状、このような使い方を推奨しているわけではありません。実験的に「このように使ってみた」という記事としてご認識ください。 ※汎用的なポリシー判定エンジンとしては OSS の Open Policy Agent (OPA) が有名ですね。以前の柴田さんの記事で詳しく説明されています。 Policy as Codeを実現する Open Policy Agent / Rego の紹介 OPA に対して、 AWS マネージドサービスである Verified Permissions はポリシーを作成するだけで使えるのが便利です。 Verified Permissions を汎用ポリシー判定エンジンとして使う 以前の記事 で記載した通り、 Verified Permissions は特定条件における認可結果を ALLOW / DENY として返してくれますが、その後の扱いは完全にアプリケーションの責務となります。逆に言うとアプリケーション側に自由度があり、 ALLOW / DENY は好きなように解釈して良いわけです。そこで ALLOW は「アラート通知スキップ」、 DENY はスキップせずに「通知」、として扱う ことを考えます。 そして Verified Permissions に登録するポリシーを「アラート通知をスキップする条件(およびロジック)」として扱う ことで、条件の判定を完全に Verified Permissions にお任せし、その結果を便利に利用することができます。 Cedar ポリシー 以上の ユースケース を実現するための Cedar 言語による Verified Permissions のポリシー例を書いてみます。実際に使う場合は、 公式サイトのチュートリアル などで Cedar 言語の動きを一通り理解しておくことをおすすめします。 Verified Permissions のポリシーにはアプリケーションの認可を想定したマネージドサービスなので、 principal 、 action 、 resource をポリシーの中で明示できます。ただし今回は任意のフィールドで判定をさせたいため、 principal 、 action 、 resource は全許可し、代わりに context で全て判定させてみます。 スキーマ 定義 スキーマ 定義は次のようにしました。 { " GuardDutyApp ": { " commonTypes ": { " ContextType ": { " type ": " Record ", " attributes ": { " accountId ": { " type ": " String ", " required ": false } , " findingType ": { " type ": " String ", " required ": false } , " ec2InstanceArn ": { " type ": " String ", " required ": false } , " s3BucketName ": { " type ": " String ", " required ": false } , " remoteIpAddress ": { " type ": " String ", " required ": false } , " date ": { " type ": " Long ", " required ": false } , " hour ": { " type ": " Long ", " required ": false } , " minute ": { " type ": " Long ", " required ": false } } } } , " entityTypes ": {} , " actions ": { " check ": { " appliesTo ": { " context ": { " type ": " ContextType " } } } } } } commonTypes に context で利用する属性を記載しています( accountId 、 findingType 、 ec2InstanceArn 、 s3BucketName 、 remoteIpAddress 、 date 、 hour 、 minute )。スキップ判定に利用する属性が増えたら適宜追加していきます。 check というアクションを定義し、定義した context を利用するように設定しています。今回は Verified Permission の呼び出しでは常に check というアクションを利用するようにします。 今回は principal と resource は利用しないので、 entityTypes は空にしています。 ポリシーの例1 まずは上で述べた案件 A の判定条件: <通知スキップの条件> ・アカウントID: 111122223333 ・GuardDutyの検出タイプ: TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver ・対象EC2インスタンス: arn:aws:ec2:ap-northeast-1:111122223333:instance/i-0123456789 ・リモートIPアドレス: 1.2.3.4/32 または 1.2.3.5/32 これを Cedar ポリシーにしてみます: permit ( principal, action == GuardDutyApp::Action::"check", resource ) when { context has accountId && context.accountId == "111122223333" && context has findingType && context.findingType == "TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver" && context has ec2InstanceArn && context.ec2InstanceArn == "arn:aws:ec2:ap-northeast-1:111122223333:instance/i-0123456789" && context has remoteIpAddress && ["1.2.3.4", "1.2.3.5"].contains(context.remoteIpAddress) }; 判定に必要な属性のみを条件としています。属性はすべて「必須」とはしていないため、リク エス トに含まれていない可能性があります。そのため has オペレータでまずは存在を確認しています。 また、 OR 条件である「リモート IPアドレス 」は、 .contains() オペレータを利用しています。 ※ has で属性の存在確認をしないと、必須ではない属性に関しては Cedar の VS Code 拡張 利用時にエラーが表示されます。 ポリシーの例2 続いて案件 B の判定条件: <通知スキップの条件> ・アカウントID: 444455556666 ・GuardDutyの検出タイプ: TTPs/Exfiltration:S3-AnomalousBehavior ・操作対象のS3バケット名: 「my-log-bucket-」から始まるバケット名 ・発生時間帯: 毎月1日の 2:00AM ~ 6:00AM これを Cedar ポリシーにしてみます: permit ( principal, action == GuardDutyApp::Action::"check", resource ) when { context has accountId && context.accountId == "444455556666" && context has findingType && context.findingType == "TTPs/Exfiltration:S3-AnomalousBehavior" && context has s3BucketName && context.s3BucketName like "my-log-bucket-*" && context has date && context.date == 1 && context has hour && context.hour >= 2 && context.hour <= 6 }; バケット 名の部分一致については、 like オペレータで ワイルドカード を利用できます。 「毎月1日の 2:00AM ~ 6:00AM」という範囲による判定条件は不等号 ( >= 、 <= )が利用できます。 評価結果の例 以上の2つのポリシーを作成したとき、実際に Verified Permissions にリク エス トを送信した判定結果をいくつか示します。 案件 A のポリシーに該当する条件、リモート IP アドレスが 1.2.3.4 : コンテキスト属性 値 accountId "111122223333" findingType "TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver" ec2InstanceArn "arn: aws :ec2:ap-northeast-1:111122223333:instance/i-0123456789" remoteIpAddress "1.2.3.4" 結果: ALLOW 案件 A のポリシーに該当する条件、リモート IP アドレスが 1.2.3.5 : コンテキスト属性 値 accountId "111122223333" findingType "TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver" ec2InstanceArn "arn: aws :ec2:ap-northeast-1:111122223333:instance/i-0123456789" remoteIpAddress "1.2.3.5" 結果: ALLOW 案件 A のポリシーに該当する条件、判定を左右しない追加属性がある: コンテキスト属性 値 accountId "111122223333" findingType "TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver" ec2InstanceArn "arn: aws :ec2:ap-northeast-1:111122223333:instance/i-0123456789" remoteIpAddress "1.2.3.4" date 10 hour 10 結果: ALLOW 案件 A のポリシーに近いが、リモート IP アドレスが通知スキップ条件に該当しない: コンテキスト属性 値 accountId "111122223333" findingType "TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver" ec2InstanceArn "arn: aws :ec2:ap-northeast-1:111122223333:instance/i-0123456789" remoteIpAddress "1.2.3.6" 結果: DENY 案件 A のポリシーに近いが、リモート IP アドレス属性が不足: コンテキスト属性 値 accountId "111122223333" findingType "TTPs/Defense Evasion/DefenseEvasion:EC2-UnusualDNSResolver" ec2InstanceArn "arn: aws :ec2:ap-northeast-1:111122223333:instance/i-0123456789" 結果: DENY 案件 B のポリシーに該当する条件、S3 バケット 名が my-log-bucket-1 : コンテキスト属性 値 accountId "444455556666" findingType "TTPs/Exfiltration:S3-AnomalousBehavior" s3BucketName "my-log- bucket -1" date 1 hour 2 結果: ALLOW 案件 B のポリシーに該当する条件、S3 バケット 名が my-log-bucket-abcdefg : コンテキスト属性 値 accountId "444455556666" findingType "TTPs/Exfiltration:S3-AnomalousBehavior" s3BucketName "my-log- bucket -abcdefg" date 1 hour 2 結果: ALLOW 案件 B のポリシーに近いが、S3 バケット 名が通知スキップ条件に該当しない: コンテキスト属性 値 accountId "444455556666" findingType "TTPs/Exfiltration:S3-AnomalousBehavior" s3BucketName "other- bucket " date 1 hour 2 結果: DENY 案件 B のポリシーに近いが、発生時間が通知スキップ条件に該当しない: コンテキスト属性 値 accountId "444455556666" findingType "TTPs/Exfiltration:S3-AnomalousBehavior" s3BucketName "my-log- bucket -1" date 1 hour 7 結果: DENY 案件 B のポリシーに近いが、発生時間が数値型ではなく文字列型: コンテキスト属性 値 accountId "444455556666" findingType "TTPs/Exfiltration:S3-AnomalousBehavior" s3BucketName "my-log- bucket -1" date 1 hour "2" 結果: DENY SDK で Verified Permission を呼びだす例 AWS SDK for JavaScript を利用して Verified Permission を呼びだすコード例を書いておきます。 (受け取った GuardDuty のアラートから該当するフィールドのデータを取り出す部分は省略しています。) import { VerifiedPermissionsClient , IsAuthorizedCommand } from "@aws-sdk/client-verifiedpermissions" ; const client = new VerifiedPermissionsClient ( { region: "ap-northeast-1" } ); // GuardDuty アラートから内容を取りだす(省略) const accountId: string = // アカウントID const findingType: string = // GuardDuty 検出タイプ const ec2InstanceArn: string = // 対象 EC2 インスタンス ARN const s3BucketName: string = // 対象 S3 バケット名 const remoteIpAddress: string = // リモートIPアドレス const date: number = // 検出日時(日付) const hour: number = // 検出日時(時間) const minute: number = // 検出日時(分) const command = new IsAuthorizedCommand ( { // マネジメントコンソールから確認できる Verified Permissions のポリシーストア ID policyStoreId: "DUMMYSTOREID" , // アクションは常に check action: { actionType: "GuardDutyApp::Action" , actionId: "check" } , // コンテキストに属性を追加 context: { contextMap: { accountId: { string : accountId } , findingType: { string : findingType } , ec2InstanceArn: { string : ec2InstanceArn } , s3BucketName: { string : s3BucketName } , remoteIpAddress: { string : remoteIpAddress } , date: { long : date } , hour: { long : hour } , minute: { long : minute } , } , } , } ); client .send ( command ) .then (( result ) => { console .log ( result.decision ); // 判定結果 console .log ( JSON .stringify ( result.determiningPolicies )); // 該当したポリシー if ( result.decision === "ALLOW" ) { // 通知スキップ時の処理 } else { // 通知時の処理 } } ) . catch (( e: unknown ) => { // コマンドエラー時の処理 } ); Verified Permissions のサービスクオータ Verified Permissions の利用に際してはサービスクオータを念頭に置いておくと良いです。 ドキュメント には次のように記載されています。 単一リソースに関するすべてのポリシーの合計サイズは、200,000 バイトを超えることはできません。 1つのポリシーストアに作成できるポリシーの数にはクオータは設定されていないようですが、ポリシーサイズにはクオータがあります。ポリシーがリソース( resource )を指定している場合、同じリソースを指定している全てのポリシーの合計サイズは 200,000 バイトが上限とのことです。今回の使い方では resource を指定していませんが、サポートに問い合わせたところ resource を指定していない全てのポリシーの合計サイズの上限が 200,000 バイトになる そうです。またポリシー内に記載しているコメントや、改行文字、空白文字もサイズとしてカウントされるそうです。ポリシー数が多くなることが予想される場合には留意しておきましょう。 ポリシーのサイズを節約したい場合は、 以前の記事 の通り CDK でポリシーの管理やデプロイを行い、デプロイ時に CDK のコードでポリシーファイル内のコメント行を削除するなどの処理を入れても良いかもしれません。 また、 Cedar のベストプラクティス によると、可能であれば ポリシーで resource を指定するとパフォーマンスメリットがあるとのことです。今回はどのような条件でスキップが判定されるのかわからない想定のため resource を指定せずに利用しましたが、例えば常にアカウント ID が判定条件に使われることが分かっているのであれば、 context ではなく resource にアカウント ID を指定しても良いかもしれません。判定時にパフォーマンスの向上が期待でき、 resource も分散するのでサービスクオータに引っかかりにくくなります。 まとめ Verified Permissions を汎用ポリシー判定エンジンとして利用し、GuardDuty アラートを社内案件に通知するかどうかの条件判定に使ってみました。Cedar 言語の表現力のおかげで、複雑な判定ロジックを自前で実装せずに済み、ポリシーを作成するだけで利用できるのが嬉しいところです。工夫をすれば認可以外でも Verified Permissions を便利に利用できるケースはあると感じました。 執筆: @kou.kinyo 、レビュー: @kano.nanami ( Shodo で執筆されました )
みなさんこんにちは!  電通 総研 金融ソリューション事業部の松崎です。 前回の記事 では、Mesh to Metahumanの元となるメッシュを作成する手順を紹介しました。 この記事は後編になりまして、 前編 で準備したメッシュを用いてMetahumanを作成していく手順を紹介します。 もしまだご覧になっていない方は、是非 前編 からご覧ください! 目次 使用機材紹介 撮影方法 1.頭部メッシュ&テクスチャ作成(フォトグラメトリ) 2.頭部メッシュのリ トポロジー (3Dメッシュ編集) 3.Metahumanの作成と編集(Mesh to Metahuman) 4.Metahumanにフォトグラメトリテクスチャを合成(3D テクスチャマッピング ) 後編では3,4章をご紹介します。 3.Metahumanの作成と編集(Mesh to Metahuman) 2.にて作成したメッシュを用いて、Metahumanの作成を行います。 Metahumanの作成には、UnrealEngine5(以下、UE5)を使用します。 もしまだUE5をインストールしていない場合は、 こちらのサイト の案内に沿ってインストールしましょう。 UE5のインストールが完了しましたら、UE5にMetahuman プラグイン をインストールします。 Epic Games Launcherを開き、マーケットプライスタブで「Metahuman」と検索すると出てきますので、そちらをインストールしましょう。 UE5にて、インストールしたMetahuman プラグイン を有効化します。 UE5を起動し、適当なBlankプロジェクトを作成します。 UE5プロジェクトが開きましたら、「編集 → プラグイン 」で プラグイン ブラウザタブを開きます。 Metahuman プラグイン を選択し、チェックを入れて有効化します。 UEの再起動を求められた場合は、指示通りに再起動しましょう。 続いて、Quixel Bridgeにサインインします。 Quixel Brigeは、作成したMetahumanをUE5へインポートする際に使用するサービスです。また、Metahuman以外でもMegascansのアセット等をインポートする際に用いるサービスです。 「ウィンドウ → Quixel Bridge」からQuixel Brigeを起動します。 サインインが求められますので、UE5にログインしているアカウントでQuixel Brigeにもサインインします。 事前準備が完了しましたので、Metahumanを作成していきます。 コンテンツブラウザの「追加 → 新規フォルダ」を選択し、コンテンツ配下にフォルダを作成します。 作成したフォルダに、2.で出力したメッシュ(OBJ形式)とテクスチャを ドラッグ&ドロップ します。 インポート時の設定にて「Combine Static Meshes」のチェックを外します。 これはメッシュを一塊でインポートする為です。 インポートが完了したら、このメッシュ用のマテリアルを追加します。 コンテンツブラウザの「追加 → マテリアル」から追加します。 追加したマテリアルをダブルクリックして編集画面を開き、テクスチャを ドラッグ&ドロップ します。 テクスチャのRGBノードをマテリアルのベー スカラー に結合し、保存します。 インポートしたメッシュをダブルクリックして編集画面を開き、マテリアルスロットに先ほど追加したマテリアルを設定して保存します。 試しにメッシュをフィールドへ ドラッグ&ドロップ すると、メッシュにテクスチャが貼られていることを確認できます。 メッシュとテクスチャのインポートが完了したので、Metahuman identityでMetahumanを作成します。 「追加 → Metahuman Animator → Metahuman Identity」でMetahuman Identityを追加します。 追加したMetahuman Identityをダブルクリックして編集画面を開き、「Create Components → From Mesh」でインポートしたメッシュを選択します。 コンポーネント (フレーム0)が作成されましたら、ライティングを「ライティングなし」にします。 「Track Markers」を押下すると、選択しているフレームにおける顔の主要部位をト ラッキング してくれます。 無事にト ラッキング されたら、「Metahuman Identityの解決」を押下してMetahumanを作成します。 「B」を押すと作成されたMetahumanを確認できます。 画面左にある「ボディ」から、Metahumanの胴体部分の調整を行うことができます。 必要に応じて、Metahumanの微調整を行っていきます。 再度フレーム0を選択し、画面右上部の「表示(visible)」「使用(used)」を押下して全て有効化します。 目や耳、眉などのト ラッキング 状態を調整します。 各々の輪郭に沿うように、緑色の丸と線を移動させます。 ※修正は、軽い位置移動に留めましょう。線の長さを変えるような大きな修正は控えます。 再度「Metahuman Identityの解決」を押下してMetahumanを作成します。 もう一つMetahumanの調整方法を紹介します。 上記のフレーム0でト ラッキング する際、正面からのト ラッキング になるため耳の形状を正確に捉えることができません。 そこで、耳のト ラッキング 用に別のフレームを追加します。 「フレームのプロモート」を押下し、フレーム1(右耳用)を追加しました。 フレーム1では、右耳だけが使われるように「耳(R)」だけ「使用(used)」チェックを入れます。 フレーム0にて、耳が使われないように「耳(R)」「耳(L)」の「使用(used)」チェックを外します。 フレーム1と同様に、フレーム2(左耳用)を追加します。 「Metahuman Identityの解決」を押下して調整内容をMetahumanに反映します。 「Mesh to Metahuman → Auto-rig Identity(Skeltal Mesh + Full Metahuman)」を押下して作成完了です。 メッシュからMetahumanの作成が完成しましたら、Metahuman Creator を使ってテクスチャ・体形等の調整を行います。 Metahuman Creator は、ヘアスタイル・顔の特徴・身長・ボディプロ ポーション ・衣服などを編集できるツールです。 Metahuman Creator はブラウザ上で使用します。 こちらのリンク からアクセスし、上記を編集していきます。 自分が使用しているUEのバージョンを選択し、「Metahuman Creator を起動」を押下します。 先ほどMetahuman Identityで作成したMetahumanを選択し、「選択したものを編集」を押下します。 肌のスキンを編集します。 後にフォトグラメトリで作成したテクスチャと合成しますので、最低限だけ編集します。 「テクスチャ」は数値を上げるとシワが増え老けているように見えますので、0に設定しました。 「カラー」や「ラフネス」はお好みで設定しましょう。 目を編集します。 「 虹彩 サイズ」や「 虹彩 彩度」は見た目の印象に大きく影響しますので、モデルの写真を見ながら調整しました。 また、「ベー スカラー 」「詳細カラー」も、モデルの写真を見ながら軽く調整しました。 髪の毛はお好みで設定します。 今回は元の写真と比較しやすいように、短髪に設定しています。 眉毛は「なし」に設定します。 これは、後にフォトグラメトリで作成したテクスチャから眉毛を持ってくるためです。 まつげもお好みで設定します。 体の調整もお好みで行います。 今回はモデルの方と近くなるよう、以下のように体型や頭の大きさを設定しました。 「上半身」「下半身」「靴」では身に着ける衣服を変更できます。 Metahuman Creator でのテクスチャ設定が完了しましたら、UE5に戻ります。 ※Metahuman Creator では常に自動保存がされていますので、「保存」ボタンなどを押す必要はありません。 「ウィンドウ → Quixcel Bridge」でQuixcel Bridgeを開きます。 「MetaHumans → My MetaHumans」から先ほど編集したMetahumanを選択し、「Download」を押下します。 20分ほど待つとダウンロードが完了しますので、「Add」を押下します。 コンテンツブラウザのMetaHumansフォルダ配下に、Metahumanが追加されていることを確認できます。 「BP_(Metahuman名)」のファイルを ドラッグ&ドロップ し、画面上に配置します。 Metahuman Creator で設定したままのMetahumanを配置できました。 モデル写真との比較になります。 「全く似ていない」というわけではないですが、目や肌の質感で違いを感じてしまいます。 4.Metahumanにフォトグラメトリテクスチャを合成(3D テクスチャマッピング ) Metahumanの顔をよりモデルに似せるために、フォトグラメトリで作成したテクスチャを合成します。 まず初めに、MetahumanのメッシュとテクスチャをUE5からエクスポートします。 Metahumanが格納されているフォルダ内で「facemesh」と検索します。 フェイスメッシュを右クリックし、「アセットアクション → エクスポート」を押下します。 以下のように設定し、エクスポートを実行します。 フェイスメッシュと同様に、「FaceColor_MAIN」と検索してテクスチャをエクスポートします。 次に、 Blender を用いてフェイスメッシュの余分な部位を取り除きます。 Blender で新規ファイルを開き、デフォルトで配置されるオブジェクトを全て削除します。 「ファイル → インポート → FBX」を押下します。 先ほどUE5からエクスポートしたフェイスメッシュを選択し、「FBXをインポート」を押下します。 フェイスメッシュがインポートされました。 画面右のフェイスメッシュ内訳を開き、「root」の右にある目玉を押下してメッシュモデルだけを表示します。 画面上でメッシュモデルを選択後、「オブジェクトモード → 編集モード」を選択します。 一度メッシュモデルの外側を押下して選択状態を解除した後、モデルの頭頂部を押下します。 その後キーボードのLキーを押下すると、下記のように頭部メッシュが選択されます。 キーボードのHキーを押下して頭部メッシュを非表示にすると、目と歯のメッシュが残ります。 Aキーで残ったメッシュを全選択し、Xキーを押下後に「頂点」を選択し、これらのメッシュを削除します。 Alt + Hキーで頭部メッシュを再表示します。これにて余分なメッシュを取り除くことができました。 「ファイル → エクスポート → Wavefront(.obj)」を押下し、上記をOBJファイルとして出力します。 次に、Wrapを用いてフォトグラメトリで作成したテクスチャをMetahuman用に転写します。 Wrapの新規ファイルを開き、2.の最後に出力した(3.にてUE5にインポートした)メッシュ(OBJ形式)とテクスチャを ドラッグ&ドロップ でインポートします。 インポートしたメッシュとテクスチャのノードを結合します。 先ほど Blender でエクスポートしたフェイスメッシュと、UE5からエクスポートしたFaceColor_MAINのテクスチャをインポートします。 インポートしたフェイスメッシュとテクスチャのノードを結合します。 ※フェイスメッシュは非常に小さくインポートされますので、見えやすいように「Scale」を調整しましょう。 インポートした2つのメッシュを両方とも表示します。 表示と非表示はメッシュノードの電球マークを押下して制御できます。 2.でのWrap手順と同様に、「RigidAlignment」「SelectPointPairs」を用いて2つのメッシュに対して位置合わせを行います。 右クリックから「RigidAlignment」「SelectPointPairs」ノードを追加し、以下のように結合します。 「SelectPointPairs」ノードを選択した状態でVisualEditorエリアを表示し、「Sync Views」をチェックした上で以下のように位置合わせの基準点を追加しました。 Viewport3Dエリアに戻り、「RigidAlignment」ノードを選択して「Fit Scale」にチェックを入れます。 これにて位置合わせが完了しました。 「Wrapping」ノードを追加し、以下のように結合して「Compute」を実行します。 Wrappingが完了しました。 ベースメッシュの表示をオフにすると、綺麗にWrappingされていることが確認できます。 「TransferTexture」「ExtrapolateImage」ノードを用いてフォトグラメトリで作成したテクスチャをMetahumanのメッシュに転写し、「SaveImage」で保存します。 「TransferTexture」ノードは特定のジオメトリ(メッシュ)から別のジオメトリへテクスチャを転写する機能です。 また、「ExtrapolateImage」ノードはテクスチャの色がある部分から外挿してテクスチャの透明な部分を塗りつぶしてくれる機能です。 以下のようにノードを結合します。 「ExtrapolateImage」ノードを選択してViewport2Dエリアを表示すると、処理されたテクスチャが現れます。 テクスチャ内の透明だった部分がいい感じに埋められていることを確認できます。 「SaveImage」ノードで出力先を指定し、「Compute Curent Frame」からテクスチャを出力します。 これにて、フォトグラメトリで作成したテクスチャをMetahumanで使えるように転写することができました。 最後に、PhotoShpopを用いて「MetahumanのFaceColor_MAINテクスチャ」と「Wrapからで出力した転写テクスチャ」を合成していきます。これは、フォトグラメトリで作成したテクスチャを違和感なくMetahumanに馴染ませるためです。 合成は以下のようなイメージで行います。 Photoshop を起動し、「ファイル → スクリプト → ファイルをレイヤーとして読み込み」を押下します。 先ほどWrapしたテクスチャ(フォトグラメトリで作成したテクスチャを転写したテクスチャ)と、UE5から出力したMetahumanのFaceColor_MAINテクスチャを選択します。 ※Wrapにて出力する際に4096×4096で出力しましたが、FaceColor_MAINテクスチャのサイズが2048×2048であった為、こちらも2048×2048にサイズダウンしたものを選択しています。 選択したファイルがインポート対象一覧に表示されていることを確認し、「OK」でインポートします。 2つのテクスチャがレイヤーとしてインポートされたら、それぞれを分かりやすい名前に変更します。 今回は、Wrapで出力したテクスチャは「Photogrametry」、UE5から出力したテクスチャは「Metahuman」と 命名 しました。 インポートが完了したので、合成作業に入っていきます。 左端のツール一覧から「スポイトツール」を選択しましょう。 このツールを使用して、それぞれのテクスチャにおける肌の色をサンプリングします。 サンプル範囲は「5 ピクセル 四方の平均」とします。 「Metahuman」レイヤーを選択し、顔の眉間あたりを左クリックして肌色をサンプリングします。 サンプリングが完了したら、画面右下の「レイヤー」から新規レイヤーを作成します。 このレイヤーは、2つのテクスチャの肌色を比較する用途で利用します。 レイヤー名は「色比較」としました。 ※下記画像では、「Photogrametry」「Metahuman」レイヤーを非表示にしています。表示/非表示はレイヤー一覧左の「目のマーク」を押下して制御できます。 左端のツール一覧から「ブラシツール」を選択し、ブラシの種類・直径・不透明度・流量・滑らかさを設定します。 今回は下記のように設定しました。 「色比較」レイヤーを選択し、 ドラッグ&ドロップ でレイヤー一覧の最上段に移動させます。 すべてのレイヤーを表示状態にした上で再度「色比較」レイヤーを選択し、画像左上部分にブラシで色を塗ります。 この時、先ほどサンプリングした「Metahuman」レイヤーの肌色で色が塗られます。 「Photogrametry」レイヤーを選択し、上記同様にスポイトツールで肌の色をサンプリングします。 「色比較」レイヤーを選択し、画像右上部分にブラシで色を塗ります。 左端のツール一覧で「スポイトツール」を右クリックし、「カラー サンプラー ツール」を選択します。 先ほどブラシツールで塗った色の部分を、「左 → 右」の順で選択します。 これにより、それぞれの肌色のRGB値をサンプリングできました。 (「Metahuman」レイヤーの肌色が#1、「Photogrametry」レイヤーの肌色が#2となっていれば問題ありません) 「Photogrametry」レイヤーを選択した状態で、左端のツール一覧から「なげなわツール」を選択します。 なげなわツールにて、下記画像のように顔の周辺を囲います。 画面右下の「追加」を左クリックし、「 トーンカーブ 」を選択します。 「 トーンカーブ 1」レイヤーが作成されたら、その中の白黒レイヤーマスクではない、レイヤー本体部分を選択します。 下記画像の赤い部分になります。 画面右中央部の手指マークを押下し、Ctrl+Shiftを押しながら「Photogrametry」レイヤーの肌色(#2)を選択します。 トーンカーブ 設定の「RGB」を 「レッド」 に変更します。 入力・出力ともに#2のR値となっていることが確認できましたら、出力を#1のR値に変更します。 今回の場合は、「187(#2のR値)→ 220(#1のR値)」と変更しました。 「グリーン」、「ブルー」に対しても同様に出力を変更します。 グリーンではG値、ブルーではB値を使います。 すべてのRGB出力値を変更したら、Ctrlを押しながら「 トーンカーブ 1」レイヤーの白黒レイヤーマスクを選択します。 「Photogrametry」レイヤーを選択し、画面右下の「レイヤーマスク」を押下します。 「Photogrametry」レイヤーの白黒レイヤーマスクが作成されました。 顔の肌色と外側の肌色を比較し、おおよそ色が近くなっていることを確認します。 「 トーンカーブ 1」レイヤーと「Photogrametry」レイヤーだけを表示状態にし、Ctrl+Shift+Alt+Eを押します。 これにより、表示レイヤーだけを結合した新しいレイヤーが作成されます。 このレイヤーは「肌調整後」レイヤーとしました。 「Photogrametry」レイヤーの白黒レイヤーマスクを、 ドラッグ&ドロップ で「肌調整後」レイヤーへ移動させます。 その後、「肌調整後」レイヤーと「Metahuman」レイヤーだけを表示状態にします。 「肌調整後」レイヤーの白黒レイヤーマスクを選択した状態で、「ブラシツール」を選択します。 黒色の「ソフト円ブラシ」を用いて、頭や髪の毛の黒い部分、肌の境界部分を慣らします。 全体的に慣らし、下記のような仕上がりになりました。 ブラシの直径を短くした上で、同様に口と鼻も慣らします。 目の上部を修正する際は、「肌調整後」レイヤーのレイヤー本体を選択した状態で、「コピースタンプツール」を使用します。 コピースタンプツールは、Alt+左クリックで画像の特定位置をコピーし、他の場所にコピーした位置周辺の色を反映させることができる機能です。 目の上部で色が崩壊していない部分をコピーし、その色を用いて他部分の修正を行いましょう。 以下のように修正できました。 最後に、目を修正しましょう。 再度「肌調整後」レイヤーの白黒レイヤーマスクを選択した状態で、「ブラシツール」を選択します。 鼻や口を修正したときと同様に、黒色「ソフト円ブラシ」を用いて慣らします。 以下のように修正できました。 テクスチャ全体を確認してみます。 髪の毛の黒色が少し目立っていたので、再度レイヤーマスクを慣らして調整しました。 これにてテクスチャの合成が完了です。 完成したテクスチャを PNG 形式で出力します。 「ファイル → 書き出し → 書き出し形式」を選択します。 ファイル形式を「 PNG 」に設定して出力します。 UE5に戻り、 Photoshop で出力した合成テクスチャをMetahumanに適応しましょう。 コンテンツブラウザの「コンテンツ」フォルダを右クリックし、「新規フォルダ」を押下します。 新規フォルダに移り、先ほど出力した合成テクスチャを ドラッグ&ドロップ します。 「Metahumans」フォルダにて「MI_HeadSynthesized_Baked」とファイル検索を行い、該当ファイルをダブルクリックします。 編集画面が開いたら、先ほど ドラッグ&ドロップ した合成テクスチャを選択します。 右上のパラメータ検索欄で「base」と検索し、「BaseColor」にある「←」ボタンを押下して合成テクスチャを適用させましょう。 残りのテクスチャにも適用させます。 画面左上から保存して編集画面を閉じると、合成テクスチャが反映されたMetahumanを見ることができます。 元のモデル写真との比較になります。 目や眉毛、肌の質感を含めモデルとかなり似ているMetahumanを作成することができました。 おわりに 前後編を通し、フォトグラメトリで作成したメッシュ・テクスチャを用いてMetahumanを作成する手法を紹介してきました。使用する機材・ソフトウェアがなかなか多くなりましたが、その分かなりモデルと似ているMetahumanを作成できました。 今後、様々な メタバース 領域のサービスでMetahumanが利用されていくと思いますが、今回作成したように 「本人そっくりな」 Metahumanを活かしたサービスが増えていくことが楽しみです。 記事をご覧いただきまして、ありがとうございました! 現在、 電通 総研は web3領域のグループ横断組織 を立ち上げ、Web3および メタバース 領域のR&Dを行っております(カテゴリー「3DCG」の記事は こちら )。 もし本領域にご興味のある方や、一緒にチャレンジしていきたい方は、ぜひお気軽にご連絡ください! 私たちと同じチームで働いてくれる仲間を、是非お待ちしております! 電通総研採用ページ 参考文献 ・ 回転台とグリーンバックによる本格フォトグラメトリ撮影(Adobe Photoshop × RealityCapture) ・ フォトグラメトリによる3Dモデル作成ワークフロー(前編) ・ フォトグラメトリによる3Dモデル作成ワークフロー(後編) ・ 初歩からのフォトグラメトリ~人物フォトグラメトリを活用してUnreal EngineでMetahumanを作成する方法〜【写真からゲームで使える3Dキャラを作ってみよう! vol.11】 ・ 初歩からのフォトグラメトリ~Wrapの使いかた(初級編)RealityCaptureで作ったモデルを綺麗にリトポロジーしよう!~【写真からゲームで使える3Dキャラを作ってみよう! vol.8】 ・ Pushing the MetaHuman Likeness Limits via Scan-based Textures | Unreal Fest 2022(YouTube) ・ Easy Trick To Match SKIN TONES in Photoshop Fast!(YouTube) ・ UNREAL ENGINE download ・ RealityCapture ・ Wrap ・ MetaHuman Creator ・ 顔の周りのテクスチャを馴染ませる(YouTube) ・ 目のまわりを調整(YouTube) 執筆: @matsuzaki.shota 、レビュー: @sato.taichi ( Shodo で執筆されました )
みなさんこんにちは!  電通 総研 金融ソリューション事業部の松崎です。 前回の記事 では、回転台やグリーンバックを用いたフォトグラメトリ手法について紹介しました。 この手法は今回のMetahuman作成の中でも使用しておりますので、まだご覧になっていない方は是非ご一読ください。 今回から、2回に分けてフォトグラメトリを活かしたMetahuman作成のワークフローを紹介していきます。 この記事は前編です、読み終わりましたら是非 後編 もご覧ください。 はじめに 本記事ではフォトグラメトリにて人物頭部のメッシュ・テクスチャを作成し、それを用いてMetahumanを作成する手法を紹介します。 ※フォトグラメトリに関しては、 以前の記事 をご参照ください。 MetahumanとはEpic社が提供しているデジタルヒューマン作成用の フレームワーク であり、UnrealEngine上で簡単に使用できることが特徴です。 今回はMesh to Metahumanを用いてMetahumanを作成します。Mesh to Metahumanとは、3DメッシュからMetahumanを作成するUnrealEngineの機能です。 Mesh to MetahumanではMetahumanのメッシュ・テクスチャが作成されますが、現段階ではテクスチャのクオリティがそこまで高くない為、そのまま使用するとそっくりと言えるレベルにはなりません。 そこで今回は、フォトグラメトリで作成した頭部テクスチャを使用してクオリティの向上を図ります。 Mesh to Metahumanで作成されたMetahumanテクスチャにフォトグラメトリで作成したテクスチャを合成することで、 「人物そっくりな」 Metahumanを作成できました。 次章より、以下の目次に沿ってMetahuman作成方法を紹介していきます。 目次 使用機材紹介 撮影方法 1.頭部メッシュ&テクスチャ作成(フォトグラメトリ) 2.頭部メッシュのリ トポロジー (3Dメッシュ編集) 3.Metahumanの作成と編集(Mesh to Metahuman) 4.Metahumanにフォトグラメトリテクスチャを合成(3D テクスチャマッピング ) 前編では2章までご紹介します。 使用機材 PC PCはスペックの高いものを使用しております。これは、フォトグラメトリにおける処理時間を短縮させる為です。 PCの具体的なスペック、並びにフォトグラメトリを行う際に必要なスペックを記載します。 使用PCスペック OS: Windows 11 Pro 64bit CPU: Intel Core i9 -13900KF CPUコア数:24 RAM:64GB GPU : NVIDIA GeForce RTX 4090 CUDAコア数:16384 グラフィックメモリ:24GB フォトグラメトリの必要スペック OS:64bit Microsoft Windows version 7 / 8 / 8.1 / 10 / 11 または Windows Server version 2008+ CPU:SSE4.2(Streaming SIMD Extensions 4.2)以降 RAM(メモリ):8GB以上 GPU : NVIDIA graphics card with CUDA 3.0+ capabilities で 、VRAMが1GB以上 DRIVER:CUDA Toolkit 10.2, minimal driver version 441.22. カメラ(2台) カメラは人物の頭部を撮影する用途で、2台使用しました。1台は人物の頭部を正面から撮影し、もう1台は斜め下から撮影しています。 人物を撮影する場合、撮影時間が長くなると動いてしまうリスクが高まりますので、カメラは2台用いて一気に撮影することが望ましいです。(予算が許す場合はカメラを何十台も用意して360度に配置し、1回の撮影で終えられると理想的です) 本来であれば2台とも同じ機種であることが望ましいですが、今回はそろえることができなかった為、以下の機種を1台ずつ使用しました。 Sony α7R IV (Lens: Sony Vario-Tessar T* FE 16-35mm F4 ZA OSS (SEL1635Z)) Sony α7C (Lens: SIGMA 28-70mm F2.8 DG DN | Contemporary ) 三脚(2台) 手振れ防止目的にて三脚を使用しています。 フォトグラメトリでは手振れが天敵となりますので、可能な限り三脚を用いることが推奨されます。 照明(2台) 照明2台を用いて、人物の頭部を照らしました。 照明を当てると人物の輪郭が強調されますので、フォトグラメトリで作成されるテクスチャがより本人らしくなります。 また、定常光による意図しない影を作らない為にも照明を用いています。 回転台 人物本人やカメラを動かさずに360度撮影できるよう、回転台を使用しました。 撮影対象人物を回転台に乗せることで、人物本人に同じ姿勢をキープさせたまま回転させることができます。 ヘアネット 髪の毛を仕舞い込む用途にて使用しました。 Mesh to MetahumanでMetahumanを作成する際に髪の毛は邪魔になりますので、ヘアネットで1ヵ所に纏めます。 撮影方法 人物頭部の撮影風景は以下のようになります。 (画像では正面カメラの位置が低いですが、実際の撮影時は顔の正面に来るよう高さを調整しています) 白い壁を背景にして回転台を置き、撮影対象の人物が乗ります。 カメラは人物頭部の「正面」「斜め下」に1台ずつ配置し、照明は正面から斜め45度の位置に1台ずつ設置しました。 撮影時、撮影対象人物にはなるべく同じ表情・姿勢で静止してもらい、回転台を少しずつ回しながら撮影を進めていきます。 撮影枚数に関して、今回は1周でカメラ1台あたり36枚ほど撮影しました。(回転台は約10度ずつ回す) 回転台を回す度にカメラ2台分のシャッターを切る必要がありますので、撮影側には最低2人用意しておくことが望ましいです。 1.頭部メッシュ&テクスチャ作成(フォトグラメトリ) 人物の頭部を撮影し、フォトグラメトリにてメッシュとテクスチャを作成します。 まず初めに写真撮影です。 上記の撮影方法にて人物頭部の撮影を行い、以下のようになりました。 (今回は先輩社員にモデルをお願いしました) 正面 斜め下 次に、フォトグラメトリにてメッシュとテクスチャを作成します。 詳細な手順は 以前の記事 で紹介しておりますので、そちらをご参照ください。(記事同様、今回も RealityCapture を用いてフォトグラメトリを行いました) フォトグラメトリによって完成したメッシュとテクスチャが以下になります。 頭頂部が崩れていますが、この部分は次章で行うリ トポロジー にて解消されるため問題ありません。(詳細は後述します) 完成したメッシュ/テクスチャをOBJ形式/ PNG 形式にて出力します。 ※出力ファイルサイズ メッシュ(OBJ):約6GB テクスチャ( PNG ):約200MB 2.頭部メッシュのリ トポロジー (3Dメッシュ編集) 1.にて作成した頭部メッシュのリ トポロジー を行います。 リ トポロジー とは、ポリゴンの流れ( トポロジー )を再構築して整える作業のことです。 今回はMetahumanで使うための頭部メッシュを作成しているので、以下の点を意識してリ トポロジー を行う必要があります。 ポリゴン数を減らし、軽くて操作しやすいメッシュにする 自然な表情変化ができるよう、人間本来の表情筋の流れに沿った トポロジー を構築する 上記の1点目だけであればRealityCapture上でも行うことができますが、2点目は不可能です。 そこで今回は、 Wrap という3D モデリング ソフトウェアを使用してリ トポロジー を行いました。 Wrapとは、その名の通り自分の3DメッシュをWrap側のベースメッシュに被せられるソフトウェアです。Wrap側で用意されているデフォルト顔のベースメッシュに自分でスキャンしたメッシュを被せることで、簡単にリ トポロジー を行うことができました。 Wrapのインストールは こちら から行うことができます。有料ソフトウェアですが、初回30日は無料で試用できるので是非お試しください。 それでは、実際にWrapを使ってリ トポロジー を行っていきます。 Wrapを立ち上げ、画面左上の「File → New Project」で新規プロジェクトを作成します。 「Gallary」タブを押下し、Basemeshsから「Head」を選択します。 こちらが、今回のリ トポロジー でベースに使うメッシュです。 Graphエリアに「Head」のノードが追加されました。また、Viewport3Dエリアでは追加した「Head」のメッシュ本体を見ることができます。 次に、フォトグラメトリで作成した頭部メッシュを読み込みます。 Graphエリアで右クリックし、「LoadGeom」を選択します。 Graphエリアに追加された「LoadGeom」ノードを選択すると、Editorエリアに設定項目が表示されます。 File Nameの右にある「...」を押下し、フォトグラメトリで作成したOBJ形式のメッシュを読み込みます。 ※画像のように、ファイルパスに日本語が混ざっていると正常に読み込まれません。パスは英数字のみで指定するようにしましょう。 「Reload」を押下し、読み込みを開始します。 読み込みが完了すると、以下のように真っ黒なメッシュが現れます。 Editorエリアの「Wireframe」のチェックを外すと、メッシュが見やすくなります。 「Head」メッシュと「LoadGeom」で読み込んだメッシュの位置合わせを行います。 今回は「LoadGeom」メッシュの位置と角度を変化させます。 「LoadGeom」を選択し、Editorエリア「Rotation」の値を変えて向きをそろえます。 向きがそろったら、Viewport3Dエリアのギズモ(赤青緑の移動・回転・拡大縮小ツール)を使用して位置合わせを行います。 必要に応じ、ギズモを使って向きの微調整も行いましょう。 下記図のように位置がおおよそ重なっていれば問題ありません。 次に、フォトグラメトリで作成したテクスチャを読み込みます。 対象のテクス チャフ ァイルをGraphエリアに ドラッグ&ドロップ します。 テクスチャのノードが作成されますので、「LoadGeom」ノードと結合します。 これにより、「LoadGeom」で読み込んだメッシュにテクスチャが反映されます。 Graphエリアで右クリックし、「RigidAlignment」ノードを追加します。 このノードを使い、さきほど大まかに位置合わせした2つのメッシュを正確に合わせていきます。 下図のように、各ノードを結合します。(結合する位置を間違えないように注意しましょう) Graphエリアを右クリックして「Selectpointpairs」ノードを追加します。 このノードは、「RigidAlignment」ノードで位置合わせを行う際の基準点を指定するために使用します。 下図のように、各ノードを結合します。 「Selectpointpairs」ノードを選択した状態でVisualEditorエリアを表示させます。 Editorエリアの「Sync Views」にチェックを入れます。これにより、VisualEditorエリアの2つのメッシュが連動して動くようになります。 VisualEditorエリアにて、位置合わせの基準点を設定します。基準点には目や口・鼻・顎先など、顔の特徴的な部分を設定することが望ましいです。今回は下図のように目と顎先の3点を設定しました。 基準点の設定が完了したら、Viewport3Dエリアを表示します。 「RigidAlignment」ノードを選択し、「Fit Scale」にチェックを入れます。これにより、メッシュのサイズを変えながら基準点をより正確に合わせてくれます。 「RigidAlignment」ノードの名前を分かりやすい名前に変更します。 ノードを選択してF2を押すと名前が変更できます。 今回は参考にさせていただいたブログ に習い、「RC_Aligned」としました。 次に「Wrapping」ノードを追加します。名前の通り、このノードではラッピング処理を行います。 下図のように「Head」ノードと「RC_Aligned」ノードを結合し、Editorエリアの「Compute」を押下します。 ラッピング処理完了後のメッシュと、フォトグラメトリで作成したメッシュ(+テクスチャ)の比較画像になります。 顔全体の形はかなり近いものになっている一方、目や鼻・口の形には少し差異が確認できます。 ラッピング処理の精度を上げるために、「Selectpointpairs」ノードを追加します。 新規で「Selectpointpairs1」ノードを追加し、下図のように各ノードと結合します。 先の「Selectpointpairs」ノードと同様に、VisualEditorエリアにて位置合わせの基準点を設定します。 目・鼻・口・耳に対して下図のように基準点を設定しました。 「Selectpointpairs1」ノードを「Wrapping」ノードに結合し、再度「Wrapping」ノードの「Compute」を押下します。 「Selectpointpairs1」ノード追加前と追加後、およびフォトグラメトリで作成したメッシュの比較画像です。 微妙な差ではありますが、目や鼻・口の大きさが元の形に近づいていることが確認できます。 ラッピング処理が満足いく形まで完了したら、最終調整に入ります。 最終調整では「Brush」ノードを使用します。このノードは、各種ブラシを使う要領でメッシュの微調整ができるツールです。 右クリックでノードを追加したら、下図のように結合します。 「Brush」ノードを選択した状態でVisualEditorエリアを表示すると、各種ブラシが選択できます。 今回は頭の形をベースメッシュに寄せていくので、「Clone」ブラシを使います。 「Clone」ブラシは、Geometry Sourceにつないだメッシュ(今回の場合は「Head」ノードのメッシュ)を基準としてメッシュ形状が変化するブラシです。 (対して、「RelaxProj」ブラシはReferenceに繋いだメッシュ(今回の場合は「RC_Aligned」ノードのメッシュ)を基準として変化します) Editorエリアの「 Radius 」ではブラシの半径、「Strength」ではブラシのかかる強度を設定できます。 「Clone」ブラシを用いて、頭部の出っ張りを修正しました。 「Clone」ブラシを使っていると、想定よりベースメッシュに寄ってしまうことがあります。そのような時は、適宜「RelaxProj」ブラシで戻し修正しながら、弱めの「Clone」ブラシで調整しましょう。 修正が完了したら、「Accept」を押下して反映させます。 Brush処理の実施前、実施後、並びにフォトグラメトリで作成したメッシュの比較画像です。 頭部の出っ張りも解消し、最終調整が完了しました。 メッシュが完成しましたので、テクスチャを貼り付けます。 「TransferTexture」ノードを追加し、下図のように結合します。これにより、完成したメッシュにフォトグラメトリで作成したテクスチャを貼ることができました。 「Resolution」は4096×4096にしていますが、ここはお好みで設定して問題ありません。 「TransferTexture」ノードを選択した状態でViewport2Dエリアを表示すると、貼り付けられているテクスチャを見ることができます。 「SaveGeom」ノードを追加し、メッシュを保存します。 File Nameの右にある「...」から保存先とファイル名を選択し、「Compute Current Frame」で保存実行します。 出力されたメッシュ(OBJ)のファイルサイズを確認すると約500KBでした。RealityCaptureで出力したメッシュ(OBJ)は約6GBでしたので、リ トポロジー によりファイルが大きく軽量化されていることを確認できます。 同様に、「SaveImage」ノードを追加し、テクスチャを保存します。 File Nameの右にある「...」から保存先とファイル名を選択し、「Compute Current Frame」で保存実行します。 今回は PNG 形式で、Qualityは劣化なしの100で出力しました。 出力されたテクスチャ( PNG )のファイルサイズは約15MBでした。 これにてリ トポロジー 完了です。 おわりに 前編では、機材紹介や人物頭部をフォトグラメトリするにあたっての撮影方法に加え、フォトグラメトリ後の3Dメッシュ モデリング 方法を紹介しました。私自身もWrapは初めて使うソフトウェアだったのですが、ノードベースで直感的に操作ができて使いやすかったです。また、ラッピング処理の優秀さには驚かされました。 後編 では、Mesh to Metahumanや Photoshop を用いて人物そっくりなMetahumanを作成していきます。 是非こちらもご覧ください! 現在、 電通 総研は web3領域のグループ横断組織 を立ち上げ、Web3および メタバース 領域のR&Dを行っております(カテゴリー「3DCG」の記事は こちら )。 もし本領域にご興味のある方や、一緒にチャレンジしていきたい方は、ぜひお気軽にご連絡ください! 私たちと同じチームで働いてくれる仲間を、是非お待ちしております! 電通総研採用ページ 参考文献 ・ 回転台とグリーンバックによる本格フォトグラメトリ撮影(Adobe Photoshop × RealityCapture) ・ フォトグラメトリによる3Dモデル作成ワークフロー(前編) ・ フォトグラメトリによる3Dモデル作成ワークフロー(後編) ・ 初歩からのフォトグラメトリ~人物フォトグラメトリを活用してUnreal EngineでMetahumanを作成する方法〜【写真からゲームで使える3Dキャラを作ってみよう! vol.11】 ・ 初歩からのフォトグラメトリ~Wrapの使いかた(初級編)RealityCaptureで作ったモデルを綺麗にリトポロジーしよう!~【写真からゲームで使える3Dキャラを作ってみよう! vol.8】 ・ Pushing the MetaHuman Likeness Limits via Scan-based Textures | Unreal Fest 2022(YouTube) ・ Easy Trick To Match SKIN TONES in Photoshop Fast!(YouTube) ・ UNREAL ENGINE download ・ RealityCapture ・ Wrap ・ MetaHuman Creator ・ 顔の周りのテクスチャを馴染ませる(YouTube) ・ 目のまわりを調整(YouTube) 執筆: @matsuzaki.shota 、レビュー: @wakamoto.ryosuke ( Shodo で執筆されました )
こんにちは。 電通 総研コーポレート本部システム推進部の山下です。 最近はChatGPTなどのLarge Language Model(LLM)を利用したAIが話題ですね。 そのLLMを応用したRetrieval-Augmented Generation(RAG)という技術があります。 これは、LLMに文書検索などを用いて関連する情報を与えて回答させることで、 LLMが知識として持っていない内容を回答させたり誤った情報を答えてしまうハルシネーションを抑止する技術です。 今回はこのRAGをLlamaIndexというライブラリを使ってローカル環境で実装する方法について紹介します。 なぜローカル環境でLLMを利用したいのか 大変便利なツールのLLMですが、利用が難しいこともあります。 例えば、機密情報を取扱いたい、外部インターネットへの接続に制限が掛かっているといった場合です。 最終的にOpenAIなどの外部 API の利用が難しいという判断になる場合もあるかと思います。 こういった場面でローカル環境やオンプレミスのサーバ上でLLMを利用できればこういった問題を回避することが出来ます。 LlamaIndexとは? 今回はLLMを利用したアプリケーションを開発するための フレームワーク として LlamaIndex を利用します。LlamaIndexはどのようなライブラリなのでしょうか。 マニュアル の冒頭に以下のような説明があります。まさにRAGを実現するために作られた フレームワーク です。 LlamaIndex is a data framework for LLM-based applications to ingest, structure, and access private or domain-specific data. It’s available in Python (these docs) and Typescript. LlamaIndexは色々な機能を提供してくれますが、筆者が特に便利だと感じているのは 以下の機能です。 既存のデータの読み込みとインデックス化 各種LLMを利用したインタフェース(チャットインタフェースの実現) これらの機能を組み合わせることで、既存のデータを読み込み、その情報を元にLLMへのクエリを作成してRAGの実現が可能となります。 その他のLlamaIndexの詳細な機能はマニュアルを参照してください。 環境構築 LLMを利用するには GPU を利用した環境が望ましいです。 ここでは、 Windows 上のWSLとdevcontainerを利用した環境構築の方法について説明します。 また利用する GPU は NVIDIA 社製の GPU を想定しています。 ここではRTX 3060を搭載している計算機で実行しました。 nvidia -dockerの環境構築 開発で利用するコンテナで GPU を利用可能にするため、 nvidia-container-toolkit のインストールを実施します。 ここでは WSL上の Ubuntu で以下のコマンドを実行してインストールを実施します。 distribution=$(. /etc/os-release;echo $ID$VERSION_ID) \ && curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ && curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \ sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list sudo apt-get update sudo apt-get install -y nvidia-container-toolkit Dev Containerの環境 次に、Dev Containerを利用してどこの環境でも手軽に開発が行えるようにします。 まず、ソースツリーのトップ ディレクト リに .devcontainer という ディレクト リを作成します。今回は以下のようなファイル構成で作成します。 .devcontainer ├── Dockerfile ├── devcontainer.json └── requirements.txt まずは、 requirements.txt を以下のような内容で作成します。 torch==2.1.1 llama-index==0.9.13 transformers==4.35.2 llama_cpp_python==0.2.20 次に Dockerfile を以下のような内容で作成します。 llama_cpp_python が GPU を使うために インストール時に=CMAKE ARGS ="-DLLAMA CUBLAS =on"= を設定します。 FROM nvidia/cuda:12.3.0-devel-ubuntu22.04 RUN apt update \ && apt install -y \ wget \ bzip2 \ git \ git-lfs \ curl \ unzip \ file \ xz-utils \ sudo \ python3 \ python3-pip && \ apt-get autoremove -y && \ apt-get clean && \ rm -rf /usr/local/src/* # requirements.txt をコピーして必要なライブラリをインストール COPY requirements.txt /tmp/ RUN pip install --no-cache-dir -U pip setuptools wheel \ && CMAKE_ARGS="-DLLAMA_CUBLAS=on" pip install --no-cache-dir -r /tmp/requirements.txt devcontainer.json の内容は以下のような内容で作成します。 runArgs に --gpus オプションを追加してコンテナ内部から GPU を利用可能にします。 { " name ": " Cuda DevContainer ", " build ": { " dockerfile ": " ./Dockerfile " } , " runArgs ": [ " --gpus ", " all " ] } ここまでで、Dev Containerを利用した開発環境の構築が出来ました。 それでは、さっそくLlamaIndexを利用したRAGの実装を行ってみましょう。 以降の作業は、構築したDev Container環境を起動して実施します。 LlamaIndexを利用したRAGの実装例 実装するシステムの概要 今回実装するRAGのシステムは、以下の仕組みのものを実装します。 data という ディレクト リにあるテキストファイルを読み込む テキストの内容を埋め込みモデルを利用してインデックスを作成する インデックスとLLMモデルを利用して質疑応答を行う また、今回利用するモデルは以下のものを利用します。 埋め込みモデル: multilingual-e5-large LLMモデル: ELYZA-japanese-Llama モデルのダウンロード models という ディレクト リを作成して、その中にモデルをダウンロードします。 git lfs clone https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf/ --include "ELYZA-japanese-Llama-2-7b-instruct-q8_0.gguf" RAGの実装 ここまででRAGを実装する環境が整いました。 Python を使ってRAGを実装します。 必要なパッケージのimport まずは llama_index などの必要なパッケージをimportします。 import logging import os import sys from llama_index import ( LLMPredictor, PromptTemplate, ServiceContext, SimpleDirectoryReader, VectorStoreIndex, ) from llama_index.callbacks import CallbackManager, LlamaDebugHandler from llama_index.embeddings import HuggingFaceEmbedding from llama_index.llms import LlamaCPP # ログレベルの設定 logging.basicConfig(stream=sys.stdout, level=logging.DEBUG, force= True ) data ディレクト リに含まれるテキストファイルを読み込みます。 # ドキュメントの読み込み documents = SimpleDirectoryReader( "data" ).load_data() LLMのモデル、埋め込みモデルの初期化を行います。ここでは特に設定を変更することなく、multilingual-e5-largeをそのまま利用しています。ただし、 公式サイト の説明に 「query:」の接頭辞を付けて利用する方が良いと注意書きがあります。詳細に能力を確認する場合などは「query: 」を付けるような実装にする必要があります。 n_ctx はLLMモデルのコンテキスト数になります。ELYZAのcontext sizeは4096なので4096を設定しました。 n_gpu_layers は、LlamaCPPはCPUと GPU の両方を利用できるのですが、 GPU でいくつの層を処理するのかを指定するものになります。RTX 3060では32程度を指定しておくのが良さそうだったので32を指定しています。 multilingual-e5-large は実行時にダウンロードされます。 このため初回実行時には時間がかかります。 ServiceContext を作成する時にしている、 chunk_size は分割した文書のサイズとなっています。この大きさはRAGを実施する際に与える文書の量に直接影響があります。 RAGではLLMに対する質問(クエリ)を構築する際に、コンテキスト情報として質問の内容に応じた文書を与える仕組みになっています。 この与えられる文書の大きさが chunk_size で決まります。1つの文書のサイズが大きい場合は前後の文脈を多く含むことになります。コンテキスト情報は多い方が良いので大きくしたくなります。しかし、1つのクエリに対して与えられる文書の量には上限があります。今回は4096が最大になっています(LLMに指定している context_size )。 また、検索でなどでコンテキスト情報を見つけて複数のチャンクを与えるということも可能です。 つまり、ヒットした文書のうち上位10件を与えるというような仕組みです。こちらもたくさん与えたくなります。しかしチャンクサイズと同様にコンテキストサイズには限りがあるためいくつチャンクを与えるのかは試行錯誤が必要となります。 今回は512を chunk_size として設定しました。これは、採用している Multilingual-E5-large モデルのおすすめのシーケンス長が512に 設定されているためです。 # LLMのセットアップ model_path = f "models/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf/ELYZA-japanese-Llama-2-7b-fast-instruct-q8_0.gguf" llm = LlamaCPP( model_path=model_path, temperature= 0.1 , model_kwargs={ "n_ctx" : 4096 , "n_gpu_layers" : 32 }, ) llm_predictor = LLMPredictor(llm=llm) # 埋め込みモデルの初期化 # 埋め込みモデルの計算を実行するデバイスを指定。今回は埋め込みモデルをCPUで実施しないとVRAMに収まりきらないので、CPUで実施する。 # "cpu","cuda","mps"から指定する。 EMBEDDING_DEVICE = "cpu" # 実行するモデルの指定とキャッシュフォルダの指定 embed_model_name = ( "intfloat/multilingual-e5-large" ,) cache_folder = "./sentence_transformers" # 埋め込みモデルの作成 embed_model = HuggingFaceEmbedding( model_name= "intfloat/multilingual-e5-large" , cache_folder=cache_folder, device=EMBEDDING_DEVICE, ) # ServiceContextのセットアップ ## debug用 Callback Managerのセットアップ llama_debug = LlamaDebugHandler(print_trace_on_end= True ) callback_manager = CallbackManager([llama_debug]) service_context = ServiceContext.from_defaults( llm_predictor=llm_predictor, embed_model=embed_model, chunk_size= 500 , chunk_overlap= 20 , callback_manager=callback_manager, ) # インデックスの生成 index = VectorStoreIndex.from_documents( documents, service_context=service_context, ) ここまでで、RAGを実行するための準備は出来ました。 RAGで利用するプロンプトを設定します。 このプロンプトの中に {context_str} と書いてある部分が実行の際にはコンテキスト情報に 置き換えられます。 {query_srt} が質問内容で置き換えられます。 # 質問 temp = """ [INST] <<SYS>> 以下の「コンテキスト情報」を元に「質問」に回答してください。 なお、コンテキスト情報に無い情報は回答に含めないでください。 また、コンテキスト情報から回答が導けない場合は「分かりません」と回答してください。 <</SYS>> # コンテキスト情報 --------------------- {context_str} --------------------- # 質問 {query_str} [/INST] """ いよいよRAGを実行します。 query_engine を設定している箇所で、 similarity_top_k という引数があります。 これは幾つコンテキスト情報を与えるかという設定になります。ここでは5つのコンテキスト情報を与える設定にしてあります。 query_engine = index.as_query_engine( similarity_top_k= 5 , text_qa_template=PromptTemplate(temp) ) while True : req_msg = input ( " \n ## Question: " ) if req_msg == "" : continue res_msg = query_engine.query(req_msg) res_msg.source_nodes[ 0 ].text event_pairs = llama_debug.get_llm_inputs_outputs() print ( " \n ## Answer: \n " , str (res_msg).strip()) これで、RAGを用いて質疑応答ができるチャットが完成しました。 とても簡単に実装できましたね。 実行例 試しに実行してみましょう。今回は、 太宰治 の 走れメロス を 青空文庫 からダウンロードしテキストファイルにして読ませて実行しました。 まずは1つ質問をしてみます。 ## Question: メロスの友人の名前は? ... (デバッグ用の情報が出力されます) ... ## Answer: セリヌンティウス 正解ですね。 さらにもう1つ質問をしてみます。 ## Question: メロス メロスはどんな性格でしたか? ... (デバッグ用の情報が出力されます) ... ## Answer: メロスは内気な性格だと読み取れます。 - メロスは21歳の青年で、村の牧人であった。 - メロスには父も、母も無い。女房も無い。十六の、内気な妹と二人暮しだ。 - メロスは、村の或る律気な一牧人を、近々、花婿はなむことして迎える事になっていた。結婚式も間近かなのである。 - メロスは、それゆえ、花嫁の衣裳やら祝宴の御馳走やらを買いに、はるばる市にやって来たのだ。 これらの事から、内気で控えめな性格だと読み取れます。 ちゃんとコンテキストを使って回答ができてそうですね。 改善出来そうなポイント 今回の実装したシステムでは、1つの質問の回答を得るまでに10-30秒程度の時間が掛かってしまいました。常用するにはちょっと難しいですね。 与えるコンテキスト情報を減らしたりすることで短くすることが出来たりするでしょうが そうすると適切な情報を与えることができず、誤った回答を返してしまう可能性が高くなってしまいます。 回答を行うために必要でかつ十分な情報のみを与えることが出来れば、無駄なく高速に回答を得られるようになるかもしれません。この辺りにチューニングの余地があると考えています。 ソフトウェアだけでなくハードウェアも変更することで改善することが期待できます。 もっと良い性能の GPU 、例えばRTX 4090を搭載しているような計算機で実行したりすることでより高速に回答を得られるようになるかと思います。 また、いかに適切なコンテキストを見つけられるかに回答内容の正確さは依存しています。 与える文書や検索の仕組みを工夫できればもっと良いRAGが構築できるようになるはずです。 まとめ 今回はLlamaIndexを利用してローカル環境でRAGを構築してみました。悩むことなく手軽にRAGが実装できるのは素晴しいですね。一方で実際に実装してみて学ぶことも多くあり便利なRAGを構築するのは難しいということも良くわかりました。 手元にある文書を読み込ませてチャットしてみるだけでもなかなか楽しいと思います。 みなさんも是非実装してみてください。 私たちは一緒に働いてくれる仲間を募集しています! キャリア採用 フルサイクルエンジニア AIサービス開発エンジニア 新卒採用 執筆: @yamashita.tsuyoshi 、レビュー: @wakamoto.ryosuke ( Shodo で執筆されました )
こんにちは。コーポレート本部サイバーセキュリティ推進部の大西です。 昨年の話になりますが、2023年12月23日に開催された SECCON 2023 電脳会議 で CTF for GIRLS が主催するハンズオンとPetit CTFに参加してきましたので、CTFのWriteUpを書きます! ↓電脳会議およびCTF for GIRLSイベントに参加した際にいただいたパンフレット、ステッカー、ヘ アゴ ム、SECCON公式バッジ ステッカーもヘ アゴ ムも素敵・・・。 のちにこのクリスマスステッカーにCTFの重大なキーワードが隠されていることを知るのでした・・・。 CTFとはCapture The Flagの略で、情報セキュリティに関する様々な技術を競うコンテストです。セキュリティの専門知識や技術を使って隠されたFlagを獲得するとポイントをゲットできます。 CTF for GIRLSは世界的に有名なセキュリティ研究家の中島明日香さんが設立された、情報セキュリティ技術に興味がある女性を対象に、気軽に技術的な質問や何気ない悩みを話し合うことができるコミュニティです。今回、私と同じテーブルには、社会人3年目2人と学生4人、部屋全体では70 ~ 80人ほどが参加していました。23日のイベントでは、午前中にReversing、Crypto、Web、Forensicsのワークショップ、午後からPetit CTFが行われました。 今回、Petit CTFで70人中13位、Web問題上級でFirst Blood賞をいただきました! 出題された問題についてWriteUp(CTF参加後に問題の解き方などを書いたもの)を書いていこうと思います。 Reversing banner4you(初級) Misc この模様はなーんだ?(初級) christmas card(中級) 3keywords(上級) Crypto Do not use the default password!(初級) Forensics Snow covered(初級) Web トナカイ専用(初級) SecretKey(上級) 参加した感想 Reversing banner4you(初級) 拡張子のない謎のバイナリファイルが与えられて、答えとなるキーワードを探すCTFでは定番のタイプの問題です。 ダウンロードしてきた添付ファイルをstringsコマンドの引数に渡してあげればフラグゲットです。 Misc この模様はなーんだ?(初級) 添付ファイルを開いてみると、 このような模様が出てきましたが何の模様か分からず、とりあえず Google レンズに読み込ませると、MaxiCodeという規格の 2次元コード らしいことが分かりました。 こちら のリーダーに読み込ませることでフラグがゲットできました! ちなみにMaxiCodeとは、1987年に宅配業者の UPS 社( アメリ カ)によって、物流の仕分けや追跡のために開発されたマトリクス型の 二次元コード だそうです。読み取り速度が非常に速い一方で、他の 二次元コード と比べて収納できるデータ量はあまり多くないという特徴があるそうです。 参照: https://aimjal.co.jp/gijutu/2jigen/maxicode/maxicode.html christmas card(中級) 添付されていた画像を開くと、 ヒントを見ると StegOnline を使えとあるので、この画像をStegOnlineにアップロードし「Browse Bit Planes」ボタンを押すと、 フラグゲットです。 ちなみに、StegOnlineの「Browse Bit Planes」ボタンで何をしているかChatGPTに聞くと、 画像の視覚的な外観に最小限の影響しか与えない最も重要でないビットプレーンが情報を隠すためによく使用されるため、これらを閲覧することで隠されたメッセージやデータを明らかにできます。 だそうです。8ビットの画像には、最も重要でないビット(LSB)から最も重要なビット(MSB)まで、8つのビットプレーンがあるそうです。「Browse Bit Planes」機能を使用すると、アップロードした画像の各ビットプレーンを検査し、 ステガノグラフィ ーで隠された情報を示す可能性のある異常やパターンを探すことができるらしいです。 3keywords(上級) 個人的にこの問題がいちばん苦労しました・・・笑 解き方は分かるのにしっくりくる解答が出てこない! 解き方としてはこうです。イベントが始まる前に渡されたクリスマスステッカーは、実は3種類ありました。違う種類のステッカーを持つ人を探して、ステッカー内にある3つのキーワードを探し、そこからある場所を導き出す・・・。 3つのキーワードはすぐ分かりました。ステッカーの写真を撮っていなかったのでX( Twitter )上の写真を拝借・・・。 「10th anniversary」と書かれた文字の下に、何やらモールス信号みたいなものと、16進数のようなものと、数字の羅列があります。 モールス信号を解読すると「beads」、16進数をASCII変換すると「sect」、数字をアルファベットに置き換える(1 -> a、2 -> b、3 -> c ・・・)と「encourage」になります。 3つのキーワードは分かりましたが、ここからが長かった。 3つのキーワードをアルファベット(辞書)順に並べたとき、導き出される場所があるらしいのですが、検索しても検索してもここだ!という場所が出てこないのです。 「beads」というキーワードがあるので、ビーズを使ったお店などが出てきて、ここじゃないよなぁと思いながらフラグを入力してもやっぱり弾かれ・・・ 同じテーブルの方が、「最初にもらったヘ アゴ ムのビーズが関係あるかも!」と言ってくれて、その方面も考えましたがいい感じのフラグは見つけられず。 仕方なくヒントを見ました。 「3つのキーワードで特定の場所を示す方法はないでしょうか」 ・・・!!あれやん!と思わず声を出して言ってしまいました笑 そう、3つのキーワードで特定の場所を示す方法といえば、 what3words ですね。 実際に使ったことはなかったのですが、テレビか何かで見て知っていました。 3つのキーワードをwhat3wordsに入力して、無事「ctf4g{santaclausvillage}」(サンタクロース村)というフラグをゲットできました。 時間はかかりましたが、他の方と協力しながら問題を解けてとても楽しかったです!! Crypto Do not use the default password!(初級) 「keystore」で検索すると、 keytoolコマンド というものがありました。keytoolコマンドを使用して、 自己署名証明書 を生成し、キーストアに証明書をインストールして管理できるそうです。 keytool -list -v -keystore (keystoreファイルの場所) コマンドで、 Java のKeyToolユーティリティを使用して、キーストアの中のエントリ( 秘密鍵 や証明書など)をリストできるそうです。試してみると、パスワードを聞かれました。問題文が「Do not use the default password!」なので、keytoolのデフォルトパスワードを検索すると「changeit」とあったのでそれを打ち込みます。所有者と発行者の部分にフラグがありました。 Forensics Snow covered(初級) 画像が重なり合ったPDFファイルが与えられました。邪魔な画像を消してあげれば、下にある答えが見られるはずです。 ワークショップで教わった LibreOffice や foremostコマンド などを使うと、PDF上の画像も扱うことができそうです。 私は、 LibreOffice を使って邪魔になっているフラグの上の画像を動かしてフラグをゲットしました。 Web トナカイ専用(初級) トナカイ専用サイトにアクセスするとこんな画面が出てきます。 トナカイ 専用ブラウザ でしか閲覧できないということなので、UserAgentに「ReindeerBrowser」と入力してリク エス トすればフラグゲットです。 UserAgentの値を編集してリク エス トするには、PostmanやBurp Suiteなど何でも使えます。 SecretKey(上級) 問題文中のURLにアクセスすると、5つのポストが見られました。 2023/12/23のポストにアクセスすると、 「シークレットセール」の話が出ているので、このポストが怪しいです。 問題文にIDとパスワードがあり、どこからかログインできる匂いがするのでそれを探します。 すると、他のポストを見るとURLが連番になっていることに気づきます。 2023/12/21のポスト↓ 2023/12/22のポスト↓ なので、セール情報の載ったポストは10458.htmlにありそうなのでアクセスしてみます。 当たり!問題文中のID、パスワードでログインすると、 セールのエントリーは締め切ったというメッセージが出てきました。 「logout」ボタンをクリックする以外にできることはなさそうなので、開発者ツールを開いて中を見てみます。 Cookie にJWTのtokenが入っているので、一応こちらの jwtのデコーダー で中身を見てみます。 PAYLOAD内のroleが「user」になっているので、ここを「admin」にすると管理者権限でアクセスできるかもしれません。 また、algがHS256(HMAC using SHA-256 hash)なのでsecretが署名に使われていそうです。添付ファイル内の文字列がsecretの候補のようです。ひとつずつ試して、「reindeer」にしてアクセスするとフラグをゲットできました! そして、この問題でFirstBlood賞をいただきました! 参加した感想 業務では 脆弱性 検査を担当しているのでWeb問題はぜひ全問解きたかったですが、Web問上級でFirstBlood賞をいただけて良かったです! またCTF for GIRLSのイベントがあれば参加させていただきたいです。 今回のイベントを通じて、セキュリティ業務に関わる他社の方のお話を聞けたのもとても良かったです。 自分の周りでForensicsをゴリゴリやっている人はいなかったのですが、Forensicsをずっとやってきた方が同じ島にいらっしゃって、いろいろお話を聞けました。その方のWriteUpも掲載させていただきます(今回のCTFで1位受賞!✨)。 https://kcfromsmallpotatoes.hatenablog.com/entry/2023/12/29/233545 最後にCTF for GIRLSの中島さんと記念写真をパチリ✨ お読みいただきありがとうございました! 執筆: @onishi.mayu 、レビュー: 石沢 健人 (@kent) ( Shodo で執筆されました )
みなさんこんにちは、 電通 総研コーポレート本部システム推進部の佐藤太一です。 この記事では、 Maven を使って Java EE 向けに作られた既存のアプリケーションのコードに一切手を加えることなくJakara EE対応のアプリケーションに変換する方法を説明します。 はじめに レガシーアプリケーションの実装 モダンアプリケーションの実装 マイグレーションプロジェクトの実装 UberJarの中身を確認する マイグレーションプロジェクトの参照 まとめ はじめに 2017年に Java EE が Jakarta EEになってから7年が経つわけですが、皆さんの手元にあるシステムは Jakarta EEに対応できていますか? Java EE を選択するようなアプリケーションの保守運用では、 名前空間 だけの変更とは言ってもリスクを取りたくないと考えるようなシステムは多いでしょう。もしかしたら、 Java EE どころか J2EE のまま動かしているかもしれませんね。 ここで紹介する手法は、 maven -shade-pluginのrelocationを使ってjarファイルの中に格納されたclassが参照するパッケージ名を置換するというやり方です。 この記事のサンプルコードを動かすにあたって、 Java 21と Maven 3.5以上をあらかじめインストールしておいてください。 レガシーアプリケーションの実装 まずは、 javax.servlet を使って簡単なアプリケーションを実装してみましょう。 作業用の ディレクト リに legacy という名前で新しい ディレクト リを作成します。その後、以下の内容でpom. xml を保存しましょう。 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.example</groupId> <artifactId>legacy</artifactId> <version>1.0-SNAPSHOT</version> <packaging>jar</packaging> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <maven.compiler.source>1.8</maven.compiler.source> <maven.compiler.target>1.8</maven.compiler.target> </properties> <dependencies> <dependency> <groupId>javax.servlet</groupId> <artifactId>servlet-api</artifactId> <version>2.3</version> <type>jar</type> <scope>provided</scope> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.mvnsearch</groupId> <artifactId>toolchains-maven-plugin</artifactId> <version>4.5.0</version> <executions> <execution> <goals> <goal>toolchain</goal> </goals> </execution> </executions> <configuration> <toolchains> <jdk> <version>1.8</version> </jdk> </toolchains> </configuration> </plugin> </plugins> </build> </project> 使っている Servlet が2.3と大分古いですが、これくらい古くてもきちんと動く Java は本当に素晴らしいですね。 org.mvnsearch:toolchains-maven-plugin は、指定した JDK を自動的にダウンロードして、 コンパイル や実行時に使えるようにしてくれる プラグイン です。ここでは、 Java 1.8を指定しています。 正直言って、事前に Java を二種類入れておいてくださいと言われたら、僕なら記事を読むのを諦めますね。 Maven でプロジェクトを定義したので、さらに /legacy/src/main/java/com/example/legacy/ と ディレクト リを作成します。作成した ディレクト リの中に MyServlet.java というファイル名で以下の内容を保存します。 package com.example.legacy; import java.io.IOException; import javax.servlet.ServletException; import javax.servlet.http.*; public class MyServlet extends HttpServlet { private static final long serialVersionUID = 1L; @Override protected void doGet(HttpServletRequest req, HttpServletResponse resp) throws ServletException, IOException { resp.getWriter().append("Hello World!").flush(); } } 15年ぶりくらいにHttpServletを継承するクラスを書いたように思います。 importしている 名前空間 が javax.servlet であることに注目してください。 ファイルを保存したら以下のコマンドを実行して、ローカル リポジトリ にこのアプリケーションをインストールしておきます。 mvn install モダンアプリケーションの実装 次は、最新のアプリケーションを実装します。 作業用の ディレクト リに、 modern という名前で新しい ディレクト リを作成します。その後、以下の内容でpom. xml を保存しましょう。 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.example</groupId> <artifactId>modern</artifactId> <version>1.0-SNAPSHOT</version> <packaging>jar</packaging> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>3.2.1</version> </parent> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <java.version>21</java.version> <start-class>com.example.modern.Main</start-class> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>com.example</groupId> <artifactId>legacy</artifactId> <version>1.0-SNAPSHOT</version> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> </build> </project> 最新のSpring Boot Webを使ったアプリケーションのプロジェクト定義です。 先ほどローカルにインストールした com.example:legacy:1.0-SNAPSHOT を依存ライブラリに追加してあります。 Maven でプロジェクトを定義したので、さらに /modern/src/main/java/com/example/modern/ と ディレクト リを作成します。作成した ディレクト リの中に Main.java というファイル名で以下の内容を保存します。 package com.example.modern; import org.springframework.boot.SpringApplication; import org.springframework.boot.autoconfigure.SpringBootApplication; import org.springframework.boot.web.servlet.ServletContextInitializer; import org.springframework.context.annotation.Bean; import com.example.legacy.MyServlet; import jakarta.servlet.ServletContext; import jakarta.servlet.ServletException; @SpringBootApplication public class Main { @Bean public ServletContextInitializer myServlets() { return new ServletContextInitializer() { @Override public void onStartup(ServletContext servletContext) throws ServletException { servletContext.addServlet("myServlet", MyServlet.class).addMapping("/"); } }; } public static void main(String[] args) { SpringApplication.run(Main.class, args); } } Spring BootのServletContextInitializerを使って Servlet をデプロイしています。 ここで参照している 名前空間 は jakarta.servlet ですね。 つまり、以下のコマンドを使ってアプリケーションを コンパイル しようとするとエラーになります。 mvn package 出力されるエラーは、 名前空間 がずれているため以下のようなものになるでしょう。 [ERROR] /C:/work/java/legacy-replacement/modern/src/main/java/com/example/modern/Main.java:[22,47] javax.servlet.http.HttpServletにアクセスできません javax.servlet.http.HttpServletのクラス・ファイルが見つかりません 今回例示しているレガシーアプリケーションは、ファイル1つだけなのでファイルを直接変更してしまっても大した手間ではありません。しかし、2024年現在も生き残っているレガシーアプリケーションは、 名前空間 の一括置換ですらはばかられるものが多いでしょう。 無用なリスクは取りたくないと考える人がいても非難しがたいものです。 マイグレーション プロジェクトの実装 ここからは、ビルド済みのレガシーアプリケーションを最新の環境に対応できるようにする マイグレーション プロジェクトを定義します。 作業用の ディレクト リに、 legacy-uber という名前で新しい ディレクト リを作成します。その後、以下の内容でpom. xml を保存しましょう。 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.example</groupId> <artifactId>legacy-uber</artifactId> <version>1.0-SNAPSHOT</version> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> </properties> <dependencies> <dependency> <groupId>com.example</groupId> <!-- 1. --> <artifactId>legacy</artifactId> <version>1.0-SNAPSHOT</version> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-shade-plugin</artifactId> <!-- 2. --> <version>3.5.1</version> <executions> <execution> <phase>package</phase> <goals> <goal>shade</goal> </goals> <configuration> <useBaseVersion>true</useBaseVersion> <createDependencyReducedPom>false</createDependencyReducedPom> <artifactSet> <excludes> <!-- 3. --> <exclude>junit:junit</exclude> <exclude>commons-logging:commons-logging</exclude> </excludes> </artifactSet> <transformers> <!-- 4. --> <transformer implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer" /> </transformers> <relocations> <!-- 5. --> <relocation> <pattern>javax.servlet</pattern> <shadedPattern>jakarta.servlet</shadedPattern> </relocation> <relocation> <pattern>javax.transaction</pattern> <shadedPattern>jakarta.transaction</shadedPattern> </relocation> </relocations> <filters> <!-- 6. --> <filter> <artifact>*:*</artifact> <excludes> <exclude>META-INF/*.MF</exclude> <exclude>META-INF/*.SF</exclude> <exclude>META-INF/*.DSA</exclude> <exclude>META-INF/*.RSA</exclude> <exclude>META-INF/*.txt</exclude> </excludes> </filter> </filters> </configuration> </execution> </executions> </plugin> </plugins> </build> </project> このプロジェクトについて説明していきましょう。pom. xml の中にコメントした数字に沿って説明します。 依存ライブラリとして、 com.example:legacy:1.0-SNAPSHOT を指定しています。今回はありませんが、ここから推移的に依存するライブラリも多数あることでしょう。例えば、commons-fileupload などは色んな場所で使われていますが、 Jakarta EEに対応したバージョンはリリースされていません。 maven-shade-plugin を使ったパッケージング実施しています。これを使うと依存ライブラリも含めて全て単一のjarファイルにまとめるUberJarを作成できます。 com.example:legacy:1.0-SNAPSHOT が依存するライブラリは基本的に全てUbeJarの中に取込むのですが、取込んでしまう必要のないものや、取込んでしまうと不都合のあるものを除外しています。特に、 commons-loggingは単一のクラスパス上に複数バージョン存在していると正しく動作しない可能性が高いので除外しています。 近年の Java では META-INF/services 以下に所定のルールでファイルを配置する事で拡張できる フレームワーク が非常に多いので、それらのファイルが誤って失われてしまわないように、ServicesResourceTransformerを指定しています。他にも トランスフォーマー は色々定義されているので一度見てみると良いでしょう。 Resource Transformers を参照してください。 このrelocationsタグで定義されている内容が今回の主題です。一つ目のrelocationタグでは javax.servlet を jakarta.servlet に置換しています。二つ目のタグでは、 javax.transaction を jakarta.transaction に置換しています。これは単なる文字列置換ではないのでサブパッケージについては、それぞれ指定しましょう。 これは、おまけです。META-INF ディレクト リの中によく格納されているものを取り除いています。MANIFEST.MFについては、取り除くと問題のある場合がある一方で、取り除かずに内容をマージしないといけない場合もありますので注意してください。 ファイルを保存したら以下のコマンドを実行して、ローカル リポジトリ にこのUberJarをインストールしておきます。 mvn install UberJarの中身を確認する UberJarの中身を念のため確認しておきましょう。 ビルドが正常に終了しているなら、 /legacy-uber/target ディレクト リの中に二つのjarファイルが格納されているはずです。 プレフィックス として、 original- が付いているのはshadingする前のjarファイルです。ファイルサイズが少しだけ小さいですね。 shadingされている方のjarファイルを展開して中身を確認しましょう。ここでは、 legacy-uber-1.0-SNAPSHOT.jar です。jarファイルはZIP圧縮されているファイルなので中からMainServlet.classを取り出します。 バイナリエディタ で開くと javax.servlet が jakarta.servlet へ置換されていることが分かりますね。 マイグレーション プロジェクトの参照 レガシーアプリケーションを マイグレーション したUberJarをローカルにインストールしたので、最新のアプリケーションからは、そのライブラリを参照するように依存性を変更します。 その結果、以下のようになります。 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.example</groupId> <artifactId>modern</artifactId> <version>1.0-SNAPSHOT</version> <packaging>jar</packaging> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>3.2.1</version> </parent> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <java.version>21</java.version> <start-class>com.example.modern.Main</start-class> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>com.example</groupId> <artifactId>legacy-uber</artifactId> <version>1.0-SNAPSHOT</version> <exclusions> <exclusion> <groupId>*</groupId> <artifactId>*</artifactId> </exclusion> </exclusions> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> </build> </project> 変更点は。 com.example:legacy:1.0-SNAPSHOT に対する依存性を com.example:legacy-uber:1.0-SNAPSHOT に対する依存性に変更している部分です。 legacy- uber は、依存ライブラリも含めて単一のjarファイルの中に格納されていますので、推移的な依存性は必要ありません。よって、exclusionsタグを使って推移的な依存性を全て無視するようにしてあります。 では、以下のコマンドを使って再度アプリケーションをビルドしてみましょう。 mvn clean package 今度はエラー出力なくビルドが完了します。 動作を確認したければ、以下のコマンドを実行して Tomcat が起動したら、ブラウザで http://localhost:8080 にアクセスします。 mvn spring-boot:run Servlet で レンダリング した Hello World! が表示されますね。 まとめ この記事では、古いアプリケーションの ソースコード やビルド済みバイナリには手を加えることなく、新しい環境で既存資産を流用する方法を説明しました。 長期間メンテナンスされているアプリケーションは価値ある資産です。とはいえ、古い事そのものが原因で新しい取り組みを行えないなら、それは技術的な解決があるという事を示しました。 この記事を読んだ皆さんが、希望を持ってレガシーアプリケーションの現代化に取り組めることを祈って記事の結びとします。 執筆: @sato.taichi 、レビュー: @yamashita.tsuyoshi ( Shodo で執筆されました )
こんにちは! 電通 総研新卒入社7年目の植田です。 現在はHCM事業部に所属しており、自社製品である統合人事給与システムPOSITIVEの導入を担当しています。 この記事では私の仕事内容や職場の雰囲気についてお話しします! 自己紹介 1. 年次 新卒で2017年に 電通 総研に入社し、2023年4月で7年目になりました。 2. 電通 総研入社の決め手 東京で働きたかったのとなにか技術を身につけたいという思いで、当時は SIer に絞って就活をしていたのですが、面接でお話する方々の印象がとてもよく、最終的には人が決め手となりました。 ( 電通 総研あるあるですね) 入社してからもこの印象は特に変わっておらず、個性があって感じのよい人が多いなと感じます。 3. 大学の専攻 大学は国際文化学部という学部で完全な文系学部で犬の研究をしていました。 なので、当然プログラミング経験もほぼありませんでした。 (教養科目でちょっとやったかなレベル。。) 4. 電通 総研内の経歴 最初からHCM事業部配属でしたが、部署は導入ではなく、製品開発の部署でした。 もともと導入がやりたかったので、2年ちょっと経って導入の部署に異動してきました。 これは、HCM事業部独自の教育体制によるものなのですが、新卒でHCM事業部に配属されると、基本的には全員製品開発の部署に配属されます。 製品開発の部署で1-2年製品や開発について働きながら学んだあと、導入等の他部署に異動するか製品開発の部署に残ることになります。 仕事内容等 1. なんの仕事をしているの? HCM事業部はPOSITIVEの開発、販売、導入を行っている部署で、私はPOSITIVEの導入を行っています。 2. 導入って何するの? 導入プロジェクトでは、POSITIVEをお客様にご利用いただくためのシステム導入作業として、要件定義や実装(パラメータ設定・アドオン)、各種テスト等を実施します。 要件定義のフェーズではお客様から業務内容を ヒアリ ングし、必要な機能や設定内容の検討、また、標準機能ではカバーできない要件に対してアドオン機能の検討を行います。 実装フェーズでは、要件定義フェーズで決定した内容に基づいて実際にPOSITIVEを設定します。また、アドオン機能の開発を行います。 アドオンを除き、POSITIVEは導入時にコーディングの必要がなく、画面操作によってパラメータ設定を行うことができます。 テストフェーズでは、設定内容を確認するためのテストケースを作成し、テストを実施します。 3. POSITIVEってなに? 電通 総研が開発しているパッケージ製品で人事・給与・就業を一括で管理できるシステムです。 POSITIVE紹介サイト( 電通 総研)は、 こちら 4. 周りの人たち 私が所属する部は12名いて、20代から50代まで、年齢も幅広く、新卒or中途も半々くらいです。 5. 1日の仕事の流れ プロジェクトのフェーズによって打合せが多かったり少なかったり変化がありますが、だいたいこんな感じです。 6. 在宅/出社 私は基本在宅勤務ですが、2週間に1度部会があり、その日だけは出社しています。 その日はそのまま飲みに行くことも多いです! 7. やりがい 自分が担当しているお客様の導入プロジェクトが無事稼働したときです。 年次が上がるにつれてプロジェクト内での立場もより上になり責任も重く感じますが、その分うまくいったときはとてもやりがいを感じます。 また、導入に来た当初はメンバーやリーダーの役割でしたが、今はPMの役割を任せてもらえているので視点も上がり、自分のやり方で進めることができるので楽しいなと感じています。 8. 電通 総研に入って良かったことは?悪かったことは? 良かったことは周りの人にも恵まれていますし、やりがいを感じられる仕事もあり、今とても楽しく仕事をできていることです。 あとは、同期に出会えたことです。同期は宝物です。 悪かったことは特にないのですが、大変だなと思うことは、POSITIVEという製品はいろいろな機能を含んだシステムなので、例えば人事だけでも製品に詳しくなるのに時間がかかることでしょうか。 ( 電通 総研というより製品導入という点での大変さですね) さいごに 電通 総研は新卒・中途関わらず一緒に働く仲間を募集しています。 私の所属する部は、中途社員と新卒社員が半々で年齢も幅広いです。 もしこの記事を読んで 電通 総研に少しでも興味を持っていただけたら、ぜひ 電通 総研の採用ページを見てみてください! 一緒に働きましょう! 私たちは一緒に働いてくれる仲間を募集しています! 新卒採用ページ 執筆: @ueda.saya 、レビュー: @wakamoto.ryosuke ( Shodo で執筆されました )