TECH PLAY

SCSKクラウドソリューション

SCSKクラウドソリューション の技術ブログ

1230

こんにちは SCSKの庄司です。 今回はServiceNowの修復スクリプト(Fix Script)について紹介していきます。 本記事は執筆時点(2025年9月)の情報になります。最新の内容は製品ドキュメントを参考にしてください。 修復スクリプト(Fix Script)とは Fix Script は、アプリのインストール/アップグレード後に走らせて、データや設定の補正・初期化・移行を行うためのサーバサイド JavaScript です。 更新セットやアプリ更新だけでは反映しきれない、 既存データの補正 特定条件のデータの作成・更新 など、大量のデータを一回のみ、自動更新・作成することに向いています。 逆に「任意タイミングで複数回実行するスクリプト」や「定期的なスクリプト実行」はスケジュール済みジョブなどが適しているので、そちらの利用を検討してください。 修復スクリプトレコードはsys_script_fixテーブルに格納されており、 すべて > システム定義 > 修復スクリプト から遷移可能です。   修復スクリプトレコードのオプション   読み込み不能 :チェックをするとスクリプト実行時に顧客アップデートレコードを作成する。必要に応じて顧客アップデートレコードを更新セットに格納し、移送することも可能に。 ロールバック用に記録 :ロールバック用にスクリプトの実行を記録し、必要に応じて元に戻すことが可能になる。 前 :アプリのインストールまたはアップグレード前にスクリプトを実行することができる。   実行前の注意事項 事前検証 :本番前に開発環境やPDIでテスト ロールバックを有効化 :ロールバック用に記録にチェックをしてから実行 バックアップ :更新対象のレコードを事前にCSVエクスポート 負荷配慮 :業務時間帯の実施は環境に負荷を与えるため控える(特に大量のレコードを更新する場合)   修復スクリプトの実践 では、ここからは簡単な修復スクリプトを実際に使ってみようと思います。 すべて > システム定義 > 修復スクリプトに遷移し、[新規]を押下します。 今回は以下の条件で実施します。 読み込み不能 :true ロールバック用に記録 :true 前 :false 以下のスクリプトを記載します。 指定したカタログ配下にあるアクティブなすべてのカタログアイテムに対して、「利用可能」のユーザー基準を作成するスクリプトです。 // ===== 設定 ===== var catalogSysId = '742ce428d7211100f2d224837e61036d'; // 本番対象カタログ sys_id var userCriteriaSysId = '322f2efa83bb6210b7e5f9a6feaad35d'; // 付与する User Criteria の sys_id // ================= // 対象アイテムを取得 var grItem = new GlideRecord('sc_cat_item'); // カタログ配下の全アイテム grItem.addQuery('sc_catalogs', catalogSysId); gs.info('=== カタログ ' + catalogSysId + ' 配下のアイテムすべて ==='); grItem.addQuery('active', true); grItem.query(); var count = 0; while (grItem.next()) {   // 既存レコードの重複チェック   var grCheck = new GlideRecord('sc_cat_item_user_criteria_mtom');   grCheck.addQuery('sc_cat_item', grItem.sys_id);   grCheck.addQuery('user_criteria', userCriteriaSysId);   grCheck.query();   if (!grCheck.hasNext()) {       var grNew = new GlideRecord('sc_cat_item_user_criteria_mtom');       grNew.initialize();       grNew.setValue('sc_cat_item', grItem.sys_id);       grNew.setValue('user_criteria', userCriteriaSysId);       grNew.insert();       count++;       gs.info('ユーザー基準を追加: ' + grItem.name);   } else {       gs.info('すでに存在: ' + grItem.name);   } } gs.info('合計 ' + count + ' 件のレコードを作成しました。'); 今回 の対象となるユーザー基準とカタログは以下になります。 ユーザー基準:fix script test user criteria カタログ:Technical Catalog 利用可能なカタログアイテムテーブルとロールバックコンテキストテーブルに該当するレコードが存在しないことを確認します。 では、[スクリプト修復の実行]を押下し、今回は[続行]を押下します。     修復スクリプトが実行され、ログが表示されています。 今回はスクリプト内で記載していたため、ユーザー基準を追加したカタログアイテム名と合計レコード作成数がログに表示されています。 では、実行結果を確認しに行きます。 まず、 利用可能なカタログアイテムテーブルを見ると実際に6レコード分のレコードが作成されています。 次に、今回は「読み込み不能」をtrueにしているので顧客アップデートテーブルも確認しに行きます。 先ほど作成したレコードの顧客アップデートレコードが作成されています。   必要に応じてこちらのレコードを顧客アップデートレコードに追加することで、別環境に移送することが出来ます。 今回は「ロールバック用に記録」もtrueにしているのでロールバックコンテキストテーブルにもレコードが作成されています。 ロールバックコンテキストレコードを開くと、「ロールバックレコード」関連リストに今回のスクリプト実行に際して作成されたレコード(sc_cat_item_user_criteria_mtomレコード、sys_update_xmlレコード、sys_update_versionレコードsys_metadata_customizationレコード)が紐づけられています。   せっかくなので、今回はロールバックまで実行してみようと思います。 [ロールバック]関連リンクを押下すると、「Execute Rollback?」というポップアップが表示されるので、「yes」と入力し、[OK]を押下します。 ロールバックが完了しました。 先ほどと同じ条件で利用可能なカタログアイテムテーブル、顧客アップデートテーブルを確認すると、レコードが表示されません。     まとめ 以上、今回はServiceNowの修復スクリプト(fix script)を紹介しました。 あまり使う機会はないかもしれませんが、特定のシチュエーションでは大きく力を発揮する機能です。 ぜひ参考にしてみてください。
こんにちは。SCSKの清水です。 2025/9/10(水)に開催された「Microsoft AI Tour Osaka」に参加しましたので、その参加レポートを投稿します。本記事では、 基調講演の内容を中心に、イベントの雰囲気や得られた気づき をレポートしていきます。 はじめに イベント概要 Microsoft AI Tourは、世界各地で開催されているMicrosoft主催のAIイベントシリーズで、最新のAI技術や活用事例を紹介する場として注目を集めています。今回の大阪開催は、日本国内では東京に続く2回目の開催となり、関西圏の技術者・ビジネス関係者に向けて、AIによる業務変革や組織づくりに関する知見が共有されました。 イベントでは、Microsoftの最新AIソリューションに関する講演やデモが行われ、基調講演から技術セッション、展示ブースまで幅広いコンテンツが展開されました。 Microsoft AI Tour Osaka 「Microsoft AI Tour Osaka」は、AI の最新イノベーションを体験し、業界のソートリーダーや専門家とつながることができる、ビジネスリーダーと開発者のためのイベントです。キーノート、ブレイクアウトセッション、ハンズオン ワ... www.microsoft.com 参加目的 私はPowerPlatform関連、特にCopilot Studio目当てで参加しました。 Microsoft Build 2025でも多くのアップデートが発表されて、それらの機能がパブリックされていっています。機能としては理解しているものの、どのように活用するかのアイデアを収集したいと考え、参加を決めました。 基調講演 基調講演のタイトルは「 Becoming Frontier: AI で実現するフロンティア組織への進化とビジネス変革 」です。基調講演では、日本マイクロソフトの代表取締役社長である津坂 美樹氏が登壇されました。ここでは、基調講演の内容を少し紹介します。(内容の解釈に一部誤りがあるかもしれません。ご参考までに。) 基調講演は2025/9/21現在、Youtubeにてアーカイブ配信されています。ぜひ実際の講演内容をご覧ください。 - YouTube YouTube でお気に入りの動画や音楽を楽しみ、オリジナルのコンテンツをアップロードして友だちや家族、世界中の人たちと共有しましょう。 aka.ms なお、基調講演とは「 イベントの冒頭に行われる中心的な講演で、テーマや方向性を示す講演 」のことです。 フロンティア組織への進化 フロンティア組織とは「 AIを活用して様々な課題を解決するためにAIトランスフォーメーションを推進している企業 」と定義されました。フロンティア組織になるために、Microsoftがどのように支援ができるか、というのが基調講演のメイントピックです。 基調講演では、フロンティア組織になるための成功の枠組みとして、以下の4点が挙げられていました。この4点の枠組みに対して、CopilotなどのAIソリューションを用いてアプローチすることでフロンティア組織への進化に至るということでした。 従業員エクスペリエンスの強化 顧客エンゲージメントの強化 ビジネスプロセスの再構築 イノベーションの加速 以降ではフロンティア組織の具体例として、 Zavaという架空の企業を題材に、MicrosoftのAIソリューションのデモを交えながら、戦略立案~開発までのシナリオ が説明されました。 最近のAIイベントでは、技術の仕組みや機能紹介よりも、「業務にどう活かすか」「どのような成果が出ているか」といった活用事例の紹介が中心になってきている印象を受けます。 Copilotを代表としたAIが“使えるサービス”として展開されている今、企業や組織が次に向き合うべきは“どう使うか”という問いなのだと改めて感じます。 それでは、4点の成功の枠組みに対してもう少し詳しく話していきます。 ①従業員エクスペリエンスの強化 AIを活用して社員の業務効率や創造性を高め、働き方そのものを進化させることです。 AIが単なるツールではなく、社員の判断力や創造性を引き出す存在として機能します。 ここで登場したのがM365 Copilotです。M365 Copilotが情報収集だけでなく分析といった複雑な思考を担ってくれます。M365 Copilotのリサーチャーエージェントやアナリストエージェントは2025/6に公開された機能のため、まだ業務に活用していない人も多いのではないでしょうか。 また、Copilot Studioではより社内の規定といった特定の社内情報のみを参照するカスタムエージェントを作成できます。M365 Copilotのみでは手の届かない領域もCopilot Studioを使用することで幅広い領域をCopilotに任せることができます。 活用されたソリューション Zavaでの活用シーン M365 Copilot リサーチャーエージェントによってZavaの脅威となる競合他社の情報を収集。 アナリストエージェントによってローンチ戦略を分析。 Copilot Studio 社内の様々な規定情報を参照したカスタムエージェントを作成。 Zavaの情報を参照してローンチ計画を策定。 ②顧客エンゲージメントの強化 人間が従来行っていた作業をAIが代理で担うことで、これまでにない顧客体験を創造することです。 例えば、コールセンター業務などはこれまで人間が担っていたことで、応対時間や応対数に制限がありました。これをAIに置き換えることにより24時間365日で即時対応可能なサービスを提供することができます。 また、AIを活用することで顧客のニーズを製品開発やマーケティングに迅速に反映させることができます。GitHub Copilotでは自然言語によるプロトタイプ開発から本番リリースまでのプロセスを短縮します。今回は特にVibe Codingの代表的な機能であるGitHub Sparkが紹介されていました。 さらには、AIを製品に組み込むためにAzure AI Foundryを使用します。1000を超えるモデルを選択可能で、独自のAIを柔軟にカスタマイズしてアプリケーションに配置することができます。 活用されたソリューション Zavaでの活用シーン GitHub Copilot 開発チームがマーケティング部門によるテストを想定した新アプリを迅速に発案及び試作 Azure AI Foundry 開発チームがアプリを改良し、大規模展開に向けて強化 ③ビジネスプロセスの再構築 エージェントを活用することを前提として、既存のビジネスプロセスを再構築することです。 ここではM365 Copilot+Excelでの財務調整エージェントが登場し、このトピックの主役でした。この機能は2025年リリース サイクル2でリリース予定の機能になっており、イベント開催時点ではリリース前の機能です。 (具体的な機能性については私の理解が及んでいない点がありますが)Excel上にエージェントが搭載され、データ分析やレポート作成の負荷が大幅に軽減されます。 活用されたソリューション Zavaでの活用シーン M365 Copilot+Excel 財務調整エージェントを自律的に動作するように訓練 Dynamics 365 財務部門がエージェントを活用し、期末締め処理を自動化 Microsoft 365 2025 年リリース サイクル 2 の財務エージェントの概要 Microsoft 365 2025 年リリース サイクル 2 の財務エージェントの概要 learn.microsoft.com ④イノベーションの加速 ここでは特に、 蓄積された膨大なデータを活用して新たなプロダクトを創造すること(を継続していくこと) 、とされています。 当然ですが開発された製品・サービスはリリースされたのちに改善活動を繰り返していきます。このとき、ユーザーから収集したデータをどのように活用できるかが継続的なイノベーションに欠かせません。 ここでMicrosoft Fabricが登場します。Microsoft Fabricはデータ統合プラットフォームとして多様な機能を有しています。 今回は特にデータの可視化としてデジタルツインの機能が目玉だったかと思います。Microsoft Fabricで様々なチャネルから蓄積されたデータをもとにデジタルツインを構築します。デジタルツインを活用することで対話型に、よりユーザーが親しみやすい形でデータを活用することができます。 活用されたソリューション Zavaでの活用シーン Microsoft Fabric 研究開発部門がFabricのデジタルツインを活用し、反復的改善、イノベーション、パフォーマンスの監視を実施 Microsoft Azure 研究開発部門がAzureを活用し、データの可視化とエージェントによるデータ活用を実施 基調講演の感想 特に印象的だったのは、事例を用いるのではなく、MicrosoftがZavaという架空の企業を用いて、AIソリューションによる業務変革の流れを具体的に描いていた点です。マーケティング、開発、財務といった部門ごとにCopilotやFabricなどのツールがどのように活用され、組織全体が“フロンティア化”していく様子が示されていました。単なる機能の紹介ではなく、 AIによる組織進化の“解像度”が高まった と感じました。 以上、簡単に基調講演のまとめになります。 この他に大阪府の吉村知事などフロンティア組織のリーダーが各組織での取り組みを紹介する内容もありますので、ぜひYoutubeのアーカイブ配信をご覧ください。 さいごに 全体の感想 今回のMicrosoft AI Tour Osakaは、技術者としての視点からも、実務に携わる立場からも、非常に充実した体験となりました。 イベント全体を通して、MicrosoftがもたらすAIの可能性を肌で感じることができ、何より純粋に楽しく、刺激的な時間でした。 特に楽しめた要因は、紹介された内容が自分のスキル領域と高い親和性を持っていたこと。PowerPlatformやCopilot Studio、Azure AI Foundryなど、日々関わっている技術がどのように フロンティア組織 の構築に活かされているかを明確にイメージできました。 また、Microsoftの吉田大貴さん、ギークフジワラさん、増田雄一さんといった著名な技術者・エバンジェリストの方々の話を直接聞けたことも大きな収穫です。彼らの語るビジョンや現場感は、資料や動画だけでは感じられない熱量を伴っていて、ただ話を聞くだけでなく実感としての理解が得られたように思います。 このイベントを通じて得た知見や気づきを、今後の業務や社内発信にどう活かしていくかが次のチャレンジです。 Microsoft AI Tour 2026に参加するには 東京開催の日付が公開されており、2026/3/24のようです。最新の情報は以下のサイトからご確認ください。 Microsoft AI Tour Osaka 2025では事前登録が必要でした。1か月ほど前から満席になり、キャンセル待ちになっていましたので、お申し込みはお早めに! Microsoft AI Tour Take the inside track to the AI frontier at the Microsoft AI Tour. Learn from experts, explore real-world strategies, an... aitour.microsoft.com
こんにちは。SCSK渡辺(大)です。 今年は秋らしい涼しさが続いて、とても過ごしやすいですね。 エアコンなしで快適に過ごせるようになりました。 作ったもの(作られたもの) Kiro から Claude Opus 4 と直接会話できる MCP サーバー を作りました。 たった  5 時間ほど で完成し、 Kiro の Specモード で開発が完結しました。 今回作成したMCPサーバーの使用にはBedrockモデルアクセスの有効化が必要です。 デモンストレーション 動画でご覧ください。 ▼ Claude Opus 4 と会話 document.createElement('video'); https://blog.usize-tech.com/contents/uploads/2025/09/DAI31.mp4 ▼ Claude Sonnet 4 と会話 https://blog.usize-tech.com/contents/uploads/2025/09/DAI32.mp4 ▼ Amazon Nova Micro と会話 https://blog.usize-tech.com/contents/uploads/2025/09/DAI33.mp4 各種構成図 システム概要図(by要件定義書) データフロー図(by要件定義書) 技術仕様フロー(by要件定義書) エラー処理フロー(by要件定義書) 総合アーキテクチャ(by要件定義書) テスト用モデル設定フロー(by要件定義書) パッケージ構造とコンポーネント関係(by設計文書) 実践レベルでのデータフロー(by設計文書) システム全体アーキテクチャ(by設計文書) エラー分類と処理戦略(by設計文書) AWS認証フロー(by設計文書) Specs 要件定義書(requirements.md) # 要件定義書 ## 概要 この仕様書は、Kiro IDE ユーザーが Model Context Protocol (MCP) を通じて AWS Bedrock の Amazon Nova + Claude の 3 つの AI モデルと用途別に対話できる Claude MCP サーバーの要件を定義します。このサーバーは、コスト効率を考慮した適切なモデル選択、エラーハンドリング、セキュリティ対策を維持しながら、テキストベースの会話のためのシンプルで信頼性の高いインターフェースを提供します。 ## システム概要図 ```mermaid flowchart TD A[Kiro IDE ユーザー] --> B[MCP クライアント Kiro IDE 内蔵] B --> C[MCP サーバー claude_opus_mcp] C --> D[AWS Bedrock API] D --> E[Amazon Nova Micro 超低コスト] D --> F[Claude Sonnet 4 バランス型] D --> G[Claude Opus 4 最高性能] E --> D F --> D G --> D D --> C C --> B B --> A H[AWS プロファイル 認証情報] --> C I[mcp.json 設定ファイル] --> B style A fill:#64b5f6,stroke:#1976d2,color:#000 style B fill:#4caf50,stroke:#2e7d32,color:#000 style C fill:#ff9800,stroke:#f57c00,color:#000 style D fill:#9c27b0,stroke:#7b1fa2,color:#fff style E fill:#00bcd4,stroke:#0097a7,color:#000 style F fill:#4caf50,stroke:#2e7d32,color:#000 style G fill:#4caf50,stroke:#2e7d32,color:#000 ``` ## 技術前提知識 本仕様書は以下の技術知識を前提とします: - **AWS Bedrock**: Foundation Model サービスの基本概念 - **IAM**: ロールとポリシーの設定経験 - **Python**: 中級レベルのプログラミング経験 - **JSON**: 設定ファイルの読み書き - **CLI**: コマンドライン操作の基本 - **API**: REST API の基本概念 ## データフロー図 ```mermaid sequenceDiagram participant U as Kiro ユーザー participant K as Kiro IDE participant M as MCP サーバー participant B as AWS Bedrock participant C as AIモデル (Nova/Sonnet/Opus) U->>K: "Claude に質問して" K->>M: chat_with_claude_opus(message, temperature) M->>M: AWS 認証情報取得 M->>B: invoke_model() API 呼び出し B->>C: メッセージ送信 C->>B: 応答生成 B->>M: API レスポンス M->>M: レスポンス処理 M->>K: MCP レスポンス K->>U: Claude の回答表示 Note over M,B: IAM 権限: bedrock:InvokeModel Note over B,C: モデル ID: anthropic.claude-opus-4-20250514-v1:0 ``` ## 要件 ### 要件 1: 用途別 AI モデルとの会話機能 **ユーザーストーリー:** Kiro IDE ユーザーとして、MCP ツールを通じて用途に応じて最適な AI モデル(Amazon Nova Micro, Claude Sonnet 4, Claude Opus 4)にメッセージを送信したい。これにより、コスト効率を考慮しながら開発環境内で直接各モデルの特性を活用できるようになる。 #### 技術仕様フロー ```mermaid flowchart TD A[ユーザー入力 メッセージ + temperature] --> B{入力検証} B -->|有効| C[AWS Bedrock API 呼び出し] B -->|無効| D[エラーレスポンス] C --> E{API 成功?} E -->|成功| F[Claude レスポンス取得] E -->|失敗| G[API エラー処理] F --> H[5秒以内レスポンス] G --> I[エラーメッセージ返却] H --> J[ユーザーに結果表示] I --> J style A fill:#64b5f6,stroke:#1976d2,color:#000 style C fill:#9c27b0,stroke:#7b1fa2,color:#fff style F fill:#4caf50,stroke:#2e7d32,color:#000 style H fill:#00bcd4,stroke:#0097a7,color:#000 ``` #### 受け入れ基準 1. ユーザーが chat_casual ツールを呼び出した時、システムは Amazon Nova Micro モデルにメッセージを送信すること 2. ユーザーが chat_professional ツールを呼び出した時、システムは Claude Sonnet 4 モデルにメッセージを送信すること 3. ユーザーが chat_expert ツールを呼び出した時、システムは Claude Opus 4 モデルにメッセージを送信すること 4. 各モデルが応答した時、システムは 5 秒以内にユーザーに応答テキストを返すこと 5. メッセージが 4000 トークンを超えた時、システムはトークン制限超過を示すエラーメッセージを返すこと 6. ユーザーが temperature パラメータ(0.0-1.0)を提供した時、システムは応答生成にその値を使用すること 7. temperature が提供されない場合、システムはデフォルト値として 0.7 を使用すること ### 要件 2: エラーハンドリングとトラブルシューティング **ユーザーストーリー:** Kiro IDE ユーザーとして、何か問題が発生した時に明確なエラーメッセージが欲しい。これにより、MCP サーバーの問題を迅速に理解し解決できるようになる。 #### エラー処理フロー ```mermaid flowchart TD A[エラー発生] --> B{エラー種別判定} B -->|認証エラー| C[AWS 認証失敗 IAM/プロファイル確認] B -->|API エラー| D[Bedrock API エラー 権限/モデルアクセス確認] B -->|ネットワークエラー| E[接続エラー ネットワーク確認] B -->|その他| F[予期しないエラー ログ記録] C --> G[ユーザー向けメッセージ] D --> G E --> G F --> G G --> H[デバッグログ出力] H --> I[エラーレスポンス返却] style A fill:#ff5722,stroke:#d32f2f,color:#fff style C fill:#ff9800,stroke:#f57c00,color:#000 style D fill:#ff9800,stroke:#f57c00,color:#000 style E fill:#ff9800,stroke:#f57c00,color:#000 style F fill:#ff9800,stroke:#f57c00,color:#000 style I fill:#64b5f6,stroke:#1976d2,color:#000 ``` #### 受け入れ基準 1. AWS 認証が失敗した時、システムは「AWS 認証に失敗しました。認証情報と AWS プロファイル設定を確認してください。」を返すこと 2. Bedrock API がエラーを返した時、システムは「Bedrock API エラー: [具体的なエラー]。Bedrock アクセス権限を確認してください。」を返すこと 3. ネットワーク接続が失敗した時、システムは「ネットワーク接続に失敗しました。インターネット接続を確認してください。」を返すこと 4. AI モデルアクセスが拒否された時、システムは「AI モデルアクセスが拒否されました。AWS Bedrock コンソールでモデルアクセス(Amazon Nova Micro, Claude Sonnet 4, Claude Opus 4)を有効にしてください。」を返すこと 5. 任意のエラーが発生した時、システムはデバッグ目的で詳細なエラーをログに記録すること ### 要件 3: Kiro IDE 統合とセットアップ **ユーザーストーリー:** Kiro IDE ユーザーとして、MCP サーバーが Kiro の設定とシームレスに統合されることを望む。これにより、複雑なセットアップ手順なしに使用できるようになる。 #### 統合アーキテクチャ ```mermaid flowchart TD A[mcp.json 設定ファイル] --> B[Kiro IDE MCP クライアント] B --> C[MCP サーバー起動 python -m claude_opus_mcp] D[AWS プロファイル ~/.aws/credentials] --> E[環境変数 MCP_AWS_PROFILE] E --> C C --> F[MCP プロトコル ハンドシェイク] F --> G[ツール登録 chat_with_claude_opus] G --> H[Kiro でツール利用可能] I[autoApprove 設定] --> B style A fill:#4caf50,stroke:#2e7d32,color:#000 style B fill:#64b5f6,stroke:#1976d2,color:#000 style C fill:#ff9800,stroke:#f57c00,color:#000 style D fill:#9c27b0,stroke:#7b1fa2,color:#fff style H fill:#00bcd4,stroke:#0097a7,color:#000 ``` #### 受け入れ基準 1. MCP サーバーが mcp.json で設定された時、Kiro は利用可能な MCP サーバーとして認識すること 2. サーバーが開始された時、適切な JSON スキーマで chat_with_claude_opus ツールを登録すること 3. ユーザーが autoApprove を設定している時、ツールは手動承認プロンプトなしで実行されること 4. サーバーが MCP_AWS_PROFILE 環境変数を使用する時、指定された AWS プロファイルを使用して認証すること 5. MCP_AWS_PROFILE が設定されていない場合、システムはデフォルトの AWS プロファイルを使用すること ### 要件 4 **ユーザーストーリー:** 開発者として、MCP サーバーが Python のベストプラクティスと MCP プロトコル標準に従うことを望む。これにより、保守可能で信頼性の高いものになる。 #### 受け入れ基準 1. サーバーがインストールされた時、`python -m claude_opus_mcp` で実行可能であること 2. サーバーが開始された時、適切な MCP プロトコルハンドシェイクを実装すること 3. サーバーがツール呼び出しを受信した時、JSON スキーマに従って入力パラメータを検証すること 4. サーバーが例外に遭遇した時、クラッシュすることなく適切に処理すること 5. サーバーがリクエストを処理する時、通常の条件下で 95% の成功率を維持すること ### 要件 5 **ユーザーストーリー:** システム管理者として、MCP サーバーが AWS 認証情報を安全に処理することを望む。これにより、機密情報が露出したり悪用されたりしないようになる。 #### 受け入れ基準 1. AWS 認証情報が必要な時、システムは AWS プロファイルまたは環境変数のみを使用すること 2. 認証情報が読み込まれた時、システムは平文でログに記録したり露出したりしないこと 3. AWS プロファイルを使用する時、システムは AWS CLI 認証情報の優先順位を尊重すること 4. IAM 権限が不十分な時、システムは必要な権限について明確なガイダンスを提供すること 5. サーバーが実行される時、3 つの AI モデル(Amazon Nova Micro, Claude Sonnet 4, Claude Opus 4)に対する bedrock:InvokeModel 権限のみを必要とすること ### 要件 6: テスト要件とコスト最適化 **ユーザーストーリー:** 開発者として、コスト効率的にテストを実行したい。これにより、開発コストを抑制しながら品質を確保できるようになる。 #### テスト用モデル設定フロー ```mermaid flowchart TD A[テスト実行] --> B{テスト種別} B -->|単体テスト| C[モック使用 コスト: $0] B -->|統合テスト| D[Claude Sonnet 4 コスト効率重視] B -->|本番確認| E[Claude Opus 4 最終検証のみ] D --> F[基本機能確認 anthropic.claude-sonnet-4-20250514-v1:0] E --> G[高度推論確認 anthropic.claude-opus-4-20250514-v1:0] style C fill:#4caf50,stroke:#2e7d32,color:#000 style D fill:#ff9800,stroke:#f57c00,color:#000 style E fill:#9c27b0,stroke:#7b1fa2,color:#fff ``` #### 受け入れ基準 1. システムは設定可能なモデル ID をサポートし、テスト時は Claude Sonnet 4 (anthropic.claude-sonnet-4-20250514-v1:0) を使用できること 2. 単体テストでは AWS API 呼び出しをモック化し、実際のコストを発生させないこと 3. 統合テストでは Claude Sonnet 4 を使用して基本的な会話機能を検証すること 4. 本番リリース前の最終確認でのみ Claude Opus 4 を使用し、日常的なテストでは Amazon Nova Micro や Claude Sonnet 4 を使用すること 5. テスト設定は環境変数 MCP_TEST_MODEL_ID で切り替え可能であること ## AWS 技術要件 ### 必要な AWS サービス知識 #### AWS Bedrock - **Foundation Models**: Amazon Nova Micro, Claude Sonnet 4, Claude Opus 4 モデルの特性理解 - **API 呼び出し**: invoke_model() メソッドの使用方法 - **モデル ID**: - Amazon Nova Micro: amazon.nova-micro-v1:0 - Claude Sonnet 4: us.anthropic.claude-sonnet-4-20250514-v1:0 - Claude Opus 4: us.anthropic.claude-opus-4-20250514-v1:0 - **リージョン**: us-east-1, us-east-2, us-west-2 での利用可能性 #### IAM 権限設定 ```json { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["bedrock:InvokeModel"], "Resource": "arn:aws:bedrock:*::foundation-model/anthropic.claude-opus-4-20250514-v1:0" } ] } ``` #### AWS CLI プロファイル設定 ```ini # ~/.aws/credentials [your-profile] aws_access_key_id = YOUR_ACCESS_KEY aws_secret_access_key = YOUR_SECRET_KEY # ~/.aws/config [profile your-profile] region = us-east-1 ``` ### パフォーマンス要件 #### レスポンス時間 - **目標**: 5 秒以内 - **測定方法**: API 呼び出し開始から MCP レスポンス返却まで - **タイムアウト**: 30 秒でタイムアウト処理 #### スループット - **同時接続**: 1 接続(Kiro IDE からの単一セッション) - **リクエスト頻度**: 制限なし(AWS Bedrock の制限に従う) ### セキュリティ要件 #### 認証情報管理 - AWS プロファイルまたは環境変数のみ使用 - 認証情報の平文ログ出力禁止 - IAM 最小権限の原則に従う #### ネットワークセキュリティ - HTTPS 通信のみ(AWS Bedrock API) - ローカル実行(外部からのアクセス不要) ## 参考ドキュメント ### AWS 公式ドキュメント - [Amazon Nova Models in Amazon Bedrock](https://aws.amazon.com/bedrock/nova/) - Amazon Nova Micro モデル ID と利用可能リージョンの確認 - [Introducing Claude 4 in Amazon Bedrock - AWS News Blog](https://aws.amazon.com/blogs/aws/claude-opus-4-anthropics-most-powerful-model-for-coding-is-now-in-amazon-bedrock/) - Claude Sonnet 4 / Opus 4 モデル ID と利用可能リージョンの確認 - [InvokeModel - Amazon Bedrock API Reference](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) - Bedrock API の基本仕様 - [Bedrock Converse API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) - 推奨される統一 API インターフェース ### MCP プロトコル仕様 - [MCP Release Notes - Speakeasy](https://www.speakeasy.com/mcp/release-notes) - 2025 年最新仕様(Streamable HTTP、OAuth 2.1 対応) - [Model Context Protocol (MCP) - GeeksforGeeks](https://www.geeksforgeeks.org/artificial-intelligence/model-context-protocol-mcp/) - MCP の基本概念と標準化フレームワーク ### 技術実装参考 - [Model context protocol (MCP) - OpenAI Agents SDK](https://openai.github.io/openai-agents-python/mcp/) - Python SDK の実装例とベストプラクティス 設計文書(design.md) # 設計文書 ## 概要 Claude MCP サーバーは、Kiro IDE と AWS Bedrock の Amazon Nova + Claude の 3 つの AI モデルを橋渡しする軽量なプロキシサーバーです。MCP プロトコルに準拠し、用途別モデル選択によるコスト効率化を実現しながら、シンプルで信頼性の高い会話インターフェースを提供します。 ## アーキテクチャ ### パッケージ構造とコンポーネント関係 ```mermaid graph TB subgraph "プロジェクトルート" A[setup.py パッケージ設定・依存関係] B[requirements.txt Python依存関係定義] end subgraph "claude_opus_mcp パッケージ" D[__init__.py パッケージ初期化・エクスポート] E[__main__.py エントリーポイント・起動制御] F[server.py MCPプロトコル実装] G[bedrock_client.py AWS Bedrock API クライアント] H[config.py 設定管理・環境変数処理] I[tool_handlers.py ツール実行ロジック] J[exceptions.py カスタム例外定義] end A --> D A -.-> B E --> F F --> I I --> G G --> H F --> H G --> J I --> J style D fill:#64b5f6,stroke:#1976d2,color:#000 style E fill:#4caf50,stroke:#2e7d32,color:#000 style F fill:#ff9800,stroke:#f57c00,color:#000 style G fill:#9c27b0,stroke:#7b1fa2,color:#fff style H fill:#00bcd4,stroke:#0097a7,color:#000 ``` ### 実装レベルでのデータフロー ```mermaid sequenceDiagram participant U as Kiro ユーザー participant K as Kiro MCP クライアント participant S as server.py participant T as tool_handlers.py participant B as bedrock_client.py participant C as config.py participant A as AWS Bedrock API U->>K: チャット入力 K->>S: MCP call_tool(name, arguments) S->>S: ツール名検証 S->>T: handle_chat_xxx(arguments) T->>C: get_model_by_purpose(purpose) C-->>T: model_id T->>B: chat_with_model(message, model_id, temperature) B->>C: get_aws_session() C-->>B: boto3.Session B->>B: _build_request_body_for_model() B->>A: invoke_model(modelId, body) A-->>B: API Response B->>B: _parse_response_for_model() B-->>T: response_text T-->>S: TextContent(text=response_text) S-->>K: MCP Response K-->>U: AI応答表示 ``` ### システム全体アーキテクチャ ```mermaid graph TB subgraph "Kiro IDE 環境" A[Kiro IDE ユーザー] B[MCP クライアント] C[mcp.json 設定] end subgraph "ローカル MCP サーバー" D[chat_mcp] E[MCP プロトコル ハンドラー] F[Bedrock クライアント] G[設定管理] H[エラーハンドラー] end subgraph "AWS クラウド" I[AWS Bedrock API] J[Amazon Nova Micro 超低コスト] K[Claude Sonnet 4 バランス型] L[Claude Opus 4 最高性能] end subgraph "認証・設定" M[AWS プロファイル] N[環境変数] end A --> B B --> D C --> B D --> E E --> F F --> I I --> J I --> K I --> L J --> I K --> I L --> I I --> F F --> E E --> D D --> B B --> A M --> D N --> D J --> G K --> G L --> G G --> F D --> H style D fill:#ff9800,stroke:#f57c00,color:#000 style F fill:#9c27b0,stroke:#7b1fa2,color:#fff style I fill:#00bcd4,stroke:#0097a7,color:#000 style J fill:#4caf50,stroke:#2e7d32,color:#000 ``` ### コンポーネント設計 #### 1. MCP サーバーコア (server.py) **責務:** - MCP プロトコルの実装 - ツール登録とリクエスト処理 - エラーハンドリングとレスポンス管理 **主要メソッド:** ```python async def main() -> None: """MCP サーバーのメインエントリーポイント""" async def list_tools() -> List[Tool]: """利用可能なツールのリストを返す""" async def call_tool(name: str, arguments: dict) -> ToolResult: """指定されたツールを実行する""" ``` #### 2. Bedrock クライアント (bedrock_client.py) **責務:** - AWS Bedrock API との通信 - 3 つの AI モデル(Amazon Nova Micro, Claude Sonnet 4, Claude Opus 4)の呼び出し - 用途別モデル選択ロジック - レスポンスの解析と変換 **主要メソッド:** ```python async def chat_with_model(message: str, model_id: str, temperature: float = 0.7) -> str: """指定されたAIモデルとの会話を実行""" def _build_request_body(message: str, temperature: float) -> dict: """Bedrock API リクエストボディを構築""" def _parse_response(response: dict) -> str: """Bedrock API レスポンスを解析""" ``` #### 3. 設定管理 (config.py) **責務:** - 環境変数と AWS プロファイルの管理 - 設定値の検証とデフォルト値の提供 - 認証情報の安全な取得 **設定項目:** ```python @dataclass class Config: aws_region: str = "us-east-1" aws_profile: Optional[str] = None nova_micro_model_id: str = "amazon.nova-micro-v1:0" claude_sonnet_model_id: str = "us.anthropic.claude-sonnet-4-20250514-v1:0" claude_opus_model_id: str = "us.anthropic.claude-opus-4-20250514-v1:0" max_tokens: int = 4000 timeout_seconds: int = 30 def get_model_by_purpose(self, purpose: str) -> str: """用途に応じたモデル ID を取得""" model_mapping = { 'casual': self.nova_micro_model_id, # 軽量会話 'professional': self.claude_sonnet_model_id, # 技術的会話 'expert': self.claude_opus_model_id # 高度な設計 } return model_mapping.get(purpose, self.claude_sonnet_model_id) ``` ## データモデル ### MCP ツール定義 ```json { "name": "chat_casual", "description": "日常会話や簡単な質問に答える(Amazon Nova Micro使用・超低コスト)", "inputSchema": { "type": "object", "properties": { "message": { "type": "string", "description": "Claude に送信するメッセージ", "minLength": 1, "maxLength": 10000 }, "temperature": { "type": "number", "description": "応答の創造性を制御 (0.0-1.0)", "minimum": 0.0, "maximum": 1.0, "default": 0.7 } }, "required": ["message"] } } ``` ### Bedrock API リクエスト形式 ```json { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 4000, "temperature": 0.7, "messages": [ { "role": "user", "content": "ユーザーメッセージ" } ] } ``` ### MCP レスポンス形式 ```json { "content": [ { "type": "text", "text": "Claude からの応答テキスト" } ], "isError": false } ``` ## インターフェース設計 ### 1. MCP プロトコル インターフェース #### ツール登録 ```python @app.list_tools() async def list_tools(): return [ { "name": "chat_casual", "description": "日常会話や簡単な質問に答える(Amazon Nova Micro使用・超低コスト)", "inputSchema": TOOL_SCHEMA_CASUAL }, { "name": "chat_professional", "description": "技術的な質問や詳細な説明が必要な会話(Claude Sonnet 4使用・バランス型)", "inputSchema": TOOL_SCHEMA_PROFESSIONAL }, { "name": "chat_expert", "description": "複雑な設計、アーキテクチャ、実装に関する高度な相談(Claude Opus 4使用・最高性能)", "inputSchema": TOOL_SCHEMA_EXPERT } ] ``` #### ツール実行 ```python @app.call_tool() async def call_tool(name: str, arguments: dict): if name == "chat_with_claude_opus": return await handle_chat_request(arguments) else: raise ValueError(f"Unknown tool: {name}") ``` ### 2. AWS Bedrock インターフェース #### API 呼び出し ```python async def invoke_bedrock_model( client: BedrockRuntimeClient, model_id: str, request_body: dict ) -> dict: """Bedrock モデルを呼び出す""" response = await client.invoke_model( modelId=model_id, body=json.dumps(request_body) ) return json.loads(response['body'].read()) ``` ## エラーハンドリング設計 ### エラー分類と処理戦略 ```mermaid flowchart TD A[エラー発生] --> B{エラー種別} B -->|ClientError| C[AWS API エラー] B -->|ValidationError| D[入力検証エラー] B -->|TimeoutError| E[タイムアウトエラー] B -->|Exception| F[予期しないエラー] C --> G{エラーコード判定} G -->|AccessDenied| H[認証・権限エラー] G -->|ModelNotFound| I[モデルアクセスエラー] G -->|ThrottlingException| J[レート制限エラー] G -->|その他| K[一般的な API エラー] D --> L[入力値エラーメッセージ] E --> M[タイムアウトエラーメッセージ] F --> N[システムエラーメッセージ] H --> O[ユーザー向けエラーレスポンス] I --> O J --> O K --> O L --> O M --> O N --> O O --> P[ログ出力] P --> Q[MCP エラーレスポンス返却] style A fill:#ff5722,stroke:#d32f2f,color:#fff style O fill:#ff9800,stroke:#f57c00,color:#000 style Q fill:#64b5f6,stroke:#1976d2,color:#000 ``` ### エラーメッセージマッピング ```python ERROR_MESSAGES = { "AccessDenied": "AWS 認証に失敗しました。認証情報と AWS プロファイル設定を確認してください。", "ModelNotFound": "AIモデルアクセスが拒否されました。AWS Bedrock コンソールでモデルアクセス(Amazon Nova Micro, Claude Sonnet 4, Claude Opus 4)を有効にしてください。", "ThrottlingException": "リクエスト制限に達しました。しばらく待ってから再試行してください。", "ValidationException": "入力パラメータが無効です。メッセージ内容を確認してください。", "TimeoutError": "リクエストがタイムアウトしました。ネットワーク接続を確認してください。", "NetworkError": "ネットワーク接続に失敗しました。インターネット接続を確認してください。" } ``` ## セキュリティ設計 ### 認証情報管理 #### AWS 認証フロー ```mermaid sequenceDiagram participant S as MCP サーバー participant C as Config participant A as AWS SDK participant P as AWS プロファイル participant E as 環境変数 S->>C: 設定初期化 C->>C: MCP_AWS_PROFILE 確認 alt プロファイル指定あり C->>P: プロファイル読み込み P->>A: 認証情報設定 else プロファイル指定なし C->>E: 環境変数確認 E->>A: デフォルト認証情報 end A->>S: 認証済み Bedrock クライアント ``` #### セキュリティ原則 1. **最小権限の原則** - `bedrock:InvokeModel` 権限のみ要求 - 特定モデルへのアクセスに限定 2. **認証情報の保護** - 平文での認証情報ログ出力禁止 - メモリ内での認証情報の適切な管理 3. **入力検証** - JSON スキーマによる厳密な入力検証 - SQL インジェクション等の攻撃対策 ## パフォーマンス設計 ### レスポンス時間最適化 #### 目標値 - **通常応答**: 3 秒以内 - **最大応答**: 5 秒以内 - **タイムアウト**: 30 秒 #### 最適化戦略 1. **非同期処理** ```python async def chat_with_claude(self, message: str, temperature: float) -> str: """非同期での Bedrock API 呼び出し""" async with self.session.post(url, json=body, timeout=30) as response: return await self._parse_response(response) ``` 2. **接続プール** ```python # HTTP セッションの再利用 self.session = aiohttp.ClientSession( timeout=aiohttp.ClientTimeout(total=30), connector=aiohttp.TCPConnector(limit=10) ) ``` 3. **エラー時の早期リターン** ```python # 入力検証での早期エラー検出 if len(message) > MAX_MESSAGE_LENGTH: raise ValidationError("メッセージが長すぎます") ``` ## 監視・ログ設計 ### ログレベル定義 ```python import logging # 本番環境: INFO レベル # 開発環境: DEBUG レベル logging.basicConfig( level=logging.INFO, format='%(asctime)s - %(name)s - %(levelname)s - %(message)s' ) ``` ### ログ出力項目 1. **リクエストログ** - タイムスタンプ - ツール名 - メッセージ長 - temperature 値 2. **レスポンスログ** - 処理時間 - レスポンス長 - 成功/失敗ステータス 3. **エラーログ** - エラー種別 - エラーメッセージ - スタックトレース(DEBUG 時のみ) ## テスト戦略 ### テストレベル #### 1. 単体テスト - 各コンポーネントの独立テスト - モック使用による外部依存の排除 #### 2. 統合テスト - MCP プロトコルの動作確認 - AWS Bedrock API との実際の通信テスト #### 3. エンドツーエンドテスト - Kiro IDE での実際の動作確認 - エラーシナリオの検証 ### テスト環境 ```python # テスト用の設定 TEST_CONFIG = { "aws_region": "us-east-1", "claude_model_id": "anthropic.claude-sonnet-4-20250514-v1:0", # コスト効率重視 "max_tokens": 100, # テスト用に短縮 "timeout_seconds": 10 } # 本番確認用の設定 PRODUCTION_TEST_CONFIG = { "aws_region": "us-east-1", "claude_model_id": "anthropic.claude-opus-4-20250514-v1:0", # 最終確認のみ "max_tokens": 4000, "timeout_seconds": 30 } ``` ## デプロイメント設計 ### パッケージ構造 ``` claude_opus_mcp/ ├── __init__.py ├── __main__.py # python -m エントリーポイント ├── server.py # MCP サーバー実装 ├── bedrock_client.py # AWS Bedrock クライアント ├── config.py # 設定管理 ├── tool_handlers.py # ツールハンドラー実装 └── exceptions.py # カスタム例外 ``` ### インストール要件 ```txt # requirements.txt mcp>=1.0.0 boto3>=1.34.0 aiohttp>=3.8.0 pydantic>=2.0.0 python-dotenv>=1.0.0 ``` ### Kiro 統合設定 ```json { "mcpServers": { "chat-mcp": { "command": "python", "args": ["-m", "chat_mcp"], "env": { "MCP_AWS_PROFILE": "sts", "MCP_AWS_REGION": "us-east-1", "MCP_USE_TEST_MODEL": "true", "MCP_LOG_LEVEL": "INFO" }, "disabled": false, "autoApprove": ["chat_casual", "chat_professional", "chat_expert"], "disabledTools": [] } } } ``` ## 参考ドキュメント ### AWS 公式ドキュメント - [Amazon Nova Models in Amazon Bedrock](https://aws.amazon.com/bedrock/nova/) - Amazon Nova Micro の技術仕様とコスト効率 - [Introducing Claude 4 in Amazon Bedrock - AWS News Blog](https://aws.amazon.com/blogs/aws/claude-opus-4-anthropics-most-powerful-model-for-coding-is-now-in-amazon-bedrock/) - Claude Sonnet 4 / Opus 4 の技術仕様とベストプラクティス - [InvokeModel - Amazon Bedrock API Reference](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) - Bedrock API の詳細仕様とパラメータ - [Bedrock Converse API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) - 推奨される統一 API インターフェース(将来対応) ### MCP プロトコル仕様 - [MCP Release Notes - Speakeasy](https://www.speakeasy.com/mcp/release-notes) - 2025 年最新仕様(Streamable HTTP、OAuth 2.1 対応) - [Model Context Protocol (MCP) - GeeksforGeeks](https://www.geeksforgeeks.org/artificial-intelligence/model-context-protocol-mcp/) - MCP アーキテクチャの基本概念 ### 技術実装参考 - [Model context protocol (MCP) - OpenAI Agents SDK](https://openai.github.io/openai-agents-python/mcp/) - Python SDK の実装パターンとベストプラクティス ### セキュリティ・認証 - [AWS IAM Best Practices](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) - 最小権限の原則と認証情報管理 - [AWS SDK for Python (Boto3) Configuration](https://boto3.amazonaws.com/v1/documentation/api/latest/guide/configuration.html) - AWS 認証情報の設定方法 実装タスク一覧(tasks.md) # 実装計画 - [x] 1. プロジェクト構造とコア設定の作成 - プロジェクトディレクトリ構造を作成する - requirements.txt と setup.py を作成する - 基本的な **init**.py ファイルを作成する - _要件: 要件 4(Python ベストプラクティス)_ - [x] 2. 設定管理システムの実装 - [x] 2.1 Config クラスの実装 - Pydantic を使用した設定クラスを作成する - AWS プロファイル、リージョン、モデル ID の管理を実装する - テスト用モデル切り替え機能を実装する - _要件: 要件 6(テスト要件とコスト最適化)_ - [x] 2.2 環境変数とプロファイル管理 - MCP_AWS_PROFILE、MCP_AWS_REGION の環境変数サポートを実装する - AWS プロファイルの自動検出機能を実装する - デフォルト設定の適用ロジックを実装する - _要件: 要件 3(Kiro IDE 統合)、要件 5(セキュリティ)_ - [x] 3. AWS Bedrock クライアントの実装 - [x] 3.1 BedrockClient クラスの基本実装 - boto3 を使用した Bedrock クライアントを作成する - 認証情報の安全な管理を実装する - 基本的な接続テストメソッドを実装する - _要件: 要件 5(セキュリティと認証情報管理)_ - [x] 3.2 Claude との会話機能実装 - chat_with_claude メソッドを実装する - Bedrock API リクエストボディの構築を実装する - API レスポンスの解析と変換を実装する - temperature パラメータの処理を実装する - _要件: 要件 1(Claude Opus 4 との会話機能)_ - [x] 3.3 エラーハンドリングの実装 - AWS API エラーの分類と処理を実装する - ユーザーフレンドリーなエラーメッセージの生成を実装する - ログ出力機能を実装する - タイムアウト処理を実装する - _要件: 要件 2(エラーハンドリング)_ - [x] 4. MCP サーバーコアの実装 - [x] 4.1 MCP プロトコルハンドラーの実装 - MCP Server クラスの基本構造を作成する - プロトコルハンドシェイクを実装する - ツール登録機能を実装する - _要件: 要件 4(MCP プロトコル標準準拠)_ - [x] 4.2 chat_with_claude_opus ツールの実装 - ツールの JSON スキーマ定義を実装する - 入力パラメータの検証を実装する - BedrockClient との連携を実装する - MCP レスポンス形式での結果返却を実装する - _要件: 要件 1(Claude Opus 4 との会話機能)_ - [x] 4.3 メインエントリーポイントの実装 - **main**.py でのサーバー起動処理を実装する - 設定の初期化とバリデーションを実装する - 適切な終了処理を実装する - _要件: 要件 4(Python ベストプラクティス)_ - [x] 5. テストスイートの実装 - [x] 5.1 単体テストの作成 - Config クラスのテストを作成する - BedrockClient のモックテストを作成する - エラーハンドリングのテストを作成する - _要件: 要件 6(テスト要件)_ - [x] 5.2 統合テストの作成 - Claude Sonnet 4 を使用した実際の API テストを作成する - MCP プロトコルの動作テストを作成する - エンドツーエンドの会話テストを作成する - _要件: 要件 6(コスト最適化テスト)_ - [x] 5.3 本番確認テストの作成 - Claude Opus 4 を使用した最終確認テストを作成する - パフォーマンステスト(5 秒以内レスポンス)を作成する - _要件: 要件 1(パフォーマンス要件)_ - [x] 6. パッケージングとドキュメント - [x] 6.1 パッケージ設定の完成 - setup.py の詳細設定を完成させる - requirements.txt の最終調整を行う - .env.example ファイルを作成する - _要件: 要件 4(保守可能性)_ - [x] 6.2 ドキュメントの作成(オプション) - README.md を作成する - インストール手順を記述する - Kiro 統合手順を記述する - トラブルシューティングガイドを作成する - _要件: 要件 3(Kiro IDE 統合)_ - **注記**: 実用的には完成済み。共有・公開時に必要に応じて作成 - [x] 7. Kiro IDE 統合テスト - [x] 7.1 ローカル統合テスト - mcp.json 設定ファイルを作成する - Kiro でのサーバー認識テストを実行する - autoApprove 機能のテストを実行する - _要件: 要件 3(Kiro IDE 統合とセットアップ)_ - [x] 7.2 実際の会話テスト - Kiro から Claude Sonnet 4 との会話テストを実行する - エラーケースの動作確認を実行する - パフォーマンス測定を実行する - _要件: 要件 1(Claude Opus 4 との会話機能)、要件 2(エラーハンドリング)_ - [x] 7.3 本番モデル確認 - Claude Opus 4 での最終動作確認を実行する - 高度な推論タスクでの動作確認を実行する - _要件: 要件 6(本番確認テスト)_ - [x] 8. 実運用での問題解決と機能拡張 - [x] 8.1 MCP プロトコル互換性の修正 - CallToolResult から List[TextContent] への戻り値形式変更 - GitHub Issue #987 の調査結果に基づく修正実装 - MCP プロトコル API 変更への対応 - _要件: 要件 4(MCP プロトコル標準準拠)_ - [x] 8.2 多モデル対応機能の実装 - Amazon Nova Micro モデルの追加実装 - Claude Sonnet 4 との使い分け機能実装 - 用途別モデル選択機能(casual/professional/expert) - コスト効率化のためのモデル切り替え実装 - _要件: 要件 6(コスト最適化)_ - [x] 8.3 AWS リソース管理機能の実装 - IAM ユーザー管理機能の追加 - EC2、S3、Lambda 情報取得機能の追加 - AWS セッション管理の改善 - 統合的な AWS 操作ツールの実装 - _要件: 要件 5(セキュリティと認証情報管理)_ - [x] 8.4 機能の簡素化とリファクタリング - ツール数を 10 個から 3 個(chat 系のみ)に削減 - サーバー名を claude-opus-mcp から claude-mcp に短縮 - ツールハンドラーの分離とモジュール化 - コードの保守性向上 - _要件: 要件 4(保守可能性)_ - [x] 9. 最終動作確認とコスト分析 - [x] 9.1 3 モデル会話テスト - Claude Opus 4 での高度な技術相談テスト - Claude Sonnet 4 での専門的会話テスト - Amazon Nova Micro での軽量会話テスト - 各モデルの応答品質とコスト効率の確認 - _要件: 要件 1(Claude Opus 4 との会話機能)、要件 6(コスト最適化)_ - [x] 9.2 実際のコスト測定 - 3 回のラリー会話でのコスト計算(約 5 円) - Nova Micro での軽量会話コスト測定(約 0.005 円) - モデル別コスト比較分析 - コスト効率の実証 - _要件: 要件 6(コスト最適化)_ MCPサーバーのコード関連 GitHub - wd902/claude-mcp-server: 用途別AIモデル使い分け対応のMCPサーバー - AWS Bedrock統合 用途別AIモデル使い分け対応のMCPサーバー - AWS Bedrock統合. Contribute to wd902/claude-mcp-server development by creating an account on GitH... github.com その他 MCPサーバー設定(mcp.json) { "mcpServers": {   "chat-mcp": {     "command": "python",     "args": [       "-m",       "claude_opus_mcp"     ],     "env": {       "MCP_AWS_PROFILE": "sts",       "MCP_AWS_REGION": "us-east-1",       "MCP_USE_TEST_MODEL": "false",       "MCP_MAX_TOKENS": "2000",       "MCP_TIMEOUT_SECONDS": "60"     },     "disabled": false,     "autoApprove": [       "chat_casual",       "chat_professional",       "chat_expert"     ],     "disabledTools": [       "chat_expert",       "chat_professional"     ]   } } } 補足すると、上記の場合、chat_casualだけ使えるようになっています。 chat_casual : Amazon Nova Micro(超低コスト) chat_professional : Claude Sonnet 4(バランス型) chat_expert : Claude Opus 4(最高性能)   背景 Kiro について調べていると 実装力に課題がある という声が多く見受けられました。 そこで、 Claude Opus 4 の実装力を Kiro に統合 できないかと考えたことが今回のきっかけです。 用途に応じて 3 つの AI モデルを使い分け できるようにした理由は、Claude Opus 4 は費用が高いため、気軽にテストできないためです。 開発プロセス Kiro の Spec モードだけで完結 しました。外部ツールは一切使用していません。 開発の流れ : 事前準備 – Vibe モードで実現性を確認し、Spec 用の要件を整理 Spec 作成 – 要件を自然言語で記述 設計 – Spec から自動的にアーキテクチャを生成 実装 – Spec に基づいて Kiro が自動実装 テスト – Kiro 内で動作確認 短時間で完成できた理由 : 事前の実現性確認: Vibe モードで技術的な実現可能性を事前検証 Spec の構造化アプローチ : 仕様駆動開発を最大限に活用 Kiro の自動実装 : 手動コーディングを大幅削減 統合開発環境 : 外部ツールの切り替え時間ゼロ もちろん一発で開発できたわけではありません。 Kiro と一緒にトライアンドエラーを繰り返して完成させました。 結果 この MCP サーバーにより、 Kiro における開発体験が大きく変わる可能性 があります。 外部ツールに切り替えることなく、Kiro 内で直接 Claude Opus 4 に相談できるため、開発の流れが中断されにくくなると考えられます。 特に以下のような場面で効果が期待できます: 複雑なアルゴリズムの実装 : Claude Opus 4 の高い推論能力を活用した段階的な問題解決 設計の相談 : 継続的な対話による設計案の洗練 技術的な疑問の解決 : 即座に専門的な知識にアクセス可能 これにより、従来は時間がかかっていた問題解決プロセスがスムーズになり、開発効率の向上につながると期待されます。 人によっては、費用がAWSの請求に計上されるという点もメリットかと思います。 感想 MCPサーバーを作ることよりも、実装した内容とドキュメントの整合性を合わせる作業が大変でした…。 それくらいに Kiro の Specモード はサクサクとMCPサーバーを開発してくれました。 途中、何度かエラーに見舞われましたが、なんとか解決することができました。 一方で、Specモード に限らず Kiro の気になる点がいくつかありました。 例えば、Workingの文字が表示されず動いているのかどうなのか分からない状態になることが何度かありました。 その場合には、「動いていますか?」と投げかけると動き出してくれました。 また、Kiro とのやりとりが長く続くと新規チャットを開くように促されるので開くのですが、Kiro は以前のセッションのことを忘れてしまっていました。 上記の点は改善されると嬉しいです。 ちなみに、当記事のたたき台は Kiro に作ってもらいました。 まとめ Kiro の Specモード で、たった 5 時間ほどで実用的な MCP サーバーが完成 しました。 これにより: Kiro の実装力を大幅に強化 必要な時にだけ最高性能を活用 Kiro 内で完結する開発環境 が実現できたかと思います。 Kiro に興味を持った方は、ぜひ  Kiro 公式サイト  をチェックしてみてください。 参考記事 KiroとAmazon Q CLIでゲームを作成した結果を比較してみた KiroとAmazon Q CLIでどのように簡単なゲーム開発で違いが出るのかを試してみました! blog.usize-tech.com 2025.09.05 KiroでTerraformコードのテストをする 先日AWSからリリースされたKiroは、AIが仕様書やタスクリストを作成しながら実装を行ってくれる「仕様駆動開発」が特徴です。Terraformのテストコードの作成とテストを実施しようと思います。 blog.usize-tech.com 2025.08.25 Hey Kiro, Spotifyのプレイリストで打線組んで。 AWSが発表した次世代エージェント型IDE「Kiro」を実際に触ってみて、Webアプリケーションを構築してみた体験記となります。 blog.usize-tech.com 2025.08.14
こんにちは、広野です。 IDE を AWS Cloud9 から code-server に切り替えている最中に長時間ハマったことがありまして。同じ事象でハマった人のために備忘録を残しておこうと思います。 環境 React 19.1.1 Vite 7.1.6 IDE は code-server アプリで使用するポートは 8080 とする 事象 code-server 上で React アプリを Vite で npm run dev したときに code-server の ポートフォワード URL が機能しない (404 エラーが出まくる) 何を言おうとしているかと言うと。スクリーンショットで示します。   まずは、npm run dev します。 これで、code-server の OS 上 (localhost) で、8080 番ポートでアプリが起動しました。しかし、code-server への直接アクセスはこの環境では 443 ポートでしかアクセスできません。※環境によります。 この状況を回避するために、code-server はポートフォワードする機能を持っています。npm run dev をすると、自動で自身の公開用 FQDN に /proxy/ローカル起動アプリのポート番号/ のパスを付けて公開してくれます。 例えば、code-server の URL が https://codeserver.example.com だったとすると、ローカル起動アプリ (8080) の URL は以下になります。 https://codeserver.example.com /proxy/8080/  → http://localhost:8080 に転送! これ自体は大変ありがたい機能なのですが、実際にこの URL にアクセスすると大量に 404 not found エラーが発生します。 おそらくですが、ビルドしたアプリが認識しているパスと、自動付加された /proxy/8080/ との間で整合性が取れていないものと思われます。この問題が無かったとしても、この機能を使用する前提としてアプリコードの中で使用するパスは相対パスである必要があります。相対パスにしていたとしてもこのエラーは発生します。   解決策 vite.config.js に base の設定を追加する。 追加する base の値は /absproxy/ポート番号/ 変更前 の vite.config.js は以下でした。 import { defineConfig } from 'vite'; import react from '@vitejs/plugin-react'; export default defineConfig({ plugins: [react()], server: { port: 8080, allowedHosts: true } }); 変更後 は、 base を追加します。 import { defineConfig } from 'vite'; import react from '@vitejs/plugin-react'; export default defineConfig({ base: '/absproxy/8080/', plugins: [react()], server: { port: 8080, allowedHosts: true } }); この状態で npm run dev を実行すると。 http://localhost:8080 の後に /absproxy/8080/ のパスが追加され、ポートフォワードされるようになりました!発生していたエラーも無くなりました。 ただし。 アクセス先のパスは以下のようになります。 https://codeserver.example.com /proxy/8080/absproxy/8080/ /proxy/8080/ と /absproxy/8080/ が二重になりますが、これで正しいようです。気持ち悪いですが。 base を環境変数にする場合、一例ですが以下のように vite.config.js を書くことができます。code-server 上のローカル起動でなければ base は “/” にしておき、code-server のときは “/absproxy/8080/” を入れておけばよいです。 import { defineConfig, loadEnv } from 'vite'; import react from '@vitejs/plugin-react'; const env = loadEnv('development', process.cwd(), 'VITE_'); export default defineConfig({ base: env.VITE_BASE, plugins: [react()], server: { port: 8080, allowedHosts: true } }); 今回のケースですと .env ファイルには以下のように書いておきます。 VITE_BASE=/absproxy/8080/   終わってみると大したことないのですが、本当にハマってました。   まとめ いかがでしたでしょうか? 他にもスマートなやり方はあったのかもしれませんが。さんざん苦労した挙句、見つけた方法でした。 本記事が皆様のお役に立てれば幸いです。 雑談 CORS ってほんと迷惑ですね・・・。本記事のテーマとは異なりますが。 セキュリティのために必要なのは理解するんですけど、もう少し設定の柔軟さは用意しといて欲しかったです。ワイルドカード設定の柔軟性を。全体 * でいいや!って開き直りたいんですけど、そこまで強心臓になりきれず。* だと会社のセキュリティ監査で必ず引っ掛かるし・・・。
皆さんこんにちは。 秋といったら焼き芋。いとさんです。 さて今回Lambda関数のコードをインポート・エクスポートする方法をご紹介いたします。 はじめに コードの作成時にメモ帳などのテキストエディタを利用し、コピー&ペーストによるコード移行を行う際、まれにコンテキストエラーが発生する場合があります。このようなエラーは、意図しない文字列の変換や改行コードの違い、隠れた文字やフォーマットの不一致などが原因となることがあり、正常に動作していたコードが突如としてエラーを引き起こすリスクとなります。 このような現象を確実に回避するためには、テストが正常に完了した関数やプログラムを、Zipファイルなどのアーカイブ形式でエクスポートし、必要な環境へインポートする方法が非常に有効です。ファイル単位でのエクスポート・インポートを行うことで、元のコードの構造や文字コード、フォーマットが保全され、手動でのコピペ作業による予期せぬエラーの発生を防止しましょう。   ファンクションコード.zipファイルとAWS SAMファイルの違い ダウンロード形式には『AWS SAMファイル』『ファンクションコード.zipファイル』の2種類があります。 AWS SAMファイルは「どういうサーバーレスアプリをAWS上で動かしたいか」をひとまとめに記述する 設計図 です。 コード(zip)本体ではなく、“どんなリソースを、どんな繋がり・設定で”作るかを管理するファイルです AWS CLI(コマンドラインツール)を使いSAMコマンドを実行すると中身がCloudFormationテンプレートとしてAWSに送信され自動でAWS本番/テスト環境を構築・更新することが出来ます。 (コード例) # この AWS SAM テンプレートは、関数の設定から生成されました。関数に 1 つ以上のトリガーがある場合は、これらのトリガーに関連付けられている AWS # リソースがこのテンプレートで完全に指定されておらず、プレースホルダ値も含まれていないことに注意してください。AWS Infrastructure # Composer またはお気に入りの IDE でこのテンプレートを開き、他の AWS リソースでサーバーレスアプリケーションを指定するように変更します。 AWSTemplateFormatVersion: '2010-09-09' Transform: AWS::Serverless-2016-10-31 Description: An AWS Serverless Application Model template describing your function. Resources: Testlambdafunction: Type: AWS::Serverless::Function Properties: CodeUri: . Description: '' MemorySize: 128 Timeout: 3 Handler: lambda_function.lambda_handler Runtime: python3.13 Architectures: - x86_64 EphemeralStorage: Size: 512 EventInvokeConfig: MaximumEventAgeInSeconds: 21600 MaximumRetryAttempts: 2 PackageType: Zip Policies: - Statement: [] RecursiveLoop: Terminate SnapStart: ApplyOn: None RuntimeManagementConfig: UpdateRuntimeOn: Auto   今回はコードのみを移行する方法として、zipファイルでのダウンロードを行います。   やってみよう それでは早速やってみましょう。 使用したいLambda関数に移動しファンクションコード.zipをダウンロードを選択します。 ファンクションコード.zipファイルは実行プログラムを、zip形式でまとめた圧縮ファイルであり中身はLambda関数として稼働するコードとなっています。 他のLambdaで再利用・バックアップ・ローカル編集用として使用できます。 今回エクスポートしたzipファイルの中身はこのようになっております。 テキストエディタやVScodeで確認ができるので自分の使用したい関数が出ているか確認しましょう。 import boto3 import json import re import os ses = boto3.client('ses') FROM = os.environ['FROM_ADDRESS'] # SES認証済みアドレス TO = [os.environ['TO_ADDRESS']] # 宛先アドレス(複数可) def lambda_handler(event, context): message = event['Records'][0]['Sns']['Message'] # 特定のリンクを除去(例:全リンク) sanitized_message = re.sub(r'https?://[^\s]+', '[リンク削除]', message) response = ses.send_email( Source=FROM, Destination={'ToAddresses': TO}, Message={ 'Subject': {'Data': '[SecurityHub] 検出通知', 'Charset': 'UTF-8'}, 'Body': {'Text': {'Data': sanitized_message, 'Charset': 'UTF-8'}} } ) return { 'statusCode': 200, 'body': json.dumps('Email sent') }  zipファイルがダウンロードされますのでこれをLambda関数でインポートします。 インポートしたいLambda関数に移動しアップロード元>zipファイルを選択します。 アップロードを押下し使用したいzipファイルを選択します。 これでLambda関数のコードをインポート・エクスポートが完了しました。   最後に 検証環境と本番環境といった異なる環境間で同じコードを使用する場合は、このZipファイルによるパッケージング・移行機能の活用が非常に重要です。こうした工夫を取り入れることで、環境ごとの差異に起因する不具合を未然に防ぎ、安定した運用体制を構築することができます。 コードの移行や環境を跨いだ運用に際しては、是非この方法を取り入れ、より安全かつ効率的な開発・検証を実現しましょう。
こんにちは。SCSK渡辺(大)です。 今年は秋刀魚が非常に美味しいですね。 水揚げ量が昨年の2倍らしいので、まだまだ楽しめそうです。 何をつくったのか Kiroに自然言語で依頼するだけでAWSリソース一覧を取得することができる環境 をつくりました。 サンプル:実行画面   完了するとMarkdown形式のテキストファイルが出来上がります。   サンプル:IAMユーザーの一覧 Kiroへの依頼は「IAMユーザーの一覧を取得して」というだけです。 注意事項を教えてくれました。 サンプル:EC2インスタンスの一覧(全リージョン) Kiroへの依頼は「全リージョンのEC2インスタンスの一覧を取得して」というだけです。 リージョンのアクセス制限まで結果として出力してくれました。 テーブル形式で出力するようsteeringで指定しているのですが上手くいきませんでした。 内容は整理されていますね。 こちらも注意事項を教えてくれました。 サンプル:特定タグが付いたリソースの一覧 Kiroへの依頼は「[key]=[value]タグのリソース一覧を取得して」というだけです。 プロジェクト分析してくれました。   嬉しいポイント ほぼ自然言語で設定できるのでノンエンジニアの人でも安心 本機能を利用するためにAWS上でシステム環境を構築する必要がない AWSCLIのコマンドリファレンスの内容が変わっても対応できる やったこと Kiroで以下を設定しました。 Agent Steering Trusted commands MCP Servers その他、以下も設定しました。 listHistoryフォルダの作成 AWSCLIのcredentialsファイルを設定 Kiroの各種設定 Agent Steering KiroでTerraformコードのテストをする 先日AWSからリリースされたKiroは、AIが仕様書やタスクリストを作成しながら実装を行ってくれる「仕様駆動開発」が特徴です。Terraformのテストコードの作成とテストを実施しようと思います。 blog.usize-tech.com 2025.08.25 STS一時認証情報を1コマンドでcredentialsファイルに保存する AWSアカウントポリシーで多要素認証が強制される場合、アクセスキーとシークレットキーのみではAWS CLIを使用することができず、MFAによる認証を経て一時的なセッションキーを取得する必要があります。それらの情報を取得しcredentialsファイルに簡単に保存するpythonスクリプトをご紹介します。 blog.usize-tech.com 2022.05.09 ファイル名は任意です。 私は「instructions.md」にしました。 「–profile sts」を付けるように指示している理由は 参考記事 をご参照ください。 --- inclusion: always --- # AWS CLI 利用ガイドライン ## 1. 概要 AWS を使用した開発プロジェクト全般に適用するガイドライン。 ## 2. 操作規則 ### 2.1 基本設定 | 項目         | 設定値                          | 説明                                             | | ------------ | ------------------------------- | ------------------------------------------------ | | プロファイル | `--profile sts`                 | MFA 生成用プロファイル(固定)                   | | リージョン   | `--region <region>`             | 必須パラメータ(グローバルサービスは us-east-1) | | 出力形式     | `--no-cli-pager --output table` | リストコマンド用                                 | ### 2.2 コマンド履歴管理 **保存場所**: `listHistory/` ディレクトリ **ファイル名形式**: `YYYYMMDDHHMMSS_service-resource_region.md`(日時は'echo %date% %time%'で取得する) **構成**: サマリー → 実行コマンド → 出力結果(AWS CLI 出力は必ずテーブル形式のまま保存) **重要**: AWS CLI の`--output table`で取得した結果は、テーブル形式のまま履歴ファイルに記録すること **履歴ファイル記録ルール**: 1. 実行したコマンドをそのまま記録 2. AWS CLI のテーブル出力結果を整形せずそのままコピー 3. サマリーは別途作成するが、元の出力も必ず保持 4. 注意すべきことなどのコメントを付ける ### 2.3 実行前検証プロセス **必須**: AWS CLI コマンド実行前に以下を **必ず順番通りに** 実行する: #### ステップ 1: コマンド調査(必須) - **ツール**: `mcp_tavily_remote_mcp_tavily_search` - **目的**: 最新のコマンド情報、ベストプラクティス、既知の問題を確認 - **実行例**: `"AWS CLI iam list-users command latest syntax examples"` #### ステップ 2: 構文確認(必須) - **ツール**: `mcp_awslabs_aws_documentation_mcp_server_search_documentation` → `mcp_awslabs_aws_documentation_mcp_server_read_documentation` - **目的**: AWS 公式ドキュメントで正確な構文とパラメータを検証 - **確認項目**: 必須パラメータ、オプションパラメータ、出力形式 #### ステップ 3: パラメータ検証(必須) - **確認項目**: - 必須パラメータの有無 - リージョン要件(IAM はグローバルサービス = us-east-1) - プロファイル設定(`--profile sts`) - 出力形式(`--output table --no-cli-pager`) #### ステップ 4: 影響範囲確認(必須) - **確認項目**: - 対象リソースの範囲 - 実行に必要な権限 #### ステップ 5: 実行許可(必須) - **条件**: 上記ステップ 1-4 が全て完了した場合のみ実行 - **実行形式**: `aws <service> <operation> --profile sts --region <region> --output table --no-cli-pager` **重要**: この検証プロセスを省略した場合、コマンド実行は禁止 2.2でテーブル形式で記録するよう依頼しているのですが上手くいかないことがあります。 2.3のステップ5で実行形式を指定していても稀に違う形式でKiroが実行しようとします。その場合はKiroが実行しようとしたコマンドをユーザーが手動でTrustしてあげてください。 Trusted commands 設定>Trusted Commands から登録するよりも、Ctr+Shift+P(Windows)を押して「>基本設定: ユーザー設定を開く (JSON)」と入力して開き、”kiroAgent.trustedCommands”に以下を追加するほうが早いです。 すべてのコマンドを網羅できていない可能性がありますので、必要に応じて追加してご利用ください。 "kiroAgent.trustedCommands": [   "cd *",   "ls",   "dir",   "pwd",   "cat *",   "type *",   "echo *",   "aws ec2 describe-instances *",   "aws ec2 describe-vpcs *",   "aws ec2 describe-subnets *",   "aws ec2 describe-security-groups *",   "aws ec2 describe-key-pairs *",   "aws ec2 describe-images *",   "aws ec2 describe-regions *",   "aws ec2 describe-snapshots *",   "aws ec2 describe-volumes *",   "aws ec2 list-images *",   "aws ec2 get-console-output *",   "aws s3 ls *",   "aws s3 head-object *",   "aws s3 get-object-attributes *",   "aws s3api list-buckets *",   "aws s3api head-bucket *",   "aws s3api get-bucket-location *",   "aws s3api get-bucket-region *",   "aws s3api get-bucket-versioning *",   "aws s3api get-bucket-encryption *",   "aws s3api get-bucket-cors *",   "aws s3api get-bucket-lifecycle-configuration *",   "aws s3api get-bucket-policy *",   "aws s3api get-bucket-policy-status *",   "aws s3api get-bucket-acl *",   "aws s3api get-bucket-website *",   "aws s3api get-bucket-logging *",   "aws s3api get-bucket-notification-configuration *",   "aws s3api get-bucket-replication *",   "aws s3api get-bucket-request-payment *",   "aws s3api get-bucket-tagging *",   "aws s3api get-bucket-accelerate-configuration *",   "aws s3api get-bucket-analytics-configuration *",   "aws s3api get-bucket-inventory-configuration *",   "aws s3api get-bucket-metrics-configuration *",   "aws s3api get-bucket-ownership-controls *",   "aws s3api get-bucket-intelligent-tiering-configuration *",   "aws s3api get-public-access-block *",   "aws s3api get-account-public-access-block *",   "aws s3api list-objects *",   "aws s3api list-objects-v2 *",   "aws s3api list-object-versions *",   "aws s3api list-multipart-uploads *",   "aws s3api list-parts *",   "aws s3api head-object *",   "aws s3api get-object-attributes *",   "aws s3api get-object-acl *",   "aws s3api get-object-legal-hold *",   "aws s3api get-object-lock-configuration *",   "aws s3api get-object-retention *",   "aws s3api get-object-tagging *",   "aws s3api presign *",   "aws s3api list-bucket-analytics-configurations *",   "aws s3api list-bucket-inventory-configurations *",   "aws s3api list-bucket-metrics-configurations *",   "aws s3api list-bucket-intelligent-tiering-configurations *",   "aws lambda list-functions *",   "aws lambda get-function *",   "aws lambda get-function-configuration *",   "aws iam list-users *",   "aws iam list-roles *",   "aws iam list-policies *",   "aws iam get-user *",   "aws iam get-role *",   "aws iam get-policy *",   "aws rds describe-db-instances *",   "aws rds describe-db-clusters *",   "aws rds describe-db-snapshots *",   "aws cloudformation list-stacks *",   "aws cloudformation describe-stacks *",   "aws cloudformation describe-stack-resources *",   "aws logs describe-log-groups *",   "aws logs describe-log-streams *",   "aws dynamodb list-tables *",   "aws dynamodb describe-table *",   "aws apigateway get-rest-apis *",   "aws apigateway get-resources *",   "aws sns list-topics *",   "aws sqs list-queues *",   "aws route53 list-hosted-zones *",   "aws cloudwatch list-metrics *",   "aws cloudwatch describe-alarms *",   "aws sts get-caller-identity *",   "aws resourcegroupstaggingapi get-resources *",   "aws resourcegroupstaggingapi get-tag-keys *",   "aws resourcegroupstaggingapi get-tag-values *",   "aws elbv2 describe-load-balancers *",   "aws elbv2 describe-target-groups *",   "aws autoscaling describe-auto-scaling-groups *",   "aws ssm describe-parameters *",   "aws ssm get-parameter *",   "aws ssm get-parameters *",   "aws secretsmanager list-secrets *",   "aws secretsmanager describe-secret *",   "aws kms list-keys *",   "aws kms describe-key *",   "aws cloudtrail describe-trails *",   "aws config describe-configuration-recorders *",   "aws organizations list-accounts *",   "aws organizations describe-organization *",   "aws support describe-cases *",   "aws pricing get-products *",   "aws ce get-cost-and-usage *",   "aws budgets describe-budgets *"   ], 「IAMで参照権限だけにして、Trusted commands は aws * だけ設定すれば良いのでは?」とも考えたのですが、それだとIAMに想定外の権限が付与されてしまっていた場合に、想定外のリソース操作が行われてしまうので採用しませんでした。Trusted commandsで参照系のコマンドだけを設定しておけば、IAMで参照権限以外の権限が付与されていても、Kiroが実行しようとしたコマンドをユーザーが手動でTrustしない限りは、想定外のリソース操作が行われることはないはずです。 MCP Servers Amazon Q Developer ちゃんと征くツール開発 Amazon Q Developer を使い始めて、使い始める前の想像以上に「できる」と感じました。皆様にもオススメできるようなAI支援ツールになっているので、ぜひ使っていただきたいな、との思いを込めて、今回はその楽しいやり取りをご紹介します。 blog.usize-tech.com 2025.08.30 面倒な仕事はMCPにやらせよう 〜AIはどこまで仕事ができるのか?〜 MCP(Model Context Protocol)は、AIと仕事の関係をどう変えるのか?架空の会社の業務シナリオを通じて、AIが複数のツールを連携させて複雑なタスクを自動化する過程を実証。具体的な設定方法や課題、未来の展望までを解説します。 blog.usize-tech.com 2025.08.20 Amazon Q Developer CLIにAWS MCP Serversを使ってもらいゲーム作り向け資料を作成してみた 「Amazon Q CLI でゲームを作ろうキャンペーンの報告と最新情報 update & Kiro のご紹介」というイベントにオンラインから参加した後、AWSを利用することが楽しくなるゲームが欲しくなりました。 blog.usize-tech.com 2025.08.18 tavily-mcp はAPIキーの取得が必要です。 環境変数で渡すほうが安全です。 { "mcpServers": {   "aws-knowledge-mcp-server": {     "command": "uvx",     "args": [       "mcp-proxy",       "--transport",       "streamablehttp",       "https://knowledge-mcp.global.api.aws"     ],     "env": {       "FASTMCP_LOG_LEVEL": "ERROR",       "AWS_PROFILE": "default",       "AWS_REGION": "us-east-1",     },     "disabled": false,     "autoApprove": ["aws___search_documentation", "aws___read_documentation"]   },   "tavily-remote-mcp": {     "command": "npx",     "args": [       "-y",       "mcp-remote",       "https://mcp.tavily.com/mcp/?tavilyApiKey=[取得したAPIキー]"     ],     "disabled": false,     "autoApprove": ["tavily_search", "tavily_extract"]   } } } 関連記事 KiroとAmazon Q CLIでゲームを作成した結果を比較してみた KiroとAmazon Q CLIでどのように簡単なゲーム開発で違いが出るのかを試してみました! blog.usize-tech.com 2025.09.05 Hey Kiro, Spotifyのプレイリストで打線組んで。 AWSが発表した次世代エージェント型IDE「Kiro」を実際に触ってみて、Webアプリケーションを構築してみた体験記となります。 blog.usize-tech.com 2025.08.14 感想 本記事の内容はKiroにプログラミングを組んでもらったというわけではないので、AWSが意図した使い方になっているのか分かりませんが、ソフトウェア開発以外の使い道があるのは良いですね。 いつかKiroがAgent Hooksなどでスケジュール起動できるようになったら、本記事の内容を1時間おきに実行させるようにすることで、ほぼリアルタイムで最新の一覧が取得できるようになりますね。夢が広がります。
こんにちは、広野です。 AWS Cloud9 に代わる、使い勝手の良い IDE on AWS を作れないものか、、、日々模索しています。 今回は、 code-server を HTTPS 公開して MFA 認証を付ける構成の実装編として AWS CloudFormation テンプレートを紹介します。 前回の記事 背景やアーキテクチャ説明については、前回記事をご覧ください。   code-server を nginx で HTTPS 化して Amazon Cognito で MFA 認証をさせる - アーキクチャ編 code-server を HTTPS 公開して MFA 認証を付ける構成を試してみました。本記事ではアーキテクチャを紹介します。 blog.usize-tech.com 2025.09.16   アーキテクチャ 前回記事からの再掲で、図を載せておきます。   AWS CloudFormation テンプレート テンプレートは大きく 2 つに分かれています。 ユーザー共通で使用する Amazon Cognito ユーザープール 【既存ユーザープールも条件付きで使用可】 ユーザー単位で作成する Amazon EC2 インスタンス、他 以下は本テンプレートを使用する際に前提として必要となるリソースです。 Amazon Route 53 パブリックホストゾーン: 証明書作成やレコード登録に必要 Amazon VPC: 既存のものを使用する想定、パブリックサブネットが必要 Amazon SES ID および 設定セット: Amazon SES で Amazon Cognito からの通知メールを送るために必要 本記事のテンプレートを加工すれば 既存の Amazon Cognito ユーザープールを使用可能ですが、メールアドレスを属性として持っていること、Amazon Cognito マネージドログインのドメイン設定ができていることが前提となります。Amazon Cognito ID プールは不要です。 Amazon SES に関する説明は以下の記事をご覧ください。   Amazon SES の送信ログを取得・通知する [AWS CloudFormation 利用] Amazon SES の送信ログを保存・通知する仕組みを AWS CloudFormation で簡単に作れるようにしました。 blog.usize-tech.com 2024.12.20   AWS CloudFormation テンプレートの記述に関する補足は # コメントでインラインで追加します。 【ユーザー共通】Amazon Cognito ユーザープール 他の記事でも紹介していますが、より簡略化した設定になっています。セルフサインアップ可能なメールアドレスをドメイン名で制限するための AWS Lambda 関数を組み込んでいます。 AWSTemplateFormatVersion: 2010-09-09 Description: The CloudFormation template that creates a Cognito user pool with Managed Login, self-signup by email, and forced MFA. # ------------------------------------------------------------# # Input Parameters # ------------------------------------------------------------# Parameters: SystemName: Type: String Description: System name. use lower case only. (e.g. example) Default: example MaxLength: 10 MinLength: 1 SubName: Type: String Description: System sub name. use lower case only. (e.g. prod or dev) Default: dev MaxLength: 10 MinLength: 1 SesId: Type: String Description: Amazon SES ID for sending emails. (email addreess or domain) Default: xxxx.xxx MaxLength: 100 MinLength: 5 SesConfigurationSet: Type: String Description: Amazon SES configuration set for sending emails. Default: xxxxxxxxxxxxxxxx MaxLength: 100 MinLength: 5 CognitoReplyTo: Type: String Description: Cognito Reply-to email address. (e.g. xxx@xxx.xxx) Default: xxxxx@xxx.xxx AllowedPattern: "[^\\s@]+@[^\\s@]+\\.[^\\s@]+" CognitoEmailFrom: Type: String Description: Cognito e-mail from address. (e.g. xxx@xxx.xxx) Default: xxxxx@xxx.xxx AllowedPattern: "[^\\s@]+@[^\\s@]+\\.[^\\s@]+" AllowedUserEmailDomains: Description: Domain list to allow user sign up. Each domains must be comma delimited and double quoted. Type: String Default: '"xxx.xxx"' Metadata: AWS::CloudFormation::Interface: ParameterGroups: - Label: default: "General Configuration" Parameters: - SystemName - SubName - Label: default: "Email Configuration" Parameters: - SesId - SesConfigurationSet - CognitoReplyTo - CognitoEmailFrom - Label: default: "Security Configuration" Parameters: - AllowedUserEmailDomains Resources: # ------------------------------------------------------------# # Lambda (triggered from Cognito) Role (IAM) # ------------------------------------------------------------# LambdaTriggeredFromCognitoRole: Type: AWS::IAM::Role Properties: RoleName: !Sub ${SystemName}-LambdaTriggeredFromCognitoRole-${SubName} Description: This role grants Lambda functions triggered from Cognito basic priviledges. AssumeRolePolicyDocument: Version: 2012-10-17 Statement: - Effect: Allow Principal: Service: - lambda.amazonaws.com Action: - sts:AssumeRole Path: / ManagedPolicyArns: - arn:aws:iam::aws:policy/service-role/AWSLambdaBasicExecutionRole - arn:aws:iam::aws:policy/AWSXRayDaemonWriteAccess - arn:aws:iam::aws:policy/AmazonCognitoPowerUser # ------------------------------------------------------------# # Cognito Lambda Invocation Permission # ------------------------------------------------------------# CognitoLambdaInvocationPermissionPresignup: Type: AWS::Lambda::Permission Properties: FunctionName: !GetAtt LambdaCognitoPresignup.Arn Action: lambda:InvokeFunction Principal: cognito-idp.amazonaws.com SourceAccount: !Sub ${AWS::AccountId} SourceArn: !GetAtt UserPool.Arn DependsOn: - LambdaCognitoPresignup - UserPool CognitoLambdaInvocationPermissionPostconfirm: Type: AWS::Lambda::Permission Properties: FunctionName: !GetAtt LambdaCognitoPostconfirm.Arn Action: lambda:InvokeFunction Principal: cognito-idp.amazonaws.com SourceAccount: !Sub ${AWS::AccountId} SourceArn: !GetAtt UserPool.Arn DependsOn: - LambdaCognitoPostconfirm - UserPool # ------------------------------------------------------------# # Cognito # ------------------------------------------------------------# UserPool: Type: AWS::Cognito::UserPool Properties: UserPoolName: !Sub ${SystemName}-${SubName} MfaConfiguration: "ON" EnabledMfas: - SOFTWARE_TOKEN_MFA Policies: PasswordPolicy: MinimumLength: 8 RequireUppercase: true RequireLowercase: true RequireNumbers: true RequireSymbols: false TemporaryPasswordValidityDays: 180 AccountRecoverySetting: RecoveryMechanisms: - Name: verified_email Priority: 1 AdminCreateUserConfig: AllowAdminCreateUserOnly: false AutoVerifiedAttributes: - email DeviceConfiguration: ChallengeRequiredOnNewDevice: false DeviceOnlyRememberedOnUserPrompt: false EmailConfiguration: ConfigurationSet: !Ref SesConfigurationSet EmailSendingAccount: DEVELOPER From: !Sub "${SystemName}-${SubName} admin <${CognitoEmailFrom}>" ReplyToEmailAddress: !Ref CognitoReplyTo SourceArn: !Sub arn:aws:ses:${AWS::Region}:${AWS::AccountId}:identity/${SesId} EmailVerificationMessage: !Sub "${SystemName}-${SubName} Verification code: {####}" EmailVerificationSubject: !Sub "${SystemName}-${SubName} Verification code" LambdaConfig: PreSignUp: !GetAtt LambdaCognitoPresignup.Arn PostConfirmation: !GetAtt LambdaCognitoPostconfirm.Arn UsernameAttributes: - email UsernameConfiguration: CaseSensitive: false UserPoolAddOns: AdvancedSecurityMode: "OFF" UserPoolTags: Cost: !Sub ${SystemName}-${SubName} # この UserPoolDomain 設定は、Amazon Cognito マネージドログインを使用するために必要です。 # Version 2 つまりマネージドログインを使用する設定にしています。 # Version 1 だと旧型の hosted UI になります。 UserPoolDomain: Type: AWS::Cognito::UserPoolDomain Properties: Domain: !Sub ${SystemName}-${SubName} ManagedLoginVersion: 2 UserPoolId: !Ref UserPool UserPoolGroupBasic: Type: AWS::Cognito::UserPoolGroup Properties: Description: The User Group for standard users. GroupName: BASIC Precedence: 101 UserPoolId: !Ref UserPool # ------------------------------------------------------------# # Lambda # ------------------------------------------------------------# LambdaCognitoPresignup: Type: AWS::Lambda::Function Properties: FunctionName: !Sub ${SystemName}-CognitoPresignup-${SubName} Description: !Sub Lambda Function triggered from Cognito before user self signup to check the user's email domain for ${SystemName}-${SubName} Runtime: python3.13 Timeout: 3 MemorySize: 128 Role: !GetAtt LambdaTriggeredFromCognitoRole.Arn Handler: index.lambda_handler Tags: - Key: Cost Value: !Sub ${SystemName}-${SubName} Code: ZipFile: !Sub | import re def lambda_handler(event, context): try: print(event) triggersource = event['triggerSource'] email = event['request']['userAttributes']['email'] print(email) if triggersource == 'PreSignUp_SignUp': print('via self signup') domain = email.split('@')[1] allowedDomains = [ ${AllowedUserEmailDomains} ] if domain in allowedDomains: print('allowed domain and email account') return event else: print('prohibited domain') return None else: print('via admin console') return event except Exception as e: print(str(e)) DependsOn: LambdaTriggeredFromCognitoRole LambdaCognitoPostconfirm: Type: AWS::Lambda::Function Properties: FunctionName: !Sub ${SystemName}-CognitoPostconfirm-${SubName} Description: !Sub Lambda Function triggered from Cognito after user confirmation to add the user in BASIC group for ${SystemName}-${SubName} Runtime: python3.13 Timeout: 3 MemorySize: 128 Role: !GetAtt LambdaTriggeredFromCognitoRole.Arn Handler: index.lambda_handler Tags: - Key: Cost Value: !Sub ${SystemName}-${SubName} Code: ZipFile: !Sub | import boto3 client = boto3.client('cognito-idp', '${AWS::Region}') def lambda_handler(event, context): USERPOOLID = event['userPoolId'] USERNAME = event['userName'] try: print(event) res = client.admin_add_user_to_group( UserPoolId=USERPOOLID, Username=USERNAME, GroupName='BASIC' ) return event except Exception as e: print(str(e)) DependsOn: LambdaTriggeredFromCognitoRole # ------------------------------------------------------------# # Output Parameters この出力は次のテンプレートで使用します。 # ------------------------------------------------------------# Outputs: # Cognito CognitoUserPoolId: Value: !Ref UserPool Export: Name: !Sub CognitoUserPoolId-${SystemName}-${SubName} CognitoUserPoolArn: Value: !GetAtt UserPool.Arn Export: Name: !Sub CognitoUserPoolArn-${SystemName}-${SubName} CognitoUserPoolProviderName: Value: !GetAtt UserPool.ProviderName Export: Name: !Sub CognitoUserPoolProviderName-${SystemName}-${SubName} CognitoUserPoolProviderUrl: Value: !GetAtt UserPool.ProviderURL Export: Name: !Sub CognitoUserPoolProviderUrl-${SystemName}-${SubName}   【ユーザー単位】Amazon EC2 インスタンス、他付属リソース ユーザー単位で Amazon EC2 インスタンスを作成するとともに、その EC2 インスタンス専用の Amazon Cognito ユーザープール「アプリケーションクライアント」を作成します。アプリケーションクライアントは上述のテンプレートで作成した Amazon Cognito ユーザープールに関連付けます。ここで作成したアプリケーションクライアントにはクライアントシークレットを作成しており、その Amazon EC2 インスタンスしか知りません。(まあ、マネジメントコンソールを見てしまえばわかるんですが、外部の人が簡単にわかるものではない) それを知ろうとするために、Amazon Cognito ユーザープールを参照可能な IAM ロール権限を付与しています。 Amazon EC2 インスタンスには Elastic IP アドレスを割り当て、それを指定した Amazon Route 53 パブリックホストゾーンに A レコード登録します。FQDN に合わせた SSL 証明書を Let’s Encrypt で作成します。Let’s Encrypt に証明書を作成依頼するときの認証方法は DNS-01 という方式を選定しています。これは Amazon Route 53 パブリックホストゾーンに登録した認証用レコードを Let’s Encrypt のシステム側が確認することでドメインの所有者確認をする方法です。そのため、この EC2 インスタンスの IAM ロールにレコード登録可能な権限を付与しています。 などなど、いろいろと複合技を仕掛けています。内容が盛り沢山で既に私もおなかいっぱいです。 テンプレート内にインラインの説明コメントが多くなると思いますが、ご容赦ください。 AWSTemplateFormatVersion: "2010-09-09" Description: The CloudFormation template that creates an Amazon Linux 2023 x86_64 EC2 instance with code-server and Cognito authentication. # ------------------------------------------------------------# # Input Parameters # ------------------------------------------------------------# Parameters: SystemName: Type: String Description: System name. use lower case only. (e.g. example) Default: example MaxLength: 10 MinLength: 1 SubName: Type: String Description: System sub name. use lower case only. (e.g. prod or dev) Default: dev MaxLength: 10 MinLength: 1 DomainName: Type: String Description: Domain name for URL. xxxxx.xxx Default: example.com AllowedPattern: "^(?!-)(?:[a-zA-Z0-9-]{0,62}[a-zA-Z0-9])(?:\\.(?!-)(?:[a-zA-Z0-9-]{0,62}[a-zA-Z0-9]))*$" # VPC やパブリックサブネットは既存のものを選択してください。 VpcId: Type: AWS::EC2::VPC::Id Description: Choose a existing VPC ID you deploy the EC2 instance in. InstanceSubnet: Type: AWS::EC2::Subnet::Id Description: Choose an existing Public Subnet ID you deploy the EC2 instance in. # EC2 インスタンスタイプは適宜変更してください。節約のため t3a にしているだけです。medium でもやや重いと思います。 InstanceType: Type: String Description: EC2 instance type (AMD/t3a) Default: t3a.medium AllowedValues: - t3a.medium - t3a.large - t3a.xlarge # EBS のサイズも適宜変更してください。 InstanceVolumeSize: Type: Number Description: The volume size in GB Default: 20 # アクセスを許可するソースグローバル IP アドレスのサブネットを指定してください。 AllowedSubnet: Type: String Description: Allowed source IPv4 subnet and subnet mask. (e.g. xxx.xxx.xxx.xxx/32) Default: 111.111.111.111/32 AllowedPattern: "^((25[0-5]|2[0-4][0-9]|1?[0-9]{1,2})\\.){3}(25[0-5]|2[0-4][0-9]|1?[0-9]{1,2})\\/([0-9]|[1-2][0-9]|3[0-2])$" TimeZone: Type: String Description: The specified time zone. Default: Asia/Tokyo AllowedPattern: "^(Africa|America|Antarctica|Arctic|Asia|Atlantic|Australia|Europe|Indian|Pacific)/[A-Za-z0-9_/-]+$" Route53HostZoneId: Type: String Description: Route 53 public host zone ID for the SSL certificate. Default: XXXXXXXXXXXXXXXXXXXX MaxLength: 30 MinLength: 1 YourId: Type: String Description: The individual instance id (or number) specified from the administrator. Default: client01 MaxLength: 20 MinLength: 1 # ここで指定したメールアドレスで Amazon Cognito ユーザーを作成する必要があります。 YourEmail: Type: String Description: Your email address for the access control. Default: xxx@xxx.xxx AllowedPattern: "[^\\s@]+@[^\\s@]+\\.[^\\s@]+" # OAuth2 Proxy のバージョンを入れてください。7.12.0 で動作確認済みですが、 # バージョンが変わるとコマンド仕様が変わる恐れがあります。 Oauth2ProxyVersion: Type: String Description: oauth2-proxy version. Default: 7.12.0 MaxLength: 10 MinLength: 4 Metadata: AWS::CloudFormation::Interface: ParameterGroups: - Label: default: "General Configuration" Parameters: - SystemName - SubName - YourId - YourEmail - Label: default: "Domain Configuration" Parameters: - DomainName - Route53HostZoneId - Label: default: "Network Configuration" Parameters: - VpcId - InstanceSubnet - AllowedSubnet - Oauth2ProxyVersion - Label: default: "EC2 Configuration" Parameters: - InstanceType - InstanceVolumeSize - Label: default: "OS Configuration" Parameters: - TimeZone Resources: # ------------------------------------------------------------# # EC2 Launch template # ------------------------------------------------------------# EC2LaunchTemplate: Type: AWS::EC2::LaunchTemplate Properties: LaunchTemplateName: !Sub codeserver-${SystemName}-${SubName}-${YourId} LaunchTemplateData: InstanceType: !Ref InstanceType # 使用する AMI は Amazon Linux 2023 x86_64 の最新版なのですが、スタックを変更するときに # 新しい AMI ID がリリースされていると EC2 インスタンスを再作成してしまうので注意が必要です。 # 正直この指定は良くないと思っていますが楽さに負けて使ってしまいます。 ImageId: >- {{resolve:ssm:/aws/service/ami-amazon-linux-latest/al2023-ami-kernel-default-x86_64}} BlockDeviceMappings: - Ebs: VolumeSize: !Ref InstanceVolumeSize VolumeType: gp3 DeleteOnTermination: true Encrypted: true DeviceName: /dev/xvda NetworkInterfaces: - SubnetId: !Ref InstanceSubnet Groups: - !Ref Ec2SecurityGroup DeviceIndex: 0 AssociatePublicIpAddress: true MetadataOptions: HttpTokens: required Monitoring: Enabled: true TagSpecifications: - ResourceType: volume Tags: - Key: Cost Value: !Sub ${SystemName}-${SubName} DependsOn: - Ec2SecurityGroup # ------------------------------------------------------------# # EC2 Security Group # ------------------------------------------------------------# Ec2SecurityGroup: Type: AWS::EC2::SecurityGroup Properties: VpcId: !Ref VpcId GroupDescription: Allow HTTPS access from specified subnets SecurityGroupIngress: # セキュリティグループは 443 だけ開けていますが、必要に応じて変更してください。 - Description: Allow HTTPS from the specified client FromPort: 443 IpProtocol: tcp ToPort: 443 CidrIp: !Ref AllowedSubnet SecurityGroupEgress: - Description: Allow all outbound traffic IpProtocol: -1 CidrIp: 0.0.0.0/0 Tags: - Key: Cost Value: !Sub ${SystemName}-${SubName} - Key: Name Value: !Sub SG-codeserver-${SystemName}-${SubName}-${YourId} # ------------------------------------------------------------# # EC2 Role / Instance Profile (IAM) # ------------------------------------------------------------# Ec2Role: Type: AWS::IAM::Role Properties: RoleName: !Sub Ec2Role-codeserver-${SystemName}-${SubName}-${YourId} Description: This role allows EC2 instance to invoke S3 and SSM. AssumeRolePolicyDocument: Version: 2012-10-17 Statement: - Effect: Allow Principal: Service: - ec2.amazonaws.com Action: - sts:AssumeRole Path: / ManagedPolicyArns: # Session Manager で CUI ログインできるようにしています。トラブルシューティング時に。 - arn:aws:iam::aws:policy/AmazonSSMManagedInstanceCore # AWS CodeCommit リポジトリにアクセスできるようにしています。 - arn:aws:iam::aws:policy/AWSCodeCommitPowerUser - arn:aws:iam::aws:policy/CloudWatchAgentServerPolicy Policies: - PolicyName: !Sub Ec2Policy-codeserver-${SystemName}-${SubName}-${YourId} PolicyDocument: Version: 2012-10-17 Statement: # Amazon Q Developer の権限を付けています。 - Effect: Allow Action: - codewhisperer:GenerateRecommendations Resource: "*" # Amazon Route 53 の必要な権限です。Let's Encrypt の SSL 証明書作成に必要です。 - Effect: Allow Action: - route53:ListHostedZones - route53:GetChange Resource: - "*" - Effect: Allow Action: - route53:ChangeResourceRecordSets Resource: - !Sub arn:aws:route53:::hostedzone/${Route53HostZoneId} # Amazon Cognito ユーザープールアプリケーションクライアントのクライアントシークレット取得用です。 - Effect: Allow Action: - cognito-idp:DescribeUserPoolClient Resource: - Fn::ImportValue: !Sub CognitoUserPoolArn-${SystemName}-${SubName} Ec2InstanceProfile: Type: AWS::IAM::InstanceProfile Properties: InstanceProfileName: !Ref Ec2Role Path: / Roles: - !Ref Ec2Role DependsOn: - Ec2Role # ------------------------------------------------------------# # Elastic IP address for EC2 instance # ------------------------------------------------------------# EipEc2: Type: AWS::EC2::EIP Properties: Domain: vpc Tags: - Key: Cost Value: !Sub ${SystemName}-${SubName} - Key: Name Value: !Sub eip-codeserver-${SystemName}-${SubName}-${YourId} # ------------------------------------------------------------# # EIP Association # ------------------------------------------------------------# EIPAssociation: Type: AWS::EC2::EIPAssociation Properties: AllocationId: !GetAtt EipEc2.AllocationId InstanceId: !Ref Ec2Instance DependsOn: - Ec2Instance - EipEc2 # ------------------------------------------------------------# # EC2 # ------------------------------------------------------------# Ec2Instance: Type: AWS::EC2::Instance Properties: IamInstanceProfile: !Ref Ec2InstanceProfile LaunchTemplate: LaunchTemplateId: !Ref EC2LaunchTemplate Version: !GetAtt EC2LaunchTemplate.LatestVersionNumber UserData: Fn::Base64: !Sub - | #!/bin/bash set -euxo pipefail # Locale & timezone timedatectl set-timezone ${TimeZone} # Install packages dnf update -y # とりあえず Git, Node.js, Python をインストールしています。 dnf install -y git nodejs gcc make zlib-devel bzip2-devel xz-devel curl-devel libffi-devel python3.13 python3-pip python3-boto3 python3-pytest # Install code-server export HOME=/home/ec2-user curl -fsSL https://code-server.dev/install.sh | bash mkdir -p /home/ec2-user/.config/code-server mkdir -p /home/ec2-user/.local/share/code-server/User mkdir -p /home/ec2-user/environment chown -R ec2-user:ec2-user /home/ec2-user/.config /home/ec2-user/.local /home/ec2-user/environment # Update code-server config # code-server は 8008 ポートで起動しています。よく使う 80 や 8080 と重複しないようにするため。 # code-server ネイティブの認証は無し(none)にしています。Amazon Cognito を使用するため。 tee /home/ec2-user/.config/code-server/config.yaml << EOF bind-addr: 127.0.0.1:8008 auth: none cert: false EOF chown ec2-user:ec2-user /home/ec2-user/.config/code-server/config.yaml tee /home/ec2-user/.local/share/code-server/User/settings.json << EOF { "extensions.autoUpdate": false, "extensions.autoCheckUpdates": false, "terminal.integrated.cwd": "/home/ec2-user/environment", "telemetry.telemetryLevel": "off", "security.workspace.trust.startupPrompt": "never", "security.workspace.trust.enabled": false, "security.workspace.trust.banner": "never", "security.workspace.trust.emptyWindow": false, "editor.indentSize": "tabSize", "editor.tabSize": 2, "python.testing.pytestEnabled": true, "auto-run-command.rules": [ { "command": "workbench.action.terminal.new" } ] } EOF chown ec2-user:ec2-user /home/ec2-user/.local/share/code-server/User/settings.json # Service start systemctl enable --now code-server@ec2-user # Create SSL cert # Let's Encrypt で SSL 証明書を作成するためのモジュール、Amazon Route 53 対応のものをインストールしています。 dnf install -y certbot python3-certbot-dns-route53 # 証明書を DNS-01 という認証方式で作成するコマンドです。 certbot certonly --dns-route53 -d codeserver-${SystemName}-${SubName}-${YourId}.${DomainName} --agree-tos -m ${YourEmail} --non-interactive --preferred-challenges dns-01 # Install oauth2-proxy curl -L -o /tmp/oauth2-proxy.tar.gz https://github.com/oauth2-proxy/oauth2-proxy/releases/download/v${Oauth2ProxyVersion}/oauth2-proxy-v${Oauth2ProxyVersion}.linux-amd64.tar.gz tar -xzf /tmp/oauth2-proxy.tar.gz -C /tmp cp /tmp/oauth2-proxy-v${Oauth2ProxyVersion}.linux-amd64/oauth2-proxy /usr/local/bin/ chmod +x /usr/local/bin/oauth2-proxy # ここで、Amazon Cognito ユーザープールアプリケーションクライアントのクライアントシークレットを取得します。 CLIENT_SECRET=$(aws cognito-idp describe-user-pool-client \ --user-pool-id ${UserPoolId} \ --client-id ${UserPoolAppClient} \ --region ${AWS::Region} \ --query 'UserPoolClient.ClientSecret' \ --output text) # クッキーシークレットを生成します。 COOKIE_SECRET=$(python3.13 -c 'import os,base64; print(base64.urlsafe_b64encode(os.urandom(32)).decode())') mkdir -p /etc/oauth2-proxy chown ec2-user:ec2-user /etc/oauth2-proxy chmod 700 /etc/oauth2-proxy # 以下は自分のメールアドレス以外ではログインを許可しない設定です。 echo ${YourEmail} > /etc/oauth2-proxy/allowed_emails.txt chmod 600 /etc/oauth2-proxy/allowed_emails.txt chown ec2-user:ec2-user /etc/oauth2-proxy/allowed_emails.txt # 以下は OAuth2 Proxy をサービスとして起動するための設定です。 # Amazon Cognito とやり取りするために、この通り記述する必要があります。 cat <<EOF > /etc/systemd/system/oauth2-proxy.service [Unit] Description=oauth2-proxy After=network.target [Service] Type=simple Environment=CLIENT_SECRET=${!CLIENT_SECRET} Environment=COOKIE_SECRET=${!COOKIE_SECRET} ExecStart=/usr/local/bin/oauth2-proxy \ --provider=oidc \ --oidc-issuer-url=${UserPoolProviderUrl} \ --client-id=${UserPoolAppClient} \ --client-secret=$CLIENT_SECRET \ --redirect-url=https://codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/oauth2/callback \ --login-url=https://${SystemName}-${SubName}.auth.${AWS::Region}.amazoncognito.com/oauth2/authorize \ --profile-url=https://${SystemName}-${SubName}.auth.${AWS::Region}.amazoncognito.com/oauth2/userInfo \ --redeem-url=https://${SystemName}-${SubName}.auth.${AWS::Region}.amazoncognito.com/oauth2/token \ --scope=openid \ --cookie-secure=true \ --cookie-expire=72h \ --cookie-refresh=1h \ --cookie-secret=$COOKIE_SECRET \ --authenticated-emails-file=/etc/oauth2-proxy/allowed_emails.txt \ --http-address=127.0.0.1:4180 Restart=on-failure User=ec2-user Group=ec2-user [Install] WantedBy=multi-user.target EOF systemctl daemon-reload systemctl enable --now oauth2-proxy # Install nginx # nginx は code-server を HTTPS 化するためにインストールします。SSL 証明書はここで使われます。 dnf install -y nginx systemctl enable --now nginx mkdir -p /etc/nginx/ssl chmod 700 /etc/nginx/ssl cp /etc/letsencrypt/live/codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/fullchain.pem /etc/nginx/ssl/nginx-chain.crt cp /etc/letsencrypt/live/codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/privkey.pem /etc/nginx/ssl/nginx.key chmod 644 /etc/nginx/ssl/nginx-chain.crt chmod 600 /etc/nginx/ssl/nginx.key # nginx が OAuth2 Proxy とやり取りするためにこの通りパスの設定をする必要があります。 # proxy_buffer 系の設定が重要で、これが大きくないとエラーになります。 tee /etc/nginx/conf.d/codeserver.conf << EOF server { listen 443 ssl; server_name codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}; large_client_header_buffers 4 16k; ssl_certificate_key /etc/nginx/ssl/nginx.key; ssl_certificate /etc/nginx/ssl/nginx-chain.crt; location / { auth_request /oauth2/auth; error_page 401 = /oauth2/sign_in; proxy_pass http://127.0.0.1:8008; proxy_http_version 1.1; proxy_set_header Upgrade \$http_upgrade; proxy_set_header Connection "upgrade"; proxy_set_header Host \$host; proxy_set_header X-Real-IP \$remote_addr; proxy_set_header X-Forwarded-For \$proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto \$scheme; proxy_read_timeout 3600s; proxy_send_timeout 3600s; } location /oauth2/ { proxy_pass http://127.0.0.1:4180; proxy_set_header Host \$host; proxy_set_header X-Real-IP \$remote_addr; proxy_set_header X-Forwarded-For \$proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto \$scheme; proxy_set_header X-Auth-Request-Redirect \$request_uri; proxy_buffers 16 16k; proxy_buffer_size 16k; } location = /oauth2/auth { proxy_pass http://127.0.0.1:4180; proxy_set_header Host \$host; proxy_set_header X-Real-IP \$remote_addr; proxy_set_header X-Scheme \$scheme; proxy_set_header Content-Length ""; proxy_pass_request_body off; proxy_buffers 16 16k; proxy_buffer_size 16k; } } EOF systemctl restart nginx # Create cert renew script # 以下は Let's Encrypt の SSL 証明書を更新するためのスクリプトです。ec2-user のホームディレクトリに配置します。 cat << 'EOF' > /home/ec2-user/renew-cert.sh #!/bin/bash set -e sudo certbot renew sudo cp -f /etc/letsencrypt/live/codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/fullchain.pem /etc/nginx/ssl/nginx-chain.crt sudo cp -f /etc/letsencrypt/live/codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/privkey.pem /etc/nginx/ssl/nginx.key sudo chmod 644 /etc/nginx/ssl/nginx-chain.crt sudo chmod 600 /etc/nginx/ssl/nginx.key sudo systemctl restart nginx echo "Certificate renewed." EOF chmod +x /home/ec2-user/renew-cert.sh chown ec2-user:ec2-user /home/ec2-user/renew-cert.sh # Create sign out file # 以下はサインアウト用の URL を md ファイルにして code-server のホームディレクトリに配置します。 tee /home/ec2-user/environment/signout.md > /dev/null << EOF [Sign Out](https://${SystemName}-${SubName}.auth.${AWS::Region}.amazoncognito.com/logout?client_id=${UserPoolAppClient}&logout_uri=https%3A%2F%2Fcodeserver-${SystemName}-${SubName}-${YourId}.${DomainName}%2Foauth2%2Fsign_out) EOF chown ec2-user:ec2-user /home/ec2-user/environment/signout.md chmod 644 /home/ec2-user/environment/signout.md # Download Amazon Q Developer CLI # Amazon Q Developer CLI のインストーラをダウンロードしています。 # インストールはサインインが必要なため、ダウンロードにとどめています。 sudo -i -u ec2-user bash << 'EOF' curl --proto '=https' --tlsv1.2 -sSf "https://desktop-release.q.us-east-1.amazonaws.com/latest/q-x86_64-linux.zip" -o "q.zip" unzip q.zip EOF # Install nvm # Node.js のバージョン管理ツール nvm をインストールします。 # インストールは OS 再起動が必要なので最後に入れています。 # 必要なバージョンを nvm install コマンドで手動で入れましょう。 sudo -u ec2-user bash -c "curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash" # Finally, reboot reboot - UserPoolProviderUrl: Fn::ImportValue: !Sub CognitoUserPoolProviderUrl-${SystemName}-${SubName} UserPoolId: Fn::ImportValue: !Sub CognitoUserPoolId-${SystemName}-${SubName} Tags: - Key: Cost Value: !Sub ${SystemName}-${SubName} - Key: Name Value: !Sub codeserver-${SystemName}-${SubName}-${YourId} DependsOn: - Ec2InstanceProfile # Route 53 に Elastic IP アドレスの A レコードが登録されないと Let's Encrypt の SSL 証明書作成が # 失敗するので、明示的に DependsOn 設定を入れています。 - Route53RecordA - UserPoolAppClient # ------------------------------------------------------------# # Route 53 # ------------------------------------------------------------# Route53RecordA: Type: AWS::Route53::RecordSet Properties: HostedZoneName: !Sub ${DomainName}. Name: !Sub codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}. Type: A TTL: 300 ResourceRecords: - !GetAtt EipEc2.PublicIp DependsOn: EipEc2 # ------------------------------------------------------------# # Cognito User Pool App Client # ------------------------------------------------------------# UserPoolAppClient: Type: AWS::Cognito::UserPoolClient Properties: UserPoolId: Fn::ImportValue: !Sub CognitoUserPoolId-${SystemName}-${SubName} ClientName: !Sub ${SystemName}-${SubName}-${YourId} GenerateSecret: true RefreshTokenValidity: 3 AccessTokenValidity: 6 IdTokenValidity: 6 ExplicitAuthFlows: - ALLOW_USER_SRP_AUTH - ALLOW_REFRESH_TOKEN_AUTH PreventUserExistenceErrors: ENABLED SupportedIdentityProviders: - COGNITO # Amazon Cognito マネージドログインを使用するには、以下の URL 系の設定が必須です。 # ここの設定は繊細で、EC2 内でコマンド実行している nginx や OAuth2 Proxy の設定ときっちり # 合わせる必要があります。 # 特に LogoutURLs に指定した URL を get パラメータの1つとして完全一致させないと # ログアウト時に使用しないとログアウトに失敗します。 # ここでは意味不明かもしれませんがやってみるとわかります。 # その他、AuthFlow 系の設定も繊細だと思うので、ここに書いてある通りに書いておかないと # 動かなそうな気がします。 CallbackURLs: - !Sub https://codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/oauth2/callback LogoutURLs: - !Sub https://codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/oauth2/sign_out DefaultRedirectURI: !Sub https://codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/oauth2/callback AllowedOAuthFlows: - code AllowedOAuthFlowsUserPoolClient: true AllowedOAuthScopes: - openid - email - profile # Amazon Cognito マネージドログインを使用する場合、以下の設定が必要になります。 # デザインを細かくカスタマイズできそうなのですが、大変なので完全デフォルトにしました。 ManagedLoginBranding: Type: AWS::Cognito::ManagedLoginBranding Properties: ClientId: !Ref UserPoolAppClient ReturnMergedResources: true UseCognitoProvidedValues: true UserPoolId: Fn::ImportValue: !Sub CognitoUserPoolId-${SystemName}-${SubName} # ------------------------------------------------------------# # Output Parameters # ------------------------------------------------------------# Outputs: # EC2 # 完成した code-server の URL です。 codeserverUrl: Value: !Sub "https://codeserver-${SystemName}-${SubName}-${YourId}.${DomainName}/?folder=/home/ec2-user/environment" # ログアウト時にアクセスする URL です。get パラメータがかなり繊細です。 signoutUrl: Value: !Sub "https://${SystemName}-${SubName}.auth.${AWS::Region}.amazoncognito.com/logout?client_id=${UserPoolAppClient}&logout_uri=https%3A%2F%2Fcodeserver-${SystemName}-${SubName}-${YourId}.${DomainName}%2Foauth2%2Fsign_out"   まとめ いかがでしたでしょうか? 今回の題材は code-server でしたが、他の認証機能のない (または弱い) Web アプリケーションによりセキュアな認証機能を付けたいニーズにぴったりはまると思います。 本件は CloudFormation 化するのに苦労しました。しかし、ユーザーデータスクリプトが dnf install でしばしば失敗するのは勘弁して欲しいです。その度に /var/log/cloud-init-output.log を見るはめになります。とりあえず動くものを作りましたが、今後はもっと信頼性の高い仕組みを作りたいです。AMI 化すればいい、では済まない処理もあるので。 さすがにここまでの内容を独力で作れるわけもなく、生成 AI にかなり助けていただきました。例によって AI の回答のままでは動かないことが多かったので各種ツールのリファレンスと見比べながらの作業を強いられましたが、総合的に見て開発、勉強の両面で非常に効率が良かったことに間違いはないでしょう。 一連の動くコマンドや設定はここにありますので、要件に合わせて部分的に活用いただければと思っております。 本記事が皆様のお役に立てれば幸いです。 雑談 Let’s Encrypt はいいですね。AWS Certificate Manager にも証明書をエクスポートできる機能が新たにできましたが、金額が結構高いので Amazon EC2 インスタンスに証明書を組み込むなら Let’s Encrypt 一択かなと思います。更新もスクリプト用意しておけば思ったより楽でしたし。 nginx も便利すぎます。とりあえず HTTPS 化、なら Let’s Encrypt と nginx だけでいいですね。 OAuth2 Proxy は神です。Amazon Cognito マネージドログインとの組み合わせ構成は私の中で標準化されました。w
こんにちは、SCSKの前田です。 今回は、LifeKeeper for Linux の最新機能を皆さまに知っていただきたく、最新バージョン 9.9.1 のリリースノートに記載されている新機能、バグ修正/機能強化、アップグレードの注意点等をご紹介します。 LifeKeeper for Linux v9.9.1 は本記事公開時点での最新バージョンとなります。 LifeKeeperとは?(おさらい) LifeKeeperは、ビジネスの継続性を支える「高可用性(HA: High Availability)クラスターソフトウェア」です。 サーバーやアプリケーションに障害が発生した際、その影響を最小限に抑え、システムが止まることのないよう自動で復旧・切り替えを行うのが LifeKeeper の主要な役割です。 具体的には、複数のサーバー(ノード)でクラスターを組み、稼働系サーバーで障害が発生した場合、LifeKeeper が検知し、瞬時に待機系サーバーへ処理を移行します。この一連の自動切り替え処理を「フェイルオーバー」と呼びます。 LifeKeeper の強みは、OS やミドルウェア、データベース、アプリケーションといった様々な「保護対象リソース」の状態を監視し、それらをグループ化して切り替え制御を行う点にあります。この柔軟なリソース保護と、複雑な設定なしに利用できる点が、多くの企業に採用される理由です。 リリースノートでは、この LifeKeeper の「保護能力」や「監視精度」、そして「フェイルオーバーの信頼性」をさらに高めるための新機能や改善点、対応環境の拡充などが記載されています。最新バージョンで、より堅牢で効率的なシステム運用を実現するための進化の全貌をぜひご覧ください。 新機能:LifeKeeper/DataKeeper の進化のポイント ここでは、LifeKeeper for Linux v9.9.1 で強化された LifeKeeper Core 及び DRBD Recovery Kit の新機能についてご紹介します。 多岐にわたるOSやVMwareのバージョンサポート追加も含まれますが、本記事では主要な機能強化に焦点を当て、バージョンサポートの詳細は公式リリースノートをご確認いただくようお願いいたします。 1.Linux ASLR 仕様変更への対応:LifeKeeper Core の安定稼働を強化 LifeKeeper for Linux v9.9.1 では、LifeKeeper Core の安定稼働をさらに強化するため、 共有メモリアドレスが変更 されました。 この変更は、Linux カーネルの  Address Space Layout Randomization (ASLR) 機能の仕様変更に対応したものです。ASLRはプロセスのアドレス空間の配置をランダム化することでセキュリティを強化する機能ですが、これにより  LifeKeeper が使用する共有メモリアドレスが OS 管理のアドレスと衝突する可能性 が生じていました。 今回のアップデートでは、LifeKeeper が利用する共有メモリアドレスを「37f00000」から「6ff00000」に変更することで、OS のアドレス空間との衝突リスクを排除。これにより、 LifeKeeper Core の安定した動作を確保し、予期せぬ問題発生の可能性を低減します。 これは、特に最新の Linux 環境における LifeKeeper の 信頼性と堅牢性を向上させる重要な変更点 です。 2.HANA 環境における lksupport の高速化と柔軟なデータ収集 LifeKeeper for Linux v9.9.1 は、 lksupport コマンドの HANAト レースファイル収集機能が改善され、診断データ収集の効率が大幅に向上 しました。 これまでのバージョンでは、HANA リソースが存在する環境において、特に HANA トレースファイルの容量が大きい場合、lksupport コマンドによるデータ収集に時間がかかるという課題がありました。 今回のアップデートでは、lksupport コマンドに 新しいオプションが追加 されました。これにより、以下のことが可能になります。 HANA トレースファイルを収集から除外する :大容量のトレースファイルを除外することで、lksupport の取得時間を大幅に短縮できます。 HANA リソースに関する情報のみを収集する :HANA 関連のトラブルシューティングに特化し、必要な情報だけを効率的に取得できるようになります。 この機能強化により、HANA が稼働する大規模な環境におけるトラブルシューティングや診断作業がより迅速かつスムーズになり、運用効率の向上に貢献します。必要な情報を効率的に取得できるため、分析時間の短縮にも繋がります。 3.DRBD Recovery Kit:4ノードクラスター対応で可用性を拡大 LifeKeeper for Linux v9.9.1 の DRBD Recovery Kit は、 4ノードクラスターのサポートを開始 しました。 DRBD Recovery Kit が初めて導入された LifeKeeper v9.9.0 では3ノードクラスターまでのサポートでしたが、今回のアップデートにより、より大規模な環境での高可用性構成が可能になります。 この拡張により、システム設計の柔軟性が大幅に向上し、 より複雑なシステム要件や高い可用性レベルが求められる環境において、DRBD を用いた堅牢な多ノードクラスターを構築できるようになります。 冗長性をさらに高めたい、あるいは地理的に分散した環境で複数拠点を活用したいといったニーズにも対応しやすくなります。 4.DRBD IP アドレス変更の簡素化:LKCLI でリソース再作成不要に LifeKeeper for Linux v9.9.1では、 DRBD リソースに関連付けられた IP アドレスの変更プロセスが大幅に簡素化 されました。 これまでの LifeKeeper v9.9.0 では、DRBD リソースの IP アドレスを変更する場合、既存の DRBD リソースを一度削除し、再作成する必要がありました。これは設定変更に伴う作業負荷が大きく、ヒューマンエラーのリスクも伴うものでした。 今回の機能強化により、 LKCLI コマンドを使用することで、DRBD リソースを再作成することなく、IP アドレスを直接変更できるようになりました。 この改善は、システム運用における 設定変更作業の工数を削減し、効率性を高めます。また、運用中の設定変更作業に伴うサービス停止のリスクを最小限に抑え、DRBD クラスターの管理をより柔軟かつ安全に行うことを可能にします。 バグ修正・機能強化:システムの安定性と運用性を向上 ここでは、多岐にわたるバグ修正および機能強化について、主な項目を一覧でご紹介します。 LifeKeeper for Linux v9.9.1 No 項目 内容 1 DataKeeperミラーの挙動改善: data_corruptフラグが削除された状態でDataKeeperミラーが強制的にオンラインになった際に、そのメッセージをログに記録するようになりました。 2 lksupportのSAP MaxDBデータ収集強化: lksupportがSAP MaxDB固有のデータをキャプチャできるようになりました。 3 シャットダウン時の予期せぬスイッチオーバー問題を修正: COMM_UPとCOMM_DOWN処理の競合により、シャットダウンストラテジーを”Do Not Switch Over Resources”(デフォルト)に設定していてもLifeKeeper停止時にスイッチオーバーが発生する問題を修正しました。 4 Recovery Kit for EC2:RouteTableリソース作成時の権限緩和: メインルートテーブルへのec2:replaceRoute権限がなくてもRouteTableリソースが作成できるようになりました。 5 Recovery Kit for EC2:メタデータ取得のリトライ機能追加: Recovery Kit for EC2でメタデータの取得に失敗した場合にリトライするようになりました(デフォルトで最大4回試行)。 6 lkcliリソース拡張時の優先順位改善: lkcliリソース拡張時、3番目と4番目のノードに拡張する際のデフォルトの優先順位レベルが改善されました。 7 サーバー ステータス表示のタイプミス修正: Monitoring.cgiのサーバー ステータス出力に含まれるタイプミス(DEADではなくDAED)を修正しました。 8 lksupportのネットワーク情報収集効率化: lksupportが/sys/class/net内のファイルを個別に作成するのではなく、圧縮tarアーカイブとして作成し、lksupportのtarファイルに含めるようになりました。 9 AWS PAYGイメージでのライセンスタイプ表示問題を修正: AWSの9.7.0 PAYG(Pay-as-you-go)イメージで、不明なライセンスタイプが表示される問題を修正しました。 10 lkbackupの使用法およびマニュアルページ更新: lkbackupコマンドの-qオプションが-xオプションからプロンプトを削除することを示す使用法とマニュアルページを更新しました。 11 lkbackupのバグ修正:DRBDリソースファイル: 複数のDRBDリソースファイルがバックアップされないというlkbackupのバグを修正しました。 12 lksupportのDRBDサブシステムファイル収集強化: lksupportが関連するDRBDサブシステムファイルを取得し、drbd.txtに記録するようになりました。 13 DRBDクラスターのレプリケーション再開挙動改善: DRBDクラスター内で複数のサーバーが一時停止されている場合、再開操作によりすべてのサーバー間のレプリケーションが再開されるようになりました。 14 STONITHインストール時のエラーハンドリング強化: LifeKeeperが停止している状態やコミュニケーションパスが作成されていない状態でSTONITHをインストールしようとすると、エラーになるように改修しました。 15 多ノードDRBDクラスターでのリソース復元失敗を修正: 2ノードを超えるクラスターで2つのノードがクラッシュした後、使用可能なノードが1つだけの場合に、DRBDリソースの復元が失敗する問題を修正しました。 16 NFSv4ファイルシステムリソース停止失敗のバグ修正: NFSv4でマウントされたディレクトリ内のファイルが開いたままになっていると、ファイルシステムリソースの停止(アンマウント)に失敗するバグを修正しました。 17 LifeKeeper起動中の停止処理改善: LifeKeeperが起動中に停止する場合、起動処理が完了するまで待つように改修しました。 18 DRBD lkcliサブコマンドの検証機能追加: DRBD lkcliサブコマンド(force、resume、removesys、options、status)が、渡されたタグがDRBDリソース用のものであることを検証しないバグを修正しました。 19 Oracle Recovery Kitの強制起動制御パラメータ追加: 強制起動を実行するかどうかを決定するデフォルトファイル調整パラメーターORA_SAFE_USE_START_FORCEが追加されました(デフォルトでは実行されません)。 スムーズな移行のために:LifeKeeper アップグレード時の重要事項 LifeKeeper関連製品のアップグレードを安全かつ確実に実行していただくため、以下の重要な注意点をご確認ください。 1. Perlバージョンの変更とGeneric ARKへの影響 LifeKeeper for Linux v9.8.0以降では、同梱されるPerlが 5.8.8から5.32.1に大幅にアップデート されています。 LifeKeeper for Linux v9.7.0以前のバージョンからv9.8.0以降にアップデートする場合、 PerlベースのGeneric ARKを使用している環境では、このPerlアップデートが既存のスクリプトに影響を与える可能性があります。 【対応】 アップグレードを実施する前に、ご利用のGeneric ARKが新しいPerlバージョンで正しく動作するか、互換性を十分に検証してください。 詳細は「 Perl 5.8.8からPerl 5.32.1へのアップグレード 」ドキュメントをご参照ください。 2. SAP HANA Application Recovery Kit の変更と移行 LifeKeeper for Linux v9.5.0 より、SIOS は 新しい SAP HANA Application Recovery Kit をリリースしています。 従来の gen/app ベースの SAP HANA Recovery Kit は LifeKeeper v9.5.0 以降ではサポートされていません。 【対応】LifeKeeper for Linux v9.5.0 以降へアップデートを検討されている既存の SAP HANA ユーザーは、必ず新しい(ビルトインの)SAP HANA Application Recovery Kit への移行作業が必要となります。 SIOS は2022年3月31日まで、9.4.xリリースでの従来の gen/app ベースの Recovery Kit のサポートを継続しましたので、現在は新しい SAP HANA Recovery Kit  への移行が必須です。 3. アップグレードパスの制限 LifeKeeper は、 最大2つ前のバージョン (例:9.7.x)から現在のバージョン(9.9.1)への 直接アップデートが可能 です。 これよりも古いバージョンからアップデートする場合は、以下のいずれかの対応が必要です。 ・ 旧バージョンのアンインストールと新規インストール : 最も確実な方法ですが、システム構築の手間がかかります。 ・ 段階的なアップデート : 古いバージョンを一度サポート対象のバージョン(例:9.7.x)に一時的にアップデートし、その後、現在のバージョン(9.9.1)へ再度アップデートすることで対応可能です。 【例】古いバージョンが 9.5.x の場合、まず 9.7.x にアップデートし、その後に 9.9.1 にアップデートします。 4. lkbackup 利用時の注意点 アップグレード中に lkbackup を使用する場合、リソースの作成後に lkbackup からリストアを行うと、破損したイクイバレンシが残される可能性があります。 これは、lkbackup がバックアップ後に初めて作成されたリソースの設定ファイルを適切に把握できないためです。 【対応】 ・ 新規リソース追加前 : 新しいリソースを初めて追加する前に lkbackup からリストアしてください。 ・ 新規リソース追加後 : lkbackup の後に新しいリソースを追加した場合は、リストアを行う前にそのリソースを削除するか、リソース階層のインスタンスを削除し、リストア後に再度階層を拡張してください。 【推奨】 特定のリソースを初めて作成する際に lkbackup を実行することを強く推奨します。 5. クラスター内の LifeKeeper バージョンの互換性 同じクラスター内のすべてのシステムには、同じバージョンおよびリリースのLifeKeeperをインストールする必要があります。 通常、バージョンまたはリリースの異なるLifeKeeperには互換性がありません。 【重要】 ローリングアップデートなどの特別な手順を除き、異なるバージョンまたはリリースの LifeKeeper がクラスター内の異なるシステムで実行されている状況では、LifeKeeper を起動しないでください。システムの不安定化や予期せぬ挙動を引き起こす可能性があります。 【アップグレードの注意点】本番環境と同等環境での徹底した事前検証を強く推奨 LifeKeeper の新バージョンがもたらす革新的な機能と強化された安定性は、システムの可用性をさらに向上させる大きな機会です。しかし、その恩恵を最大限に享受し、スムーズな移行を実現するためには、周到な準備と慎重な計画が不可欠です。 特にアップグレードの実施にあたっては、 本番環境と同一、または極めて近似した環境での事前検証を強く推奨いたします。 これまでの多くの導入経験から、簡易的な検証環境やPoC環境では表面化しなかった問題が、本番環境特有の複雑な構成、データ量、実際のワークロード、あるいは連携する他システムとの相互作用によって、予期せぬ形で露呈するケースが確認されています。 例えば、以下のような本番環境固有の要素が、アップグレード後の動作に影響を及ぼす可能性があります。 ・OS/カーネルの細かな設定やパッチレベルの差異 ・ネットワークインターフェース(NIC)の構成やドライババージョン ・ディスクI/Oの特性やストレージ連携 ・Firewallやセキュリティポリシー ・LifeKeeper以外のミドルウェア(DB、アプリケーション等)とのバージョン互換性 ・ネットワークレイテンシや帯域幅の制約 これらの要素は、疑似環境やPoC環境では再現が難しく、本番環境にデプロイされて初めて問題が顕在化することが少なくありません。 そのため、単なる新機能の動作確認に留まらず、 本番環境で想定される高負荷時におけるLifeKeeperの挙動、フェイルオーバー時間の計測、そして多岐にわたる障害シナリオ(ネットワーク障害、ディスク障害、ノード障害など)における健全な復旧プロセスの確認 までを含めた、網羅的な検証計画を立てることが極めて重要です。 本番環境へのスムーズな移行と、アップグレード後の安定稼働を確実なものとするために、この「本番環境と同等環境での徹底した事前検証」が何よりも重要なステップであると、強くご理解いただけますと幸いです。 まとめ 今回は、LifeKeeper製品の最新バージョンに記載されている新機能、バグ修正/機能強化、そしてアップグレードの注意点についてご紹介いたしました。 ビジネス継続性を支える高可用性(HA)クラスターソフトウェアとして、LifeKeeperは常に進化を続けており、およそ半年に一度のペースでアップグレードを実施しています。 今後もLifeKeeperの新機能や改善点、対応環境の拡充など、皆さまがより堅牢で効率的なシステム運用を実現できるよう、LifeKeeperに関する情報発信を続けてまいります。 最後までお読みいただき、誠にありがとうございました。   詳しい内容をお知りになりたいかたは、以下のバナーからSCSK LifeKeeper公式サイトまで
はじめに 当記事は、前回の記事「Ansibleを使用してNW機器設定を自動化する(PaloAlto-アドレス編①)」からの改善となります。 設定情報がベタ書きで使い勝手が悪い点 を 設定情報をまとめてINPUT(JSON)できる使い勝手の良い仕組みとしました!! これにより、Anibleとの連携ができるようになりますので、ご参考になれば幸いです。 ※前回記事: https://blog.usize-tech.com/ansible-automation-paloalto-address-1/ 当記事は、 日常の運用業務(NW機器設定)の自動化 により、 運用コストの削減 および 運用品質の向上  を目標に 「Ansible」 を使用し、様々なNW機器設定を自動化してみようと 試みた記事です。 Ansibleは、OSS版(AWX)+OSS版(Ansible)を使用しております。   PaloAltoの「Objects-アドレス」の登録/変更/削除を実施してみた 事前設定 Templateを作成し、インベントリーと認証情報を設定する。 インベントリー:対象機器(ホスト)の接続先を設定。 ※ホストには以下変数で接続先IPを指定 ansible_host: xxx.xxx.xxx.xxx 認証情報:対象機器へのログイン情報(ユーザ名/パスワード)を設定。 ユーザ名は  変数:ansible_user   に保持される パスワードは 変数:ansible_password に保持される   事前設定2:設定情報をまとめてINPUT(JSON)できるように、「Survey」を活用 テンプレートが読み込むことができる変数(Survey)を設定する。※今回は、各設定のデフォルト値に値を設定する。 実際の値(JSON) ・input_address1: {"name":"test_address001","address_type":"ip-netmask","value":"192.168.10.0/24","description":"address_ip-netmask","wk_tag":["test"]} ・input_address2: {"name":"test_address001","address_type":"ip-netmask","value":"192.168.20.0/24","description":"address_ip-netmask","wk_tag":["test"]} ・input_address3: {"name":"test_address001","address_type":"ip-netmask","value":"192.168.30.0/24","description":"address_ip-netmask","wk_tag":["test"]} ・input_address4: {"name":"test_address001"}   事前設定 Templateを作成し、インベントリーと認証情報を設定する。 インベントリー:対象機器(ホスト)の接続先を設定。 ※ホストには以下変数で接続先IPを指定 ansible_host: xxx.xxx.xxx.xxx 認証情報:対象機器へのログイン情報(ユーザ名/パスワード)を設定。 ユーザ名は  変数:ansible_user   に保持される パスワードは 変数:ansible_password に保持される   Playbook作成(YAML) 使用モジュール paloaltonetworks.panos.panos_address_object  を使用。 ※参考ページ:https://galaxy.ansible.com/ui/repo/published/paloaltonetworks/panos/content/module/panos_address_object/   接続情報(provider)の設定 providerには、ip_address/username/password の指定が必要。 vars: provider:   ip_address: '{{ ansible_host }}'   ← インベントリーのホストで設定   username: '{{ ansible_user }}'    ← 認証情報で設定   password: '{{ ansible_password }}'  ← 認証情報で設定   変数(Survey)の値取得 vars で 各変数(Survey)の値取得。 ※各変数(Survey)の値は、構造化データのように見えて「文字列」なので、ディクショナリ(構造化データ)として正しく扱えるように、from_json フィルターを使用すること!!      vars: wk_input1: '{{ input_address1 | from_json}}' wk_input2: '{{ input_address2 | from_json}}' wk_input3: '{{ input_address3 | from_json}}' wk_input4: '{{ input_address4 | from_json}}'   Objects-アドレスの登録 ★ 変数(Survey)の値をそのまま使用した場合…エラーとなる 接続情報とアドレス情報( Survey:input_address1 )を指定して登録(state: ‘present’)を行う。 - name: Add Address1_input_address1 paloaltonetworks.panos.panos_address_object: provider: '{{ provider }}' name: '{{ input_address1.name }}' address_type: '{{ input_address1.address_type }}' value: '{{ input_address1.value }}' description: '{{ input_address1.description }}' tag: '{{ input_address1.wk_tag }}' state: 'present' register: wk_result 実行結果:構造化データではないので、オブジェクトに項目が無いという エラー となる。 ※Ansibleの実行結果を抜粋 "msg": "The task includes an option with an undefined variable. The error was: 'ansible.utils.unsafe_proxy.AnsibleUnsafeText object' has no attribute 'name'. ... Objects-アドレスの登録 接続情報とアドレス情報( Survey:input_address1 )を指定して登録(state: ‘present’)を行う。 - name: Add Address1_wk_input paloaltonetworks.panos.panos_address_object: provider: '{{ provider }}' name: '{{ wk_input1.name }}' address_type: '{{ wk_input1.address_type }}' value: '{{ wk_input1.value }}' description: '{{ wk_input1.description }}' tag: '{{ wk_input1.wk_tag }}' state: 'present' register: wk_result 実行結果:対象のアドレスが登録された。 ※Ansibleの実行結果(diff)を抜粋 "before": "", "after" : "<?xml version=\"1.0\" encoding=\"utf-8\"?>\n<entry name=\"test_address001\">\n\t<ip-netmask>192.168.10.0/24</ip-netmask>\n\t<description>address_ip-netmask</description>\n\t<tag>\n\t\t<member>test</member>\n\t</tag>\n</entry>\n"   Objects-アドレスの変更 ※登録のつづき 接続情報とアドレス情報を指定して 登録されたアドレスの変更( state: ‘replaced’ )を行う。  ※replacedの場合は、既存設定の置き換えとなる - name: Change Address1 paloaltonetworks.panos.panos_address_object: provider: '{{ provider }}' name: '{{ wk_input2.name }}' address_type: '{{ wk_input2.address_type }}' value: '{{ wk_input2.value }}' description: '{{ wk_input2.description }}' # tag: '{{ wk_input2.wk_tag }}' state: 'replaced' register: wk_result 実行結果:登録時のtag指定ありのアドレスが、Rreplaedによりtag指定なしのアドレスに変更された。 ※Ansibleの実行結果(diff)を抜粋 "before": "<?xml version=\"1.0\" encoding=\"utf-8\"?>\n<entry name=\"test_address001\">\n\t<ip-netmask>192.168.10.0/24</ip-netmask>\n\t<description>address_ip-netmask</description>\n\t<tag>\n\t\t<member>test</member>\n\t</tag>\n</entry>\n", "after" : "<?xml version=\"1.0\" encoding=\"utf-8\"?>\n<entry name=\"test_address001\">\n\t<ip-netmask>192.168.20.0/24</ip-netmask>\n\t<description>address_ip-netmask</description>\n</entry>\n"   接続情報とアドレス情報を指定して 登録されたアドレスの変更( state: ‘merged’ )を行う。  ※mergedの場合は、既存設定の上書きとなる - name: Change Address2 paloaltonetworks.panos.panos_address_object: provider: '{{ provider }}' name: '{{ wk_input1.name }}' address_type: '{{ wk_input3.address_type }}' value: '{{ wk_input3.value }}' # description: '{{ wk_input3.description }}' tag: '{{ wk_input3.wk_tag }}' state: 'merged' register: wk_result 実行結果:上記変更時のtag指定なしのアドレスが、mergedによりtag指定ありのアドレスに変更された。また、アドレス情報にdescriptionを指定しなくても、既存設定が維持されていることを確認。 ※Ansibleの実行結果(diff)を抜粋 "before": "<?xml version=\"1.0\" encoding=\"utf-8\"?>\n<entry name=\"test_address001\">\n\t<ip-netmask>192.168.20.0/24</ip-netmask>\n\t<description>address_ip-netmask</description>\n</entry>\n", "after" : "<?xml version=\"1.0\" encoding=\"utf-8\"?>\n<entry name=\"test_address001\">\n\t<ip-netmask>192.168.30.0/24</ip-netmask>\n\t<description>address_ip-netmask</description>\n\t<tag>\n\t\t<member>test</member>\n\t</tag>\n</entry>\n"   Objects-アドレスの情報収集 ※変更のつづき 接続情報とアドレスを指定して情報収集(state: ‘gathered’)を行う。 - name: Get Address Info paloaltonetworks.panos.panos_address_object: provider: '{{ provider }}' name: '{{ wk_input4.name }}' state: 'gathered' register: wk_result 実行結果:対象アドレスの情報が取得できた。 ※Ansibleの実行結果(gathered_xml)を抜粋 "gathered_xml": "<?xml version=\"1.0\" encoding=\"utf-8\"?>\n<entry name=\"test_address001\">\n\t<ip-netmask>192.168.30.0/24</ip-netmask>\n\t<description>address_ip-netmask</description>\n\t<tag>\n\t\t<member>test</member>\n\t</tag>\n</entry>\n",   Objects-アドレスの削除 ※変更のつづき 接続情報とアドレスを指定して削除(state: ‘absent’)を行う。 - name: Delete Address1 paloaltonetworks.panos.panos_address_object: provider: '{{ provider }}' name: '{{ wk_input4.name }}' state: 'absent' register: wk_result 実行結果:対象のアドレスが削除された。 ※Ansibleの実行結果(diff)を抜粋 "before": "<?xml version=\"1.0\" encoding=\"utf-8\"?>\n<entry name=\"test_address001\">\n\t<ip-netmask>192.168.30.0/24</ip-netmask>\n\t<description>address_ip-netmask</description>\n\t<tag>\n\t\t<member>test</member>\n\t</tag>\n</entry>\n", "after" : "" 最後に 今回、変数(Survey)を活用したことで、Ansibleに INPUT(JSON)を設定 できるようになりました。 設定情報がYAMLにベタ書きではなくなったので、使い勝手は増しましたが、 都度 変数(Survey)のデフォルト値に値を設定しての実行の為、まだまだ 使い勝手が悪い。。。      今後 外部からAnsibleの INPUT(JSON)に値を連携し実行させる仕組みを試みたいと思います。
SCSK LifeKeeper担当 池田です。 HAクラスタウェアには、様々な製品が巷にあふれています。 その中からどの製品を選定したら良いかという点は、皆さんの悩みどころかと思います。 SCSKでは様々なHAクラスタウェアの構築実績がありますが、その豊富な経験をもとに、いくつかのHAクラスタウェア製品とLifeKeeperとの機能の比較をしてみようと思います。 HAクラスタウェア製品の機能比較 HAクラスタウェア製品とLifeKeeperとを機能の違いで評価してみました。 機能 LifeKeeper A社製 B社製 備考 価格 – – – 構成により異なる為、記載を控えます 対応アプリケーション ◎ 主要ミドルウェア用有償オプション製品有。その他のミドルウェアもQSP(QuickServerProtection)やGenericARKで容易に対応可 〇 DBなど一部主要ミドルウェアに対応したオプション製品有。ただしほとんどがスクリプト作成が必要 △ スクリプト作成が必須   SLA 〇 99.99%のフォールトレジリエンス稼働レベル 〇 99.99%のフォールトレジリエンス稼働レベル 〇 99.99%のフォールトレジリエンス稼働レベル   構成の自由度 ◎ オンプレミス、仮想(vSphere)、パブリッククラウド対応のオプション製品有 △ 手組のスクリプト作成が必要 △ 手組のスクリプト作成が必要   対応OS ◎ Redhat Enterprise Linux Windows Server SUSE Linux Oracle Linux CentOS など多数 ◎ Redhat Enterprise Linux Windows Server SUSE Linux Oracle Linux CentOS Ubuntu など多数 △ 特定のOSに限定   サポート ◎ 24265 日本語サポート有 ◎ 24365日本語サポート有 △ 英語サポートのみ   運用 ◎ 管理GUIで表示が判りやすい 手動での系切り替えも用意 ◎ 管理GUIはあるが、慣れが必要 △ 管理GUIはあるが、どちらがActiveサーバなのか判りづらい   HAクラスタウェア製品は、20年以上前から存在していますので、製品によってそれ程大きな機能の差異はないのではと言われることが多いですが、上記の表のように実はLifeKeeperは優秀な製品なのです! 「SCSKはLifeKeeperを扱っているから評価が高いだけでしょ」という声も聞こえてきそうですが、冒頭にも書かせていただいた通り、SCSKではこれまで様々なHAクラスタウェアを設計、構築してきましたが、その経験から申し上げてもLifeKeeperは、非常にバランスの取れた製品であると感じています。 様々なアプリケーションに対応したオプション製品がメーカーから用意されていて、管理GUIの視認性が良く、どちらのサーバがアクティブになっているか、手動でスイッチオーバが必要な際にも、直感的な操作で実施できるため、運用性の高い製品となっています。 HAクラスタウェアを選定する際のご参考にしていただけると幸いです。 まとめ 今回は、HAクラスタウェアの製品比較をしてみました。大人の事情で製品名を書けず申し訳ありませんが、LifeKeeperの良さが少しでも伝わればと思います。 LifeKeeperについて、詳しい内容をお知りになりたいかたは、以下のバナーからSCSK LifeKeeper公式サイトまで
こんにちは、広野です。 AWS Cloud9 に代わる、使い勝手の良い IDE on AWS を作れないものか、、、日々模索しています。 今回は、 code-server を HTTPS 公開して MFA 認証を付ける構成を試してみました。まずはアーキテクチャを紹介します。実装は AWS CloudFormation でしており、別記事で紹介します。 背景 この構成を検討するにあたり、以下の状況がありました。 AWS Cloud9 のような Web IDE を AWS 上に作りたい。code-server を Amazon EC2 に立てるのがてっとり早い。個人用環境または研修用環境なのでコンテナのような本格的な構成は過剰。 code-server はデフォルトで HTTP (80) で公開され、ユーザー認証の仕組みは組み込みの機能が一応あります、って程度のもの。そのままでは実用的でない。 ALB や Amazon CloudFront をかぶせることで HTTPS 化はできるが、なんかこれだけのために使用するのは過剰すぎるという感覚。code-server をホストする Amazon EC2 インスタンス単体でどうにかしたい。 HTTPS 化は自己証明書は NG。自己証明書のサイトにはアクセスできないネットワーク環境があるため。ドメインは Amazon Route 53 パブリックホストゾーンを使用して登録し、証明書は Let’s Encrypt で作成することにする。 ユーザー認証は厳格にしたい。特に MFA は必須。Amazon Cognito を使用するのがてっとり早い。ログイン画面を開発するのは面倒なので、Amazon Cognito マネージドログインを全面的に活用する。 アーキテクチャ ということで、考えてみた構成がこちら。先に画面をイメージして欲しいので、解説は後ろに回します。   画面紹介 実際につくったものは、以下の操作になります。 作成した code-server インスタンスの URL にブラウザアクセスすると、OAuth2 Proxy の画面が表示されます。ボタンを押して進みます。 画面が Amazon Cognito マネージドログイン 画面にリダイレクトされます。画面デザインはデフォルトです。セルフサインアップも可能です。 MFA ワンタイムパスワードの入力も求められます。 ログインに成功すると、code-server が表示されます。 サインアウト用の URL は signout.md として用意しておきました。リンクを押すとサインアウトできます。ただし、今時点イケてないのはサインアウト後にログイン画面に戻ってくれないことです。いろいろ試しましたが一旦あきらめました。サインアウトはできているので。以下は Edge ブラウザでのサインアウト時画面。正常です。   アーキテクチャ解説 あらためて、アーキテクチャ図を掲載します。 なるべく処理順に説明します。 ユーザーは、ブラウザから HTTPS で code-server にアクセスしようとします。ドメイン名は Route 53 パブリックホストゾーンに登録されていて、Amazon EC2 インスタンスの Elastic IP アドレスが A レコードとして登録されています。そのレコードに合わせて、SSL 証明書が Let’s Encrypt で作成され、nginx に登録されています。 安全のため、Amazon EC2 インスタンスは任意のソースグローバル IP アドレス以外からの通信を受け付けないようにしています。 HTTPS 通信は nginx が受け取り、SSL の終端をします。以降、EC2 内部の通信は暗号化されません。 nginx は、ユーザーが認証済みかどうかチェックするために OAuth2 Proxy に問い合わせます。認証済みであればユーザーと code-server を通信させます。認証済みでない場合は、ユーザーに認証が必要である旨の画面を返します。 ログイン済みでないユーザーは、案内に従い Amazon Cognito マネージドログインの画面で認証 (MFA 込み) を済ませます。必要に応じてセルフサインアップをします。ログインが正常に完了すると、Amazon Cognito マネージドログインはあらかじめ指定されているコールバック URL (ここでは、OAuth2 Proxy の所定のパス) に画面をリダイレクトします。このとき、ブラウザは Cookie に認証済みコードを持った状態になっています。 認証済みとなったブラウザはリダイレクトされると、nginx 経由で OAuth2 Proxy が認証状況をチェックします。ここでは、認証済みコードからトークンを取得します。 細かい話ですが、アプリが Amazon Cognito ユーザープールに認証の通信をするためにはアプリケーションクライアントを作成する必要があります。今回の設計では、1 EC2 インスタンスあたり 1 アプリケーションクライアントの設定にしています。アプリケーションクライアントにはクライアントシークレットを持たせることができ、シークレットを知っているクライアントでないと認証をすることができません。シークレットは当該 EC2 インスタンスしか知らないようにしているので、他のデバイスが同じアプリケーションクライアント (≒ この EC2 インスタンス用 Amazon Cognito マネージドログイン画面) 経由で認証しようとしても拒否されます。正常に認証状況チェックが完了すると、EC2 インスタンスはトークンを取得できます。 上述、アプリケーションクライアントのクォータがあるため、デフォルトでは 1 Amazon Cognito ユーザープールあたり 1,000 アプリケーションクライアントを作成することができます。つまり、管理可能な code-server EC2 インスタンスは 1,000 台が上限となりますが、クォータの上限緩和申請や、設計を変えることで拡張する余地はあります。 ここまでの設計では、Amazon Cognito に正常に登録されたユーザーは全員、任意の code-server インスタンスにログインできてしまいます。今回の設計では code-server は個人用環境であるため、あらかじめ指定した自分のメールアドレス情報がユーザーの属性になければ認証を通さないようにします。Amazon Cognito ユーザープールのユーザー属性に email があるので、それを OAuth2 Proxy の認証状況チェックの過程でチェックさせます。もし指定されたメールアドレス以外の認証であれば、403 forbidden 画面が表示されます。 ログアウトについては、2箇所のサインアウト処理をする必要があります。OAuth2 Proxy と Amazon Cognito マネージドログインです。いずれもログアウトは所定の URL にアクセスさせる必要があり、1 アクションで両方に必ずアクセスさせるために URL リダイレクトを使用します。Amazon Cognito マネージドログインは必須でリダイレクト URL (ログアウト URL と呼ばれる) を指定する必要があるので、それを利用しました。ログアウト URL に、OAuth2 Proxy のログアウト用パスを指定するようにしています。ただし、それにアクセスしたときに前章で紹介したエラー画面が出てしまいます。   続編記事 作成次第、こちらに掲載します。   まとめ いかがでしたでしょうか? 今回の題材は code-server でしたが、他の認証機能のない (または弱い) Web アプリケーションによりセキュアな認証機能を付けたいニーズにぴったりはまると思います。 本記事が皆様のお役に立てれば幸いです。
こんにちは、ひるたんぬです。 最近は自分が食べたいと思ったものを、レシピを参考に作ることにハマっています。 レシピを見る際に、必ず「○人前」と書かれていますが、あれは何を基準としているのでしょうか? 調べてみても具体的な基準などは見当たらないのですが、大体乾麺のパスタだと、80〜100gというレシピが多い印象です。 ※ ご存知の方がいらっしゃいましたら、何らかの手段や媒体でご教示・発信いただけると幸いです。。。 私はこの量では満足することができないので、「私は人じゃない…?」と疑いかけますが、それは穿った見方ですね。 ただ、「一人前」と言う表現は個人差が大きいと思うので、もっと良い表現があってもいいのになぁ…と思った今日このごろです。 さて、今回はタイトルにもある通り、Amazon CloudFrontとAmazon S3を用いた静的コンテンツ配信基盤において、cognito-at-edgeで特定のパスにのみ認証を設定する方法をご紹介します。 やりたいこと 静的コンテンツを公開する場合、nginxやapacheを利用してWebサーバーを立てて公開する方法もありますが、クラウドネイティブな方法としてCloudFrontとS3を利用する方法が挙げられます。 これらを利用することにより、需要に応じたリソースのスケールや料金負担が実現できるほか、サーバー(インフラ)のメンテナンスを自身で行う必要がなくなるなど、コンテンツ配信の事業者の方々にとっても大きなメリットがあります。 一方、コンテンツの中には、特定のユーザーに公開を絞りたいケースもあるかと思います。 今回は、一つのサイト(ドメイン)の中で、全体に公開したいコンテンツと、公開を限定したいコンテンツを制御したいという事例を考えてみます。   使うもの 配信基盤として用いるものはAmazon CloudFrontとAmazon S3です。 また、認証にはAmazon Cognitoを利用し、CloudFrontと認証機能を連携させる手段としてLambda@Edgeを利用します。 具体的なLambda@Edge内の処理プログラムについては、AWS (AWS Labs)より提供されているcognito-at-edgeを利用します。 GitHub - awslabs/cognito-at-edge: Serverless authentication solution to protect your website or Amplify application Serverless authentication solution to protect your website or Amplify application - awslabs/cognito-at-edge github.com   事前準備・確認 まずは、特定のパスに限定させず、全てのコンテンツに対して公開を制限したいと思います。 コンテンツ格納用バケットの用意 コンテンツを格納するためのS3バケットを用意します。今回は東京リージョンにデプロイしたいと思います。 バケット名以外の設定はデフォルトで問題ありません。(今回は「202509-web-contents-bucket」を作成しました。) 作成が終わったら、何かしらコンテンツを格納しておきましょう。 こういうときに生成AIを使うとサクッと作れていいですね。 ChatGPTをはじめとする生成AIを「チャッピー」と呼ぶ界隈があることを最近知り、少し驚きました。 参考: 日本経済新聞社 | 「令和なコトバ「チャッピー」 わたしに寄り添う君の名は」 Cognitoのデプロイ Cognitoをデプロイします。今回は東京リージョンにデプロイしたいと思います。 CloudFormationより、以下のテンプレートをデプロイします。 パラメータのCognitoCallbackURLについては、ひとまずこのままでもOKです。 AWSTemplateFormatVersion: 2010-09-09 Description: Create Cognito. Please deploy at ap-northeast-1 region. # Parameters Parameters: ## CognitoコールバックURL CognitoCallbackURL: ### cognito-at-edgeの仕様上、最後は"/"をつけない Description: Cognito callback URL Type: String Default: https://example.com # Resources Resources: # Cognito関連リソース ## Cognito User Pool CognitoUserPool: Type: AWS::Cognito::UserPool Properties: UserPoolName: pathauth-cognitouserpool UserPoolTier: PLUS ### Cognitoのプラン DeletionProtection: INACTIVE ### 検証のため(削除できるように) UserPoolTags: Name: pathauth-cognitouserpool ## Cognito User Pool Client CognitoUserPoolClient: Type: AWS::Cognito::UserPoolClient Properties: ClientName: pathauth-cognitouserpool-client UserPoolId: !Ref CognitoUserPool GenerateSecret: false AllowedOAuthFlowsUserPoolClient: true AllowedOAuthScopes: - openid AllowedOAuthFlows: - code CallbackURLs: - !Ref CognitoCallbackURL SupportedIdentityProviders: - COGNITO ExplicitAuthFlows: - ALLOW_USER_SRP_AUTH ## Cognito User Pool Domain CognitoUserPoolDomain: Type: AWS::Cognito::UserPoolDomain Properties: UserPoolId: !Ref CognitoUserPool Domain: pathauth-userpool-domain ManagedLoginVersion: 2 ## Cognito Managed Login Page CognitoManagedLogin: Type: AWS::Cognito::ManagedLoginBranding Properties: UserPoolId: !Ref CognitoUserPool ClientId: !Ref CognitoUserPoolClient UseCognitoProvidedValues: true # Outputs Outputs: CognitoUserPoolId: Description: Cognito User Pool ID Value: !Ref CognitoUserPool CognitoUserPoolClientId: Description: Cognito User Pool Client ID Value: !Ref CognitoUserPoolClient CognitoUserPoolDomain: Description: Cognito User Pool Domain Value: !Sub "pathauth-userpool-domain.auth.${AWS::Region}.amazoncognito.com" Lambda@Edgeのコード準備 続いて、Lambda@Edgeにデプロイするためのcognito-at-edgeを準備します。 事前にバージニア北部リージョンに、完成したコードを格納するためのバケットを用意しておきます。バケット名以外の設定はデフォルトで問題ありません。(今回は「202509-cognito-at-edge-bucket」を作成しました。) 続いて、任意のコードエディタなどで、以下のファイルを作成し、「index.js」という名前で保存します。 userPoolId、userPoolAppId、userPoolDomainについては、先ほど作成したスタックの出力を参照してください。 const { Authenticator } = require('cognito-at-edge'); const authenticator = new Authenticator({ // Replace these parameter values with those of your own environment region: 'ap-northeast-1', // user pool region userPoolId: 'ap-northeast-1_abcdefgh1', // user pool ID userPoolAppId: '1examp1ec1ient1d', // user pool app client ID userPoolDomain: 'pathauth-userpool-domain.auth.ap-northeast-1.amazoncognito.com', // user pool domain }); exports.handler = async (request) => authenticator.handle(request); 作成が完了したらCloudShellで以下のコマンドを実行します。 [ ]内については適宜作業・ご自身の環境に置き換えてください。 [index.jsをアップロード] mkdir cognito-at-edge cd cognito-at-edge npm install cognito-at-edge mv ~/index.js ./ npx esbuild --bundle index.js --minify --outfile=bundle/index.js --platform=node cd bundle zip -r lambda-edge-auth.zip ./index.js aws s3 cp lambda-edge-auth.zip s3://[宛先S3バケット名]/lambda-edge-auth.zipさ 最終的にS3に「lambda-edge-auth.zip」というファイルがアップロードされていればOKです。 CloudFront・Lambda@Edgeのデプロイ Cognitoと同じようにCloudFormationでデプロイします。 バージニア北部リージョンでデプロイ するようにしてください。 パラメータについては、それぞれ作成したバケット名、Lambda@Edgeで用いるコードのファイル名(上記に従っていればlambda-edge-auth.zipになっているはずです。)を入力してください。 AWSTemplateFormatVersion: 2010-09-09 Description: Create CloudFront and Lambda@Edge. Please deploy at us-east-1 region. Transform: AWS::Serverless-2016-10-31 # Mappings Mappings: # CachePolicyIdは以下の記事を参照 # https://docs.aws.amazon.com/ja_jp/AmazonCloudFront/latest/DeveloperGuide/using-managed-cache-policies.html CachePolicyIds: # Recommended for S3 CachingOptimized: Id: 658327ea-f89d-4fab-a63d-7e88639e58f6 # Parameters Parameters: # コンテンツの格納先(S3バケット名) OriginS3Bucket: Description: S3 bucket for contents Type: String Default: s3-bucket-name-for-contents # Lambda@Edgeのコード格納先(S3バケット名) LambdaEdgeCodeS3Bucket: Description: S3 bucket for Lambda@Edge code Type: String Default: s3-bucket-name-for-cognito-at-edge # Lambda@Edgeのコード格納先(S3キー名) LambdaEdgeCodeS3Key: Description: S3 key for Lambda@Edge code Type: String Default: lambda-edge-auth.zip # Resources Resources: # CloudFront周辺リソース ## CloudFront Distribution CloudFrontDistribution: Type: AWS::CloudFront::Distribution Properties: DistributionConfig: Origins: - Id: "S3Origin" DomainName: !Sub "${OriginS3Bucket}.s3.ap-northeast-1.amazonaws.com" S3OriginConfig: OriginAccessIdentity: "" OriginAccessControlId: !Ref CloudFrontOriginAccessControl DefaultCacheBehavior: TargetOriginId: "S3Origin" ViewerProtocolPolicy: redirect-to-https # Recommended for S3 CachePolicyId: !FindInMap [CachePolicyIds, CachingOptimized, Id] # cognito-at-edge LambdaFunctionAssociations: - EventType: viewer-request LambdaFunctionARN: !Ref LambdaEdgeFunctionForAuth.Version Enabled: true IPV6Enabled: false Tags: - Key: Name Value: !Sub "pathauth-cloudfront" ## CloudFront OriginAccessControl CloudFrontOriginAccessControl: Type: AWS::CloudFront::OriginAccessControl Properties: OriginAccessControlConfig: Description: "Origin Access Control For S3 Static Website Hosting" Name: !Sub "pathauth-s3oac" OriginAccessControlOriginType: s3 SigningBehavior: always SigningProtocol: sigv4 # Lambda@Edge周辺リソース ## Lambda@Edge Function for authentication LambdaEdgeFunctionForAuth: Type: AWS::Serverless::Function Properties: FunctionName: !Sub "pathauth-lambdaedge-auth" AutoPublishAlias: pathauth Handler: index.handler Runtime: nodejs22.x MemorySize: 128 Timeout: 5 CodeUri: Bucket: !Ref LambdaEdgeCodeS3Bucket Key: !Ref LambdaEdgeCodeS3Key Role: !GetAtt RoleForLambdaEdge.Arn ## CloudWatch Log Group for Lambda@Edge ### 実際の実行ログは各エッジロケーションに作成される LogGroupForLambdaEdge: Type: AWS::Logs::LogGroup Properties: LogGroupName: !Sub "/aws/lambda/${LambdaEdgeFunctionForAuth}" RetentionInDays: 30 ## IAM Role for Lambda@Edge RoleForLambdaEdge: Type: AWS::IAM::Role Properties: RoleName: cognito-at-edge-role AssumeRolePolicyDocument: Statement: - Effect: Allow Principal: Service: - lambda.amazonaws.com - edgelambda.amazonaws.com Action: sts:AssumeRole Path: / ManagedPolicyArns: - arn:aws:iam::aws:policy/service-role/AWSLambdaBasicExecutionRole - !Ref PolicyForLambdaEdge ## IAM Policy for Lambda@Edge PolicyForLambdaEdge: Type: AWS::IAM::ManagedPolicy Properties: ManagedPolicyName: cognito-at-edge-policy Description: Policy for Lambda@Edge Function Path: / PolicyDocument: Version: "2012-10-17" Statement: - Effect: Allow Action: - iam:CreateServiceLinkedRole Resource: "*" - Effect: Allow Action: - lambda:GetFunction - lambda:EnableReplication Resource: ### Allow access to all Lambda functions in the account at the specified region(us-east-1) - !Sub "arn:aws:lambda:us-east-1:${AWS::AccountId}:function:*:*" - Effect: Allow Action: - cloudfront:UpdateDistribution Resource: ### Allow access to all CloudFront distributions in the account - !Sub "arn:aws:cloudfront::${AWS::AccountId}:distribution/*" コンテンツバケットのバケットポリシー設定 コンテンツバケットにCloudFrontからのアクセス(OAC)を許可します。 まずは、CloudFrontの当該ディストリビューションを開き、「オリジン」タブを選択します。 「S3Origin」を選択し、「編集」を押下します。 画面中段にあるOACに関する設定項目から、「ポリシーをコピー」を押下し、その下にある「S3 バケットアクセス許可に移動」を押下します。 すると、コンテンツバケットのページが開くので、「アクセス許可」からバケットポリシーを変更します。 これにより、CloudFrontの指定ディストリビューションからオブジェクトの取得が許可されます。 CognitoのコールバックURL変更 今回は検証のため、CloudFrontのデフォルトドメイン(*.cloudfront.net)を使用します。 それに対応するよう、CognitoのコールバックURLを変更します。今回はコンソールより手動で変更します。 Cognitoのユーザープールを開いたら、「アプリケーションクライアント」から作成したアプリケーションクライアント(pathauth-cognitouserpool-client)を開きます。 次に、「ログインページ」タブを押下し、「マネージドログインページの設定」を編集します。 編集画面の一番上にある「許可されているコールバックURL」に、CloudFrontのURLを貼り付けます。 URLの最後に” / “をつけないようご注意ください。 変更が完了したら保存します。 動作確認 では、きちんと認証機能が働くか確認をします。 任意のWebブラウザを開き、CloudFrontのドメイン名と、表示させたいコンテンツのパス(例:examp1edoma1n.cloudfront.net.index.html)を入力しアクセスします。 きちんとサインインページに遷移しましたね。実際にユーザー名などを入力しサインインすると… コンテンツがしっかり表示されました。 今回は、あらかじめCognitoのユーザーをコンソールより作成しています。   検証 …ここからが本番です。 特定のパスのみ認証を設定していきます。今回は以下のようなフォルダ構成を仮定し、limited配下のみ公開に制限をかけます。 コンテンツバケット ├ limited/ │ ├ index.html │ └ style.css ├ index.html └ style.css CloudFrontディストリビューションのビヘイビア編集 CloudFrontのコンソール画面から「ビヘイビア」タブを選択し、「ビヘイビアの作成」を押下します。 パスパターンに制限をかけたいパスにアスタリスクを追加(/limited*)、オリジンには宛先のS3オリジン(S3Origin)を選択し、他の箇所はデフォルトで「Create behavior」を押下します。 次に、デフォルトビヘイビア(*)を編集します。編集画面の一番下、「関数の関連付け」を「関連付けなし」に設定します。 CognitoのコールバックURL編集 CognitoのコールバックURLをパスつきのURLに変更します。 詳細な手順は事前準備のときとほとんど同じなので省略しますが、以下のようになっていればOKです。 Lambda@Edgeのコード編集 Lambda@Edgeのコードを特定のパスに対してのみ認証できるよう変更します。 先ほど作成したindex.jsに一部追記をします。 const { Authenticator } = require('cognito-at-edge'); const authenticator = new Authenticator({ // Replace these parameter values with those of your own environment region: 'ap-northeast-1', // user pool region userPoolId: 'ap-northeast-1_abcdefgh1', // user pool ID userPoolAppId: '1examp1ec1ient1d', // user pool app client ID userPoolDomain: 'pathauth-userpool-domain.auth.ap-northeast-1.amazoncognito.com', // user pool domain parseAuthPath: '/limited', // 追記① cookiePath: '/limited' // 追記② }); exports.handler = async (request) => authenticator.handle(request); 追記が終わったら先程と同じようにCloudShellからzip化し、S3にアップロードします。名前は変えておくと分かりやすいかと思います。今回は「 lambda-edge-auth-path.zip 」としました。 Lambda@Edgeの更新 作成したコードでLambda@Edgeを更新します。今回はコンソールより更新します。 まず、先程アップロードしたS3バケットから、当該コンテンツのオブジェクトURLをコピーします。 次にLambdaのコンソールから、認証に用いているLambda(pathauth-lambdaedge-auth)を探し開きます。 コード編集画面の右上にある「アップロード元」から「Amazon S3の場所」を選択し、先程コピーしたURLを貼り付けます。 関数の更新が完了したら、Lambda@Edgeにデプロイします。 右上の「アクション」から「Lambda@Edgeへのデプロイ」を選択します。 ディストリビューションは作成したもの、キャッシュ動作には先程作成したビヘイビア(/limited*)を選択します。CloudFrontイベントについては「ビューアーリクエスト」に変更してください。 最後に一番下の「Lambda@Edge へのデプロイを確認」に✅️を入れてデプロイをします。 以上で変更作業は完了です。 動作確認 早速想定の挙動になるか見ていきます。 まずは、公開されているコンテンツ(ルートのindex.html)にアクセスします。 問題なく表示されました。認証もありません。 では、次に限定コンテンツ(/limited/index.html)にアクセスします。 きちんと認証画面に移りましたね!良かったです。認証情報を入れてサインインしてみると… いかにも特別感のあるページが表示されました。ありがとう、チャッピー。 メンバー数やコンテンツ数などそれっぽく出ていますが、中身は空っぽです。   終わりに 事前準備が少し多かったので長くなってしまいましたが、パスごとの認証は思ったよりもシンプルな手順でできたので良かったです。 本記事の内容が、どなたかの参考になることを願っております。 余談ですが、先日生まれて初めてオイルマッサージなるものを体験してきました。 担当の方に「全身ボロボロですね…」と遠回しに言われ少し傷ついたので、折を見て通おうかなと思ったりしています。
はじめに こんにちは。SCSKの末本です。 2025年8月5日、6日に東京ビッグサイトで開催された、Google Cloudが主催する日本最大のクラウドイベント「Google Cloud Next Tokyo ’25」に参加してきました。 専門家でなくても誰もが当たり前のようにAIを使いこなし、ビジネスや日々の業務を加速させる、そんな未来がすぐそこまで来ていることを実感した一日でした。 本記事では、イベントの概要から特に印象に残ったセッションについてレポートします。 ※弊社も登壇およびブース出展しておりましたが、本レポートでは割愛いたします。 Google Cloud Next Tokyo 25  とは、開発者から経営者までクラウドテクノロジーに関心のある幅広い層の方々を対象とした年に一度のイベントです。 今年は「AI for everyone」をテーマに150を超えるセッションや展示ブースが用意され、会場は多くの参加者の熱気に包まれていました。Googleの最新テクノロジーに触れられるだけでなく、業界をリードする企業の導入事例や、Googleのエンジニアと直接交流できる貴重な機会となっています。 ▼会場 (東京ビッグサイト)      なぜ今、Google Cloud なのか? 生成AIの登場により、私たちの働き方は大きな変革期を迎えています。 日々の情報収集、資料作成、アイデア出しといった業務をもっと効率化し、より創造的な仕事に時間を使いたい・・・そう考えたとき、Googleが提供するGeminiをはじめとしたAIソリューションは、最も身近で強力な選択肢の一つです。 今回のNext Tokyoでは「業務効率化」「生産性向上」を自分のテーマとして、最先端のAI活用法を学び、自分の業務にどう落とし込むかのヒントを得たいと考えて会場へ向かいました。   DAY2 イベントレポート 数多くのセッションの中から、個人的に興味のあるテーマ(業務効率化・生産性向上)の観点で、特に学びが深かった2つのセッションをレポートします。 もう手放せない!Gemini の NotebookLM、Deep Research、Canvas で思考を加速 AIの進化がビジネスの風景を塗り替える中、Googleの最先端AIモデルである Gemini は、単なる情報検索やコンテンツ生成を超え、私たちの「考える」プロセスそのものを変革する可能性を秘めています。 本セッションでは、ビジネスパーソン、研究者、開発者、そしてあらゆる分野の意思決定者が直面する複雑な課題に対し、Gemini の革新的な機能群である Deep Research、NotebookLM、そして Canvas を活用した新しい情報活用ワークフローが紹介されました。 Deep Research あるテーマについて、Web上の膨大な情報から信頼性の高いソースを引用しつつ、多角的な視点を提供してくれるリサーチツールです。複雑な調べものにかかる情報収集の時間と手間を大幅に短縮し、質の高いインプットを可能にします。 NotebookLM ユーザが提供した情報源(ソース)に基づいて応答する、AIを活用したリサーチ兼ライティングアシスタントです。 ドキュメントやウェブサイトのURLを アップロードすると、 NotebookLMはその情報だけを学習データとして扱います。 これにより、インターネット上の不確かな情報に影響されず、手元にある資料に基づいた正確な要約の作成、専門的な質問への回答、アイデアの創出などが可能になり、 リサーチや学習の精度、スピードを飛躍的に高めてくれます。 また学習ソースが限定されておりハルシネーションが起きにくいこと、さらに音声出力が可能という特徴もあります。 Canvas 与えられた情報について整理し、文章やコードをアウトプットします。生成された内容を手軽に修正できるため、Geminiと対話しながら思考を整理・発展させることができ、コンテンツの質を高めていくことができます。 これらの機能は単体でも強力ですが、組み合わせて活用することで、情報収集からアウトプットまでの 一連のワークフローを劇的に変える力を持っています。 Gemini で変革!投資家のためのニュース革命 〜第 3 回生成 AI Innovation Awards 最優秀賞〜 こちらは、生成AIの具体的なビジネス活用事例として非常に興味深いセッションでした。 生成AI Innovation Awards は、Google Cloudが主催する、生成AI技術の活用を通じてビジネスの課題解決や革新的なアプローチを実現した事例を表彰するイベントです。 企業の生成AIを活用した優れた取り組みを発掘し、広く共有することを目的としており、 生成AIの進化とともに注目度が高まっています。 第3回で最優秀賞を受賞したこの事例では、株式会社SBI証券がAlpacaTech株式会社と開発した、 投資情報サービス「朝刊・夕刊」 が紹介されました。 Geminiを活用して、投資家向けのニュース分析サービスを構築 したというものです。   日々配信される膨大な経済ニュースや決算情報を、人間がすべて追いかけるのは不可能です。 このサービスでは、Geminiがリアルタイムでニュースを分析し、 「注目度」や「重要度」でスコアリング 。好材料・悪材料となる銘柄を自動で選定し、当日の日本株の見通し・相場を投資初心者にも分かりやすいように要約したまとめ記事を提供します。 この事例の核心は、 人間では不可能な規模の情報処理をAIに任せ、人間はより高度な分析と最終判断に集中する という役割分担を明確にしている点だと思いました。 これは金融業界に限った話ではなく、あらゆる業界でビジネスの質とスピードを両立するために活用していけるのではと思いました。 参考: 第3回 Google Cloud 生成 AI Innovation Awards 最終審査 & 結果発表 最後に 一日を通して、非常に多くの刺激と学びを得ることができました。 私自身は生成AIの活用方法を模索中ですが、 「AIと働く」スタイルを実践し、 日々の業務をより効率化していきたいです。 最後までお読みいただきありがとうございました!
こんにちは。SCSK星です。 ServiceNowの更新セットについて書きたいと思います。 最近更新セットを使用していなかったお客様に「更新セットについて教えてほしい」とご依頼いただきまして、 折角なのでその時の資料を使ってまとめておこうと思います。   更新セットとは? 更新セットは英語環境では「Update Sets」と表記されます。 イメージとしては「他環境へ作成データや更新データを移行するための箱のようなもの」になります。 更新セットを用いてリリースを行うことで、複数の更新データを一度に反映できる、2つの環境でSysIDが揃うなどのメリットがあります。 開発環境に反映した作成データや更新データを更新セットに格納し、移送先環境へ適用することで変更作業が完了いたします。   更新 セット の使い方 更新セット初心者向けに少し細かく手順を記載していこうと思います。 更新セットの移送方法をもっとわかりやすく、簡潔に知りたい方は記事をご参考ください。 https://blog.usize-tech.com/servicenow-updateset-guide/ 開発環境での手順 まず開発環境で作業を行います 1.メニューから システムアップデートセット>ローカル更新セット を選択します。 2.作成した更新セットのリストが表示されますので、右上の新規ボタンを押下します。 3.作成する更新セットの名前を付けます。(名前に日付や説明欄に詳細などを入れるとわかりやすいです) 4.名前付けしたら「送信して選択」を押下します。 5.画面上部のバナーにある地球儀のようなマークから更新セットを選択していることを確認いたします。 6.更新セットが選択された状態(バナーの地球儀マークが赤い状態)で移行先環境へ移行したいデータの作成・更新を行います。 ※更新セット選択中は更新データが自動的に記録されます。更新セットを選択した状態で関係のない作業を行わないでください。 7.移行したいデータの作成・更新が完了したら、更新セットを外します。(バナーの地球儀マークから更新セットを「Default」に変更するなど) 8.メニューから システムアップデートセット>ローカル更新セット を選択します。 9.移行したいデータの作成・更新が完了した更新セットを開き、ステータスを「完了」に変更し保存する。 10.ステータスを「完了」にし保存すると、下部の関連リンクに「XMLにエクスポート」というリンクができるので押下する。 11.XMLファイルがダウンロードされるので、移行先環境適用に向けて保存しておく。 (sys_remote_update_set…という名前でダウンロードされます。わかりやすいようにファイル名の変更は可能です。) 移行先環境での手順 XMLファイルの作成が完了したら移行先環境で作業を行います 1.メニューから システムアップデートセット>取得済み更新セット を選択します。 2.移行先環境へリリースした更新セットのリストが表示されますが、リスト下部にある関連リンクまでスクロールし「XML から更新セットをインポート」を押下する。 3.XMLのインポート画面に遷移するので、「ファイルの選択」を押下する。開発環境で作成しエクスポートしていた    XMLファイルを選択して「アップロード」を押下する。 4.アップロードが完了するとステータスが「ロード完了」の状態で更新セットが追加される。 ※この状態ではまだ開発環境で行った変更は反映されておりません。 5.追加した更新セットを開き、「更新セットのプレビュー」を押下する。 ※プレビューを行ったときに、エラーや警告が出力される場合がある。 エラーが出力された場合はそれらをレビューする。(後述:注意点⑤) 6.プレビューが完了したら「更新セットのコミット」を押下する。 ※コミットが完了すると更新セットに入れていた作成・更新データが移行環境へ反映されます。     更新セットを使うときの注意点 注意点①:全ての作成データ・更新データが更新セットに格納されるわけではない 開発環境で行った 更新の全てが更新セットに保存されるわけではありません 。 【更新セットに格納されないデータ】 ・データレコードの作成や更新は更新セットに格納されません。 例:インシデントレコードの新規作成、編集。サービスカタログでの要求の作成、編集など ・ユーザやグループの作成や更新 開発環境で作成したユーザやグループの情報は更新セットに格納されません。 【その他追加されないデータ】 ・タスク ・変更されたCI ・スケジュール ・スケジュール設定済みジョブ ・ホームページ これらを移行したい場合は個別にXMLエクスポートする必要があります。 注意点 ②: 更新セットを作成したバージョンと更新セットを適用する バージョンが同一である必要がある。 更新セットを作成した時の開発環境バージョンとリリースするときの移行先環境の バージョンが一致している必要 があります。 バージョンアップでデータを退避するために更新セットを使用する場合はご注意ください。     注意点③: 1つの更新セットに更新データをたくさん入れることは非推奨。 1つの更新セットに全ての更新データを格納しリリースするとわかりやすくてよいですが、1つの更新セットに格納する更新データは「50~100件程度」までが推奨されてます。100件を超える場合は更新セットを分割し開発・リリースする必要があります。 更新データが100件を超えてしまうとパフォーマンス低下やマージ失敗につながる可能性がある ことがServiceNow公式から周知されています。   注意点④:更新 データを更新セットに格納するときや、更新セットをリリースするときは適用順序を意識する必要がある。 注意点③で記載した通り、更新データが100件を超えるようなリリースする場合は、更新セットは複数個にすることが推奨されています。 これらを移行先環境へリリースする際に適用順序を意識する必要があります。 依存するデータの リリース順を間違えると、プレビューの際にエラーが発生 します。 こちらの回避策は後述の「バッチ機能について」をご覧ください。 注意点⑤: 基本的に更新セットを プレビューした際は エラー が 発生 する 。 多数のデータを格納してリリースすると、気を付けていてもエラーは発生するものとご認識ください。 エラーの基本的な対応を記載します。 対処方法についてはこちらもご参考ください→ リモート更新セットのプレビュー まずプレビューの際に発生したエラーの「説明」でどのようなエラーか把握します。 (※画像の例は更新セット内の更新より新しい更新が既に移行先環境にある場合に出るエラーです) 次に「使用可能なアクション」でどのような更新なのかを判断し、更新セットの内容を適用する/適用しないを選択します。 ○ローカルと比較 現在の環境内データ(ローカル)と更新セットのデータ(リモート)を比較することができます。 ○ローカルのレコードを表示 現在の環境内の該当データを表示することができます。 ○ローカルの更新を表示 現在の環境内の該当データをXML形式で確認することができます。 これらの機能を使用し、どのような更新か、リリースすべきか保持すべきかを判断します。 判断後は以下のどちらかを選択することでエラーを取り除くことができます。 ○リモートの更新を承認 更新セットのデータを適用いたします。 ○リモートの更新をスキップ 更新セットのデータを適用せずに、現在の設定を維持します。 「リモートの更新」「リモートの更新をスキップ」を承認間違って押下してしまってもコミットするまでは環境に反映されません。 誤って押下してしまった場合は「プレビューの再実行」ボタンで再びエラーを表示させてください。   バッチ機能について バッチ機能は複数の更新セットをひとまとまりにして疑似的に1つの更新セットとして扱うことができる機能です。 注意点④で説明したリリース順を間違えると、にエラーが発生する問題を解決することができます。 バッチの適用方法 1.開発環境でメニューから システムアップデートセット>ローカル更新セット を選択します。 2.親とする更新セットを新規作成、またはバッチとしてまとめたい更新セットの中から一つ決定します。 3.親の更新セットも含めバッチとしてまとめたい更新セットのステータスを全て「完了」に変更します。 4.バッチとしてまとめたい更新セットの一つを開きます。 5.更新セットの「親」フィールドを選択し、親の更新セットを選択します。 6.他の更新セットの「親」フィールドにも同じ親の更新セットを設定し、バッチとしてまとめたい更新セットのすべてが一つの共通の親を持つように設定します。 7.親として設定した更新セットを開きます。 8.関連リンクの「更新セットバッチをXMLにエクスポート」を押下することで、子の更新セットのデータも含めたデータをXMLファイルとしてダウンロードします。 9.「移行先環境での手順」と同様の手順で移行先環境へダウンロードしたXMLファイルを適用します。 ※「結合」という機能はバッチとは異なります。機能的には類似しておりますがバッチの方が新しい機能であり推奨されております。   終わりに こちらはあくまで更新セットの簡単な説明および使用手順になります。 更新セットのより詳しい説明はServiceNow公式ドキュメントをご覧ください。
皆さま、はじめまして。2025新人のkhaleedと申します。 新人研修も終盤に差し掛かっており、配属後の業務についていけるか日々不安を感じながらも、学びの機会を大切に過ごしています。 本業はセキュリティ関連の部署に携わる予定ですが、自己研鑽の一環としてAWS(Amazon Web Services) にも触れてみています。AWSには非常に多くのサービスがあり、調べれば調べるほど奥が深く、「これは一体どんな場面で使うんだろう?」と疑問に思うことも少なくありません。 そこで今回は、機密情報を安全に管理できる「AWS Secrets Manager」について、自分なりに調べた内容をまとめてみました。まだ勉強中の身ではありますが、同じようにAWSを学び始めた方にとって少しでも参考になれば幸いです。 AWS Secrets Managerとは 今回、勉強しようと思った背景は、DBにおいて認証情報を自動でローテーションしてくれるサービスとして、AWS Secrets Managerが紹介されていたことです。 Managerっていうからには、何かを自動化してくれるマネージドサービスなのかな? SecretsをManageするんだから、機密情報を守ってくれる的な。といったイメージを勉強前はもっていました。 概要 AWS Secrets Managerとは、各種AWSサービスやオンプレミスへのアクセスに必要な機密情報を管理してくれるサービスです。 具体的には、 認証情報(ID、パスワード) APIキー OAuthトークン(動的な認証情報) etc… といった機密情報を管理、取得、ローテーションしてくれます。また、誰がどの機密情報にアクセスしたかのログも取得することができます。 続いて、認証情報の自動ローテーションについても追加で調査しました。 AWS Secrets Managerを用いた認証情報の自動ローテーション 今回は例として、データベースの認証情報をローテーションする例を考えます。 1. 認証情報を登録 まず、接続対象となるDB、DBユーザー名、DBパスワードなど各種認証情報を登録します。 2. 自動ローテーションを有効化 続いて自動ローテーションを有効化します。この時、ローテーション期間も設定することができます。 ローテーションの期限になると、後述するLambda関数が呼び出され、自動的に認証情報が変更されます。 3. Lambda関数を登録 最後に、このシークレットにLambda関数をアタッチします。 Lambda関数なんて難しくて書けないよ!という方も、指定すればAWS側が自動で関数を作成してくれるみたいです。   実際にやってみた 文字面だけだとほんとにできるのか不安だったので、実際にやってみました。 DBはこちら↓ 認証情報を登録 自動ローテーションを有効化 & Lambda関数登録 結果 ローテーション前↓ ローテーション後↓ パスワードがしっかり変更されているのが分かります。 デフォルトのLambda関数だとタイムアウトが30秒と短すぎて変更する前にエラー吐いちゃうので、手動でタイムアウトを1分30秒とかにすると良さそうです。   勉強してみて 機密情報を自動でローテーションしてくれるのは、アクセス管理の手間が省けて便利そう。 これからも手を動かして検証できたら嬉しいです。   参考文献 What is AWS Secrets Manager? – AWS Secrets Manager Amazon RDS、Amazon Aurora、Amazon DocumentDB、Amazon Redshift のシークレットで自動ローテーションを設定にする – AWS Secrets Manager
皆さんこんにちは 気が付いたら誕生日まで残り一か月、どうも。いとさんです。 誕生日といえば、ホールケーキですね。 小さいときは丸ごと一つ食べるのが夢で、中学生の時に一度だけですが小さいホールケーキを丸ごと一つ買ってもらいました。 当時は運動部だったので余裕で食べきった記憶があります。今はアフタヌーンティーでおなかいっぱいです さて今回はAWS Lambdaを使ってAWS Security Hub CSPMの検出結果を日本語で通知する方法について調査・実装してみました。 はじめに 従来、本サイトの運用ではAWS Security Hub CSPMで検出があった際にをAmazon EventBridge ⇒ Amazon SNS経由でメールで通知しておりました。 特に加工していなかったこともあり、以下のように検出結果がJSON形式で送られてきていました。 今回は、この通知を日本語でわかりやすく、かつ通知が完了したらNOTIFED(確認済み)にするように構築していこうと思います。   アーキテクチャ図 設定方法 前提として AWSアカウントが有効 Security Hub CSPMが有効化済み 通知先メールアドレスが決まっている IAMユーザに十分な権限があること(Amazon SNS、Amazon Translate, Amazon EventBridgeの呼び出し) 上記の内容が設定されていることが必要です。 使用するIAMユーザーに十分な権限が設定されていな場合は、 IAM>ロール>ロールの作成から、 ユースケースをAWS Lambdaに設定し必要な権限を付与、ロールを作成します。   1. SNSトピックの作成 AWSコンソール → SNS → トピック → 「新しいトピックを作成」 名称例: securityhub-notify-jp この時タイプはスタンダードに設定してください(サブスクリプションをEメールで設定するため) 作成されたトピックのarnを控えます(例:arn:aws:sns:ap-northeast-1:123456789012:securityhub-notify-jp) 2. サブスクリプションの作成 SNSが送られる方法を設定します。 サブスクリプション>サブスクリプションの作成 先ほど控えたトピックのarnを選択しプロトコルをEメールで設定します。 エンドポイントは送信先に設定したいメールアドレスを記入します。 以下のメールが送られてくるので『Confirm subscription』をクリックしステータスを確認済みにします。   3. Lambda関数(日本語化+SNS Publish)の作成 Lambda関数の設定を行います。 以下のように設定します。 関数名:(例:SecurityHubJapaneseNotify) ランタイム: Python3.13 実行ロール: 既存のロールを使用するを選択し、SNS Publish、Translate権限のあるLambda関数用のIAMロールを選択します コード例:  import boto3 import os from datetime import datetime def lambda_handler(event, context): sns = boto3.client('sns') translate = boto3.client('translate') securityhub = boto3.client('securityhub') findings = event['detail'].get('findings', []) print("取得したfindings:", findings) if not findings: print("No findings detected.") return {'status': 'No findings'} for finding in findings: print("Processing finding:", finding.get('Id', 'No Id')) if finding.get('Workflow', {}).get('Status') != 'NEW': print("Skipping finding (not NEW):", finding.get('Id', 'No Id')) continue # Workflow Statusを NOTIFIED に変更 sh_response = securityhub.batch_update_findings( FindingIdentifiers=[ { 'Id': finding['Id'], 'ProductArn': finding['ProductArn'] } ], Workflow={'Status': 'NOTIFIED'} ) print("SecurityHub update response:", sh_response) # 2つ目の処理: 詳細な情報を含むSNS通知 (CRITICAL/HIGHのみ) en_severity = finding.get('FindingProviderFields', {}).get('Severity', {}).get('Label', 'UNKNOWN') if en_severity in ['CRITICAL', 'HIGH']: en_title = finding.get('Title', 'No Title') en_desc = finding.get('Description', 'No Description') en_region = event.get('region', '不明') en_account = event.get('account', '不明') en_time = finding.get('FirstObservedAt', event.get('time', '不明')) en_arn = finding.get('ProductFields', {}).get('Resources:0/Id', '不明') remediation = finding.get('Remediation', {}).get('Recommendation', {}).get('Text', '') jp_title = translate.translate_text(Text=en_title, SourceLanguageCode="en", TargetLanguageCode="ja")['TranslatedText'] jp_desc = translate.translate_text(Text=en_desc, SourceLanguageCode="en", TargetLanguageCode="ja")['TranslatedText'] jp_severity = '重大' if en_severity == 'CRITICAL' else '高' try: jp_time = datetime.strptime(en_time[:19], "%Y-%m-%dT%H:%M:%S").strftime("%Y年%m月%d日 %H時%M分%S秒") except Exception: jp_time = en_time jp_remediation = translate.translate_text(Text=remediation, SourceLanguageCode="en", TargetLanguageCode="ja")['TranslatedText'] if remediation else "対応情報なし" message_detailed = f"""【SecurityHub検出通知】 検出タイトル: {jp_title} 説明: {jp_desc} 重大度: {jp_severity} 発生時間: {jp_time} リージョン: {en_region} AWSアカウント: {en_account} 関連リソースARN: {en_arn} 推奨対応: {jp_remediation} -- この通知はAWS Security Hubにより自動送信されました。 """ sns_response_detailed = sns.publish( TopicArn="トピックのARN", # 適切なARNに置き換えてください Subject="SecurityHub検出通知", Message=message_detailed ) print("SNSへ日本語通知を配信しました\n", message_detailed) else: print(f"Severity {en_severity} is not CRITICAL or HIGH. Skipping detailed notification.") print("All findings processed.") return {'status': 'Complete'}  細かい指定の際にtypoが出来ないように気をつけます。 4. EventBridgeルールの設定 AWSコンソール → Amazon EventBridge → ルール → 「ルールを作成」します 名前例: SecurityHubFindingsJPNotify イベントバス:デフォルト イベントパターンを作成します ターゲットタイプ:「Lambda関数」  コード例           { "source": ["aws.securityhub"], "detail-type": ["Security Hub Findings - Imported"], "detail": { "findings": { "Compliance": { "Status": ["FAILED", "WARNING"] }, "RecordState": ["ACTIVE"], "Workflow": { "Status": ["NEW"] }, "Severity": { "Label": ["HIGH", "CRITICAL", "MEDIUM", "LOW", "INFORMATIONAL"] } } } } ターゲットを選択します ターゲットを選択:Lambda関数 ターゲットの場所:このアカウントのターゲット 関数:先ほど作成したLambda関数 実行ロール:SecurityHub CSPMの検出結果を日本語化するために作成したロールを選択 タグは必要に応じて設定します。 レビューと作成を行いルールの作成を押下します。 5. 動作テスト・確認 該当Lambda関数へ移動し 以下のコードを使いテストします。 { "version": "0", "id": "test-id-12345", "detail-type": "Security Hub Findings - Imported", "source": "aws.securityhub", "account": "123456789012", "region": "ap-northeast-1", "time": "2025-09-04T05:58:40Z", "resources": [ "arn:aws:securityhub:ap-northeast-1:123456789012:product/aws/securityhub/arn:aws:securityhub:ap-northeast-1:security-control/EC2.8/finding/finding-id-1" ], "detail": { "findings": [ { "Id": "finding-id-1", "ProductArn": "arn:aws:securityhub:ap-northeast-1:123456789012:product/aws/securityhub", "Title": "Instance Metadata Service is not required.", "Description": "HttpTokens is set to optional.", "Workflow": { "Status": "NEW" }, "FindingProviderFields": { "Severity": { "Label": "HIGH", "Original": "HIGH" } }, "ProductFields": { "Resources:0/Id": "arn:aws:ec2:ap-northeast-1:123456789012:instance/i-0123456789abcdef0" }, "FirstObservedAt": "2025-09-04T05:57:40.923Z", "Remediation": { "Recommendation": { "Text": "Review instance metadata options and update configuration.", "Url": "https://docs.aws.amazon.com/securityhub/latest/userguide/securityhub-controls.html" } } } ] } } テストを押下し成功すると無事以下のメールが届きました。 メールに付属している以下の2つのリンクはサブスクリプション解除と問い合わせのリンクなので間違えて踏まないようにしましょう (チームメンバーが悲しくなります) 失敗するとエラーが起きるので該当箇所を修正します。 後日確認してみると セキュリティの都合上他の範囲をお見せすることは出来ませんが SecurityHubの検証結果が確認作業を行わなくても確認済みになっておりました。(メールは2回目以降のものが多く送られてこなかった)   まとめ 初めてAWS Lambda関数やAmazon Eventbridgeを使いましたが、仕組みを理解すると意外と簡単に構築できました。 細かく出力情報を指定する場合はTypoがないかを都度テストし確認することが大事です。 次はサブスクリプション解除のリンクの踏み間違いを防ぐ方法について調査してみようと思います。 ではでは(@^^)/~~~
こんにちは。SCSKの雪山です。 8/5(火)~8/6(水)に東京ビッグサイトで開催された「 Google Cloud Next Tokyo ’25 」に参加しました!(Day2のみ) 私はこれまでGoogle Cloudを利用したことがなく、、、そのため初心者目線でイベントの概要・感想などをまとめてみました。 利用されている方からすると当たり前の内容も含まれるかもしれませんが、ご容赦ください。 基調講演 事前のセッション登録画面では満席になっていたため立ち見覚悟でしたが、席は先着順だったようで無事座ることができました。 基調講演では、AIを中心としたさまざまなサービスの進化や、各企業の活用事例・実践デモなどが紹介されました。 AIの需要は8年間で約1億倍 になっているとのこと。AIは現代において不可欠なものになっていると改めて感じさせられました。 また、セキュリティについての紹介では、「AIで守る、AIを守る」という言葉がありました。 AIは日々進化していますが、そのAIを利用することなどで攻撃者の技術もより巧妙になっています。Google CloudではAIを用いた様々なセキュリティサービスを提供しており、これらを利用することでシステムを「AIで守る」ことが可能です。また、今回の講演では、モデルの盗難やAIシステムへの脅威を防ぐ「AI Protection」という機能も紹介され、これからは「 AIを守る 」という視点も重要と感じました。 参考: AI Protection の発表: AI 時代のセキュリティ セッション いくつかセッションに参加しましたので、ざっくり内容をご紹介します。 (事前登録がイベント開催間近になってしまい、人気のセッションはすでに満席になっていました。。) 我々は、生成AIアプリを開発するべきなのか 多種多様なAIのサービスが提供されている昨今、自社で生成アプリを開発すべきなのか、というお題のセッションでした。 前半はGoogle Cloudが提供しているAIソリューションの簡単な紹介でした。(Gemini,Gems,NotebookLM,Vertex AI,Google AI Studio,ADK,Model Armor,BigQuery ML…などなど)今や当たり前なのかもしれませんが、多種多様なツールが提供されているなと感じました。 で、本題への回答は、結局 「ケースバイケース」 とのこと。 単純な業務改善が目的:できあいのサービスを利用すべき 時間をかけて作りこんでも、Googleがそれを上回る製品をリリースすることも考えられ、無駄になってしまう可能性があります。また、上述した様々なAIソリューションもあり、既製品で十分対応可能なケースも想定されます。 自社特有のロジックや独自機能との連携が必要:開発を検討 まずは既製品で対応可能か検討し、NGだった場合に開発を検討すべき、とのことでした。Geminiアプリの精度が足りない場合や、より複雑かつ多段な作業をさせたい、セキュリティ要件が厳しい、などのケースが該当します。 要は既製品で可能なことに加え、要件やユースケースをちゃんと整理・検討したうえで開発要否を判断すべき、ということですね。 様々なソリューションが提供されているため、多くの場合は既製品で対応可能ではないかと個人的には思いますが、単純な業務改善でない場合は結局セキュリティ面や独自機能との連携の要件があったりで、開発するという判断になる場合が多いのかなと思いました。 AI時代に必要なセキュリティマネジメントスキル クラウドセキュリティにおいて、Google Cloudの最新のセキュリティプロダクトの紹介と、AIを利用した効率的で安全なセキュリティマネジメントの実現方法についてのセッションでした。 クラウドが主流となりつつある今、AIアシスタントの進化・自律型AIエージェントの登場により、マネジメント業務についても変革が進んでいます。セキュリティマネジメントにもAIをうまく活用すれば、より効率的で安全なマネジメントが可能になります。 ただ、すべてのマネジメントをAIに任せるべきか、というとそうではありません。意思決定や柔軟性など、マネジメントにおいて人間が担うべき領域もあります。そのため、 AIと人間でそれぞれ得意とする領域ごとにうまく役割を分担する 、ということが大切です。 上記のような協働モデルとすることで、24時間稼働の実現・分析・解析スピードの向上・単純作業の自動化などのメリットが生まれます。 一方、この協働モデルには以下のような課題もあります。 AIの情報が常に正しいとは限らず、不正確性を孕んでいる AIが情報を持っていない独自ノウハウや暗黙知が存在する可能性がある 重大な報告相談などのコミュニケーションが減少する可能性がある 1,2はもちろんのこと、3も身近な課題だと感じました。問題に直面し行き詰まってしまった際、最近だと「誰かに相談する」ではなく「まずはAIに質問してみる」という方も多いと思います。そうした場合、「AIとのやり取りだけで自己完結」→「重要な情報共有がされない」→「情報共有不足による二次災害リスク増」という事態につながる可能性があります。AIの積極的な利用は対人コミュニケーションの減少にもつながるため、上記1,2も含め利用者がそういったリスクを理解・意識することが重要だと改めて認識しました。 セッションの後半に、Google Cloudが提供しているセキュリティ管理サービスの紹介がありましたので簡単に紹介します。 Security Command Center :Google Cloud環境全体のセキュリティを一元的に管理・監視するための統合セキュリティプラットフォーム。構成ミスや脆弱性、脅威を自動的に検出し、対応を支援します。また、最上位のティアでは、AWSやAzureなど、他のクラウド環境のセキュリティ情報も統合して監視・管理することも可能です。 Google Security Operations SIEM :あらゆるログデータをリアルタイムで収集、一元管理、分析し、潜在的なサイバー攻撃や脅威を検出するためのソリューションです。 Google Threat Intelligence :Googleが保有する世界最大級の脅威情報や、セキュリティ企業Mandiantの知見を活用し、攻撃者の全体像把握と防御策強化を支援するサービスです。 Google Security Operations SOAR :SIEMが発報したアラート(警告)に対する調査と対応プロセスを自動化・効率化するためのソリューションです。 ブース ブースもいくつか周ったので簡単にご紹介します。 AIバスケットボールコーチ 会場の中央に大きな施設があり、中を見てみるとバスケットボールのコートになっていました。 こちらは「AIバスケットボールコーチ」というもので、シュートを打つとその時の姿勢やボールの起動を分析し、AIがコーチングしてくれる、というものです。 別の方の結果ですが、スコアとともに以下のようなコーチングが表示されていました。想像していたよりも詳細な評価で驚きました。 最近はAIをスポーツの場面で活用する、という動きが活発になってきている印象を受けます。テレビで放送されているスポーツ中継などでもすでに利用されていますが、学校の部活など、より身近なところで利用され始めるのもそう遠くないのかもしれません。 Red Hat 業務でRed Hat社のOpenShiftを利用しているのもあり、雑談のような感じで少し話を聞きました。 AWSのROSA(Red Hat OpenShift Service on AWS)と同等のサービスが、Google Cloudでも「 OpenShift Dedicated 」として提供されていることを、恥ずかしながらこの場で初めて知りました。ただできることはほぼ同じだそうで、既存のクラウド環境や利用したいサービスに応じて選択すべし、とのことでした。 その他、VMWareからの脱却の話などもしましたが、、、ここでは割愛します。 (赤い帽子が当たるくじもあり挑戦しましたがハズレ。ハンカチをもらいました。) Google Workspace活用術 かなりの人だかりができていたので話を聞いてみました。 ANAの開発工場のDX事例の紹介で、従来の紙ベースの運用を、Google Workspaceを利用した電子データベースの運用に切り替えた、という内容でした。 担当の方はITについての知識が全くなかったところから、明示クッカー社のYoutubeで勉強を重ね、自身が主導となってGoogle Workspaceでシステムを構築・移行したそうです。この事例で苦労した点、工夫した点などを対談形式で紹介されていました。 一番苦労したのは、「 利用者の理解を得る こと 」だったそうです。 良くある話だと思いますが、現状のシステムを変えるとなると、組織や現場の理解を得ることは難しいです。特に今回は紙から電子データへの移行ということで、利用者から不満や疑問の声がかなりあったそうです。 こちらの担当の方は、焦らず根気よく会話し、現場も巻き込みながら、「なぜ変えるのか」「何が変わるのか」「どうすればいいのか」といった点を現場の人も含めて説明し続け、かつ何度もハンズオンを実施したそうです。その結果利用者の理解も得つつ移行が実現でき、今では必要不可欠なシステムになっているとのことでした。当たり前のように感じますが、実際にやるのは苦労するんだろうなと思います。 また、Google Cloudはデフォルトで様々な機能を提供しているとのこと。使いこなせば特に機能を追加することなくやりたいことが実現できるそうです。 感想・余談 これまでGoogle Cloudを利用したことがなかったため、イベントに参加しても内容を理解できるか不安でしたが、セッションではサービスの概要から説明してくれるものも多く、割と理解できた気がします。もちろん一部サービス名などは調べないと「?」でしたが、AWSとほぼ同等の機能を提供するものも多く、「これはAWSで言うところのこのサービスか」となるのも大きかったと思います。 軽く調べたところ、Google Cloudの強みはデータ分析とAI・機械学習だそうです。また、上記のGoogle WorkspacesなどのSaaSとの連携性も高いとのことで、これらを利用するのであればGoogle Cloudを選択するのがいいのかもしれません。(詳しい方、その他特長などあれば教えてください) 来年の開催日は 2026/7/30(木)~2026/7/31(金) です!Google Cloudを触ったことがない方でも、新たな知見だったり刺激を得られる場になっているので、興味のある方はぜひ参加してみてください。 以下、余談です。 ・休憩スペースに出店がありました。(チュロスとブリトー)休憩スペースには机と椅子がありましたが、常に満席でした。。 ・当日は酷暑にもかかわらず大盛況だったと思います。(今年の来場者数はまだ発表されていないようでした)
こんにちは SCSK 野口です。 前回の記事 『LifeKeeper の Quorum/Witness (Storage) を導入してみた』 では、 Quorum/Witness(Storage)を実際に導入してみました。 まだ、お読みでない方は上記リンクからご覧ください。 本記事では、Quorum/Witness(Majority)を仮想マシン上のLinux環境に導入してみます。 おさらい 前々回の記事でもお伝えしましたが、Majority構成は多数決判定をするため、 ノードを奇数用意する必要があります。そのため、Majority構成は 3ノード以上から動作可能となってます。 また、majorityモードで使用可能な Witnessモードは以下となります。 ・remote_verify ・none または off QuorumとWitnessの構成が正しくないと、サーバが誤って停止するんだったよね!   導入 今回の構成について 今回も Virtual Box (仮想VM) を使用し、3台のサーバ (ノード) 構成にします。 前回の Active/Standby構成のクラスターに Witnessサーバを追加することによって、多数決を実現します。 3ノード以上の奇数台構成のクラスターであれば、追加のノードを用意する必要はありません。 Majority構成では、Quorum チェックを実行した後に、Witness チェックを実行します。 専用の Witnessノード は、 複数のクラスターで共有することができるわよ! でも、複数のクラスターで同時に障害が発生したら、 通常の構成よりも フェイルオーバーに時間がかかってしまうわ。 だから、専用のWitnessノードは1つのクラスターだけで使用することをお勧めしてるんだね!   動作環境 今回の Quorum/Witness (Majority)を導入した構成は以下となります。   前回の Active/Standby構成に Witnessサーバを導入するわ! 導入する際、Witnessサーバ間でもコミュニケーションパスを作成しなきゃだね! 導入手順 1.Witnessサーバをセットアップし、他のサーバとネットワーク通信ができることを確認します。 ※ サーバセットアップの詳細は省かせていただきます。 新たに追加したWitnessサーバ間とも通信できているか、pingコマンドで疎通確認してみます。 [root@rhel75wit ~]# ping -c 3 rhel75n01 PING rhel75n01 (192.168.56.130) 56(84) bytes of data. 64 bytes from rhel75n01 (192.168.56.130): icmp_seq=1 ttl=64 time=1.13 ms 64 bytes from rhel75n01 (192.168.56.130): icmp_seq=2 ttl=64 time=2.61 ms 64 bytes from rhel75n01 (192.168.56.130): icmp_seq=3 ttl=64 time=1.37 ms --- rhel75n01 ping statistics --- 3 packets transmitted, 3 received, 0% packet loss, time 2004ms rtt min/avg/max/mdev = 1.134/1.707/2.618/0.651 ms [root@rhel75wit ~]# ping -c 3 rhel75n02 PING rhel75n02 (192.168.56.140) 56(84) bytes of data. 64 bytes from rhel75n02 (192.168.56.140): icmp_seq=1 ttl=64 time=0.747 ms 64 bytes from rhel75n02 (192.168.56.140): icmp_seq=2 ttl=64 time=2.91 ms 64 bytes from rhel75n02 (192.168.56.140): icmp_seq=3 ttl=64 time=1.67 ms --- rhel75n02 ping statistics --- 3 packets transmitted, 3 received, 0% packet loss, time 2003ms rtt min/avg/max/mdev = 0.747/1.779/2.914/0.888 ms 2.Witnessサーバにも LifeKeeperをインストールします。 その際、「Use Quorum/Witness functions」を有効にし、Quorum/Wintness パッケージをインストールします。 3.Witnessサーバも含めた、すべてのノード間でコミュケーションパスを作成し、ALIVEであることを確認します。 LKWMCの場合は、左タスクバーの「コミュニケーションパス」を選択します。 コミュニケーションパスのステータスが「ALIVE」であることを確認します。 4.すべてのノードで Quorum/Witnessの設定を行います。(/etc/default/LifeKeeper) 初めに、1号機と2号機を下記のように設定していきます。 次に、Witnessサーバを下記のように設定します。 上記の手順が完了すると、そのクラスターでは Quorum/Witness 機能が動作するようになり、 フェイルオーバーが許可される前に、Quorum チェックおよび Witness チェックが行われます。 前回の Quorum Witness (Storage) と違い、初期化コマンドなどはありません。 Witnessノード は リソースを持たない から、 Quorumチェック と Witnessチェックを実施する必要はないわ!   だから、QUORUM_MODE と WITNESS_MODEを「none」にしてたんだね!   動作確認 1号機 (rhel75n01) 2号機 (rhel75n02) 間のコミュニケーションパスを切断しても Witnessサーバの監視により「お互いが見えている状態か」、実際に確認してみます。 今回、1,2号機間のコミュニケーションパスで利用しているネットワークインターフェース 「 enp0s8(192.168.58.130)」を ifdownコマンドで無効化(シャットダウン)します。 [root@rhel75n01 ~]# ifdown enp0s8 デバイス 'enp0s8' が正常に切断されました。 ifdownコマンドを実行後、「リソースツリー」画面を確認すると、このように表示されます。 コミュニケーションパス (192.168.58.130)のステータスが「DEAD」であることを確認します。 1号機 (rhel75n01) 2号機 (rhel75n02)のログを確認すると、 お互いがサービスを継続していることが分かるメッセージがあります。 Aug 29 18:30:05 rhel75n01 lifekeeper[14514]: NOTIFY:event.comm_down:::010469:We do have quorum on comm_down to rhel75n02, continuing Aug 29 18:30:02 rhel75n02 lifekeeper[10132]: NOTIFY:event.comm_down:::010469:We do have quorum on comm_down to rhel75n01, continuing 最後に 1号機で lcdstatus -eコマンドを実行し、仮想IPリソースが「ISP(正常稼働)」であることを確認します。   まとめ 今回は Quorum/Witness(Majority) を実際に導入してみましたがいかがでしたか。 導入する際は、以下の点に注意してください。 ・導入する前に、ノード数が3以上で奇数になっていることを確認する。 ・導入する際は、Witnessノード含めたコミュニケーションパスを作成し、 Aliveであることを確認する。 ・動作確認では、1,2号機間のコミュパスに障害を起こしても、問題なく稼働し続けることを確認する。  
クラウドって便利だけど油断すると怖いですね。 会社の検証環境でリソースを構築していたところ、気づいたら想定外の料金が発生していました。 原因は、完全に私の知識不足です。何のリソースにどのくらいの料金かかるのか把握せず、好き勝手に作ってたら請求来てしまいました。 結果として、無駄にしてしまった金額は約6万円。会社のお金です。 私が実際にやらかしてしまった無駄に費用がかかったAzureリソースを3つを紹介しつつ、同じ失敗を繰り返さないためのポイントも共有したいと思います。 クラウド初心者の方や、検証環境を扱うエンジニアの方に、少しでも参考になれば幸いです。 Azure Bastion リソースの概要 Azure Bastionは、VMへのRDPやSSH接続を安全に提供するサービスです。 VMの外部公開を避けるために使ってました。 料金 Bastionは、利用中かどうかに関わらず“リソースがある限り”毎時間課金されます。               https://azure.microsoft.com/ja-jp/pricing/details/azure-bastion/ azure.microsoft.com Azure Bastion Basicの料金は約¥28円/時間ですので、一日で約674円、一月で約20,227円かかります。 私がこの料金体系把握してなかった頃に放置してたため、6月頃に19,922円の費用を発生させてしまいました。             対策は、「使い終わったらすぐ消す!!使いたくなったらまた作る!!」です。 Bastionは1分もかからず再作成できるので、節約しましょうねという話でした。   Azure Functions リソースの概要 Azure Functionsはイベント駆動型でコードを必要な時だけ実行できるサーバレスのFaaSです。 同じようなリソースだとAWS Lambdaです。 料金 Functions作成時には、ホスティングオプション選びます。 関数アプリをどのようなインフラ上で実行・スケーリング・課金するかを選ぶためのオプションです。 Azure Functions のスケールとホスティング Azure Functions で関数アプリを実行するホスティング プランを選択するときに考慮する必要があるさまざまなオプションを比較します。 learn.microsoft.com 普通は使った分だけ料金がかかる従量課金プランを選ぶべきなのかもしれませんが、私はインスタンスを持っているだけで課金があるPremiumを選んでしまいました。 本番環境がPremiumだったので検証も同じで設定してしまったからなのですが、Premiumが何なのか理解して使うべきでした。 私が設定したEP1の料金はポータルから見れて、30円/時間掛かります。       放置してた2つのFunctionsで8,400円無駄にしてました。 アプリを実行する検証をしたわけではないので、これは本当に無駄にしてしまいました、、             対策は従量課金プランにすること、もしくはBastionと同じで使い終わったらすぐ消すことです。 さらに存在してるだけでお金かかるプランの存在を理解することが大事です。   Azure マネージドディスク リソースの概要 Azure マネージドディスクは、VMに付ける仮想ディスクストレージです。 CドライブとかEドライブのために使ってました。 料金 ディスクが一番お金を使ってしまいました。 私が使っていたサイズがP15で、以下料金表です。(ディスク選択の際にとりあえず本番と同じサイズを選んでしまいました。)                 https://azure.microsoft.com/ja-jp/pricing/details/managed-disks/ azure.microsoft.com 月額約6,464円です。今回問題なのが、作成したディスクが1つではないことです。災対用にVMのリストア検証を何度もやっていたら、そのたびにP15ディスクがどんどん増えてしまって…。 増やしたり消したりを繰り返して、結果3か月で37,097円の費用になりました。           対策は安いディスクを付ければよいだけです。 検証では大量のデータを保存する必要はないので、ディスクのサイズは関係ないことを理解してなかったです。   さいごに 料金体系を理解して節約してれば、もっと安く検証できたなと反省してます。 3000円くらいに抑えられたのかも。 再発防止に努めます。
こんにちは。SCSKの南です。 パブリッククラウドの利用は今や多くの企業にとって欠かせないものとなり、同時に「クラウドセキュリティ」をどう確保するかは経営上の大きな課題になっています。 クラウドセキュリティについて調べていく中で、きっとすでに 「CNAPP(Cloud-Native Application Protection Platform)」 という言葉を耳にしたことがあるのではないでしょうか。ベンダー各社が「CNAPP対応」の製品を打ち出して、クラウドセキュリティ市場では一種のバズワードとなっています。 しかし、「CNAPP対応製品を導入すれば万事解決」なのでしょうか? 実際にはそう単純な話ではありませんので、その辺りをご説明したいと思います。 CNAPPとは何か CNAPPとはそもそも「機能」ではなく「概念」です。ガートナーは下記のように定義しています。 Cloud-native application protection platforms (CNAPPs) are a unified and tightly integrated set of security and compliance capabilities, designed to protect cloud-native infrastructure and applications. CNAPPs incorporate an integrated set of proactive and reactive security capabilities, including artifact scanning, security guardrails, configuration and compliance management, risk detection and prioritization, and behavioral  analytics, providing visibility, governance and control from code creation to production runtime. CNAPP solutions use a combination of API integrations with leading cloud platform providers, continuous integration/continuous development (CI/CD) pipeline integrations, and agent and agentless workload integration to offer combined development and runtime security coverage. (日本語訳:自動翻訳) クラウドネイティブアプリケーション保護プラットフォーム(CNAPP)は、クラウドネイティブなインフラストラクチャとアプリケーションを保護するために設計された、一体化された密接に統合されたセキュリティおよびコンプライアンス機能のセットです。CNAPPは、アーティファクトスキャン、セキュリティガードレール、構成およびコンプライアンス管理、リスク検出および優先順位付け、行動分析などの包括的なプロアクティブおよびリアクティブなセキュリティ機能を統合し、コード作成から本番実行までの可視性、ガバナンス、コントロールを提供します。CNAPPソリューションは、主要なクラウドプラットフォームプロバイダーとのAPI統合、継続的インテグレーション/継続的開発(CI/CD)パイプラインの統合、エージェントとエージェントレスのワークロード統合を組み合わせて、開発と実行のセキュリティカバレッジを提供します。 概念なので定義をぱっと読むとだいぶ範囲が広くて、わかりずらいのでポイントを整理しました。 CNAPPの重要な要素 # 要素 概要 1 統合プラットフォーム バラバラに存在していたクラウドセキュリティ機能をひとつにまとめた仕組み 例:CSPM(設定管理)、CWPP(ワークロード保護)、CIEM(権限管理)などを統合 2 対象範囲 クラウドネイティブなインフラとアプリケーション全体を保護 例:IaaS、PaaS、Kubernetes、コンテナ、サーバレス環境など 3 プロアクティブ(予防的)機能 設定・コンプライアンス管理(CSPM的な要素) セキュリティガードレール(開発・運用時の自動チェック) コードやコンテナイメージのスキャン(Artifact Scanning) 4 リアクティブ(事後対応)機能 リスク検出と優先度付け 振る舞い分析(異常な挙動の検知、脅威ハンティング) 5 ライフサイクル全体をカバー コード作成 → ビルド → デプロイ → 本番稼働まで DevSecOps/シフトレフトの考え方を実現 6 提供する価値 可視性(何が起きているか見える) ガバナンス(ポリシーに従わせる) 制御(必要に応じて止める・修正する) 上の表を見るといろんな要素があり、また要素ごとにセキュリティの観点が違ったりするのでCNAPP製品を入れただけであまり意味がないことが分かっていただけるかなと思います。 CNAPPはどのようにはじめるべきか CNAPPは前述したとおり「バラバラに存在していたクラウドセキュリティ機能をひとつにまとめた仕組み」になりますので、機能ごとにセキュリティを考えるとわかりやすいです。 CNAPPに含まれる機能 CNAPPに含まれる機能を一覧にしてみました。 ※「CNAPPにはこの機能が含まれる」といった明確な定義はありません。さまざまな資料で「主要コンポーネント」や「一般的に含まれるべき機能群」が明示されたりしていますが、新しい機能が次から次に追加されている状況です。 # 区分 モジュール 説明 1 コア セキュリティ CSPM (Cloud Security Posture Management) クラウド環境の設定ミスやコンプライアンス違反を検出・修正。 2 CIEM (Cloud Infrastructure Entitlement Management) IAM権限の過剰付与や不適切なアクセス制御を検出し、最小権限化を推進。 3 CWPP (Cloud Workload Protection Platform) VM・コンテナ・Kubernetesなどのワークロードを保護。脆弱性、マルウェア、実行時の防御。 4 高度セキュリティ IaC Security Terraform、CloudFormationなどIaCテンプレートのセキュリティスキャン。 5 DSPM (Data Security Posture Management) クラウド上のデータを分類・可視化し、機密情報のリスクを管理。 6 KSPM (Kubernetes Security Posture Management) Kubernetesクラスタ特有のセキュリティ設定・ポリシーを管理。CSPMの一部とも見なされるが独立性も強い。 7 ASPM (Application Security Posture Management) アプリケーションレベルで脆弱性やリスクを可視化・管理。ソフトウェアサプライチェーン対策とも重なる。 8   AI-SPM (AI Security Posture Management) AIモデルやAIワークロードのセキュリティを保護(データ汚染やモデル悪用対策)。新しい領域。 9 CI/CDセキュリティ統合 DevSecOpsを実現。コードスキャン、アーティファクト検査を開発パイプラインに統合。 10 Runtime Threat Detection 実行環境での異常挙動検知(脅威ハンティング、行動分析)。 11 Security Guardrails  開発者や運用者が意識せずに安全に利用できるようにする自動チェック・制御。 導入する順番は? たくさんの機能があることがわかると思いますが、まず最初にやるべきなのは「 CSPM 」と「 CIEM 」です。「設定」と「権限」という土台の部分を固めることが最優先だと思います。これらの機能はすべての環境に共通で必要なセキュリティになります。導入をすることで、すべての環境のセキュリティを向上させることができます。 また、CSPMを導入することで、クラウド環境の可視化(どのサービスが稼働しているのか、どこが外部に公開されているのか、どの部分が規制やガイドラインに抵触しているのか、等)も実現できるため、セキュリティ強化を行う際にどの環境に何のセキュリティを導入すべきかを検討する材料にもなります。 次は「 CWPP 」です。クラウド上にあるワークロードを保護することが重要です。オンプレ端末(PCやサーバ)のセキュリティは一生懸命検討されるのですが、クラウド上のワークロード保護は放置されているケースが多いです。 それから「高度なセキュリティ」の機能群を導入するのが良いと思います。「高度なセキュリティ」の機能は環境によって必要かどうかが変わってくる部分がありますので、どのように展開するかなど環境に合わせて検討する必要があります。 クラウドセキュリティの出発点は「CSPM」 最近は「CNAPP」という言葉を耳にする機会が増えています。いろいろなセキュリティ機能をまとめて守ってくれる“全部入り”の仕組みとして紹介されることが多く、とても魅力的に感じられます。 ですが、実際にクラウドで起きているトラブルの多くは「人が設定を間違えた」ことが原因です。たとえば、本来は社内だけで使うはずのストレージを「公開」にしてしまったり、必要以上に広い権限をユーザーに与えてしまったり…。こうしたちょっとしたミスから、大きな情報漏えいにつながってしまうケースが後を絶ちません。 そこでまず必要になるのがCSPMです。CSPMはクラウドの設定が正しいかどうかをチェックし、危ないところを教えてくれる“健康診断”のような役割を持っています。これがあることで、クラウド全体を見渡せるようになり、「どこにリスクがあるのか」を把握できるようになります。 つまり、CNAPPのような大きな仕組みを使うにしても、最初の一歩はCSPMで“安全の基礎”を整えることです。建物でいえば、どんなに立派な高層ビルを建てても、土台がしっかりしていなければ崩れてしまうのと同じです。クラウドセキュリティも、まずはCSPMという“土台”を固めることが何より大切だと思います。 どのようなソリューションを選ぶべきか パルアルトネットワークス社のPrisma CloudのようなCNAPPに対応した包括的なセキュリティプラットフォーム製品を導入することが推奨です。Prisma CloudはCNAPP領域のリーダーとして評価されているソリューション・製品となります。 先ほど説明したようにCNAPPには複数の機能がありますが、セキュリティプラットフォーム製品であれば段階的にセキュティを強化することができます。 単独の製品を導入すると、ツールのサイロ化や、統合的な分析ができないといった状況になってしまうため、この領域はプラットフォーム製品を導入するのが良いと考えます。 さいごに、当社ではクラウド診断サービスやマネージドCSPMサービスを提供していますので、ご興味のある方は是非、お気軽にお問い合わせください。 Smart One Cloud Security® パブリッククラウドのセキュリティ設定を診断/監視するマネージドCSPMサービスです。Palo Alto Networks社Prisma Cloud(CSPM機能)を使い易く、簡単に導入いただけます。 www.scsk.jp マルチクラウド設定診断サービス with CSPM| SCSK株式会社 マルチクラウド環境のセキュリティ設定リスクを手軽に確認可能なスポット診断サービスです。独自の診断レポートが、運用上の設定ミスや設計不備、クラウド環境の仕様変更などで発生し得る問題を可視化し、セキュリティインシデントの早期発見に役立ちます。 www.scsk.jp