TECH PLAY

AWS

AWS の技術ブログ

3115

概要 AWS では、金融機関のお客様が AWS 上でシステムを構築する際の参考となる「 金融リファレンスアーキテクチャ日本版 」を提供しています。このたび、生成 AI に関する新たなコンテンツを追加しました。 金融機関における生成 AI の活用は、業務効率化と顧客体験向上の両面で大きな期待が寄せられています。一方で、機密情報の取り扱いやコンプライアンス要件への対応など、金融機関特有のセキュリティ要件を満たす必要があります。 今回、以下の 2 つのコンテンツを追加しました: 1. 生成 AI ワークロードのリファレンスアーキテクチャ : セキュリティ要件に対応したサンプル実装 2. 金融機関での生成 AI ユースケース : 具体的な活用例の紹介 1. 生成 AI ワークロードのリファレンスアーキテクチャ 概要 AWS Samples で公開されている「 Generative AI Use Cases (GenU) 」の閉域版をベースに、金融機関のセキュリティ要件に対応するためのカスタマイズを施したサンプル実装です。AWS CDK によるデプロイ手順を提供しており、実際に環境を構築して動作を確認できます。 GitHub : doc/reference-arc-genai GenU は、チャット、文章生成、要約、翻訳、RAG(Retrieval-Augmented Generation)、画像生成、動画生成など、多様な生成 AI ユースケースを提供するオープンソースアプリケーションです。本リファレンスアーキテクチャでは、これを金融機関で安全に活用するための実装パターンを示しています。 金融機関向けセキュリティ強化 本サンプル実装では、GenU 閉域版に対して以下のカスタマイズを施しています: 閉域ネットワーク構成 : システム間の通信を閉域ネットワーク内に閉じる構成 暗号化の強化 : AWS KMS カスタマーマネージドキーによるデータ保護 Amazon Bedrock Guardrails の設定強化 : 機密情報の検出・ブロック、金融業界向けトピックフィルタ、日本語対応 監視とガバナンス : Amazon CloudWatch による利用状況の可視化 詳細なアーキテクチャ構成については、アーキテクチャ解説書をご覧ください。 提供コンテンツ アーキテクチャ解説書 : GenU の主要機能と金融機関での活用方法、セキュリティ強化の詳細 FISC マッピング : FISC 安全対策基準(第 13 版)への対応状況 デプロイ手順書 : サンプル実装のデプロイ方法 2. 金融機関での生成 AI ユースケース 概要 生成 AI の具体的な活用例として、金融機関での実践的なユースケースを紹介しています。各ユースケースでは、Amazon Bedrock を中心とした AWS サービスを活用した構成例と、実装のポイントを解説しています。一部のユースケースについては、AWS CDK によるデプロイ手順を提供しており、実際の業務で利用可能なアプリケーションとして環境を構築できます。 GitHub : doc/fsi-case-study/reference-arc-genai-usecase 文書・コンテンツ審査 詳細はこちら | デプロイ可能 金融機関における膨大な文書審査業務を、AI と人間の協働(Human in the Loop)で効率化するソリューションです。 審査基準となるガイドライン文書をアップロードするだけで、AI が自動的にチェックリストを生成し、審査対象の文書を自動審査します。金融商品広告の法令・規制チェック、営業資料の社内コンプライアンス審査、マーケティング資料のブランドガイドライン準拠確認、ESG 報告書の業界ベストプラクティス準拠確認などに適用できます。 導入メリット : 審査時間の短縮、審査品質の標準化、判断根拠の明確化 AI を活用した営業・窓口対応トレーニング(ロールプレイ) 詳細はこちら | デプロイ可能 営業担当者や窓口担当者のトレーニングを、AI を活用したロールプレイで効率化します。AI が顧客役を演じ、様々なシナリオ(クレーム対応、商品説明、契約手続きなど)での対応練習を可能にします。24 時間いつでも利用でき、対応履歴の記録と振り返りができます。 導入メリット : トレーニングコストの削減、新人教育の効率化、対応品質の標準化 契約書業務アシスタント 詳細はこちら 契約書関連業務を包括的に支援する AI アシスタントシステムです。複数の専門 AI エージェント(スーパーバイザーエージェント、契約書作成エージェント、既存契約確認エージェント、契約 Q&A エージェント)が連携して動作し、ユーザーの要求を自動的に適切なエージェントに振り分けます。 新規契約書の作成や既存契約状況の確認、契約関連質問への対応を自然言語での操作で実現します。 導入メリット : 契約書作成時間の短縮、問い合わせ対応の迅速化、専門知識の組織的活用 ATM 不正検知(高齢者電話利用) 詳細はこちら ATM 周辺での不審な行動(電話をしながらの ATM 操作など)を検知し、特殊詐欺被害を未然に防ぐソリューションです。Amazon Bedrock 上のマルチモーダルモデル活用して、既存の防犯カメラ映像からリアルタイムで不審な行動を検知し、店舗スタッフに即座に通知します。 導入メリット : 特殊詐欺被害の未然防止、顧客保護と信頼性の向上、既存インフラの有効活用 まとめ 今回追加した生成 AI に関するコンテンツは、金融機関における生成 AI 活用の第一歩として、セキュリティ要件に配慮したサンプル実装と、具体的な活用例を提供しています。 リファレンスアーキテクチャ では、GenU をベースに金融機関のセキュリティ要件に対応した実装パターンを示し、 ユースケース では、実際の業務での活用イメージを具体的に紹介しています。デプロイ手順も提供していますので、ぜひ実際に環境を構築して動作を確認してみてください。 金融リファレンスアーキテクチャ日本版の全てのコンテンツは GitHub リポジトリ から利用できます。フィードバックや質問については、GitHub の Issue としてご登録ください。皆様からのご意見をお待ちしております。 参考リンク 生成 AI ワークロードのリファレンスアーキテクチャ アーキテクチャ解説書 FISC マッピング デプロイ手順書 金融機関での生成 AI ユースケース ユースケース一覧 文書・コンテンツ審査 AI を活用した営業・窓口対応トレーニング(ロールプレイ) 契約書業務アシスタント ATM 不正検知 その他 金融リファレンスアーキテクチャ日本版 GitHub リポジトリ Generative AI Use Cases (GenU) 本ブログ記事は、AWS のソリューションアーキテクト 都築了太郎 が執筆いたしました。
このブログは Transform your MCP architecture: Unite MCP servers through AgentCore Gateway の翻訳記事です。 — AI エージェントが大規模に利用されていく中で、独自の Model Context Protocol (MCP) サーバーを作成し、特定のユースケースやドメイン、組織の機能やチーム向けに AI エージェントをカスタマイズするケースが増えています。また、既存の MCP サーバーやオープンソースの MCP サーバーを AI ワークフロー用に統合する必要もあります。カスタムビルド、パブリック利用可能、オープンソースなどの様々な形態の MCP サーバーを、AI エージェントが容易に利用できる組織全体で統一されたインターフェースに効率的に統合する方法が必要です。 今年の初めに AWS は Amazon Bedrock AgentCore Gateway を発表しました。これは完全マネージド型サービスで、中央集約型の MCP サーバーとして機能し、エージェントがツールを発見、アクセス、呼び出すための統一されたインターフェースを提供します。そして直近では、 AgentCore Gateway に既存の MCP サーバーをターゲットタイプとしてサポートする機能拡張を実施しました。この機能により、複数のタスク固有の MCP サーバーを、単一の MCP ゲートウェイインターフェースの背後にグループ化できます。これにより、個別のゲートウェイを維持する運用の複雑さが軽減され、(AgentCore Gateway のターゲットとしてこれまで利用可能であった) REST API や AWS Lambda 関数と同様に中央集約型のツールおよび認証管理が提供されます。 中央集約型のアプローチを取らない場合、1) 組織全体でツールを発見し共有することが困難となる、2) 複数の MCP サーバー間での認証管理が複雑になる、3) 各サーバーに対して個別のゲートウェイインスタンスを維持する管理工数、が課題となります。Amazon Bedrock AgentCore Gateway は、既存の MCP サーバーをネイティブターゲットとして扱うことでこれらの課題を解決し、ルーティング、認証、ツール管理のための単一の制御ポイントを顧客に提供します。これにより、MCP サーバーの統合が他のターゲットをゲートウェイに追加するのと同じ様に簡単に実現できます。 MCP のサイロを打破する: エンタープライズチームが統一された Gateway を必要とする理由 複数のチームが特定のドメイン用に特化した MCP サーバーを運用する e コマース注文システムのケースを考えてみましょう。 ショッピングカートチームはカート管理ツールを持つ MCP サーバーを運用しています。 製品カタログチームは製品の閲覧と検索のための MCP サーバーを運用しています。 プロモーションチームはプロモーションロジックを処理する MCP サーバーを運用しています。 以前は、注文エージェントはこれらの各 MCP サーバーに個別に接続し認証コンテキストを管理する必要がありました。AgentCore Gateway の MCP サーバーターゲットにより、単一のゲートウェイの下に統合しながら、チーム固有の所有権とアクセス制御を維持できるようになりました。このアプローチの威力は、組織利用における MCP サーバーの設計を柔軟にできることです。複数のロジックに基づいて MCP サーバーをグループ化できます。 ビジネスユニットとの整合 : MCP サーバーをビジネスユニットごとに整理します。 製品機能の境界 : 各製品チームがドメイン固有のツールを持つ MCP サーバーを所有し、明確な所有権を維持しながらエージェント用の統一されたインターフェースを提供します。 セキュリティとアクセス制御 : 異なる MCP サーバーには異なる認証メカニズムが必要です。ゲートウェイが認証の複雑さを処理し、認可されたエージェントが必要なツールに簡単にアクセスできるようにします。 次の図は、注文エージェントが AgentCore Gateway を通じて複数の MCP サーバーとやり取りする様子を示しています。エージェントはゲートウェイに接続し、利用可能なツールを発見します。各チームはドメイン固有のツールを管理しながら、組織全体での一貫したエージェント利用体験に貢献します。ゲートウェイはツール名の競合、認証を処理し、ツール全体で統一的なセマンティック検索を提供します。 AgentCore Gateway は、最新のエージェントアーキテクチャにおける統合ハブとして機能し、多様なエージェント実装を幅広いツールプロバイダーと接続するための統一されたインターフェースを提供します。図に示されているアーキテクチャは、ゲートウェイがエージェントとツール実装アプローチの間のギャップを埋める方法を示しており、現在は MCP サーバーターゲットを直接統合する機能が強化されています。 AgentCore Gateway 統合アーキテクチャ AgentCore Gateway では、ターゲットがエージェントに提供するツールを規定します。ターゲットには Lambda 関数、OpenAPI 仕様、Smithy モデル、MCP サーバー、その他のツール定義を指定することができます。 アーキテクチャのターゲット統合側は、ツール統合におけるゲートウェイの汎用性を示しています。MCP サーバーターゲット機能により、ゲートウェイはパブリック MCP サーバーからのツールを直接組み込むことができ、他のターゲットタイプと同等に扱います。この機能は、ある AgentCore Gateway インスタンスが別のインスタンスのターゲットとして機能するフェデレーションシナリオにも拡張され、組織の境界を越えた階層的なツール編成が可能になります。ゲートウェイは、ツールとして公開されるエージェントを持つ AgentCore Runtime インスタンス、プライベート MCP サーバー、従来の AWS Lambda 関数、Smithy および AWS サービス API の両方とシームレスに統合できます。 ターゲットの多様性に加えて、ゲートウェイの認証アーキテクチャは更なる運用上のメリットを提供します。ゲートウェイは、インバウンド認証をターゲットシステムから切り離し、エージェントが単一のインターフェースを通じて複数の ID プロバイダーを使用するツールにアクセスできるようにします。この中央集約型のアプローチにより、AI エージェントの開発、デプロイ、メンテナンスが簡素化されます。MCP サーバーターゲットにも同じアプローチを使用でき、ゲートウェイがターゲット用に構成された ID プロバイダーを使用してサーバーとのインターフェースの複雑さを管理します。 ゲートウェイが提供する認証機能により、統一されたアーキテクチャでツールを管理することができます。エージェントがツールの発見を要求すると、ゲートウェイはターゲットの種類によらず一貫したツール情報を提供します。セマンティック検索機能はツールタイプ全体で動作するため、エージェントは実装に関係なく関連するツールを発見できます。ツールの呼び出し中、ゲートウェイは必要なプロトコル変換、認証フロー、データ変換を処理し、異なるターゲットシステムの複雑さを管理しながら、エージェントにクリーンで一貫したインターフェースを提示します。 MCP サーバーターゲットサポートの追加は、ゲートウェイの機能における重要な進化を表しています。従来の API や Lambda 関数を維持しながら、MCP ネイティブツールを直接統合できるようになりました。この柔軟性により、段階的な移行戦略が可能になり、チームは既存の統合を継続的に運用しながら、独自のペースで MCP ネイティブ実装を採用できます。ゲートウェイの同期メカニズムは、異なるターゲットタイプ間でツール定義が最新の状態を保つことを保証し、その認証および承認システムは、基盤となるツール実装に関係なく一貫したセキュリティ制御を提供します。 ゲートウェイは、MCP サーバー、従来の API、サーバーレス関数を一貫したツール環境に統合します。この機能は、エンタープライズグレードのセキュリティとパフォーマンスとともに、エージェントコンピューティングにとって有益なインフラストラクチャとなります。 ソリューションのウォークスルー このセクションでは、AgentCore Gateway で MCP サーバーターゲットを設定する手順をご紹介します。MCP サーバーを AgentCore Gateway に追加することで、大規模な MCP サーバーを管理する際のツール管理、セキュリティ認証、運用のベストプラクティスを一元化できます。 AgentCore Gateway へ MCP Server を追加する AgentCore Gateway を作成し、MCP Server をターゲットとして追加します。 前提条件 次の前提条件を確認してください。 Amazon Bedrock AgentCore アクセス権を持つ AWS アカウント。詳細については、 Permissions for AgentCore Runtime のドキュメントを参照してください。 Python 3.12 以降 OAuth 2.0 の基本的な理解 複数のインターフェースを通じてゲートウェイを作成し、ターゲットを追加できます。 AWS SDK for Python (Boto3) AWS Management Console AWS Command Line Interface (AWS CLI) 高速で簡単なセットアップのための AgentCore starter toolkit 次の実用的な例とコードスニペットは、Amazon Bedrock AgentCore Gateway のセットアップと使用方法を示しています。インタラクティブに操作したい場合は、 GitHub の Jupyter Notebook サンプル をご参照ください。 ゲートウェイを作成する ゲートウェイを作成するには、AgentCore starter toolkit を使用して、JWT ベースのインバウンド認証用に Amazon Cognito を使用した デフォルトの認証構成を作成 できます。Cognito の代わりに別の OAuth 2.0 準拠の認証プロバイダー を使用することもできます。 import time import boto3 gateway_client = boto3.client("bedrock-agentcore-control") # 認証構成を作成します。この Gateway へのアクセスを承認されるクライアントを指定します auth_config = { "customJWTAuthorizer": { "allowedClients": ['<cognito_client_id>'], # クライアントは Cognito で構成された ClientId と一致する必要があります "discoveryUrl": '<cognito_oauth_discovery_url>', } } # create_gateway API を呼び出します # この操作は非同期なので、Gateway の作成に時間がかかる場合があります # この Gateway は CUSTOM_JWT オーソライザー、つまり auth_config で参照する Cognito User Pool を活用します def deploy_gateway(poll_interval=5): create_response = gateway_client.create_gateway( name="DemoGateway", roleArn="<IAM Role>", # IAM Role には Gateway の作成/一覧表示/取得/削除の権限が必要です protocolType="MCP", authorizerType="CUSTOM_JWT", authorizerConfiguration=auth_config, description="AgentCore Gateway with MCP Server Target", ) gatewayID = create_response["gatewayId"] gatewayURL = create_response["gatewayUrl"] # デプロイを待機します while True: status_response = gateway_client.get_gateway(gatewayIdentifier=gatewayID) status = status_response["status"] if status == "READY": print("✅ AgentCore Gateway is READY!") break elif status in ["FAILED"]: print(f"❌ Deployment failed: {status}") return None print(f"Status: {status} - waiting...") time.sleep(poll_interval) if __name__ == "__main__": deploy_gateway() # < > の値は実際の値に置き換える必要があります サンプル MCP Server を作成する 例として、静的な応答を返す 3 つの簡単なツールを持つサンプル MCP サーバーを作成しましょう。サーバーは stateless_http=True を指定した FastMCP を使用しており、これは AgentCore Runtime の互換性に必要 です。 from mcp.server.fastmcp import FastMCP mcp = FastMCP(host="0.0.0.0", stateless_http=True) @mcp.tool() def getOrder() -> int: """注文を取得します""" return 123 @mcp.tool() def updateOrder(orderId: int) -> int: """既存の注文を更新します""" return 456 @mcp.tool() def cancelOrder(orderId: int) -> int: """既存の注文をキャンセルします""" return 789 if __name__ == "__main__": mcp.run(transport="streamable-http") AgentCore Runtime デプロイを構成する 次に、starter toolkit を使用して AgentCore Runtime デプロイを構成します。このツールキットは、起動時に Amazon ECR リポジトリを作成し、AgentCore Runtime へのデプロイ用の Dockerfile を生成できます。この実装は例として示しているもののため、実際には独自の MCP サーバー実装を使用してください。実際の環境では、MCP サーバーのインバウンド認証はゲートウェイの構成とは異なる可能性があります。その場合、 Runtime 認証用の Amazon Cognito ユーザープールを作成する サンプルコードを参照してください。 from bedrock_agentcore_starter_toolkit import Runtime from boto3.session import Session boto_session = Session() region = boto_session.region_name print(f"Using AWS region: {region}") required_files = ['mcp_server.py', 'requirements.txt'] for file in required_files: if not os.path.exists(file): raise FileNotFoundError(f"Required file {file} not found") print("All required files found ✓") agentcore_runtime = Runtime() auth_config = { "customJWTAuthorizer": { "allowedClients": [ '<runtime_cognito_client_id>' # クライアントは Cognito で構成された ClientId と一致する必要があり、Gateway Cognito プロバイダーとは別にすることができます ], "discoveryUrl": '<cognito_oauth_discovery_url>', } } print("Configuring AgentCore Runtime...") response = agentcore_runtime.configure( entrypoint="mcp_server.py", auto_create_execution_role=True, auto_create_ecr=True, requirements_file="requirements.txt", region=region, authorizer_configuration=auth_config, protocol="MCP", agent_name="mcp_server_agentcore" ) print("Configuration completed ✓") # < > の値は実際の値に置き換える必要があります MCP サーバーを AgentCore Runtime 上で起動する Dockerfile ができたので、MCP サーバーを AgentCore Runtime 上で起動しましょう。 print("Launching MCP server to AgentCore Runtime...") print("This may take several minutes...") launch_result = agentcore_runtime.launch() agent_arn = launch_result.agent_arn agent_id = launch_result.agent_id print("Launch completed ✓") encoded_arn = agent_arn.replace(':', '%3A').replace('/', '%2F') mcp_url = f"https://bedrock-agentcore.{region}.amazonaws.com/runtimes/{encoded_arn}/invocations?qualifier=DEFAULT" print(f"Agent ARN: {launch_result.agent_arn}") print(f"Agent ID: {launch_result.agent_id}") AgentCore Gateway のターゲットとして MCP サーバーを作成する AgentCore Gateway が AgentCore Runtime 上の MCP サーバーへアクセスする際のアウトバウンド認証用に、AgentCore Identity Resource Credential Provider を作成します。 identity_client = boto3.client('bedrock-agentcore-control', region_name=region) cognito_provider = identity_client.create_oauth2_credential_provider( name="gateway-mcp-server-identity", credentialProviderVendor="CustomOauth2", oauth2ProviderConfigInput={ 'customOauth2ProviderConfig': { 'oauthDiscovery': { 'discoveryUrl': '<cognito_oauth_discovery_url>', }, 'clientId': '<runtime_cognito_client_id>', # クライアントは Runtime オーソライザー用に Cognito で構成された ClientId と一致する必要があります 'clientSecret': '<cognito_client_secret>' } } ) cognito_provider_arn = cognito_provider['credentialProviderArn'] print(cognito_provider_arn) # < > の値は実際の値に置き換える必要があります MCP サーバーを指すゲートウェイターゲットを作成します。 gateway_client = boto3.client("bedrock-agentcore-control", region_name=region) create_gateway_target_response = gateway_client.create_gateway_target( name="mcp-server-target", gatewayIdentifier=gatewayID, targetConfiguration={"mcp": {"mcpServer": {"endpoint": mcp_url}}}, credentialProviderConfigurations=[ { "credentialProviderType": "OAUTH", "credentialProvider": { "oauthCredentialProvider": { "providerArn": cognito_provider_arn, "scopes": ["<cognito_oauth_scopes>"], } }, }, ], ) # ゲートウェイターゲットを非同期に作成します gatewayTargetID = create_gateway_target_response["targetId"] # < > の値は実際の値に置き換える必要があります ゲートウェイターゲットを作成した後、 get_gateway_target API 呼び出しを使用してゲートウェイターゲットのステータスを確認するポーリング処理を実装します。 import time def poll_for_status(interval=5): # READY ステータスをポーリングします while True: gateway_target_response = gateway_client.get_gateway_target(gatewayIdentifier=gatewayID, targetId=gatewayTargetID) status = gateway_target_response["status"] if status == 'READY': break elif status in ['FAILED', 'UPDATE_UNSUCCESSFUL', 'SYNCHRONIZE_UNSUCCESSFUL']: raise Exception(f"Gateway target failed with status: {status}") time.sleep(interval) poll_for_status() Strands Agents フレームワークでゲートウェイをテストする MCP サーバーからツールをリストするために、 Strands Agents でゲートウェイをテストしてみましょう。異なるエージェントフレームワークで構築された他の MCP 互換エージェントも使用できます。 from strands import Agent from mcp.client.streamable_http import streamablehttp_client from strands.tools.mcp.mcp_client import MCPClient def create_streamable_http_transport(): return streamablehttp_client(gatewayURL,headers={"Authorization": f"Bearer {token}"}) client = MCPClient(create_streamable_http_transport) with client: # listTools を呼び出します tools = client.list_tools_sync() # モデルとツールを使用してエージェントを作成します agent = Agent(model=yourmodel,tools=tools) ## 任意のモデルに置き換えることができます # サンプルプロンプトでエージェントを呼び出します。これは MCP listTools のみを呼び出し、LLM がアクセスできるツールのリストを取得します。以下は実際にツールを呼び出しません。 agent("Hi , can you list all tools available to you") # サンプルプロンプトでエージェントを呼び出し、ツールを呼び出して応答を表示します agent("Get the Order id") AgentCore Gateway での MCP サーバーのツール定義の更新 SynchronizeGatewayTargets API は、MCP サーバーターゲットからのツールのオンデマンド同期を可能にする新しい非同期操作です。MCP サーバーは、エージェントが発見して呼び出すことができるツールをホストします。時間の経過とともに、これらのツールを更新する必要があったり、既存の MCP サーバーターゲットに新しいツールを導入する必要があったりする場合があります。プロトコルハンドシェイクを実行し、利用可能なツールをインデックス化する SynchronizeGatewayTargets API を通じて外部 MCP サーバーに接続できます。この API により、MCP サーバーのツール構成を変更した後に、ツール定義を更新するタイミングを明示的に制御できます。 ターゲットが OAuth 認証で構成されている場合、API はまず AgentCore Identity サービスとやり取りして、指定された認証情報プロバイダーから必要な認証情報を取得します。これらの認証情報は、MCP サーバーとの通信を開始する前に、鮮度と利用可否について検証されます。認証情報の取得が失敗した場合、または期限切れのトークンが返された場合、同期操作は適切なエラー詳細とともに即座に失敗し、ターゲットは FAILED 状態に遷移します。認証なしで構成されたターゲットの場合、API はツール同期に直接進みます。 ツール処理ワークフローは、セッションを確立するための MCP サーバーへの初期化呼び出しから始まります。初期化が成功した後、API は MCP サーバーの tools/list 機能にページ分割された呼び出しを行い、パフォーマンスとリソース使用率を最適化するために 100 個のバッチでツールを処理します。各ツールのバッチは正規化を受け、API はターゲット固有のプレフィックスを追加して、他のターゲットからのツールとの命名の競合を防ぎます。処理中、ツール定義は異なるターゲットタイプ間での一貫性を促進するために正規化されますが、元の MCP サーバー定義からの重要なメタデータは保持されます。 同期フローは次のときに開始されます。 運用管理者が SynchronizeGatewayTargets API を開始し、AgentCore Gateway をトリガーして構成された MCP ターゲットを更新します。 ゲートウェイは MCP ターゲットへの安全なアクセスのために AgentCore Identity から OAuth トークンを取得します。 次に、ゲートウェイはバージョン機能を取得するために MCP サーバーとの安全なセッションを初期化します。 最後に、ゲートウェイは MCP サーバーの tools/list エンドポイントにページ分割された呼び出しを行ってツール定義を取得し、ゲートウェイが最新で正確なツールのリストを維持することを保証します。 SynchronizeGatewayTargets API は、AgentCore Gateway 内で MCP ターゲットを管理する際の重要な課題に対処します。それは、システムのパフォーマンスとリソース使用率を最適化しながら、利用可能なツールの正確な表現を維持することです。この明示的な同期アプローチが価値がある理由は次のとおりです。 スキーマの一貫性管理 : 明示的な同期がない場合、AgentCore Gateway は ListTools 操作中に MCP サーバーへのリアルタイム呼び出しを行う必要があるか (レイテンシと信頼性に影響)、古いツール定義を提供するリスクがあります。 SynchronizeGatewayTargets API は、新しいツールをデプロイした後や MCP サーバーで既存のツールを更新した後など、戦略的なタイミングでツールスキーマを更新できる制御されたメカニズムを提供します。このアプローチにより、ゲートウェイのツール定義がパフォーマンスを損なうことなくターゲット MCP サーバーの機能を正確に反映することが保証されます。 パフォーマンスへの影響のトレードオフ : API は、不整合な状態につながる可能性のある同時変更を防ぐために、同期中に楽観的ロックを実装しています。これは、競合がある場合に複数の同期リクエストが再試行する必要がある可能性があることを意味しますが、このトレードオフは次の理由から許容されます。 ツールスキーマの変更は、通常の実行時の発生ではなく、頻度の低い運用イベントです 同期のパフォーマンスコストは、通常のツール呼び出し中ではなく、明示的に要求されたときにのみ発生します キャッシュされたツール定義により、同期している間でも ListTools 操作に一貫して高いパフォーマンスが得られます。 SynchronizeGatewayTargets API を呼び出す 次のサンプルコードを使用して、SynchronizeGatewayTargets API を呼び出します。 gateway_client = boto3.client('bedrock-agentcore-control', region_name=REGION) synchronize_gateway_response = gateway_client.synchronize_gateway_targets( gatewayIdentifier=gatewayID, targetIdList=[gatewayTargetID] ) print(synchronize_gateway_response) ツールスキーマの暗黙的な同期 CreateGatewayTarget および UpdateGatewayTarget 操作中、AgentCore Gateway は明示的な SynchronizeGatewayTargets API とは異なる暗黙的な同期を実行します。この暗黙的な同期により、MCP ターゲットが有効で最新のツール定義で作成または更新されることが保証され、READY 状態のターゲットはすぐに使用可能と保証されます。これにより、作成/更新操作が他のターゲットタイプよりも時間がかかる可能性がありますが、検証されたツール定義のないターゲットを持つことの複雑さと潜在的な問題を防ぐのに役立ちます。 暗黙的な同期フローは次のときに開始されます。 運用管理者が CreateGatewayTarget または UpdateGatewayTarget 操作を使用して MCP ターゲットを作成または更新します。 AgentCore Gateway は新規または更新された MCP ターゲットを構成します。 ゲートウェイはツール定義を更新するために非同期で同期プロセスをトリガーします。 ゲートウェイは安全なアクセスのために AgentCore Identity から OAuth トークンを取得します。 次に、ゲートウェイはバージョン機能を取得するために MCP サーバーとの安全なセッションを初期化します。 最後に、ゲートウェイは MCP サーバーの tools/list エンドポイントにページ分割された呼び出しを行ってツール定義を取得し、ゲートウェイが最新で正確なツールのリストを維持することを保証します。 MCP ターゲットの ListTools の動作 AgentCore Gateway の ListTools 操作は、MCP ターゲットから以前に同期されたツール定義へのアクセスを提供し、パフォーマンスと信頼性を優先するキャッシュファーストアプローチに従います。ツール定義が静的に定義されている従来の OpenAPI または Lambda ターゲットとは異なり、MCP ターゲットツールは同期操作を通じて発見され、キャッシュされます。クライアントが ListTools を呼び出すと、ゲートウェイは MCP サーバーへのリアルタイム呼び出しを行うのではなく、永続ストレージからツール定義を取得します。これらの定義は、ターゲット作成/更新中の暗黙的な同期、または明示的な SynchronizeGatewayTargets API 呼び出しを通じて事前に取得したものです。この操作は正規化されたツール定義のページ分割されたリストを返します。 MCP ターゲットの InvokeTool (tools/call) の動作 MCP ターゲットの InvokeTool 操作は、 ListTools を通じて発見されたツールの実際の実行を処理し、ターゲット MCP サーバーとのリアルタイム通信を管理します。キャッシュベースの ListTools 操作とは異なり、tools/call は MCP サーバーとのアクティブな通信を必要とし、特定の認証、セッション管理、エラー処理が発生します。tools/call リクエストが到着すると、AgentCore Gateway はまず、ツールが同期された定義に存在することを検証します。MCP ターゲットの場合、AgentCore Gateway は MCP サーバーとのセッションを確立するために初期化呼び出しを実行します。ターゲットが OAuth 認証情報で構成されている場合、AgentCore Gateway は initialize 呼び出しを行う前に AgentCore Identity から新しい認証情報を取得します。これにより、ListTools が期限切れの認証情報を持つキャッシュされたツールを返した場合でも、実際の呼び出しは有効な認証を使用することが保証されます。 インバウンド認証フローは次のときに開始されます。 MCP クライアントは MCP プロトコルバージョンを使用したリクエストを AgentCore Gateway に初期化します。 次に、クライアントは tools/call リクエストをゲートウェイに送信します。 ゲートウェイは安全なアクセスのために AgentCore Identity から OAuth トークンを取得します。 ゲートウェイは MCP サーバーとの安全なセッションを初期化して、ツールの実際の実行を呼び出して処理します。 MCP ターゲットの検索ツールの動作 AgentCore Gateway の検索機能により、MCP ターゲットを含む異なるターゲットタイプ全体でツールのセマンティック検索が可能になります。MCP ターゲットの場合、検索機能は同期操作中にキャプチャされ、インデックス化された正規化されたツール定義で動作し、リアルタイムの MCP サーバー通信なしで効率的なセマンティック検索を提供します。 ツール定義が MCP ターゲットから同期されると、AgentCore Gateway は各ツールの名前、説明、パラメータの説明に対して自動的にベクトル表現を生成します。これらのベクトル表現は正規化されたツール定義と一緒に保存され、検索クエリの意図とコンテキストを理解するセマンティック検索を可能にします。従来のキーワードマッチングとは異なり、正確な用語が一致しない場合でもエージェントは関連するツールを発見できます。 ゲートウェイを通じて MCP サーバーツールを検索する 次の例を使用してゲートウェイを通じてツールを検索します。 import requests import json def search_tools(gateway_url, access_token, query): headers = { "Content-Type": "application/json", "Authorization": f"Bearer {access_token}" } payload = { "jsonrpc": "2.0", "id": "search-tools-request", "method": "tools/call", "params": { "name": "x_amz_bedrock_agentcore_search", "arguments": { "query": query } } } response = requests.post(gateway_url, headers=headers, json=payload, timeout=5) response.raise_for_status() return response.json() # 使用例 token_response = utils.get_token(user_pool_id, client_id, client_secret, scopeString, REGION) access_token = token_response['access_token'] results = search_tools(gatewayURL, access_token, "math operations") print(json.dumps(results, indent=2)) まとめ 最近発表された Amazon Bedrock AgentCore Gateway でのターゲットタイプとしての MCP サーバーサポートは、エンタープライズ AI エージェント開発における進歩です。この新機能は、セキュリティと運用効率を維持しながら MCP サーバー実装をスケーリングする際の重要な課題に対処します。既存の MCP サーバーを REST API や Lambda 関数と一緒に統合することにより、AgentCore Gateway は大規模なツール統合のためのより統一された、安全で管理しやすいソリューションを提供します。組織は、統一された認証、簡素化されたツール検出、削減されたメンテナンスオーバーヘッドの恩恵を受けながら、単一の中央集約型インターフェースを通じてツールを管理できるようになりました。 詳細情報と高度な構成については、 GitHub のコードサンプル 、 Amazon Bedrock AgentCore Gateway 開発者ガイド 、 Amazon AgentCore Gateway の料金 を参照してください。 著者について Frank Dallezotte は AWS の Senior Solutions Architect で、独立系ソフトウェアベンダーと協力して AWS 上でスケーラブルなアプリケーションを設計および構築することに情熱を持っています。彼はソフトウェアの作成、ビルドパイプラインの実装、クラウドでのこれらのソリューションのデプロイに関する経験があります。 Ganesh Thiyagarajan は Amazon Web Services (AWS) の Senior Solutions Architect で、ソフトウェアアーキテクチャ、IT コンサルティング、ソリューション提供において 20 年以上の経験があります。彼は ISV が AWS 上でアプリケーションを変革し、モダナイズするのを支援しています。また、AI/ML テクニカルフィールドコミュニティの一員として、顧客が Gen AI ソリューションを構築および拡張するのを支援しています。 Dhawal Patel は Amazon Web Services (AWS) の Principal Generative AI Tech lead です。彼は、Agentic AI、Deep learning、分散コンピューティングに関連する問題について、大企業から中規模のスタートアップまでさまざまな組織と協力してきました。
本ブログは 株式会社ほくつう 様と Amazon Web Services Japan 合同会社が共同で執筆いたしました。 みなさん、こんにちは。AWSアカウントマネージャーの井沼です。 昨今の異常気象により、日本の地方自治体では、市民の安全を確保するために道路状況の可視化が重要な課題となっています。 特に豪雨や豪雪など気象条件が厳しい地域では、リアルタイムの道路情報が県民の安心・安全な生活に不可欠です。 今回は、福井県様と株式会社ほくつう様が共同で取り組まれた「 みち情報ネットふくい 」の AWS を活用した事例をご紹介します。 お客様のサービス概要 「みち情報ネットふくい」は、福井県内に設置された300を超えるカメラから、リアルタイムの渋滞状況や冬期間の除雪状況を県民に提供するウェブサイトです。 国や自治体向けの総合防災情報プラットフォームを提供し、多種多様な情報通信システムの設計・システム開発・施工・メンテナンスまでのワンストップサービスを手掛ける株式会社ほくつう様が、福井県土木部道路保全課様からの依頼を受けてシステムを構築されました。 「みち情報ネットふくい」は道路管理者の垣根を超えた一元的な交通状況の把握のために、国土交通省やネクスコ、市町、隣接県である滋賀県とも連携を進め、公開するカメラ画像を大幅に増加させています。 従来の課題と背景 福井県は過去に多くの豪雨災害や雪害を経験しています。こうした状況下で、県民が安全に生活するためには、リアルタイムの道路情報が不可欠です。 しかし、従来のシステムでは、全てオンプレミス環境で実現しており、以下のような問題に直面していました: 1.[伸縮性] 悪天候時のアクセス集中に伴うカメラ画像の表示遅延 2.[信頼性] システム障害時における長時間停止のリスク 3.[俊敏性] 配信サーバーのリソース調達に要する時間 解決策の検討と AWS 採用理由 これらの課題を解決するため、ほくつう様は柔軟に拡張が可能な俊敏性を持つクラウドサービスへの移行を検討されました。 複数のクラウドプロバイダーを比較検討した結果、AWSサービスの持つ高い信頼性と伸縮性、豊富な実績とそれに伴う情報量の多さからAWSの採用を決定されました。 実装の詳細 採用した AWS サービスとその役割 「みち情報ネットふくい」のシステム構築には、以下のAWSサービスが活用されています: ・Amazon Elastic Compute Cloud (EC2):ウェブアプリケーションの実行環境として利用 ・Amazon Simple Storage Service (S3): システム全体のログデータの収集・保存に活用 ・Amazon CloudFront:画像データなどのコンテンツの高速配信を実現 システム構成の概要 今回の刷新により、画像の配信環境の全てをオンプレミスからAWSに切り替えています。 システムは、カメラから送信される画像データをAmazon CloudFrontを通じて配信することで、アクセス集中時にも安定的にレスポンスできる構成となっています。 特筆すべき点として、東京リージョンと大阪リージョンの両方に同一の環境を構築し、マルチリージョン構成を採用しています。 Amazon CloudFrontのオリジンフェイルオーバー機能を活用することで、プライマリのサーバーにアクセスできない場合は自動的にセカンダリに切り替わる仕組みを実装しており、ダウンタイムを最小化させています。 この構成により、アクセス集中時でも安定したパフォーマンスの提供および、サーバー障害などのシステムトラブル時においてもサービスを継続できる高信頼性を実現しています。 カメラからの画像収集は引き続きオンプレミスを併用していますが、将来的にはこちらもAWS化を検討しています。 (画像配信環境の構成イメージ ) 導入効果 AWS クラウド基盤の導入により、以下の効果が得られました: 1.ピーク時の表示時間遅延解消 (1分以上 → 最大5秒以内、高負荷でも遅延無く表示) 2.従来環境と同等のコストで高い信頼性を実現 3.急増する需要に対して俊敏にリソース拡張を実現 (2週間 → 数分) お客様の声 福井県土木部道路保全課様の声 「道路は県民の生活や経済活動を支える欠かせないインフラです。『みち情報ネットふくい』は、そうした重要な情報を県民やドライバーの皆様にリアルタイムで分かりやすく提供できる、重要な仕組みです。AWSに移行してから、アクセスの集中しやすい冬の期間においてもリアルタイムで画像表示ができるようになり、県民の方々により一層安心してご活用いただけるようになりました。今後も、より多くの方に活用いただけるよう、さらなる機能強化を図ってまいります。」 株式会社ほくつう様の声 「従来、道路情報はそれぞれの機関が個別に公開しており、災害時などに一目で全体状況を把握できる仕組みがありませんでした。そうした不便さや県民の不安を解消したいという思いが、今回のシステム開発の原動力となりました。国・県・市町・高速道路といった異なる管轄の情報を一括して確認できる『みち情報ネットふくい』は、まさに“生活の安全・安心”を支えるインフラとして、県民に寄り添うことを意識して構築したものです。従来の環境ではシステム構築に半年以上かかるところを、AWS のクラウドサービスを活用することで約 1 か月という短期間で迅速に対応することができました。さらに、AWSのマルチリージョン構成を採用することで運用負荷軽減と高い信頼性を同時に実現することができました。」 今後の展望 ほくつう様と福井県土木部道路保全課様は、今後もAWSのサービスを活用して「みち情報ネットふくい」の機能拡張を計画されています。具体的には、AI を活用した道路状況の自動分析や、より詳細な気象情報との連携など、県民の安全をさらに確保するための取り組みを検討されています。 また、このシステムの成功事例を基に、他の地方自治体への展開も視野に入れており、地域の安全確保に貢献する取り組みを拡大していく予定です。 まとめ 本事例は、AWSのクラウドサービスが地方自治体の公共サービス向上にどのように貢献できるかを示す好例です。特に災害時など、情報が最も必要とされる緊急時にこそ真価を発揮するシステムの構築は、市民の安全を守るという公共サービスの本質的な価値を高めるものと言えるでしょう。 AWSの柔軟なスケーラビリティと高い信頼性を持つサービスは、今後も多くの地方自治体が直面する課題解決に貢献していくことが期待されます。 株式会社ほくつう(右から):社会インフラ事業本部 事業統括部 部長 山口 博文 様 営業部 社会インフラ営業課 西野 茜 様 営業部 社会インフラ営業課 森 将光 様 Amazon Web Services Japan : アカウントマネージャー 井沼 孝輔(左)
はじめに 株式会社ジャパン・インフォレックス (以下、ジャパン・インフォレックス)は、食品業界のメーカーと卸売り等の取引先の間に立つ企業である。同社は240 万件を超える商品マスターを業界標準に基づき一元管理して提供する業界最大のデータベースセンターを保持している。このデータベースは、8,000 社超のメーカーが直接登録するデータと、大手食品卸が代行登録する共有データの 2 種類のデータで構成されている。ジャパン・インフォレックスは、食品卸売業の商品マスターセンターとして業界の標準化と合理化に貢献し、流通 BMS (流通ビジネスメッセージ標準) に準拠した共通 EDI システムで流通デジタル化の推進を担っている。本ブログではジャパン・インフォレックスが実施した商品マスター刷新事例の概要と、その中でどのように AWS が活用されているかを紹介する。   背景と新システムのコンセプト 関係会社と共有している現行システムは、稼働開始から 20 年以上が経過しており、これまで度重なる改修を行ってきた結果、その限界が顕在化してきていた。根本となるアーキテクチャ設計は 30 年以上前のものであり外部環境に適合しづらく、複雑化したシステムはブラックボックスになりメンテナンスに多大な労力とコストがかかっていた。食品業界全体で「デジタル化」が進むなかで、環境の変化に柔軟に対応し、安定した事業基盤を構築することが急務であった。従来のレガシーシステムを脱却し「業務効率化」「データ精度の向上」に加え新たなニーズへ対応し、商品マスターの機能・サービスの強化を図るために、現行システムの再構築が必要であった。 新システムへの刷新にあたって、以下の4点を基本コンセプトとして検討した。 持続性のあるシステム基盤に移行 HW・OSの保守終了(EOL)に備え、長期的に安定稼働できる基盤と保守体制を構築する。また多様な利用ユーザーの拡大や、多種な通信プロトコルやネットワークへの対応を見据えたシステム基盤を整備する。 保守性の高いアプリケーションに移行 レガシー開発言語を廃止し、機能改善によるセキュリティ強化をする。 利用ユーザーの利便性向上 関係会社と共有するシステムは機能改修時の障壁となるため、機能配置によるサービス独立性の確保をする。また、個別最適化したシステムではなく標準・共通化したサービスを提供する。 デジタル化に備えて新技術を採用 業務の運用負荷や、マスタ項目拡充に向けたメンテナンス負荷を下げるために、業務生産性向上と拡張性を確保する。 ソリューションの概要 新システムの基本コンセプトを実現するにあたり AWS へのシステム移行を決定した。常務取締役 情報システム部の我妻部長によると「AWS を選定した理由は、①インフラとしての堅牢性が高く、②セキュリティ対策も充実している。GuardDuty、Security Hub などのサービスがある。また、③連携パートナーが多いことも決め手となった」とのことである。 商品マスター管理システムは、IBM AIX 上で稼働しており、Micro Focus COBOL や、KornShell などレガシーなシステムとなっていた。また、対象システムは100万ステップ近くのプログラムとなっており、まずは老朽化したシステムのクラウド化への移行を優先し、その後次期システム構想に向けたモダナイゼーションを実施することとした。AWS 上のシステム構成としては、Amazon EC2(Windows Server 2019)、Amazon RDS for Oracle(Oracle 19c)を中心にしつつ、KornShell から PowerShell への変更、Micro Focus COBOL の新バージョン対応、Oracle 9i からOracle 19c への対応など古い資産の改善も図った。 ・移行元、移行先の環境 プロジェクトは複数のベンダーで構成され、エスカレーションルートを明確にして全ての情報を共有できる仕組みを整えた。また、我妻部長は、「AWS の知見が全くないところからこのプロジェクトが始まっている。AWS のソリューションアーキテクトの支援のおかげで、自分たちだけだと調査に半年かかっていたと思うが、1ヶ月程度で情報の整理ができた」と語っている。 その後、3日間にわたる開発資産や大容量データ・ファイルの移行作業において、課題発生時には迅速に対応し、タイムスケジュール内に完了した。その結果、無停止で切り替えを実現し、業務影響ゼロで本番稼働した。 ITインフラ領域を担った富士通株式会社の関根シニアマネージャーからは、「今回のプロジェクトは複数ベンダーでプロジェクトを進行したことで、技術的な検討や設計方針の調整が必要だった。しかし、AWS はサービスが豊富で、お客様の要件に合わせてカスタマイズしやすく、柔軟に対応することができた。特に Amazon RDSの利用は構築・運用面で大きなメリットがあった。」と語っている。 ・システム構成図 導入効果と今後の展開 AWS 移行プロジェクトは1年半を要したが、確立されたプロセスおよび体制により、最終的にタイムスケジュール通りの完了を実現した。我妻部長は将来の構想として①意思決定のスピードを上げること、②コストを抑えながらシステムを高度化することの2点を重要なポイントとして語っている。今後は、5 年や 10 年に一度の大規模更新などは避け、継続的な小規模アップデートによる運用を重視する。段階的な改善により総コストを抑制する戦略を採用していく方針である。 今後の展開として技術面では、データベースの OSS 化、API Gateway や AWS Lambda などを活用したサーバーレス化も目指しており、運用コストを削減していく方針である。また、S3 などを活用しデータ活用を高度化し、ビジネス面でも付加価値を高められる仕組みも目指している。そのためには、自社でコントロール可能な範囲でシステムを開発・運用・維持管理できる必要があり、組織・人材面での技術力向上と自社開発能力の強化を進めている。すでに AWS 資格取得者の社員も複数名出てきており、今後更なるスキル向上を図っていく予定である。 ジャパン・インフォレックスが持つ商品マスターは、業界の基本情報だけでなく、品質情報や市場データなどを組み合わせ、より付加価値のある情報を提供していくことで、様々なニーズへ対応しながら強化を図っていく方針である。さらに、生成AI を活用していくことで新たなサービス創出の基盤となることも期待されている。 ・ジャパン・インフォレックス様オフィスにて撮影 (ジャパン・インフォレックス様、富士通様、AWS) まとめ 本ブログでは、ジャパン・インフォレックスで実施した商品マスター刷新事例と、その中で AWS がどのように活用されているかを紹介した。AWS を利用することで 30 年間使用したレガシーシステムからの移行を実現し、技術的な課題解決だけでなく、AI 時代に対応した新たな価値創造基盤の構築が可能になった。本ブログがシステム刷新を検討している皆様の参考になりましたら幸いです。 本ブログは、ジャパン・インフォレックス様、メインベンダーである富士通様、 AWS 中村達也が共同で執筆しました。 著者について 中村 達也(Nakamura Tatsuya) SIerやWeb企業で経験を積んだ後、2019年よりAWSのソリューションアーキテクトとして従事。クラウド活用によるシステム移行や新技術でのイノベーション推進に携わる。現在はエンタープライズ企業の支援を担当し、AWSを最大限活用したデジタル化支援を行っている。
本稿は、2025 年 10 月 1 日に公開された Embracing AI-driven operations and observability at re:Invent 2025 を翻訳したものです。 組織がクラウドプレゼンスを拡大し続ける中、効果的な運用が成功の鍵としてますます重要になってきています。AWS re:Invent 2025 のクラウドオペレーショントラックでは、業界の専門家、AWS のリーダー、お客様が一堂に会し、監視とオブザーバビリティのモダナイゼーションに関する知見を共有します。このブログ記事では、運用とオブザーバビリティの主要なテーマについて説明し、クラウド運用戦略の変革に役立つセッションを紹介します。 モニタリングとオブザーバビリティトラックの参加を計画する 5 つの主要テーマにわたる 30 のセッションを提供するオペレーション管理トラックでは、ハンズオンワークショップから専門家レベルのディスカッションまで、すべての方に向けたコンテンツをご用意しています。re:Invent での参加経験を最大限に活用するために、以下をお勧めします。 優先順位を重点に : 組織の直面している運用上の課題に沿ったセッションを選択してください 形式を組み合わせる : 講義形式のセッションと、双方向対話型のワークショップ、ビルダーズセッションを組み合わせてください スキル開発を計画 : 現在のスキルレベルに合ったセッションと、スキルを伸ばすためのセッションを選択してください 早めに予約 : 人気のセッションはすぐに満席になるため、登録開始と同時に予約を入れてください 生成 AI とインテリジェントな運用 クラウドオペレーションの未来は AI が牽引しており、今年のセッションでは画期的な実装例を紹介します。 COP334 | Accelerating incident response through AIOps | Breakout Session 場所: 12 月 2 日 (火) 午後 3:00 – 4:00 PST | Wynn 生成 AI がテレメトリーデータを自動的に分析し、パターンを特定し、アクションにつながる知見を提供し、AI エージェントを活用することで、運用手法をどのように変革しているかを学びます。最新の AI 機能により、複数のシステムにまたがる何時間もの手動トラブルシューティングを、数分で解決できる効率的な調査に変換する方法を学びます。 COP326 | Elevate application and generative AI observability | Breakout Session 場所: 12 月 3 日(水)午後 2:30 ~ 3:30 PST | Wynn このセッションでは、従来のアプリケーションと生成系 AI ワークロードの両方に対して、Amazon CloudWatch の包括的なオブザーバビリティ機能をどのように活用するかをご紹介します。生成系 AI を活用したワークロードを構築するお客様は、エンドユーザーの成果、AI のパフォーマンス、稼働状態、精度、品質の問題を大規模に理解する上で課題に直面しています。 COP335 | Observability for AI Agents and Traditional Workloads | Breakout Session 場所: 12 月 3 日 (水) 午前 8:30 – 9:30 PST | Wynn このセッションでは、AI エージェントの意思決定や行動パターンから、CPU やメモリ使用率などの従来型インフラストラクチャメトリクスまで、アプリケーションスタック全体を Amazon CloudWatch で観測する方法をご紹介します。AI エージェントのパフォーマンスを既存のアプリケーション監視と併せて追跡する実践的なテクニック、AI コンポーネントと従来型サービス間の問題の相関関係、そして Amazon CloudWatch の検索機能を使用して問題を迅速に特定する方法について学びます。CCC Intelligent Solutions による講演です。 COP403 | Automate cloud operations with AI agents | Workshop 場所: 12 月 2 日 (火) 午後 12:30 – 午後 2:30 PST | Wynn この技術ワークショップに参加して、AI エージェントを使用したクラウドオペレーションの自動化ソリューションを構築しましょう。Amazon CloudWatch の調査と Amazon Bedrock Agents を使用して、合理化されたデバッグとインテリジェントな分析を体験するハンズオン学習ができます。 COP405 | Building agentic workflows for augmented observability | Code Talk 場所: 12 月 2 日火曜日 午前 11:30 – 午後 12:30 PST | Wynn このライブのインタラクティブなコーディングセッションでは、生のテレメトリーを実用的な情報に変換する AI エージェントを構築します。Amazon CloudWatch からメトリクス、ログ、トレースを相関分析するシステムを構築します。このエージェントはパターンを分析し、必要な監視設定を作成し、複雑な問題を自然言語で説明します。エージェントを本番環境に展開して運用イベントに自律的に対応し、予防的な観測ワークフローを作成する方法を紹介します。 COP418 | Monitor the quality and accuracy of your generative AI workloads | Code Talk 場所: 12 月 4 日火曜日 午後 2:00 – 3:00 PST | Wynn このライブコーディングセッションに参加して、Amazon CloudWatch が AI の可視性とトラブルシューティングをどのように実現するかを学びましょう。AWS Distro for OpenTelemetry (ADOT) を通じて自動的に計装された、Amazon Bedrock AgentCore と Amazon EKS を Strands Agent SDK で使用する AI エージェントアプリケーションを構築します。CloudWatch の生成系 AI ダッシュボードでエージェントとモデルの監視データを可視化し、レイテンシー、エラー、スロットリング、トークン使用量などの一般的な課題のトラブルシューティングを行う方法を学びます。信頼性の高い AI アプリケーションを構築・維持するための実践的なスキルを身につけて帰りましょう。 オブザーバビリティとパフォーマンスモニタリング モダンアプリケーションでは、スタック全体にわたる包括的なオブザーバビリティが必要です。 COP336 | Elevating application reliability | Breakout Session 場所: 12 月 3 日水曜日 午後 4:00 – 5:00 PST | MGM Amazon CloudWatch、AWS Systems Manager、AWS CloudTrail などの AWS ネイティブサービスを使用して、レジリエントなインフラストラクチャを構築・維持する方法をご紹介します。自動異常検出と予防措置の実装を実演します。迅速なインシデント調査と継続的な運用可視性を実現するための堅牢なロギングアーキテクチャについて説明します。生成型 AI を活用したインシデント分析の高速化と自動応答プレイブックの使用方法を学びます。インフラストラクチャの障害、セキュリティインシデント、性能劣化など、さまざまな課題に対応します。 COP404 | Build full-stack observability from applications to databases | Workshop 場所: 12 月 1 日(月)午後 3:00 ~ 5:00 PST | MGM このハンズオンワークショップでは、Amazon CloudWatch Application Signals と Database Insights を使用して包括的なオブザーバビリティを実装します。アプリケーションを流れるリクエストをトレースし、データベースのパフォーマンスメトリクスと相関付け、ボトルネックを素早く特定する方法を学びます。CloudWatch を使用して、統合ダッシュボード上でアプリケーショントレース、メトリクス、ログを監視し、SQL を使用して Aurora データベースのパフォーマンスを分析する実践的な体験ができます。 COP329 | Application Performance Monitoring: From design to implementation | Chalk Talk 場所: 12 月 1 日(月)午後 4:00 ~ 5:00 PST | Wynn このチョークトークでは、実際の現場におけるアプリケーションパフォーマンスモニタリング (APM) の課題と、Amazon CloudWatch を使用した解決方法について探ります。アーキテクチャ設計を深く掘り下げ、一般的な落とし穴を特定し、分散システムへの深い可視性を得る方法を紹介する、この参加型セッションにぜひご参加ください。 COP367 | Design effective Amazon CloudWatch dashboards and alarms | Chalk Talk 場所: 12 月 3 日(月)午後 3:00 ~ 4:00 PST | Mandalay Bay このチョークトークでは、ワークロードに適切な可視性とアクションを設計するために、Amazon CloudWatch のダッシュボードとアラームの機能について探求します。このセッションでは、SLO、カスタマーエクスペリエンス、インフラストラクチャの観点から、何を監視するかを決定する方法から始めます。Amazon CloudWatch を使用して、インシデント発生時のノイズや認知負荷を軽減し、チームがワークロードにとって重要な事項を素早く特定できるようにする方法を見ていきます。 セキュリティとコンプライアンス セキュリティは引き続き最優先事項であり、統合されたセキュリティオペレーションに焦点を当てたセッションが用意されています。 COP307 | Enhancing security visibility: building scalable log analytics | Chalk Talk 場所: 12 月 3 日(水)午前 9:00 ~ 10:00 PST | MGM このインタラクティブな Chalk Talk では、包括的なログ分析とリアルタイムな脅威検出のためのスケーラブルなソリューションをご紹介します。カスタムセキュリティダッシュボードの作成、自動アラートの実装、コンプライアンス監視ワークフローの確立に関する実践的なテクニックを説明します。 COP417 | Scale security monitoring using AWS CloudTrail with generative AI | Chalk Talk 場所: 12 月 3 日 (水) 午前 10:30 – 午前 11:30 PST | MGM このインタラクティブなチョークトークでは、AWS CloudTrail を使用したエンタープライズ規模のセキュリティ監視の構築について探ります。参加者は、VPC エンドポイントのネットワークイベント、AI を活用した自然言語クエリ、統合されたコンプライアンスダッシュボードを活用する包括的なセキュリティアーキテクチャの設計について議論します。 COP337 | Correlating compliance signals across AWS | Chalk Talk 場所: 12 月 5 日金曜日 午前 11:30 – 午後 12:30 PST | Caesars Forum このインタラクティブな対話形式のセッションでは、Amazon OpenSearch Service の新しいゼロ ETL を使用して、データサイロを排除し、組織全体で包括的なガバナンスの可視性を実現する方法を探ります。データの移動や複製を行うことなく、オンプレミスやマルチクラウド環境を含む Amazon S3 からデータを直接クエリするデータ間の関連性を分析するワークフローの設計について学びます。 オープンソースと現代的な運用 オープンソースツールを活用しているチームの場合: COP333 | Scaling open source observability stack feat. Warner Bros Discovery | Breakout Session 場所: 12 月 1 日(月)午前 11:30 ~午後 12:30 PST | Wynn このセッションでは、Amazon Managed Service for Prometheus、Amazon OpenSearch Service、Amazon Managed Grafana、OpenTelemetry などの AWS マネージド型オープンソースサービスを活用して、これらの課題を効果的に解決する方法をご紹介します。Warner Bros. Discovery が、セキュリティとコスト効率を維持しながら、大規模なテレメトリーデータの取り込みと処理のためのモダンなアーキテクチャパターンを使用して、オープンソースのオブザーバビリティを実装し、インシデント対応を加速させた方法について学びます。 COP412 | Observability: The open source way | Workshop 場所: 12 月 3 日水曜日 午後 3:30 – 午後 5:30 PST | Venetian Prometheus、OpenSearch、Grafana 向けの AWS マネージドサービスを実践的に体験します。サンプルアプリケーションをデプロイし、OpenTelemetry を使用してインストルメンテーションを行い、オブザーバビリティデータの収集、保存、分析、可視化を行います。インフラストラクチャ管理の負担なく、使い慣れたツールを使用して、コスト効率の高いスケーラブルなオブザーバビリティソリューションを構築する実践的な経験を得ることができます。 特集: AWS の舞台裏 COP415 | AWS Behind the Scenes: How AWS drives operational excellence & reliability | Breakout Session 場所: 12 月 1 日(月)午後 1:30 ~ 2:30 PST | Caesars Forum この技術的な深掘りセッションでは、AWS サービスがどのように運用されているかを舞台裏からご紹介します。サービスの計測方法や監視方法について詳しく説明し、日々の運用において Amazon CloudWatch や Amazon OpenSearch の最新機能をどのように活用しているかをご紹介します。実際の運用事例と、サンプルアプリケーションを使用した実践的なデモンストレーションを通じて、AWS チームが信頼性を維持するために活用しているパターンとプラクティスについて学びます。 参加者向けの実践的な推奨事項 高度なトピックに進む前に、COP328「Implementing Observability at Scale」のような基礎的なセッションから始めましょう。 ハンズオンワークショップをお見逃しなく – COP403、COP404、COP408 では貴重な実践的な経験を得ることができます。 AI オペレーションに興味がある方は、COP334、COP335、COP413 のセッションシリーズで包括的な概要を学ぶことができます。 re:Invent 2025 にご参加いただき、AWS が AI、自動化、高度なオブザーバビリティによってクラウドオペレーションをどのように革新しているかをご覧ください。登録は現在受付中です – 今すぐお席を確保してください! また、Venetian の AWS Village にある Monitoring & observability と AIOps のキオスクにもぜひお立ち寄りください! まだ登録していませんか?まだ参加に間に合います! re:Invent ポータルから登録してください。 この記事の翻訳はソリューションアーキテクトの 原 が担当しました。 Jean Velez Torres Jean Velez Torres は、AGS チームの AWS ソリューションアーキテクトです。プエルトリコを拠点としており、ソフトウェア開発、DevOps のベストプラクティス、ERP システムにおいて豊富な経験を持っています。ソフトウェアエンジニアリングの技術的バックグラウンドとクラウドアーキテクチャの専門知識を組み合わせ、組織がデジタルソリューションを構築・改善することを支援しています。
本ブログは株式会社ジェネコム様と Amazon Web Services Japan 合同会社が共同で執筆しました。 みなさん、こんにちは。Amazon Web Services(以下 AWS)アカウントマネージャーの岩上です 。 株式会社ジェネコム (以下、ジェネコム)様において、顧客体験を起点としたFileMakerソリューション開発の強化とAWSクラウドサービスの活用促進を目指す取り組みの一環として、AWS主催の「Working Backwardsワークショップ」を開催しました。Claris FileMaker開発のPlatinumパートナーとして3,000以上のプロジェクト実績を持つジェネコム様の営業部門・開発部門から10名の社員の皆様にご参加いただき、顧客中心の発想やチームビルディング、実践的なアイデア創出を体験していただきました。 この記事では、ジェネコム様にご参加いただいたワークショップの模様についてご紹介させていただきます。 ジェネコム様について ジェネコム様は、Claris FileMakerを活用したシステム開発とAWSクラウドサービスの提供を通じて、お客様のDX推進を支援する企業です。特に、独自のAWS定額制サービス「 gcmCloud 」により、FileMakerシステムのクラウド環境を迅速かつ柔軟に提供しています。 本セッションを開催するにあたり、ジェネコム様からは以下のような課題とご期待を頂戴しました。 顧客視点の価値の明確化への課題感 :事業成果を意識したサービス設計は進んでいるが、顧客視点での価値創出にはさらなる注力が必要だと認識している。本セッションを通じ、お客様の本質的な課題から逆算して考えるプロセスを体験し、顧客中心の発想を組織に根付かせたいという強いご要望がありました。 gcmCloudサービスの拡販強化 :gcmCloud は Claris FileMaker と AWS の強みを活かした高品質なクラウドサービスです。しかし、認知度はまだ低く、さらなる普及が課題ですClaris FileMakerの運用に加え、AWSサービスとの柔軟な連携という優位性を活かし、多様なビジネス課題解決に貢献できる点を広く発信することで、認知向上と拡販施策を強化したいという強いご要望がありました。 11月開催予定の Claris カンファレンスでの効果的なアピール :本セッションで得た知見を活かし、AWS と Claris FileMaker 連携によるセキュアな生成 AI 導入など、新しいユーザー体験を事例とともに発信したい。これにより、ジェネコム様の技術力を示し、gcmCloud サービスの認知向上と市場展開の加速を目指したいというご要望がありました。 体験版 Working Backwards セッションについて Amazonの「Working Backwards」とは、「お客様は誰ですか?」 から始まる5つの質問を通じて、本当に必要なサービスを企画・開発していく手法です。具体的には、最初にプレスリリース(以下 PR)を書くことで、これからつくるプロダクトやサービスを明確にします。このPR文章とFAQ(よくある質問)を通じ、顧客起点のサービス価値について深く考えます。 今回実施した「体験版Working Backwardsセッション」は、お客様を中心とした創造的課題解決アプローチのエッセンスを簡易に体験いただくワークショップです。個人ワークを中心とした約2.5時間のマイクロ版と、個人ワーク・グループワークの両方を行う約4時間のミニ版セッションがありますが、今回は前述の顧客中心の発想を組織に根付かせたいという課題に取り組むため、グループワークを含むミニ版をご選択いただきました。 セッションは具体的には以下の流れで進行しました。 セッションテーマの設定。今回は事前に 「FileMaker × AWSを活用した利用者の新たなユーザー体験とは?」 と合意 「お客様は誰か」「どんな課題をどう解決するか」を個人で考え、グループで議論しつつ定義 初期のアイデアを深掘りし、解決策を考え、それらを盛り込んだPR文案を作成 グループ間でPR文をレビューし、アイデアを更に発展させるためのディスカッション このプロセスを通じて、参加者はお客様中心のサービスデザインや、課題から考える逆算思考を体感し、実際の業務への応用イメージを膨らませることができました。 また参加者の理解度にばらつきがあることを考慮し、前半パートではAWS岩上によるAWS基礎、ジェネコム高岡CEOによる FileMaker の基礎について座学を組み込み、理解度の底上げを図りました。 体験版 Working Backwards セッションのワーク内容 実施効果と参加者の声 参加者は2つのチームに分かれ、対面とリモート参加のハイブリッド形式で実施。各チームには営業・開発両部門のメンバーを配置し、多様な視点からの議論を促進しました。 ワークショップ中議論の模様 実施効果と参加者の声 ワークショップ後のアンケートでは、全体満足度4.77(5点満点)と非常に高い評価をいただきました。参加者からは以下のような声が寄せられています: 「難しかったですが、何回も同じようなワークを繰り返すことで改善できるものと思うので、今後対応していきたい」(営業部門) 「当社スタッフに足りないスキルを学ばせていただきました。スタッフ達は、このワークショップを経験したことで、いくつもの気付きを得ることができたと思いますので、本日教わったことを社内でさらに煮詰めていきたいと思います。」(CEO) 特に、顧客視点でのサービス価値の創出プロセスや、部門を越えた協働の重要性について、深い気づきを得られたとの評価をいただきました。 今後の展望 本ワークショップを通じて得られた知見を活かし、ジェネコム様はFileMakerとAWSを組み合わせたソリューションの更なる進化を目指されています。AWSは引き続き、パートナー企業様と連携しながら、ジェネコム様のビジネス成長とイノベーション推進をご支援してまいります。 本記事公開時点では、体験版Working Backwardsセッションは招待制のイベントとなります。AWS側の担当者がお客様の状況を鑑みてご案内差し上げておりますので、予めご了承ください。
こんにちは。ソリューションアーキテクトの松本侑也です。 パブリックセクター技術統括本部で自治体のお客様の技術支援を担当しています。 2025 年 10 月 31 日に「第 2 回 自治体事業者向け AWS ガバメントクラウドワークショップ 2025 in 大阪」を開催しました。第 1 回は 2025 年 6 月 17 日に東京で開催されています。第 1 回のイベントについて知りたい方は下記のブログをご参照ください。 【開催報告】自治体事業者向け AWS ガバメントクラウドワークショップ 2025 in 東京 | Amazon Web Services ブログ このイベントは、第 1 回に引き続き、ガバメントクラウドへの標準化対象業務システムの移行を進める上で必要となる技術について深く学び (Dive Deep)、実践的なワークショップを通じて技術スキルを高め、さらに参加者同士の交流 (Have Fun) を目的としています。 本ブログでは、イベント内容を簡単にご紹介しつつ、当日のセッションやワークショップの様子を共有いたします。 本イベントは、夜に開催された 第 4 回 Gov-JAWS の参加者も合わせ、総勢 91 名が参加する大規模なイベントになりました。 イベント概要 「自治体事業者向け AWS ガバメントクラウドワークショップ 2025 in 大阪」は以下のような形で実施しました。 日時 : 2025 年 10 月 31 日 (金) 13:00-18:30 (懇親会 + Gov JAWS: 18:30-20:30) 場所 : アマゾン ウェブ サービス ジャパン合同会社 大阪オフィス 参加対象 : 運用管理補助者、ASP、自治体向けパッケージ開発者の方々、自治体 1. 事例・デジタル庁 セッション まず前半では、注目度の高いテーマについてセッションを実施しました。 生成 AI によるガバメントクラウド運用管理補助業務の効率化 – 株式会社アイネス 田中 翔 氏 GCAS Connectと公共SaaSについて – デジタル庁 宮川 亮 氏, 西村 毅 氏 2. テーマ別ワークショップ 後半は、参加者が以下の4つのワークショップから自身の関心や課題に合わせて選択できる形式を採用しました。 ワークショップ名 主な内容 クラウドにおける可用性設計の考え方と FISによるテスト実践 AWS Fault Injection Service (FIS) を利用した障害試験と障害調査における生成 AI 活用について コスト最適化 Dive Deep!インスタンス自動停止・起動の実装方法詳解 インスタンス自動停止・自動起動の実装例のご紹介、ハンズオンを通した活用方法の習得 ⽣成 AI による開発・運用効率化ワークショップ 生成 AI による業務効率化と開発支援の実践、Amazon Bedrock を利用したアプリケーション開発入門 つくば市事例から考える、自治体生成AIビジネスの作り方 自治体における生成AI活用方法を、具体的な業務課題とそれを解決するソリューション含めてご紹介 具体的に手を動かしたり、自治体職員の方から生の声を聞ける場になっており、参加者からは「割と長丁場でしたがあっという間でした。選択肢が沢山あったのも非常に良かったです。」というコメントをいただきました。 3. 特別セッション セキュリティインシデントへの備え: AWS Security Solutions Architect 中島 章博 ガバメントクラウド運用改善からSaaS製品の開発へ: 株式会社大崎コンピュータエンヂニアリング 久保田 亨 氏 事例セッション – ハイライト 生成 AI によるガバメントクラウド運用管理補助業務の効率化 株式会社アイネスの田中 翔氏から、ガバメントクラウド上で100以上の自治体システムを運用する中で直面した課題と、生成 AI を活用した解決策についてご紹介いただきました。 同社では、システム数の増加に伴い「運用監視チームの拡大には限度がある」「障害が集中した場合に SLO 内での対応が困難になる」という課題に直面していました。この課題を解決するため、AWS Failure Analysis Assistant (FA2) を Amazon Bedrock のエージェント機能と組み合わせた「エージェント版 FA2」を開発しました。 Amazon CloudWatch からアラームが発生すると、Bedrock エージェントが自動的に Amazon Athena のログやインスタンスの稼働情報を確認し、障害の発生原因と解決策を提示します。導入効果として、障害調査にかかる時間が10分の1に減少し、障害調査ができる人数が10倍に増加しています。 GCAS Connectと公共SaaSについて デジタル庁から、西村 毅氏による公共 SaaS の共通要件と、宮川 亮氏による GCAS Connect についてご紹介いただきました。 西村氏からは、2025 年 9 月 30 日に公開された「公共SaaSの共通要件にかかる技術方針 (1.0版)」について説明がありました。公共 SaaS とは、ガバメントクラウド上で稼働し、制度官庁等が標準仕様を定める情報システムを SaaS として構築したものです。アーキテクチャ要件では、カスタマイズを行わずマルチテナント構成とすること、業務アプリケーションのソースコードは全テナント共通とすること、外部システムとのデータ連携は API 連携とすることなどが必須要件として定められています。 宮川氏からは、ガバメントクラウドの利用をネットワークの面から支援する GCAS Connect についてご紹介いただきました。GCAS Connect は、同一団体内の異なる CSP 間を閉域ネットワークで接続する機能と、公共 SaaS などの共通サービスに閉域ネットワークで接続する機能を提供します。IPv6 アドレスを利用することで複雑なアドレス変換なしですべての共通サービスへ接続が可能となり、それぞれの共通サービスと個別のネットワーク回線を準備することなく、GCAS Connect という1つのネットワークで接続できるようになります。 テーマ別ワークショップ つくば市事例から考える、自治体生成 AI ビジネスの作り方 つくば市の横田 雅代氏と AWS の岩田 尚徳から、自治体基幹系システムにおける生成 AI 活用の実証事例についてご紹介しました。 実証では、AWS が公開しているオープンソースの生成 AI アプリケーション Generative AI Use Cases を活用し、2つの業務で検証を行いました。1つ目は、ひとり親相談業務での相談経過の要約です。 Amazon Transcribe による音声の書き起こしと Amazon Bedrock による要約機能を組み合わせた検証を実施しました。2つ目は、保育所入園申請の審査業務です。申請書と添付書類 (PDF) を生成 AI で照合し、不備確認を自動化する仕組みを検証しました。 つくば市においては個人番号利用事務系の領域で生成 AI を利用するにあたり、PIA (特定個人情報保護評価) の実施やセキュリティポリシーの見直しも並行して進めており、実用化に向けて着実に前進しています。 また、つくば市の事例紹介の後には Generative AI Use Cases を使ったハンズオンを行いました。画像生成やチャットなど基本的なユースケースのほか、つくば市で実証が進んでいる音声書き起こし・要約機能の実践を行いました。 参加者からは「実例を含めた内容で非常にわかりやすく、今後のビジネス化に向けて、とても勉強になりました」「身近な団体の生の事例、対応を直接伺う機会は非常に貴重で参考になるものでした」といった感想が寄せられました。 コスト最適化 Dive Deep!インスタンス自動停止・起動の実装方法詳解 AWS から、ガバメントクラウドにおけるコスト最適化の手法として、インスタンスの自動停止・起動の実装方法について詳しく解説しました。 ガバメントクラウドの費用の大半を占める Amazon EC2 、 Amazon RDS 、 AWS Fargate といったコンピュートリソースに対し、夜間休日などシステム稼働の必要性がない時間帯にリソースを停止することで、大幅なコスト削減が可能です。ただし、実装にあたってはメンテナンスウィンドウ、バックアップ、パッチ適用等の時間帯等、個々のシステムごとに考慮すべき点もあります。 本ワークショップでは、 Amazon EventBridge と AWS Step Functions を組み合わせた自動停止・起動の仕組みを解説しました。タグベースで対象リソースを管理し、EC2、ECS on Fargate、RDS などのサービスを対象に自動停止・起動を実現できます。また、Step Functions を介することで、システム固有の動作確認等の組み込みや、緊急時の手動による環境起動にも対応可能です。 参加者からは「実際でガバクラで課題になっている問題の対策となる勉強内容であった」「EventBridge も普段触ることがなかったので勉強になった」といった感想が寄せられました。 クラウドにおける可用性設計の考え方と FISによるテスト実践 AWS から、クラウドレジリエンスの考え方と AWS Fault Injection Service (FIS) を活用した障害試験、生成 AI を使った障害調査について解説しました。 従来の「壊れない」システムを目指す堅牢性のアプローチから、「壊れてもすぐ回復する」システムを目指すレジリエンスのアプローチへの意識変革が重要です。AWS FIS を使用することで、アベイラビリティーゾーンの停電シナリオなど、実環境の条件で障害注入テストを簡単に実行できます。 また、障害調査・対応の効率化として、 Amazon Q Developer と Amazon CloudWatch investigations を紹介しました。CloudWatch investigations は、関連するメトリクスやログ、 AWS CloudTrail などの情報を自動で収集・分析し、調査結果から「仮説」と「アクション」を提案することで、迅速な障害対応を支援します。 参加者からは「すぐにでも使いたい内容だった」「実際に手を動かせたので記憶に残りやすいと思いました」「新たな障害対応のアプローチが増えて非常に参考になりました」といった感想が寄せられました。 ⽣成 AI による開発・運用効率化ワークショップ AWS から、生成 AI を活用した開発・運用業務の効率化について、実践的なハンズオン形式で解説しました。 ワークショップは3つのパートで構成されました。 1つ目は、運用業務への導入として、 株式会社大崎コンピュータエンヂニアリング様の取り組み を参考にした AWS CloudTrail ログの要約機能を体験しました。 Amazon Bedrock を使用することで、大量のログから特定の操作を抽出し、確認すべきログをメール送付する仕組みを実装し、運用管理補助業務の効率化を実現します。 2つ目は、Amazon Bedrock を使った生成 AI アプリ開発の基礎として、API の呼び出し、プロンプトエンジニアリング、RAG や Tool Use の実装を体験しました。3つ目は、 Amazon Q Developer を使った AI コーディング体験です。TODO アプリや CloudTrail 分析アプリ、AI エージェントアプリなどの開発を通じて、Amazon Q Developer が自律的にコード生成、デバッグ・エラー修正を行う様子を体験しました。 また、Amazon Q Developer CLI と Model Context Protocol (MCP) を組み合わせることで、 Amazon CloudWatch や AWS ドキュメントの情報を活用した高度な調査や開発が可能になることも紹介しました。 参加者からは「Bedrock の使い方がハードルが高いと思っていたが簡単に使えそうなことが分かったので是非社内で展開できるようにしたい」「エラーの原因究明にかなり有効性があると感じた」といった感想が寄せられました。 特別セッション – ハイライト セキュリティインシデントへの備え AWS の中島 章博から、ガバメントクラウドにおけるセキュリティインシデントへの備えについて解説しました。 脆弱な公開サーバーは短時間で攻撃され、侵害されたワークロードは暗号資産マイニングや踏み台として悪用される可能性があります。これらの脅威に対し、初期設定で有効になっている AWS CloudTrail 、 Amazon GuardDuty 、 AWS Security Hub CSPM などのセキュリティサービスを活用することが重要です。 インシデント対応に備えるため、ログの取得を確実に行うこと、セキュリティ担当者連絡先の設定と AWS からの通知への適切な対応、生成 AI を活用した効率的なログ分析などを紹介しました。 参加者からは「改めてセキュリティ対策に関する意識を向上させるきっかけとなりました」「セキュリティに関しての知見が深まりました」といったコメントをいただきました。 ガバメントクラウド運用改善から SaaS 製品の開発へ 株式会社大崎コンピュータエンヂニアリングの久保田 亨氏から、ガバメントクラウド運用における課題と、それを解決するための自動化ツール開発についてご紹介いただきました。 ASP 運用管理補助では、バッチジョブの状況やアラートメールを当番制で毎日目視確認しており、業務 SE の運用負荷が非常に高いという課題がありました。この課題に対し、 Amazon Connect を活用した運用フロー自動化を実現しました。 Amazon SES 、 AWS Lambda 、 Amazon SNS 、 Amazon EventBridge 、 Amazon DynamoDB を組み合わせることで、メール確認、切り分け、対応状況管理、連絡といった一連のフローを自動化しました。 さらに、これらの取り組みで作成したツールを SaaS サービスとして製品化しています。 参加者からは「現在人的対応を実施しているため、弊社でも同様の自動化を検討したいと思います」といったコメントをいただきました。 Gov-JAWS コミュニティの活動紹介 ワークショップと併せて、 Gov-JAWS の活動も行われました。 Gov-JAWS は、AWS のユーザーコミュニティ「 JAWS-UG 」の支部として、公共分野における AWS 利用に焦点を当てた新しいコミュニティです。政府や自治体が進める公共分野のクラウド利用に関連する知識やノウハウを共有するための場として設立されました。   イベント当日は夜の部として Gov-JAWS 第 4 回 Meet Up が開催され、懇親会と併せて多くの参加者が交流を深めました。このコミュニティを通じて、今後も公共分野でのクラウド活用に関する情報共有と横のつながりの拡大が期待されています。 まとめ 今回のワークショップでは、ガバメントクラウド特有の知見を共有すること・最先端の生成 AI を公共領域でどう活用していくかに焦点を当てました。自治体やデジタル庁職員の方をお招きし、様々な観点からガバメントクラウドや生成 AI の活用についてを深掘りすることができました。 参加者からは「このような場を次回も開催していただけると大変ありがたい」「大きすぎず、直接事例が聞けるイベントはありがたく今後も継続してほしいです」といったフィードバックが寄せられました。 ご参加いただいた方におかれましては、お忙しい中ご足労いただき誠にありがとうございました。 今後も、AWS ではガバメントクラウドの活用を支援するためのイベントや情報提供を継続して実施してまいります。 ガバメントクラウドに関するお問い合わせ AWS の公共チームではガバメントクラウドクラウド相談窓口を設けております。 ガバメントクラウド利用全般に関するお問い合わせについて、担当の営業およびソリューションアーキテクトがご回答いたします。ぜひご活用ください。 https://aws.amazon.com/jp/government-education/worldwide/japan/gov-cloud-advisory-site/ 著者について 松本 侑也 アマゾン ウェブ サービス ジャパン合同会社のソリューションアーキテクト。パブリックセクター技術統括本部に所属し、自治体のお客様の技術支援を担当。ガバメントクラウドにおける標準化対象業務システムの移行支援や生成 AI の活用支援に取り組んでいる。
本ブログは 2025 年 10 月 4 日に更新された Amazon News “ How AWS Wickr is helping save lives in crisis situations ” を翻訳したものです。 アフガニスタンからの避難活動からハリケーン・ヘレンの救援活動まで、AWS Wickr は非営利団体と米国陸軍の活動を支援し、戦闘地域でのセキュアな通信を実現しています。 この記事は、2023 年 3 月 23 日の初版公開以降、更新されています。 主なハイライト AWS Wickr は、タリバンの監視から保護された安全な暗号化通信を通じて、非営利団体の Operation Recovery が約 4,000 人の危険にさらされたアフガニスタン市民を避難させることを支援しました ハリケーン・ヘレンの際、米国陸軍は 15 分以内に AWS Wickr をデプロイし、複数の民間機関にわたるセキュアな通信を確立しました Wickr の HIPAA 準拠の暗号化により、COVID-19 パンデミック中に、リソースが限られた病院と遠隔地の専門医との間で重要な遠隔医療接続が可能になりました AWS Wickr は、エンドツーエンド暗号化と管理制御を通じて通信を保護するように設計された、セキュアなコラボレーションアプリケーションです。データのプライバシーとセキュリティの最高基準を維持しながら、チーム間での機密メッセージング、ファイル共有、通信を可能にします。 Wickr では、各メッセージは新しいランダムキーで暗号化されます。テキスト、ファイル、音声、動画を含むメッセージコンテンツは、転送中は解読不可能な状態を保ちます。意図された受信者以外の誰も (AWS でさえも) それを復号することはできません。 AWS Wickr が 4,000 人の危険にさらされたアフガニスタン市民の避難を支援 1 年以上にわたり、Jawid は妻と再会できるかどうか疑問に思っていました。アフガニスタン出身の元通訳である彼は、米国市民権を取得する前に米国陸軍で働いていました。Jawid は、妻の Farzana がビザ手続きを完了したら彼女を迎える計画で米国に移住しました。しかし、2021 年 8 月 15 日にタリバンがアフガニスタンを制圧したとき、彼らの計画は打ち砕かれました。Farzana は、他の何千人ものアフガニスタン市民と同様に避難できず、夫が米国陸軍とつながりがあったため、タリバンの報復の危険にさらされていました。 「昼も夜も、どうやって家族をアフガニスタンから脱出させるか考えていました」と Jawid は振り返ります。「妻はいつも『解決策は見つかった?』と聞いてきました」 タリバンの制圧後、Jawid は Operation Recovery に助けを求めました。これは、海外にいる苦境に立たされた米国人と米国の同盟者を支援することを使命とする米国を拠点とする非営利団体です。Farzana は、Operation Recovery の避難リストに載っているアフガニスタンの 7,500 人以上の申請者の 1 人でした。 「タリバンがインターネットを管理していたため、メールは信頼できる通信手段ではありませんでした」と、Operation Recovery の社長兼 CEO である Jon Collette 氏は述べています。「私たちにはセキュアな通信が必要でした」 これを実現するために、Operation Recovery は AWS Wickr に注目しました。 コンサルティング会社 UNCOMN と共に、AWS チームは Operation Recovery の既存の避難者管理システムと統合し、支援ボランティア (シェパード) と避難者にエンドツーエンド暗号化通信を提供するソリューションを開発しました。また、避難者が自分の位置情報を共有してから情報を削除できるように「閲覧後自動削除」メッセージも提供し、ウェブトラフィックを AWS トラフィックに偽装することで発見されることを回避しました。このソリューションには、避難者の避難状況に関するよくある質問に答えるボットも含まれていました。これにより、シェパードは人手を介さずに、いつでも Operation Recovery のシステムから情報を照会できるようになりました。 Operation Recovery は AWS Wickr を使用して、2021 年に Farzana を含む約 4,000 人の危険にさらされたアフガニスタン市民の避難を支援しました。3 年間離れ離れになった後、彼女はついに米国で Jawid と再会し、夫婦は新しい生活を築いています。 2021 年のタリバン制圧時に避難する危険にさらされたアフガニスタン市民。写真提供: Operation Recovery AWS Wickr は他の危機的状況でも重要な通信課題を解決 2024 年のハリケーン・ヘレン対応活動中、陸軍は地元の民間機関と連携するための通信ソリューションとして AWS Wickr の実装に成功しました。 2024 年 9 月に嵐がノースカロライナ州を襲ったとき、第 18 空挺軍団はわずか 10~15 分でセキュアな通信ネットワークを確立し、地元の法執行機関、警察、消防署がネットワークに迅速に参加できるセルフサービスオンボーディングウェブサイトを作成しました。これにより、即座に各組織間でのコミュニケーションが可能になりました。AWS Wickr は個人用デバイスと政府用デバイスの両方で機能し、民間機関が完全な軍事デバイス管理を必要とせずに参加できる階層型アクセス制御を提供し、数分以内の迅速なデプロイを可能にしました。 COVID-19 パンデミック中、 米国陸軍遠隔医療・先端技術研究センター (TATRC) は AWS Wickr を使用して命を救うソリューションを開発しました。Wickr のエンドツーエンド暗号化機能により、機密医療データを扱うための HIPAA 要件と国防総省のセキュリティ要件の両方への準拠が保証されました。彼らの National Emergency Tele-Critical Care Network (NETCCN) は、セキュアなメッセージング、ビデオ通話、ファイル共有を通じて、リソースが限られた病院と遠隔医療専門家を接続しました。このセキュアなネットワークは米国全土の 60 以上の病院に正常にデプロイされ、ミズーリ州の病院ではわずか 3 時間でソリューションが稼働しました。米国陸軍は後に、グアムでの COVID-19 急増に対応してこの重症治療ネットワークをデプロイしました。そこの看護師は、サンディエゴの ICU 医師と接続して治療を指導してもらい、緊張性気胸に苦しむ患者を救うためにこれを使用しました。 この成功を基に、米国陸軍は AWS Wickr と AWS Private 5G を組み合わせて遠隔戦闘環境で機能する Military Emergency Tele-Critical Care Platform (METCC-P) として、この技術を軍事用途に適応させました。これにより数百人の命が救われたと推定されています。軍の医学生がトレーニングに使用し、15 秒以内に使い方を習得したこの直感的なプラットフォームは、衛生兵が訓練レベルを超えたケアを提供できるようにしました。利用者の一人は「ポケットに集中治療医がいるようなもの」と表現しています。 本ブログは Security Solutions Architect の 中島 章博 が翻訳しました。
みなさん、こんにちは。ソリューションアーキテクトの杉山です。今週も 週刊AWS をお届けします。 12 月 1 ~ 5 日にかけて、 AWS re:Invent 2025 が開催されます。これに伴い、 2025 年 AWS re:Invent 速報  が YouTube ライブで配信されます。re:Invent は日本時間の深夜からスタートしているので、なかなか情報のキャッチアップが難しいところがありますが、この速報は金曜日の 12:00 – 13:00 に開催され、お昼時間帯にスマホなどでご覧いただきやすいと思います。ぜひ事前登録のうえご覧ください! それでは、先週の主なアップデートについて振り返っていきましょう。 2025年11月3日週の主要なアップデート 11/3(月) Amazon Kinesis Data Streams が On-demand Advantage モードを開始 Amazon Kinesis Data Streams で新しい On-demand Advantage モードをサポートしました。従来提供していた On-demand Standard モードでは、通常のトラフィック量の 2 倍まで即座にスケーリングされましたが、2 倍を超える場合、最大 15 分のスケーリング時間がかかっていました。新しい On-demand Advantage モードでは、Warm Throughput と呼ばれるリソースを事前準備する機能があり、そのリソースに基づいて即座にスケーリングが可能となります。また、料金の面では、新しい On-demand Advantage で各種料金の単価が安価になっています。最低の利用料金 (25 MiB/秒) が発生するため、中規模以上の使い方の場合に安価になる可能性が高い、という考え方になります。従来の On-demand Standard と比較して 60% 削減され、データ取り込みが 0.032 ドル/GB とコストが安価となります。詳細は こちらの Blog 記事をご参照ください。 Mountpoint for Amazon S3 と Mountpoint for Amazon S3 CSI driver に監視機能を追加 Mountpoint for Amazon S3 に監視機能が追加され、CloudWatch や Prometheus などの観測ツールでリアルタイム監視が可能になりました。OpenTelemetry Protocol (OTLP) を使用してリクエスト数やレイテンシなどのメトリクスを自動出力できるため、以前のようにログファイルを手動解析する手間が削減できます。S3 アクセス権限エラーなどの問題を EC2 インスタンス単位で詳細に把握でき、アプリケーションの障害対応が楽になります。詳細は こちらの手順書をご参照ください。 Amazon Cognito が Machine-to-Machine アプリクライアント価格ディメンションを削除 Amazon Cognito の machine-to-machine (M2M) 認証における料金の考え方が更新され、シンプルになりました。アプリクライアント単位の固定課金(月額 $6 /クライアント)が廃止され、トークンリクエスト数のみに基づいて課金されるようになります。多数のサービス連携が必要な環境の場合、クライアントあたり $6 の料金が気になることがありましたが、今回の廃止に伴いコスト削減が可能となります。トークンリクエストの料金は、$0.00225/1,000トークンリクエストとなっています。詳細は こちらの価格ページをご参照ください。 11/4(火) Amazon Bedrock AgentCore Runtime で Direct Code Deployment をサポート Amazon Bedrock AgentCore Runtime で Direct Code Deployment (直接コードデプロイ) という新しいデプロイ方式が追加されました。従来のコンテナベースに加えて、zip ファイルを直接アップロードしてデプロイできるようになり、コンテナ知識がない方も素早く開発が可能になります。 Amazon Bedrock AgentCore starter toolkit を利用すると。「agentcore launch」コマンドを実行するだけで、裏側で自動的に zip 化とアップロードをしてくれる機能があり、開発と動作確認のサイクルを早く回すことができます。東京リージョンなど 9 つのリージョンで利用可能です。詳細は こちらのドキュメントをご参照ください。 Amazon RDS for Oracle が R7i メモリ最適化インスタンスで利用可能に、最大 64:1 のメモリ対 vCPU 比を提供 Amazon RDS for Oracle で R7i メモリ最適化インスタンスが利用可能になりました。最大 64:1 のメモリ対 vCPU 比のリソースを提供します。Oracle データベースで高メモリが必要な一方、 CPU 処理能力はそれほど必要ないワークロードに最適です。従来よりも少ない vCPU でアプリケーション性能を維持できるため、Oracle のライセンス費用を削減できます。R7i インスタンスは、Oracle Database Enterprise Edition と Oracle Database Standard Edition 2 の、Bring Your Own License (BYOL) で利用できます。License Include は利用できません。詳細は こちらのドキュメントをご参照ください。 AWS Service Reference Information で SDK オペレーションからアクションへのマッピングをサポート AWS Service Reference Information と呼ばれる、各 AWS サービスに関する情報を JSON で取得できるサービスにアップデートがあり、SDK Operation to Action Mapping (SDKオペレーションから IAM アクションへのマッピング) 機能が追加されました。AWS Service Reference Information は聞きなれないかもなのですが、プログラム上から各種自動化をするための JSON 形式の情報を取得できるサービスです。この新しい機能により、開発者は「特定の SDK オペレーション(例:boto3 の s3.get_object)を呼び出すには、どの IAM パーミッションが必要か?」という質問に対して、プログラマティックに答えを得られるようになりました。IAM ポリシー管理の自動化に活用しやすくなるアップデートです。すべてのサービスに対応しているわけではないですが、EC2、EBS など主要なサービスは対応しているように見えます。詳細は こちらのドキュメントをご参照ください。 ブラウザからもアクセスすることができて、 こちらの URL を開くと、JSON で取得できる様子が確認できます。 EC2 Auto Scaling が混合インスタンスポリシーを持つ Auto Scaling グループでのウォームプール対応を発表 EC2 Auto Scaling で、複数のインスタンスタイプを使用する Auto Scaling グループにおいてウォームプール機能が利用可能になりました。ウォームプールは事前に初期化されたインスタンスのプールで、アプリケーションの起動時間を短縮できる機能です。これまでは単一インスタンスタイプでのみ利用できましたが、今回のアップデートにより複数のインスタンスタイプと組み合わせることで、可用性を高めながら効率的にスケールアウトできるようになりました。詳細は こちらのドキュメントをご参照ください。 11/5(水) Amazon CloudFront が Anycast Static IP で IPv6 サポートを追加 Amazon CloudFront の Anycast Static IP で IPv6 サポートが追加されました。従来は IPv4 のみでしたが、今回のアップデートで IPv4 と IPv6 の両方を同時利用できるようになりました。CloudFront は通常、トラフィックを配信する能力を高めるために、動的に IP アドレスが変化します。Anycast Static IPs 機能を利用することで、固定の複数静的 IP アドレスを利用して、コンテンツの配信ができるようになります。詳細は こちらのドキュメントをご参照ください。 新しい EC2 R8a メモリ最適化インスタンスの発表 AWS が新しいメモリ最適化 EC2 R8a インスタンスの提供を開始しました。AMD EPYC 5世代プロセッサを搭載し、従来の R7a と比較してパフォーマンスが 30% 向上、コストパフォーマンスも 19% 改善されています。メモリ帯域幅も 45% 増加し、データベースやインメモリキャッシュなど大量のメモリを必要とするアプリケーションでより高速な処理が可能になります。現在バージニア北部、オハイオ、オレゴンリージョンで利用できます。 Amazon CloudWatch Database Insights がオンデマンド分析で異常検知を拡張 Amazon CloudWatch Database Insights のオンデマンド分析で異常検知機能が拡張されました。従来はデータベース負荷に基づくメトリクス分析のみでしたが、今回のアップデートでデータベースレベルや OS レベルのカウンターメトリクス、さらに負荷の高い SQL 文ごとのメトリクスでも異常を検知できるようになりました。機械学習により自動でベースライン性能と比較し、パフォーマンスのボトルネックを特定して具体的なアドバイスを提供します。これにより障害の原因特定時間を短縮でき、データベース管理者の運用負荷軽減に繋がります。詳細は こちらのドキュメントをご参照ください。 11/6(木) Amazon CloudFront が VPC オリジンのクロスアカウントサポートを発表 Amazon CloudFront で VPC オリジンのクロスアカウントサポートが開始されました。VPC オリジン機能は、CloudFront と連携するオリジンのリソースを、VPC の Private Subnet に配置できるセキュリティ向上のための機能です。これまでは同一 AWS アカウント内の VPC オリジンにしかアクセスできませんでしたが、AWS Resource Access Manager (RAM) を使用することで、異なる AWS アカウントの VPC 内にある ALB や EC2 インスタンスにもアクセス可能になります。マルチアカウント環境でもプライベートサブネット内のリソースを CloudFront 経由で配信できます。詳細は こちらのドキュメントをご参照ください。 Amazon S3 が S3 Tables でのタグをサポート開始 Amazon S3 Tables にタグ機能のサポートを発表しました。この機能により、S3 Tables に対して属性ベースアクセス制御 (ABAC) とコスト配分が可能になります。Amazon S3 Tables は、2024 年12 月の AWS re:Invent 2024 で発表された、分析ワークロードに最適化された新しい S3 の機能です。最近注目されている Apache Iceberg をネイティブサポートしていて、ACID トランザクションでデータの書き込み削除、タイムトラベルで過去のデータにアクセス、といった特徴があります。今回のアップデートで、柔軟なアクセス制御が可能となり、「Aプロジェクトに関係するメンバーは、この S3 Table のみアクセス可能」といったコントロールをタグと属性ベース (ABAC) でコントロールできるようになりました。詳細は こちらのドキュメントをご参照ください。 AWS が Builder Center で新しいリージョン計画ツールを発表 Builder Center で新ツール AWS Capabilities by Region の提供を開始しました。このツールを使うと、各リージョンで利用できる AWS サービスや機能を簡単に比較できます。特徴は、現在の提供状況に加えて、将来のロードマップも一部提供している点にあります。ロードマップなので時期がずれることもありますが、「拡張する予定があるのだな」という目安レベルでご活用いただくのがよさそうです。実際にブラウザからアクセスしてご覧いただけます。閲覧してみると、Bedrock AgentCore の Osaka region での提供が「2026 Q2」と記載があるのを発見できました (確定ではなく、目安というレベルでご確認いただければ幸いです)。 こちらの URL からアクセスが可能です。 11/7(金) AWS Advanced .NET Data Provider Driver が一般提供開始 AWS が .NET 向けの高度なデータベースドライバーを一般提供開始しました。Amazon RDS と Aurora の PostgreSQL、MySQL データベースに対応し、フェイルオーバー時間を大幅に短縮することでアプリケーションの可用性が向上します。従来は接続が切れてしまう場面でも、このドライバーを利用すると自動的に新しいプライマリデータベースに素早く再接続できます。また IAM や Secrets Manager など複数の認証方式に対応し、セキュリティも強化されています。詳細は こちらの GitHub をご参照ください。 Amazon Cognito ユーザープールが AWS PrivateLink によるプライベート接続をサポート Amazon Cognito ユーザープールが AWS PrivateLink に対応しました。これまでパブリックインターネット経由でのアクセスが必要でしたが、VPC 内からプライベート接続で Cognito にアクセスできるようになりました。セキュリティが大幅に向上し、ファイアウォール設定に頼らずに済むため、企業での採用がしやすくなります。この機能は、ユーザープール管理操作 (ユーザープールの一覧表示、ユーザープールの詳細表示など)、管理操作 (管理者によるユーザー作成など)、およびユーザー認証フロー (Cognito に保存されたローカルユーザーのサインイン) をサポートします。OAuth 2.0 認可コードフロー (Cognito 管理ログイン、ホストされた UI、ソーシャル ID プロバイダー経由のサインイン)、クライアントクレデンシャルフロー (Cognito マシン間認可)、および SAML と OIDC 標準による連携サインインは、現時点では VPC エンドポイント経由ではサポートされていません。詳細は こちらのドキュメントをご参照ください。 それでは、また来週お会いしましょう! 著者について 杉山 卓(Suguru Sugiyama) / @sugimount AWS Japan のソリューションアーキテクトとして、幅広い業種のお客様を担当しています。最近は生成 AI をお客様のビジネスに活かすためにアイデア出しやデモンストレーションなどを多く行っています。好きなサービスは仮想サーバーを意識しないもの全般です。趣味はゲームや楽器演奏です
はじめに みなさん、こんにちは。ソリューションアーキテクトの稲田です。 本記事は、2024 年 11 月に公開した「 三菱電機グループエンジニアが作る新しい風 “Mitsubishi Electric AWS User Group (通称:MAWS-UG)” の軌跡 」の続編です。前回記事では、三菱電機の一人のエンジニアの小さな行動から 300 人を超えるコミュニティ「MAWS-UG」へと成長した誕生ストーリーをお届けしました。MAWS-UG とは何か、どのように誕生したかについては、まずは前回記事をお読みください。 私はソリューションアーキテクトとして三菱電機グループを 4 年間担当させていただいており、MAWS-UG の成長をサポートさせていただきました。前回記事の公開から約 1 年。MAWS-UG は単なる技術交流の場を超えて、三菱電機グループの変革を牽引するコミュニティへと進化を遂げています。さらに、 2025 年 1 月には AWS とデジタル領域における戦略的協業に向けた覚書を締結 し、MAWS-UG の活動がより大きな枠組みの中でも重要な役割を担うことになりました。本記事は、大企業での技術コミュニティ形成や組織変革にご関心をお持ちの経営層や管理職の皆様、他社で同様の取り組みをご検討中の皆様にとっても参考になる内容となっています。 本記事では、MAWS-UG がもたらした具体的な成果と変化、そして次世代への継承に向けた新たな挑戦について深掘りしていきます。数字が物語る成長の軌跡、実務への昇華、そして経営層との対話まで。MAWS-UG が示す大企業変革の可能性を、メンバーの生の声とともにお伝えします。 扉が開いた瞬間 – 社外との出会いが変えたもの 前回記事の反響により、AWS 公式ユーザーグループ「JAWS-UG」や他社との技術交流機会が生まれました。これが、MAWS-UG にとって新たな扉が開かれた象徴的な出来事となりました。 AWS 公式コミュニティでの活動拡大 JAWS-UG 初心者支部・千葉支部合同 LT 会の企画中に、太田さん宛に「MAWS-UG の話をしてくれないか?」と打診あったことがきっかけに、MAWS-UG としてのはじめての JAWS-UG 初心者支部での登壇 をすることになりました。このイベントを皮切りに MAWS-UG メンバーたちは積極的に AWS 公式コミュニティの運営側に参加するようになりました。 太田さんは「JAWS-UG 初心者支部運営として社外コミュニティ活動を続けていますが、数年前まで三菱電機は “AWS を活用する会社” としての存在感は薄かったと思います。イベント出展などの全社的な取り組みの成果もあると思いますが、今では MAWS-UG メンバの活躍や前回ブログをきっかけに三菱電機の AWS に対する取り組みに言及されることもかなり増えてきており、”AWS を活用する会社”としての認知度の向上を感じます」と語ります。 小川さんは「JAWS-UG 京都を夏から運営メンバーとして参加し、当社京都事業所メンバーも参加いただくことで、内的コミュニティから外的コミュニティへの遷移を促しています。また、本京都イベントから他社 Jr. Champion と交流が生まれ、現在では関西 Jr. Champion 会のアドバイザーを務めています」と語ります。 辻尾さんも JAWS-UG 横浜支部や E-JAWS 人材育成・クラウド推進体制分科会の運営メンバーとして活動し、「三菱電機のデジタル基盤『 Serendie 』の共創空間である Serendie Street で開催することで、社外と社内のエンジニアたちを繋げる場もつくることができています」と、その意義を語ります。 塚田さんは JAWS-UG AI/ML 支部で「オフラインイベントを主催するなどユーザーに対して貢献できるように対応しています。外部コミュニティ登壇の内容がきっかけで、商業誌出版なども実現しました」と、個人のキャリアにも大きな影響をもたらしています。 会社を越えた製造業の新たな架け橋 この社外への広がりで最も注目すべきは、JAWS-UG を超えて他の製造業企業との交流に発展したことです。これは日本の製造業全体にとって重要な意味を持ちます。 オムロン、村田製作所との交流では「E-JAWS をきっかけに同じ京都にある会社、3社で集まりました。製造業ならではの悩みなどを共有し、互いに刺激をもらっています」と小川さんは語り、新たな技術領域でのコミュニティ展開も計画しています。 AWS 京都異業種交流会 – オムロン、村田製作所との交流 さらに、同業他社であるパナソニック、ダイキンとの交流会も実施し、「同業他社ではありますが、同じ日本を支える製造業として一緒に日本を盛り上げていきたいと考えています。お互いの悩みやチャレンジを共有し、刺激しあっています。交流会をきっかけに関西内製化コミュニティを本格的に立ち上げ中です」と小川さんは語ります。 辻尾さんは「MAWS-UG のような 1 つの会社を横通しできるコミュニティの他、会社間の横通しも大事だと思います。日本の製造業をグローバルで盛り上げるには、共創と競争をうまく使い分ける必要があると思います。特に AWS の活用に関しては、性質上、情報そのものよりも鮮度が大切なのでそれらを業界で共有していくことで、もっと大きな社会課題に注力できるようになると思っています」と、その普遍的な価値を語ります。 一人の記事から始まった小さな波紋が、今や三菱電機と外部コミュニティ、そして他の製造業企業を繋ぐ大きな架け橋となっていたのです。これは、日本の製造業におけるデジタル変革の新たな可能性を示しています。 AWS 製造コミュニティラウンジ – パナソニック、ダイキンとの交流 信頼が生む力-コミュニティから実務への展開 MAWS-UG で培った人間関係が、ついに実際のビジネスの場で真価を発揮する瞬間が訪れました。コミュニティでの交流を通じて築かれた信頼関係が、今度は会社の重要プロジェクトを支える力となっていたのです。 コミュニティから生まれた実働チーム 紅林さんが推進する三菱電機グループ全社の IT インフラのモダナイゼーションプロジェクト。この挑戦に、MAWS メンバーたちが続々と手を挙げました。 プロジェクトチームは順調に拡大し、50 名規模のチームに成長。数字以上に驚くべきは、そのメンバーたちの姿勢でした。従来とは異なるベンチャー気質な雰囲気やスピード感の中で、メンバーからは「このプロジェクトが楽しい!」という声が聞かれます。 MAWS-UG で培われた文化—フラットなコミュニケーション、失敗を恐れないチャレンジ精神、そして何より「楽しさ」を重視する姿勢が、プロジェクト運営にも自然に活かされていたのです。月 1 回開催されるプロジェクト懇親会も好評で、メンバーが業務時間中も終業後も楽しみながら取り組んでいる様子が伝わってきます。 会社がコミュニティを認めた日 – DXイノベーションアカデミー 「まさか会社から正式に依頼が来るとは思いませんでした」と小川さんは驚きを隠しません。 2025 年 4 月、 三菱電機が DX イノベーションアカデミー(DIA)を新設 し、2030 年までに DX 人財 2 万人を育成する壮大な計画を発表した時、そこで MAWS-UG に白羽の矢が立ったのです。クラウド人財育成のための AWS 講座の設計と講師を、MAWS-UG が担当することになりました。 この依頼によって、MAWS-UG は単なる 「業務外の有志コミュニティ」 からひとつ進化を遂げました。「本事例は会社からコミュニティへの業務依頼であり、会社としても MAWS-UG をトップエンジニアが集まる集団として認知しているという証拠です。まさに、会社とコミュニティが融合した事例と言えます」と小川さんは誇らしく語ります。 現場を知る講師たちの挑戦 MAWS-UG メンバーが設計した研修は、従来の座学中心の内容とは一線を画すものでした。「AWS 認定 SAA レベルの知識と現場での実践力を目指して、座学とオンライン自習、チーム実践演習のハイブリッド型研修を設計し、上期に約 40 人が受講し好評でした」 特に杉村さんは講師として強い想いを抱いていました。「DIA では、現場経験がある MAWS-UG メンバーが講師を務め、実際の現場で必要なスキルを厳選して講座を作っています。受講生のセキュリティ系のスキルがちょっと足りないかも…と感じたので AWS を安心・安全に使ってほしいという願いを込めて、そのポイントを教材に盛り込みました」 現場のエンジニアならではの実践的な視点を重視する姿勢が、この発言からも伺えます。 辻尾さんにとっても、この体験は特別なものでした。「自分が AWS に対して抱いているワクワク感を伝えつつ、受講者に現場で実践してもらえるような体験や学びを提供したいと考え、より実践的な内容としました。クラウドのご経験がない方も AWS でシステム構築できるぐらい、アウトプット中心の研修にしています。私たちも講師としては素人なので AWS より研修設計ができるようになるまでご支援をいただきました」 MAWS-UG の講師活動は、より大きな枠組みの中でも重要な役割を果たしています。2025 年 1 月に締結された三菱電機と AWS の戦略的協業に向けた覚書では、「AWS 教育プログラムを用いた DX 人財育成」が協業項目の一つとなっており、MAWS-UG が培ってきた講師経験や実践的な教育ノウハウが活かされることになります。 DIA で講師として登壇する相川さん 数字の向こう側にあるドラマ – 成長の軌跡 MAWS-UG の成長は、定量的なデータからも明確に読み取ることができます。しかし、数字の向こう側には、一人ひとりのドラマが隠されています。 飛躍的な資格取得と公式プログラム選出 最も象徴的な成果が AWS 全認定資格取得者(All Certification Enginerrs)の数です。「2024 年は 11 名だったのが 2025 年は 21 名まで成長しました。自分自身も刺激を受け、All Certification Engineers の1人となりました」と紅林さんは報告します。 さらに、AWS 公式プログラムでも躍進が目立ちます。 AWS Jr. Champion に 2 名 、 AWS Top Engineer に2 名 、 AWS Community Builders に 2 名 がそれぞれ選出されました。 小川さんは「Jr. Champion および次期 Jr. Champion の熱意はすごいです。現在、関西立ち上げから月 1 回ペースで開催し、多くの若者が参加しています」と、次世代育成への手応えを語ります。 活発な対外活動と地理的拡大 外部登壇も大幅に増加しました。小川さんは「年間 20 件程度の外部登壇を行い、AWS Summit 2025 では Community ブースでの登壇、AWS re:Invent 2025 では DevChat での登壇も予定しています」 と語ります。塚田さんも「個人で取り組んだ生成 AI に関連した内容だけで 2025 年は 10 件弱登壇させていただきました。中には多くの反響のいただけたものもあり、モチベーションや自信につながっています。三菱電機としてもAWS Summit 2025 Breakout Sessionをはじめ、様々な機会といただき多くの方と交流する“きっかけ“となっています」と活発な発信を続けています。 関西 MAWS-UG も順調な発展を見せ、「関西でのイベントが多く、三菱電機モビリティ株式会社 三田事業所 で開催したときは 30 人くらい増えました。首都圏から離れた地域での MAWS-UG イベントを増やすことで、製造業でのクラウドシフトや会社全体での文化醸成を達成することができます」と小川さんは分析しています。 対等な議論が生まれた場-経営層との新たな関係 「事業部門の壁をテーマに幹部 VS MAWS-UG の構図でディスカッションを実施しました。ポスターで大分遊んでしまいましたが、幹部も面白がって企画に乗っていただけました(この遊び心が大事!普通の部門なら恐ろしくてできません!)」 小川さんが振り返るこの出来事は、MAWS-UG が達成した最も画期的な変化の一つでした。経営幹部とエンジニアコミュニティが対等に議論する場の実現—それは従来の三菱電機では考えられないことでした。 経営層と MAWS-UG メンバーによるディスカッション 発見された視座の共通性 ディスカッションを通じて興味深い発見がありました。「MAWS-UG メンバーの意見は幹部に近いところがかなりありました。つまり、MAWS-UG 運営を通じて、共創や人財育成などのマインドセットが備わったことにより、幹部に近い視座を獲得できたといえます」 小川さんはこの体験から深い学びを得ています。「コミュニティの運営をするということは、人を巻き込むためのマネジメントをイベントを通じて経験していくということです。人として成長していくためには、こうした実践を通じた経験をどれだけ濃密に詰めるかなので、コミュニティのような小規模で経験を積んでいくのは得るものが多いと言えます」 Melco Day – 三菱電機グループ最大の技術イベント この新たな関係性を象徴するのが、三菱電機グループ向け AWS 社内イベント「Melco Day」です。2019 年に開始されたこのイベントは、参加者が 100 名程度から 2025 年には 2100 名を超える大規模イベントに成長しました。2025 年で第 5 回目を迎えるこのイベントは、2 つの基調講演、5 つの事例セッション、8 つのライトニングトークで構成され、基調講演には 三菱電機 専務執行役 CDO・CIO、デジタルイノベーション事業本部長 武田聡氏 や DX イノベーションセンターセンター長の朝日宣雄氏 が登壇し、事例セッションでは実際のクラウド活用事例を、ライトニングトークでは全国の製作所からクラウド利用のチャレンジ事例が発表されました。 Melco Day 2025 での基調講演風景 辻尾さんは、このイベントの意義を次のように語ります。「MAWS-UG ができる前から開催してきた三菱電機内の事業や業務の AWS 活用事例やノウハウを共有するイベントとして「Melco Day」があります。この中で、MAWS-UG のメンバーも登壇や企画の面で積極的に関わっており、さまざまな事業や業務の現場リーダーと横のつながりを更に強化できたことは、三菱電機のサイロ打破に繋がっていると感じています」 「この場においても、MAWS-UGのメンバーが複数名登壇し、技術的な話題だけでなく組織横断で仲間を作ることの重要性についても多くの方に伝えられました」と紅林さんは語ります。そして何より印象深いのは、紅林さん自身の感慨です。「前回の Melco Day 2023 の懇親会で知り合ったメンバーと MAWS-UG を立ち上げ、Melco Day 2025 でこのように注目を集めることができたことは、非常に感慨深いものでした」 MAWS-UG を立ち上げた頃は「少数の AWS 好きの集まりの様に見えたかもしれませんが、今では社内でも重要なグループであると捉えていただいていると思います」と紅林さんは振り返ります。 “お節介おじさん”たちの想い – 次世代への継承 「やや愚痴ですが、後継者がいません」- 小川さんのこの言葉には、MAWS-UG を築いてきた先駆者たちの切実な想いが込められています。成功を収めた MAWS-UG が直面する最大の課題。それは、この文化と情熱をどう次世代に引き継いでいくかということでした。 “お節介おじさん”としての覚悟 小川さんは関西 Jr. Champion 会での体験を振り返ります。「なんてキラキラした若手がいるんだ!と毎回感動してしまいます。でも彼らに話を聞くと、『先輩に連れてこられた』『先輩に薦められて登壇した』という人が多く、早くから Top Engineer や先輩 Jr. Champion に触れる環境が大切だと言えます」 この気づきが、小川さんに新たな使命感を与えました。「正直、だいたい頭の中にあった自分のやりたいことは概ねできました。ここからは次の世代につなげることが大事です。メンバー数をやみくもに増やすことはせず、しっかりとした三菱電機の新しい文化として次の 100 年に向けて確立していくことが必要です。そのためにも、若手を MAWS-UG の場に引きずり出す”お節介おじさん”としての役割を担っていくこととします」 この”お節介おじさん”という表現に込められたのは、単なる世話焼きではありません。それは、若い才能を見出し、背中を押し、機会を作り出す。そんな積極的な関与への意志でした。 好循環の設計図と門戸開放 紅林さんも、同じような想いを抱いています。「ユーザーコミュニティができたことで、社内の横のつながりが拡大してきています。このつながりを活かして、技術的な相談をもっと活性化させたいと考えています」 そのビジョンは具体的でした。「相談が活発になれば、相談を受ける側はスキルアップでき、相談する側は悩みが解消されて前に進めます。そこから新たな社内事例が生まれ、社内外で発表する機会につながります。発表を通じてメンバーのモチベーションが上がり、コミュニティがさらに活性化する。このような好循環を作りたいと考えています」 また、紅林さんは初心者への配慮も忘れません。「まだまだクラウドに触れたことが無い方も多く社内にはいますので、最初の一歩を踏み出しやすい環境・雰囲気作りができればと思います。楽しい雰囲気を伝えること、また自分たちも楽しいと感じることが重要だと思います」 技術レベルに関係なく、「やってみたい」という気持ちを大切にする文化—それこそが、次世代への最大の贈り物なのです。 最後に辻尾さんは、日本の製造業の変革について語ります。「日本の製造業も時代に合わせて変化していく必要があると考えています。従来はリソース効率にとらわれすぎていましたが、いまは社会やお客様の課題解決につながる活動が必要です。そのためには、広範囲のスキルセットに対する学びの場と、個性やスキルを発揮できるビジネスの場が重要です。MAWS-UG のようなコミュニティは、個人レベルで広範囲に学びはじめるきっかけの場として機能し、製造業におけるリソースマネジメントの変革につながると考えています」 最後に、三菱電機 専務執行役 CDO・CIO、デジタルイノベーション事業本部長 武田聡氏から MAWS-UG への期待のメッセージをいただきました。 「MAWS-UG の皆さんの活動を見ていて、まさに『変革は現場から始まる』ということを実感しています。技術への情熱を持った一人ひとりのエンジニアが、部門の壁を越えて自発的につながり、学び合い、そして実際のビジネス成果につなげている姿は、まさに私たちが目指す DX 人財の理想の形です。皆さんには、これまで培ってきた横のつながりと実践的なノウハウを活かして、より多くの仲間を巻き込み、三菱電機グループ全体のデジタル変革を牽引していただきたいと思います 」 Kiro について語り合う専務執行役 CDO・CIO、デジタルイノベーション事業本部長 武田聡氏と MAWS メンバー おわりに 前回記事から 1 年、MAWS-UG は単なる技術コミュニティを超えて、三菱電機グループの変革を牽引する存在へと進化しました。50 名規模のプロジェクトでの実働、経営層との対等な議論、他社との連携拡大。認定資格全冠保有者の倍増、AWS 公式プログラム選出者の輩出、年間 20 件を超える外部登壇—これらの成果が語るのは、一人ひとりの情熱が組織全体を変革する力となったドラマです。 しかし、真の価値は数字の向こう側にあります。部門の壁を越えた協業、失敗を恐れないチャレンジ精神、そして「楽しさ」を重視する文化。これらは単なる AWS の技術習得を超えて、三菱電機の働き方そのものを変革する力となっています。若手を MAWS の場に「引きずり出す」”お節介おじさん”たちの想いが、次の 100 年に向けた新しい文化として根付こうとしています。 他の大企業や組織で同様の課題を抱える皆様にとって、MAWS-UG の軌跡は一つの道標となることでしょう。「一人のエンジニアの小さな行動」が「組織全体の変革」へと発展する可能性—それは、”お節介おじさん”たちの情熱があれば、どこにでも実現できるのです。ぜひみなさんも一歩踏み出してみてください。 今回インタビューをさせて頂いた MAWS の運営メンバーの方々 小川 雄喜 IoT・ライフソリューション新事業推進センター所属。 AWS Top Engineer 2025 、 AWS Community Builders 、Japan AWS All Certifications Engineers 2025 選出。 JAWS-UG 京都 運営メンバー、関西 Jr. Champion 会アドバイザーとして活動。年間 20 件を超える外部登壇を通じて アジャイル や コミュニティのあり方 などを発信中。 相川 奈槻 通信システムエンジニアリングセンター所属。Japan AWS All Certifications Engineers 2024 , 2025 選出。三菱電機のテクニカルアーキテクトとして、社内 DX 部門への技術支援とネットワーク市場の動向調査・サービス拡販を推進。 辻尾 良太 DX イノベーションセンター所属。 AWS Top Engineer 2025 、Japan AWS All Certifications Engineers 2024 , 2025 選出。三菱電機のデジタル基盤「 Serendie 」の開発に従事。普段は鶏肉とたまごをよく食べますが、野鳥たちとは仲良しのつもりです。 JAWS-UG 横浜支部 や E-JAWS 人材育成・クラウド推進体制分科会の運営メンバーとして社外コミュニティでも活躍。 紅林 俊之 デジタルイノベーション事業本部所属。Japan AWS All Certifications Engineers 2025 選出。三菱電機のクラウドマイグレーションとプラットフォーム再構築を推進する 2 つの大型プロジェクトをリード。MAWS-UG 立ち上げの発起人の一人。 杉村 みさき 通信システムエンジニアリングセンター所属。Japan AWS All Certifications Engineers 2024 , 2025 選出。ネットワーク・セキュリティシステムの提案支援を担当。DX イノベーションアカデミーで AWS 講座の講師として現場視点のセキュリティ教育に注力。写真撮影が趣味で MAWS-UG ではイベントの配信・撮影を担当。 塚田 真規 AI 戦略プロジェクトグループ所属。 AWS Community Builders 2025 、Japan AWS All Certifications Engineers 2024 , 2025 選出。生成 AI 開発基盤整備と LLMOps 推進を担当。JAWS-UG AI/ML 支部でのイベント主催や商業誌出版など多方面で活動。 太田 亮 三菱電機デジタルイノベーション株式会社、経営システム事業部所属。 2019 年から JAWS-UG 初心者支部 運営に参加するベテランコミュニティ活動家。三菱電機およびグループ会社向けシステム開発を担当し、特にビル事業向けシステムの提案・開発・保守を専門とする。 インタビュアー 稲田 大陸 – いなりく AWS Japan で働く筋トレが趣味のソリューションアーキテクト。2022 年から三菱電機グループをご支援させていただいています。最近は AI 駆動開発ライフサイクル (AI-DLC) の日本のお客様への布教活動もしつつ、 Kiro のブログ などを執筆しています。
AWS re:Invent 2025 まであとわずか 3 週間となりました。カンファレンスでの新しいリリースや発表を今から楽しみにしています。2024年は世界中から 60,000 名もの参加者がネバダ州ラスベガスに集まり、すばらしい雰囲気の中で開催されました。AWS re:Invent 2025 への 登録 はまだ受け付けています。12 月 1 日から 5 日までラスベガスで開催されるこのイベントにぜひご参加ください。基調講演、ブレイクアウトセッション、チョークトーク、インタラクティブな学習機会、世界中のクラウド実践者とのネットワーキングが予定されています。 AWS と OpenAI は、高度な AI ワークロードを実行することを目的として AWS インフラストラクチャへの即時アクセスを OpenAI に提供する、複数年にわたる戦略的パートナーシップを 発表 しました。380 億 USD 相当のこの契約は 7 年間にわたるもので、数十万の NVIDIA GPU で構成される AWS コンピューティングリソースに対するアクセスが含まれており、エージェンティックワークロードのために数千万の CPU にスケールできます。AWS が OpenAI のために構築しているインフラストラクチャデプロイは、AI 処理の効率とパフォーマンスを最大限に高めるために最適化された高度なアーキテクチャ設計を特徴としています。同一ネットワーク上の Amazon EC2 UltraServer を使用して NVIDIA GPU (GB200 と GB300 の両方) をクラスタリングすることで、相互接続されたシステム全体で低レイテンシーのパフォーマンスが実現し、OpenAI は最適なパフォーマンスでワークロードを効率的に実行できます。これらのクラスターは、ChatGPT のための推論の提供から、次世代モデルのトレーニングまで、さまざまなワークロードをサポートするように設計されており、OpenAI の進化するニーズに柔軟に対応できます。 AWS は、Jane Goodall Institute の 65 年にわたる霊長類研究アーカイブをデジタル化するために、 Generative AI Innovation Fund を通じて 100 万 USD を拠出 しました。このプロジェクトでは、 Amazon Bedrock と Amazon SageMaker を利用して、チンパンジーとヒヒに関する手書きのフィールドノート、フィルム映像、観察データをアナログからデジタル形式に変換します。このデジタルトランスフォーメーションでは、マルチモーダルの 大規模言語モデル (LLM) と埋め込みモデルを採用し、初めて、世界中の科学者が研究アーカイブを検索およびアクセスできるようにします。AWS は Ode と協力してユーザーエクスペリエンスを構築し、Jane Goodall Institute が AI テクノロジーを導入して研究と保全活動を促進するのをサポートしています。私は、世界的に有名な霊長類学者の Jane Goodall 氏が亡くなったと聞き、深い悲しみに暮れました。このプロジェクトによって同氏の生涯の研究が保存され、世界中の研究者がアクセスできるようになると知り、心が慰められました。これは、同氏のすばらしい功績にふさわしいプロジェクトです。 クラウドと AI を通じて数十年にわたる研究を変革しています。Jane Goodall 博士とフィールドスタッフが、タンザニアのゴンベ渓流国立公園でゴブリンを観察しています。提供: Jane Goodall Institute 11 月 3 日週のリリース では、11 月 3 日週の新しい発表を見てみましょう: Amazon S3 が S3 Tables でタグをサポート – Amazon S3 は、属性ベースのアクセス制御 (ABAC) とコスト配分のために、S3 Tables でタグをサポートするようになりました。ABAC のタグを使用すると、テーブルバケットやテーブルにアクセスするユーザーとロールの許可を自動管理できるため、AWS Identity and Access Management (IAM) または S3 Tables のリソースベースのポリシーの更新を頻繁に行う必要がなくなり、アクセスガバナンスが大規模に簡素化されます。さらに、個々のテーブルにタグを追加することで、AWS Billing and Cost Management を利用して AWS のコストを追跡および整理できます。 Amazon EC2 R8a メモリ最適化インスタンスの一般提供を開始 – R8a インスタンスは、最大周波数 4.5 GHz の第 5 世代 AMD EPYC プロセッサ (旧コード名: Turin) を搭載し、R7a インスタンスと比較して最大 30% 高いパフォーマンスと最大 19% 優れた料金パフォーマンスを実現し、メモリ帯域幅は 45% 増加しています。第 6 世代 Nitro Card を使用した AWS Nitro System 上に構築されたこれらのインスタンスは、SQL および NoSQL データベース、分散型ウェブスケールインメモリキャッシュ、インメモリデータベース、リアルタイムビッグデータ分析、Electronic Design Automation (EDA) アプリケーションなど、高パフォーマンスでメモリを大量に消費するワークロード向けに設計されています。R8a インスタンスは SAP 認定を受けており、2 つのベアメタルサイズを含む 12 のサイズを提供します。 EC2 Auto Scaling が混合インスタンスポリシーのウォームプールのサポートを発表 – EC2 Auto Scaling グループは、混合インスタンスポリシーが設定された Auto Scaling グループのためにウォームプールをサポートするようになりました。ウォームプールは、事前に初期化された EC2 インスタンスのプールを作成し、アプリケーショントラフィックを迅速に処理できるようにすることで、アプリケーションの伸縮性を高めます。この特徴量は、大量のデータをディスクに書き込んだり、複雑なカスタムスクリプトを実行したりするなど、初期化プロセスに時間がかかるアプリケーションで役立ちます。ウォームプールとインスタンスタイプの柔軟性を組み合わせることで、Auto Scaling グループは、複数のインスタンスタイプにアプリケーションをデプロイしながら、最大サイズまで迅速にスケールアウトし、可用性を高めることができます。この特徴量は、手動のインスタンスタイプリストまたは属性ベースのインスタンスタイプの選択を通じて複数のオンデマンドインスタンスタイプ向けに設定された Auto Scaling グループで動作します。 Amazon Bedrock AgentCore Runtime が直接コードデプロイをサポート – Amazon Bedrock AgentCore Runtime は、AI エージェント向けにコンテナベースのデプロイと直接コードアップロードの 2 つのデプロイ方法を提供するようになりました。迅速なプロトタイピングとイテレーションではコードを含む zip ファイルを直接アップロードし、カスタム設定が必要となる複雑なユースケースではコンテナベースのオプションを選択できます。AgentCore Runtime は、エージェントとツールを大規模に実行するためのサーバーレスフレームワークとモデルに依拠しないランタイムを提供します。コードを含む zip の直接アップロード特徴量にはドラッグアンドドロップ機能が含まれており、プロトタイピングのイテレーションサイクルを高速化しながら、エンタープライズセキュリティと本番デプロイのスケーリング機能を維持できます。 リージョン別の AWS 機能がリージョンレベルのプランニングで利用可能に – リージョン別の AWS 特徴量は、リージョン全体の AWS のサービス、特徴量、API、AWS CloudFormation リソースを検索して比較するのに役立ちます。このプランニングツールは、インタラクティブなインターフェイスを提供し、サービスの可用性を詳しく確認したり、複数のリージョンを並べて比較したり、将来を見据えたロードマップ情報を表示したりできます。特定のサービスや特徴量を検索したり、API オペレーションの可用性を確認したり、CloudFormation リソースタイプのサポートを確認したり、特殊なインスタンスを含む EC2 インスタンスタイプの可用性を確認したりできます。このツールは、[利用可能]、[計画中]、[拡張なし]、[四半期ごとの方向性レベルでのリリース計画] などの可用性の状態を表示します。また、リージョン別の AWS 機能に関するデータは、AWS Knowledge MCP サーバーを通じてアクセスでき、リージョン拡張計画のオートメーション、開発ワークフローや継続的インテグレーション/継続的デリバリー (CI/CD) パイプラインへの統合を可能にします。 近日開催予定の AWS イベント カレンダーを確認して、近日開催予定の AWS イベントにサインアップしましょう。 AWS re:Invent 2025 – 12 月 1 日から 5 日は、最新の AWS イノベーション、ピアツーピア学習、エキスパート主導のディスカッション、貴重なネットワーキングの機会のために世界中のクラウドパイオニアが米国ラスベガスに集結する AWS re:Invest に参加しましょう。 イベントカタログ もぜひご覧ください。 AWS Builder Loft – サンフランシスコにあるテクノロジーハブ。ビルダーがアイデアを共有し、学び、コラボレーションする場所です。このスペースでは、AI から新興テクノロジーまで、さまざまなトピックをカバーする、業界エキスパートによるセッション、ハンズオンワークショップ、コミュニティイベントが開催されます。 開催予定のセッション を閲覧して、関心のあるイベントにぜひご参加ください。 AWS Skills Center Seattle 4 周年記念イベント – 11 月 20 日に開催される、基調講演、専門家パネル、採用担当者によるインサイト、抽選会、仮想参加オプションなどが盛りだくさんの無料公開イベントです。 AWS Builder Center に参加して、ビルダーとつながり、ソリューションを共有し、開発をサポートするコンテンツにアクセスしましょう。今後開催される AWS 主催の対面およびバーチャルイベント 、 デベロッパー向けイベント 、 スタートアップ向けイベント については、こちらをご覧ください。 11 月 10 日週のニュースは以上です。11 月 17 日週の Weekly Roundup もお楽しみに! – Esra この記事は、Weekly Roundup シリーズの一部です。毎週、AWS からの興味深いニュースや発表を簡単にまとめてお知らせします! 原文は こちら です。
AWS には、「各 リージョン ではどの AWS 機能が利用できますか?」という質問がよく寄せられます。 これは、リージョンレベルの拡張を計画している場合、データレジデンシー要件へのコンプライアンスを確保している場合、またはディザスタリカバリのためのアーキテクチャを構築している場合に、非常に重要な質問です。 11 月 6 日、リージョン間で AWS のサービス、特徴量、API、 AWS CloudFormation リソースを見つけて比較するのに役立つ新しい計画ツールである リージョン別の AWS 機能 をご紹介します。インタラクティブなインターフェイスを通じてサービスの可用性を確認したり、複数のリージョンを並べて比較したり、将来に向けたロードマップに関する情報を確認したりできます。この詳細な可視性は、グローバルデプロイについて十分な情報に基づいた意思決定を行い、プロジェクトの遅延やコストのかかるやり直しを回避するのに役立ちます。 リージョンレベルの比較の開始方法 開始するには、 AWS Builder Center にアクセスし、 [AWS 機能] と [探索を開始] を選択します。 [サービスと特徴量] を選択すると、ドロップダウンリストから最も関心のある AWS リージョンを選択できます。検索ボックスを使用すると、特定のサービスや特徴量を迅速に見つけることができます。例えば、 Amazon Simple Storage Service (Amazon S3) の特徴量を比較するために、米国 (バージニア北部)、アジアパシフィック (ソウル)、アジアパシフィック (台北) リージョンを選択しました。 これで、選択したリージョンでのサービスと特徴量の可用性と、リリース予定時期を確認できます。 [共通の特徴量のみを表示] を選択すると、選択したすべてのリージョンで一貫して利用可能な特徴量を特定できるため、どこでも利用可能なサービスを使用して設計できます。 結果には、次の状態を使用して可用性が示されます: [使用可能] (リージョンで稼働中)、 [計画中] (リリース戦略を評価中)、 [拡張なし] (リージョンではリリースされません)、 [2026 Q1] (指定された四半期の、方向性レベルのリリース計画)。 リージョン別の AWS 特徴量は、サービスと特徴量の検索に加えて、利用可能な API と CloudFormation リソースの検索にも役立ちます。例として、 API オペレーション を調べるために、欧州 (ストックホルム) と中東 (UAE) のリージョンを追加し、さまざまな地域での Amazon DynamoDB の特徴量を比較しました。このツールを使用すると、各リージョンで API オペレーションが利用できるかどうかを表示および検索できます。 [CloudFormation リソース] タブは、テンプレートを記述する前に、特定のリソースタイプ向けのリージョンレベルのサポートを確認するのに役立ちます。 [サービス] 、 [タイプ] 、 [プロパティ] 、 [設定] で検索できます。例えば、 Amazon API Gateway のデプロイを計画しているときに、 AWS::ApiGateway::Account などのリソースタイプの可用性を確認できます。 また、Graviton ベース、GPU 対応、メモリ最適化バリアントなどの特殊なインスタンスを含む、 Amazon Elastic Compute Cloud (Amazon EC2) インスタンスタイプの可用性などの詳細なリソースも検索できます。例えば、第 7 世代コンピューティング最適化メタルインスタンスを検索すると、 c7i.metal-24xl インスタンスと c7i.metal-48xl インスタンスがすべての対象リージョンで利用可能であることがわかりました。 インタラクティブなインターフェイスを超えて、リージョン別の AWS 機能データは、 AWS Knowledge MCP サーバー を通じてアクセスすることもできます。これにより、リージョン拡張計画の自動化、リージョンとサービスの選択に関する AI を活用したレコメンデーションの生成、リージョンレベルの機能チェックの、開発ワークフローと CI/CD パイプラインへの直接統合が可能になります。 今すぐご利用いただけます AWS Builder Center でリージョン別の AWS 機能 を今すぐ探索できます。また、Knowledge MCP サーバーは無料で一般公開されており、AWS アカウントは必要ありません。使用量にはレート制限が適用されます。セットアップの手順については、 開始方法ガイド に従ってください。 皆様からのフィードバックをお待ちしております。 ビルダーサポート ページを通じてご提案をぜひお寄せください。 – Channy 原文は こちら です。
はじめに 近年、金融機関や公共機関をはじめとする多くの組織では、クラウドネイティブなアプリケーション構築のメリットが広く認識され始めています。一方で、セキュリティやガバナンス上の理由から、依然として「インターネットに接続しない閉域環境でのシステム構築」が求められるケースも少なくありません。 特に Web アプリケーションを閉域環境で提供する場合、静的コンテンツのホスティングをどのように実現するかが課題となります。これまで、ALB(Application Load Balancer)、S3、PrivateLink を組み合わせて閉域環境で SPA(Single Page Application)をホスティングする構成が一般的に利用されてきました(参考: ALB、S3、PrivateLinkによる内部 HTTPS 静的ウェブサイトのホスティング )。 しかし、この構成には S3 のバケット名と ALB のカスタムドメイン名を一致させる必要があるという制約が存在していました。2025 年 10 月 15 日に Application Load Balancer の「 URL およびホストヘッダーの書き換え機能 」が追加され、この制約が解消されました。アップデートの詳細については下記の記事をご参照ください。 参考: AWS Application Load Balancer で URL とホストヘッダーの書き換えが可能に 本記事では、これまで紹介してきた閉域 SPA 構成をベースに、新たな ALB の機能を活用した最新アーキテクチャと、その仕組みがどのように成り立っているのかを解説します。 全体構成 以下は、閉域環境で静的ウェブサイトをホスティングする構成例です。 この構成では、ALB・S3・PrivateLink を組み合わせて、インターネットに接続せずに HTTPS での静的コンテンツ配信を実現しています。設定のポイントは以下のとおりです。 ALB の IP ターゲットとして S3 の Interface Endpoint の IP アドレスを登録 リスナールールにホストヘッダー・URL 変換のルールを追加 次の章では、それぞれの設定ポイントについて詳しく解説します。 ALB のターゲットに S3 の Interface Endpoint の IP を登録 S3 には Gateway Endpoint と Interface Endpoint の 2 種類の VPC エンドポイントが存在 します。この構成では、Interface Endpoint のプライベート IP アドレスを ALB のターゲットとして登録します。 Interface Endpoint のネットワークインターフェイスは、VPC エンドポイントの存続期間中は同じプライベート IP アドレスを維持する ため、安定したルーティングが可能です。 設定のポイントとして、 ALB のヘルスチェックは GET メソッドで実行されます が、S3 の Interface Endpoint へのリクエストはリダイレクト( 307 )で返されるため、ヘルスチェックの正常判定コードを 307 に設定する必要があります。 例えば、curl コマンドで S3 の Interface Endpoint へアクセスした例を見てみましょう。 $ curl -v 10.0.1.xx * Trying 10.0.1.xx:80... * Connected to 10.0.1.xx (10.0.1.xx) port 80 > GET / HTTP/1.1 > Host: 10.0.1.xx > User-Agent: curl/8.5.0 > Accept: */* > < HTTP/1.1 307 Temporary Redirect < x-amz-id-2: TS9ySeNbBtaQsWaK1EZ3WyKR2lkgQ5bm4llTfUX+TTjFfCuIxxxxxxxxxxxxxxx= < x-amz-request-id: GDV3AZME5xxxxxx < Date: Tue, 04 Nov 2025 05:25:14 GMT < Location: https://aws.amazon.com/s3/ < Content-Length: 0 < Server: AmazonS3 これを踏まえ、Target Group のヘルスチェックの設定例は下記のようになります。 プロトコルは HTTP、ポート番号は 80 番、ヘルスチェックの成功コードは 307 を設定しています。 リスナールールとホストヘッダー変換 ALB にアクセスした際、リクエストのホストヘッダーには通常、ALB 側で設定されたカスタムドメイン名が含まれます。一方、 S3 の Interface Endpoint ではホストヘッダーを元にアクセス先のバケットを特定 します。 例えば、VPC Endpoint 経由で sample-bucket という名前の S3 バケットへアクセスしたい場合はホストヘッダーにバケット名を入れる必要があります。この際、VPC Endpoint へのアクセスは IP アドレスでも構いません。 curl -v \ http://10.0.1.xx/test.txt \ -H "Host: sample-bucket" そのため、従来の構成では ALB のドメイン名と S3 バケット名を一致させる必要がありました。今回追加された ALB の「ホストヘッダー書き換え」機能を利用することで、ALB 内でホストヘッダーを動的に変換できるようになり、ALB のカスタムドメイン名と S3 バケット名を一致させる制約が不要になりました。 設定例は下記の通りです。「トランスフォームホストヘッダー」においてホストヘッダーを S3 のバケット名へ変換しています。 これにより、運用や証明書管理の柔軟性が大きく向上します。 SPA 側の考慮事項 フロントエンドのライブラリで URL のパスに依存するようなルーティングを行なっている場合(React の場合、 BrowserRouter など)、 /index.html 以外のパスに直接アクセスした場合に XML のエラーが表示されます。 この場合、URL のハッシュを利用したルーティング(React の場合、 HashRouter など)を利用することで、トップページ以外へも URL で直接アクセスができるようになります。URL の表示は https://app.example.local/index.html#/about のようになります。 また、今回導入された URL パス変換の機能を利用すれば、 app.example.local/ のように URL を表示することができます。 URL のハッシュを利用したルーティングをしている場合は、URL の表示は https://app.example.local/#/about のようになります。 ただし、ハッシュを利用したルーティングを利用している場合でも、存在しない URL へ直接アクセスした場合(例: app.example.local/test )は XML のエラーが表示される点には注意が必要です。 まとめ 本記事では、ALB の URL・ホストヘッダー書き換え機能 を活用した、閉域環境での最新の静的ウェブホスティング構成を紹介しました。このアップデートにより、これまで制約となっていた S3 バケット名とカスタムドメイン名の一致要件が解消され、閉域環境でもより柔軟でシンプルなサーバーレス構成が可能になりました。 金融・公共分野をはじめ、セキュリティ要件の高い環境でのクラウド利用において、ぜひこのアーキテクチャをご活用ください。 参考情報 閉域網で AWS のサーバーレスアーキテクチャ (SPA) を利用する方法 ALB、S3、PrivateLinkによる内部HTTPS静的ウェブサイトのホスティング 著者について 松本 侑也 アマゾン ウェブ サービス ジャパン合同会社のソリューションアーキテクト。パブリックセクター技術統括本部に所属し、自治体のお客様の技術支援を担当。ガバメントクラウドにおける標準化対象業務システムの移行支援や生成 AI の活用支援に取り組んでいる。
本ブログは 2025 年 10 月 21 日に公開された AWS Blog “ The attendee guide to digital sovereignty sessions at AWS re:Invent 2025 ” を翻訳したものです。 AWS re:Invent 2025 は、 Amazon Web Services (AWS) が主催する最高峰のクラウドコンピューティングカンファレンスで、2025 年 12 月 1 日から 5 日までネバダ州ラスベガスで開催されます。このフラッグシップイベントでは、世界中のクラウドコミュニティが一堂に会し、複数の会場で学習、コラボレーション、イノベーションに没頭できる 1 週間を体験できます。クラウドエキスパート、ビジネスリーダー、テクノロジー愛好家など、どなたであっても、re:Invent は最先端のクラウドソリューションを探求し、AWS のエキスパートと交流し、世界中の仲間と貴重なつながりを築く比類のない機会を得られます。 技術的な深掘りから戦略的なビジネスセッションまで、re:Invent 2025 は最先端のクラウドテクノロジーを理解し活用するための入口です。 Expo では、AWS Village のデジタル主権とハイブリッドクラウドのキオスクを訪れて、今後提供される AWS European Sovereign Cloud やその他のデジタル主権ソリューションについて学び、AWS のエキスパートに質問できます。 クラウド業界の最新イノベーションを発見し、技術的な深い洞察を得て、デジタル主権のためにクラウド投資を最適化する方法を学びましょう。今年のセッションでは、 AWS Nitro System の強化されたセキュリティ機能、拡大するデジタル主権ソリューションのポートフォリオ、 AWS European Sovereign Cloud の最新開発など、AWS のデジタル主権に対応した設計アプローチを包括的にカバーします。デジタル主権への関心が高まる中、AWS がどのようにソブリンクラウドソリューションでイノベーションを続け、お客様がクラウドの全機能を活用しながらデータの管理を維持できるようにしているかをご覧ください。 今すぐセッションの参加を登録 して、参加者ポータルまたは AWS Events モバイルアプリにサインインすることで、学習パスをカスタマイズできます。 ブレイクアウトセッションとコードトーク AWS re:Invent のアジェンダにセッションを追加し、時間と場所の情報を確認するには、セッションタイトルのリンクを選択してください。 セキュリティトラック SEC201 | ブレイクアウトセッション | AWS European Sovereign Cloud: From concept to reality (AWS European Sovereign Cloud: コンセプトから現実へ) Colm MacCárthaigh、VP/Distinguished Engineer – EC2 Networking、AWS、Addy Upreti、Principal Technical Product Manager – EC2 Core Product Management、AWS AWS European Sovereign Cloud を直接ご確認ください。この新しい独立したインフラストラクチャの専用アーキテクチャ、EU ベースの運用管理、このクラウドを支える運用管理とガバナンスおよび法的フレームワークを探求します。このクラウドソリューションがどのようにヨーロッパ内で完全に構築、運用、保護されているかを学びます。 クラウドオペレーショントラック COP409 | コードトーク | Building Sovereign Cloud Environments (ソブリンクラウド環境の構築) Bo Lechangeur、Pr. Delivery Engineer – STCE、AWS、Randy Domingo、Sr. Software Development Manager – STCE、AWS 組織がグローバルに事業を拡大する中で、進化するデータレジデンシー、セキュリティ、コンプライアンス、事業継続性の要件を満たす必要があります。このセッションでは、 AWS Control Tower と Landing Zone Accelerator on AWS が、国固有のコンプライアンスフレームワーク、リージョンサービスの選択、データ移動の自動制御、越境データ転送など、主要なデジタル主権要件をどのようにサポートするかを探ります。実際の例を通じて、組織が AWS を活用して国固有のセキュリティ制御を実装し、マルチリージョンデプロイ全体で運用の一貫性を維持し、クラウドコンプライアンスを加速し、セキュリティとコンプライアンスを大規模に自動デプロイする方法を示します。 ハイブリッドクラウドとマルチクラウドトラック HMC202 | ブレイクアウトセッション | AWS wherever you need it: From the cloud to the edge (必要な場所で AWS を: クラウドからエッジまで) Spencer Dillard、Director, Software Development – EC2 Edge、AWS、Madhura Kale、Senior Manager, Technical Product Management – EC2 Core、AWS ほとんどのワークロードはクラウドに移行できますが、低レイテンシー、ローカルデータ処理、デジタル主権のニーズにより、一部はオンプレミスまたはエッジに残ります。このセッションでは、AWS Outposts、AWS Local Zones、AWS 専有ローカルゾーン、AWS IoT などの AWS サービスが、マルチプレイヤーゲーム、高頻度取引、医療画像、スマートマニュファクチャリング、データレジデンシー要件を持つ生成 AI アプリケーションなどのハイブリッドクラウドとエッジコンピューティングワークロードをどのようにサポートするかを学びます。 HMC308 | ブレイクアウトセッション | Build generative and agentic AI applications on-premises and at the edge (オンプレミスとエッジでの生成 AI およびエージェンティック AI アプリケーションの構築) Chris McEvilly、Senior Solutions Architect – Hybrid Edge、AWS、Pranav Chachra、Principal Technical Product Manager – EC2 Core、AWS、Fernando Galves、Senior Solutions Architect – Generative AI、AWS お客様が生成 AI とエージェンティック AI の実装をパイロットから本番環境にスケールする際、イノベーションのスピードとデータ主権要件、低レイテンシーのエッジ処理ニーズ、スペース、電力、コスト効率のバランスを取る必要があります。このセッションでは、AWS Local Zones、AWS Outposts、AWS 専有ローカルゾーンを使用して生成 AI とエージェンティック AI ソリューションを構築する方法を探ります。分散ロケーション全体に基盤モデルをデプロイするためのアーキテクチャパターンとベストプラクティスを発見してください。ローカルに保存されたデータを使用した Retrieval Augmented Generation (RAG) の実装方法を学びます。モデル選択と最適化の戦略に関する洞察を得ます。 HMC310 | ブレイクアウトセッション | Digital sovereignty and data residency with AWS Hybrid and Edge services (AWS ハイブリッドおよびエッジサービスによるデジタル主権とデータレジデンシー) Mallory Gershenfeld、Senior Technical Product Manager – S3、AWS、Ben Lavasani、Senior Specialist – Hybrid and Edge、AWS、Majd Aldeen Masriah、Director of Enterprise – Architecture、Geida 世界中の国々で、少なくとも 1 つのコピー、または場合によってはすべてのデータを特定の地理的またはソブリンな場所に保存または処理することを要求するデータレジデンシーとデジタル主権に関する法律が導入または更新されており、お客様に新たな課題をもたらしています。このセッションでは、AWS 専有ローカルゾーン、AWS Local Zones、AWS Outposts などの AWS サービスが、デジタル主権のユースケースにどのように役立つかを探ります。エッジでのデプロイ全体におけるデータレジデンシー、セキュリティ制御、運用の一貫性のベストプラクティスを検討します。 インタラクティブセッション (チョークトークとワークショップ) セキュリティトラック SEC301 | チョークトーク | Architecting for Digital Sovereignty: From Foundation to Practice (デジタル主権のためのアーキテクチャ設計: 基礎から実践まで) Eric Rose、Principal Security SA – Global Services Security、AWS、Armin Schneider、Digital Sovereignty Specialist SA – Global Services Security Digital Sovereignty セキュリティの基礎とクラウドにおけるデジタル主権の実装のための実践的なアーキテクチャ戦略を橋渡しするこのチョークトークにご参加ください。アラブ首長国連邦サイバーセキュリティ評議会や今後提供される AWS European Sovereign Cloud の実例を通じて、組織が AWS のデジタル主権機能を効果的に活用する方法を探ります。データレジデンシー、運用管理、お客様がデータを完全に管理できるようにするセキュリティ対策のための実践的なアーキテクチャパターンを取り上げます。クラウドアーキテクトやセキュリティチームに最適なこのセッションでは、政府機関や企業のデプロイ事例を用いて、デジタル主権要件とクラウドの利点のバランスを取るソリューションを設計する方法を紹介します。 ハイブリッドクラウドとマルチクラウドトラック HMC301 | ワークショップ | Build and operate resilient and performant distributed applications (耐障害性と高性能な分散アプリケーションの構築と運用) Saravanan Shanmugam、Senior Solutions Architect – Hybrid Edge、AWS、Sedji Gaouaou、Senior Solutions Architect – Networking、AWS このワークショップでは、データレジデンシーとパフォーマンス要件を満たしながら、マルチジオ運用のためのアプリケーションを設計および実装する方法を探ります。限られたハードウェアリソースで分散ロケーション全体にわたる耐障害性とレイテンシーに敏感なアプリケーションを設計する方法を学びます。また、分散ハイブリッドアーキテクチャ、エッジネットワーキングの実装、規制要件と高可用性ニーズのバランスを取るトラフィック管理ソリューションを探ります。分散ロケーション全体でデータ主権を維持しながらパフォーマンスを最適化するための実践的な戦略を学びましょう。 HMC302 | ワークショップ | Implementing agentic AI solutions on-premises and at the edge (オンプレミスとエッジでのエージェンティック AI ソリューションの実装) Fernando Galves、Senior Solutions Architect – Generative AI、AWS、Kyle Palasti、Senior Solutions Architect – Hybrid Edge、AWS 政府機関や標準化団体がデータ保護とプライバシー規制を策定する中、組織はクラウドでの生成 AI ツールの使用と、データレジデンシー要件を満たすためにオンプレミスに保持する必要がある規制対象データを組み合わせる必要性が高まっています。このワークショップでは、 Amazon Bedrock AgentCore を AWS Outposts や AWS Local Zones などのハイブリッドおよびエッジサービスに拡張し、Model Context Protocol (MCP) とエージェント間 (A2A) 通信を使用してオンプレミスデータで分散エージェンティックアプリケーションを構築し、モデルの結果を改善する方法を学びます。Amazon Bedrock と Strands Agents を使用したハイブリッドエージェンティック AI を実際に体験しながら、AWS のハイブリッドおよびエッジサービスを探求してください。 HMC305 | ワークショップ | Low-latency SLM deployment: Optimizing inference on AWS Hybrid and Edge Services (低レイテンシー SLM デプロイ: AWS ハイブリッドおよびエッジサービスでの推論の最適化) Leonardo Solano、Principal Solutions Architect – Networking & Hybrid Edge、AWS、Obed Gutierrez、Senior Solutions Architect、AWS このハンズオンワークショップでは、AWS Local Zones と AWS Outposts を使用してエッジで Small Language Model (SLM) を実行するための完全なローカルデプロイアプローチを実演します。この実装は、低レイテンシー推論の実現と、ローカルインフラストラクチャ内での Retrieval Augmented Generation (RAG) アプリケーションを通じたデータ主権コンプライアンスの実現に焦点を当てています。 Amazon Elastic Compute Cloud (Amazon EC2) インスタンスと公開されているモデルを使用して、エッジ環境で SLM をデプロイ、最適化、管理する方法を学びます。本番環境シナリオにおける厳格なレイテンシーとデータレジデンシー要件を満たすために、RAG システムと言語モデルがローカルで動作することを確認します。 HMC312 | チョークトーク | Implement RAG while meeting data residency requirements (データレジデンシー要件を満たしながら RAG を実装する) Lakshmi VP、Solutions Architect、AWS、Akshata Ketkar、Senior Product Manager – EC2 Edge、AWS 政府機関がデータ保護とプライバシー規制を策定する中、組織はデータ主権要件を満たすためにオンプレミスに保持する必要がある規制対象データで生成 AI を活用する必要性が高まっています。このセッションでは、オンプレミスおよびエッジデータで Retrieval Augmented Generation (RAG) を実装する方法を探ります。ハイブリッド RAG アーキテクチャのために Amazon Bedrock AgentCore を AWS Outposts と AWS Local Zones に拡張する方法、またはより厳格なデータレジデンシー要件のためにローカル RAG アーキテクチャを構築する方法を学びます。モデルサイズを増やすことなく精度を向上させ、推論コストを削減し、プロンプトの結果に対するガバナンスと制御を強化するための、リランカーモデルなどの最新技術を発見してください。 HMC314 | チョークトーク | Deploying for resilience: HA/DR strategies for AWS Outposts and Local Zones (耐障害性のためのデプロイ: AWS Outposts と Local Zones の HA/DR 戦略) Afaq Khan、Senior Product Manager – EC2 Edge、AWS、Brianna Rosentrater、Senior Solutions Architect – Hybrid Edge、AWS エッジでのミッションクリティカルなワークロードには、堅牢な高可用性 (HA) とディザスタリカバリ (DR) 戦略が必要です。このチョークトークでは、AWS のハイブリッドクラウドおよびエッジコンピューティングサービスを使用して、回復力のあるデプロイを計画および実装する方法を学びます。AWS Local Zones と AWS Outposts を使用したエッジインフラストラクチャのアーキテクチャ設計方法を検討し、ネットワーキング、コンピューティング、ストレージの冗長性の主要な側面を取り上げます。実際のお客様の事例とリファレンスアーキテクチャを通じて、障害モード全体でビジネス継続性を維持するためのデプロイパターンとベストプラクティスを探ります。エッジデプロイで RPO/RTO 目標を達成するための実践的な戦略を学びましょう。 HMC403 | コードトーク | AI を活用したエッジアーキテクチャの構築と回復性の最適化 (AI による耐障害性のあるエッジアーキテクチャの構築と最適化) Jesus Federico、Principal Solutions Architect – Generative AI、AWS、Robert Belson、Senior Solutions Architect & Developer Advocate、AWS このライブコーディングセッションでは、AI を使用してエッジインフラストラクチャの運用を自動化する方法を探ります。最新の AWS Outposts と AWS Local Zones API を使用して、真に回復力のあるアーキテクチャを構築する方法を発見してください。Outposts のハードウェアインベントリのクエリ、インテリジェントなリソース配置の実装、フェイルオーバー設定の自動化に関する実際のコード例を紹介します。Amazon Bedrock がアーキテクチャパターンを分析し、最適なコンポーネント配置のための Infrastructure as Code (IaC) の推奨事項を生成する方法を学びます。API 統合、自動ヘルスチェック、動的リソース割り当ての実践的な手法に加えて、適応性の高い高可用性エッジソリューションを構築するための実用的なコードサンプルとデプロイテンプレートを持ち帰ることができます。 HMC316 | チョークトーク | Addressing digital sovereignty with hybrid cloud solutions (ハイブリッドクラウドソリューションによるデジタル主権への対応) Sherry Lin、Principal Product Manager – EC2 Core、AWS、Enrico Liguori、Solutions Architect – Networking、AWS 組織が革新的なソリューションをグローバルにスケールする際、複雑なデジタル主権要件に対応する必要があります。このセッションでは、規制要件を満たしながらグローバルなスケーリングを加速するために AWS がどのように役立つかを探ります。AWS Local Zones、AWS 専有ローカルゾーン、AWS Outposts、AWS European Sovereign Cloud に焦点を当てて、さまざまなソブリンインフラストラクチャオプションを比較します。デジタル主権のニーズに最適なオプションを選択し、データレジデンシーと回復性のためにアプリケーションを設計する方法を学びます。データの保存、処理、転送方法を規制し、不正なデータアクセスを防ぐためのセキュリティ制御を実装する方法を発見してください。 パートナーとのセッションを含むデジタル主権コンテンツの全体像については、 AWS re:Invent カタログ を参照し、デジタル主権の関心領域でフィルタリングしてください。直接参加できない場合は、 追加費用なしで提供されるバーチャル限定パスに登録 して、基調講演とイノベーショントークをライブストリーミングで視聴し、今すぐオンデマンドのブレイクアウトセッションにアクセスできます。ラスベガスまたはライブストリームでお会いしましょう! Brittany Bunch Brittany は、アトランタを拠点とする AWS セキュリティマーケティングチームのプロダクトマーケティングマネージャーです。デジタル主権に焦点を当てており、Amazon での雇用者ブランディングを含む 10 年以上のブランドマーケティング経験を持っています。AWS に入社する前は、いくつかの大規模エンタープライズ企業でブランドマーケティングイニシアチブを主導していました。 本ブログは Security Solutions Architect の 中島 章博 が翻訳しました。
このブログ記事は、フリー株式会社様 AI プロダクトマネージャー木佐森氏へのインタビュー内容をもとに、AWS ソリューションアーキテクトの福本が執筆し、フリー株式会社様が監修しています。 「スモールビジネスを、世界の主役に。」をミッションに掲げるフリー株式会社。創業時から「AI CFO」というビジョンを描いてきた同社は、LLM (Large Language Models、大規模言語モデル) 登場を機に、生成 AI を活用した AI ネイティブな組織への本格的な変革に乗り出した。技術選定、組織体制の構築、そして何より「成功基準」という独自のフレームワークを確立し、全社で AI 活用を推進。チャットサポートの解決率約 50% 向上、営業効率の劇的な改善、そして BPaaS (Business Process as a Service) 事業での構造改革など、着実に成果を積み重ねている。AI プロダクトマネージャーの木佐森氏に、その変革の全貌を聞いた。 「AI ネイティブ」を実現する組織づくりと取り組み 統合型経営プラットフォームとしてのビジョン ──まず、freee の事業概要と AI 活用の位置づけについて教えてください。 木佐森氏: freee は「スモールビジネスを、世界の主役に。」をミッションに掲げ、統合型経営プラットフォームを提供しています。単なる会計ソフトではなく、バックオフィス業務全般を統合し、経営を誰でもできるようにするプラットフォームを目指しています。 実は、freee の前身は 1 年だけ「CFO株式会社」という社名だったんです。これは「Chief Financial Officer」ではなく「Cloud Finance Officer」を意味しており、クラウドからあらゆるビジネスの CFO になれるサービスを作りたいという想いが込められていました。創業者の佐々木が描いていた将来像として「AI CFO」というコンセプトがあり、これが現在の AI 戦略の原点になっています。 この「自動化」という創業以来のビジョンが、LLM の登場によって大きく進展しました。私たちは今年から「AI ネイティブカンパニー」へのシフトを本格化させています。私たちにとって生成 AI、特に AI エージェントは、創業当初からの念願であった「自動化」を実現するためのラストワンマイルを埋めるものだと位置づけています。これまではシステム化が難しかったコミュニケーションや、導入・使いこなしといった非構造化された課題を AI が解決することで、スモールビジネスの皆様が特別なスキルを意識することなく、自然体でなめらかに業務を自動化できる。その世界の実現に向けて、全社で取り組みを加速させています。 AI ラボの組織体制:横串で支える専門家集団 ──freee では AI 活用をどのような組織体制で推進されているのですか? 木佐森氏: AI ラボという横串組織で推進しています。ML (Machine Learning、機械学習) の専門性を持ったメンバーが集結し、縦串である各プロダクトチームに出向いて協働し、AI 機能を実装していくスタイルです。 LLM が登場する前は、OCR (Optical Character Recognition、光学的文字認識) や勘定科目の推定など、モデルを学習させる古典的な ML 中心でした。しかし LLM 登場後は役割が大きく変わりました。RAG(Retrieval-Augmented Generation、検索拡張生成)などの周辺開発や、各プロダクトへの「イネーブルメント活動」、そして LLM 基盤の整備など、活動範囲が広がっています。 今年に入って SLM (Small Language Models、小規模言語モデル) が注目され始め、ファインチューニングの重要性が再認識されたことで、ML 専門性の価値が再確認されました。領収書の読み取りなど、freee のコア機能においては、汎用モデルよりもタスクに特化した SLM をファインチューニングした方が精度が出る。実際にやってみると、精度向上に加えて、レスポンスが圧倒的に速く、コストも安い。適材適所で最適なモデルを使い分けることを重視しています。 ── なぜ freee さんが技術的かつ専門性的に難易度の高いファインチューニングに意欲的に取り組まれているのかと思っていたのですがお話を伺って、もともと機械学習の専門家チームがいて、そういう素養があったからこそ実現できたのだと理解できました。 技術とビジネスを繋ぐ:AI プロダクトマネージャーの役割 ──木佐森さんご自身は freee でどのような役割を担っているのか教えてください。 木佐森氏: 私は AI ラボに所属し、「AI プロダクトマネージャー」として活動しています。これは技術とビジネスの両面を理解した上で、AI 活用によるユーザー価値創出を推進する役割です。 私のバックグラウンドとしては、物理学で博士を取った後、機械学習アルゴリズムの研究に移り、企業で研究をしてきました。その後、自分で開発したアルゴリズムを事業化するために起業した経験もあります。この技術理解とビジネス視点の掛け算が、freee での AI 活用推進において活きていると思います。 具体的な役割は大きく 3 つあります。第一に、経営陣と密に連携して「解くべき課題」を定めること。技術的なフィージビリティを見極めながら、経営インパクトがある領域にピン止めしていく。第二にプレーヤーとしてその定めた領域の新規プロジェクトのゼロからイチを作ること。企画から初期のプロトタイピングまでを高速に行って蓋然性を示し、リリースまで走り抜ける。第三に、各プロダクトチームがボトムアップで始めた AI 活用案件に対して、レビュアーとして入り込み、成功基準の策定支援や評価方法のアドバイスを行うことです。 ──各チームの取り組みをどのようにサポートされているのですか? 木佐森氏: いくつかの仕組みを並行して回しています。 まず「AI サロン」という場を作っています。数年前に比べるとだいぶ意識が変わってきましたが、プロダクト担当によっては、解きたい課題に対する手段としてAIが想起されるが、具体的な方法や進め方がわからないケースがあります。「壁打ちウェルカム、知識教えてあげるよ」という雰囲気でサポート活動をしています。 他にも、各プロダクトチームに対して、勉強会やハッカソンを実施してきました。AWS の方にご協力いただいた勉強会やハンズオンもありましたね。 また、属人化しないための工夫として、自分が考えたことや学んだことを丁寧に書き出して、ドキュメント化しています。社内では、そのドキュメントを食わせた LLM アプリを構築し、誰でも気軽に知見へアクセスできるようにしています。こうした仕組み化は、AI ラボのノウハウをスケールさせ、組織全体の AI リテラシーを引き上げるために不可欠です。 AI 活用の具体的成果 ──これまでの AI 活用でどのような成果が出ていますか? 木佐森氏: いくつか代表的な事例があります。 まず、チャットサポートでの LLM 活用では、質問への解決率を約 50% 向上させました。これは 2023 年の早い段階から取り組んできた成果です。 セールス支援では、社内外の会議内容の自動要約から CRM への情報入力を行うAIシステム「つばめAUTO」を構築しました。このシステムでは、商談の事後処理時間を 45.2%、架電の事後処理時間を 56.2% それぞれ削減できています。これによって営業の効率が大幅に向上し、今年の夏には Forbes の外部評価*もいただきました。 *Forbes JAPAN NEW SALES OF THE YEAR2025で「AIトランスフォーメーション賞」 また、AWS の 生成 AI 実用化推進プログラム で成果報告させていただいた「AI クイック解説」という機能もあります。これは財務データの分析を手助けする機能で、ジュニア層の場合は 月 10 時間以上、シニア層でも数時間の作業負荷軽減が期待できます。 他にも様々な施策に取り組んできました。現在最も力を入れているのが、BPaaS 事業を中心とした AI エージェントを使ったOCR 関連技術です。 成功を支える要因 最大の要因:経営層の深い理解とコミットメント ──こうした成果を生み出せた要因は何だと考えていますか? 木佐森氏: これは迷わず答えられます。「経営トップの AI に対する理解とコミットメントが強い」ことです。 freee の経営陣は、技術バックグラウンドの有無にかかわらず、自分で AI を使うのはもちろん、AI コーディングのツールなどを使って自分で API を叩いて実装を試しています。CEO の佐々木に呼び出されて「これ Cline (AI コーディングツール) で作ったんだけど、なんか精度上がらないからどうしたらいい?」と相談されたこともあります(笑)。 この理解があるからこそ、AI を使うことの必然性や、むしろ危機感を持って進めていかなければならないという共通認識ができているんです。 ──確かに貴社の経営層の熱意は我々もひしひしと感じています。経営層がそこまで深い理解を持つに至った背景について教えてください。 木佐森氏: グローバルとのギャップですね。freee がベンチマークとする企業において、彼らがどれだけ AI に投資しているかを追っている中で危機感につながりました。 それがきっかけで、経営層も自分で手を動かすことに時間を充てるようになりました。 ──経営層の深い理解があることは素晴らしいですね。経営層の理解に加えて、現場での AI 活用を組織全体に広げると言った観点ではいかがですか? 木佐森氏: おっしゃる通りです。経営層だけでなく、そもそもの話として企業全体に挑戦の文化が根付いていることが重要だと思います。freee では「マジ価値」という考え方があり、その中には「アウトプット→思考」と呼ぶ指針があります。これは『まず、アウトプットする。そして考え、改善する。』という指針です。失敗は責められるものではなく、あえてやる/挑戦することが推奨されています。この文化に加えて、AI の活用が進むような組織的な仕組みも整えています。 ※マジ価値: ユーザーにとって本質的な価値があると自信を持って言えることをする ──AWS でも「Customer Obsession(顧客への執着)」というリーダーシッププリンシプルを掲げており、顧客のために挑戦し、失敗から学ぶ文化を大切にしています。また「Bias for Action(行動を重視))」という、計算されたリスクテイクを評価する考え方もあります。こうした文化的な土台があってこそ、AI のような新しい技術への挑戦が組織全体に広がっていくのだと、改めて実感しました。 「成功基準」というフレームワークの確立 ──組織全体に AI 活用を浸透させる上で、どのような工夫をされてきましたか? 木佐森氏: 最近特に力を入れているのが「成功基準」の策定と浸透です。よく言われることかもしれませんが、一周回って、これをブラッシュアップした状態で組織に徹底することが最も重要だと確信しています。 成功基準というのは、精度などの品質指標と、それが顧客価値やビジネスインパクトにどう繋がるかを明確に結びつける指標です。具体的には、コスト、精度、レイテンシ、品質といった技術的な要素が、どれだけのユーザー価値を生み出すのかを定量化します。 ──具体的にはどのように定量化するのでしょうか? 木佐森氏: 私は担当チームに「精度が 1% 上がったら、ユーザーの価値はどのくらい上がるんですか?」という問いを投げかけています。これを考えてきてください、と。 この問いは簡単には答えられません。でも、顧客の十分な理解と技術の十分な理解の両面が揃って初めて答えられる。これを事前に定めておくことが重要なんです。 よくあるアンチパターンは、担当チームが「精度 90% を目指します!」と言ってくることです。私は必ず聞き返します。「なんの指標をどう測って 90% なの? 90% 出たら何のユーザー価値が出るの?」と(笑)。 ──ビジネスとテックで知識が組織をまたがっているので、この答えを揃えるのは難しいですよね。 木佐森氏: まさに。だからこそ、AI ラボのような横串組織が機能するんです。これからの時代、どんどんこういったビジネスと技術の両方を理解して、データドリブンにユーザの業務をモデリングして、マイルストーンを立ててプロジェクトマネージメントができる人材が強く求められると感じています。 成功基準の実践知:「確認コスト」と「修正コスト」の分離 ──成功基準を設定する上で、見落としがちなポイントはありますか? 木佐森氏: 一つ重要なのが、「確認コスト」と「修正コスト」を明確に分けることです。これは意外と見逃されがちなんです。 例えば、100 枚の領収書を処理する場合を考えてみてください。AI の精度が 80% だろうが 90% だろうが、結局 100 枚全部を確認しなければいけないですよね。つまり確認コストは変わらない。精度が上がっても、間違っている 20 枚や 10 枚の修正時間が減るだけで、100 枚を見るという確認時間は変わらないんです。 さらに厄介なのが、「AI によって便利になったようで、実は確認コストが増えている」というケースです。AI がやったことを確認するのに手間がかかっているのに、それに気づいていない。これも撤退基準として重要な視点です。 撤退基準は、成功基準とセットで事前に決めておくべきです。「今より悪くなる」というのは明確な撤退基準ですが、意外と見逃されがちなんです。サンクコストを払うのは誰でも苦手なので、事前に決めておくことが重要です。 この考え方は、OCR に限らず様々な AI 活用シーンで重要です。例えば、AI が生成した文章のチェックや、AI による分類結果の確認など、「全件を見る必要があるのか」「間違いだけを修正すればいいのか」という違いによって、価値は大きく変わります。AI 導入の ROI を正しく評価するためには、この業務フロー全体のコスト構造を深く理解することが不可欠です。 AI 導入の ROI を正しく評価し、プロジェクトを成功に導くには、AI を組み込んだ後の「業務フロー全体」を設計し直し、その総コストで評価することが不可欠です。そして、このコスト構造の分析を、プロジェクト初期に定める「成功基準」と「撤退基準」に明確に組み込むこと。これこそが、AI 活用を PoC (概念実証) で終わらせず、真の価値創出につなげるための重要な鍵となります。 AIデータ化β での実践と成功基準の進化 記帳作業のコスト構造を変える:AIデータ化β の挑戦 ※AIデータ化β:複数の AI エージェントが協調して OCR の読み取り精度を検証・改善する仕組み 木佐森氏: これは単なる精度向上ではなく、先ほど話した「確認コスト」の問題を解決し、税理事務所・会計事務所の記帳作業全体のコスト構造を根本から変えるプロジェクトです。まさに成功基準の考え方を実践した取り組みと言えます。 そこで私たちが導入したのが読み取り精度に対する「自信」の評価と、それを元にしたアラート機能です。読み取りが簡単な典型的な証憑もあれば、複数税率や人が見ても判断が難しい証憑もあるわけです。読み取った結果に対して、別の LLM が客観的に「この結果、本当に自信ある?」と評価するんです。これによって、「確認すべきもの」と「そのまま通していいもの」を分けることができました。アラートが出た 20% だけを確認すればよくなり、確認時間を 80% 削減できるわけです。「確認時間」と「修正時間」を切り分けたことがポイントです。 ──LLM の活用が真の意味で活きるような発想ですね。 木佐森氏: ここで重要なのが、「強弱をはっきりつける」ことです。グレーゾーンを作らない。例えば、アラートを出す閾値を中途半端なところに設定すると、「これで本当にいいのか」という議論が後から起きやすくなる。 最初は「80% は人手で見てもいいから、残り 20% は本当に 99% の精度で保証できるものを作りましょう」と、強弱を明確につけたんです。どっちつかずではなく、こっち、と決める。そうすることで、後で成功基準を修正するときも判断がしやすくなります。 さらに、日付や金額は絶対にズレてほしくないが、摘要欄は意味が分かればいい、というように、項目ごとに精度の基準を変えています。「落とすところは落とす」という判断も重要なんです。すべてを完璧にしようとすると、結局どれも中途半端になってしまう。 成功基準の進化:仮説検証のサイクル ──成功基準は一度決めたら固定なのですか? 木佐森氏: いいえ、それは違います。我々はユーザーの方々と一緒にプロダクト作りをする思いで開発をしています。成功基準は仮説であって、早い時点でプロトタイピングを実際にユーザーに当ててみて修正していくものです。 例えば AIデータ化β の取り組み では、数値の読み取り精度とテキストの読み取り精度が全然違うことが分かりました。それなら分けて評価しよう、と基準を分解していったんです。「あ、ここが違ったわ」「ここもっと深掘りできるわ」という発見を基に、成功基準をブレイクダウンしていく。 成功基準を作るための内容を落とし込んだ成功基準シートを作成して、「これ埋めてきてください」と言って渡し、自律的に成功基準を作成できるような仕組みを整えています。 ただ、結局は使ってもらえないと分からない部分も多いので、成功基準を作るためのプロンプトも用意しています。LLM にこのプロンプトを投げると、成功基準のドラフトが出てくるんです。自分自身もこれを使って整理しています。 ──LLM を活用して成功基準を作る、というのは興味深いアプローチですね。 木佐森氏: この成功基準を自分で一回二回作ると「ああ、こういう風に作ればいいんだ」という感覚が掴めるんですが、その感覚をプロンプトに落とし込んだものを社内の LLM アプリとして公開しています。ただ、この LLM アプリでも一定はワークはするんですが、結局のところ、やっぱり人に聞きたくなるんですよね(笑)。なので、現在は単なるプロンプトではなく、よりエージェンティックなものを作成して実験中です。「実質、木佐森エージェント」を作ろうと。 こうした仕組みを通じて、AI ラボや私だけができるのではなく、組織として誰もが AI でユーザー価値を届けられる体制を作っていきたいと考えています。 AWS との協業と今後の展望 AWS との協業 ──AWS との協業について、改めてお聞かせください。 木佐森氏: AWS からは技術・ビジネス・運用の各領域で専門チームによる多角的なサポートをいただいており、非常に助かっています。 技術面では、プロジェクトの立ち上げ段階からの相談対応や、実際にハンズオンで協働いただくなど、壁にぶつかったときにすぐ相談できる体制が整っています。ビジネス面では、生成 AI 活用推進プログラムを通じて、技術提供だけでなくビジネス価値創出の視点での提案を多数いただいています。運用面では、Amazon Bedrock のクオータ調整やコスト最適化など、本番運用を見据えた細やかな調整を迅速に対応していただいています。 AWS も「Customer Obsession」を掲げていますが、今回の支援はまさにこちらの課題を多面的に理解して、それぞれの側面から伴走していただいていると感じています。いつも週次でめちゃくちゃな要望を上げて対応していただいて、ありがとうございます(笑)。 ──技術基盤として Amazon Bedrock を選ばれた理由について、改めて詳しく教えていただけますか? 木佐森氏: 率直に言うと、プロダクトのインフラが AWS 上で構築されていたからというのが大前提です。ただ、それ以外にも重要な理由があります。 まず、セキュリティとコンプライアンスですね。お客様の大切な情報を扱っているので、データが勝手に保存されず、学習にも利用されないなどの点は必須事項でした。また、PrivateLink を用いて閉域接続のオプションが取れることも重要でした。 次に、対応の速さです。例えば Anthropic が Claude Sonnet 3.5 を発表した次の瞬間には、Amazon Bedrock でも Claude Sonnet 3.5 が使えるようになっていました。これからもどんどん新しいモデルが出てくると思いますが、新しいモデルが出てきたときに私は社内で「1 日で評価して 1 週間でリリースしよう」と言っているのですが、AWS の対応の早さがこれを可能にしてくれています。 そして、キャパシティが潤沢にあることです。AWS の Amazon Bedrock を利用することで、可用性や信頼性のおけるシステムを構築することができます。 ──ありがとうございます。freee 様の挑戦的な取り組みに、チーム一丸となって関わらせていただけることは、私どもにとっても大変有意義であり、多くの学びをいただいております。引き続き全力でご支援させていただきます。 他社へのアドバイス ──これから AI 活用に取り組む、あるいはうまくいっていない企業へのアドバイスをお願いします。 木佐森氏: 「とりあえずやってみよう」というフェーズは終わったと思っています。今は本当に顧客価値やインパクトがあることをどう作るか、というフェーズです。 まとめると、3 つのポイントがあります。 第一に、経営インパクトがあるところに取り組むこと。 小さな課題で AI を活用しても、次のステップに繋がりません。経営層を巻き込んで、本当に価値があることに取り組む必要があります。 第二に、成功基準をプロジェクト初期にしっかり決めること。 精度などの品質指標と、それがどう顧客価値に繋がるかを明確にする。そして ROI を可視化する。 第三に、各フェーズでギャップを分析し、何を落として何を伸ばすかを戦略的に選ぶこと。 グレーゾーンではなく、強弱をはっきりつけた閾値にすることで、後で成功基準を修正しやすくなります。 これは決して簡単なことではありません。でも、本当に価値を出すためには、これらに真摯に取り組むしかないと思っています。 今後の展望 ──今後の展望を教えてください。 木佐森氏: まず、各プロダクトチームが自律的に AI 活用できる組織を作りたいです。今はボトムアップで様々なプロジェクトが始まっていますが、それらの質を組織全体で高めていく。成功基準という共通言語を使って、誰もがユーザー価値を届けられる組織にしていきます。 技術的には、SLM のトレーニングをさらに進化させ、エージェンティックなアプローチで各タスクを最適化していきます。最近のトレンドで言えば、もはやモデル性能よりも人間・組織のイネーブリングがボトルネックですよね。小型化・ルーティング・運用最適化で、エージェントの再現性・安定性やコスト効率に焦点が移っています。 そして何より、「AI CFO」というビジョンの実現に向けて、本当に顧客価値を生み出すAIを量産していきます。これは AI ラボだけでなく、組織全体で取り組んでいくことです。 ──本日は貴重なお話をありがとうございました。 木佐森氏: ありがとうございました。多くの企業が AI 活用で成果を出せるようになることを願っています。 左から freee 木佐森氏、AWS ソリューションアーキテクト 福本、アカウントマネージャー 服部、テクニカルアカウントマネージャー 舟橋 本ブログの執筆はソリューションアーキテクト 福本健亮、撮影はソリューションアーキテクト 伊藤威が担当しました。
本記事は米国時間 2025 年 11 月 4 日に公開された「 Stop Repeating Yourself: Why Global Steering is the AI Context Layer You’ve Been Missing 」を翻訳したものです。 あなたは、関数型の React コンポーネントを使った欲しいことを AI アシスタントに 47 回も伝えました。セミコロン付きの Prettier を使っていることを 23 回。そして、テストファイルは __tests__ ディレクトリに配置し、ソースコードと並べないことを少なくとも 15 回。 聞き覚えがありませんか? ここで実際にかかっているコストについて考えてみましょう。これは単にイライラするだけではなく、 生産性を下げています。 新しいプロジェクトをセットアップするたびに、すでに何十回も説明してきたプロンプトを再び説明するのに 10 〜 15 分を費やしています。年間 20 のプロジェクトに取り組む開発者にとって、それは 5 時間以上の単純な繰り返し です。50 人のチーム全体では?ワークスペース間で同じ基準をコピー&ペーストするのに 年間 250 時間 を費やしていることになります。 そして、さらに状況は悪化します。コンテキストが一貫性がないと、コードも一貫しません。あるプロジェクトではセキュリティ基準が適用されます。別のプロジェクトでは、そのファイルをペーストし忘れたためにセキュリティ基準が欠落しています。テストカバレッジは大きく変動します。コードスタイルもずれていきます。 不整合は技術的負債として蓄積されます。 AI を使ってコーディングしているなら(正直、2025 年に誰もがしているでしょうが)、この壁にぶつかっているはずです。 すべての新しいプロジェクトがゼロからスタートします。 AI はあなたの好み、チームの規約、会社の基準を覚えていません。あらゆるワークスペースに同じ指示をコピー&ペーストするか、さらに悪いことに、毎回手動で入力し直すしかありません。 これが Kiro グローバルステアリングが解決する問題です。 Kiro グローバルステアリングは、AI コンテキストのための個人用の .bashrc のようなもので、どこにいても付いてくる、必要なときに準備ができている設定だと考えてください。好みを一度書けば、それがあなたが触れるすべてのプロジェクトの基盤になります。コピーも、忘れることも、不整合もありません。 影響は?開発者は毎月数時間を節約できます。チームは自動的に一貫性を達成します。組織は規模に応じて基準を適用します。 そして最も重要なことは、AI アシスタントが毎回、初日からあなたを理解するようになることです。 そもそもステアリングとは何か? グローバルステアリングに入る前に、ステアリングが実際に何をするのかを明確にしましょう。 ステアリングは永続的な AI コンテキストです。 これは、AI エージェントが作業を開始する 前に 、あなたの好み、基準、決定事項について伝える一連のMarkdown ファイルです。すべての会話で同じことを説明する代わりに、ステアリングファイルに一度書けば、AI は作業を開始するリクエストを受けたときに自動的にそれを読み込みます。 現状:ワークスペースステアリング 現在、Kiro はワークスペース固有のステアリングを使用しており、以下の場所に保存されています。 <project>/.kiro/steering/ このアプローチは、プロジェクトごとに設定を指定する必要がある場合にうまく機能します。 しかし、問題があります。 AI に伝えることのほとんどは、プロジェクト固有ではありません。 あなたのコーディングスタイルの好みは、すべてのプロジェクトで同じです。テストの哲学はどこでも一貫しているべきです。普遍的なセキュリティ基準が必要です。なぜそれをすべてのワークスペースで繰り返す必要があるのでしょうか? グローバルステアリングの登場:個人用 AI 設定レイヤー グローバルステアリングはあなたのホームディレクトリに存在します。 ~/.kiro/steering/ このステアリングファイルは永続的です。普遍的です。どこにでも付いてきます。 ここに置いた Markdown ファイルは、ワークスペースレベルで明示的に上書きされない限り、 すべての プロジェクトで Kiro が利用できるようになります。 グローバルステアリングに何を入れるべきか? プロジェクトに関係なく、あなたの仕事全体で一貫しているものについて考えてください 個人的なコーディングスタイル ~/.kiro/style.md (グローバル) # style.md ## コード整形 - 常にセミコロン付きの Prettier を使用 - JS/TSは2スペースインデント、Python は 4 スペース - 複数行の配列/オブジェクトには末尾のカンマ ## React の好み - 関数コンポーネントのみ(クラスコンポーネントは使わない) - 再利用可能なロジックにはカスタムフック - コンポーネント上部で props を分割代入 ## 命名規則 - 関数と変数は camelCase - コンポーネントとクラスは PascalCase - 定数は SCREAMING_SNAKE_CASE - 簡潔さよりも説明的な名前 テストのルール ~/.kiro/testing.md (グローバル) # testing.md ## テスト基準 - ビジネスロジックには最低80%のカバレッジ - テストファイルは`__tests__/`ディレクトリに配置 - Jest + React Testing Library を使用 - 外部依存関係はモック化 - クリティカルパスには統合テスト ## テスト構造 - Arrange-Act-Assert パターン - 説明的なテスト名(it should...) - 可能な限り 1 テストにつき 1 つのアサーション セキュリティ要件 ~/.kiro/security.md (グローバル) # security.md ## セキュリティの基本 - 秘密情報は絶対にコミットしない(環境変数を使用) - すべてのユーザー入力を検証 - SQL/HTML レンダリング前にデータをサニタイズ - パラメータ化されたクエリを使用、文字列連結は禁止 - API にレート制限を実装 - HTTPS のみ、混合コンテンツは禁止 ドキュメンテーション基準 ~/.kiro/docs.md (グローバル) # docs.md ## コードドキュメンテーション - すべての公開関数に JSDoc - 複雑なロジックのみインラインコメント - セットアップ手順を含む README をすべてのプロジェクトに - OpenAPI/Swagger を使用した APIドキュメンテーション - "Keep a Changelog" のサイトに従った変更履歴 アーキテクチャ原則 ~/.kiro/architecture.md (グローバル) # architecture.md ## 設計原則 - 関心の分離 - DRYだが明確さを犠牲にしない - 継承よりコンポジション - 説明的なエラーで早期に失敗 - 単一責任の原則 ## コード構成 - 機能ベースのフォルダ構造 - 関連ファイルの近接配置 - クリーンなインポートのためのバレルエクスポート このパターンは、何を構築するかではなく、どのように作業するかを定義します。 実世界のシナリオ:個人開発者 実際にこれがどのように機能するか見てみましょう。 Jane Doe さんの場合 Jane は、React とNode を使った顧客プロジェクト、オープンソースへの貢献、個人的なサイドプロジェクトに取り組んでいるフリーランスのフルスタック開発者です。すべてのプロジェクトで異なるビジネスロジックがありますが、 彼女の基準は同じままです。 Janeのグローバルステアリング設定 Jane の ~/.kiro/steering/ フォルダ ~/.kiro/steering/ ├── style.md # コーディングスタイルの好み ├── testing.md # テストアプローチ ├── security.md # セキュリティベースライン ├── docs.md # ドキュメンテーション基準 ├── git.md # コミットメッセージ形式 └── accessibility.md # アクセシビリティ要件 主 要なファイル: ~/.kiro/git.md (グローバル) # Git 規約 ## コミットメッセージ Conventional Commits に従う: - feat: 新機能 - fix: バグ修正 - docs: ドキュメント変更 - refactor: コード再構築 - test: テストの追加/変更 形式:`type(scope): description` 例:`feat(auth): OAuth2サポートを追加` ## ブランチ戦略 - `main` - 本番環境対応 - `develop` - 統合ブランチ - `feature/xxx` - 新機能 - `fix/xxx` - バグ修正 ~/.kiro/accessibility.md (グローバル) # アクセシビリティ基準 ## 要件 - 最低限 WCAG 2.1 AA コンプライアンス - セマンティックな HTML要素 - 適切な見出し階層(h1 → h2 → h3) - すべての画像に alt 属性 - キーボードナビゲーションのサポート - フォーカスインジケーターを可視化 - 最低 4.5:1 のカラーコントラスト比 ## テスト - キーボードのみでテスト - スクリーンリーダーを使用(NVDA/JAWS) - コミット前に axe DevTools を実行 ワークスペース固有のステアリング さて、Jane は新しいクライアントプロジェクトであるEコマースプラットフォームを開発を開始します。彼女のプロジェクト固有のステアリングファイルは /.kiro/steering/ に配置されます。 <project>/.kiro/steering/ ├── product.md # E コマースのビジネス要件 ├── tech.md # Next.js、Stripe、PostgreSQL の選択 └── structure.md # このプロジェクトのフォルダレイアウト <project>/.kiro/product.md (ワークスペース) # Eコマースプラットフォーム ## コア機能 - 検索機能付き商品カタログ - 永続化されたショッピングカート - Stripe 決済統合 - 注文履歴と追跡 - メール通知 ## ユーザーロール - ゲスト:閲覧と購入 - 顧客:保存されたアドレス、注文履歴 - 管理者:商品管理、注文処理 <project>/.kiro/tech.md (ワークスペース) # 技術スタック ## フロントエンド - Next.js 14(App Router) - TypeScript - Tailwind CSS - 状態管理にZustand ## バックエンド - Next.js API ルート - Prisma 経由の PostgreSQL - 決済に Stripe - メールに SendGrid ## インフラストラクチャ - Vercel にデプロイ - データベースに Supabase - 画像に Amazon S3 どのように連携するか Jane が「新しい ProductCard コンポーネントを作成して」と Kiro に依頼すると以下のものを読み込みます。 Kiro が読み込むもの: グローバルステアリング ( ~/.kiro/steering/ ) style.md → 関数コンポーネント、Prettier 設定 accessibility.md → セマンティック HTML、alt 属性要件 testing.md → テストファイルの配置とカバレッジ ワークスペースステアリング ( /.kiro/steering/ ) tech.md → Next.js、TypeScript、Tailwind を使用 product.md → 商品データ構造と機能 structure.md → コンポーネントは src/components/ に配置 結果として、Kiro は、TypeScript を使用した Tailwind CSS クラスの関数型 React コンポーネント、適切なセマンティック HTML とアクセシビリティ属性、対応するテストファイルと共に正しいディレクトリに配置、Jane のコーディングスタイルに一致、すべてを自動的に生成します。 Jane が好みを設定を繰り返し指示することなく、すべてが実行されます。 チームシナリオ:組織全体の基準 では、これをスケールアップしましょう。50 人の開発者がいるチームではどうなるでしょうか? AnyCompany の場合 AnyCompany には、8 つの開発チームがあり、混合技術スタック(React、Vue、Python、Go)にわたる 30 以上のアクティブなリポジトリを管理し、厳格なセキュリティとコンプライアンス要件を持っています。 課題: すべての開発者が会社の基準に従う必要がありますが、異なる技術を使用した異なるプロジェクトに取り組んでいます。 AnyCompany のグローバルステアリング戦略 展開アプローチ 組織は、グローバルステアリングファイルをチームに配布する方法の柔軟性を持っています。重要な制約は、Kiro が  ~/.kiro/steering/ ディレクトリからのみグローバルステアリングファイルを読み取ることですが、ファイル自体はコピーまたはシンボリックリンクを通じてどこからでも取得できます。 バージョン管理を使用するチームの場合、AnyCompany は、セキュリティポリシー、SOC2 および GDPR コンプライアンス要件、コードレビュー基準、オンコール手順、アクセシビリティ要件、UI/UX ブランドガイドラインを含む会社全体のステアリングファイルを含む共有リポジトリを維持しています。開発者はオンボーディング中にこのリポジトリをクローンし、ファイルを ~/.kiro/steering/ に直接コピーするか、中央リポジトリが変更されたときに自動的に反映されるシンボリックリンクを作成します。シンプルなセットアップスクリプトがこのプロセスを自動化し、手動コピーなしですべての開発者が同じベースラインを取得できるようにします。 setup-kiro.sh #!/bin/bash # setup-kiro.sh echo "AnyCompany Kiro グローバルステアリングをセットアップしています..." # 会社のステアリングをクローン git clone <チームのグローバルステアリングファイルのURLをここに> ~/.kiro/company-steering # グローバルステアリングへシンボリックリンク(更新が自動同期) ln -s ~/.kiro/company-steering/* ~/.kiro/steering/ echo "グローバルステアリングが設定されました!" Jamf や Intune などのモバイルデバイス管理ツールを使用する企業の場合、展開は完全に自動化できます。MDM スクリプトは、内部サーバーからファイルをダウンロードし、適切な権限を設定し、必要なファイルが存在し続けることを強制することで、 ~/.kiro/steering/ に直接入力できます。または、MDM は /opt/company/kiro-steering/ のような中央の場所にファイルを展開し、 ~/.kiro/steering/ へのシンボリックリンクを作成できます。これにより、ファイルを管理された場所に保ちながら、集中更新が提供されます。このアプローチは、開発者の手動セットアップが不要になり、集中ポリシー管理、ポリシーが変更されたときの自動更新、コンプライアンスのための監査証跡を提供します。 #!/bin/bash # MDM 経由で AnyCompany Kiro グローバルステアリングを展開 USER_HOME="/Users/$USER" STEERING_DIR="$USER_HOME/.kiro/steering" COMPANY_NAME="会社名をここに" mkdir -p "$STEERING_DIR" # 内部サーバーから会社のステアリングファイルをダウンロード curl -o "$STEERING_DIR/security.md" "https://internal.$COMPANY_NAME.com/kiro/security.md" curl -o "$STEERING_DIR/compliance.md" "https://internal.$COMPANY_NAME.com/kiro/compliance.md" curl -o "$STEERING_DIR/code-review.md" "https://internal.$COMPANY_NAME.com/kiro/code-review.md" chown -R $USER "$STEERING_DIR" chmod 755 "$STEERING_DIR" echo "AnyCompany Kiro グローバルステアリングが正常に展開されました" 実際のチーム例:フロントエンドチーム AnyCompany のフロントエンドチームは独自のレイヤーを追加します。 チーム共有ステアリングリポジトリ(フロントエンド) frontend-steering/ ├── react-patterns.md # チームの React 規約 ├── component-api.md # Props パターン ├── state-management.md # Zustand と Context をいつ使うか └── performance.md # バンドルサイズ、遅延ロードルール 個人開発者:John Doe John は AnyCompany のフロントエンド開発者です。 John の完全なステアリング設定: # チーム固有および会社全体(グローバルステアリング内) ~/.kiro/steering/ ├── security.md # 会社のセキュリティ(中央の場所からシンボリックリンク) ├── compliance.md # SOC2/GDPR(中央の場所からシンボリックリンク) ├── code-review.md # PR の基準(中央の場所からシンボリックリンク) ├── react-patterns.md # フロントエンドチームの React 規約 ├── component-api.md # チームの Props パターン ├── style.md # John の個人的なスタイルの好み └── shortcuts.md # John のカスタムスニペット # プロジェクト固有(現在のワークスペース) <project>/.kiro/steering/ ├── product.md # この製品の要件 ├── tech.md # このプロジェクトのスタック └── structure.md # このコードベースのレイアウト John が何かを構築するよう Kiro に依頼すると、Kiro はワークスペースステアリングがグローバルステアリングに優先して、ファイルを読み取ります。ワークスペースステアリングはプロジェクト固有で、競合が存在する場合に優先されます。グローバルステアリングには、John の個人的な好み、チーム規約、会社基準が含まれ、ワークスペースの上書きが存在しない場合に使用されます。結果として、John は会社のセキュリティコンプライアンスが自動的に適用され、プロジェクト全体で共有されるフロントエンドチームの基準、彼の個人的なワークフローの好み、現在のワークスペースからのプロジェクト固有のコンテキストを取得します。これらのレイヤーはすべてシームレスに連携します。 シナリオ:複数言語を利用する開発者 別のシナリオは、複数の技術スタックで作業する場合です。React とTypeScript を使用したフロントエンド開発、Python と FastAPI を使用したバックエンドサービス、React Native で構築されたモバイルアプリケーション、Terraform を通じて管理されるインフラストラクチャ。これらのエコシステム全体で共通の問題は、それぞれが異なる規約を持っているため、コードベース全体で一貫性のない実践に陥りやすいことです。 以下に示すソリューションは、言語に適した実装で、さまざまなコーディング言語にわたって基準を指定する方法を示しています。これで、テスト基準は一貫していますが、実装は言語に応じて適切に変化します。 グローバルステアリングのソリューション: # テスト基準(すべての言語) ## カバレッジ - ビジネスロジックには最低80% - 決済/セキュリティコードには100% ## テスト構造 - Arrange-Act-Assertパターン - 説明的な名前 - テストごとに1つのアサーション ## 言語固有 ### TypeScript/JavaScript - Jest + Testing Library - `__tests__/`ディレクトリにテスト ### Python - pytest - `tests/`ディレクトリにテスト - セットアップに fixture を使用 ### Go - 標準の`testing`パッケージ - テーブル駆動テスト - `_test.go`サフィックス ~/.kiro/naming.md (グローバル) # 命名規則(すべての言語) ## 普遍的なルール - 巧妙さよりも説明的 - 完全な単語、略語は使わない(標準的なものを除く) - ブール変数:`is`、`has`、`should` 接頭辞 - 配列/リスト:複数形の名詞 - ブール名に否定形を避ける ## 言語固有 ### TypeScript/JavaScript - 変数/関数は camelCase - クラス/コンポーネントは PascalCase - 定数は SCREAMING_SNAKE ### Python - 変数/関数は snake_case - クラスは PascalCase - 定数は SCREAMING_SNAKE ### Go - エクスポートされる名前は PascalCase - エクスポートされない名前は camelCase 一般的なステアリングのガイドライン ステアリングに入れてはいけないもの API キーや秘密情報、データベース認証情報、内部 URL やエンドポイント、顧客データや PII 、独自のアルゴリズム(ステアリングファイルを共有する予定がある場合)を含めてはいけません。これは、グローバルステアリングファイルは平文の Markdown であり、多くの場合共有または同期され、デフォルトでは暗号化されていないためです。 含めても安全なもの 一般的なセキュリティプラクティス、コードパターンと好み、テストアプローチ、ドキュメンテーション基準、公開 API 設計原則、フレームワークとライブラリの選択をステアリングファイルに含めることは安全です。 始めよう:最初のグローバルステアリングファイル グローバルステアリングを試して実際に動作を見る準備はできましたか?以下は、実際に確認できる簡単な例です。 ステップ1:最初のファイルを作成する 最も頻繁に繰り返すことを選びます。ほとんどの開発者にとって、それはコーディングスタイルです: nano ~/.kiro/steering/style.md ステップ2:テストする Kiro で新しいプロジェクトを開いて、「新しいコンポーネントを作成して」と依頼します。Kiro は、あなたが言及しなくても、 ~/.kiro/steering/style.md からのスタイルの好みに従うはずです。 ステップ3:徐々に拡張する 繰り返しのパターンを発見したら、より多くのファイルを追加し、有機的に構築します。 # 来週、テスト基準を追加 nano ~/.kiro/steering/testing.md # その次の週、セキュリティベースラインを追加 nano ~/.kiro/steering/security.md まとめ これで、Kiro があなたの全体的なスタイルと好みを理解するために グローバルステアリング を使用して、より効率的に作業する方法ができました。唯一残された課題は、何時間もの時間と繰り返しの指示を節約するために、Kiro プロジェクトに適用し始めるグローバルステアリングファイルに何を書くかです。今日、最初のグローバルステアリングファイルを作成しましょう。二度と同じことを繰り返さない体験をしてみてください。 グローバルステアリングに何を入れますか?ハッシュタグ #codewithkiro でセットアップを共有 するか、 X 、 LinkedIn 、または Instagram で @kirodotdev をタグ付けし、 Bluesky で @kiro.dev をタグ付けしてください。
複数の AWS アカウントとリージョンにまたがるログの管理は、組織にとって常に複雑な課題でした。本番環境、開発環境、ステージング環境用の個別のアカウントやリージョンを含む AWS インフラストラクチャーが成長するにつれ、ログ管理の複雑さは指数関数的に増加します。特に時間外の重大なインシデント発生時には、チームは貴重な時間を費やして、複数のアカウントを検索し、異なるリージョン間でイベントを関連付け、複雑なログ集約システムを管理し、クロスアカウントのアクセス権限を管理しています。このような従来のログ管理アプローチは、多大なリソースを消費するだけでなく、インシデント解決を遅らせ、顧客体験に影響を与える可能性があります。このブログでは、大規模環境向けのログ管理を簡素化する方法をご紹介します。 CloudWatch Logs 一元化のご紹介 Amazon CloudWatch は複数のアカウントにわたるログのフェデレーションを通じて クロスアカウントオブザーバビリティ を提供してきましたが、新しい CloudWatch Logs の一元化 は根本的に異なるアプローチを採用しています。新しい CloudWatch Logs の一元化では、複数のアカウントとリージョンからのログデータを中央アカウントに統合します。この統合により、カスタムビルドの集約ソリューションの管理に関連する運用上のオーバーヘッドとコストの両方が排除され、図1 に示すように、組織のすべてのログデータに対する確実な単一の情報源が提供されます。 図1. 複数のアカウントとリージョンにまたがるログの統 CloudWatch Logs の一元化は AWS Organizations と連携して、お客様の正確な要件に基づいてログデータを自動的に複製するルールを定義します。セキュリティ境界とコンプライアンス要件を維持しながら、何を一元化するか、どこに保存するか、どのように暗号化するかについて完全な制御が可能です。 ソリューションの手順説明 このセクションでは、このソリューションをお客様の環境に実装する方法について説明します。例えば、運用の可視性向上と迅速なインシデント対応のために、異なるリージョンで稼働している複数の本番アカウントからのログを中央アカウントに統合する必要がある場合を想定してみましょう。以下の段階的なガイドでは、ログ一元化ルールの設定方法、送信元アカウントと送信先アカウントの構成方法、および本番環境のログの一元化を開始する方法をご紹介します。 事前準備 AWS Organizations をセットアップし、送信元アカウントと送信先アカウントが組織の一部であることを確認します。 CloudWatch の信頼されたアクセスを有効にします。 CloudWatch コンソールに移動し、 設定 に進みます。 図2 に示すように、組織タブで「 信頼されたアクセスをオンにする 」をクリックします。 図2. CloudWatch の信頼されたアクセスの有効化 (オプション) 委任管理者 を登録します。委任管理者は、組織内のすべてのアカウントまたは特定の組織単位(OU)に CloudWatch 機能をデプロイすることを選択できます。 ログ一元化ルールの設定 送信元アカウントから送信先アカウントにログデータを複製する一元化ルールを作成するには、以下の手順に従ってください。 組織の管理アカウントまたは委任管理者アカウントの CloudWatch コンソール に移動します。 設定 を選択し、 組織 に移動します。 ルールを設定 を選択します。 送信元の詳細を指定します。 ルール名を指定します(例: production-logs-central ) ソースアカウント をアカウントID、組織単位ID、または組織IDを選択します。 図3に示すように、統合するログを選択する Source Regions を選択します。 図3. ログ一元化の送信元詳細の指定 次へ を選択します。 図4 に示すように、 送信先アカウント と Destination Region (送信先リージョン) を選択して送信先の詳細を指定します。プライマリーリージョンで障害が発生した場合にデータの可用性を確保するため、送信先アカウント内に Backup Region を指定してログの同期コピーを保持することもできます。 図4. ログ一元化の送信先詳細の指定 次に、以下のフィールドを設定してテレメトリーデータを指定し、 次へ を選択します。 図5 に示すように、 すべてのロググループ を選択するか、 フィルターロググループ を選択して統合したいロググループを指定します。 ロググループ選択基準でサポートされる構文は以下です。 サポートされるキー : LogGroupName | * サポートされる演算子 : = | != | IN | NOT IN | AND | OR | LIKE | NOT LIKE KMS 暗号化されたロググループ を処理するために、以下のオプションがあります。 Centralize log groups encrypted with AWS KMS key in destination account with AWS KMS key (送信先アカウントのAWS KMSキーで暗号化されたロググループを一元化) このオプションでは、提供された送信先KMSキー ARN を使用して、送信元アカウントから送信先に暗号化されたロググループを一元化します。 このオプションを選択する場合、送信先の暗号化キー ARN とバックアップ送信先の暗号化キー ARN (前のステップでバックアップリージョンを選択した場合のみ必要) を提供する必要があります。 指定されたKMSキーは CloudWatch Logs が暗号化するための権限を持っている必要があります。詳細については、「 ステップ 2: KMS キーでアクセス許可を設定する 」 を参照してください。 Centralize log groups encrypted with AWS KMS key in destination account なし AWS KMS key (AWS KMSキーで暗号化されたロググループを送信先アカウントでAWS KMSキーなしで一元化) このオプションでは、送信元アカウントの KMS 暗号化されたロググループを送信先アカウントでは暗号化せずに一元化します。 Do not centralize log groups encrypted with AWS KMS key (AWS KMSキーで暗号化されたロググループを一元化しない) このオプションでは、送信元アカウントで AWS KMS 暗号化されているロググループは一元化されません。 図5. ログ一元化のテレメトリーデータの指定 確認と設定 ページで、すべての詳細を確認し、 一元化ルールの作成 をクリックします。 一元化ルールが作成され有効化されると、ログイベントは中央アカウントへの統合を開始します。図6 に示すように、同じ名前のロググループはログ管理を効率化するために統合され、ログストリームには送信元アカウントIDと送信元リージョンの識別子が追加されます。さらに、ログイベントには新しいシステムフィールド ( @aws.account と @aws.region ) が追加され、ログデータの出所を簡単に追跡できるようになります。 注意 : CloudWatch ログ一元化機能は、一元化ルールの作成後に送信元アカウントに到着する新しいログデータのみを処理します。過去のログデータ (ルール作成前に存在していたログ) は一元化されません。 図6. 送信先アカウントでの一元化されたログ 一元化ルールの健全性の監視 ルールがアクティブになると、図7 に示すようにコンソールを使用して、または GetCentralizationRuleForOrganization API を使用してプログラムで、その健全性のステータスを確認できます。 図7. 一元化ルールの健全性の監視 ルールの健全性ステータスには以下が含まれます。 HEALTHY (正常): ルールは正常に動作しており、設定通りにログデータを複製しています。 UNHEALTHY (異常): ルールに問題が発生しており、データが正しく複製されていない可能性があります。 PROVISIONING (プロビジョニング中): 組織の一元化が設定処理中です。 ルールが UNHEALTHY とマークされた場合、 FailureReason フィールドに対処が必要な具体的な問題の詳細が表示されます。 一元化されたログを使用した統合分析 ログが一元化されると、分散ログでは不可能だった強力な分析機能が利用可能になります。 @aws.account と @aws.region というシステムフィールドが追加されることで、大規模なトラブルシューティングと分析の方法が変革されます。これらのフィールドは自動的にインデックス化され、より迅速なクエリ結果の取得を支援します。以下の例では、図8に示すように、 CloudWatch Logs Insights が、us-west-2 リージョンからのタイムスタンプ、アカウント、リージョン、メッセージ、ログストリーム、ロググループフィールドを表示するクエリを実行し、結果を 100 エントリに制限しています。 fields @timestamp, @aws.account, @aws.region, @message, @logStream, @log | filter @aws.account = 123456789012 and @aws.region = 'us-west-2' | sort @timestamp desc | limit 100 図8. CloudWatch Log Insights を使用したクエリの実行 @aws.account と @aws.region フィールドを分析に活用する方法を示す追加のサンプルクエリは以下の通りです。 アカウントとリージョン別の認証失敗の試行一覧 fields @timestamp, @aws.account, @aws.region, @message | filter @message like /(?i)(failed|unauthorized|denied|forbidden)/ | stats count() as failed_attempts by @aws.account, @aws.region | sort failed_attempts desc 複数のアカウントとリージョンにわたるDBのスロークエリの分析 fields @timestamp, @message, @aws.account, @aws.region | filter @message like /(query|database|sql)/ and @message like /(slow|timeout|duration)/ | parse @message /query.*?(?<query_duration>\d+)ms/ | parse @message /rows.*?examined[=:]?\s*(?<rows_examined>\d+)/ | parse @message /rows.*?returned[=:]?\s*(?<rows_returned>\d+)/ | parse @message /(?<query_type>SELECT|INSERT|UPDATE|DELETE)/ | parse @message /table[=:]?\s*(?<table_name>\w+)/ | filter query_duration > 1000 | stats count() as slow_queries, avg(query_duration) as avg_duration, max(query_duration) as max_duration, avg(rows_examined) as avg_rows_examined, avg(rows_returned) as avg_rows_returned by query_type, table_name, @aws.account, @aws.region, bin(5m) | sort max_duration desc CloudWatch Logs 機能のベストプラクティス CloudWatch Logs の一元化を実装する際、これらの CloudWatch 機能のベストプラクティスに従うことで、一元化されたログの価値を最大限に引き出すことができます。これらのプラクティスには、メトリクス、サブスクリプションフィルター、ログ変換、コスト最適化が含まれており、組織全体で安全で効率的、かつコスト効果の高いログ管理を確保します。 1. メトリクスとサブスクリプションフィルター CloudWatch Logs の一元化により、メトリクスとサブスクリプションフィルターを通じて強力なデータ変換と統合機能が可能になります。組織は一元化されたログデータを数値メトリクスに変換し、グラフによる可視化とアラームベースの監視を実現できます。 例えば、アカウントやリージョンに関係なく、すべてのログに対して メトリクスフィルターを作成する ことができます。 aws logs put-metric-filter \ --log-group-name /centralized/production \ --filter-name ThrottledAPICalls \ --filter-pattern '{ $.errorCode = "*Throttled*" }' \ --metric-transformations \ metricName=ThrottledCalls,\ metricNamespace=CentralizedMetrics,\ metricValue=1,\ dimensions={Account=$aws.account,Region=$aws.region} さらに、 サブスクリプションフィルター を通じてリアルタイムのログイベントストリーミングを設定でき、 Amazon Kinesis stream 、 Amazon Data Firehose stream 、 Amazon OpenSearch Service 、 AWS Lambda などの様々なサービスとシームレスに統合できます。サブスクリプションフィルターを設定する際、アカウントとリージョンのフィールドを使用して、特定のソースからのログを選択的に転送できます。ログデータにソースアカウントとリージョン情報を含めるには、図9 に示すように、 システムフィールドの発行 の下で @aws.account と @aws.region システムフィールドを選択して有効にします。 図9. サブスクリプションフィルターでのアカウントとリージョンフィールドのフィルタリング 2. ログの変換 CloudWatch Logs の一元化を使用する場合、送信元アカウントから中央アカウントにコピーされるのは生のログデータのみです。送信元アカウントでの取り込み時に適用された ログ変換 は、一元化されたログには反映されません。組織全体で一貫したログ変換を行うために、ログが統合された後、中央アカウントで直接ログ変換を適用することを推奨します。 3. ログストレージコストの最適化 CloudWatch Logs の一元化は、複数のアカウントとリージョンにまたがるログ管理のためのコスト効率の高い価格体系を提供します。一元化されたログの最初のコピーには、追加の取り込み料金やリージョン間データ転送コストはかからず、標準的なCloudWatchのストレージコストと機能価格のみが請求されます。最初の一元化を超える追加コピーについては、1GBあたり0.05ドルの料金が発生します(バックアップリージョン機能の使用も追加コピーを作成します)。詳細については、 CloudWatchの料金ページ をご覧ください。CloudWatch Logs の一元化を使用する際のコストを最適化するために、以下のベストプラクティスの実施を推奨します。 1. 階層化された保持戦略の実装 2層の保持ポリシーを実装することで、ストレージコストを大幅に削減できます。 送信元アカウントには、即時の運用ニーズに対応するための短期保持期 (7-30日) を設定してください。 一元化されたアカウントには、コンプライアンス要件を満たし、履歴分析をサポートするための長期保持期間 (90日以上) を設定してください。 2. 選択的な一元化の利用 ログの追加コピーを作成する際は、以下のような戦略的な一元化アプローチを取ってください。 ロググループフィルターを活用して、特定のアプリケーションやサービスのみを一元化してください。 ビジネス要件に合致するログのみを特定し、一元化してください。 特定のユースケースに役立たない不要なログデータの一元化を避けてください。 3. バックアップ戦略 バックアップ戦略を計画する際には、以下の要因を考慮してください。 バックアップコピーは追加コピーとして扱われ、1GBあたり0.05ドルの料金が発生することに注意してください。 中央アカウントへの専用バックアップに関する特定の要件がある場合にのみ、バックアップの一元化を有効にしてください。 追加料金を排除するため、送信元アカウントをバックアップコピーとして活用することを検討してください。 これらの最適化戦略を実装することで、コストを管理しながら効果的なログ管理を維持できます。 まとめ CloudWatch Logs の一元化は、カスタムログ集約システムの複雑さを排除するネイティブなAWSソリューションを提供することで、クロスアカウントおよびクロスリージョンのログ管理を変革します。自動レプリケーション、AWS Organizations とのシームレスな統合、クロスリージョンサポート、柔軟な暗号化オプションなどの機能により、組織は最小限のセットアップ時間で包括的なログ管理を実現できます。運用効率の向上、セキュリティ態勢の強化、インシデント解決の迅速化を通じて、即座に価値を提供します。開始するには、 クロスアカウントクロスリージョンログの一元化 のドキュメントをご参照ください。 Raviteja Sunkavalli Raviteja Sunkavalli は、Amazon Web Services の Senior Worldwide Specialist Solutions Architect で、AIOps と GenAI のオブザーバビィリティを専門としています。複雑で分散したクラウド環境全体で、オブザーバビィリティとインシデント管理ソリューションのグローバル顧客による実装を支援しています。仕事以外では、クリケットをプレイしたり、新しい料理のレシピを探求したりすることを楽しんでいます。 Andres Silva Andres Silva は、Amazon Web Services (AWS) の Global Cloud Operations Leader および Principal Specialist Solutions Architect として、企業のクラウドオペレーション変革を支援しています。AWS での10年を含む30年以上のテクノロジー経験を持ち、DevOps、クラウドテクノロジー、SaaS インフラストラクチャ管理を専門としています。ノースカロライナ州ハイポイントを拠点とし、AIOps とオブザーバビィリティに焦点を当てた企業全体のクラウドオペレーション戦略を推進しています。人工知能を活用して大規模な運用の優位性と自動化されたインシデント対応を実現する、インテリジェントなクラウドオペレーションフレームワークの設計と実装において、グローバル組織と協力しています。 Siddharth Bhate Siddharth Bhate は、Amazon CloudWatch チームの Senior Product Manager – Technical です。コアテレメトリ製品に焦点を当て、AWS 顧客のオブザーバビィリティの基盤となる高度にスケーラブルで回復力のあるログ取り込みと管理サービスの構築に携わっています。運用データを実用的なインサイトに変換し、アプリケーションのパフォーマンス向上とコスト最適化を実現するお客様の支援に情熱を注いでいます。仕事以外では、ビーグル犬の父親であり、熱心なハイハンディキャップゴルファーです。 本記事は、 Simplifying Log Management using Amazon CloudWatch Logs Centralization を翻訳したものです。翻訳は Technical Account Manager の 日平 が担当しました。
本記事は 2025 年 10 月 31 日に公開された Erik Hanchett(Developer Advocacy)、Jay Raval(Developer Experience)による “ Introducing Remote MCP Servers ” を翻訳したものです。 Model Context Protocol(MCP)は、エージェントがツールや外部システムに接続するための標準となりました。関数の実行やファイルアクセス、プロンプトの実行などを行うための汎用インターフェイスです。MCP は AI コーディングアシスタントで広く利用されており、大規模言語モデルの機能を拡張するために使われています。 MCP は、Anthropic が 2024 年 11 月に発表して以来、大幅に進化しました。エージェントは当初、主にローカルで実行される MCP サーバーに接続していましたが、リモート MCP サーバー接続がますます一般的になってきています。リモートサーバーを使うことで、エージェントの機能をローカル環境の枠を超えて拡張できます。リモートサーバーを利用することで、データソースやインターネット上のツール、各種サービスにより簡単に接続できます。たとえば、ノート作成サービスにアクセスできるリモート MCP サーバーに接続できます。また、セキュリティの観点からもより安全に運用できます。これにより、ユーザーにとって新たな統合の可能性が無限に広がります。 Kiro ユーザーは私たちのローカル MCP サーバーサポートを愛用しており、仕様、ステアリング、フックを MCP と組み合わせることで構築された多くの興味深いアプリケーションを見てきました。これをさらに進化させるために、リモート MCP サーバーサポートとワンクリック MCP インストールを新たに発表します。これらの機能により、Kiro での作業とアプリの構築がより簡単になります。 リモート MCP サーバーの説明 リモート MCP サーバーサポートにより、ローカルマシンではなくインターネット上でホストされている MCP サーバーに接続できます。基盤となる仕様は同じです。リモート MCP サーバーは、従来と同様のプロンプト、ツール、リソースを公開しますが、プロトコルが異なります。コンピューター上でローカルに接続する場合に使用する stdio の代わりに、Streamable HTTP 経由で接続できるようになりました。 Streamable HTTP はクライアント接続を処理します。Server-Sent Events(SSE)を使用して複数のサーバーメッセージをストリーミングするという追加の利点があります。Streamable HTTP は、再開可能性、再配信、セッション管理、下位互換性などの追加機能を提供します。なお、Kiro は Streamable HTTP に加えて、非推奨となった HTTP+SSE トランスポートプロトコルにも対応しています。Kiro を使う際は、こうした基盤技術を意識する必要はありません。すべて自動で適切に動作します。 Kiro でのリモート MCP サポートの使用 Kiro は常にローカル MCP サーバー(またはプロキシ経由のリモートサーバー)をサポートしてきましたが、現在はリモート MCP サーバーをネイティブサポートしています。わずか数ステップで、リモート MCP サーバーを追加して使い始めることができます。必要に応じて、認証ヘッダーを追加するか、動的クライアント登録を介して直接認証できます。動的クライアント登録では、Kiro がウェブページを開いてサインインと認証を行うよう求めます。 ここでは、動的クライアント登録を使って Notion MCP サーバーを追加する手順を見てみましょう。 ステップ 1: Kiro を開き、Kiro パネルから MCP サーバーセクションに移動します ステップ 2: リモート MCP サーバー設定を追加します。保存後、画面の右下にサーバー認証用のポップアップが表示されます ステップ 3: 認証をクリックし、Kiro が外部ウェブサイトを開くことを許可します。サインイン後、Notion MCP サーバーを使用できるようになります MCP 接続のセキュリティ確保 MCP サーバーは多くの場合、API キーや認証トークンを必要とします。これらを設定ファイルにハードコーディングするとリスクが生じます。誤ってバージョン管理に含めてしまったり、スクリーンショットなどで公開してしまうおそれがあります。Kiro は現在、 ${ENV_VAR} 構文を使用した環境変数をサポートしています。認証情報はローカル環境に留まり、設定ファイルには保存されません。 Bearer トークンが必要なサーバーに接続する例を以下に示します。 { "mcpServers": { "my-remote-server": { "url": "https://your-mcp-endpoint.com", "headers": { "Authorization": "Bearer ${SECRET_TOKEN}" } } } } Kiro が新しい環境変数を検出すると、承認を求めるセキュリティプロンプトが表示されます。これにより、悪意のある設定が許可なしに環境にアクセスすることを防ぎます。承認された変数は設定で管理でき、いつでもアクセスを取り消すことができます。 これにより、認証情報をローカルに安全に保持でき、簡単にローテーションできるうえ、うっかり公開してしまうことも防げます。 ワンクリックでサーバーを追加 Kiro への MCP サーバーの追加がこれまで以上に簡単になりました。新しい Add to Kiro ボタンにより、ワンクリックで MCP サーバーをインストールできます。ボタンをクリックすると、Kiro が設定の承認を求め、その後自動的にサーバーをユーザー設定セットアップに追加します。 開始に役立つ サンプル MCP サーバーのコレクション を厳選しました。 今すぐ始めよう MCP サーバーを日常的に使っている方なら、リモート MCP サポート、環境変数、ワンクリック MCP インストールといった新機能をきっと気に入っていただけるはずです。開始するには、Kiro の最新バージョンに更新して、今日これらの機能を試してみてください。ご意見をお聞かせください! 詳細は リモート MCP サーバーのドキュメント をご覧いただくか、 サンプルサーバー を試して気になるものを見つけてみてください。 翻訳は App Dev Consultant 宇賀神が担当しました。
みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。 11 月の builders.flash 記事が出ていますので生成AI関連のものをピックアップしてみます。今月も多くの記事が出ています! 「話すだけで仕事が終わる」世界へ ~ Amazon Bedrock で作るリアルタイム AI 議事録アプリケーション(株式会社デイトナ・インターナショナル様) Amazon Bedrock Knowledge Bases + AWS CDK で作る社内向け RAG テンプレート ~ コマンド 1 つで社内展開(ダイキン工業株式会社様) 知財業務を革新するオムロンの知財 AI エージェント実装事例(オムロン株式会社様) 生成 AI で実現する人材マッチング ~ レバレジーズによる職務経歴書入力補助システム ~(レバレジーズ株式会社様) AWS と LiteLLM で実現する、セキュアで柔軟な AI エージェント基盤のアーキテクチャ(フリー株式会社様) kintone における生成 AI 機能の安全な運用 ~ 分散トレーシングによる運用課題の解決(サイボウズ株式会社様) AWS Summit Japan 展示「AI メイクさん」のウラガワ ! – AI エージェントで希望のメイク 3D モデルを作成(AWS) AWS Transform for mainframe と GenU で COBOL プログラム説明書を作ってみよう – 後編: フローチャート等の図表の生成(AWS) どの記事も実践的かつ生成AI活用の観点が異なっていて参考になりますね。 毎年おなじみAWS Japanから提供する「AWS Black Belt Online Seminar 2025 年 AWS re:Invent 速報」を今年も開催いたします。ぜひ こちらのページ より事前登録をお願いいたします。 「 AWS ジャパン生成 AI 実用化推進プログラム 」も非常に多くの申し込みをいただいています。引き続き募集中ですのでよろしくお願いします。 それでは、11 月 3 日週の生成 AI with AWS 界隈のニュースを見ていきましょう。 さまざまなニュース AWS生成AI国内事例ブログ「NTTドコモの Web サービス基盤『 POPLAR 』開発における Amazon Q Developer 活用」を公開 NTTドコモ様の主要 Web サービス基盤『POPLAR』において、Amazon Q Developer を活用した開発効率向上の取り組み事例を紹介しています。既存機能の知見継承や技術スキル習得の課題に対し、Amazon Q Developer を開発者の教師役として活用することで、開発生産性の向上と習熟期間の短縮を実現した事例を解説しています。 AWS生成AI国内事例ブログ「アサイクル株式会社様の AWS 生成 AI 活用事例「Amazon Bedrock による顧客との会話要約ソリューションで営業活動を効率化。AI 駆動開発により短期間での構築を実現」のご紹介」を公開 アサイクル株式会社様が Amazon Bedrock を活用して構築した音声会話要約ソリューションの事例を紹介しています。展示会やオンラインデモでの営業活動において、音声ファイルから自動的に要約・キーワード抽出・次のアクション提案を生成し、営業効率を向上させました。AI コーディングエージェントを活用した約 2 週間での短期開発の成功事例も紹介しています。 ブログ記事「Amazon Nova Multimodal Embeddings: エージェントティック RAG およびセマンティック検索のための最先端の埋め込みモデル」を公開 本ブログでは、先日 Amazon Bedrock で利用可能になった Amazon Nova Multimodal Embeddings の概要を紹介しています。テキスト、ドキュメント、画像、動画、音声を単一モデルで処理できる初の統合埋め込みモデルで、エージェンティック RAG やセマンティック検索に最適です。モデルの性能評価、使用方法、Python を使った実装例を詳しく解説しています。 ブログ記事「これが Kiroween です」を公開 初回開催となる Kiroween ハッカソンの発表を紹介しています。総額 10 万ドルの賞金をかけたこのコンテストでは、Kiro のエージェント機能を活用して創造的なアプリケーションを構築します。日程は 2025年11月1日〜12月6日 です。また参加者には Kiro Pro + プラン相当のクジレットを提供されます。詳しい審査基準、提出要件などはブログを参照ください。 ブログ記事「Amazon Nova Web Grounding を使用したより正確な AI アプリケーションの構築」を公開 Amazon Nova Web Grounding とは、AI アプリケーションが最新の情報を自動的に取得し、引用付きで正確な応答を提供するAmazon Bedrock Nova モデル向けの機能です。本ブログでは、Web Grounding の使用シーン、Python を使った実装例、ハルシネーション削減への効果を解説しています。 ブログ記事「AWS を活用した公共部門向け大規模言語モデルの構築」を公開 公共部門向けカスタム LLM の開発プロセスを解説しています。ナショナル LLM やドメイン特化型 LLM の必要性から、ユースケース定義、評価フレームワーク確立、モデル選択、データ準備、インフラ構築、本番デプロイまでの 6 つのステージを詳しく紹介しています。コスト分析や AWS サービスを活用した実装方法も含めて解説しています。 ブログ記事「Amazon Redshift MCP サーバーを活用した SQL 分析の高速化」を公開 Amazon Redshift MCP サーバーを活用した SQL 分析の高速化を紹介しています。MCP により AI エージェントが自然言語で Redshift クラスターを探索し、データ分析を実行できるようになります。インストール・設定方法、Amazon Q CLI や Claude Desktop との統合、顧客購買分析のユースケースを通じた実践的な活用方法を解説しています。 ブログ記事「顧客駆動のチームでAI 駆動の手綱を握る : ML Enablement Workshop による副作用の解消」を公開 AI 駆動開発の生産性向上がもたらすリスクと、ML Enablement Workshop (MLEW) による解決策を紹介しています。リリース速度の向上が事業成長を阻害する可能性に対し、Working Backwards プロセスと生成 AI を組み合わせた MLEW により、顧客駆動の意思決定で開発の方向性をコントロールする方法を解説しています。GitHub で公開されている資料を使って誰でも実践可能です。 ブログ記事「AIOpsを強化 – Amazon CloudWatchとApplication Signals MCPサーバーのご紹介」を公開 Amazon CloudWatch と Application Signals 用の MCP サーバーを紹介しています。これらの MCP サーバーにより、Amazon Q CLI などの AI アシスタントを通じて自然言語でオブザーバビリティデータを分析し、トラブルシューティングを効率化できます。本ブログでは、セットアップ方法、アクセス権限問題の特定と解決の実例、AIOps 強化への活用方法を解説しています。 サービスアップデート Amazon Bedrock AgentCore Runtime がダイレクトコードデプロイメントをサポート Amazon Bedrock AgentCore Runtime でダイレクトコードデプロイが可能になりました。従来のコンテナベースに加えて、zip ファイルを直接アップロードしてデプロイできるようになり、AI エージェントのプロトタイプ開発が迅速化されます。ドラッグ & ドロップの簡単操作で開発者は素早く試行錯誤ができるため、エージェント機能の開発に集中できます。東京リージョン含む 9 つのリージョンで利用可能です。詳細は こちらのドキュメント をご参照ください。 Amazon Cognito が Machine-to-Machine アプリクライアント料金体系を廃止 Amazon Cognito の machine-to-machine (M2M) 認証の価格設定が簡素化されました。これまでは M2M アプリクライアント登録ごとの料金とトークンリクエストごとの料金の 2 つの料金体系でしたが、今回の変更でアプリクライアント登録料金が撤廃されました。これにより API 連携やデータ同期などの M2M アプリケーションを低コストで運用できるようになります。詳細は こちらの価格ページ をご参照ください。Amazon Bedrock AgentCore ユーザーにとっても嬉しいニュースですね。 Amazon CloudWatch Application Signals が AI を活用した Synthetics デバッグ機能を追加 Amazon CloudWatch Application Signals に AI を使った Synthetics デバッグ機能が追加されました。従来は canary 監視の失敗原因を手動で分析する必要がありましたが、今回のアップデートで「なぜチェックアウトの canary が失敗しているのか?」のような自然言語での質問に AI が自動回答します。ネットワーク問題、認証エラー、パフォーマンス問題など 6 つの領域を自動診断し、問題の特定と解決にかかる時間を短縮できます。詳細は こちらのドキュメント をご参照ください。 著者について 木村 直登(Naoto Kimura) AWS Japan のソリューションアーキテクトとして、製造業のお客様に対しクラウド活用の技術支援を行なっています。最近は AI Agent と毎日戯れており、AI Agent 無しでは生きていけなくなっています。好きなうどんは’かけ’です。
2025年7月に、AWS 品川オフィスにて「AWS GenAI Catapult ! 」を開催いたしました。本イベントは、Amazon のイノベーション創出メカニズム「Working Backwards」手法を活用し、顧客起点での生成 AI 活用したユースケース創出イベントです。金融領域の企業 10社 40名の皆様にご参加いただき、活発な議論と創造的なアイデア創出が行われました。本記事では、イベントを企画した背景から実際のイベントの様子、参加者の声をお届けします。 企画の背景 日本の生成 AI 利用率の状況 総務省の 令和6年版 情報通信白書 によると、日本における生成 AI 利用率は 9.1% となっており、他国と比較して低い水準にあります。生成 AI を使わない理由として、40% 以上の人が「自分の生活に必要ない」と回答していますが、これは「自分たちの業務にどう活用できるか分からない」という具体的な適用イメージが描けていないことが大きな要因と考えられます。金融業界においても、生成 AI 技術の発展により顧客体験の革新と業務効率化への関心は高まっているものの、多くの企業が技術起点でのアプローチを取りがちで、顧客価値創出に課題を抱えているケースが見受けられます。生成 AI を導入したものの、期待した効果が得られないという声も聞かれるのが現状です。 Amazon 流・顧客起点のイノベーション創出メカニズム「Working Backwards」によるアプローチ こうした現状に対して、 Amazon が実践してきたイノベーション創出のメカニズム「Working Backwards」手法 をご紹介させていただきます。この手法は、Amazon Echo、Amazon Prime、AWS などのサービス開発に活用されてきたアプローチで、顧客の理想的な体験から逆算してサービスを設計することにより、顧客が求める価値に焦点を当てた開発を可能にします。具体的には企画段階から顧客体験をプレスリリースという形に詰め込むことで実現します。「Working Backwards」は知識として学ぶだけでは習得できません。実際にプレスリリースを書き、発表しフィードバックを受ける体験を通して身につけることができます。 イベント概要 【開催日時】 1日目:2025 年 7 月 1 日(火)9:30–18:00 発表準備期間:2025 年 7 月 2 日 〜 25 日 2日目(発表日):2025 年 7 月 28 日(月)13:00–19:00 【会場】  AWS 品川オフィス 【参加者数】  約40 名 【参加企業】  金融関連企業(事業会社、サービサーなど)10社 AWS GenAI Catapult ! とは 〜「Working Backwards」で実現する生成 AI ユースケースの創出 「AWS GenAI Catapult !」は、顧客起点での生成 AI ユースケースを創出しリリースしてもらうための発射台(カタパルト)としての位置づけとし、その意図をイベント名の「Catapult」に込めています。「AWS GenAI Catapult !」では、生成 AI の学習やスキルの習得に留まらず、サービスを利用するユーザーの課題や体験に焦点を当て、 Amazon 流イノベーション文化を理解し、「Working Backwards」手法を用いた実践的ユースケース創出に繋げられるイベントを目指しました。また、生成 AI をテーマに World Café 形式による企業横断での交流と知見の交換セッションを実施し、参加者同士の活発な議論と学びの共有を促進するネットワーキングの機会も提供しました。 このイベントでは、参加者が顧客起点でのアイデア創出プロセスを体験し、AWS の生成 AI サービスを学び体験しながら、ユースケースを作成・整理する手法を習得できます。また、創出したアイデアをプレスリリース形式で発表し、参加者同士の交流を通じて多様な視点からのフィードバックを得る機会も提供します。技術部門とビジネス部門の両方から参加いただくことで、部門を越えた連携が生まれ、さらに自社内では得られない新たな気づきや実装アイデアの発見にもつながります。優秀なチームには表彰トロフィーとメダルの進呈に加え 検証用の AWS クレジットを提供してイベント後の継続的な取り組みも支援いたします。 イベント開催報告 参加企業・チーム名・参加者属性 1日目:Amazon Session [Amazon Innovation & Culture] 1日目は Amazon のイノベーションを支えるカルチャーとテクノロジーについての紹介から始まりました。Amazon は「地球上で最もお客様を大切にする企業であること」を使命とし、徹底したお客様志向、あくなき挑戦、辛抱強さを基本理念としています。1994年の創業以来、本の販売から始まり、現在は Eコマース、クラウド、AI、ロボティクスなど多様な事業を展開しています。イノベーションを生み出す源泉は「f(innovation) = (org * arch) * (mechanisms * culture)」という方程式で表現され、お客様から逆算して考える「Working Backwards」というメカニズム、「Every day is still Day One」という常に初日の心構えを持つカルチャー、小さく権限委譲された「Two-pizza チーム」という組織構造、そして急速な成長や変化に対応できるマイクロサービスアーキテクチャが支えています。Amazon Go に代表される新しい顧客体験は、失敗を恐れず、Builder 精神を持った社員が、顧客中心主義に基づいて創造していることが説明されました。 1日目:AWS Session [AWS GenAI Service Intro] & AWS Dojo Session [AWS GenAI Hands-on] 続いて参加者は、AWS の生成 AI サービスの全容と実践的活用法へと視野を広げました。特に AWS の生成 AI サービスの中でも注目すべきは Amazon Bedrock を中心とした包括的な機能群です。多様な基盤モデルへの単一 API 接続、企業データを活用した RAG(検索拡張生成)、AI エージェント構築、そして安全対策機能、これらを組み合わせることで企業特有の課題に対応した生成 AI ソリューションを構築できることが紹介されました。 ハンズオンセッションでは、参加者自らが生成 AI のモデルに入力するプロンプトを書き、実際に動作する簡単なユースケースを構築しました。すぐに業務で活用できる様々なユースケースを1つのアプリケーションとして提供している OSS である Generative AI Use Cases (略称: GenU) を利用しました。GenU の目玉機能の1つ、独自のユースケースを簡単に追加できる「ユースケースビルダー」機能を体験頂きました。理論と実践の橋渡しとなる貴重な体験に、参加者からは「具体的なイメージが湧いた」「自社でもすぐに試せそう」といった前向きな声が聞かれました。 1日目:Amazon Working Backwards Experience Workshop Working Backwards 体験ワークショップでは、参加者は各企業ごとのチームに分かれ、生成 AI を活用したユースケースの開発に取り組みました。このワークショップは Amazon のイノベーションの源泉となる「Customer Obsession(お客様へのこだわり)」「Think Big(広い視野で考える)」「Bias for Action(行動へのこだわり)」という3つのリーダーシッププリンシプルに基づいて進めていきます。ワークショップの流れは、まず「お客様は誰か」を特定し、その顧客の課題を明確にします。次に課題を解決するソリューションとその目玉機能を考案し、最終的にはプレスリリース形式でアイデアをまとめます。このプロセスを通じて、参加者は顧客視点からのサービス設計を体験し、生成 AI を活用した革新的なソリューションを創出することを目指します。プレスリリースは「導入部分」と「お客様の声部分」で構成され、チーム内で分担して作成します。アイデアの創出等はハンズオンセッションで利用した GenU で生成 AI もうまく活用しながら実施していきました。完成したプレスリリースは他のチームに発表し、建設的なフィードバックを受けることで、アイデアをさらに洗練させていきました。 2日目:参加チーム プレスリリース発表 & QA 1日目 から約3週間、各チームは熟考を重ねたプレスリリースを完成させ、いよいよ発表の時を迎えました。審査は有用性、創造性/WoW体験、実現可能性、PR/FAQ完成度、プレゼンテーションの5項目で厳正に評価され、ストーリーボードやプロトタイプの提示には加点が与えられました。 10チームが抽選で決まった順番で登壇し、持ち時間の中でプロトタイプを作ってくる、生成 AI で作った動画を用いる等、各社それぞれの工夫を凝らした内容で熱のこもった発表を展開しました。未来を変える可能性を秘めた提案の数々、特に Q&A では他チームの提案や考えを積極的に理解しようとする姿が印象的で会場は熱気に包まれました。特に印象的だったのは、単なる業務効率化にとどまらない、顧客体験を根本から再定義するような大胆な提案の数々でした。生成 AI の技術的可能性と顧客価値創造が見事に融合した発表に審査員からも高評価が相次ぎました。 2日目:AWS World Café [GenAI Use case Share] 生成AIの活用をテーマにした参加者交流セッション「GenAI World Café」が開催されました。3人1組の少人数グループで対話を行い、「ホスト」と「旅人」の役割を交代しながらメンバーの組み合わせを変え、議論を深めていく独自の形式です。 「生成AIの活用」というテーマのもと、目的・ツール、人材・役割、組織・文化の観点から多角的な議論が展開されました。このセッションでは結論を出すことよりも、多様な意見の共有と相互理解の深化が重視され、参加者たちは「対話を楽しむ」「話をよく聞く」「質問して広げる」というグラウンドルールに従って活発な意見交換を行いました。 「同じ課題に直面していることがわかって安心した」「他業種の取り組みが参考になった」「組織文化の重要性を再認識した」など、業界や立場を超えた対話からは、多くの共感や気づきが生まれていました。 2日目:Networking Party & 表彰式 プレゼンテーションと World Café セッション終了後、会場は和やかなネットワーキングパーティーへと移行しました。参加者たちは軽食とドリンクを片手に、2日間の学びや気づきを熱心に共有し合い、企業の垣根を越えた新たな繋がりが次々と生まれていきました。 表彰式では、審査員による厳正な審査の結果、チャンピオンには株式会社ジェーシービーの「Synap Spark」が選出されました。2位は株式会社トレードワークスの「Tango-Wango」、3位は株式会社トランザクション・メディア・ネットワークスの「GGPT Revo」が受賞し、それぞれ革新的な顧客体験の創出に挑戦する意欲的な提案が表彰されました。 受賞チームには記念メダルと AWS クレジットが贈られ、参加者全員にも AWS オリジナルグッズが配布されました。会場は受賞チームへの祝福と拍手に包まれ、和やかな雰囲気の中で表彰式は締めくくられました。 参加者の声 本イベント全体の CSAT(お客様満足度)は、4.6 / 5.0 となり、参加された皆様にご満足頂けるものであったと考えております。参加者からは、「他社様の課題感などの共有できる場がありすごく貴重な体験ができました」「PRでの企画提案の文化に目からウロコでした」「学んだ内容をその場で活用しているので学んだ内容含めて印象に残っている」「今回体験した顧客起点の考え方は今後も弊社内で参考にさせていただきます」といった多くの熱意のあるフィードバックが寄せられました。 まとめ 「AWS GenAI Catapult !」は、単なる技術セミナーではなく顧客起点でのイノベーション創出プロセスを学び実践する場として、参加者の皆様に新たな気づきとスキルをご提供することができました。本イベントにより参加者からは「実体験を通して、有用なフレームワークとして体に染み付けることができました」との言葉を頂いています。生成AIという革新的技術を真に価値あるものにするためには、技術の可能性を理解しつつも、常に顧客価値を中心に据えたアプローチが不可欠です。参加者の皆様がこの本質を体感し、自社での実践に活かしていただけることを心から願っています。AWS では今後もお客様のイノベーション創出を支援するためのプログラムを継続的に提供してまいります。 最後に、2日間にわたり熱心にご参加いただいた皆様、そして革新的なアイデアを創出してくださった各チームの皆様に心より感謝申し上げます。皆様の挑戦が、日本の生成 AI 活用を加速し、新たな顧客価値の創造へとつながることを確信しています。