TECH PLAY

AWS

AWS の技術ブログ

2959

複数の AWS アカウントとリージョンにまたがるログの管理は、組織にとって常に複雑な課題でした。本番環境、開発環境、ステージング環境用の個別のアカウントやリージョンを含む AWS インフラストラクチャーが成長するにつれ、ログ管理の複雑さは指数関数的に増加します。特に時間外の重大なインシデント発生時には、チームは貴重な時間を費やして、複数のアカウントを検索し、異なるリージョン間でイベントを関連付け、複雑なログ集約システムを管理し、クロスアカウントのアクセス権限を管理しています。このような従来のログ管理アプローチは、多大なリソースを消費するだけでなく、インシデント解決を遅らせ、顧客体験に影響を与える可能性があります。このブログでは、大規模環境向けのログ管理を簡素化する方法をご紹介します。 CloudWatch Logs 一元化のご紹介 Amazon CloudWatch は複数のアカウントにわたるログのフェデレーションを通じて クロスアカウントオブザーバビリティ を提供してきましたが、新しい CloudWatch Logs の一元化 は根本的に異なるアプローチを採用しています。新しい CloudWatch Logs の一元化では、複数のアカウントとリージョンからのログデータを中央アカウントに統合します。この統合により、カスタムビルドの集約ソリューションの管理に関連する運用上のオーバーヘッドとコストの両方が排除され、図1 に示すように、組織のすべてのログデータに対する確実な単一の情報源が提供されます。 図1. 複数のアカウントとリージョンにまたがるログの統 CloudWatch Logs の一元化は AWS Organizations と連携して、お客様の正確な要件に基づいてログデータを自動的に複製するルールを定義します。セキュリティ境界とコンプライアンス要件を維持しながら、何を一元化するか、どこに保存するか、どのように暗号化するかについて完全な制御が可能です。 ソリューションの手順説明 このセクションでは、このソリューションをお客様の環境に実装する方法について説明します。例えば、運用の可視性向上と迅速なインシデント対応のために、異なるリージョンで稼働している複数の本番アカウントからのログを中央アカウントに統合する必要がある場合を想定してみましょう。以下の段階的なガイドでは、ログ一元化ルールの設定方法、送信元アカウントと送信先アカウントの構成方法、および本番環境のログの一元化を開始する方法をご紹介します。 事前準備 AWS Organizations をセットアップし、送信元アカウントと送信先アカウントが組織の一部であることを確認します。 CloudWatch の信頼されたアクセスを有効にします。 CloudWatch コンソールに移動し、 設定 に進みます。 図2 に示すように、組織タブで「 信頼されたアクセスをオンにする 」をクリックします。 図2. CloudWatch の信頼されたアクセスの有効化 (オプション) 委任管理者 を登録します。委任管理者は、組織内のすべてのアカウントまたは特定の組織単位(OU)に CloudWatch 機能をデプロイすることを選択できます。 ログ一元化ルールの設定 送信元アカウントから送信先アカウントにログデータを複製する一元化ルールを作成するには、以下の手順に従ってください。 組織の管理アカウントまたは委任管理者アカウントの CloudWatch コンソール に移動します。 設定 を選択し、 組織 に移動します。 ルールを設定 を選択します。 送信元の詳細を指定します。 ルール名を指定します(例: production-logs-central ) ソースアカウント をアカウントID、組織単位ID、または組織IDを選択します。 図3に示すように、統合するログを選択する Source Regions を選択します。 図3. ログ一元化の送信元詳細の指定 次へ を選択します。 図4 に示すように、 送信先アカウント と Destination Region (送信先リージョン) を選択して送信先の詳細を指定します。プライマリーリージョンで障害が発生した場合にデータの可用性を確保するため、送信先アカウント内に Backup Region を指定してログの同期コピーを保持することもできます。 図4. ログ一元化の送信先詳細の指定 次に、以下のフィールドを設定してテレメトリーデータを指定し、 次へ を選択します。 図5 に示すように、 すべてのロググループ を選択するか、 フィルターロググループ を選択して統合したいロググループを指定します。 ロググループ選択基準でサポートされる構文は以下です。 サポートされるキー : LogGroupName | * サポートされる演算子 : = | != | IN | NOT IN | AND | OR | LIKE | NOT LIKE KMS 暗号化されたロググループ を処理するために、以下のオプションがあります。 Centralize log groups encrypted with AWS KMS key in destination account with AWS KMS key (送信先アカウントのAWS KMSキーで暗号化されたロググループを一元化) このオプションでは、提供された送信先KMSキー ARN を使用して、送信元アカウントから送信先に暗号化されたロググループを一元化します。 このオプションを選択する場合、送信先の暗号化キー ARN とバックアップ送信先の暗号化キー ARN (前のステップでバックアップリージョンを選択した場合のみ必要) を提供する必要があります。 指定されたKMSキーは CloudWatch Logs が暗号化するための権限を持っている必要があります。詳細については、「 ステップ 2: KMS キーでアクセス許可を設定する 」 を参照してください。 Centralize log groups encrypted with AWS KMS key in destination account なし AWS KMS key (AWS KMSキーで暗号化されたロググループを送信先アカウントでAWS KMSキーなしで一元化) このオプションでは、送信元アカウントの KMS 暗号化されたロググループを送信先アカウントでは暗号化せずに一元化します。 Do not centralize log groups encrypted with AWS KMS key (AWS KMSキーで暗号化されたロググループを一元化しない) このオプションでは、送信元アカウントで AWS KMS 暗号化されているロググループは一元化されません。 図5. ログ一元化のテレメトリーデータの指定 確認と設定 ページで、すべての詳細を確認し、 一元化ルールの作成 をクリックします。 一元化ルールが作成され有効化されると、ログイベントは中央アカウントへの統合を開始します。図6 に示すように、同じ名前のロググループはログ管理を効率化するために統合され、ログストリームには送信元アカウントIDと送信元リージョンの識別子が追加されます。さらに、ログイベントには新しいシステムフィールド ( @aws.account と @aws.region ) が追加され、ログデータの出所を簡単に追跡できるようになります。 注意 : CloudWatch ログ一元化機能は、一元化ルールの作成後に送信元アカウントに到着する新しいログデータのみを処理します。過去のログデータ (ルール作成前に存在していたログ) は一元化されません。 図6. 送信先アカウントでの一元化されたログ 一元化ルールの健全性の監視 ルールがアクティブになると、図7 に示すようにコンソールを使用して、または GetCentralizationRuleForOrganization API を使用してプログラムで、その健全性のステータスを確認できます。 図7. 一元化ルールの健全性の監視 ルールの健全性ステータスには以下が含まれます。 HEALTHY (正常): ルールは正常に動作しており、設定通りにログデータを複製しています。 UNHEALTHY (異常): ルールに問題が発生しており、データが正しく複製されていない可能性があります。 PROVISIONING (プロビジョニング中): 組織の一元化が設定処理中です。 ルールが UNHEALTHY とマークされた場合、 FailureReason フィールドに対処が必要な具体的な問題の詳細が表示されます。 一元化されたログを使用した統合分析 ログが一元化されると、分散ログでは不可能だった強力な分析機能が利用可能になります。 @aws.account と @aws.region というシステムフィールドが追加されることで、大規模なトラブルシューティングと分析の方法が変革されます。これらのフィールドは自動的にインデックス化され、より迅速なクエリ結果の取得を支援します。以下の例では、図8に示すように、 CloudWatch Logs Insights が、us-west-2 リージョンからのタイムスタンプ、アカウント、リージョン、メッセージ、ログストリーム、ロググループフィールドを表示するクエリを実行し、結果を 100 エントリに制限しています。 fields @timestamp, @aws.account, @aws.region, @message, @logStream, @log | filter @aws.account = 123456789012 and @aws.region = 'us-west-2' | sort @timestamp desc | limit 100 図8. CloudWatch Log Insights を使用したクエリの実行 @aws.account と @aws.region フィールドを分析に活用する方法を示す追加のサンプルクエリは以下の通りです。 アカウントとリージョン別の認証失敗の試行一覧 fields @timestamp, @aws.account, @aws.region, @message | filter @message like /(?i)(failed|unauthorized|denied|forbidden)/ | stats count() as failed_attempts by @aws.account, @aws.region | sort failed_attempts desc 複数のアカウントとリージョンにわたるDBのスロークエリの分析 fields @timestamp, @message, @aws.account, @aws.region | filter @message like /(query|database|sql)/ and @message like /(slow|timeout|duration)/ | parse @message /query.*?(?<query_duration>\d+)ms/ | parse @message /rows.*?examined[=:]?\s*(?<rows_examined>\d+)/ | parse @message /rows.*?returned[=:]?\s*(?<rows_returned>\d+)/ | parse @message /(?<query_type>SELECT|INSERT|UPDATE|DELETE)/ | parse @message /table[=:]?\s*(?<table_name>\w+)/ | filter query_duration > 1000 | stats count() as slow_queries, avg(query_duration) as avg_duration, max(query_duration) as max_duration, avg(rows_examined) as avg_rows_examined, avg(rows_returned) as avg_rows_returned by query_type, table_name, @aws.account, @aws.region, bin(5m) | sort max_duration desc CloudWatch Logs 機能のベストプラクティス CloudWatch Logs の一元化を実装する際、これらの CloudWatch 機能のベストプラクティスに従うことで、一元化されたログの価値を最大限に引き出すことができます。これらのプラクティスには、メトリクス、サブスクリプションフィルター、ログ変換、コスト最適化が含まれており、組織全体で安全で効率的、かつコスト効果の高いログ管理を確保します。 1. メトリクスとサブスクリプションフィルター CloudWatch Logs の一元化により、メトリクスとサブスクリプションフィルターを通じて強力なデータ変換と統合機能が可能になります。組織は一元化されたログデータを数値メトリクスに変換し、グラフによる可視化とアラームベースの監視を実現できます。 例えば、アカウントやリージョンに関係なく、すべてのログに対して メトリクスフィルターを作成する ことができます。 aws logs put-metric-filter \ --log-group-name /centralized/production \ --filter-name ThrottledAPICalls \ --filter-pattern '{ $.errorCode = "*Throttled*" }' \ --metric-transformations \ metricName=ThrottledCalls,\ metricNamespace=CentralizedMetrics,\ metricValue=1,\ dimensions={Account=$aws.account,Region=$aws.region} さらに、 サブスクリプションフィルター を通じてリアルタイムのログイベントストリーミングを設定でき、 Amazon Kinesis stream 、 Amazon Data Firehose stream 、 Amazon OpenSearch Service 、 AWS Lambda などの様々なサービスとシームレスに統合できます。サブスクリプションフィルターを設定する際、アカウントとリージョンのフィールドを使用して、特定のソースからのログを選択的に転送できます。ログデータにソースアカウントとリージョン情報を含めるには、図9 に示すように、 システムフィールドの発行 の下で @aws.account と @aws.region システムフィールドを選択して有効にします。 図9. サブスクリプションフィルターでのアカウントとリージョンフィールドのフィルタリング 2. ログの変換 CloudWatch Logs の一元化を使用する場合、送信元アカウントから中央アカウントにコピーされるのは生のログデータのみです。送信元アカウントでの取り込み時に適用された ログ変換 は、一元化されたログには反映されません。組織全体で一貫したログ変換を行うために、ログが統合された後、中央アカウントで直接ログ変換を適用することを推奨します。 3. ログストレージコストの最適化 CloudWatch Logs の一元化は、複数のアカウントとリージョンにまたがるログ管理のためのコスト効率の高い価格体系を提供します。一元化されたログの最初のコピーには、追加の取り込み料金やリージョン間データ転送コストはかからず、標準的なCloudWatchのストレージコストと機能価格のみが請求されます。最初の一元化を超える追加コピーについては、1GBあたり0.05ドルの料金が発生します(バックアップリージョン機能の使用も追加コピーを作成します)。詳細については、 CloudWatchの料金ページ をご覧ください。CloudWatch Logs の一元化を使用する際のコストを最適化するために、以下のベストプラクティスの実施を推奨します。 1. 階層化された保持戦略の実装 2層の保持ポリシーを実装することで、ストレージコストを大幅に削減できます。 送信元アカウントには、即時の運用ニーズに対応するための短期保持期 (7-30日) を設定してください。 一元化されたアカウントには、コンプライアンス要件を満たし、履歴分析をサポートするための長期保持期間 (90日以上) を設定してください。 2. 選択的な一元化の利用 ログの追加コピーを作成する際は、以下のような戦略的な一元化アプローチを取ってください。 ロググループフィルターを活用して、特定のアプリケーションやサービスのみを一元化してください。 ビジネス要件に合致するログのみを特定し、一元化してください。 特定のユースケースに役立たない不要なログデータの一元化を避けてください。 3. バックアップ戦略 バックアップ戦略を計画する際には、以下の要因を考慮してください。 バックアップコピーは追加コピーとして扱われ、1GBあたり0.05ドルの料金が発生することに注意してください。 中央アカウントへの専用バックアップに関する特定の要件がある場合にのみ、バックアップの一元化を有効にしてください。 追加料金を排除するため、送信元アカウントをバックアップコピーとして活用することを検討してください。 これらの最適化戦略を実装することで、コストを管理しながら効果的なログ管理を維持できます。 まとめ CloudWatch Logs の一元化は、カスタムログ集約システムの複雑さを排除するネイティブなAWSソリューションを提供することで、クロスアカウントおよびクロスリージョンのログ管理を変革します。自動レプリケーション、AWS Organizations とのシームレスな統合、クロスリージョンサポート、柔軟な暗号化オプションなどの機能により、組織は最小限のセットアップ時間で包括的なログ管理を実現できます。運用効率の向上、セキュリティ態勢の強化、インシデント解決の迅速化を通じて、即座に価値を提供します。開始するには、 クロスアカウントクロスリージョンログの一元化 のドキュメントをご参照ください。 Raviteja Sunkavalli Raviteja Sunkavalli は、Amazon Web Services の Senior Worldwide Specialist Solutions Architect で、AIOps と GenAI のオブザーバビィリティを専門としています。複雑で分散したクラウド環境全体で、オブザーバビィリティとインシデント管理ソリューションのグローバル顧客による実装を支援しています。仕事以外では、クリケットをプレイしたり、新しい料理のレシピを探求したりすることを楽しんでいます。 Andres Silva Andres Silva は、Amazon Web Services (AWS) の Global Cloud Operations Leader および Principal Specialist Solutions Architect として、企業のクラウドオペレーション変革を支援しています。AWS での10年を含む30年以上のテクノロジー経験を持ち、DevOps、クラウドテクノロジー、SaaS インフラストラクチャ管理を専門としています。ノースカロライナ州ハイポイントを拠点とし、AIOps とオブザーバビィリティに焦点を当てた企業全体のクラウドオペレーション戦略を推進しています。人工知能を活用して大規模な運用の優位性と自動化されたインシデント対応を実現する、インテリジェントなクラウドオペレーションフレームワークの設計と実装において、グローバル組織と協力しています。 Siddharth Bhate Siddharth Bhate は、Amazon CloudWatch チームの Senior Product Manager – Technical です。コアテレメトリ製品に焦点を当て、AWS 顧客のオブザーバビィリティの基盤となる高度にスケーラブルで回復力のあるログ取り込みと管理サービスの構築に携わっています。運用データを実用的なインサイトに変換し、アプリケーションのパフォーマンス向上とコスト最適化を実現するお客様の支援に情熱を注いでいます。仕事以外では、ビーグル犬の父親であり、熱心なハイハンディキャップゴルファーです。 本記事は、 Simplifying Log Management using Amazon CloudWatch Logs Centralization を翻訳したものです。翻訳は Technical Account Manager の 日平 が担当しました。
アバター
本記事は 2025 年 10 月 31 日に公開された Erik Hanchett(Developer Advocacy)、Jay Raval(Developer Experience)による “ Introducing Remote MCP Servers ” を翻訳したものです。 Model Context Protocol(MCP)は、エージェントがツールや外部システムに接続するための標準となりました。関数の実行やファイルアクセス、プロンプトの実行などを行うための汎用インターフェイスです。MCP は AI コーディングアシスタントで広く利用されており、大規模言語モデルの機能を拡張するために使われています。 MCP は、Anthropic が 2024 年 11 月に発表して以来、大幅に進化しました。エージェントは当初、主にローカルで実行される MCP サーバーに接続していましたが、リモート MCP サーバー接続がますます一般的になってきています。リモートサーバーを使うことで、エージェントの機能をローカル環境の枠を超えて拡張できます。リモートサーバーを利用することで、データソースやインターネット上のツール、各種サービスにより簡単に接続できます。たとえば、ノート作成サービスにアクセスできるリモート MCP サーバーに接続できます。また、セキュリティの観点からもより安全に運用できます。これにより、ユーザーにとって新たな統合の可能性が無限に広がります。 Kiro ユーザーは私たちのローカル MCP サーバーサポートを愛用しており、仕様、ステアリング、フックを MCP と組み合わせることで構築された多くの興味深いアプリケーションを見てきました。これをさらに進化させるために、リモート MCP サーバーサポートとワンクリック MCP インストールを新たに発表します。これらの機能により、Kiro での作業とアプリの構築がより簡単になります。 リモート MCP サーバーの説明 リモート MCP サーバーサポートにより、ローカルマシンではなくインターネット上でホストされている MCP サーバーに接続できます。基盤となる仕様は同じです。リモート MCP サーバーは、従来と同様のプロンプト、ツール、リソースを公開しますが、プロトコルが異なります。コンピューター上でローカルに接続する場合に使用する stdio の代わりに、Streamable HTTP 経由で接続できるようになりました。 Streamable HTTP はクライアント接続を処理します。Server-Sent Events(SSE)を使用して複数のサーバーメッセージをストリーミングするという追加の利点があります。Streamable HTTP は、再開可能性、再配信、セッション管理、下位互換性などの追加機能を提供します。なお、Kiro は Streamable HTTP に加えて、非推奨となった HTTP+SSE トランスポートプロトコルにも対応しています。Kiro を使う際は、こうした基盤技術を意識する必要はありません。すべて自動で適切に動作します。 Kiro でのリモート MCP サポートの使用 Kiro は常にローカル MCP サーバー(またはプロキシ経由のリモートサーバー)をサポートしてきましたが、現在はリモート MCP サーバーをネイティブサポートしています。わずか数ステップで、リモート MCP サーバーを追加して使い始めることができます。必要に応じて、認証ヘッダーを追加するか、動的クライアント登録を介して直接認証できます。動的クライアント登録では、Kiro がウェブページを開いてサインインと認証を行うよう求めます。 ここでは、動的クライアント登録を使って Notion MCP サーバーを追加する手順を見てみましょう。 ステップ 1: Kiro を開き、Kiro パネルから MCP サーバーセクションに移動します ステップ 2: リモート MCP サーバー設定を追加します。保存後、画面の右下にサーバー認証用のポップアップが表示されます ステップ 3: 認証をクリックし、Kiro が外部ウェブサイトを開くことを許可します。サインイン後、Notion MCP サーバーを使用できるようになります MCP 接続のセキュリティ確保 MCP サーバーは多くの場合、API キーや認証トークンを必要とします。これらを設定ファイルにハードコーディングするとリスクが生じます。誤ってバージョン管理に含めてしまったり、スクリーンショットなどで公開してしまうおそれがあります。Kiro は現在、 ${ENV_VAR} 構文を使用した環境変数をサポートしています。認証情報はローカル環境に留まり、設定ファイルには保存されません。 Bearer トークンが必要なサーバーに接続する例を以下に示します。 { "mcpServers": { "my-remote-server": { "url": "https://your-mcp-endpoint.com", "headers": { "Authorization": "Bearer ${SECRET_TOKEN}" } } } } Kiro が新しい環境変数を検出すると、承認を求めるセキュリティプロンプトが表示されます。これにより、悪意のある設定が許可なしに環境にアクセスすることを防ぎます。承認された変数は設定で管理でき、いつでもアクセスを取り消すことができます。 これにより、認証情報をローカルに安全に保持でき、簡単にローテーションできるうえ、うっかり公開してしまうことも防げます。 ワンクリックでサーバーを追加 Kiro への MCP サーバーの追加がこれまで以上に簡単になりました。新しい Add to Kiro ボタンにより、ワンクリックで MCP サーバーをインストールできます。ボタンをクリックすると、Kiro が設定の承認を求め、その後自動的にサーバーをユーザー設定セットアップに追加します。 開始に役立つ サンプル MCP サーバーのコレクション を厳選しました。 今すぐ始めよう MCP サーバーを日常的に使っている方なら、リモート MCP サポート、環境変数、ワンクリック MCP インストールといった新機能をきっと気に入っていただけるはずです。開始するには、Kiro の最新バージョンに更新して、今日これらの機能を試してみてください。ご意見をお聞かせください! 詳細は リモート MCP サーバーのドキュメント をご覧いただくか、 サンプルサーバー を試して気になるものを見つけてみてください。 翻訳は App Dev Consultant 宇賀神が担当しました。
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。 11 月の builders.flash 記事が出ていますので生成AI関連のものをピックアップしてみます。今月も多くの記事が出ています! 「話すだけで仕事が終わる」世界へ ~ Amazon Bedrock で作るリアルタイム AI 議事録アプリケーション(株式会社デイトナ・インターナショナル様) Amazon Bedrock Knowledge Bases + AWS CDK で作る社内向け RAG テンプレート ~ コマンド 1 つで社内展開(ダイキン工業株式会社様) 知財業務を革新するオムロンの知財 AI エージェント実装事例(オムロン株式会社様) 生成 AI で実現する人材マッチング ~ レバレジーズによる職務経歴書入力補助システム ~(レバレジーズ株式会社様) AWS と LiteLLM で実現する、セキュアで柔軟な AI エージェント基盤のアーキテクチャ(フリー株式会社様) kintone における生成 AI 機能の安全な運用 ~ 分散トレーシングによる運用課題の解決(サイボウズ株式会社様) AWS Summit Japan 展示「AI メイクさん」のウラガワ ! – AI エージェントで希望のメイク 3D モデルを作成(AWS) AWS Transform for mainframe と GenU で COBOL プログラム説明書を作ってみよう – 後編: フローチャート等の図表の生成(AWS) どの記事も実践的かつ生成AI活用の観点が異なっていて参考になりますね。 毎年おなじみAWS Japanから提供する「AWS Black Belt Online Seminar 2025 年 AWS re:Invent 速報」を今年も開催いたします。ぜひ こちらのページ より事前登録をお願いいたします。 「 AWS ジャパン生成 AI 実用化推進プログラム 」も非常に多くの申し込みをいただいています。引き続き募集中ですのでよろしくお願いします。 それでは、11 月 3 日週の生成 AI with AWS 界隈のニュースを見ていきましょう。 さまざまなニュース AWS生成AI国内事例ブログ「NTTドコモの Web サービス基盤『 POPLAR 』開発における Amazon Q Developer 活用」を公開 NTTドコモ様の主要 Web サービス基盤『POPLAR』において、Amazon Q Developer を活用した開発効率向上の取り組み事例を紹介しています。既存機能の知見継承や技術スキル習得の課題に対し、Amazon Q Developer を開発者の教師役として活用することで、開発生産性の向上と習熟期間の短縮を実現した事例を解説しています。 AWS生成AI国内事例ブログ「アサイクル株式会社様の AWS 生成 AI 活用事例「Amazon Bedrock による顧客との会話要約ソリューションで営業活動を効率化。AI 駆動開発により短期間での構築を実現」のご紹介」を公開 アサイクル株式会社様が Amazon Bedrock を活用して構築した音声会話要約ソリューションの事例を紹介しています。展示会やオンラインデモでの営業活動において、音声ファイルから自動的に要約・キーワード抽出・次のアクション提案を生成し、営業効率を向上させました。AI コーディングエージェントを活用した約 2 週間での短期開発の成功事例も紹介しています。 ブログ記事「Amazon Nova Multimodal Embeddings: エージェントティック RAG およびセマンティック検索のための最先端の埋め込みモデル」を公開 本ブログでは、先日 Amazon Bedrock で利用可能になった Amazon Nova Multimodal Embeddings の概要を紹介しています。テキスト、ドキュメント、画像、動画、音声を単一モデルで処理できる初の統合埋め込みモデルで、エージェンティック RAG やセマンティック検索に最適です。モデルの性能評価、使用方法、Python を使った実装例を詳しく解説しています。 ブログ記事「これが Kiroween です」を公開 初回開催となる Kiroween ハッカソンの発表を紹介しています。総額 10 万ドルの賞金をかけたこのコンテストでは、Kiro のエージェント機能を活用して創造的なアプリケーションを構築します。日程は 2025年11月1日〜12月6日 です。また参加者には Kiro Pro + プラン相当のクジレットを提供されます。詳しい審査基準、提出要件などはブログを参照ください。 ブログ記事「Amazon Nova Web Grounding を使用したより正確な AI アプリケーションの構築」を公開 Amazon Nova Web Grounding とは、AI アプリケーションが最新の情報を自動的に取得し、引用付きで正確な応答を提供するAmazon Bedrock Nova モデル向けの機能です。本ブログでは、Web Grounding の使用シーン、Python を使った実装例、ハルシネーション削減への効果を解説しています。 ブログ記事「AWS を活用した公共部門向け大規模言語モデルの構築」を公開 公共部門向けカスタム LLM の開発プロセスを解説しています。ナショナル LLM やドメイン特化型 LLM の必要性から、ユースケース定義、評価フレームワーク確立、モデル選択、データ準備、インフラ構築、本番デプロイまでの 6 つのステージを詳しく紹介しています。コスト分析や AWS サービスを活用した実装方法も含めて解説しています。 ブログ記事「Amazon Redshift MCP サーバーを活用した SQL 分析の高速化」を公開 Amazon Redshift MCP サーバーを活用した SQL 分析の高速化を紹介しています。MCP により AI エージェントが自然言語で Redshift クラスターを探索し、データ分析を実行できるようになります。インストール・設定方法、Amazon Q CLI や Claude Desktop との統合、顧客購買分析のユースケースを通じた実践的な活用方法を解説しています。 ブログ記事「顧客駆動のチームでAI 駆動の手綱を握る : ML Enablement Workshop による副作用の解消」を公開 AI 駆動開発の生産性向上がもたらすリスクと、ML Enablement Workshop (MLEW) による解決策を紹介しています。リリース速度の向上が事業成長を阻害する可能性に対し、Working Backwards プロセスと生成 AI を組み合わせた MLEW により、顧客駆動の意思決定で開発の方向性をコントロールする方法を解説しています。GitHub で公開されている資料を使って誰でも実践可能です。 ブログ記事「AIOpsを強化 – Amazon CloudWatchとApplication Signals MCPサーバーのご紹介」を公開 Amazon CloudWatch と Application Signals 用の MCP サーバーを紹介しています。これらの MCP サーバーにより、Amazon Q CLI などの AI アシスタントを通じて自然言語でオブザーバビリティデータを分析し、トラブルシューティングを効率化できます。本ブログでは、セットアップ方法、アクセス権限問題の特定と解決の実例、AIOps 強化への活用方法を解説しています。 サービスアップデート Amazon Bedrock AgentCore Runtime がダイレクトコードデプロイメントをサポート Amazon Bedrock AgentCore Runtime でダイレクトコードデプロイが可能になりました。従来のコンテナベースに加えて、zip ファイルを直接アップロードしてデプロイできるようになり、AI エージェントのプロトタイプ開発が迅速化されます。ドラッグ & ドロップの簡単操作で開発者は素早く試行錯誤ができるため、エージェント機能の開発に集中できます。東京リージョン含む 9 つのリージョンで利用可能です。詳細は こちらのドキュメント をご参照ください。 Amazon Cognito が Machine-to-Machine アプリクライアント料金体系を廃止 Amazon Cognito の machine-to-machine (M2M) 認証の価格設定が簡素化されました。これまでは M2M アプリクライアント登録ごとの料金とトークンリクエストごとの料金の 2 つの料金体系でしたが、今回の変更でアプリクライアント登録料金が撤廃されました。これにより API 連携やデータ同期などの M2M アプリケーションを低コストで運用できるようになります。詳細は こちらの価格ページ をご参照ください。Amazon Bedrock AgentCore ユーザーにとっても嬉しいニュースですね。 Amazon CloudWatch Application Signals が AI を活用した Synthetics デバッグ機能を追加 Amazon CloudWatch Application Signals に AI を使った Synthetics デバッグ機能が追加されました。従来は canary 監視の失敗原因を手動で分析する必要がありましたが、今回のアップデートで「なぜチェックアウトの canary が失敗しているのか?」のような自然言語での質問に AI が自動回答します。ネットワーク問題、認証エラー、パフォーマンス問題など 6 つの領域を自動診断し、問題の特定と解決にかかる時間を短縮できます。詳細は こちらのドキュメント をご参照ください。 著者について 木村 直登(Naoto Kimura) AWS Japan のソリューションアーキテクトとして、製造業のお客様に対しクラウド活用の技術支援を行なっています。最近は AI Agent と毎日戯れており、AI Agent 無しでは生きていけなくなっています。好きなうどんは’かけ’です。
アバター
2025年7月に、AWS 品川オフィスにて「AWS GenAI Catapult ! 」を開催いたしました。本イベントは、Amazon のイノベーション創出メカニズム「Working Backwards」手法を活用し、顧客起点での生成 AI 活用したユースケース創出イベントです。金融領域の企業 10社 40名の皆様にご参加いただき、活発な議論と創造的なアイデア創出が行われました。本記事では、イベントを企画した背景から実際のイベントの様子、参加者の声をお届けします。 企画の背景 日本の生成 AI 利用率の状況 総務省の 令和6年版 情報通信白書 によると、日本における生成 AI 利用率は 9.1% となっており、他国と比較して低い水準にあります。生成 AI を使わない理由として、40% 以上の人が「自分の生活に必要ない」と回答していますが、これは「自分たちの業務にどう活用できるか分からない」という具体的な適用イメージが描けていないことが大きな要因と考えられます。金融業界においても、生成 AI 技術の発展により顧客体験の革新と業務効率化への関心は高まっているものの、多くの企業が技術起点でのアプローチを取りがちで、顧客価値創出に課題を抱えているケースが見受けられます。生成 AI を導入したものの、期待した効果が得られないという声も聞かれるのが現状です。 Amazon 流・顧客起点のイノベーション創出メカニズム「Working Backwards」によるアプローチ こうした現状に対して、 Amazon が実践してきたイノベーション創出のメカニズム「Working Backwards」手法 をご紹介させていただきます。この手法は、Amazon Echo、Amazon Prime、AWS などのサービス開発に活用されてきたアプローチで、顧客の理想的な体験から逆算してサービスを設計することにより、顧客が求める価値に焦点を当てた開発を可能にします。具体的には企画段階から顧客体験をプレスリリースという形に詰め込むことで実現します。「Working Backwards」は知識として学ぶだけでは習得できません。実際にプレスリリースを書き、発表しフィードバックを受ける体験を通して身につけることができます。 イベント概要 【開催日時】 1日目:2025 年 7 月 1 日(火)9:30–18:00 発表準備期間:2025 年 7 月 2 日 〜 25 日 2日目(発表日):2025 年 7 月 28 日(月)13:00–19:00 【会場】  AWS 品川オフィス 【参加者数】  約40 名 【参加企業】  金融関連企業(事業会社、サービサーなど)10社 AWS GenAI Catapult ! とは 〜「Working Backwards」で実現する生成 AI ユースケースの創出 「AWS GenAI Catapult !」は、顧客起点での生成 AI ユースケースを創出しリリースしてもらうための発射台(カタパルト)としての位置づけとし、その意図をイベント名の「Catapult」に込めています。「AWS GenAI Catapult !」では、生成 AI の学習やスキルの習得に留まらず、サービスを利用するユーザーの課題や体験に焦点を当て、 Amazon 流イノベーション文化を理解し、「Working Backwards」手法を用いた実践的ユースケース創出に繋げられるイベントを目指しました。また、生成 AI をテーマに World Café 形式による企業横断での交流と知見の交換セッションを実施し、参加者同士の活発な議論と学びの共有を促進するネットワーキングの機会も提供しました。 このイベントでは、参加者が顧客起点でのアイデア創出プロセスを体験し、AWS の生成 AI サービスを学び体験しながら、ユースケースを作成・整理する手法を習得できます。また、創出したアイデアをプレスリリース形式で発表し、参加者同士の交流を通じて多様な視点からのフィードバックを得る機会も提供します。技術部門とビジネス部門の両方から参加いただくことで、部門を越えた連携が生まれ、さらに自社内では得られない新たな気づきや実装アイデアの発見にもつながります。優秀なチームには表彰トロフィーとメダルの進呈に加え 検証用の AWS クレジットを提供してイベント後の継続的な取り組みも支援いたします。 イベント開催報告 参加企業・チーム名・参加者属性 1日目:Amazon Session [Amazon Innovation & Culture] 1日目は Amazon のイノベーションを支えるカルチャーとテクノロジーについての紹介から始まりました。Amazon は「地球上で最もお客様を大切にする企業であること」を使命とし、徹底したお客様志向、あくなき挑戦、辛抱強さを基本理念としています。1994年の創業以来、本の販売から始まり、現在は Eコマース、クラウド、AI、ロボティクスなど多様な事業を展開しています。イノベーションを生み出す源泉は「f(innovation) = (org * arch) * (mechanisms * culture)」という方程式で表現され、お客様から逆算して考える「Working Backwards」というメカニズム、「Every day is still Day One」という常に初日の心構えを持つカルチャー、小さく権限委譲された「Two-pizza チーム」という組織構造、そして急速な成長や変化に対応できるマイクロサービスアーキテクチャが支えています。Amazon Go に代表される新しい顧客体験は、失敗を恐れず、Builder 精神を持った社員が、顧客中心主義に基づいて創造していることが説明されました。 1日目:AWS Session [AWS GenAI Service Intro] & AWS Dojo Session [AWS GenAI Hands-on] 続いて参加者は、AWS の生成 AI サービスの全容と実践的活用法へと視野を広げました。特に AWS の生成 AI サービスの中でも注目すべきは Amazon Bedrock を中心とした包括的な機能群です。多様な基盤モデルへの単一 API 接続、企業データを活用した RAG(検索拡張生成)、AI エージェント構築、そして安全対策機能、これらを組み合わせることで企業特有の課題に対応した生成 AI ソリューションを構築できることが紹介されました。 ハンズオンセッションでは、参加者自らが生成 AI のモデルに入力するプロンプトを書き、実際に動作する簡単なユースケースを構築しました。すぐに業務で活用できる様々なユースケースを1つのアプリケーションとして提供している OSS である Generative AI Use Cases (略称: GenU) を利用しました。GenU の目玉機能の1つ、独自のユースケースを簡単に追加できる「ユースケースビルダー」機能を体験頂きました。理論と実践の橋渡しとなる貴重な体験に、参加者からは「具体的なイメージが湧いた」「自社でもすぐに試せそう」といった前向きな声が聞かれました。 1日目:Amazon Working Backwards Experience Workshop Working Backwards 体験ワークショップでは、参加者は各企業ごとのチームに分かれ、生成 AI を活用したユースケースの開発に取り組みました。このワークショップは Amazon のイノベーションの源泉となる「Customer Obsession(お客様へのこだわり)」「Think Big(広い視野で考える)」「Bias for Action(行動へのこだわり)」という3つのリーダーシッププリンシプルに基づいて進めていきます。ワークショップの流れは、まず「お客様は誰か」を特定し、その顧客の課題を明確にします。次に課題を解決するソリューションとその目玉機能を考案し、最終的にはプレスリリース形式でアイデアをまとめます。このプロセスを通じて、参加者は顧客視点からのサービス設計を体験し、生成 AI を活用した革新的なソリューションを創出することを目指します。プレスリリースは「導入部分」と「お客様の声部分」で構成され、チーム内で分担して作成します。アイデアの創出等はハンズオンセッションで利用した GenU で生成 AI もうまく活用しながら実施していきました。完成したプレスリリースは他のチームに発表し、建設的なフィードバックを受けることで、アイデアをさらに洗練させていきました。 2日目:参加チーム プレスリリース発表 & QA 1日目 から約3週間、各チームは熟考を重ねたプレスリリースを完成させ、いよいよ発表の時を迎えました。審査は有用性、創造性/WoW体験、実現可能性、PR/FAQ完成度、プレゼンテーションの5項目で厳正に評価され、ストーリーボードやプロトタイプの提示には加点が与えられました。 10チームが抽選で決まった順番で登壇し、持ち時間の中でプロトタイプを作ってくる、生成 AI で作った動画を用いる等、各社それぞれの工夫を凝らした内容で熱のこもった発表を展開しました。未来を変える可能性を秘めた提案の数々、特に Q&A では他チームの提案や考えを積極的に理解しようとする姿が印象的で会場は熱気に包まれました。特に印象的だったのは、単なる業務効率化にとどまらない、顧客体験を根本から再定義するような大胆な提案の数々でした。生成 AI の技術的可能性と顧客価値創造が見事に融合した発表に審査員からも高評価が相次ぎました。 2日目:AWS World Café [GenAI Use case Share] 生成AIの活用をテーマにした参加者交流セッション「GenAI World Café」が開催されました。3人1組の少人数グループで対話を行い、「ホスト」と「旅人」の役割を交代しながらメンバーの組み合わせを変え、議論を深めていく独自の形式です。 「生成AIの活用」というテーマのもと、目的・ツール、人材・役割、組織・文化の観点から多角的な議論が展開されました。このセッションでは結論を出すことよりも、多様な意見の共有と相互理解の深化が重視され、参加者たちは「対話を楽しむ」「話をよく聞く」「質問して広げる」というグラウンドルールに従って活発な意見交換を行いました。 「同じ課題に直面していることがわかって安心した」「他業種の取り組みが参考になった」「組織文化の重要性を再認識した」など、業界や立場を超えた対話からは、多くの共感や気づきが生まれていました。 2日目:Networking Party & 表彰式 プレゼンテーションと World Café セッション終了後、会場は和やかなネットワーキングパーティーへと移行しました。参加者たちは軽食とドリンクを片手に、2日間の学びや気づきを熱心に共有し合い、企業の垣根を越えた新たな繋がりが次々と生まれていきました。 表彰式では、審査員による厳正な審査の結果、チャンピオンには株式会社ジェーシービーの「Synap Spark」が選出されました。2位は株式会社トレードワークスの「Tango-Wango」、3位は株式会社トランザクション・メディア・ネットワークスの「GGPT Revo」が受賞し、それぞれ革新的な顧客体験の創出に挑戦する意欲的な提案が表彰されました。 受賞チームには記念メダルと AWS クレジットが贈られ、参加者全員にも AWS オリジナルグッズが配布されました。会場は受賞チームへの祝福と拍手に包まれ、和やかな雰囲気の中で表彰式は締めくくられました。 参加者の声 本イベント全体の CSAT(お客様満足度)は、4.6 / 5.0 となり、参加された皆様にご満足頂けるものであったと考えております。参加者からは、「他社様の課題感などの共有できる場がありすごく貴重な体験ができました」「PRでの企画提案の文化に目からウロコでした」「学んだ内容をその場で活用しているので学んだ内容含めて印象に残っている」「今回体験した顧客起点の考え方は今後も弊社内で参考にさせていただきます」といった多くの熱意のあるフィードバックが寄せられました。 まとめ 「AWS GenAI Catapult !」は、単なる技術セミナーではなく顧客起点でのイノベーション創出プロセスを学び実践する場として、参加者の皆様に新たな気づきとスキルをご提供することができました。本イベントにより参加者からは「実体験を通して、有用なフレームワークとして体に染み付けることができました」との言葉を頂いています。生成AIという革新的技術を真に価値あるものにするためには、技術の可能性を理解しつつも、常に顧客価値を中心に据えたアプローチが不可欠です。参加者の皆様がこの本質を体感し、自社での実践に活かしていただけることを心から願っています。AWS では今後もお客様のイノベーション創出を支援するためのプログラムを継続的に提供してまいります。 最後に、2日間にわたり熱心にご参加いただいた皆様、そして革新的なアイデアを創出してくださった各チームの皆様に心より感謝申し上げます。皆様の挑戦が、日本の生成 AI 活用を加速し、新たな顧客価値の創造へとつながることを確信しています。
アバター
最新のアーキテクチャーでは、メトリクス、ログ、トレースにわたって膨大な量のオブザーバビリティデータが生成されています。問題が発生すると、チームは根本原因を特定するために複数のダッシュボードで情報を手動で関連付ける作業に何時間も、時には何日もかかり、これが平均修復時間(MTTR) と生産性に直接影響を与えています。 Amazon CloudWatch Application Signals は、自動計測を通じてアプリケーションの深い可視性を提供し、レイテンシー、エラー率、リクエスト量、分散トレースなどの重要なメトリクスを取得することでこの課題に対応します。その直感的なインターフェースは重要な洞察と相関関係を可視化させることで問題解決を加速しますが、この機能をさらに強化することができます。 生成AIをこの強力なツールセットと組み合わせることで、根本原因をさらに迅速に特定できます。ここで Anthropic の Model Context Protocol (MCP) が登場します。これは、アプリケーションが大規模言語モデル (LLM) にコンテキストを提供する方法を標準化するオープンソースプロトコルです。MCP はオブザーバビリティデータをAIモデルに直接接続することで複雑なシステムのトラブルシューティングを変革し、調査時間を大幅に短縮する知的でコンテキストを認識した分析を可能にします。 2025年7月8日、 Amazon CloudWatch とApplication Signals 用の2つの新しい MCP サーバー をリリースしました。Amazon CloudWatch MCP サーバーは、CloudWatch の強力な監視・オブザーバビリティツール群と対話するための統合プラットフォームとして機能します。アラームベースのインシデント対応、アラーム推奨、メトリクスとログの分析、ログパターンの検出などを可能にします。CloudWatch MCP サーバーを補完する Application Signals MCP サーバー は、サービスの健全性監視、パフォーマンスメトリクスの分析、サービスレベル目標 (SLO) の遵守状況の追跡、分散トレースを使用した問題調査に焦点を当てています。これらの MCP サーバーは、 Amazon Q 、 Claude Code 、 GitHub Copilot などの様々な AI アシスタントとシームレスに統合でき、オブザーバビリティデータと自然言語で対話することができます。 この記事では、これらの MCP サーバーと Amazon Q Developer CLI を活用して運用ワークフローを変革する方法をご紹介します。従来の手動作業に代わる直感的な会話形式のやり取りを通じて、パフォーマンスのボトルネックの特定、権限の問題の解決、アラーム設定の最適化、インシデント修復の加速化を行う方法を学びます。 事前準備 Amazon CloudWatch にテレメトリー (メトリクス、トレース、ログ) を取り込むアプリケーションを持つAWS アカウントを用意してください。 アプリケーションに対して Application Signals を有効化 してください。 CloudWatch と Application Signals MCP サーバーがAWS リソースに安全にアクセスして操作できるように、必要最小限の権限で AWS 認証情報 を設定してください。最小権限の原則に従い、MCP サーバーが CloudWatch メトリクス、ログ、アラームを照会し、Application Signals のデータにアクセスするために必要な権限のみを付与してください。 環境セットアップ セットアップを開始する前に、適切なオブザーバビリティの設定が重要です。以下のベストプラクティスに従ってください。 CloudWatchアラームの有効化: Amazon Q CLI が効果的にクエリを理解し応答するために、有効なCloudWatch アラームを設定してください。CloudWatch アラームの作成方法については、 CloudWatch アラームのドキュメント を参照してください。 Application Signals での SLO の定義: Application Signals を有効にした後、アプリケーションのパフォーマンスと動作についてより深い洞察を得るために、サービスレベル目標 (SLO) を定義してください。詳細については、「 How to monitor application health using SLOs with Amazon CloudWatch Application Signals 」を参照してください。 CloudTrail イベントの CloudWatch ロググループへの送信: CloudTrail と CloudWatch ロググループを統合することで、Amazon Q CLI がインフラストラクチャの包括的な視点にアクセスでき、より正確でコンテキストに即した応答を提供できるようになります。詳細については、「 CloudWatch Logs へのイベントの送信 」を参照してください。 これらのベストプラクティスに従うことで、Amazon Q Developer CLI が必要なテレメトリーデータにアクセスでき、AWS リソースのトラブルシューティングと分析時に正確でコンテキストを認識した応答を提供できることを確実にします。 Amazon Q Developer CLI をセットアップ お使いのシステムに Amazon Q Developer CLI をインストールしてください。 Astral または GitHub README から uv ユーティリティをインストールしてください。 uv ユーティリティを使用して Python バージョン 3.10 をインストールしてください。 uv python install 3.10 MCP Servers を設定 MCPサーバーを設定します。Amazon Q Developer CLIは、2つのレベルの MCP 設定をサポートしています。 グローバル設定: ~/.aws/amazonq/mcp.json – すべてのワークスペースに適用されます。 ワークスペース設定: .amazonq/mcp.json – 現在のワークスペースに固有の設定です。 優先する設定レベルを選択し、対応する mcp.json ファイルに以下の CloudWatch とApplication Signals MCP サーバーの設定を追加します。 AWS_PROFILE と AWS_REGION のプレースホルダーを、お客様固有の AWS プロファイルとリージョンに置き換えてください。 { "mcpServers": { "awslabs.cloudwatch-mcp-server": { "autoApprove": [], "disabled": false, "command": "uvx", "args": [ "awslabs.cloudwatch-mcp-server@latest" ], "env": { "AWS_PROFILE": "Add your AWS Profile", "AWS_REGION": "Add your AWS Region", "FASTMCP_LOG_LEVEL": "ERROR" }, "transportType": "stdio" }, "awslabs.cloudwatch-appsignals-mcp-server": { "autoApprove": [], "disabled": false, "command": "uvx", "args": [ "awslabs.cloudwatch-appsignals-mcp-server@latest" ], "env": { "AWS_PROFILE": "Add your AWS Profile", "AWS_REGION": "Add your AWS Region", "FASTMCP_LOG_LEVEL": "ERROR" }, "transportType": "stdio" } } } Amazon Q CLI のインストール、AWS 認証情報の設定、MCPサーバーのセットアップが完了したので、CloudWatch と Application Signals MCP サーバーを使用して、自然言語でのクエリを通じて AWS リソースのトラブルシューティングと分析を開始できます。 Amazon Q CLIとの対話方法 q chat コマンドで対話を開始します。 MCP サーバーの設定を確認します。 /mcp コマンドを実行して、図1 に示すようにMCP サーバーが正しく読み込まれていることを確認します。 図1. MCPサーバーが読み込まれていることの確認 図2 に示すように、 /tools コマンドを使用して利用可能なツールと機能を確認します。 図2. 利用可能なツールのリスト 図3 に示すように、「 What questions can I ask about CloudWatch or Application Signals MCP Servers? (CloudWatchやApplication Signals MCPサーバーについてどのような質問ができますか?) 」と尋ねることで、利用可能な機能の全範囲と可能なクエリを理解することができます。 図3. CloudWatchとApplication Signals MCPサーバーの機能を発見する 実例 – アクセス権限の問題の特定と解決 シナリオ DevOps チームは、重要な注文サービスで複数の障害が発生し、業務運営に潜在的な混乱をきたす可能性があるというアラームを受けました。チームは迅速に以下を行う必要があります。 障害の根本原因を特定する 問題がいつ始まったかを判断する 問題を引き起こした変更を行った担当者を特定する 必要な修正を実施する 従来のアプローチ アクセス権限の問題のトラブルシューティングには、多くの場合、面倒なログ分析、試行錯誤のテスト、および IAM ポリシーの詳細な調査が必要です。アプリケーションのアーキテクチャを完全に理解していても、これには時間がかかり、苛立たしい作業となる可能性があります。 Amazon Q CLIを使用したインテリジェントなトラブルシューティング ステップ1: 根本原因の特定 まず、Amazon Q CLI に「 review my ordering-service and provide remediation steps and an RCA for the cause of the faults (注文サービスをレビューし、障害の原因に対する改善手順とRCAを提供してください) 」と依頼することから始めます。 Amazon Q CLI は、Application Signals MCP サーバーを活用して、インテリジェントかつ自動化されたアプローチによる包括的なトラブルシューティング機能を提供します。図4 に示すように、このシステムはサービスの健全性メトリクスのリアルタイム分析を実行し、障害パターンとエラーメッセージを調査し、権限関連の障害を正確に特定します。 図4. Amazon Q CLIに問題の原因の特定を依頼 この分析が完了すると、図5 に示すように、詳細な改善手順、権限のギャップを説明する徹底的な根本原因分析、および運用上の影響の完全な評価がユーザーに提供されます。 図5. RCA と改善手順を示す Q CLI の出力 この高度な AI 駆動の方法論は、解決時間を大幅に短縮するだけでなく、同様の問題が将来発生することを防ぐための貴重な洞察をチームに提供し、現代の DevOps 環境における不可欠なツールとなっています。 ステップ2: 変更の追跡 次に、変更が実行された正確な時間と実行者を特定します。 Amazon Q CLI に「 identify when and who changed the permissions on the role (ロールの権限を誰がいつ変更したかを特定してください) 」と依頼します。 インテリジェントな意思決定機能を通じて、Amazon Q CLI は各タスクに利用可能な最も効率的なツールを賢く選択します。この場合、図6 に示すように、Amazon Q CLI は内蔵の use_aws ツールを活用して、CloudTrail イベントを自動的に分析し、ロール変更の詳細なタイムラインを作成し、特定の変更を正確に特定し、正確なタイムスタンプと共にそれらの変更の責任者を特定します。この自動化された分析により、権限変更の包括的な監査証跡が生成され、チームは手動でログを調査する必要なく、権限関連の問題の根本原因を迅速に特定できるため、トラブルシューティングのプロセスが大幅に効率化されます。 図6. Amazon Q CLIに権限をいつ誰が変更したかの特定を依頼 ステップ3: 修正の実施 原因、発生時期、および発生者を特定したので、権限の変更を解決する必要があります。IAM ポリシーの手動更新には、構文と最小権限の原則の深い理解が必要です。また、正しく実行されない場合、新たな脆弱性が導入されるリスクもあります。Amazon Q CLI に「 Fix the permissions issue(権限の問題を修正してください) 」と依頼します。 Amazon Q CLI は、サービスロールに不足している権限を追加し、注文サービスを以前の状態に復元します。セキュリティ保護機能と検証手順が組み込まれたガイド付きの修正プロセスにより、このシステマティックなアプローチは、セキュリティのベストプラクティスを維持しながら効率的な実装を確保し、手動によるエラーのリスクを低減します。 図7. Amazon Q CLIに権限の問題の修正を依頼 以下の動画では、調査から解決までの完全なワークフローを実演しています。 図8. Amazon Q CLI と CloudWatch および Application Signals MCP サーバーを使用した完全な調査と改善 一般的な調査用サンプルクエリ 以下は、CloudWatch と Application Signals MCP サーバーを活用するために Amazon Q CLI で使用できるクエリ例です。 高度な SLO 分析 – 「支払いサービスの SLO が違反しています。どの特定の操作が失敗しているか、ログのエラーパターンは何か、実行可能な改善手順を含む完全な根本原因分析を実行してください。」 サービスの依存関係 – 「ユーザーチェックアウトトランザクションの完全なリクエストフローをマッピングし、全サービスにわたるボトルネックを特定し、チェーン内で最も高いレイテンシーが発生している箇所を示してください。」 パフォーマンス最適化 – 「AI/ML サービスのトークン使用パターンがレイテンシースパイクとどのように相関しているかを示し、最もパフォーマンスの問題を引き起こしているモデルを特定してください。」 エラー調査 – 「過去24時間のマイクロサービス全体での分散トランザクション障害をすべて検索し、根本原因でグループ化し、各障害タイプの顧客への影響を示してください。」 予測分析 – 「過去3ヶ月のサービスパフォーマンスの季節的パターンを分析し、容量制限に達する時期を予測し、スケーリング戦略を推奨してください。」 セキュリティ分析 – 「異常なレイテンシーシグネチャを持つトレースを分析し、セキュリティログと相関させ、潜在的な攻撃ベクトルを特定することで、不審なトラフィックパターンを調査してください。」 これらのプロンプトは、Amazon Q CLI が複雑な運用シナリオの調査、パフォーマンスパターンの分析、および AWS リソースに関する実行可能な洞察の取得にどのように役立つかを示しています。 まとめ この記事では、Amazon CloudWatch と Application Signals MCP サーバーが、4つの主要な利点(コンテキストを認識した検索機能、自然言語クエリ、インタラクティブなトラブルシューティングワークフロー、効率的な開発者エクスペリエンス)を通じて運用ワークフローを強化する方法をご紹介しました。これらの機能が連携することで、問題をより迅速に特定し、定型作業の時間を削減し、インシデント解決時間を短縮しながら運用効率を向上させることができます。 これらの機能をさらに詳しく知るには、 Amazon CloudWatch と Application Signals MCP サーバーの GitHub リポジトリをご確認ください。AWS での MCP サーバーの実装について、詳しくは「 Amazon Bedrock Agents で MCP サーバーを活用する 」と「 Unlocking the power of Model Context Protocol (MCP) on AWS 」をご覧ください。AWS のオブザーバビリティのベストプラクティスについて詳しく学ぶには、 AWS オブザーバビリティベストプラクティスガイド と One Observability Workshop をご確認ください。 Raviteja Sunkavalli Raviteja Sunkavalli は Amazon Web Services の Senior Worldwide Specialist Solutions Architect で、AIOps と生成AI オブザーバビリティを専門としています。複雑で分散化されたクラウド環境全体にわたるオブザーバビリティとインシデント管理ソリューションの実装について、世界中のお客様を支援しています。仕事以外では、クリケットをプレイしたり、新しい料理のレシピを探求したりすることを楽しんでいます。 Joe Alioto Joeは、AWS におけるオブザーバビリティ、ガバナンス、集中運用管理に焦点を当てたクラウドオペレーションの Senior Specialist Solutions Architect です。20年以上の実践的な運用エンジニアリングとアーキテクチャの経験を持っています。仕事以外の時間は、家族と過ごしたり、新しい技術を学んだり、PCゲームを楽しんだりしています。 Matheus Arrais Matheus Arrais は AWS のクラウドオペレーションにおけるWW Tech Leader です。AWS の運用機能に焦点を当てた数百人の AWS エキスパートから成る社内コミュニティのグローバルな方向性を担当しています。Matheus は、お客様が複雑なクラウドインフラストラクチャを実装・サポートするための大規模なソリューションを設計するため、AWS サービスチームと緊密に協力しています。LinkedIn: https://www.linkedin.com/in/matheusarrais/ 本記事は、 Enhance your AIOps: Introducing Amazon CloudWatch and Application Signals MCP servers を翻訳したものです。翻訳は Technical Account Manager の 日平 が担当しました。
アバター
AWS IoT Core 10周年 こんにちは、ソリューションアーキテクトの服部です。 AWS が 2015年の re:Invent で IoT 向けのサービスを発表 してから10年を迎え、IoT はビジネスだけでなく普段の生活でも身近な存在となりました。 本ブログでは2025年10月9日に開催されたイベント「10 周年を迎えた AWS IoT Core – 過去を振り返り、未来を見据えて」の内容をご紹介し、登壇者皆様の発表資料を公開いたします。 今回のイベントは AWS IoT Core の発表から10周年という節目に際し、お客様登壇としてこれまで10年間における IoT へのお取り組み、直面した課題とその克服方法、そして今後の IoT を活用したビジネス展開戦略や描いている未来のビジョンについて現場のリアルな声をお届けいただきました。AWS からは AWS IoT Core 10周年を記念した AWS IoT Core のサービスの歴史について語る登壇や AWS Summit Japan 2025 で好評でしたデモ展示をお届けしました。 IoT@Loft とは ? IoT@Loft は AWS が年に数回開催している、IoT 関連ビジネスで開発を担当するデベロッパーのためのイベントです。「総合格闘技」とも呼ばれるほど、幅広い分野の技術が求められる IoT において、参加者同士の情報共有と意見交換の場を提供することで、参加者の事業や製品開発の成功につながるきっかけを作ることを目指しています。 過去の開催ブログの一覧は、 リンク先 にあります。 お客様登壇 AWS IoT で実現した、LIXIL のビジネス変革 – 組織の壁から LIXIL Toilet Cloud まで 登壇者:株式会社LIXIL デジタル部門 Business Innovation Leader 三原 寛司氏 登壇資料( https://speakerdeck.com/kanji_mihara/aws-iotdeshi-xian-sita-lixilnobizinesubian-ge-zu-zhi-nobi-karalixil-toilet-cloudmade ) 株式会社 LIXIL 三原氏からは、前半はLIXIL と AWS IoT の 10年の歩みについて信頼性とスケーラビリティのあるフルマネージドな基盤としてAWSを選定いただいた背景や、事業間連携を想定した中央集権的な統制と各事業部と連携を行うハイブリットな IoT 推進体制の構築についてご説明いただきました。 後半は AWS IoT による DX 事例として「LIXIL Toilet Cloud」のアーキテクチャのご紹介や、AIを活用した異常検知による効率的な点検清掃、データに基づく新たなトイレ循環清掃ビジネスの展望についてご説明いただきました。 未来へつなぐ IoT ~IoT でモノはもっと価値をもつ~ 登壇者:ブラザー工業株式会社 P&S事業 SC開発部 瀧尻 豊 氏 / 墨 啓希 氏 登壇資料 ( IoTLoft27_Brother.pdf ) 続いてブラザー工業株式会社 瀧尻氏のご登壇では、これまでの IoT とこれからの IoTというテーマでご登壇いただきました。前半の瀧尻氏のご登壇では、フルサーバレス化やそれに伴う運用の変化やクラウド利用組織、エンジニアマインドなど10年で変わったことをご紹介いただきました。 後半はブラザー工業株式会社 墨氏より10年で変わらない知見として、接続のノウハウやセキュリティ、データの重要性についてご説明いただきました。また今後の IoT は「新鮮な価値を届ける」「離れた場所へ価値を届ける」といったどのように価値を実現するのかという展望含めて事例をご共有いただきました。 会話AIロボット「Romi」における AWS IoT 活用事例 登壇者:株式会社MIXI Vantageスタジオ Romi 事業部 ロボット開発グループ 高田 信一 氏 登壇資料( IoTLoft27_MIXI.pdf ) 株式会社MIXI Romi 事業部からはロボット事業開発グループ 高田氏にご登壇いただき、会話 AI ロボット「Romi」における AWS IoT の活用事例をご発表いただきました。前半は Romi の開発の歴史から遡り、誕生の経緯やコンセプト、デザインやプロトタイプ開発についてご共有いただきました。 後半はハードウエアや AWS 構成だけでなくソフトウエアコンポーネントまで深掘りいただき、AWS IoT Core を用いた Pub/Sub モデルの導入など解説いただきました。 JAWS-UG IoT 専門支部 登壇者:クラスメソッド株式会社 製造ビジネステクノロジー部 若槻 龍太氏 登壇資料( https://speakerdeck.com/wakatsuki/iot-loft-aws-iot-core-10th-anniversary-jaws-ug-iot-branch ) JAWS-UG IoT 専門支部 からは クラスメソッド株式会社 若槻氏よりJAWS-UG IoT 専門支部についてご紹介いただきました。AWS IoT Core リリース前に立ち上がった IoT 専門支部ではデバイスや AWS 新サービスだけでなく、Matter やThread などの新しい規格、 IoT 機器のセキュリティに関する認証制度 JC-STAR など最新トレンドについて活発に取り上げられていることをお伝えいただきました。JAWS-UG IoT 専門支部 に関する詳細は、 リンク先 をご参考ください。 AWS登壇 10 周年を迎えた AWS IoT Core – 過去を振り返り、未来を見据えて – 登壇者:シニアソリューションアーキテクト 宇佐美 雅紀 登壇資料( IoTLoft27_AWS.pdf ) AWS からはソリューションアーキテクト宇佐美より AWS IoT Coreの歴史を振り返りながら、1日あたり3億以上のユニークデバイスが接続されるまで成長したこと、自動車から発電所、スマートホームデバイスまであらゆる産業で AWS IoT が活用されるようになったことをお伝えしました。そして生成 AI と連携したユースケース広がっている最新のトレンドと、クラウド側 AI へのデータ共有源またはエッジ側 AI への接続手段としての AWS IoT の活用についてお伝えいたしました。 AWSデモ展示 今回の IoT@Loft では AWS Summit Japan 2025 で大好評でしたデモを2点展示いたしました。デモ開発者も同席させていただき、ご来場いただいた皆様と基盤の設計や制御方法など活発な議論をさせていただきました。 AI エージェントで制御する IoT ミニ四駆 登壇者:ソリューションアーキテクト 中西 貴大 デモ紹介ブログ( https://aws.amazon.com/jp/blogs/news/iot-mini4wd-deep-dive/ ) エッジ x クラウド映像革命 登壇者:ソリューションアーキテクト 川崎 裕希 デモ資料( https://pages.awscloud.com/rs/112-TZM-766/images/AWS_Summit_2025_%20A-28A_EdgexCloudVideoInnovation.pdf ) まとめ 10周年を迎えた IoT の盛り上がりに、生成 AI のムーブメントも加わり、ますますパワーアップした IoT@Loft でした。次回のイベントも、さらに進化したIoTの刺激的な体験をお届けしますので、どうぞお楽しみに! アマゾン ウェブ サービス ジャパン合同会社 ソリューションアーキテクト 服部 一成
アバター
Claude Code や Kiro といった AI 駆動の開発ツールや開発環境によりコーディングの生産性が飛躍的に高まっています。さらに、 AI DLC をはじめとした開発方法論が AI の適用範囲を開発プロセス全体に広げることで、 “本番リリースまでの時間” は数倍に短縮されつつあります。その生産性向上に着目が集まる一方で、 リリース速度が事業の成長を阻害するリスク が観測され始めています。 リスクは技術・ビジネス両面で発生します。技術面では、今まで年 1~2 回だった本番環境に影響するバグが週次で発生するリスクが報告されています (参考 : AWS の VP/Distinguished Engineer である Joe Magerramov の記事 “ The New Calculus of AI-based Coding ”)。ビジネス面で顕著な報告はまだありませんが、リスクを示唆する研究として 1995 年にコロンビア大学のシーナ・アイエンガー教授が示した「ジャムの法則」があります。この実験では 6 種類のジャムを用意した場合と 24 種類用意した場合とで購買行動を比べており、選択肢が多い 24 種類の方が売上が少なく 1/10 になることを示しています。開発に当てはめれば、機能が 4 倍の速度で実装されたとき (6 種類から 24 種類)、 逆に利用率が 1/10 になりえるということです。リスクを低減するには削除や撤退の意思決定が必要になりますが、 IPA の報告によれば日本ではスタートアップにおいても製品やサービスの転換 (ピボット) が不得手であり、米国に比べて成長率が 30 分の 1 程度となる要因として指摘されています (参考 : “ 成長しない日本のソフトウェアスタートアップ 国内競争を促進してエコシステムを創出する ”)。 AI 駆動開発によるリリースの増加はプロダクトマネージャーや事業責任者をはじめとした意思決定者の負荷を高める副作用があり、意思決定の量と質を高める実践と仕組化なしに開発と価値向上のバランスを取ることは困難です 。 Amazon では「顧客に必要とされないものを作らない」ための Working Backwards という製品開発プロセスがあり、リスクに対する有効な対策の一つとなっています。今回ご紹介する ML Enablement Workshop (MLEW) はそれを誰もが実践できるよう体系化されたワークショップです。これまで、JINS 様 (AWS Summit 2025 ご登壇) や MUFG 様 ( re:Invent 2024 ご登壇 )、また BASE 様など業種を問わず多くのお客様が「顧客駆動」でプロダクトを開発するために利用され成果を実感されています。「誰もが」とある通り、 MLEW の資料は GitHub で公開されており事例を含め参照できます 。2025 年 9 月に GitHub で公開された version 3 は Working Backwards の各プロセスを進めるために生成 AI を活用しており、よりスムーズに進められるようになっています。公開後 1 ヵ月ほどで約 20 社に提供されており、この数は昨年 1 年分の提供数に匹敵します。この提供スピードは、お客様のニーズはもちろん「誰でも」行えるようにするための体系化と生成 AI による効率化が機能していることを示しています。2025 年 10 月に行われた 7 社同時での提供では、ほぼすべての会社がサポートなしにプロセスを完了しました。 MLEW version 3 では 机上で企画をまとめるのに留まらず、AI 開発エージェントを用い複数本の企画から複数本の動くモックを構築します 。これにより、今までワークショップ実施後にしかできなかった「想定顧客の反応の計測」をワークショップ期間内に行うことができ、事前に定めた基準に基づき企画を「切る」あるいは「転換」する判断、ピボットを実践できます。重要な点は、MLEW を通じ 「計測した反応(データ)」と Working Backwards という「プロセス」により誰もが高品質な意思決定を実践できるようになる ことです。 MLEW と AI DLC のような開発プロセスは補完関係にあります。組み合わせることで、顧客駆動の意思決定で AI 駆動の方向性をコントロールでき開発生産性と製品価値向上の比例関係を維持できます。 本ブログでは、MLEW の流れをリポジトリに掲載されているコンテンツにそって解説し、実際得られているお客様の反応もご紹介します。解説に沿って皆さん自身でワークショップを実施いただくことも、AWS アカウント担当がいる場合は提供を依頼することも可能です。また、AWS パートナーからの提供に向けて伝授も進められています。 ML Enablement Workshop とは ? ML Enablement Workshop は、1~3 ヵ月以内に計測可能な成果を得るために、組織横断で関係者を招集し価値検証の打率・速度・本数を高めたプロジェクトをキックオフするためのワークショップです。 1~3 ヵ月という期間は、過去 AI/ML 等の新規プロジェクトを始めると大体 3 ヵ月以内に緊急かつ優先度の高い突発的なタスクが発生し中断することが多い観測結果に基づいています。そのため、3 ヵ月以内にプロジェクトを継続すべき定量的な成果を観測することが重要になり、このスピードには「 意思決定できる最小単位 」となるチームの組成が不可欠です。 開催する際は、次の基準を満たしていることを推奨します。 経営層の合意と支援 意思決定できる最小単位を構成する、ビジネス面で事業責任者 (プロダクトマネージャーなど)、技術面で開発者、必要に応じデータサイエンティストの参加 経営層との合意は、仮に 3 ヵ月の間に突発的な優先度の高い案件が入ってきても活動の継続を保証するために必要です。その代わり、チームはこの期間内にあらかじめ決められた定量的な基準を超える成果を出すことにコミットします。条件を確認し、実施が確定したらワークショップの流れに沿って進めていきます。MLEW は過去 2 回大型のアップデートを行っており、現在公開されているのは version 3 になります。本ブログで記載している内容は最新版の version 3 に基づいています。 ワークショップの流れ GitHub のリポジトリで流れを確認してみましょう。アクセス先に書いてある通り、ワークショップは全 3 つのプロセスで行われます。 リポジトリの URL : https://github.com/aws-samples/aws-ml-enablement-workshop それぞれのプロセスの資料は、リンクからアクセスできます。まず Day0 から見ていきましょう。 Day0 は、ワークショップを行う目的と期待する役割を全員で確認するフェーズです。MLEW を実施したい意向がある方は、経営層だったりプロダクトマネージャーだったり、あるいは開発者だったりと様々です。誰かが「無意味な時間」と感じていれば意思決定への本気度も履行の意欲も担保できないため全員の合意が不可欠です。例えば経営層は乗り気だがプロダクトマネージャーは当面のロードマップの実現に注力していて考える余裕がなかったり、プロダクトマネージャーは乗り気だが開発者は実装の余裕がないといった状況はよく起こります。今行う意味や意義について認識が合わないと気付いた場合、見送りや対象チームの変更、参加者の変更などを事前に検討できます。 Day0 の進め方は Day0 のガイド に沿って行います。各担当がワークショップ前に準備すべき内容もこちらに記載されています。事前準備として特に重要な点は下記 3 点です。成果物にはフォーマットがあり、情報さえ集まっていれば容易に準備出来ます。1 と 2 については、後続の実践編で生成 AI へのインプットとして使用します。 顧客を知る : 対象とする顧客について具体化しておく 市場を知る : 顧客の課題に対し、解決策になりそうな競合や市場のソリューションについて一覧化しておく 環境を整える : 生成 AI を用いワークを進めるため生成 AI が利用できる環境を整える (AWS なので Amazon Q Developer が推奨だが他の AI エージェントツールも利用可能) 実践編、改善編が本編になります。実践編と改善編の構成は次のようになっています。 実践編は Working Backwards をやり切り体得することに注力しており、改善編は体得したプロセスを自ら行い企画を改善することに注力しています。改善編の後半では、具体的なタスクとスケジュールを必ず決めて終了します。 以降は、実践編と改善編について解説します。 実践編 : Working Backwards をやり切る 実践編 は Working Backwards の 5 つのプロセスに沿って進行します。 Listen で顧客は誰か? 顧客はどのように行動しているか ? を観察し、 Define で潜在する課題と企画を特定、 Invent で課題を解決・機会を活用する発明を考案、 Refine で発明による新しい顧客の体験をプレスリリースの形で描画し、 Test/Iterate でその効果を計測、改善のサイクルを回していきます。各プロセスの時間が決められている通り、実践編では時間厳守でやり切ることにフォーカスしています。実践編の目的はプロセスの理解と体得で、ユースケースの質は改善編で高める構成となっています。実践編の資料は下記リンクからアクセスできます。 https://github.com/aws-samples/aws-ml-enablement-workshop/blob/main/docs/organizer/day1.md プロセス全体の流れを図にすると、次のようになります。Listen、Define で製品やサービスを届ける顧客の声から根本的な課題を特定し、Invent で解決のための発明、Refine と Test/Iterate で解決しているかどうか答え合わせをする形になります。事業責任者の方であればカスタマージャーニーマップやユーザーストーリーマッピングによる体験分析をされたことがある方もいるかもしれません。Working Backwards では、 Listen / Define の分析フェーズに当たります。また、ビジネスモデルキャンバスなどで収益を生むプロセスを立てる方もいると思いますが、Working Backwards では Test/Iterate で具体的に観測すべきビジネスの指標と目標値を決めます。Working Backwards のコンセプトは「 最も難しい判断を最も最初に行う 」ことであり、Refine でプレスリリースを書くことに象徴されるよう “ 明日この製品をリリースしたらそれは顧客に受け入れられ売れるのか ? ” を顧客の体験面、ビジネスの成果指標面両方で検証するフレームワークになっています。 MLEW は、Working Backwards を「誰もが」実践できるよう、顧客・課題・発明・体験・観測、といった人により解釈が異なる言葉やプロセスを明確に定義しています。例えば、Define のフェーズでは「課題」とは何か、課題が顧客の声 (Listen) とどのように異なるのかを明確に示しています。また、Invent で行う課題に対する解決策 (発明) の考案でも、まず 「発明」とは何かを定義し、それと Define (課題) を発見するために立てた問いとどういう関係があるのか示しています。 このような「言語化」により生成 AI へ正確な指示を与えることができ、ファシリテーションの精度を高めています。下記の「当日のガイド」に従い進めていけば、手早くかつ再現性の高いプロダクト開発プロセスを実践できるようになっています。 https://github.com/aws-samples/aws-ml-enablement-workshop/blob/main/yourwork/README.md Generative AI Use Cases (GenU) を導入済みのお客様は、 ユースケースビルダーにワークショップ専用のユースケースをインポートすることで GenU 上でワークショップを進めることができます。 もちろん、生成 AI の出力結果は完璧ではありません。参加者の知見や経験を持ち寄り、生成された顧客の体験や発明が妥当かどうか、確認しながら進めていきます。主催者 (ファシリテーター)用のガイドもページに記載しており、これまでのワークショップの経験から気を付けるべき点やタイムテーブルの例などをまとめています。 企画をプレスリリースとして執筆する Refine のフェーズが終了した後、AI 開発エージェントにプレスリリースを与えアプリケーションのモックを作成します。以下は EC サイトごとに異なるサイズや規格で商材を作るのが面倒という課題を生成 AI で解決する企画から生成した例です。ランディングページ、体験可能なモック、またモック内のページビューなどが参照可能なダッシュボードを構築します。 モックを作成させている間に人間は最後の Test/Iterate を行い、構築したモックでどのような反応が得られたら次のフェーズに進むのかを定量的に定義します。実践編終了時点で、顧客に対する解決策の仮説、仮説を検証するための動くモック、モックで計測する顧客の反応と合格基準がそろっている状態になります。 改善編 : 現実のデータに向き合いプロセスを繰り返す 改善編 は Working Backwards の最後のプロセスである Test/Iterate を実践します。すなわち、モックを通じ顧客候補の反応を “Test” し、そのインプットを “Listen” することで Working Backwards を “Iterate” するということです。通常のワークショップはウォーターフォールのようにプログラムをすべて終えてアウトプットが出たら終了ということが多いですが、MLEW では多くの製品開発プロセスがそうであるようにアウトプットから得られた反応を基に改善するまで行います。これまで、ワークショップで作成するのはプレスリリースのみ、しかも 1 本にしぼっていましたが、生成 AI により複数本のプレスリリースとモックが作れるようになりました。複数本の検証結果があることで、反応が芳しくない企画を捨てる、方向を変えるといった判断が行いやすくなりました。モックから反応を得る期間を確保するため、実践編と改善編の間は 1 週間は空けるスケジュールを推奨しています。 改善編の前半は参加者自身による Working Backwards 、後半 1 時間は今後の計画を立てるために配分しています。前半の時間配分は、参加者の Working Backwards に対する評価に応じ時間配分を頂きます。プロセスが明確に区切られていることで、Listen に時間をあて顧客の反応分析に注力する、反応は良好であるためより差別化された体験を目指し Invent に注力する、といった状況に応じた対応を取ることが出来ます。 改善編では、今後に向けて実際のプレスリリースまでのマイルストンを立てます。実際のプレスリリースまでに何個のマイルストンがあるのかについても、スポンサー、ファン、シェアの獲得といった明確な段階を定義し達成すべき段階について解釈がぶれないよう構成しています。 マイルストンの到達計画を立てたら、その計画が確実に履行されるようワークショップ期間中にスケジューラーに定期ミーティングやスポンサーとなった役員報告への時間を登録いただきます。 実施してのフィードバック これまで、お客様から次のようなフィードバックを頂いています。ワークショップの密度の濃さとモックまで作るスピード感を高く評価いただいています。 「 各フェーズが意味があり とても密度の濃い良いワークショップでした。」 「一連の流れをAIを活用してスピーディに体感できた」 「 数時間で問題の整理からモックの作成、その後の計画までできた 」 「すごいフレームワークですね。人手だけでやるととても疲れると思いますが、AIの力でやりやすいと思います」 「当たり前を疑う問いを作ることができた」 MLEW 自身も Working Backwards に沿い、お客様からのフィードバックを基に改善を続けています。今年開催された「ビジネスをグロースする生成AIコンテスト2025」で提供した内容を基に作成しており、version 3 公開後もすでに 2 回アップデートしておりモックのメトリクス計測やプロンプトの修正を行っています。生成 AI コンテストに参加いただいたお客様の開発したサービスのいくつかは AWS のブログとして公開いただいており、今後より多くのお客様の事業成長を支援すべく今後も改善を続けていきます。 株式会社情報戦略テクノロジー様の AWS 生成 AI 活用事例 : Amazon Bedrock を活用し社員一人ひとりに寄り添いともに成長するAIエージェント秘書「パイオにゃん」 を開発。情報探索業務を83%改善、社員の成長の可視化を実現。 株式会社リネア様の AWS 生成 AI 事例:GraphRAGで実現するサプライチェーンリスク検知と管理への取り組み 終わりに 本ブログでは、生成 AI による開発の加速は意思決定負荷が増える副作用があり、技術的・ビジネス的な判断を誤る回数が増える問題を明らかにしました。そして、この問題は特に日本企業で顕著に観測される可能性があることを IPA のレポートを基に示しました。その解決策の一つとして、Amazon で実践されている顧客起点で「必要とされない」ものを作らない Working Backwards をチームで身に着けるための実績あるワークショップ ML Enablement Workshop を解説しました。生成 AI が生成するコードの量に比べ、製品や事業の成長に伸び悩みやリスクを感じられている場合ぜひ活用いただければ幸いです。
アバター
Amazon CloudWatch の強化された自動ダッシュボードを活用することで、 Amazon CloudWatch Logs の使用パターン、コスト、潜在的な問題をより詳しく把握し、効率的な運用管理を実現できます。この記事では、使用状況を理解することの重要性、ダッシュボードの確認方法、そこから得られる知見について説明します。さらに、CloudWatch の使用状況とコストを把握するための他の便利なツールもご紹介します。 図1. CloudWatch Logs の新しい強化された自動ダッシュボードの一部 使用状況の把握が重要な理由 CloudWatch は、アプリケーションやインフラストラクチャのオブザーバビリティを把握するための監視サービスです。オブザーバビリティにより、カスタマーエクスペリエンスの理解、運用の健全性維持、リソース使用の最適化、パフォーマンスの変化への迅速な対応が可能になります。CloudWatchは、メトリクス、ログ、トレースデータを収集することで、データに基づいた分析、可視化、アクションの実行を可能にします。 アプリケーションに関連するコストを理解することは、そのアプリケーションがもたらす価値を理解する上で重要な要素です。コストと使用状況のデータにより、オブザーバビリティなどの運用サポートに関連するものを含め、コスト最適化が可能な領域を特定できます。CloudWatch の使用状況の要因を理解することで、オブザーバビリティ戦略についてデータに基づいた意思決定を行い、その変更がコストに与える影響を確認することができます。さらに、CloudWatch でのエラーやスロットリングの発生箇所を理解することで、期待するすべてのデータを使用できるよう、問題を特定して解決することができます。 この新しいダッシュボードは、CloudWatch Logs でよく要求される領域の使用状況の詳細を提供する、すぐに使える機能です。ダッシュボードは CloudWatch コンソールにあります。 左側のメニューの「ダッシュボード」セクションに移動し、次に「自動ダッシュボード」タブに移動します。 このタブには、すぐに使えるダッシュボードがいくつか含まれています。CloudWatch Logs を選択してダッシュボードを表示します。 図2. CloudWatch Logs の新しい改善された自動ダッシュボードの一部 ダッシュボードの概要 ダッシュボードはセクションごとに分かれており、CloudWatch Logs の使用状況をさまざまな観点から確認できます。 表示されるデータは、現在選択しているリージョンとアカウントに対応しています。他のリージョンの CloudWatch 使用状況を確認するには、コンソール右上のリージョン選択を変更するだけです。 ほとんどのデータは時系列グラフとして表示され、変更の影響を観察することができます。数値表示では、選択した期間の集計データを確認できます。ダッシュボード右上の時間設定で、期間とタイムゾーンの両方を調整できます。特定の時系列データを単一のグラフで詳しく調べるには、凡例で名前を選択して他のすべての系列を非表示にします。同じ系列名を含む関連ウィジェットは、自動的に選択に合わせて調整されます。系列名を再度選択すると、全体表示に戻ります。 図3. 凡例から選択した後、単一の系列が表示されているCloudWatchダッシュボードウィジェット ダッシュボードは使用状況を表示します。これをコストに変換する方法の詳細については、 Amazon CloudWatch 料金ページ を参照してください。 ダッシュボードは、それぞれに複数のダッシュボードウィジェットを持ついくつかの主要なセクションに分かれています。 アカウント別のログ取り込み ロググループ別のログ取り込み サービス使用状況 Embedded Metric Format (EMF) サブスクリプションフィルター ログ異常検出 ログデータ保護 ログトランスフォーマー セクション1と2: ログ取り込み CloudWatch Logs のコストの中で、通常、ログの取り込みが最も大きな要因の一つとなっています。ログ取り込みにかかるコストは、それがもたらす価値に見合ったものであるべきです。どのロググループがコストを発生させているかを把握することで、関連するアプリケーションを担当するチームと建設的な話し合いを持つことができます。取り込むログの内容(ボリューム、詳細度、フィルタリング)を検討するとともに、必要な機能に応じて、 標準ログクラスか低頻度アクセスログクラス のどちらを使用するかを検討することをお勧めします。これはロググループレベルで設定できます。 セクション1: アカウントのログ取り込み ウィジェット 取り込まれたログの合計GBボリューム 時間経過に伴う取り込まれたログのGBボリューム 図4. アカウントのログ取り込みに関するダッシュボードセクション セクション2: ロググループごとのログ取り込み ウィジェット ロググループ間でログ取り込み(GB)がどのように分散されているかを示す円グラフ ロググループ別の時間経過に伴うボリューム(GB)ログ取り込み 図5. ロググループ別に分類されたログ取り込みに関するダッシュボードセクション セクション3: サービス使用状況 サービスの使用量には、CloudWatchへの直接的または間接的なすべてのAPI呼び出しが含まれます。ロググループにログをアップロードする際は、PutLogEvents APIが使用されます。同様に、Logs Insightsでクエリを実行する際は、StartQuery APIが呼び出されます。 CloudWatchには API 呼び出しの制限 があり、この制限を超えるとAPIエラーやスロットリングが発生する可能性があり、これらはこのセクションで確認できます。スロットリングについて詳しくは、「 CloudWatchログでスロットリングエラーのトラブルシューティングを行うにはどうすればよいですか? 」をご参照ください。 ウィジェット 時間経過に伴う主要なAPI呼び出しの数(例:DescribeDestinations) 時間経過に伴うAPIエラー数 時間経過に伴うAPIスロットリング数 図6. サービス使用状況のダッシュボードセクション セクション4: Embedded Metric Format Embedded Metric Format (EMF) を使用すると、メトリクスと詳細なログ情報を同じログイベントに含めることができます。CloudWatch は、EMF ログイベントを取り込む際に、自動的に対応するメトリクスを CloudWatch Metrics に作成します。メトリクスデータと詳細なログ情報を同じイベントで組み合わせることで、ログメッセージとそれに関連するメトリクスの間に直接的な関連付けが可能となります。これは、PutMetricData API を使用してメトリクスを送信する代替手段として効果的です。 ログから適切にメトリクスを自動抽出するために、 EMF仕様 に従って正しいJSON構造を確保してください。提供されているウィジェットを使用して、取り込みの失敗を監視することができます。 ウィジェット ロググループ名別に分類された、時系列の検証エラー数 ロググループ名別に分類された、時系列の解析エラー数 図7. Embedded Metric Format (EMF)のダッシュボードセクション セクション5: サブスクリプションフィルター サブスクリプションフィルター は、CloudWatch Logs から他の AWS サービスへのログデータのリアルタイムストリーミングを可能にし、追加の処理、分析、またはストレージを行います。ロググループにサブスクリプションフィルターを作成して、一致するログイベントを選択した宛先に自動的に送信できます。 サブスクリプションフィルター自体には追加コストは発生しませんが、 Amazon Data Firehose や AWS Lambda などの宛先サービスによってコストが発生します。転送されたイベントの数とそのソースロググループを監視することで、使用状況と関連コストを把握できます。このセクションには、ロググループ別に分類された時系列のエラーとスロットリングのグラフも含まれているため、問題を特定して修復できます。 ウィジェット ロググループ名別に分類された、時系列の転送イベント数 ロググループ名別に分類された、時系列のエラー数 ロググループ名別に分類された、時系列のスロットリング数 図8. サブスクリプションフィルターのダッシュボードセクション セクション6: ログ異常検知 CloudWatch ログの異常検出 は、機械学習を使用してログデータを分析し、ログのパターンを識別します。例えば、ステータスコード 200 のログイベントが突然減少するような異常な動作を検出します。異常が検出された場合、CloudWatch はログイベント数の変化の大きさや「Exception」などの特定のキーワードに基づいて、検出結果に高、中、低の優先度を割り当てます。なお、Logs Insights の パターン機能 は、異常検出機能とは独立して使用することができます。 ウィジェット 検出された低、中、高のログ異常の総数 図9. ログ異常検知のダッシュボードセクション セクション7: ログデータ保護 CloudWatch Logs を使用すると、取り込み時に機密データを識別してマスクする データ保護ポリシー を作成できます。ポリシー内で、クレジットカード番号、APIキー、個人識別情報(PII)などの 機密データの種類 を定義します。個別のロググループまたはアカウント全体に対してポリシーを作成できます。 ウィジェット ロググループ別に分類された、時系列のポリシーに一致するログイベント数 図10. ログデータ保護のダッシュボードセクション セクション8: ログトランスフォーマー ログを標準化したい場合、 CloudWatch Log Transformers を使用してログデータを取り込み時に処理および変換することができます。Transformers を使用することで、フィールド名の標準化(user_id、userId、user などの表記ゆれの統一)によって一貫性を向上させたり、検索を容易にするためにログイベントを JSON 形式に変換して構造化したり、アプリケーション名などの追加データを含めることでコンテキストを強化したりすることができます。Transformers は 組み込みプロセッサー を使用し、これらを連続して適用することで目的の結果を達成できます。Transformersは個別のロググループに適用することも、アカウント全体に適用することも可能です。 ウィジェット ロググループ別の、時系列の変換されたログイベント数 ロググループ別の、時系列の変換されたバイト数 ロググループ別の、時系列の変換エラー数 図11. ログトランスフォーマーのダッシュボードセクション コスト CloudWatch Logsダッシュボードは、追加コストなしですぐに使用できるエクスペリエンスを提供します。 使用状況とコストを理解するためのその他のツール この新しいダッシュボードは貴重な洞察を提供しますが、CloudWatch の使用状況とコストを理解するための他のリソースもあります。 CloudWatch コストの分析、最適化、削減 に関する AWS ドキュメント AWS Cost Explorer: アカウント全体の AWS 支出を可視化、理解、管理 CUDOS Dashboard : Cloud Intelligence Dashboards フレームワークの一部で、組織全体の AWS 支出と使用状況に関する深い洞察を提供 特定の関心領域を探索するために、独自のカスタム CloudWatch ダッシュボードも構築できます。例と AWS CloudFormation テンプレートについては、「 Visualizing Amazon CloudWatch Costs – Part 1 」および「 Visualizing Amazon CloudWatch Costs – Part 2 – Where does the data come from? 」を参照してください。 注意:独自の CloudWatch カスタムダッシュボードを作成すると、ダッシュボードに関連するコストが発生します。詳細については、 Amazon CloudWatch の料金 ページを参照してください。 まとめ この強化された標準搭載の CloudWatch 自動ダッシュボードは、追加コストなしで CloudWatch Logs の使用状況をより深く理解することができます。このデータを活用して、コストの要因を特定し、サービスから最大の価値を得るためにCloudWatch の使用を最適化することができます。 使用状況の監視を強化するために、このダッシュボードに表示されているロググループの取り込みなどの詳細なメトリクスデータに基づいて、 請求アラーム や CloudWatch アラーム の設定を検討してください。CloudWatch アラームは、個別のメトリクスまたはメトリクス数式を使用して設定でき、静的しきい値または異常検出のいずれかを柔軟に使用することができます。 Chaitanya Gummadi Chaitanya は AWS の Sr. Observability Customer Success Specialist です。彼はお客様のオブザーバビリティ機能の向上を支援することに情熱を注いでいます。仕事以外では、多様な料理を探求することやハイキングの冒険を楽しんでいます。 LinkedIn: /cgummadi Abeetha Bala Abeetha Bala は Amazon CloudWatch の Senior Product Manager です。お客様第一主義であり、AWSのお客様が困難な問題に対する革新的なソリューションを見つけることを支援することに情熱を注いでいます。 Helen Ashton Helen Ashton は AWS の Sr. Solutions Architect で、オブザーバビリティを専門としています。Helen はお客様のビジネス課題の解決と、クラウドジャーニーの進歩を支援することに情熱を注いでいます。仕事以外では、音楽、サイクリング、ガーデニングを楽しんでいます。 Bobby Hallahan Bobby Hallahan は AWS オブザーバビリティチームの Sr. Specialist Solutions Architect です。彼はお客様が困難な問題に対する革新的なソリューションを見つけることを支援することに情熱を注いでいます。彼は AWS のお客様と協力して、オブザーバビリティの目標達成を支援しています。AWSでの在職期間中、Bobby はエンタープライズカスタマーのミッションクリティカルなワークロードをサポートしてきました。 本記事は、 Analyze logs usage with Amazon CloudWatch enhanced automatic dashboard を翻訳したものです。翻訳は Technical Account Manager の 日平 が担当しました。
アバター
本ブログは アサイクル株式会社様 と Amazon Web Services Japan 合同会社 が共同で執筆いたしました。 みなさん、こんにちは。ソリューションアーキテクトの森です。 展示会やオンラインイベントなどの営業活動においては、顧客との重要な会話を正確に記録し、後続のフォローアップに活かすことが重要です。しかし、従来の手動による記録作業は営業担当者にとって大きな負担となっており、本来の営業活動に集中できないという課題がありました。今回は薬局 DX をリードする企業として「 ASKAN 」「 PICKING GO 」「 ZERO STOCK 」といったソリューションを提供されているアサイクル株式会社様が、音声会話要約ソリューションを短期間で開発した事例を紹介します。 お客様の状況と検証に至る経緯 アサイクル株式会社様は、薬局 DX を推進するシステムを提供する企業として、展示会やオンラインデモでの営業活動を積極的に展開しておりましたが、以下のような課題を抱えておりました。 会話内容を CRM にテキストで手入力する作業は時間を要し、担当者によって情報の質や量にばらつきが発生していた。 貴重な商談時間がメモ取りで中断してしまい、顧客との対話に集中できない状況があった。 既存の文字起こしサービスでは、調剤薬局を取り巻く業界特有の専門用語の認識精度が低く、商談後の情報整理に支障をきたしていた。(例:「アスカン」→「明日感」、「ピッキングゴー」→「ピッキング語」) そこで AWS のマネージドサービスを活用し、業界特化型の音声文字起こしシステムを構築することで、これらの課題を解決するソリューションの検証をすることになりました。 ソリューションと構成 本ソリューションは、展示会やオンラインデモで録音した音声ファイルを基に、Amazon Bedrock を活用した高精度な構造化テキスト出力を実現しています。 Amazon Bedrock を活用した構造化テキスト出力: LLM のプロンプト制御により専門用語を補正し、会話内容の要約・重要キーワード抽出・次のアクション提案などを CRM に最適な形式で自動生成 Amazon ECS (AWS Fargate) を活用したコンテナベースの音声処理: サーバーレスコンテナ環境で高度な音声処理機能を実装 AWS ネットワークを活用したセキュアな環境での構築: 機密性の高い顧客との会話内容を外部に漏らすリスクを排除したセキュアな処理環境を提供 このソリューションにより、音声ファイルをアップロードするだけで、営業活動の効率化と品質向上を同時に実現できる仕組みを構築しました。   AI コーディングエージェントを活用した短期間開発 アサイクル株式会社様は AWS 主催のハッカソンイベント「DEVCRAFT」で本プロジェクトに取り組まれました。本プロジェクトの特筆すべき点は、AI コーディングエージェントを活用した AI 駆動開発により、従来であれば数週間から数ヶ月を要するようなシステム開発を、ハッカソンイベントの約2週間という短期間で実用レベルまで構築された点にあります。 要件定義から実装まで一貫した開発:ビジネス要件を技術仕様に落とし込み、生成 AI の支援により実装まで効率的に実施 AWS サービスとの統合コードの自動生成:各 AWS サービスとの連携に必要となるコードの自動生成 コンテナ化された処理基盤の構築:音声処理機能をコンテナ環境で効率的に実装 定型的なコード記述や API 連携部分を生成 AI に任せることで、エンジニアはより創造的で付加価値の高い、業界特化の音声認識ロジックやプロンプト設計といった本質的な価値創出に集中することができました。この結果、ハッカソンイベント期間中に実用的な機能を持つシステムを完成させ、従来の開発手法では実現困難な短納期開発を成功させることができました。 お客様の声(アサイクル株式会社様) DEVCRAFT では、AI コーディングエージェントを活用することで、短期間でのプロトタイプ開発が実現できました。イベント期間中に要件定義から実装まで一貫して取り組み、実用的な機能を持つシステムを完成させることができました。この成功は、AWS のマネージドサービスの使いやすさと、AI コーディングエージェントによる開発効率化の相乗効果によるものです。インフラ構築の負担を軽減してビジネスロジックの開発に集中できたことが、短期間での成果創出につながりました。 まとめ 本事例は、営業活動における音声データ活用の好例です。今回作成した音声会話要約ソリューションにより、展示会やオンラインデモでの記録作業を自動化し、営業担当者が顧客との対話に集中できる環境を構築されました。特に注目すべきは、AI コーディングエージェントを活用することで、短期間のハッカソンイベントにおいて実用的なソリューションを構築できた点です。本事例が、営業活動の効率化や音声データ活用をご検討中のお客様の参考になれば幸いです。AWS による音声データ活用、生成 AI 活用、AI コーディングエージェントを用いた高速開発にご興味をお持ちの方は、お気軽にご相談ください。 アサイクル株式会社(左から): 打越 隆志 様、代表取締役社長 浅井 亨介 様、谷川 祐一 様、銭谷 武 様、佐竹 智樹 様 Amazon Web Services Japan : アカウントマネージャー 植木 輝(左端) ソリューションアーキテクト 森 瞭輔(右端) ソリューションアーキテクト 森
アバター
データベース監視は、堅牢で信頼性の高いアプリケーションを維持するための重要な側面です。 Amazon RDS for SQL Server インスタンスの効果的な監視により、チームは最適なデータベースパフォーマンスを維持し、シームレスな運用を確保できます。モダンな監視ソリューションは、データベース管理者、開発者、運用チームがデータベース環境を管理する方法を革新し、プロアクティブな問題検出と迅速な対応機能を可能にしています。これらの進歩は、システムの信頼性向上、メンテナンスワークフローの合理化、複数のデータベースインスタンス全体でのリソース使用率の最適化という魅力的な機会を提供します。これまでチームは手動でのログチェックや断片化された監視ツールという課題に直面してきましたが、今日の自動化されたリアルタイム通知システムは、応答時間を大幅に短縮し、システムダウンタイムを最小限に抑える革新的なデータベース管理アプローチを提供します。 この投稿では、AWS ネイティブサービスと Slack 統合を使用して、Amazon RDS for SQL Server の効率的なサーバーレス監視システムを構築する方法を示します。 ソリューション概要 このソリューションは、Amazon RDS for SQL Server、 Amazon CloudWatch 、 AWS Lambda 、および Slack サービスを統合することで、データベース監視に対する効率的でサーバーレスなアプローチを提示します。これらの AWS サービスと Slack のコミュニケーションプラットフォームを使用することで、データベースの問題についてチームに自動的にアラートを送信する合理化された通知システムを構築します。このアーキテクチャは手動監視の必要性を排除し、データベースの健全性に対するリアルタイムの可視性を提供します。 処理するには、エラーが検出されたときに自動的にトリガーされる Lambda 関数を実装します。Lambda 関数は、ログデータをデコードして読みやすいメッセージにフォーマットするために必要な権限と依存関係で構成されています。これらのメッセージは最初に Amazon DynamoDB テーブルに保存され、その後セキュアな Webhook 統合を通じて指定された Slack チャンネルに配信され、データベース管理者とサポートチームへの即座の通知を可能にします。 このサーバーレスアーキテクチャは、潜在的な問題の迅速な通知をしながら、最小限のメンテナンスでリアルタイムデータベース監視を行うコスト効率に優れたスケーラブルなソリューションを提供します。エラーの発生から Slack 通知までの全プロセスは通常数秒以内に完了し、データベース問題への迅速な対応とシステム信頼性の向上を可能にします。 以下の図は、ソリューションのアーキテクチャを示しています。 DynamoDB のアイテムは 48 時間後 (設定可能) に自動的に削除されます。これにより、ストレージ料金を削減してコストを最適化し、テーブルを軽量に保つことでクエリパフォーマンスを向上させ、古いデータの自動クリーンアップによってより良いデータ管理を提供します。また、同じエラーメッセージが 15 分間 (設定可能) のウィンドウ内で複数回発生した場合、最初のインスタンスのみが Slack に送信されます。これにより通知スパムを防ぎ、運用の明確性を維持するのに役立ちます。 通知プロセスは、Amazon RDS for SQL Server がエラーログを生成し、 CloudWatch ロググループ に公開した時点で開始されます。新しいログが到着すると、 CloudWatch サブスクリプションフィルター がこれらのエントリを継続的に監視し、事前定義されたエラーパターンと照合します。一致するエラーパターンが検出されると、フィルターは自動的に Lambda 関数をトリガーします。Lambda 関数は、まず CloudWatch からデータをデコードして解凍しログエントリを処理します。タイムスタンプ、ロググループの詳細、実際のエラーメッセージなどの重要な情報を抽出し、DynamoDB に保存します。処理後、Lambda 関数はこの情報を読みやすいメッセージにフォーマットし、安全な Webhook URL を通じて指定された Slack チャンネルに送信します。チームメンバーは、RDS インスタンスで元のエラーが発生してから数秒以内にこれらの通知を受け取ります。この合理化されたアプローチにより、データベース管理者とサポートチームが潜在的な問題を迅速に特定して対応できるようになり、最適なデータベースのパフォーマンスと信頼性を維持できます。 このソリューションを実装する主要なステップは以下のように要約できます: RDS for SQL Server のエラーログを CloudWatch ログループに公開する CloudWatch ログを処理する Lambda 関数を作成・設定する エラーを監視するための Lambda サブスクリプションフィルターを設定する Slack チャンネルを作成し、受信 Webhook を設定する Slack 通知用の Webhook URL で Lambda 環境を設定する 前提条件 このソリューションを実装するには、RDS for SQL Server インスタンスが既に設定され稼働しているアクティブな AWS アカウントが必要です。CloudWatch、Lambda、 AWS Identity and Access Management (IAM) を含む AWS サービスにアクセスして設定できる十分な権限を持っている必要があります。これには、Lambda 関数の作成と変更、CloudWatch ログループの管理、IAM ロールとポリシーの作成、RDS インスタンス設定の変更を行う機能が含まれます。 Slack 統合では、チャンネルを作成し Webhook 統合を設定できる Slack ワークスペースへの管理者アクセスが必要です。これらの権限は、受信 Webhook の設定とチーム向けの通知チャンネルの設定を行うために不可欠です。 RDS デプロイメントタイプ (シングル AZ またはマルチ AZ) の選択は、このソリューションにおける最大のコスト要因となる可能性があるので注意が必要です。続行する前に、 Amazon RDS 、 CloudWatch 、および AWS Lambda の料金ページを確認し、このソリューションを実装することのコストへの影響を理解することをお勧めします。 RDS ログの CloudWatch へのエクスポートを設定 最初に、エラーログを CloudWatch にエクスポートするために RDS for SQL Server インスタンスを設定する必要があります。この設定により、一元的なログ保存が可能になり、通知システムの基盤が構築されます。RDS for SQL Server のエラーログを CloudWatch に公開するには、DB インスタンスを変更する必要があります。以下の手順を完了してください: Amazon RDS コンソールのナビゲーションペインで、「データベース」を選択します 変更したい DB インスタンスを選択します 「変更」を選択します 「ログのエクスポート」セクションで、CloudWatch への公開を開始したいログを選択します。この投稿では、「エラーログ」を選択し、「続行」をクリックします 確認ページで変更内容を確認し、変更を即座に適用するには「すぐに適用」を選択します。変更を保存するには「DB インスタンスを変更」を選択します。または、変更を修正するには「戻る」を選択し、変更をキャンセルするには「キャンセル」を選択します これで、リアルタイム Slack 通知を使用した CloudWatch ログ処理フローをセットアップする準備が整いました。 Slack チャンネルの受信 Webhook を作成 通知システムの次のステップでは、アラートの送信先を設定します。Lambda 関数がフォーマットされたメッセージを送信できる安全な URL エンドポイントを提供する Slack webhook を作成します。これにより、指定された Slack チャンネルにエラー通知を自動投稿でき、チームメンバーが問題を監視し対応できるようになります。以下の手順を完了してください : Slack ワークスペースを開きます ワークスペース設定に移動します アプリと連携を選択します Incoming Webhooks を検索します Slack に追加を選択します 通知用のチャンネルを選択します Webhook URL をコピーします – 次のステップで必要になります Lambda 関数を作成し、関連リソースを設定 このステップでは、CloudWatch ログを処理するコアとなるサーバーレス Lambda 関数を作成します。Lambda 関数は Python で記述され、CloudWatch ログデータをデコードし、関連するエラー情報を抽出し、Slack 通知用にフォーマットするロジックが含まれています。この関数は、監視ソリューションの中央処理装置として機能します。Lambda 関数を作成するために、以下の手順を完了してください : GitHub からプロジェクトリポジトリ をクローンまたはダウンロードしてローカルマシンに保存します ターミナルでプロジェクトのルートディレクトリに移動します 前提条件が満たされていることを確認します AWS CLI がインストールされ、適切な権限が設定されていること Python 3.12 がローカルにインストールされていること (デプロイメントスクリプトが独立した仮想環境を作成します)。システムに Python 3.12 をインストールする方法については、README.md を参照してください。 zip ユーティリティが利用可能であること IAM、Lambda、DynamoDB に対する適切な AWS 権限 (README.md ファイルの前提条件セクションを参照) 自動デプロイメントスクリプトを実行します : ./scripts/deploy.sh プロンプトが表示されたら、前のステップで作成した Slack Webhook URL を入力してください スクリプトは自動的に以下を実行します : システムに Python 3.12 がインストールされていることを確認する 分離された Python 3.12 仮想環境を作成する 依存関係の分離のために仮想環境をアクティベートする 分離された環境に urllib3 をインストールする DynamoDB アクセス許可を持つ IAM ポリシー (SlackNotifierLambdaPolicy) を作成する 適切な信頼関係を持つ IAM ロール (SlackNotifierLambdaRole) を作成する Python 3.12 を使用して urllib3 Lambda レイヤーをビルドして公開する Lambda 関数 (SlackNotifier) をパッケージ化してデプロイする Slack Webhook URL を含む環境変数を設定する urllib3 レイヤーを関数にアタッチする 一時ファイルをクリーンアップする 仮想環境を非アクティブ化する 免責事項 : このプロセスの一部として作成された IAM ポリシー (SlackNotifierLambdaPolicy) は、一般的なガイドラインとしてのみ機能します。お客様の特定の要件とコンプライアンス基準に従って、すべてのセキュリティ対策を確認、カスタマイズ、および検証する必要があります。AWS のベストプラクティスでは、ユーザーがタスクを実行するために必要な最小限の権限のみを付与する最小権限の原則の実装を強く推奨しています。 AWS IAM ドキュメント で詳述されているこのコアセキュリティ概念は、潜在的なセキュリティリスクを最小限に抑えるのに役立ちます。 CloudWatch ログループの Lambda サブスクリプションフィルターの作成 サブスクリプションフィルターはトリガーメカニズムとして機能し、どのログエントリを Lambda 関数に送信すべきかを定義します。CloudWatch ロググループ内の特定のエラーパターンを監視するように設定し、関連するログのみが処理され、不要な関数呼び出しが回避されるようにします。先ほど作成した Lambda 関数を使用して Lambda サブスクリプションフィルターを作成するには、以下の手順を完了してください: CloudWatch コンソールで、ナビゲーションペインの「ロググループ」を選択します SQL Server ロググループを選択します 「アクション」メニューで「サブスクリプションフィルター」を選択し、「Lambda サブスクリプションフィルターの作成」を選択します Choose destination セクションのドロップダウンから Lambda 関数 (SlackNotifier) を選択してください Configure log format and filters の下で、以下の Subscription filter pattern を入力してください : ?ERROR ?EXCEPTION ?FAILURE ?CRITICAL? FATAL ?error ?exception ?fail ?severity ?deadlock ?timeout ?terminated ?violation ?denied ?insufficient ?overflow ?syntax ?invalid ?unable ?cannot ?failed ?corrupt ?inconsistent "Error: 18456" "Error: 17806" "Error: 233" "Error: 1205" "Error: 3041" "Error: 8152" ?error ?Error ?Failed ?failed ?Severity ?severity Code サブスクリプションフィルターに名前を付けてください。この投稿では、Error Subscription Filter を使用します (オプション) テストパターンセクションでこの設定をテストできます。「テストするログデータを選択」ドロップダウンからデータベースを選択し、「パターンをテスト」をクリックしてください。結果セクションでフィルターパターンに一致するログが表示されるはずです 「ストリーミングを開始」をクリックしてください これで、すべてのデータベースエラーログが処理され、CloudWatch ログストリームを通じてアクセス可能になります この最終ステップにより、Amazon RDS for SQL Server の自動監視ソリューションの実装が完了しました。これで、システムはSQL Server エラーをキャプチャし、Slack チャンネルに通知を送信する準備が整いました。Lambda 関数は Webhook URL を使用して Slack と安全に通信し、データベースエラーが発生した際、チームに即座に通知を送信します。これらの通知には、エラーメッセージ、タイムスタンプ、コンテキストの詳細などの重要な情報が含まれており、チームが潜在的な問題を迅速に評価し対応できるようになります。システムはバックグラウンドで継続的に動作し、データベースログの監視に手動での介入は必要ありません。 ソリューションの検証 実装が意図したとおりに動作していることを確認するために、簡単な検証テストを実行できます: SQL Server Management Studio (SSMS) を使用して RDS for SQL Server インスタンスに接続します。次のスクリーンショットに示すように、データベース SlackNotifications を使用します。 デモンストレーション目的で RAISERROR WITH LOG オプションを使用してエラーメッセージを作成します << RAISERROR('This error has been raised using RAISERROR', 16, 1) WITH LOG; >> Code 先ほど言及されたエラーについて、SQL Server エラーログを確認してください << EXEC rdsadmin.dbo.rds_read_error_log @index = 0, @type = 1, @search_str1= 'This error has been'; >> Code RDS for SQL Server のエラーログを CloudWatch に公開したので、次のステップはエラーが CloudWatch にエクスポートされているかどうかを確認することです。 CloudWatchコンソールで、ナビゲーションペインの「ログ」の下にある「ロググループ」を選択します DB インスタンスの RDS for SQL Server エラーログを選択します (この投稿では、 /aws/rds/instance/<<your db instance>>/error ) 「ログストリーム」タブで、データベースが実行されているアクティブノードを選択します (これは特定の環境によって異なる場合があります) タイムスタンプとともにエラーメッセージを確認できます。 数秒以内に、設定された Slack チャンネルにこのテストエラーが通知として表示されるはずです。以下のような感じです: CloudWatch Logs を確認して RDS ログが正常にエクスポートされ、Lambda 関数がこれらのログを正しく処理していることを確認することで、システムの動作を検証することもできます。 考慮事項 このソリューションを実装する際は、最適なパフォーマンスとコスト効率を実現するために、いくつかの重要な点に注意することが大切です: RDS for SQL Server エラーログを CloudWatch に公開する前に、機密情報を保護するためのカスタムマスキングロジックを実装してください。これらのログには機密データが含まれている可能性があるため、特定のビジネス要件に基づいてこのアプローチを評価してください。 デフォルトの「期限切れなし」設定はストレージコストを増加させる可能性があるため、要件に基づいて CloudWatch Logs の保持期間を設定してください。 セキュリティのため、Lambda 実行ロールが最小権限の原則に従っていることを確認し、Slack の Webhook URL などの機密情報を Lambda 環境変数で表示したくない場合は、AWS Systems Manager Parameter Store または Secrets Manager に保存してください。 CloudWatch メトリクスを通じて Lambda 関数のパフォーマンスとエラーを定期的に監視 してください。 これはサンプル実装ですが、本番環境での信頼性を確保するために、Lambda 関数に適切なエラーハンドリングを追加することを確認してください。 この実装は、最小権限を持つ IAM ロール、機密情報のための環境変数、依存関係管理のための Lambda レイヤーを使用して、セキュリティとスケーラビリティのための AWS ベストプラクティスに従っています。このアプローチは、信頼性の高い監視を提供するだけでなく、ニーズに応じて自動的にスケールするサーバーレスコンポーネントを使用することでコスト効率性も維持します。このソリューションは、複数のデータベースインスタンスを監視するように適応したり、追加のエラーパターンや通知形式を含むように変更したりできます。 クリーンアップ 不要な料金の発生を避け、AWS の環境をクリーンに保つために、以下の手順に従ってこのソリューションで作成されたリソースを削除します : DB インスタンスの削除 Lambda リソースを削除する : 自動化されたアンデプロイスクリプトを実行する : ./scripts/undeploy.sh CloudWatch リソースを削除する : CloudWatch ロググループからサブスクリプションフィルターを削除する 不要になった場合は、CloudWatch への RDS エラーログエクスポートを無効にする CloudWatch ロググループに保存されているログが不要になった場合は、削除を検討する Slack のクリーンアップ : Slack チャンネルから Incoming Webhook インテグレーションを削除する この目的のために専用に作成された通知チャンネルがある場合は、アーカイブまたは削除する 結論 この投稿では、AWS ネイティブサービスと Slack 統合を使用して、Amazon RDS for SQL Server 向けの効率的でサーバーレスなリアルタイム監視システムを構築する方法を紹介しました。エラー通知プロセスを自動化することで、チームはデータベースの問題への対応時間を大幅に短縮し、アプリケーションへの潜在的な影響を最小限に抑えることができます。最も重要なことは、この自動通知システムが従来のデータベース監視アプローチをリアクティブなものからプロアクティブなものに変革することです。チームはもはやログを手動でチェックしたり、重要なデータベースエラーを見逃すことを心配したりする必要がありません。リアルタイム Slack 通知により、チームは問題の検出ではなく解決に集中でき、最終的にデータベースの信頼性向上と運用オーバーヘッドの削減につながります。 翻訳はソリューションアーキテクトの Yoshinori Sawada が担当しました。原文は こちら です。 著者について Sandip Samanta Sandip は AWS インドのテクニカルアカウントマネージャーで、エンタープライズのお客様の AWS クラウドジャーニーの加速を支援しています。クラウドアーキテクチャとソリューション設計における豊富な経験を持ち、技術的ガイダンスとアーキテクチャのベストプラクティスを通じてお客様が AWS への投資を最大化できるよう支援することに注力しています。 Kanchan Bhattacharyya Kanchan は、AWS のシニアテクニカルアカウントマネージャーです。彼は企業のデータベース運用の最適化を専門としています。SQL Server、PostgreSQL、MySQL、Amazon Aurora を含む Amazon RDS プラットフォーム全体にわたる深い専門知識を活用し、組織がクラウド投資を最大化できるよう戦略的ガイダンスを提供しています。
アバター
こんにちは、Amazon Connect ソリューションアーキテクトの梅田です。 2025 年 9 月のアップデートまとめ はお読みいただけましたでしょうか。今月も 以下の内容でアップデート 情報をお届けします。皆さんのお役に立つ内容があれば幸いです! 注目のアップデートについて 2025 年 10月のアップデート一覧 AWS Contact Center Blog のご紹介 AWS Black Belt オンラインセミナー (Amazon Connect 関連) 1.注目のアップデートについて Amazon Connect で生成 AI を活用したメールの会話の概要と推奨応答を提供 Amazon Connect で、生成 AI を活用したメール会話の概要、推奨アクション、メール会話への応答(下書き)がエージェントに提供されるようになりました。これにより、エージェントはメールをより効率的に処理できるようになり、顧客はより迅速で一貫したサポートを受けることができます。例えば、顧客から返金リクエストのメールを受信すると、Amazon Connectは購入履歴から重要情報を提供し、返金処理の手順をガイドしながら、適切な返信メールを自動生成することで、問い合わせを迅速に解決します。 この機能を有効にするには、メールによる問い合わせをエージェントに割り当てる前に、 Amazon Q in Connect ブロック をフローに追加します。 ナレッジベース を追加して プロンプトを定義 することで、メールの生成 AI を活用したアシスタントの出力をカスタマイズできます。これにより、一貫したカスタマーサービスを提供するために、会社の言語、口調、ポリシーに合った応答を AI エージェントに生成させることができます。 Amazon Q in Connect はユースケースに応じた AI エージェントと AI プロンプトを提供します。今回、E メール 用に新たに3つの AI エージェントと4つの AI プロンプトが追加されました。これらを使用して、Amazon Q in Connect はお客様から受信した問い合わせ E メールに対して、「メール会話の概要」「関連するナレッジベースと推奨アクション」「メール会話への応答(下書き)」を提供します。 本機能の利用を開始するには、上述した AI プロンプトと それらを使用した AI エージェントを設定してください。日本語に対応した AI エージェントを設定する際は、AI エージェントの設定画面のロケールで「Japanese」を指定します。 設定の詳細については以下の Amazon Connect 管理者ガイドをご参照ください E メールの概要と推奨されるレスポンスを使用する AI プロンプトを作成する AI エージェントを作成する 2. 2025年10月のアップデート一覧 Amazon Connect が会話の録音とトランスクリプトに対する詳細なアクセス許可の提供を開始 – 2025/10/24 Amazon Connect で、会話の録音データと文字起こしデータへのアクセス権限を、UI を通じてより詳細に設定できるようになりました。この新機能により、管理者はより柔軟でセキュアなアクセス制御を実現できます。コンタクトセンターの管理者は、録音データと文字起こしデータへのアクセス権限を個別に設定できるようになりました。例えば、ユーザーが通話を聞くことはできても、文字起こしデータの不正なコピーを防止するといった制御が可能です。システムは、ダウンロード制御の柔軟性も向上しています。編集済み(機密情報などがマスキング処理された)録音データのダウンロールは許可しつつ、未編集版のダウンロードは制限するといった設定が可能です。さらに、管理者は機密性の高い会話については編集済みの録音データへのアクセスのみを許可し、その他の一般的な会話については未編集の録音データへのアクセスを許可するなど、より高度な権限設定のシナリオを作成することができます。このアップデートにより、セキュリティとコンプライアンスの要件に応じた、より緻密なアクセス制御が可能になり、コンタクトセンターの運用における安全性と効率性が大幅に向上します。  関連リンク 管理者ガイド Amazon Connectのアウトバウンドキャンペーンがプレビューダイヤリングに対応し、エージェントの制御性を向上 – 2025/10/24 Amazon Connect のアウトバウンドキャンペーン機能に、通話開始前に顧客情報を確認できるプレビューダイヤルモードが追加されました。この機能により、エージェントは発信前に顧客の名前、アカウント残高、過去のやり取りなどの重要な情報を確認し、最適なタイミングで発信することができるようになりました。また、キャンペーンマネージャーはプレビュー設定をカスタマイズし、エージェントの行動、キャンペーン結果、顧客エンゲージメントの傾向を新しいダッシュボードで監視できるようになっています。この機能が重要である背景として、適切な情報がないまま電話をすることにより、エージェントは顧客に応じた対応に苦労し、結果として顧客の信頼や満足度の低下に繋がります。さらに、米国電話消費者保護法(TCPA)や英国通信庁(OFCOM)の規制により、顧客とエージェントの接続の遅延に対して厳しい罰則が科される可能性があることも考慮されています。新しいプレビューダイヤリング機能では、マネージャーは確認時間の制限を設定し、必要に応じてキャンペーンからのコンタクトの削除を有効にできます。エージェントは顧客データとともにカウントダウンタイマーを確認でき、任意のタイミングで発信が可能です。また、平均プレビュー時間や破棄数などの分析データにより、戦略の最適化とチームの効果的な指導を行うことができます。発信前にエージェントを確保することで、規制遵守をサポートしながら、アウトバウンドコールの精度を向上させることができます。これにより、顧客との接続性と運用管理の両方が改善され、より効果的なアウトバウンドキャンペーンの実施が可能になります。  関連リンク 管理者ガイド Amazon Connect がスレッド表示に対応し、エージェントの返信に会話履歴が含まれるように   – 2025/10/23 Amazon Connect の E メール に、会話の文脈を理解しやすくする新機能が追加されました。エージェントの返信に過去のやり取りの履歴が自動的に含まれるようになり、さらにメールのやり取りをスレッド形式で表示できるようになりました。この機能強化により、エージェントと顧客の双方が過去のコミュニケーション内容を簡単に確認できるようになり、会話の流れや文脈を把握しやすくなりました。これは一般的なメールクライアントでよく見られる機能を取り入れたもので、エージェントと顧客の両者にとって、より自然で使い慣れた形でのメールコミュニケーションが可能になります。このアップデートは、顧客とエージェント間のコミュニケーションをよりスムーズにし、サービス品質の向上に貢献することが期待されます。 関連リンク 管理者ガイド Amazon Connect が初期評価結果に基づく自動フォローアップ評価のサポートを開始 – 2025/10/21 Amazon Connect に、新しい自動フォローアップ評価機能が追加されました。この機能により、初回の評価結果に基づいて、特定の状況を分析するためのフォローアップ評価を自動的に開始することが可能になります。例えば、顧客サービスの初回評価において顧客が商品に対して興味を示していることが検出された場合、システムは自動的にエージェントの営業パフォーマンスに焦点を当てたフォローアップ評価を開始することができます。これにより、マネージャーはエージェントグループ間で一貫した評価基準を維持しながら、時間の経過に関係なく評価の質を保つことができます。さらに、営業機会やエスカレーション、その他の重要なやり取りなど、特定のシナリオについてより深いインサイトを得ることが可能になりました。このような自動化された評価プロセスにより、品質管理の効率化とサービス品質の向上が実現できます。 関連リンク 管理者ガイド Amazon Connect がスケジュール遵守に関する設定可能なしきい値を提供開始 -2025/10/14 Amazon Connect で、スケジュール遵守に関する設定可能なしきい値の提供が開始され、エージェントのパフォーマンスをより柔軟に追跡できるようになりました。エージェントのシフト開始または終了の繰り上げと繰り下げや、個々のアクティビティのしきい値を定義できます。例えば、エージェントがシフト開始を 5 分繰り上げ、終了を 10 分繰り下げ、休憩の終了を 3 分繰り下げても、遵守スコアに悪影響が及ばないようにできます。これらのしきい値は、個々のチームに合わせてさらにカスタマイズできます。例えば、対応に長い時間を要する問い合わせを処理するチームは休憩の開始時間をより柔軟に設定できます。今回のリリースにより、マネージャーは本当の遵守違反に目を向け、軽微なスケジュール逸脱がエージェントのパフォーマンスに及ぼす影響を除外できるようになり、マネージャーの生産性とエージェントの満足度が向上します。  関連リンク 管理者ガイド Amazon Connect がエージェントスケジュール準拠の通知をサポート -2025/10/11 Amazon Connect では、エージェントのスケジュール準拠通知がサポートされるようになりました。これにより、エージェントがスケジュールされたアクティビティを順守していないことを積極的に特定することが簡単になります。エージェントが準拠基準値を超えたときに、EventBridge 経由でメールまたはテキスト通知をスーパーバイザーに自動的に送信するルールを定義できます。たとえば、エージェントの準拠率が直近の 15 分間で 85% を下回った場合、スーパーバイザーはメールでアラートを受信できます。これらの自動通知により、ダッシュボードを継続的にモニタリングする必要がなくなり、サービスレベルが低下する前に積極的な介入が可能になり、スーパーバイザーの生産性と顧客満足度の両方が向上します。 関連リンク 管理者ガイド Amazon Connect でエージェントのスケジュール設定のコピーと一括編集をサポート -2025/10/10 Amazon Connect では、エージェントのスケジュール設定のコピーと一括編集がサポートされるようになり、設定と管理が容易になりました。既存のスケジュール設定をコピーして新しいスケジュール設定を作成できます。たとえば、平日のシフトプロファイルをコピーして週末のバリエーションを作成したり、既存のエージェントのスケジュール設定 (タイムゾーン、週ごとの勤務時間、休日など) を既存のエージェントから複数の新入社員にコピーしたりできます。一括編集では、週ごとの勤務時間を変更せずに、新入社員のタイムゾーンや開始日を更新するなど、特定の項目を選択して更新できます。このような更新により、管理者が構成管理に費やす時間が短縮され、生産性と運用効率が向上します。 関連リンク 管理者ガイド Amazon Connect で、関連ケースをリンクし、カスタム関連項目を追加し、それらを検索するための新しいケース API をリリース -2025/10/07 Amazon Connect では、関連するケースをリンクしたり、カスタム関連項目を添付したり、それらを検索したりして、ケースデータをプログラムで拡充できるようになりました。これにより、エージェントは問題をより迅速に解決するために必要なすべてのコンテキストを把握できます。例えば、航空会社は 1 件のフライトキャンセルに関連するすべての顧客ケースをリンクして再予約を調整し、事前に最新情報を送信できます。また、小売業者は注文と配送の詳細を返金リクエストに添付して、より迅速な解決を実現し、顧客に常に情報を提供できます。 関連リンク API リファレンス Amazon Connect でサービスレベルの計算がカスタマイズ可能に -2025/10/06 Amazon Connect では、特定のニーズに合わせてサービスレベルの計算をカスタマイズできるようになりました。スーパーバイザーとマネージャーは、問い合わせがサービスレベル基準を満たしていると見なされる時間しきい値を定義し、どの問い合わせの結果を計算に含めるかを選択できます。例えばマネージャーは、設定可能な時間しきい値を使用して、コールバック問い合わせの数を数えたり、キューで待機している間に転送された問い合わせを除外したり、短期間の離脱を除外したりすることができます。サービスレベルの計算のカスタマイズは、分析ダッシュボードのメトリクス設定セクションから実行できます。この機能により、スーパーバイザーとマネージャーは、事業運営により合致したサービスレベルメトリクスの計算を作成できるようになりました。サービスレベルのパフォーマンスをカスタマイズして表示することで、運用マネージャーはサービス基準をどの程度効果的に満たしているかを評価できます。 関連リンク 管理者ガイド Amazon Connect で生成 AI を活用したメールの会話の概要と推奨応答を提供 -2025/10/03 注目アップデート をご覧ください! Amazon Connect で ChromeOS でのエージェント画面録画のサポートを開始 -2025/10/03 Amazon Connect では、ChromeOS デバイスを使用するエージェントに対して画面録画機能が提供されるようになり、エージェントのパフォーマンスを簡単に向上させることができるようになりました。画面録画を使用すると、顧客との通話を聞いたり、チャットの文字起こしを確認したりするだけでなく、問い合わせを処理する際のエージェントのアクション (音声通話、チャット、タスクなど) を監視することで、エージェントにコーチングが必要な領域 (例: 対応の処理時間が長い、ビジネスプロセスの違反など) を特定できます。 関連リンク 管理者ガイド Amazon Connect 料金 Amazon Connect が分析データレイクでエージェントの休暇残数データを提供 -2025/10/03 Amazon Connect が分析データレイク* でエージェントの休暇残数データを提供するようになり、このデータからレポートやインサイトを簡単に生成できるようになりました。このリリースにより、分析データレイクのさまざまな休暇カテゴリ (有給休暇、病気休暇、休業など) にわたる最新および過去のエージェントの休暇残数にアクセスできるようになりました。残数に加えて、残数に影響を与えたすべてのトランザクションの時系列リストを表示することもできます。例えば、エージェントが 1 月 1 日に 80 時間の有給休暇を付与されて勤務を開始し、1 月 3 日に 20 時間の休暇をリクエストを送信したが、その後そのリクエストをキャンセルした場合、各トランザクションによる最終的な 80 時間の残数に対する影響を確認できます。このリリースにより、マネージャーが手動で残数と休暇トランザクションを調整する必要がなくなり、休暇管理が容易になります。これにより、マネージャーの生産性が向上し、エージェントからの問い合わせへの対応が容易になります。 * Amazon Connect 分析データレイク Amazon Connect 分析データレイク は、コンタクトセンターのデータ分析を効率化し、より深いインサイトを得るための機能です。最大の特徴は、複雑なデータパイプラインを構築することなく、Amazon Connect の運用データに直接アクセスできる点にあります。データレイクに蓄積されるデータは、通話記録やチャットトランスクリプト、エージェントのパフォーマンス指標、キューの状態、顧客とのインタラクション履歴など、コンタクトセンター運営に関わる包括的な情報が含まれています。これらのデータはすべて構造化された形式で保存され、Amazon Athena を使用して標準的な SQL クエリで簡単に分析することができます。さらに、BI ツールと統合し、カスタムレポートやダッシュボードの作成も容易です。これにより、データアナリストやビジネスユーザーは、必要な情報にすぐにアクセスし、データドリブンな意思決定を行うことができます。また、AWS の分析サービスと組み合わせることで、より高度な分析も可能となります。 関連リンク 管理者ガイド Amazon Connect で発信通話における顧客入力を簡単に取得   -2025/10/02 AWS のクラウドベースのコンタクトセンターサービスである Amazon Connect で、発信音声ウィスパーフロー用に [顧客の入力を取得する] および [顧客の入力を保存する] フローブロックがサポートされるようになりました。[顧客の入力を取得する] フローブロックを使用すると、顧客が発信通話に応答した後、エージェントに接続される前に、発信通話で顧客にプロンプトを再生できます。また、顧客の応答は DTMF 入力または Amazon Lex Bot を介して収集できます。 この機能により、エージェントへの接続前に、発信通話でインタラクティブかつ動的な顧客入力をキャプチャできます。例えば、[顧客の入力を取得する] フローブロックを使用して、エージェントによる発信通話の一部としての通話録音について顧客の同意を得て、それを使用して Amazon Connect Contact Lens の録音と分析をトリガーできます。 関連リンク 管理者ガイド( 顧客の入力を取得する / 顧客の入力を保存する ) 3. AWS Contact Center Blog のご紹介 AWS re:Invent 2025: Reimagining customer experience with Amazon Connect (英語記事) AWS re:Invent 2025が12月1日から5日にかけてラスベガスで開催されることが発表されました。今年のAmazon Connect セッションでは、AI が大きな変革を遂げた一年を経て、インテリジェントな顧客体験の未来について深く探求します。基調講演やブレイクアウトセッション、実践的な学習を通じて、企業がエージェンティックAIを活用して卓越した顧客体験を実現しながら、運用効率を向上させている事例を紹介します。特に注目のセッションとして、Amazon Connect 部門の VP である Pasquale DeMaio による「BIZ221:Amazon Connect による顧客体験におけるエージェンティック AI の進歩」が予定されており、AI を活用したカスタマーサービスの革新的な取り組みについて解説されます。また、12月2日には Cromwell の Giada にて顧客体験レセプションが開催され、AWS エキスパートや CX(カスタマーエクスペリエンス)リーダーとの交流の機会も提供されます。 4. AWS Black Belt オンラインセミナー (Amazon Connect 関連) Amazon Connect Global Resiliency 詳説 Amazon Connect Global Resiliency は Amazon Connect に地理的な冗長性を提供します。予期しない地域的な災害や障害が発生した場合にも、お問い合わせとエージェント接続を別のリージョンにあるインスタンスに分散する柔軟なソリューションを提供します。Amazon Connect が備えている信頼性を理解したい方、コンタクトセンターにおける BCP の設計に関心のある方、Amazon Connect Global Resiliency の具体的な機能が知りたい方は、ぜひご視聴ください。 資料( PDF ) | 動画( YouTube ) 今月のお知らせは以上です。皆さまのコンタクトセンター改革のヒントになりそうな内容はありましたでしょうか?ぜひ、実際にお試しいただき、フィードバックをお聞かせいただけますと幸いです。 シニア Amazon Connect ソリューションアーキテクト 梅田 裕義
アバター
本記事は、2025 年 10 月 23 日に公開された How D2L transformed educational analytics using visual data preparation in Amazon Quick Sight を翻訳したものです。翻訳は Public Sector PSA の西川継延が担当しました。 この投稿は、D2L の Surekha Rao と Andrew Wooster が共同で執筆しました。 D2L では、世界の学習方法を変革することをミッションとしています。グローバルな学習イノベーションのリーダーとして、世界中の教育機関と緊密に連携し、学習をより刺激的で、魅力的で、人間的なものにしています。当社の主力学習管理システム(LMS)である D2L Brightspace は、数え切れないほどの教育体験の基盤として機能し、教育と学習成果の有意義な改善を推進できる貴重なデータを生成しています。 当社の Performance+ analytics suite は、教育者や管理者がエンゲージメントを監視し、リスクのある学習者を特定し、アセスメントやコース設計の有効性を評価できるように設計されています。直感的なダッシュボードと予測分析により、学習者へのタイムリーな介入とパーソナライズされたサポートを可能にします。しかし、学習エコシステムが拡大するにつれて、学習者のエンゲージメント指標、コースのパフォーマンス、機関の KPI など、管理する必要のあるデータの量と複雑さも増大しました。 この投稿では、D2L が Amazon Quick Sight の新しいデータ準備機能を使用して、Performance +パッケージの Brightspace Analytics 製品を強化した方法を紹介します。この進歩により、教育機関全体でデータインサイトが民主化されます。教育者や管理者は、技術的な専門知識を必要とせず、シンプルなクリック操作で生データを実用的なインサイトに変換できるようになります。 課題: ユーザビリティを維持しながら分析をスケールする ユーザーベースが拡大するにつれて、パフォーマンスや使いやすさを損なうことなく、分析機能をスケールさせるプレッシャーが高まりました。教育機関は厳しい予算制約の下で運営されることが多く、専任のデータサイエンスチームを持たない機関も少なくありません。私たちは、コスト効率が高く予測可能でありながら、さまざまなスキルレベルでデータインサイトを民主化できるソリューションが必要でした。Quick Sight を採用する前は、分析を効果的にスケールさせる能力を制限するいくつかの技術的課題に直面していました。 手頃な価格とコストの予測可能性 – 以前使用していたツールの多くは、ユーザー数やコンピューティング使用量に紐づく複雑な価格モデルを採用していました。これにより、コストの予測が困難になり、持続可能な方法で顧客に分析機能を提供することが難しくなっていました。リソースが限られている教育機関にとって、この予測不可能性は導入の大きな障壁となっていました。 リージョンの可用性とデータレジデンシー – 世界中の教育機関にサービスを提供しているため、マルチリージョンデプロイメントをサポートし、進化するデータレジデンシー要件に対応できるソリューションが必要でした。以前のツールには、データ主権の懸念に対処するために必要な柔軟性がなく、地理的に分散したリージョンのユーザーにサービスを提供する際にレイテンシーの問題が発生していました。 インサイトへの技術的障壁 – おそらく最も重要なことは、従来のデータ準備ツールでは SQL やプログラミングの専門スキルが必要とされることが多かったことです。これにより、教育者や管理者がインサイトにアクセスする前に、技術チームがデータを準備および変更する必要があったため、分析プロセスにボトルネックが生じていました。 ソリューション概要 新しい Quick Sight のデータ準備体験は、教育分析へのアプローチに⾰命をもたらしました。データ変換に GUI ベースのローコードなインターフェースを提供することで、技術的な障壁が取り除かれ、あらゆるスキルレベルのユーザーがデータを直接扱えるようになりました。 強化されたデータ準備機能により、Aggregate、Filter、Pivot、Unpivot、Append の各変換がサポートされるようになりました (更新されたナビゲーションペインのスクリーンショットに示されています)。これらはすべて、GUI ベースのローコードインターフェースを通じて利用できます。これらの機能がデータ準備プロセスを大幅に効率化しました。 教育機関では、教育者や管理者が以下のことを行えるようになりました。 データへのアクセスと変換を独立して実行 – 教職員は、SQL やプログラミングの知識を必要とせずに、データのクリーニング、変更、結合を行うことができます。これにより、技術チームへの依存が減り、より多くの人がデータを直接扱えるようになり、より迅速なインサイトの獲得とより機敏な意思決定につながります。 実用的なインサイトを迅速に生成 – ポイントアンドクリックのインターフェースとビジュアルワークフローにより、ユーザーはワークフローとダッシュボードを迅速に構築できます。これは、タイムリーな介入が学生の成功に大きな影響を与える可能性がある、ペースの速い教育環境に最適です。 部門全体で分析をスケール – 直感的なツールにより、教育機関は複雑なコーディングや Extract、Transform、Load (ETL) ツールについて全員をトレーニングする必要なく、部門全体で分析をスケールできます。このデータアクセスの民主化により、組織全体でよりデータに基づいた文化を創出できます。 リソース配分の最適化 – 専門的なデータエンジニアリングリソースの必要性を減らすことで、Quick Sight は限られた予算の教育機関にとって、分析をより手頃で予測可能なものにします。 次のワークフローは、Brightspace の生データセットが視覚的に変換され、統合された洞察に富んだデータセットになる様子を示しています。この変換により、学習者の登録情報とユーザーの人口統計情報をより深く分析できるようになり、カリキュラム計画とサポート戦略全体でデータドリブンな意思決定が可能になります。 データソースと統合 Quick Sight 実装の主な強みの 1 つは、複数のソースからデータを取得できることです。Quick Sight は、 Brightspace Learning Management System (LMS) と Data Hub の Brightspace Data Sets (BDS) と統合され、学習者のエンゲージメント、コースのパフォーマンス、インストラクターのアクティビティに関する豊富なデータを取得します。また、以下を含むさまざまな Quick Sight データソースを通じて、お客様が追加データを取り込むことをサポートしています。 1 回限りの (アドホック) 分析のためのファイルアップロード データベース接続 (MySQL、PostgreSQL、Oracle、SQL Server、 Amazon Aurora 、MariaDB) データプラットフォーム (Databricks、Spark、Teradata) クエリエンジン (Presto、Starburst、Trino) この柔軟性により、教育機関は運用の包括的なビューを作成し、学習データを他のシステムからの情報と組み合わせて、運用全体の改善を推進できます。 実世界への影響: 教育における意思決定の変革 Brightspace と統合することで、Quick Sight は教育における データに基づいた意思決定の推進力として機能します。学習分析を日常のワークフローに組み込むことで、教育者や管理者がより賢明でリアルタイムな意思決定を行い、学習成果にポジティブな影響を与えることを支援します。 たとえば、教員は学生のエンゲージメントデータのパターンを迅速に特定し、問題になる前に潜在的な課題を発見できるようになりました。教授は、学生が特定のモジュールに他のモジュールと比較して著しく少ない時間しか費やしていないことに気づけ、そのコンテンツの改訂や追加のサポートリソースが必要である可能性を示唆できます。 同様に、管理者は部門全体の組織的な KPI を追跡し、優れた領域と改善の機会を特定できます。技術チームがデータを準備するのを待つことなく、コース修了率、アセスメント結果、プラットフォーム採用トレンドを分析できます。 その影響は、運用効率以外の領域にも及びます。Quick Sight はデータインサイトへのアクセスを民主化することで、教育機関全体でエビデンスに基づく意思決定の文化を育むのに役立ちます。教員は自分でデータを探索できるようになることで、データへの関心が高まり、教育と学習に対するより革新的なアプローチにつながります。 教育エコシステム全体にわたる分析のスケーリング 現在、D2L の顧客の大部分が当社の分析ソリューションにアクセスしており、教育におけるデータの価値に対する認識が高まっていることを示しています。Performance +アドオンパッケージをご利用のお客様は、機関のニーズに応じてスケールする組み込み分析機能にアクセスできます。 このアプローチにより、予測可能なコスト構造を維持しながら、さまざまな規模の機関全体で分析をスケールすることが可能になります。リソースが限られている教育機関にとって、この予測可能性は長期的な計画と持続可能性にとって極めて重要です。 Quick Sight のローコードなデータ準備機能は、このスケーリングの取り組みにおいて特に価値がありました。技術的な障壁を取り除くことで、さまざまなスキルレベルのユーザーがインサイトにアクセスしやすくなり、教育者、管理者、ビジネスチームが日常業務でデータを活用できるようになりました。 教育分析の未来 今後を見据えて、私たちは学習成果と業務生産性能向上のため、導入の加速と分析の日常業務への組み込みに注力しています。 教育ワークフローとのより深い統合 – 分析機能を教育体験にさらに組み込むことで、データに基づいた意思決定を別の活動としてではなく、教育業務の自然な一部にすることを目指しています。 予測機能の強化 – Quick Sight の機械学習 (ML) 機能を基盤として、リスクのある学生をより高い精度で特定し、的を絞った介入を提案できる、より高度な早期警告システムの提供に取り組んでいます。 機関間ベンチマーク – プライバシーとデータガバナンスの要件を尊重しながら、機関がより広い文脈で自らのパフォーマンスを理解できるよう、匿名化されたベンチマークを提供する機会があると考えています。 セルフサービス分析の拡張 – Quick Sight のローコードアプローチを基盤として、技術者以外のユーザーが特定のニーズに合わせた独自のレポートやダッシュボードを作成できるよう、さらに支援する予定です。 まとめ D2L では、スケールし、コンプライアンスをサポートし、データへのアクセスを民主化するツールを教育機関に提供することに取り組んでいます。Brightspace と統合された Quick Sight は、その約束を実現する上で重要な役割を果たしています。 この新しいデータ準備エクスペリエンスは、教育エコシステムのすべての人々が分析にアクセスできるようにするための大きな前進を表しています。技術的な障壁を取り除き、データ変換のための直感的なツールを提供することで、Quick Sight はさまざまな規模の教育機関が、教育と学習における有意義な改善のためにデータを活用できるよう支援します。 教育機関が影響力を示し、成果を向上させるプレッシャーが高まる時代において、アクセスしやすいアナリティクスは不可欠です。Quick Sight を使用することで、技術的な専門知識や予算の制約に関係なく、さまざまなお客様に強力なデータインサイトを提供できるソリューションを提供できることを誇りに思います。 この取り組みを続ける中で、私たちは核となるミッションに集中し続けています。それは、イノベーション、エンゲージメント、データに基づいた意思決定を通じて、世界の学習方法を変革することです。AWS のようなパートナーや Quick Sight のようなサービスとともに、私たちは教育機関がこれまで想像もしなかったような成果を達成できるよう支援する能力に自信を持っています。Quick Sight が教育分析をどのように変革できるかについて詳しく知るには、以下のリソースをご覧ください。 Amazon Quick Sight の機能をさらに深く理解する 無料トライアル を始める Quick Suite Community に参加する 著者について Surekha Rao は、D2L のプロダクトマネジメントディレクターであり、過去 14 年間にわたって教育テクノロジーのイノベーションを推進してきました。プロダクトリーダーシップにおいて 4 年以上の経験を持ち、生成 AI、アナリティクス、アセスメント、エンゲージメントツールにわたる変革的なソリューションの戦略と立ち上げを主導してきました。これらの取り組みは、教育機関が学習成果を向上させ、教育者の効率を強化し、よりつながりのある学習体験を創出することに貢献しています。現在は、データとアナリティクスに注力し、教育者や管理者に実用的なインサイトを提供し、大規模なエビデンスに基づく意思決定を可能にする取り組みを推進しています。 Andrew Wooster は、D2L のシニアディレクター オブ エンジニアリングです。Andrew は、データ、分析、AI 製品および機能の全体的な技術戦略と提供に責任を持ち、チームが品質、パフォーマンス、スケーラビリティの高い方法で顧客価値を最前線にもたらすことができるよう取り組んでいます。 Barret Newman は、カナダ アルバータ州カルガリーにある Amazon Web Services (AWS) のプリンシパルソリューションアーキテクトです。15 年以上の IT 経験を持つ Barret は、EdTech のお客様が AWS 上で移行、モダナイゼーション、イノベーションを実現できるよう支援することに注力する技術的なソートリーダーです。仕事をしていないときは、パートナーと 2 匹の猫と過ごしたり、家中のあらゆるデバイスを自動化して統合したり、たくさんのコーヒーを飲んだりすることを楽しんでいます。 Vignessh Baskaran は、Amazon Quick Suite の機能である Amazon Quick Sight において、データ接続とデータ準備ドメインを担当するシニアテクニカルプロダクトマネージャーです。ビジネスインテリジェンスとデータウェアハウジングのバックグラウンドを活かし、Quick Sight の新しいデータ準備エクスペリエンスの製品戦略と開発を主導し、複雑なデータ変換をすべてのユーザーがアクセスできるようにすることに注力しています。仕事以外では、クリケット観戦、ラケットボール、シアトルでのさまざまな料理の探索を楽しんでいます。
アバター
本記事は、2025 年 10 月 23 日に公開された Transform and visualize your data preparation flow in Amazon Quick Sight without SQL を翻訳したものです。翻訳は Public Sector PSA の西川継延が担当しました。 Amazon Quick Sight は、 Amazon Quick Suite の機能の 1 つで、AI を活用したビジネスインテリジェンス (BI) 機能を提供し、散在するデータを戦略的なインサイトに変換して、より迅速な意思決定とより良いビジネス成果の達成を支援します。 データ準備は、特にビジネスユーザーが SQL の専門知識を持っていない場合、分析において最も時間のかかる部分であることが多いです。アナリストは通常、インサイトを生成するよりもデータ準備に多くの時間を費やしています。この課題は、データが複数のシステムや期間にわたってサイロ化されていることが多い小売組織において、特に重要です。 この投稿では、中規模の小売企業である AnyCompany (この投稿のための架空の企業) が、新しい Quick Sight データ準備エクスペリエンスを使用して、ビジネスアナリストが SQL を一行も書かずに複雑なデータを変換する方法を探ります。アナリストが、Append、Join、Unpivot、Aggregate などの機能を使用して、シンプルなポイントアンドクリックインターフェイスを通じて複雑なデータの課題を解決する方法、およびデータセットをさらなる変換のソースとして再利用できるようにすることで、チーム間のコラボレーションを可能にする方法を見ていきます。 データ準備における課題 AnyCompany は、USB ハブ、壁掛け時計、収納ボックス、その他の家庭用品やオフィス用品など、さまざまな消費者向け製品を販売しています。同社のアナリティクスチームは、過去の販売データと予測を組み合わせて、地域全体でマーケティング費用を最適化する必要があります。 この企業はいくつかのデータに関する課題に直面しています: 売上データは年度 (2023、2024、2025) ごとに複数のテーブルに分割されています 製品情報と地域情報は別々のディメンションテーブルに存在します データソース間でデータ形式の不整合が存在します (例: 郵便番号の形式) 予測データは列指向構造の Excel ファイルに保存されています 以前は、これらの課題には SQL の専門知識が必要であったり、技術チームからの支援を待つ必要がありました。新しい Quick Sight データ準備エクスペリエンスにより、AnyCompany のビジネスアナリストはこれらの問題を独立して解決できるようになりました。 ソリューション概要 AnyCompany は、Quick Sight を使用して共同データ準備ワークフローを実装しました。 グローバルアナリストが、売上、製品、地域データを組み合わせた基盤データセットを作成します。 地域アナリストが、その基盤に地域固有の分析と予測を追加します。 GUI ベースのビジュアルデータ編集準備機能により、アナリストは複雑な SQL クエリを記述することなく、高度なデータ変換を実行できます。 SPICE (Super-fast, Parallel, In-memory Calculation Engine) が、最適なパフォーマンスを実現するインメモリ計算エンジンを提供します。 グローバルアナリストのジャーニー AnyCompany のグローバルアナリストは、複数年のデータと製品および地域情報を組み合わせた包括的な売上データセットを作成する必要があります。SQL の知識が限られているにもかかわらず、アナリストは新しい Quick Sight データ準備エクスペリエンスを使用してこの基盤を構築することができます。 複数年にわたる売上基盤の構築 グローバルアナリストは、まず 2023 年の売上データを調査します。このデータには、 product_id 、 customer_id 、 order_date 、 ship_date 、 sales 、 quantity 、 discount などの注文詳細が含まれています。次のスクリーンショットは、これらのカラムの一部の例を示しています。 Quick Sight の Append 機能を使用することで、アナリストはわずか数クリックで 2024 年と 2025 年の売上データを結合できます。各ステップ後の Preview タブにより、アナリストはデータが正しく結合されていることをすぐに確認でき、変換プロセスに対する信頼性を高めることができます。 ディメンションデータによるエンリッチメント 統合された売上データが準備できたら、アナリストはそれを製品ディメンションテーブルと結合します。Quick Sight での結合操作は簡単です。アナリストは結合するテーブルと共通キー ( product_id ) を選択するだけで、プレビューには製品情報と売上データが並んだ拡張されたデータセットがすぐに表示されます。 しかし、地域ディメンションテーブルとの結合を試みると、アナリストはデータ品質の課題に直面します。 Preview タブを見ると、売上データと地域テーブルの郵便番号が一致していないことがわかります。売上データの一部の郵便番号は 5 桁以上あり、地域テーブルでは郵便番号が文字列ではなく整数として保存されています。 データ型の不整合の解決 Quick Sight は、これらの不整合を解決するための変換機能を提供しています。1 つの計算列ステップで、アナリストは left({postal_code}, 5) という数式を使用して Clean Zip 列を作成し、郵便番号の長さを標準化します。 Configure タブには、この計算のプレビューがリアルタイムで表示されます。 別の変換では、アナリストは単純なデータ型の変更を使用して、整数の郵便番号を文字列に変換します。複雑な SQL の CAST 関数や文字列操作が必要だったものが、ビジュアルインターフェースでの数回のクリックで実現できます。 郵便番号が両方のテーブルで一貫性を持つようになったため、アナリストは地域ディメンションテーブルとの結合に成功し、次に customer_id をキーとして顧客ディメンションテーブルとの結合を進めます。 データセットの最終化 データセットをより使いやすくするために、アナリストは Rename columns ステップを使用して、列により説明的な名前を付けます。Quick Sight では、1 つのステップで複数の列の名前を変更できるため、プロセスが効率化されます。Select columns ステップは、列の追加、除外、並べ替えを行うための直感的なインターフェイスを提供します。アナリストは列をドラッグして並べ替えたり、ワンクリックで除外したりできます。 変換を完成させた後、アナリストは 2023 & 2024 Union、Product Join、Calc – Clean Zip、Customer Join のようなユーザーフレンドリーなステップ名を作成し、データ準備プロセスを透明で理解しやすいものにします。その後、アナリストはデータセットを Sales Revenue Dataset として保存して公開し、他のアナリストが活用できるようにします。 次のスクリーンショットは、グローバルアナリストの最終的なワークフローを示しています。 地域アナリストのジャーニー AnyCompany の米国中部地域のアナリストは、自分の担当地域の前年比売上予測を作成する必要があります。グローバルアナリストがすでに行ったデータ準備作業を再現する代わりに、Sales Revenue Dataset を基盤として使用できます。 作成済データセットに基づく作業 地域アナリストは、新しいデータセットを作成し、Sales Revenue Dataset をソースとして選択することから始めます。このアプローチには大きな利点があります。地域アナリストは、グローバルアナリストが管理する Sales Revenue Dataset の構築に使用されたロジックを理解したり、再作成したりする必要がありません。ソースデータセットへの更新は、地域アナリストの作業に自動的に反映されます。 地域アナリストは、まず Change data type ステップを使用して適切な日付フォーマットを適用し、分析全体で一貫した日付処理を可能にします。 地域データにフォーカス 次に、アナリストは Filter ステップを使用して US-Central リージョンのみに焦点を当て、担当領域のデータセットを素早く絞り込みます。アナリストはまた、2025 年 9 月の最初の数日間の売上データに推定売上 (実際の売上ではない) が含まれていることに気づき、適切なフィルターを適用します。 Configure タブは、アナリストが複数のフィルターの条件をプレビューするのに役立ちます。 異なる粒度レベルの処理 アナリストは、フィルタリングされた Sales Revenue Dataset と予測データを結合する必要がありますが、粒度が一致していません。Sales Revenue Dataset には顧客情報が含まれていますが、予測データは製品カテゴリと月のレベルになっています。 Aggregate ステップを使用して、アナリストは Product 、 Zip 、 Region 、 Category などのカラムでデータをグループ化し、 Sales の合計を計算します。この変換により、複雑な SQL の GROUP BY ステートメントを必要とせずに、予測データに合わせて粒度を調整できます。 列指向の予測データの変換 地域アナリストは別の課題に直面しています。2025 年 9 月から 12 月までの予測データは、月が行ではなく列として格納された Excel ファイルに保存されています。従来の SQL では、これには複雑な UNPIVOT 操作が必要になります。 Quick Sight の Unpivot 変換を使用すると、アナリストは月の列 (2025 年 9 月、10 月、11 月、12 月) を選択し、出力列名を order_date と sales として指定するだけで、集計された Sales Revenue Dataset の列名と一致させることができます。この変換により、列指向のデータが即座に行指向の形式に変換され、履歴データと組み合わせることができます。 追加する前に、アナリストは Change data type ステップを使用して、 order_date 列を文字列型から日付型に変換し、Sales Revenue Dataset の日付形式との一貫性を保ちます。 履歴データと予測データの結合 両方のデータセットが互換性のある形式になったので、地域アナリストは Append ステップを使用して、2025 年 8 月までの履歴データと 2025 年 9 月から 12 月までの予測データを結合します。 Product や Category などのカラムの順序は 2 つのテーブル間で完全に異なり、カラム数も異なります。Quick Sight は、位置ではなく名前でカラムを自動的に整列させる重い処理を自動的に処理し、 Configure タブに適切な出力メッセージを提供します。これにより、カラムの整列と潜在的な不一致を明示的に処理する必要がある複雑な SQL を記述する場合と比較して、アナリストの時間を大幅に節約できます。 その結果、過去の月 (2025 年 8 月以前) の実績値と将来の月 (2025 年 9 月以降) の予測値を含む、年間全体にわたる完全なデータセットが得られます。 次のスクリーンショットは、地域アナリストの最終的なワークフローを示しています。 前年比分析の作成 データの準備が完了したので、地域アナリストは実績データと予測データの両方を含む前年比較を作成できます。Quick Sight の分析機能を使用して、前年と比較した売上のトレンドを示すビジュアライゼーションを作成し、年末までの予測を含めます。これにより、地域チームは SQL の専門知識を必要とせずに、計画とリソース配分のための貴重なインサイトを得ることができます。 メリットと結果 Quick Sight の新しいデータ準備機能により、AnyCompany は大幅な改善を実現しました。 時間の節約 – 以前は数日かかっていたデータ準備タスクが、1 時間未満で完了できるようになりました 技術的な依存関係の削減 – ビジネスアナリストは SQL の専門知識を必要とせずにセルフサービスで作業できます コラボレーションの向上 – グローバルおよび地域のアナリストが互いの作業を基に構築できます インサイト獲得までの時間短縮 – ビジュアルインターフェースにより、アナリストはデータ品質の問題を迅速に特定して解決できます ステップバイステップのビジュアルインターフェースは、AnyCompany がデータを扱う方法を変革します。以前は複雑な SQL クエリが必要だった作業が、今ではシンプルなクリックで実行できるようになりました。 まとめ 新しい Quick Sight データ準備エクスペリエンスは、データ変換を民主化し、技術的な専門知識がなくても高度な操作を実行できるようにします。AnyCompany の事例が示すように、Append、Join、Unpivot、Aggregate などの機能と、複合データセットを構築する機能を組み合わせることで、アナリストは直感的なビジュアルインターフェースを通じて実際のデータ課題を解決できます。 既存のデータセットを新しい変換のソースとして使用できる機能により、チーム間のコラボレーションが促進され、組織全体での一貫性が容易になります。アナリストのデータ準備の複雑さを排除することで、組織はインサイトを得るまでの時間を短縮できます。 Quick Sight の新しいデータ準備エクスペリエンスを開始するには、 Quick Suite アカウント にサインアップしてください。その後、新しいデータセットを作成し、ステップバイステップの変換機能を探索できます。 著者について Ramon Lopez は、Amazon Quick Sight のプリンシパルソリューションアーキテクトです。BI ソリューションの構築における長年の経験と会計のバックグラウンドを持ち、お客様との協働、ソリューションの創出、世界クラスのサービスの提供に情熱を注いでいます。仕事以外の時間は、海や山でアウトドアを楽しむことを好んでいます。 Vignessh Baskaran は、Amazon Quick Suite の機能である Amazon Quick Sight において、データ接続とデータ準備ドメインを担当するシニアテクニカルプロダクトマネージャーです。ビジネスインテリジェンスとデータウェアハウジングのバックグラウンドを活かし、Quick Sight の新しいデータ準備エクスペリエンスの製品戦略と開発を主導し、複雑なデータ変換をすべてのユーザーがアクセスできるようにすることに注力しています。仕事以外では、クリケット観戦、ラケットボール、シアトルでのさまざまな料理の探索を楽しんでいます。
アバター
本記事は 2025 年 10 月 22 日に Migration & Modernization Blog で公開された “ AWS for VMware: Your complete re:Invent 2025 guide ” を翻訳したものです。 AWS の最新の AI を搭載した移行ツールとモダナイゼーションソリューションを使って、VMware 環境を革新する方法を紹介します。今年の re:Invent では AWS Transform や Amazon Elastic VMware Service (Amazon EVS) などの画期的な新機能、業界リーダーによる実践的な変革戦略、そしてデジタルトランスフォーメーションを開始するためのガイダンスが紹介されています。 私たちは、クラウドジャーニーにとって最も重要な VMware に焦点を当てた注目のセッションを厳選しました。各セッションでは、技術的な詳細解説からハンズオン移行ワークショップまで、お客様の成功事例や実証済みのモダナイゼーションフレームワークを取り上げ、最も重要な移行課題の解決に役立つ実用的な洞察を提供します。 基礎的な移行計画から高度なアーキテクチャの詳細解説まで、あなたのデジタルトランスフォーメーションの段階に応じた専用セッションが用意されています。専門家によるワークショップ、インタラクティブなラボ、戦略ディスカッションに参加して、シームレスなクラウド導入のための最新の AWS ツールとベストプラクティスを習得しましょう。 移行とモダナイゼーション戦略 世界中の IT チームが、ROI と事業継続性を確保しながら、レガシーシステムを変革し、アプリケーションにとって最適な道筋を決定しようとしています。これらのセッションでは、実体験、お客様の成功事例、そして VMware ワークロードをクラウドに自信を持って移行するのに役立つ、さまざまな移行パスの概要をまとめています。 AWS for VMware Migrations: Successes, roadmaps, & strategies | MAM203 | Level: 200 Type: Breakout session – Customer Panel Date & Location: Monday, Dec 1 2:30 PM – 3:30 PM PST | Wynn VMware 環境の AWS への移行に成功した IT リーダーたちが、彼らのクラウドジャーニーの経験を共有するセッションにご参加ください。移行計画と実行において実証済みのツール、戦略、そして学んだ教訓から学びましょう。これらのグローバル組織は、モダナイゼーションロードマップとイノベーション戦略に関する洞察を共有し、クラウドトランスフォーメーションを始めたばかりの方も、課題に直面している方も、あなた自身のクラウド変革に向けた貴重なガイダンスを提供します。 Map your VMware workloads migration and modernization journey to AWS | MAM323 | Level: 300 Type: Chalk talk Date & Location: Tuesday, Dec 2 1:00 PM – 2:00 PM PST | Wynn このインタラクティブセッションでは、多様な VMware ワークロードに対する、固有の要件、依存関係、ビジネス目標を考慮したカスタマイズされた移行とモダナイゼーション戦略を探求します。リフト & シフトから完全なクラウドネイティブなトランスフォーメーションまで、生成 AI などのイノベーションを活用して移行を加速し、リスクを軽減するアプローチの選択方法を学びます。投資を最適化し、情報に基づいた意思決定を導くためのベストプラクティス、ライセンスに関する考慮事項、戦略的フレームワークを取り上げ、ビジネス目標と技術的制約に合致した、回復力があり拡張可能なクラウドアーキテクチャの構築をお手伝いします。 Pioneering Agentic AI Transformation: CSL VMware & SAP modernization | MAM346 | Level: 300 Type: Breakout session Date & Location: Wednesday, Dec 3 11:30 AM – 12:30 PM PST | Wynn CSL Behring 社が AWS Transform の Agentic AI を使用して 4000 台以上の VMware サーバーを移行し、SAP システムを統合することで、どのようにインフラストラクチャを変革したかを紹介します。彼らの戦略は、技術的負債とライセンスコストを削減しながら、発見と計画のプロセスを 10 倍高速化することを実現しました。 RISE with SAP on AWS を通じて ERP ランドスケープを統合し、企業全体のデータ標準を確立した方法を学びましょう。このケーススタディでは、あなたの組織のトランスフォーメーションジャーニーに適用できる技術的ガイダンスと実用的な洞察を提供します。 VMware to AWS Readiness: Foundational decisions before your migration | MAM357 | Level: 300 Type: Chalk talk Date & Location: Monday, Dec 1 3:00 PM – 4:00 PM PST | MGM VMware から AWS への移行を成功に導く重要な意思決定を探求するためにご参加ください。ライセンス、運用モデル、技術アーキテクチャ、組織の準備状況における選択が、移行結果にどのような影響を与えるかを検証します。VMware 環境の依存関係とビジネス制約を包括的に評価し、ステークホルダーの合意形成と将来を見据えた計画のための実用的なフレームワークを使用する方法を学びましょう。このセッションでは、一般的な移行の落とし穴を回避し、長期的な成功を確実にするための重要な戦略的ガイダンスを提供します。 製品の詳細解説とハンズオンワークショップ: AWS Transform VMware から AWS への移行ジャーニーを加速するために設計された没入型セッションを通じて AWS Transform を探求しましょう。ワークロードを Amazon EC2 にモダナイズし、VMware ライセンスコストを削減し、Agentic AI を活用してアプリケーション発見、依存関係マッピング、ネットワーク変換、ウェーブ計画、最適化された EC2 インスタンス選択を自動化します。ブレークアウトセッションを通じた戦略的洞察を求めている場合でも、ワークショップを通じたハンズオン体験を求めている場合でも、クラウド移行の複雑さを軽減する方法を発見し、開始方法を学ぶことができます。 Agentic AI for VMware migrations with AWS Transform for VMware | MAM202 | Level: 200 Type: Breakout session Date & Location: Wednesday, Dec 3 10:00 AM – 11:00 AM PST | Wynn Amazon EC2 への大規模な VMware 移行を実現する初の Agentic AI サービスである AWS Transform を紹介します。アプリケーション発見、依存関係マッピング、ネットワーク変換、ウェーブ計画、そして最適化された EC2 インスタンス選択によるサーバー移行を自動化する方法のライブデモをご覧ください。VMware インフラストラクチャをクラウドネイティブアーキテクチャにモダナイズしながら、ライセンスの課題とベンダーロックインを克服し、より迅速で確実な移行を可能にする方法を学びましょう。 Accelerating Cloud Migration with Agentic AI: Hands-on AWS Transform [REPEAT] | PEX307-R | Level: 300 Type: Builders’ session Date & Location: Wednesday, Dec 3 3:00 PM – 4:00 PM PST | Caesars Forum AWS パートナーが AI を搭載した AWS Transform を活用して、クライアントのクラウド移行ジャーニーを最適化する方法を紹介するセッションにご参加ください。このハンズオンセッションでは、高度な AI エージェントを活用して移行アセスメント、計画、そして AWS へのワークロード移動を加速する方法を学びます。パートナーの皆様は、プロンプトエンジニアリング戦略に関する貴重な洞察を得て、実用的なユースケースを探求し、1 時間以内での完全自動移行を目撃することができます。 AWS Transform for VMware と AWS Transform Assessments が、制御と可視性を維持しながら、合理化された移行サービスの提供にどのように役立つかを理解しましょう。AI を活用した移行プラクティスの最大化に関するインタラクティブなディスカッションのために、ご質問をお持ちください。 VMware to AWS modernization blueprint: Migrate, containerize, scale | MAM338 | Level: 300 Type: Workshop Date & Location: Wednesday, Dec 3 1:00 PM – 3:00 PM PST | Wynn このハンズオンワークショップでは、VMware から AWS への移行とワークロードのモダナイゼーションのための技術的なブループリントを提供します。VMware から Amazon EC2 、そしてコンテナへのジャーニーに沿って、より高速でスケーラブルな移行のために Agentic AI を備えた AWS Transform の使用する方法を学びます。ワークショップでは、 Amazon Elastic Kubernetes Service (Amazon EKS) を使用したコンテナ化、マイクロサービスの実装、そしてクラウドネイティブソリューションの開発を実演します。実証済みのVMware 移行経験を持つ AWS エキスパートが、アプリケーションアーキテクチャの再構築、インフラストラクチャの最適化、そしてイノベーションの加速についててガイドします。 Fast-Track your VMware to AWS Migration with AWS Transform | MAM316 | Level: 300 Type: Workshop Date & Location: Tuesday, Dec 2 12:30 PM – 2:30 PM PST | MGM このハンズオンワークショップでは、VMware ワークロードをクラウドネイティブソリューションに変換するための AI を搭載した AWS Transform の機能について学びます。自動化された発見、依存関係マッピング、インフラストラクチャ変換のための Agentic AI の実践的な経験を積み、効率的な移行計画のための AWS モダナイゼーション手法の使用方法を学びます。このセッションでは、レガシー VMware 環境を最適化されたクラウドネイティブアーキテクチャに変革することに焦点を当て、複雑さ、コスト、移行リスクを削減しながら AWS への投資を最大化するお手伝いをします。 Scale VMware migrations with Cloud Migration Factory & AWS Transform | MAM335 | Level: 300 Type: Workshop Date & Location: Thursday, Dec 4 3:30 PM – 5:30 PM PST | MGM このハンズオンワークショップでは、 AWS Transform と Cloud Migration Factory を使用した大規模な VMware 移行の自動化について学びます。発見、テスト、カットオーバープロセスにおいて手動作業を 90% 削減できる実証済みの自動化パターンの実践的な経験を積むことができます。簡素化された変更管理により、コンプライアンスに準拠した大規模移行を可能にする実践的なフレームワークを探求します。ご参加の際はノートパソコンを持参ください。 Accelerate migration of VMware workloads using Agentic AI | MAM408 | Level: 400 Type: Workshop Date & Location: Thursday, Dec 4 12:30 PM – 2:30 PM PST | MGM この技術的な詳細解説では、 AWS Transform を使用してサーバー移行ライフサイクルを最適化する方法を紹介します。AI を搭載したエージェントが、オンプレミス環境のインテリジェントな発見から AI 生成によるウェーブ計画とネットワークアーキテクチャまで、移行ジャーニーをどのように自動化し最適化するかを探求します。ハンズオン演習を通して、生成 AI 機能を活用し、Infrastructure as Code の自動作成とネットワーク変換を行う方法を学びます。実際のサーバー移行を体験し、AWS ジャーニー中のビジネス中断を最小限に抑える、最新の AI を活用した移行技術の実用的な知識を身につけて帰りましょう。 製品の詳細解説: Amazon Elastic VMware Service (Amazon EVS) Amazon Elastic VMware Service (Amazon EVS) セッションに参加して、アプリケーションのリプラットフォームやリファクタリングを行うことなく、 AWS 上で VMware ワークロード を実行する方法を学びましょう。これらのセッションでは、クラウドで VMware 環境を正常にデプロイし、スケールするために必要なすべてをカバーします。 A complete guide to Amazon EVS: Unlock AWS scale for VMware workloads | MAM201 | Level: 200 Type: Breakout session Date & Location: Tuesday, Dec 2 1:30 PM – 2:30 PM PST | MGM Amazon EVS は、リプラットフォームやリファクタリングの手間をかけることなく、VMware ワークロードを AWS にシームレスに移行する方法を提供します。このサービスにより、既存の VMware への投資と専門知識を保護しながら、AWS の堅牢なインフラストラクチャを活用できます。セルフマネージドを選択するか AWS パートナーと協力するかに関わらず、Amazon EVS は統合されたストレージ、バックアップ、災害復旧機能を備えた仮想環境をカスタマイズするための柔軟なオプションを提供します。プラットフォームの直感的なデプロイメントプロセスと継続的なイノベーションにより、クラウドジャーニーを最適化するために必要なツールと柔軟性を確実に得ることができます。 Amazon EVS Deep Dive: Advanced Networking and Storage Architecture | MAM401 | Level: 400 Type: Chalk talk Date & Location: Thursday, Dec 4 12:30 PM – 1:30 PM PST | MGM Amazon EVS は、クラウド仮想化スタックの構築において柔軟性を提供します。この詳細解説セッションでは、Amazon EVS 環境の高度なパターンに焦点を当て、ネットワークアーキテクチャ、VPC 間通信、そして高度なネットワーキング戦略をカバーします。また、環境をスケールする際のパフォーマンスとコストの最適化に役立つ高度なストレージアーキテクチャパターンについても探求します。 Amazon EVS Deep Dive: Strategic migration planning | MAM305 | Level: 300 Type: Chalk talk Date & Location: Wednesday, Dec 3 1:00 PM – 2:00 PM PST | MGM AWS の VMware ワークロードを Amazon EVS で実行するインタラクティブな技術セッションにご参加ください。最適な移行成功に向けた Amazon EVS 環境の設計と計画方法の紹介、技術的な前提条件、キャパシティ計画、ホスト配置オプションもカバーします。Amazon EVS とストレージ、バックアップ、災害復旧ソリューションを統合するためのベストプラクティスを学び、さらに他の AWS サービスとの接続によってクラウドデプロイメントを最大化する方法を紹介します。 Optimizing Storage costs for Amazon EVS with FSx for ONTAP (sponsored by NetApp) | MAM101 | Level: 100 Type: Breakout session Date & Location: Wednesday, Dec 3 1:00 PM – 2:00 PM PST | MGM Amazon EVS は、リプラットフォームを行うことなく VMware ワークロードを AWS にシームレスに移行することを可能にします。 Amazon FSx for NetApp ONTAP と組み合わせることで、高い TCO や複雑なデータ操作といった一般的な移行課題に対処します。この統合により、シームレスなデータ移行、自律型ランサムウェア保護、そしてオンプレミスソリューションで一般的に見られるエンタープライズ機能を備えた最適化されたストレージ利用を含む、エンタープライズグレードのデータ管理機能を提供します。AWS パートナーである NetApp 社による発表です。 Migrate from VMware to AWS: Cloud Operations Best Practices | COP325 | Level: 300 Type: Chalk talk Date & Location: Tuesday, Dec 2 4:30 PM – 5:30 PM PST | Mandalay Bay Amazon EVS を AWS のクラウド運用サービスを通じて最適化することに焦点を当てたインタラクティブセッションにご参加ください。 AWS Organizations 、 AWS CloudTrail 、 AWS Config 、 Amazon CloudWatch 、そして AWS Systems Manager がどのようにタスクを自動化し、可視性を向上させ、ガバナンスを強化し、移行を加速するかを探求します。移行プロセスを強化し、AWS でワークロードをより効率的かつ安全に実行するための実用的な戦略を習得できます。このセッションは、新しい移行と既存の Amazon EVS デプロイメントの最適化の両方にとって価値があります。 AWS re:Invent 2025 に向けた準備を始めましょう AWS re:Invent 2025 がもうすぐ開催されます。VMware ワークロードの AWS へのモダナイズと移行に成功した AWS エキスパートとお客様からの貴重な洞察が満載です。準備のためのチェックリストはこちら: AWS re:Invent 2025 に登録 re:Invent Portal でこれらのセッションを予約 #reInvent を使ってソーシャルメディアで会話に参加 AWS Events mobile app をダウンロード してスケジュールを作成 より深く学ぶ: AWS for VMware リソース 先取りするために、これらのリソースを探求しましょう: AWS for VMware AWS Transform for VMware Amazon Elastic VMware Service (Amazon EVS) AWS for VMware Partners 最新情報を入手 見逃さないでください! @AWSreInvent をフォローし、お気に入りのソーシャルプラットフォームで #reInvent ハッシュタグをチェックしましょう。他の参加者とつながり、イベント前の興奮を味わうのに最適な方法です。 プロのヒント: セッションスケジュールは変更される場合があります。最新情報については、常に公式の AWS re:Invent Session Catalog を参照してください。 翻訳はソリューションアーキテクトの増田雄紀が担当しました。原文は こちら です。 Suhail Fouzan Suhail Fouzan は Amazon Web Services (AWS) のスペシャリストソリューションアーキテクトで、IT 業界で 15 年以上の経験を持っています。Microsoft ワークロード、移行サービス、そして AWS Systems Manager による運用管理を専門とし、お客様のインフラストラクチャの AWS への移行を成功へ導くサポートをしています。仕事以外では、Suhail はクリケットをプレイしたり、家族と時間を過ごしたりすることを楽しんでいます。 Bianca Velasco Bianca Velasco は AWS のプロダクトマーケティングマネージャーで、VMware ベースのワークロードの AWS への移行と変革に重点を置いています。マーケティングとテクノロジーの分野で 7 年以上の経験を持ち、複雑なテクノロジーをわかりやすく、そして共感しやすいものにするためのストーリー作りに情熱を注いでいます。AWS 以外では、Bianca はボランティア活動、ダンス、ボルダリングを楽しんでいます。 Yogi Barot Yogi Barot は AWS の ワールドワイドな Microsoft Tech リーダーで、AWS における Microsoft 技術フィールドコミュニティを率いています。彼女の役割の一部として、技術的な支援のためのコミュニティを主導し、お客様の Microsoft ワークロードの AWS への移行とモダナイゼーションをサポートしています。Yogi は 26 年にわたり、様々な Microsoft テクノロジーに携わってきた経験を持ち、特に SQL Server と様々なデータベーステクノロジーを専門としています。Yogi は AWS に関する深い知識と、AWS 上で Microsoft ワークロードを実行する専門知識を有しています。
アバター
みなさん、こんにちは。ソリューションアーキテクトの水野です。AWS ではサービスのアップデートだけでなく製造業の方に向けたイベントの開催や事例の発表などを頻繁に行っています。それらの情報を効率良くインプットしていただく為に、今月から日本の製造業のお客様に向けた情報発信を行っていきます。 このブログでは開催予定のイベントや直近1カ月に発表された製造関連のブログ・サービスのアップデート・事例などをお届けしています。国内だけでなく海外の情報も含めていますので、リンク先には英語の記事・動画も含まれていますが、解説を加えていますのでご興味あればぜひご覧ください。 ピックアップトピック AWS re:Invent 2025 が 12 月 1 日から 5 日までラスベガスで開催されます。毎年恒例の AWS re:Invent 速報も会期中の 2025 年 12 月 5 日 (金)に開催が決定しています。ご登録は こちら 。新しいサービスの発表も楽しみなのですが、沢山のセッションも行われます。そんな中、日本のメンバーも現地で Chalk Talk 「 Accelerating Smart Products SDLC with Amazon Q Developer (IND303) 」 に登壇します。Amazon Q Developer によるスマートプロダクト開発ライフサイクルの革新をテーマに、ハードウェア・組込みソフトウェア・アプリケーションを AI 支援のチケット駆動型ワークフローで統合する方法をご紹介します。ただ残念ながらオンライン配信もなく、現地も既にキャンセル待ちとなっています。ご興味あるお客様には個別にご紹介いたしますので担当営業までお声がけください。 直近で開催予定のイベント 11/19 – 21 EdgeTech+ 2025 一般社団法人 組込みシステム技術協会の主催でパシフィコ横浜で行われる EdgeTech+ 2025 に AWS も登壇します。基調講演では「 SDV Acceleratorが導く、車載ソフト開発の新たなステージ 」(19日)、 「 エッジとクラウドが織りなす製造業の未来 – AI エージェントがもたらすデジタル変革 」(21日)の2つで登壇します。テーマ別セミナーでは、「 コード生成を超えた AI エージェント活用で組み込み開発プロセスを効率化する実践手法 」(19日)、「 プロダクトの進化を導くためのエッジ AI の技術動向と AI 開発運用ソリューション 」(20日)の2つで登壇します。 IIFES 2025 製造業と社会インフラを支える制御・駆動・計測を軸に、デジタル化技術の展示会である IIFES が、東京ビッグサイトで行われます。AWS は三菱電機様のブースでパートナーとしてデモ展示を行います。ブース内でのセッションにも登壇予定です。ぜひ三菱電機様のブースへお立ち寄りください。 12/1 – 5 AWS re:Invent 2025 ピックアップトピックでも記載しましたが、今年もこの季節がやってきました!AWS における世界最大のイベントが AWS re:Invent です。毎年多くのサービス発表や機能拡張が発表されますが、私たちはこの期間は毎年寝不足になりながら、リアルタイムで視聴をするのが恒例行事となっています。製造業に関わるサービスやセッションについては、今後こちらのブログで発信しますのでご期待下さい。 製造関連ブログのご紹介 10/1 Hexagon Automates Manufacturing Standard Operating Procedures with AWS Generative AI このブログでは、Hexagon 社が AWS の生成 AI サービスを活用して、製造業・エネルギー業界の標準作業手順書(SOP)のデジタル化を自動化した事例を紹介しています。Amazon Bedrock を中心に、複数のAWSサービスを組み合わせたサーバーレスワークフローにより、従来の手作業プロセスを 90% 以上の精度で自動化。ドキュメント処理の時間を数日から数分に短縮し、コスト削減と業務効率化を実現した革新的なソリューションの構築方法が詳しく解説されています。 10/9 【自動車業界】SDV時代の車載ソフトウエア開発を支えるAWSソリューション(Vector SDV Symposium Japan 2025で発表) 2025 年 9 月 18 日に開催された「Vector SDV Symposium Japan 2025」にて、「SDV 時代の車載ソフトウエア開発を支える AWS ソリューション」というテーマで登壇した内容をより掘り下げてご紹介しています。このブログでは、 仮想開発環境や仮想 ECU 技術を使ったテストの効率化まで、AWS が提供するソリューションについて紹介しています。 10/10 Transform Supply Chain Logistics with Agentic AI このブログでは、AWS のプロフェッショナルサービスチームがシンガポールの A*STAR と協力して開発したロジスティクスエージェントを紹介しています。Amazon Bedrock を活用した AI エージェントは、ERP、TMS、WMS など複数のシステムからリアルタイムデータを集約し、自然言語での問い合わせに即座に対応。手作業による情報検索を最大 50 %削減し、配送コスト 3~5 %削減、顧客満足度向上を実現します。サプライチェーン全体での Agentic AI の活用可能性を示す実践的な事例を紹介しています。 10/14 AWS IoT Greengrass nucleus lite 窶・リソース制約のあるデバイスでエッジコンピューティングに革命を起こす AWS IoT Greengrass nucleus lite は、リソース制約のあるデバイスを対象とした軽量な オープンソース のエッジランタイムです。スマートホームハブ、スマートエネルギーメーター、スマートビークル、エッジ AI、ロボティクスなどの大量生産アプリケーション向けに、低コストのシングルボードコンピュータで AWS IoT Greengrass の機能を拡張できます。このブログでは、2つのエッジランタイムオプションの利点を説明し、ユースケースに最適なオプションを選択するための指針を提供しています。 10/16 株式会社マキタ様の AWS 生成 AI 事例「AWS 上の閉鎖型 AI 環境で労働災害報告書作成支援と経営ダッシュボードを内製開発。システム開発経験の少ないエンジニアが短期間でリリースを実現」のご紹介 このブログでは、 船舶用ディーゼルエンジンの製造・販売・アフターサービスを手がける株式会社マキタ様が AWS を用いて経営ダッシュボードと労働災害報告書作成支援 AI を「短期間」かつ「システム開発経験の少ないエンジニア主導の開発体制」で内製した事例についてご紹介しています。 10/24 Secure, remote monitoring and control of a PLC from AWS このブログでは、Inductive Automation の Ignition を使用して、遠隔地の PLC(プログラマブルロジックコントローラ)を AWS クラウドから安全に監視・制御するシステムの構築方法を詳細に解説しています。Teltonika RUT956 ルーターと AWS Site-to-Site VPN を活用した暗号化通信、AWS Private CA による証明書管理、BGP による自動フェイルオーバーなど、エンタープライズグレードの信頼性を備えた実装手順が段階的に説明されており、再生可能エネルギーやマイニング、石油ガス産業などの大規模産業ユーザーに適した設計について紹介しています。 10/29 How Sibros, Panasonic Automotive, and AWS Collaborate to Reduce Connected Services Integration Challenges During Vehicle Development このブログでは、Sibros、Panasonic Automotive、AWS が協力して、自動車の接続サービス統合の課題を解決する方法を紹介しています。仮想開発環境 vSkipGen 「と Sibros の Deep Connected Platform を活用することで、自動車メーカーは物理ハードウェアを待たずに早期から統合テストを実施でき、開発期間の短縮とソフトウェア品質の向上を実現できます。OTA 更新やデータ収集などの機能も含まれており、グローバルな分散チームでの開発を加速させる方法について紹介しています。 イベント動画のご紹介 10/23 AWS at IAA MOBILITY 2025 – Highlights この動画は、2025 年 9 月 8 日から 12 日にかけてミュンヘンで開催された IAA MOBILITY 2025 における AWS の参加ハイライトを紹介しています。自動車産業における AWS の革新的なAIソリューションが展示され、特にエージェント型 AI アシスタントや自動車設計における AI 活用など、自動車業界の未来を形作る技術が紹介されました。 10/30 AWS Summit Paris 2025 – Comment accelerer sa transformation numerique industrielle このセッションは、AWS Summit Paris 2025 での「産業デジタルトランスフォーメーションの加速方法」に関する講演です。ゲストスピーカーとして Aremmon 社の Industry 4.0 責任者である Ali Ponlou 氏が、製造業におけるデジタルトランスフォーメーションの実践方法と事例について解説しています。特に POC 段階を超えて本格的な展開を計画している企業にとって、Aremmon 社の実例や段階的アプローチの解説は実践的な指針となります。また、産業データプラットフォームの構築方法や生成 AI の活用事例は、製造業の IT 部門と OT 部門の橋渡しを担当する技術者にとって参考になる具体的な実装方法を提供しています。 製造関連の主要なアップデート 10/14 AWS IoT SiteWise Edge データ処理パックと AWS IoT SiteWise Monitor がメンテナンスモードに 2025 年 11 月 7 日以降、新規のお客様は AWS IoT SiteWise Edge データ処理パックと AWS IoT SiteWise Monitor がご利用頂けなくなります。既存のお客様については、代替ソリューションを検討頂きながら、引き続きこれらのサービスや機能をご利用頂けます。また、Amazon Lookout for Equipment と AWS IoT Greengrass v1 については、サービスの運用とサポートを終了する日程が発表されています。これらのサービスをご利用中のお客様は、ドキュメントで推奨されている代替手段への移行を計画してください。 10/23 AWSのカスタマーカーボンフットプリントツール (CCFT) が、SCOPE 3 に対応 カスタマーカーボンフットプリントツール (CCFT)は、AWS が提供するツールで顧客が AWS の利用による炭素排出量を可視化・追跡できます。 今回 CCFT が更新され、SCOPE 3 排出量データに対応しました。これにより、サーバー製造、施設電力、機器輸送など、クラウド利用の全ライフサイクルにおける炭素影響を可視化できます。2022 年 1 月からの履歴データも利用可能で、組織のサステナビリティ目標達成に向けた戦略的な意思決定が容易になります。 10/31 AWS IoT Greengrass 開発者向け MCP サーバ AWS IoT Greengrass 向けの新しい MCP サーバが発表されました。このオープンソースツールは GitHub で公開されており、開発者が Amazon Q Developer などの AI コーディングエージェントを活用して、エッジデバイスアプリケーション開発を加速できます。テンプレートと例が含まれており、開発時間を短縮しながら、フリート全体への展開管理も簡素化できるのが大きなメリットです。9 月には AWS IoT SiteWise の MCP サーバも 発表 されています。 最後まで読んでいただきありがとうございました。いかがだったでしょうか?このような形式で毎月最新の情報を製造業の皆様にお届けして参ります。月刊 AWS 製造ブログを今後ともよろしくお願いします。それでは、また来月お会いしましょう! 著者について 水野 貴博 水野貴博は、製造業のお客様をご支援しているソリューションアーキテクトです。サプライチェーン領域を得意としており、好きな AWS サービスは AWS Supply Chain です。趣味は、ドラマや映画のエキストラに参加することです。 <!-- '"` -->
アバター
データ分析者やエンジニアは、データベーススキーマを探索したり、テーブル構造を理解したり、さまざまな Amazon Redshift データウェアハウス間でクエリを実行するために、複数のツールを行き来することがよくあります。メタデータやデータを自然言語で探索できれば、このプロセスが簡素化されますが、AI エージェントは、最適な実行パスを探索して構築するために、Redshift クラスターの構成とスキーマの追加コンテキストを必要とすることがよくあります。 ここで Model Context Protocol (MCP) が AI エージェントと Redshift クラスターの橋渡しをし、データへの自然言語インターフェースをより適切にサポートするために必要な情報を提供できます。MCP は、AI アプリケーションが外部のデータソースやツールに安全に接続し、ユーザーの特定の環境に関する豊富なリアルタイムのコンテキストを提供できるようにする、オープンな標準規格です。静的なツールとは異なり、MCP を使えば AI エージェントが動的にデータベース構造を探索し、テーブル関係を理解し、Amazon Redshift 設定を完全に認識したうえでクエリを実行できます。 これらの課題に対処し、会話型データ分析の可能性を最大限に引き出すために、 Amazon Web Services (AWS) は、Amazon Redshift データウェアハウスとのインタラクションの仕方を革新するオープンソースソリューションの Amazon Redshift MCP サーバー をリリースしました。Amazon Redshift MCP サーバーは、 Amazon Q Developer コマンドラインインターフェース (CLI)、 Claude Desktop 、 Kiro 、およびその他の MCP 互換ツールとシームレスに統合されています。これにより、データベース環境を本当に理解する AI アシスタントとの自然言語会話を通じて、Amazon Redshift のメタデータとデータを発見、探索、分析できるようになります。 この記事では、Amazon Redshift MCP サーバーのセットアップ方法を説明し、データ分析者が自然言語クエリを使用して Redshift データ ウェアハウスを効率的に探索し、データ分析を行う方法を示します。 Amazon Redshift MCP サーバーとは Amazon Redshift MCP サーバーは、AI エージェントに Amazon Redshift リソースへの安全で構造化されたアクセスを提供する MCP 実装です。以下の機能を実現します: クラスター検出 – プロビジョニングされた Redshift クラスターとサーバーレスワークグループの両方を自動的に検出します メタデータ探索 – 自然言語でデータベース、スキーマ、テーブル、カラムを参照できます 安全なクエリ実行 – 組み込みの安全保護機能を備えた READ ONLY モードで SQL クエリを実行できます マルチクラスターサポート – データ照合タスクのために、複数のクラスターとワークグループを同時に操作できます MCP サーバーは、Amazon Q CLI とあなたの Amazon Redshift インフラストラクチャの間の橋渡しの役割を果たし、自然言語のリクエストを適切な API 呼び出しと SQL クエリに変換します。次の図は、高レベルのアーキテクチャを示しています。 前提条件 始める前に、次のものがあることを確認してください。 システム要件 Python 3.10 以降のバージョン uv パッケージマネージャ ( インストールガイド ) Amazon Q CLI または Claude Desktop のような MCP サポートクライアントツールがインストールされ、設定済みであること AWS の要件 AWS Command Line Interface (AWS CLI)、環境変数、または AWS Identity and Access Management (IAM) ロールを使用して設定された AWS 認証情報 Amazon Redshift へのアクセスに適切な IAM 権限 少なくとも 1 つの Redshift クラスターまたはサーバーレスワークグループ 必要な IAM 権限 ユーザー ID には、アクセスポリシーで以下の IAM 権限が必要です。 { &nbsp;&nbsp;"Version": "2012-10-17", &nbsp;&nbsp;"Statement": [ &nbsp;&nbsp; &nbsp;{ &nbsp;&nbsp; &nbsp; &nbsp;"Effect": "Allow", &nbsp;&nbsp; &nbsp; &nbsp;"Action": [ &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"redshift:DescribeClusters", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"redshift-serverless:ListWorkgroups", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"redshift-serverless:GetWorkgroup", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"redshift-data:ExecuteStatement", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"redshift-data:BatchExecuteStatement", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"redshift-data:DescribeStatement", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"redshift-data:GetStatementResult" &nbsp;&nbsp; &nbsp; &nbsp; ], &nbsp;&nbsp; &nbsp; &nbsp;"Resource": "*" &nbsp;&nbsp; &nbsp;} &nbsp;&nbsp; ] } インストールと設定 次のセクションでは、Amazon Redshift MCP サーバーをインストールして設定するための手順について説明します。 必要な依存関係のインストール 次の手順に従って、必要な依存関係をインストールしてください: uv パッケージマネージャーをまだインストールしていない場合はインストールしてください: # macOS/Linux curl -LsSf https://astral.sh/uv/install.sh | sh # Windows powershell -c "irm https://astral.sh/uv/install.ps1 | iex" Python 3.10 以降をインストールしてください: uv python install 3.10 MCP サーバーの設定 MCP サーバーは、いくつかの MCP サポートクライアントを使用して設定できます。この記事では、Amazon Q Developer CLI と Claude Desktop を使用する手順について説明します。ホストマシンで Amazon Q Developer CLI を設定し、Amazon Redshift MCP サーバーにアクセスするには、以下の手順を実行してください。 Amazon Q Developer CLI をインストールしてください。 Amazon Q CLI 設定で Amazon Redshift MCP サーバーを設定します。 ~/.aws/amazonq/mcp.json にある MCP 設定ファイルを編集してください。 { &nbsp;&nbsp;"mcpServers": { &nbsp;&nbsp; &nbsp;"awslabs.redshift-mcp-server": { &nbsp;&nbsp; &nbsp; &nbsp;"command": "uvx", &nbsp;&nbsp; &nbsp; &nbsp;"args": ["awslabs.redshift-mcp-server@latest"], &nbsp;&nbsp; &nbsp; &nbsp;"env": { &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"AWS_PROFILE": "default", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"AWS_REGION": "us-east-1", &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;"FASTMCP_LOG_LEVEL": "INFO" &nbsp;&nbsp; &nbsp; &nbsp;}, &nbsp;&nbsp; &nbsp; &nbsp;"disabled": false, &nbsp;&nbsp; &nbsp; &nbsp;"autoApprove": [] &nbsp;&nbsp; &nbsp;} &nbsp;&nbsp;} } インストールの詳細については、Amazon Redshift MCP サーバーの README.md の インストールセクション を参照してください。 Amazon Q CLI を起動して、MCP サーバーが適切に設定されていることを確認します: q chat /tools Amazon Redshift MCP サーバーが正常に初期化されたことを、起動ログで確認してください。ホストマシン上で Amazon Q Developer CLI をセットアップし、Claude Desktop から Amazon Redshift MCP サーバーにアクセスするには、以下の手順を実行してください。 オペレーティングシステム用の Claude Desktop をダウンロードしてインストールします Claude Desktop を開き、左下のギアアイコンを選択して 設定 に移動します Developer タブを選択し、Amazon Q CLI 設定の手順 2 と同じ設定を追加して MCP サーバーを設定します MCP サーバー接続を有効にするために Claude Desktop を再起動します 新しい会話を開始し、 Show me all available Redshift clusters (利用可能な Redshift クラスターをすべて表示してください) と尋ねて統合をテストします (訳註: Amazon Q Developer CLI では日本語を使用して指示や質問を行うことも可能です。) 顧客購買分析のユースケース データアナリストが複数の Redshift クラスターにまたがる顧客の購買データを探索する必要がある実用的なシナリオを想像してみましょう。以下のウォークスルーでは、MCP サーバーがこのワークフローを簡素化する方法を示します。e コマース企業のデータアナリストとして、次の作業が必要です。 利用可能な Redshift クラスターを検出する データベース構造を調べて、顧客データと売上データを見つける 顧客の購買パターンを分析する ビジネスチームに向けて分析結果を生成する これらのタスクを実行するには、次の手順に従います。 Amazon Q に、利用可能な Amazon Redshift リソースを表示するよう依頼します: Show me all available Redshift clusters (利用可能な Redshift クラスターをすべて表示してください) Amazon Q は MCP サーバーを使用してクラスターを検出し、クラスター識別子やタイプ (プロビジョニングされたものかサーバーレスか)、現在のステータスと可用性、接続エンドポイントと設定、ノードタイプとキャパシティ情報などの詳細を提供します。 データの構造を探索して、データの構成を把握します: What databases and tables are available in the analytics-cluster? (どのデータベースとテーブルが analytics-cluster で利用可能ですか?) Amazon Q は、MCP サーバーを使用してクラスター内のオブジェクトを体系的に探索します: データを分析する前に、テーブルスキーマを把握します: Show me the structure of the customers and orders tables in analytics-cluster (analytics-cluster にある customers テーブルと orders テーブルの構造を表示してください) Amazon Q は MCP サーバーを使用して、テーブルの列を検査し、詳細なスキーマ情報を提供します。 自然言語クエリを使用して顧客の購買パターンを分析します: Analyze customer purchase pattern from analytics cluster. Show me the top 10 customers by total purchase amount and their buying frequency (analytics-cluster から顧客の購買パターンを分析してください。購入総額が最も多い上位10人の顧客と、その購買頻度を表示してください) Amazon Q は MCP サーバーを使用して適切な SQL クエリを実行し、インサイトを提供します。 MCP サーバーは、複数のクラスターにまたがってデータを分析できます: Compare customer acquisition costs between the analytics-cluster and marketing-cluster data. (analytics-cluster と marketing-cluster のデータ間で、顧客獲得コストを比較してください。) Amazon Q は MCP サーバーを使用して、適切な SQL クエリを実行し、analytics-cluster と marketing-cluster 間でデータを比較します。 ベストプラクティス MCP サーバーには、データとシステムパフォーマンスを保護するための重要な安全対策がいくつか備わっています。READ ONLY モードは、意図しないデータ変更を防ぐための重要な保護機能であり、ユースケースに応じてこの機能を有効にすることをお勧めします。さらにセキュリティを高めるため、サーバーには潜在的に有害な影響を与える操作を検証するクエリ検証メカニズムが実装されており、最適な安全性を確保するために user-in-loop 検証が推奨されています。リソース管理については、サーバーはパフォーマンスに影響を与える無制限のクエリを防ぐためにリソース制限を適用しており、ここでもユーザーインザループ検証を行うことで最良の結果が得られます。アクセシビリティの観点では、MCP 機能は Amazon Redshift Data API がサポートされているすべての AWS リージョンで幅広く利用可能であり、Amazon Redshift Data API サービスの既存のスロットリング制限に合わせてスロットリング制限が設定されているため、一貫したパフォーマンスと信頼性が確保されています。最良の結果を得るには、以下の推奨事項に従ってください。 ディスカバリから始める – クラスターやデータベースの構造、テーブルを探索することから始めます 自然言語を使う – 直接 SQL を書くのではなく、分析したいことを説明します 徐々に反復する – 複雑な分析を一歩ずつ構築します 結果を検証する – 重要な発見はビジネス担当者と相互確認します インサイトを文書化する – 重要なクエリと結果を将来の参照用に保存します 結論 Amazon Redshift MCP サーバーは、Kiro や Amazon Q CLI のようなエージェントツールを通じて自然言語によるデータ探索と分析を可能にすることで、データ分析者が Redshift クラスターとやり取りする方法を変革します。SQL クエリを手動で記述したり、複雑なデータベース構造を把握する必要がなくなるため、分析者はシンタックスやスキーマの探索に悩まされることなく、インサイトの生成に集中できます。一時的な分析を行うか、定期的なレポートを生成するか、新しいデータセットを探索するかにかかわらず、Amazon Redshift MCP サーバーは、データ分析ワークフローに強力で直感的なインターフェースを提供します。準備はできましたか? 以下の手順を行っていきましょう。 この投稿の設定手順に従って MCP サーバーをインストールしてください 自然言語クエリを使用して Amazon Redshift 環境を探索してください シンプルな分析から始め、徐々に複雑さを高めてください 自然言語の要約を使ってチームとインサイトを共有してください フィードバックを提供して、MCP サーバーの機能改善に役立ててください 各ユースケースで自然言語を使用するためのナビゲーションをするブログ記事をご覧ください: Implementing conversational AI for S3 Tables using Model Context Protocol (MCP) Accelerating development with the AWS Data Processing MCP Server and Agent Introducing MCP Server for Apache Spark History Server for AI-powered debugging and optimization AWS Announces Billing and Cost Management MCP Server Introducing enhanced AI assistance in Amazon SageMaker Unified Studio: Agentic chat, Amazon Q Developer CLI, and MCP integration 著者について Ramkumar Nottath Ramkumar は AWS のプリンシパルソリューションアーキテクトとして、データおよび AI サービスに重点を置いて活動しています。様々な顧客と協力して、スケーラブルで信頼性の高いビッグデータおよび分析ソリューションの構築を支援することを楽しみにしています。分析、機械学習、生成 AI 、データウェアハウス、ストリーミング、データガバナンスなどの様々な技術に関心を持っています。家族や友人と時間を過ごすことを大切にしています。 Rohit Vashishtha Rohit はテキサス州ダラスを拠点とする AWS のシニアアナリティクススペシャリストソリューションアーキテクトです。ビッグデータプラットフォームの設計、構築、リード、保守において20年の経験を持っています。AWS の幅広いサービスを活用して顧客の分析ワークロードを最新化し、最高のセキュリティとデータガバナンスを備えた最適なコストパフォーマンスを顧客が得られるよう支援しています。 翻訳はソリューションアーキテクトの小役丸が担当しました。原文は こちら です。
アバター
AWS では、 Amazon Relational Database Service (Amazon RDS) のデータベースパフォーマンスメトリクスを収集・分析するためのいくつかのサービスを提供しています。これには Amazon CloudWatch と CloudWatch Database Insights が含まれます。さらに、さまざまなツールを使用して Amazon RDS for PostgreSQL と Amazon Aurora PostgreSQL-Compatible Edition を監視するためのカスタムダッシュボードを作成できます (詳細については、 Create an Amazon CloudWatch dashboard to monitor Amazon RDS for PostgreSQL and Amazon Aurora PostgreSQL と Monitor Amazon RDS for PostgreSQL and Amazon Aurora PostgreSQL performance using PGSnapper をご覧ください)。 人工知能と機械学習 (AI/ML) の進歩により、データベース監視領域で ML 機能を使用する無数のソリューションが利用可能になっています。これらのツールは、パフォーマンスの監視のボトルネックから運用上の問題まで、幅広い機能を提供します。また、問題をプロアクティブかつリアクティブに解決するための規範的な推奨事項も提供します。 このブログでは、セルフマネージドの Amazon RDS for PostgreSQL や Amazon Aurora PostgreSQL などのマネージドデータベースサービスを使用して、PostgreSQL 向けの人工知能と機械学習 (AI/ML) を活用したデータベース監視ツールについて探求します。 監視に関する考慮事項 このセクションでは、すべてのデータベースにとって重要なメトリクスについて説明します。これらのメトリクスは、ワークロード、データベースパラメータ、およびパフォーマンスに影響するその他の要因の変化を比較およびベンチマークするための履歴情報を保持するために、定期的に監視する必要があります。次の表は、AWS マネージドデータベースで監視することを推奨するメトリクスを示しています。 監視のソース パラメータ/メトリクス Amazon CloudWatch Database Connections CPU Utilization Freeable Memory FreeStorageSpace ReadLatency, WriteLatency DiskQueueDepth ReadIOPS, WriteIOPS WriteThroughput, ReadThroughput ReplicaLag OldestReplicationSlotLag ReplicationSlotDiskUsage MaximumUsedTransactionIDs Amazon CloudWatch Database Insights DatabaseLoad IO Latency EBS IO LongestIdleInTransaction CPU Utilization (%) Sessions Tuples Transactions, Transaction in progress IO cache vs Disk read Deadlocks OS Processes pg_stat_progress_vacuum Vacuum progress pg_stat_activity state of the query/idle_in_transaction 完全なリストについては、 拡張モニタリングの OS メトリクス 、 RDS PostgreSQL の SQL 統計 、 Amazon RDS for PostgreSQL の CloudWatch Database Insights カウンター 、 Vacuum Progress Reporting 、 pg_stat_activity を参照してください。 ここでは、AI/ML ベースのデータベース監視およびトラブルシューティングツールである PI Reporter について、その機能とユースケースを含めて説明します。 PI Reporter は、AWS ソリューションアーキテクトが開発したオープンソースツールで、パフォーマンスメトリクスとワークロードスナップショットを取得し、 Amazon Aurora PostgreSQL-Compatible Edition の詳細な比較レポートを生成し、 Amazon Bedrock の支援によるオプションのレポート分析を提供します。 PI Reporter PI Reporter は Amazon Bedrock と統合し、 Anthropic の Claude や Amazon Nova モデルなどの大規模言語モデル (LLM) の機能を活用して、個別のスナップショットと比較データを分析します。必要なモデルにアクセスできることを確認してください。この分析により、スナップショットウィンドウで発見されたデータベースパフォーマンスの問題に対する包括的な要約、根本原因分析、実行可能な推奨事項が生成されます。 PI Reporter では、以下のことが実行可能です : インスタンス関連情報の包括的な HTML レポートを数分で取得 定期的なレポートを比較して、パフォーマンス、ワークロード、または設定の変更を検出 インスタンスがワークロードを処理できるかを評価し、適切なサイジングのニーズを特定 システムセキュリティを損なうことなく、サードパーティとインスタンス統計を共有 根本原因の特定と推奨事項を含む LLM 分析を受信 このツールは、さまざまなシナリオで活用できます。一般的な例をいくつか紹介します。データベースのパフォーマンスが突然低下した場合、PI Reporter は影響を受けた期間と、通常のデータベースアクティビティを示す比較可能な期間の両方のスナップショットを取得できます。HTML 比較レポートは、何が変わったのか、そして考えられる根本原因を即座に表示します。 もう 1 つの有用なユースケースは、計画通りにデータベースを変更した後のワークロードの変化を評価することです。これには、新しい主要なアプリケーションをリリースする場合、データベースのメジャーバージョンにアップグレードする場合、ブルーグリーンデプロイメントを使用して新しいクラスターに移行する場合、またはその他の重要な変更を行う場合などの状況が含まれます。これらのシナリオでは、変更前後にスナップショットを取得して比較レポートを生成できます。 Amazon Aurora PostgreSQL Serverless インスタンスの監視において、PI Reporter は、予想される ACU 使用パターンと予想外の ACU 使用パターンの期間を比較することで、予想外の高い Aurora Capacity Units (ACU) 使用量の原因を特定するのに役立ちます。 これらの例は、このツールを活用できる方法のほんの一部を示しています。パフォーマンスの比較と分析が必要なあらゆるシナリオに可能性が広がります。 このツールは軽量で使いやすいように設計されています。 Amazon Elastic Compute Cloud (Amazon EC2) またはオンプレミスで Node.js スクリプトとしてデプロイできます。Linux x86 システム用にコンパイルされたポータブル版のスクリプトも含まれています。PI Reporter のセットアップの詳細については、 GitHub リポジトリ を参照してください。 ソリューション概要 次の図は、AWS サービスを使用した PI Reporter アーキテクチャを示しています。 このソリューションの動作方法を説明します。4 つのレイヤーで構成されています : データ収集レイヤー: Amazon CloudWatch Database Insights は、インスタンスレベルのカウンターパフォーマンスメトリクスと SQL レベルのメトリクスを提供します Amazon CloudWatch は、インフラストラクチャとリソースのメトリクスを提供します Amazon RDS は、メタデータとデータベースログファイル情報を提供します 処理レイヤー: PI Reporter ツールは、すべてのデータソースからデータを集約します 適切な権限を持つインスタンスロールが必要で、pireporterPolicy.json IAM ポリシーを通じて設定されます このツールは収集されたデータを処理し、統合されたメトリクスを含む JSON スナップショットファイルを生成します 分析レイヤー: 高度な分析のために、このソリューションは Amazon Bedrock と統合されます システムは、パフォーマンスメトリクス、リソース使用率データ、ワークロード情報 (SQL 統計を含む) を関連する知識と組み合わせて Amazon Bedrock に送信します Amazon Bedrock の LLM 機能は以下を提供します: 包括的な要約 詳細な分析 実行可能な推奨事項 出力: 最終的な出力は、生のメトリクスと LLM による洞察の両方を含む HTML レポートとして生成されます このアーキテクチャは、適切な IAM ロールと権限を通じてセキュリティを維持しながら、包括的なパフォーマンス監視と分析を確保します 前提条件 PI Reporter は Amazon CloudWatch Database Insights からの情報を使用するため、まず Amazon CloudWatch Database Insights を有効にする必要があります。 以下は、チューニングとトラブルシューティングツールに共通する PostgreSQL 固有の要件です : pg_stat_statements 拡張機能を有効にして、クエリごとの統計情報を収集します。この拡張機能は、Aurora PostgreSQL ではデフォルトで有効になっています デフォルトでは、PostgreSQL データベースは 1,024 バイトを超えるクエリを切り捨てます。ログに記録されるクエリサイズを増やすには、DB インスタンスに関連付けられた DB パラメータグループの track_activity_query_size パラメータを変更します。このパラメータを変更する場合、データベースの再起動が必要です 詳細については、 GitHub リポジトリ を参照してください。 PI Reporter のインストールと実行 PI Reporter は使いやすいように設計されています。Linux OS を搭載した Amazon EC2 上、または Aurora PostgreSQL クラスターが実行されている AWS リージョンにアクセス可能なオンプレミスの Linux ホスト上で、 GitHub リポジトリ からダウンロードできます。 PI Reporter をインストールするには、以下の手順を実行します : リポジトリをローカルファイルシステムにクローンします : git clone https://github.com/awslabs/pireporter.git リポジトリをクローンした後、 pireporter ディレクトリ内に pireporterPolicy.json AWS Identity and Access Management (IAM) ポリシーファイルがあります。このポリシーには、PI Reporter を実行するために必要な権限が含まれています。これらの権限は読み取り専用で、必須のもののみが含まれています。このポリシーにより、 pireporter:allow タグが付いたインスタンスとクラスターのみにアクセスできます。制限条件を緩和したい場合は、提供されたポリシーファイルを変更できます。 pireporterPolicy を、ツールを実行する予定の EC2 インスタンスのインスタンスロールにアタッチします。オンプレミスの Linux ホストでツールを実行する場合は、共有認証情報ファイル ~/.aws/credentials でアクセスキーとシークレットキーを使用します。EC2 インスタンスに最新バージョンの AWS CLI をインストールして、プログラムで RDS インスタンスに接続します。PI Reporter で使用される AWS SDK は、ロード時にポリシーファイルを自動的に読み取ります。この場合、ポリシーはアクセスキーが適用される IAM エンティティにアタッチされている必要があります。AWS リージョンは、インスタンスメタデータに基づいて、ホスティング EC2 インスタンスのリージョンに自動的に設定されます。特にオンプレミスでツールを実行する場合は、AWS_REGION 環境変数を希望の値に設定することで、これをオーバーライドできます ツールを実行するには 2 つのオプションがあります : Node.js を使用して pireporter ツールを実行するには、レポートを生成したいホストに Node.js がインストールされている必要があります : cd pireporter npm install node pireporter.js --help ポータブル版を使用する場合(ホストに Node.js をインストールしたくない場合)は、次のコマンドを使用します : cd pireporter/portable ./pireporter --help 特定の期間のスナップショットを生成するには、次のコマンドを使用します : ./pireporter --create-snapshot --rds-instance myinstance --start-time 2025-01-20T10:00 --end-time 2025-01-20T10:15 --comment "Unusually slow inserts" 上記の例では、 create-snapshot コマンドが疑わしいアクティビティや異常な動作を観察した 15 分間の時間間隔のデータをキャプチャします。そうでない場合は、終了して次のメッセージを出力します : No performance data available from Performance Insights for the selected time frame. Please choose a time frame with application load or user activity. これは、指定した時間枠によって数秒から 1 分程度かかる場合があります。メトリクスの平均値の希釈を減らすために、スナップショットの境界を関心のある期間に制限してください。このコマンドは、snapshots サブフォルダに JSON スナップショットファイルを生成します。 --comment 引数を使用すると、生成されたスナップショットにコメントを関連付けることができます。このコメントは LLM に渡され、その推論動作に影響を与える可能性があります。 キャプチャしたスナップショットに対して生成 AI 分析と推奨事項を含む HTML レポートを生成するには、次のコマンドを使用します : ./pireporter --create-report --snapshot snapshot_myinstance_202501201000_202501201015.json --ai-analyzes --ai-analyzes 引数は、Amazon Bedrock によって提供される LLM の分析を HTML レポートに含めます。レポートは reports サブフォルダに保存されます。 ツールで使用される LLM (リージョンとモデル ID) は、 conf.json ファイルで確認できます。Converse API をサポートする Amazon Bedrock の LLM を使用できます。 考慮事項と推奨事項 PI Reporter はインスタンスの動作の変化を特定して問題検出フェーズを最小化するために作成されたため、2 つのスナップショットを生成することを推奨します : インスタンスが異常な動作をしている問題のある期間 インスタンスが正常に動作していた類似の期間 次に --create-compare-report を使用して比較 HTML レポートを生成します。これにより、大幅に変更されたメトリクスと SQL を確認できます。 比較期間レポートの生成 AI 分析は、両方の期間のデータがあることで、より洞察に富んだものになります。両方の期間は以下の要件を満たす必要があります : 両方の期間は同じ長さである必要があります 問題のあるスナップショットは、問題が開始した時点から開始する必要があります 問題のあるスナップショットは、問題が終了した時点で終了するか、問題がまだ存在する場合は開始時刻から 60 分など合理的な時間後に終了する必要があります また、スナップショットに意味のあるコメントを提供することも検討してください。LLM に対して、特定の領域に注意を向けるよう指示したり、ユーザーとしての観察結果を伝えるなどのヒントを提供できます。 生成 AI は幻覚を起こしたり、間違った仮定を提供したりする可能性があります。私たちは、有用なデータベースエンジン固有の知識を含む追加のコンテキストを LLM に提供することで、これを最小限に抑えるよう努めました。生成 AI 分析は、それらを評価できるデータベース専門家と組み合わせて使用することをお勧めします。 レポートの解釈 LLM が生成するレポートの部分は、HTML レポートの上部にある薄い青色のボックスに表示されます。生成 AI セクションは一般的な要約から始まり、主な発見事項と問題の根本原因 (ある場合) が含まれます。 一般的なレポートサマリーの後に、レポートの各セクションのサマリーが表示されます。これには、一般的なインスタンス設定、非デフォルトパラメータ、待機イベント、OS メトリクス、DB メトリクス、および DB インスタンスの全体的なネットワークスループットなどの追加メトリクスが含まれます。これらは他の統計情報と SQL セクションから計算されます。スナップショット作成時に --include-logfiles 引数が指定されていた場合、レポートにはスナップショット期間のデータベースログファイルの分析も含まれます。 次のスクリーンショットは、ユースケース用に生成されたレポートからの生成 AI 分析のサマリーセクションを示しています。サマリーには、CPU、メモリ、ネットワークスループットなどの非常に高いリソース使用率に関するいくつかの観察結果が含まれています。また、高負荷の原因となっているワークロードタイプ( insert ステートメントやその他の書き込みアクティビティ)に関する情報も取得できます。さらに、 public.employee テーブルでの insert と autovacuum アクティビティという 2 つの SQL ステートメントが表示されます。SQL 参照 ID を選択すると、完全な SQL テキストを表示できます。レポートでは、パフォーマンス問題の根本原因も提供されます。 一般的な要約の次のセクションは、推奨事項セクションです。このセクションには、問題の根本原因を修正するために LLM が生成したステップが含まれています。この特定のケースでは、LLM は観測されたワークロードを処理できる推奨インスタンスタイプの 1 つにインスタンスをスケールアップすることを推奨しています。また、ワークロードを確認し、システムへの影響を減らすために特定の autovacuum パラメータを調整することも推奨しています。 リアクティブユースケース: バルクデータインサート このセクションでは、データベースでバルクデータロードを実行し、CPU、ディスク、IOPS、ネットワークなどの異なるリソースの使用率を観察するユースケースについて説明します。リソースの使用率が高くなると、アクティブまたはパッシブアラートがトリガーされる可能性があるため、リソースが過度に使用されており、アップグレードが必要であることを理解できます。 バルクデータインサートの前提条件 このユースケースを検証するには、データを一括挿入するテーブルが必要です。例えば、以下のコードを参照してください。 BEGIN ; CREATE TABLE employee( emp_id INTEGER GENERATED ALWAYS AS IDENTITY PRIMARY KEY, name TEXT NOT NULL ); COMMIT ; バルクデータインサートのユースケース 以下のコードを使用してバルクインサートを実行します : BEGIN ; INSERT INTO employee (name) SELECT substr(md5(random()::text), 1, 12) FROM generate_series(1, 100000000) AS _g ; ANALYZE ; COMMIT ; このテストケースでは、 employee テーブルに大量のデータを挿入するために、前述の INSERT 文を 100000000 の件数で実行しました。これにより 500 MB のデータが作成され、テーブルに挿入されました。 次に、PI Reporter を使用して AI/ML ベースのレポートを作成するには、以下のコマンドを実行します : ./pireporter --create-snapshot --rds-instance myinstance --start-time 2024-10-15T09:00 --end-time 2024-10-16T08:00 --comment "Bulk inserts" ./pireporter --create-report --snapshot snapshot_myinstance_202410150900_202410160800.json --ai-analyzes ここで、 --start-time と --end-time パラメータは、insert 文の実行前のタイムスタンプと insert 文の完了後のタイムスタンプに対応する必要があります。レポートが生成されたら、HTML レポートファイルを開いてレポートを読むことができます。次の推奨事項が表示されます : レポートの最初の部分では、レポートの開始時刻と終了時刻、およびレポートが生成された総期間の詳細が表示されます。次に、インスタンスの高レベルな詳細と、一括実行した insert 文などのリソース使用率上昇の責任または主要な原因が示されます。パフォーマンスに影響を与えるクエリと、定期的な vacuum および checkpoint チューニングの必要性が強調されています。 同じ情報が上記の推奨事項セクションに記載されていますが、ポイントごとの詳細が含まれています。 推奨事項の最初の部分は、インスタンスの一般情報に関するもので、従っている高可用性プラクティス、設定されているバックアップと監視オプションが含まれます。次のセクションには、レポート期間のメモリと CPU 使用率に関する静的メトリクスが含まれます。最後のセクションは、存在する場合のデフォルト以外のパラメータに関するものです。 AI によって生成されたレポートの分析では、リソース使用率と IO イベントに関する洞察が提供されます。また、インスタンスの現在のサイズ、使用率、推奨される適切なインスタンスタイプについても説明されています。さらに、CPU 使用率、ディスク IO、メモリ、ネットワーク、スワップ使用量などの重要な OS メトリクスも提供されます。この場合、リソースが十分に活用されていなかったため、コスト最適化のために適切なインスタンスタイプを選択することが推奨されました。これらの推奨事項を生成する際は、レポートを生成する期間を十分に長く設定することを確認してください。実装前に、データベースの専門家と推奨事項を検証してください。 上記の画像のデータベースメトリクスに関する推奨事項は価値があります。バルクインサートトランザクションアクティビティ、チェックポイントチューニング、定期的なバキュームに関する提案が含まれているためです。 最終的な GenAI 分析では、インスタンスを十分に活用できていないことに関するインサイトが提供されますが、ダウンサイジングを実行する前に、インスタンスのパフォーマンスを総合的に確認することを強く推奨します。CPU、ネットワーク帯域幅、効率的なキャッシュ、ディスク IO、チェックポイント、autovacuum などの要素を考慮してください。これらの洞察はすべて、データベースパフォーマンスの最適化において価値があります。統合された推奨事項では、クエリ最適化、インスタンスアップグレード、削除保護、バックアップ保持、高可用性のためのリーダーインスタンスの追加がカバーされています。 アイドルトランザクションのユースケース PI Reporter ツールは、スナップショットを使用して収集されたデータで動作します。アイドル状態のトランザクションセッションがあるスナップショットで収集された統計は、最終レポートで報告されます。アイドル状態のトランザクションを自動的に終了し、リソースの保持を防ぐために、 idle_in_transaction_session_timeout パラメータを 300 秒 (5 分) の値で実装することを推奨します。 上記の画像では、PI Reporter がトランザクション内でアイドル状態のセッションを明確に特定し、関連するパラメータに適切な値を設定することを推奨しています。また、コミットやロールバックのないトランザクションブロックを見つけるために、アプリケーションコードを確認することも提案しています。5 分以上アイドル状態のトランザクションに対する監視アラートを設定することを推奨しており、これにより、そのようなトランザクションを終了したり、データベースリソースの大部分を消費し始める前に問題を修正したりできます。Amazon CloudWatch Database Insights は、Database Telemetry -&gt; Metrics オプションの下で、最大アイドルトランザクションメトリクスを提供します。 データベースメトリクスセクションでは、セッションがトランザクション内でアイドル状態になっている概算時間を確認できます。最後の Analysis セクションでは、パフォーマンスの向上とコスト最適化のためのインスタンス全体の推奨事項をまとめています。 クリーンアップ Amazon Bedrock によって作成された AWS リソースは、使用している限りコストが発生します。生成 AI 分析を含むレポートを生成するたびに、PI Reporter は特定の呼び出しで使用された入力トークンと出力トークンの数を出力します。リソースが不要になったら、関連するサービスとスクリプトを削除してクリーンアップしてください。この投稿に従ってテスト環境を作成した場合は、使用が完了したらリソースをクリーンアップしてください。 機能の概要 次の表は、PI Reporter ツールの機能の概要を示しています。 パラメータ/機能 PI Reporter クラウドに依存しない No オンプレミスデータベース No 設定の推奨事項 Yes データベースの健全性 Yes インデックスの推奨事項 Yes 非効率な SQL Yes Autovacuum Yes パフォーマンスチャート No エージェントタイプ No 本番環境対応 Yes コスト Apache-2.0 ライセンス インフラストラクチャと Amazon Bedrock に関連するコスト *デプロイメントオプション、データベースフリートのサイズ、複数年契約などの要因が最終的なコストに大きく影響します。 まとめ この投稿では、PI Reporter ツールの監視機能と可能なユースケースについて説明しました。PI Reporter は数秒で有用な情報を収集し、JSON スナップショットに保存できます。これらは HTML レポートの生成や将来の調査のための保存に使用できます。これは、トラブルシューティングや DB インスタンスの健全性を理解するのに役立つツールです。Amazon Bedrock でホストされている LLM と組み合わせて使用することで、利用可能なメトリクスと SQL を分析し、生成 AI に調査結果の要約、問題の根本原因の検出、推奨事項の提供を行わせることができます。 この記事で説明した PI Reporter ツールには独自の機能があり、お客様のワークロードに適合する場合もあれば適合しない場合もあるため、慎重にテストと評価を行う必要があります。本番環境で実行する前に、非本番環境でこれらのツールをテストすることを強く推奨します。 皆様のフィードバックをお待ちしています。ご質問やご提案がございましたら、コメント欄でお聞かせください。 著者について Sachin Kotwal Sachin はAWSにおいてマイグレーションとモダナイゼーションを専門とするデリバリーコンサルタントです。お客様と連携し、様々なデータベースおよびマイグレーション・モダナイゼーションプロジェクトに関するガイダンスと技術支援を提供しています。これまでに数多くの同種データベース移行やパフォーマンス最適化プロジェクトに携わってきました。 Aychin Gasimov Aychin はAWSにおいてデータとAIを専門とするシニア・パートナー・ソリューション・アーキテクトです。彼は顧客やパートナーと連携し、様々なデータベース、アナリティクス、AIプロジェクトに関するガイダンスと技術支援を提供しています。 HariKrishna Boorgadda HariKrishna はAmazon Web Servicesのプロフェッショナルサービスチームに所属するシニアデリバリーコンサルタントです。AWSへのデータベース移行を専門とし、顧客と連携してAmazon RDSおよびAmazon Auroraのアーキテクチャ設計と実装を担当しています。 Sachin Khanna Sachin はAWSプロフェッショナルサービスチームにおいて人工知能および機械学習(AI/ML)を専門とするリードコンサルタントです。データ管理、生成AI、大規模言語モデル、機械学習における豊富な経験を持ち、データ、データベース、AI駆動型ソリューションに関わるプロジェクトに幅広い専門知識を提供します。クラウド移行とコスト最適化における熟練したスキルにより、顧客のクラウド導入プロセスを成功へと導き、カスタマイズされたソリューションと戦略的洞察を提供しています。 翻訳は、ソリューションアーキテクトの鈴木が担当しました。 原文 はこちらです。
アバター
本記事は 2025 年 10 月 27 日に AWS Public Sector Blog で公開された Building large language models for the public sector on AWS を翻訳したものです。翻訳はソリューションアーキテクトの川戸渉が担当しました。 大規模言語モデル (Large Language Model, LLM) は、公共機関によるサービス提供、市民とのエンゲージメント、データに基づく意思決定の方法を根本から変えています。高度な多言語対応と複雑なタスクの自動化により、LLM は応答時間を短縮し、ドメイン固有の情報を大規模に処理することが可能になります。 既製のモデルは確かに強力ですが、公共機関特有の規制要件、文化的背景、業務上の条件を十分に満たすことができないケースが少なくありません。多くの商用 LLM は、インターネット全体から収集された幅広いデータセットで学習しているため、特定の国や分野における言葉のニュアンス、文化的文脈、法規制の枠組みを適切に反映していないことがあります。また、これらのモデルは学習データに含まれるバイアスを引き継いだり、専門用語の知識が不足していたり、データ主権やプライバシー保護の要件を満たせない環境で動作したりする課題があります。正確さ、コンプライアンス、信頼性が極めて重要な公共機関にとって、これらの制約は市販モデルをミッションクリティカルな用途で使用する上での限界となっています。カスタム LLM 開発はこれらの課題に対処します。ゼロからのモデル学習、既存モデルの継続事前学習、事前学習済みモデルのファインチューニングによって、言語やドメイン固有の知識を取り込み、地域の法規制に準拠し、文脈に応じた微妙なニュアンスにも対応できるようになります。 公共部門のミッションに特に関連する 2 種類のカスタム LLM があります : ナショナル LLM は、特定の国や地域の言葉の使い方、文化的背景、法規制の枠組みを反映するように構築されたモデルです。地域言語の保全、文化に適した回答の生成、国のデータ主権要件への準拠を可能にします。顕著な例として、 ギリシャの取り組み があります。これは商用モデルにおけるギリシャ語の過小表現に対処し、現代および古典ギリシャ語の言語遺産を保全するオープンウェイト LLM (モデルの重みパラメータが公開された LLM) の開発を進めている事例です。 ドメイン特化型 LLM は、医療、教育、金融、法務などの高度に専門化された分野向けに最適化されたモデルです。専門性の高い業務においてより高い精度と、分野固有の専門用語もしっかりと理解できます。これらのモデルは、品質と適切性を保ちながら、ドメインに特化することで専門的なコア業務をどれだけ向上させられるかを示しています。 このブログ記事では、公共部門での活用を想定したカスタム LLM の開発について、科学的アプローチと定量的な成果評価を軸に、そのライフサイクル全体を解説します。開発プロセスは 6 つの重要なステージで構成されています。各ステージは、セキュリティ、コンプライアンス、パフォーマンスの厳格な基準を満たしながら、モデルが本来の目的を確実に果たせるように設計されています。 コスト分析フレームワーク カスタム LLM 開発に着手する前に、2 つのレベルでコストを評価する必要があります。マネージド API のトークン単価と、セルフホスティングの総保有コスト (Total Cost of Ownership, TCO) です。 マネージド API は迅速な導入に適していますが、トークン課金とデータ転送コストにより、規模が大きくなると高額になる可能性があります。一方、セルフホスティングでは、初期投資(GPU 調達や予約容量、エンジニアリングリソース)に費用がかかりますが、時間の経過とともにトークンあたりの運用コストは下がります。 モデルサイズはコストに大きく影響します。一般的に、パラメータ数が多いほど、一定レベルまで品質が向上しますが、応答時間、メモリ使用量、学習・推論コストも増加します。継続事前学習や目的特化型のファインチューニングによってモデルサイズを調整することで、コストを抑えながら同じレベルの性能を実現できます。 適切なデプロイ方法を決定するには、まず 1 日あたりのトラフィック (トークン / 日)、季節変動、目標応答速度、システムの可用性要件を把握する必要があります。その上で、API 利用料の累計がセルフホスティングの TCO (機器の減価償却費、電気代、運用費を含む) を超えるポイントを計算することで、データに基づいた選択ができるようになります。多くの公共機関では、自組織のクラウド環境で運用する中規模の調整済みオープンソースモデルが最も適した選択肢となります。これにより、データレジデンシー (データが保存される地理的な場所) 要件を満たしながら、より少ない GPU で目標の応答速度を実現し、初期投資の後は長期的な運用コストを抑えることができます。 カスタム LLM 開発のプロセス カスタム LLM の開発ステージは以下の通りです: ユースケースと要件の定義 評価フレームワークの確立 モデル選択と学習アプローチ データ収集と準備 インフラストラクチャ構築と学習アプローチ 本番環境へのデプロイと性能テスト 各ステージは、公共部門が求めるセキュリティ、コンプライアンス、性能基準を満たしながら、モデルが意図された目的を効果的に果たすための基盤となります。 ステージ 1: ユースケースと要件の定義 カスタム LLM 開発は、厳密な要件定義から始まります。これは、組織のハイレベルな目標を具体的で測定可能な仕様に落とし込む作業です。このステージでは、カスタムアプローチが必要なのか、それともプロンプトエンジニアリングのみで目標を達成できるのかを決定します。 カスタムアプローチは通常、プロンプトエンジニアリングを複数回試行しても一貫して許容できる結果が得られない場合、既存のモデルでは特定の言語要件を満たせない場合、または標準的なプロンプト技術では確実に活用できない深い専門知識を必要なユースケースがある場合に必要となります。 要件定義プロセスは、カスタム LLM が明確な価値を提供する具体的なユースケースを特定することから始まります。政府機関では実用的な活用方法を検討する必要があります。例えば、市民参加型プラットフォーム、政策分析システム、専門的な研究ツール、行政業務の自動化などです。最近の事例からも、このステージの重要性がよくわかります。ギリシャのナショナル LLM プロジェクトでは、現代ギリシャ語と古代ギリシャ語の両方を処理しながら、英語でも高い性能を維持するという明確な要件を定義し、公共部門のさまざまな分野での活用を可能にしました。 組織は、明確な成功指標を設定する必要があります。具体的には、サービス提供時間の定量的な改善、専門タスクの精度、市民満足度スコアなどが挙げられます。技術要件については、目標応答時間、想定されるクエリ量、既存の行政システムとの統合ニーズに対応する必要があります。 また、包括的なデータ処理プロトコル、アクセス制御、監査要件の定義も不可欠です。ナショナル LLM の場合、データ主権に関する要件やローカルホスティングの要件が含まれることが一般的です。ドメイン特化型モデルでは、医療、金融、その他の機密性の高い分野における専門的な規制への準拠が求められる場合があります。 これらの要件を文書化することで、ステークホルダーに対してビジネス価値を効果的に伝えられるだけでなく、技術チームには明確な開発ガイドラインを提供できます。この文書化は、複数の政府部門や機関間での調整を行う際に特に重要であり、技術的能力と組織ニーズの整合性を確保する上で欠かせません。 ステージ 2: 評価フレームワークの確立 モデル選択前にしっかりとした評価フレームワークを確立することで、開発プロセス全体を通して科学的な厳密さと測定可能な成果を確保できます。このフレームワークは、その後のすべての意識決定の基盤となり、主観的な選択によってプロジェクトが失敗するリスクを防ぎます。 ベースライン性能と適応率の指標 モデル選定と学習の決定を左右する 2 つの重要な指標があります : ベースライン性能 (b) : 候補モデルをカスタマイズする前の、タスクおよびドメイン固有の評価スコアです。固定プロンプトと別途用意した開発 / テスト用データセットを使用します。これにより、異なるベースモデルを客観的に比較する基準が得られます。 適応率 (ra) : カスタマイズ中にモデルが評価指標をどれだけ速く効率的に改善できるかを示す指標で、学習の進捗 (ステップ数、トークン数、時間、コスト) で正規化されます。この指標により、限られた予算内で継続学習に最も適したモデルを予測できます。 評価ツールと実装 Language Model Evaluation Harness (LM Harness) は、LLM 評価の業界標準ツールです。60 以上の学術的ベンチマークと数百のサブタスクおよびバリアントでモデルをテストできる統一フレームワークを提供してます。LM Harness は、Hugging Face transformers、高速推論用の vLLM 、商用 API など、さまざまなモデル環境に対応しており、異なる実装でも同じ条件で比較できます。 AWS を中心としたワークフローでは、LM Harness を AWS が提供する評価ツールで補完しながら、業界標準との互換性も保てます。LM Harness を基盤とする Hugging Face Open LLM Leaderboard では、さまざまなタスクと言語での標準化された性能比較が提供されており、ナショナル LLM 評価の優れた参考資料として活用できます。 Q&amp;A データセット生成と検証プロセス 高品質な評価データセットを作るには、自動生成と人間による検証を組み合わせた体系的なアプローチが必要です : スコープとコーパスの定義 : 優先度の高いユースケース、ドメイン、言語をリストアップします。文書、政策、FAQ、ナレッジベースから代表的で高品質なコーパスを収集し、適切なクリーニング、重複除去、個人識別情報 (personally identifiable information, PII) の除去を確実に行います。 ベースライン生成器の確立 : 候補モデル間で簡単な評価を実行し、対象言語とドメインに最適な生成器を選択し、自己評価バイアスを回避します。 プロンプトテンプレートの作成 : スタイル、難易度、回答形式、根拠要件を決めます。事実に基づく Q&amp;A、多段階推論、政策準拠、多言語シナリオのバリエーションを作成します。 パイロット生成 (100-300 項目) : ベースラインモデルを使用してコーパスから Q&amp;A ペアを生成し、すべてのドメイン、難易度、言語を比例的にカバーします。各項目に来歴メタデータをタグ付けします。 人間による検証ループ : 正確性、根拠、明確性、安全性について項目をサンプリングしてラベル付けします。問題を修正し、エラーパターンを文書化します。受入基準を計算します (目標は 90% 以上の正確性、根拠) 。 品質と安全フィルター : NVIDIA NeMo Curator などのツールを使用して、重複排除、定型文の削除、パープレキシティフィルタリング、PII チェックの自動パスを適用します。 生成のスケール化 : 固定されたテンプレートとモデルで完全な Q&amp;A データセットを生成し、学習 / 開発 / テストの分割全体で厳密なメタデータとバージョン管理を維持します。 検証の強化 : 層別サンプルに対する人間による監査を実施し、敵対的ケースと安全性シナリオを追加します。 性能測定フレームワーク 評価は複数の側面から検証する必要があります: 言語習熟度と文化的正確性 政府のユースケースにおけるタスク固有の性能 規制および倫理ガイドラインへの準拠 応答の適切性と安全性 計算効率とリソース使用率 モデルが性能目標を満たし、コンプライアンス要件を満足するまで、最適化フェーズに結果をフィードバックする反復的な評価プロセスを実装する必要があります。 ステージ 3: モデル選択と学習アプローチ 評価フレームワークを確立した後、モデルアーキテクチャと学習戦略について重要な決定を行う必要があります。これらの決定は、問題のスコープ、現在のモデル性能、セキュリティ要件、必要なカスタマイズレベルによって左右されます。 学習アプローチの決定基準 主に3つの選択肢があり、それぞれ異なるメリットとリソース要件があります。 ファインチューニング は最もリソース効率の良いアプローチで、事前学習済みモデルをドメイン固有のデータで追加学習させます。この手法は、対象ドメインが事前学習データと類似している場合や、リソースが限られている場合に適しています。ファインチューニングでは、特定の指示に対してモデルがどう応答すべきかの例を使うインストラクションファインチューニングや、人間のフィードバックを活用した強化学習 (Reinforcement Learning from Human Feedback, RLHF) などの技術により、モデルを人間の好みにより合わせることができます。 継続事前学習 (Continued pretraining, CPT) は、一般的な能力を保ちながら、既存のベースモデルを追加データで学習させる方法です。このアプローチは、基本的な理解力と推論能力を維持しながら、モデルを新しい言語やドメインに効果的に適応させます。ゼロから学習するよりも少ないデータで済みますが、ファインチューニングよりは多くのデータが必要で、高品質なデータによる 2 段階の学習により、未知の質問に対してもより良い対応力を提供します。具体的には、CPT はまずベース知識を保ちながらモデルを新しいドメインや言語に適応させ、次に特定能力の向上に集中することで、より安定して汎用性の高い性能を実現します。 ゼロからの学習 は、モデルアーキテクチャと機能を完全にコントロールできますが、既存のベースモデルをカスタマイズするよりもはるかに多くの計算リソースと高品質データが必要です。このアプローチは、既存モデルが対象言語を適切に扱えない場合や、特定のコンプライアンス要件を満たせない場合に必要となります。 予想されるアクセス量、応答速度の要件、ハードウェアコストを考慮して、API 利用料がセルフホスティングの TCO を上回るポイントを計算する必要があります。TCO 分析では、初期費用と運用費の両方を慎重に評価する必要があります。運用費は主にモデルのホスティング要件によって決まり、パラメータ数が多く GPU 計算需要の大きなモデルは、一定のユーザーアクセスと帯域幅を前提として、時間の経過とともに比例的に高い運用コストにつながります。意思決定では、サービス提供の制約内で主要性能指標を達成する最小のモデルを優先すべきです。これは、初期学習でのコスト削減とホスティング費用およびリソース要件の削減により、長期的な運用持続可能性に直接影響するためです。 ベースモデルがプロンプトにより目標性能の約 80 %を達成し、ラベル付きタスクデータが利用可能な場合はファインチューニングを選択してください。ドメインや言語のカバー範囲が不十分だが、大規模なラベルなしドメイン内コーパス (10-1000B トークン) が存在する場合は継続事前学習 (CPT) を選択してください。適切なベースモデルが存在せず、組織が兆単位のトークン学習インフラをサポートできる場合のみ、ゼロからの学習を検討してください。 主要な要因には、コストと時間の制約 (API 対 GPU 時間) 、サービング要件 (応答速度 / メモリ) 、データレジデンシーの要件、リスク許容度 (破滅的忘却 : 新しい学習によって以前の学習内容が上書きされてしまう現象) が含まれます。CPT またはファインチューニング後に主要性能指標を満たす最小のベースモデルを選ぶべきで、その決定はベースライン性能 (b) と適応率 (ra) 曲線によりを検証する必要があります。 モデルアーキテクチャの検討事項 ファインチューニングや CPT を検討している組織には、出発点として使えるオープンソースモデルがいくつかあります。モデルの選択は、希望するモデルサイズと必要な計算能力、対応したい言語、モデルの初期性能などの技術的な要素によって決まります。 さらに、モデルのアーキテクチャ (例 : Transformer ベースの設計や Expert Parallelism)、対応する情報の種類 (テキストのみか、マルチモーダルか)、パラメータ数、そしてこれらの選択が学習に必要なリソースと本番環境での推論性能にどう影響するかを考慮する必要があります。 ステージ 4: データ収集と準備 データ収集と準備は、カスタム LLM 開発において最も重要なステージです。特に、データの品質、関連性、セキュリティが重要な公共部門での利用では、なおさら重要になります。このアプローチは、選択したモデルアーキテクチャと学習戦略によって大きく変わります。 NeMo Curator による包括的データパイプライン NVIDIA NeMo Curator は、大規模な事前学習とファインチューニング用コーパス向けに設計された、データ整理の統合ツールキットです。このモジュール式パイプラインシステムは、Spark、Ray、Dask を使った分散処理に対応し、データのダウンロードから抽出、クリーニング、フィルタリング、重複除去、分類まですべてを処理します。 NeMo Curatorの主要機能は以下の通りです : データ取り込み : Web クローリング、Common Crawl 処理、データレイク連携、文書解析 (レイアウトヒューリスティクスを使用した PDF からテキストへの変換) データ正規化 : Unicode / NFKC 処理、空白と句読点の標準化、定型文とテンプレートの削除 安全性と PII 処理 : 設定可能な編集 / 削除ポリシーと国 / 分野別のコンプライアンス設定を持つ正規表現と機械学習ベースの検出器 高度な重複除去 : 文書・段落レベルでの完全一致ハッシュマッチング (MinHash/SimHash) とファジー近似重複検出 (LSH) 品質フィルタリング : 言語識別、長さ / パープレキシティ境界値、n-gram / ストップワード比率、有害性 / 安全性スコアリング 分類とタグ付け : ドメイン / トピックのラベル付け、文書構造分析、管轄 / 言語タグ付け 重要なデータ処理要素 重複除去 は複数のレベルで動作します。正規化されたテキストでの完全一致ハッシュ (SHA256) により同一文書とセグメントを削除し、近似重複検出では文書・段落レベルで LSH クラスタリングを使った MinHash/SimHash を使用します。このプロセスは、正規のコピーを保持し、保持根拠とともにハッシュクラスターを記録することで来歴を維持します。 PII 除去 は複数の検出方法を使います。メール、電話番号、ID の正規表現パターン、名前と場所の辞書、人物 / 組織 / 場所エンティティの機械学習による認識、支払いと健康情報に対する特殊なパターンです。データの種類と管轄区域ごとにコンテンツを編集または削除のポリシーを設定でき、コンプライアンス検証のための包括的な監査ログを取得できます。 合成データ生成 は、データが少ないドメインに対して体系的なプロセスで対処します。シード選択、スタイルと根拠制約を持つ LLM プロンプト、出力スキーマの強制 (JSON)、正規表現 / スキーマ / 有害性 / 根拠チェックによる検証、人間によるレビューサンプリング、適切な制御 (temperature / top-p 制限、長さの制限、ソース引用を含む) によるスケーリングを行います。 品質フィルタリングとパープレキシティスコアリング は複数の指標を組み合わせます。言語識別、長さ制御、ヒューリスティック測定 (ストップワード比率、記号 / 絵文字の割合)、有害性 / 安全性スコア、ドメイン適合性分類、参照言語モデルを使ったパープレキシティスコアリングにより、希少だが有効なコンテンツにバイアスをかけることなく、情報量の少ない、または劣化したテキストを特定します。 データ処理を以下の順序で実行する必要があります : データ正規化 PII 除去 重複除去 品質フィルター パープレキシティによるトリミング 保持率などのメトリクスを追跡しながらの分類 / 分割 重複率 PII ヒット率 パープレキシティの分布 言語 / ドメインごとのカバレッジ データセット構成戦略 ナショナル LLM の場合 、対象言語の素材、関連する言語や方言、一般知識を混合した多様なコンテンツを含める必要があります。対象言語と共に英語データを含めることには、2 つの目的があります。 一般的な能力の破滅的忘却を防ぐことと、実用的なバイリンガル機能を維持することです。並列データ (両言語でのペアテキスト) は、スムーズな言語切り替えのために言語間の関係を理解するのに役立ちます。重要なのはバランスの取れた構成です。英語のデータが多すぎると対象言語の能力が低下する可能性があり、英語のコンテンツが不足すると一般知識と推論能力が損なわれる可能性があります。特定の用途に必要な場合、コードや数学テキストなどの専門コンテンツを含めることもできます。 ドメイン特化型モデルの場合 、ドメイン固有のコンテンツと一般知識のバランスを保つことが重要です。ドメインデータに重点を置きすぎると、モデルが幅広い推論と言語スキルを失う可能性があり、一般データが多すぎると専門知識が希薄化してしまいます。並列データセットは、同一言語内で技術的テキストとわかりやすいテキストをペアリングすることで解決策を提供します。例えば、医療ガイドラインと患者向けの分かりやすい説明をマッチングさせて、専門用語と理解しやすい説明を結び付けることができます。 技術実装の考慮事項 トークン化手法の選択は、特に異なる文字体系やアルファベットを使用する言語において、モデル性能に重要な影響を与えます。ラテン文字の言語向けに開発された標準トークン化手法は、単語の区切りがない言語や基本トークナイザーの語彙に含まれていない文字を含む言語には効果的でない可能性があります。多言語モデルの場合、複数の言語を適切に表現する共有語彙を作成することは特に困難で、非効率なテキスト表現と性能低下を招く可能性があります。 ステージ 5: インフラストラクチャ構築と学習アプローチ インフラストラクチャの選択は、学習効率、コスト、運用の複雑さに大きく影響します。AWS では、組織の要件と技術レベルに合わせて、さまざまな選択肢を用意しています。 コンピューティング環境の選択肢 機械学習用のキャパシティブロック を備えた Amazon Elastic Compute Cloud (Amazon EC2) は、柔軟性が高く、細かい制御ができます。これは、特定のカスタマイズが必要な組織に向いていますが、コンピューティング環境の管理における深い専門知識が必要です。Amazon EC2 は、強力な GPU を搭載したさまざまな機械学習向けのインスタンスタイプが用意されており、特定のプロジェクト要件に合わせたコスト効率のよいリソースを選べます。 トレーニングプラン を備えた Amazon SageMaker HyperPod は、大規模深層学習ワークロード向けに最適化されたマネージドサービスです。自動ヘルスモニタリングやインスタンス交換などの機能により、分散学習インフラストラクチャの構築と管理を簡単にします。SageMaker HyperPod のクラスターエージェントは、障害が発生したノードを自動検出して、そのノードを交換し、ユーザーの介入なしに最後の正常なチェックポイントから学習を再開します。これは、信頼性が極めて重要な長時間実行 LLM 学習ジョブにとって特に有効です。 ネットワークとストレージの最適化 Elastic Fabric Adapter (EFA) は、マルチノード GPU 学習に最適な、低遅延、高速通信により、分散 LLM 学習の効率を大幅に向上させる高性能コンピューティングネットワークです。EFA は、カスタムビルドされたオペレーティングシステムをバイパスするハードウェアインターフェースをより、ノード間で頻繁に通信するアプリケーションを AWS 上でスケーラブルに実行できます。これにより、アプリケーションはオペレーティングシステムカーネルを経由せずネットワークハードウェアと直接通信できるため、遅延と CPU 負荷を大幅に削減します。このハードウェアへの直接アクセスは、勾配同期時の頻繁なノード間通信がボトルネックとなりがちな分散機械学習ワークロードにとって特に効果を発揮します。 データストレージとアクセス方法も、学習効率に大きく影響します。大規模学習では、AWS は長期保存用の Amazon Simple Storage Service (Amazon S3) と高性能ファイルシステムの Amazon FSx for Lustre を組み合わせるのが最適です。学習ノード間での効率的なデータアクセスを可能にします。Amazon FSx for Lustre は 分散ファイルストレージ (ストライピング) を使い、ファイルメタデータと実データを物理的に分離することで高速な読み書きを実現します。Amazon S3 と Amazon FSx for Lustre 間の接続は、 データリポジトリの関連付け で管理できます。 オーケストレーションとジョブ管理 選択したインフラストラクチャとチームの技術力に応じて、さまざまなオーケストレーションツールから最適なものを選べます。 SLURM 統合 は、オンプレミスからの移行とクラウドネイティブなデプロイの両方に対応しています。 AWS Parallel Computing Service (AWS PCS) は、SLURM をデフォルトのジョブスケジューラーとして使用し、HPC チームに馴染みのあるワークフロー管理を提供します。SLURM 設定には、GPU リソース管理 (gres.conf)、NCCL/IB 最適化、異なるタイプのジョブのサポート、共有ファイルシステムへのチェックポイントが必要です。 Amazon EKS 統合 は、Kubernetes の専門知識を持つ組織に柔軟性を提供します。 Amazon Elastic Kubernetes Service (EKS) のセットアップには、GPU 対応ノードグループ (p4d/p5、L4/L40S)、NVIDIA GPU Operator のインストール、ノードセレクターとテイントによる適切なスケジューリング、スケールアウト用の Karpenter、学習・推論ワークロード用のポッド優先度 / プリエンプションが必要です。 移行に関する考慮事項 として、SLURM と EKS の間で移行する際は、ネットワーク性能の検証 (同等のインターコネクト性能の実現) 、スケジューラー設定の適切な対応付け (Slurm パーティション / QoS と K8s 名前空間 / ResourceQuotas のマッピング) 、チェックポイントの互換性検証、セキュリティ制御のマッピング (サービスアカウント用の IAM ロール) 、コストモデリングと段階的なロールアウト計画の策定が必要です。 学習プロセスの実装 学習プロセスは通常、PyTorch や TensorFlow などのフレームワークを使用し、複数の GPU またはノード間で分散処理を行います。このプロセスは、データの分散、結果の収集、学習結果に基づく反復サイクルのパターンに従います。 学習は、モデルが定義された性能目標を満たすまで、学習、テスト、改良を繰り返すプロセスです。これには、学習率、バッチサイズ、モデルアーキテクチャなどのパラメータを最適な性能のために調整するハイパーパラメータチューニングなどの手法が含まれます。 学習ジョブの規模、組織内の技術力、特定の性能要件、運用の複雑さと柔軟性のバランスを考慮してインフラストラクチャを選ぶ必要があります。 ステージ 6: 本番環境へのデプロイと性能テスト LLM が性能とコンプライアンスの基準を満たしたら、本番環境への包括的なデプロイに向けて、体系的な性能テスト、インフラストラクチャの最適化、監視を行います。 本番環境の性能テストフレームワーク さまざまな条件下でモデルの性能を検証するために、体系的な性能テストを実施する必要があります。これには、 GenAI-Perf や vLLM などの業界標準ツールを使用したベンチマークフレームワークが含まれ、異なる構成間で一貫した性能測定と比較が可能になります。テストでは、再現性を確保するためにカナリアデータセットを使用し、ステップロードテストやスパイクテストを通じて定常状態とバースト時の両方の動作を把握する必要があります。k6、Locust、またはカスタム Python ハーネスなどのツールを使ってテストを自動化できます。GPU サービスの場合、複数のレプリカを実行することで、オートスケーリングのしきい値を効果的にテストできます。検証では、同時実行レベルごとに 10 〜 30 分間の安定性を確認し、本番環境への準備のために 1 〜 2 時間の耐久テストまで拡張する必要があります。 モデルのデプロイオプションとデータ主権 ナショナル LLM のモデルホスティングを選択する際、3 つの主要なデプロイ方法を区別する必要があります。それぞれのアプローチはデータ主権に対して異なる意味を持ちます : サードパーティクラウド上のクローズドソースモデル : データフローとログは、自組織のアカウント外で管理されるため、厳格なデータレジデンシー要件がある管轄区域ではコンプライアンス上の課題が生じる可能性があります。 マネージドサービス ( Amazon Bedrock など) 経由のオープンソースモデル : マネージドサービス環境で動作しながら、アクセスとガバナンスを簡素化し、制御のしやすさと運用の手軽さのバランスを実現します。 自組織の AWS アカウント内で完全にホストするオープンソースモデル : データの流れ、テレメトリ、監査証跡を最も強力に管理でき、厳格な主権要件を満たすために必要となることが多い方法です。 GDPR 準拠や国内処理義務などのデータレジデンシー要件と主権要件が、この選択を左右します。一部の管轄区域では、学習と推論の両方を国内で行うことを義務付けており、国境を越えたエンドポイントは使用できません。保存場所だけでなく、プロンプト、出力、モデルログの処理される場所もコンプライアンスの対象となります。一時的な推論トラフィックであっても、必要な境界を越えると規制違反になる可能性があります。 多くの公共部門では、自組織のアカウント内でオープンソースモデルをセルフホストすることが、データレジデンシー、プライバシー、監査義務を満たす最も確実な方法です。一方、機密性の低いワークロードや初期評価段階では、マネージド API も有効な選択肢となります。 Amazon SageMaker AI は、モデルデプロイのためのマネージド環境を提供し、基盤となるインフラストラクチャの複雑さの多くを処理しながら、スケーラブルな推論と他の AWS サービスとのシームレスな連携を実現します。より詳細な制御や特定の構成が必要な場合には、Amazon EC2 で完全なカスタマイズ可能な直接デプロイが可能です。Kubernetes の専門知識がある組織なら、Amazon EKS を選んでコンテナ化されたデプロイを行うことで、環境間の柔軟性と移植性が得られます。 デプロイを成功させるには、コスト管理、性能監視、セキュリティコンプライアンスへの細心の注意が必要です。モデルが既存システムとシームレスに連携し、公共部門のセキュリティとコンプライアンス要件を満たすよう、適切な最適化戦略を実装する必要があります。 セキュリティとコンプライアンスのフレームワーク 公共部門の LLM デプロイには、データ主権、プライバシー、監査要件に対応する包括的なセキュリティとコンプライアンス対策が必要です。 承認されたリージョンと VPC (Virtual Private Cloud) に学習と推論を限定し、カスタマーマネージドキー、プライベートサブネット、VPC エンドポイントを使用してデータレジデンシーを確保します。PII 検出と除去は、監査された拒否バケットと不変の変換ログを備えたキュレーションパイプラインに実装する必要があります。 ドキュメントには、一時的なログも含め、プロンプト、出力、テレメトリがどこで処理されるかを明記します。モデルホスティングについては、主権義務がデータの流れとログの制御を求める場合、アカウント内のエンドポイント (Amazon EC2 / Amazon EKS / Amazon SageMaker) を優先すべきです。その際、アクセス制御 (IAM / IRSA) 、転送中と保管時の暗号化、監査証跡 (CloudTrail) 、定期的なコンプライアンスレビューを維持する必要があります。 まとめ 公共部門向けのカスタム LLM の開発とデプロイには、イノベーションとセキュリティ、コンプライアンス、信頼性の要件のバランスを取る体系的なアプローチが必要です。測定可能な成果と再現可能なプロセスを重視する科学的手法により、複雑な課題を乗り越えながらミッションクリティカルな目標を達成できます。 AWS の包括的なサービス群は、初期評価フレームワークから本番環境へのデプロイと監視まで、各開発ステージに必要なツールとインフラストラクチャを提供します。ナショナル LLM を通じて文化遺産を保護する場合でも、ドメイン特化型 LLM で公共サービスを強化する場合でも、カスタム LLM は政府や公共機関がコミュニティにサービスを提供する方法を大きく改善する可能性を秘めています。 成功には、初期デプロイ後も継続的な取り組みが必要です。進化する運用環境において LLM の有効性を維持するため、継続的な監視、改良、適応を行います。 カスタム LLM 開発を開始する準備ができている場合、以下を実施する必要があります : 評価フレームワークの確立 : LM HarnessとAWSネイティブツールを使用 コスト分析の実施 : 予測されるワークロードに対する API 利用とセルフホスティングの TCO を比較 AWS インフラストラクチャオプションの検討 : SageMaker HyperPod、AWS PCS、Amazon EC2 Capacity Blocksを検討 データキュレーションパイプラインの実装 : Nemo Curatorなどのツールで大規模処理に対応 セキュリティとコンプライアンスフレームワークの設計 : 特定の管轄要件を満たす設計 詳細な技術ガイダンスについては、包括的なリソースライブラリをご覧ください : An introduction to preparing your own dataset for LLM training AWS Machine Learning Documentation Amazon SageMaker AI Documentation GENIAC プログラムから学んだ基盤モデル構築支援の教訓 組織のナショナル LLM 取り組みに対する具体的な要件やカスタマイズされた実装ロードマップの作成については、AWS アカウントチームにお問い合わせください。 TAGS: Artificial Intelligence , AWS Public Sector , technical how-to Laura Verghote Lauraは AWS の欧州 PSI における生成 AI リードとして、公共部門への生成 AI 導入を推進しています。欧州全域のお客様と協力し、技術的専門知識と戦略的計画を通じて生成 AI イニシアチブを加速させ、複雑な要件と革新的な AI ソリューションを橋渡ししています。 Anton Alexander Antonは AWS の生成 AI シニアスペシャリストとして、SageMaker HyperPod を使用した大規模な学習および推論ワークロードのスケーリングに注力しています。ベテランの CUDA プログラマーであり Kubernetes エキスパートとして、分散学習のための NVIDIA 技術の統合を支援し、EKS と Slurm 実装を専門としています。MENA 地域および政府部門のお客様と密に連携し、生成 AI ソリューションの最適化に取り組んでいます。機械学習エッジコンピューティングシステムに関する特許を申請中です。仕事以外では、ブラジリアン柔術と大学ボクシングのチャンピオンであり、飛行機の操縦を楽しんでいます。 Eliuth Triana Isaza Eliuth は NVIDIA のデベロッパーリレーションズマネージャーとして、Amazon の AI MLOps、DevOps、サイエンティスト、AWS テクニカルエキスパートを支援しています。 NVIDIA コンピューティングスタックを活用して、データキュレーション、GPU 学習、モデル推論、AWS GPU インスタンスでの本番デプロイにまで、生成 AI 基盤モデルの高速化と最適化をサポートしています。プライベートでは、マウンテンバイク、スキー、テニス、ポーカーを楽しんでいます。 Niki Sotiria Kokkalas Niki Sotiria は EMEA 地域の公共部門組織向けの生成 AI とデータ分析ワークロードを専門とする AWS のインダストリーソリューションアーキテクトです。主に教育に焦点を当てた機関や組織と協力し、イノベーションとインパクトを推進する効果的なデータと AI 戦略の設計と実装を支援しています。 Wenhan Tan Wenhan は NVIDIA のソリューションアーキテクトとして、お客様が大規模に NVIDIA AI ソリューションを導入できるよう支援しています。彼の業務は、深層学習アプリケーションの高速化と推論および学習の課題への対処に焦点を当てています。
アバター
このブログ記事は、株式会社タイミー様が執筆し、Amazon Web Services Japan が監修しています。 はじめに 株式会社タイミーは、「働きたい時間」と「働いてほしい時間」をマッチングするスキマバイトサービスを提供しています。 私たちは、 Amazon EKS Auto Mode (EKS Auto Mode) × Actions Runner Controller (ARC) を活用し、コスト・パフォーマンス・運用性のバランスを兼ね備えた Self-hosted Runner 基盤を構築しました。 本記事では、その背景と設計方針、導入時に直面した課題と解決への取り組み、導入によって得られた効果、そして今後の展望について紹介します。 背景と課題 スキマバイトサービス『タイミー』を中心にプロダクト開発が拡大する中で、CI/CD 基盤の改善には継続的に取り組んできました。 2024年10月に公開した「 CI 基盤を GitHub Actions へ移行した記事 」で紹介したとおり、 CircleCI から GitHub Actions への移行によって、開発体験やパイプライン速度は大きく改善しました。 しかし、開発者数やテストケースの増加、そして AI エージェントの活用拡大により、時間の経過とともに新たな課題が見えてきました。 コスト面での課題 CI 実行回数の急増 開発者や AI エージェント (例 : Devin) の利用が増えるにつれ、CI の実行回数も増加しました。 2025年初頭には、ピーク時で 1 時間あたり 60 件を超えるワークフローを処理する必要があり、コストとパフォーマンスの両立が新たな課題となりました。 GitHub-hosted Runner のコスト最適化限界 GitHub-hosted Runner は安定性に優れる一方で、割引オプションが少なく、コストコントロールの柔軟性に欠けます。実行頻度が高いワークロードに対しては、効率的なコスト最適化が難しい状況でした。 柔軟な最適化が可能な基盤の必要性 一方で、AWS では Savings Plans や Spot インスタンスを活用することで、柔軟な最適化が可能です。利用量が増え続けるタイミーのユースケースにおいては、こうした 柔軟に最適化できる基盤 が求められるようになりました。 技術面での課題 高並列・高頻度な実行負荷 CI ワークフローでは最大 35 並列でジョブを実行しており、ピーク時には 1 時間あたり約 60 回のワークフローが走ることもありました。CI ワークフローだけでも、1 時間に最大で 2,000 件以上の Runner が起動する規模 となり、開発速度を維持しながら、この高い実行頻度に耐えられる仕組みが求められていました。 環境構築コストによる実行時間の肥大化 GitHub-hosted Runner ではジョブごとに環境を都度構築するため、 apt install などのセットアップ処理によって実行時間が長くなり、まれに依存パッケージの取得に失敗してジョブが落ちるケースも発生していました。 テストケースの増加による実行時間の延伸 テスト数の増加に伴い、CI 全体の実行時間が徐々に長くなる傾向がありました。 その結果、「Self-hosted Runner (テスト実行用のコンテナ環境) にテスト実行に必要なライブラリをあらかじめインストールしておけば、テストのたびに毎回ライブラリをインストールする必要がなくなり、より高速化できるのでは?」という意見が開発者から上がるようになりました。 セキュリティと運用負荷のトレードオフ Terraform の適用など、強い IAM 権限を必要とするワークフローも存在しており、 セキュリティを強化しつつ、Self-hosted Runner 基盤に過剰な運用コストをかけないバランスが課題となっていました。 これらの課題を踏まえ、私たちは「コスト」「パフォーマンス」「セキュリティ」「運用性」のバランスを両立できる Self-hosted Runner 基盤を設計することにしました。そのために、複数のアプローチを比較検討しながら、最適なアーキテクチャを模索していきました。 プロジェクト概要 検討のプロセス 最初に検討したのは、 Amazon ECS (ECS) + AWS Lambda (Lambda) + Amazon API Gateway を組み合わせて Self-hosted Runner を構築する方法でした。 スケーラブルでサーバーレスに見える魅力的な構成でしたが、実際に検証してみるといくつかの課題が見えてきました。 GitHub API のレートリミット対応が難しい 1回の CI 実行で最大 35 並列の Runner を起動し、ピーク時には 1 時間に 60 回以上実行されるケースもあります。 これを Lambda 側で制御するのはかなり複雑で、実装コストが高くなってしまう懸念がありました。 起動の速さに限界がある Runnerは「30秒以内に起動してほしい」という要件がありますが、Lambda 経由で ECS タスクを起動する構成ではコールドスタートが発生し、安定 して要件を満たすのが難しい状態でした。 メンテナンスコストが高い Lambda 側のコードを継続的に更新・管理する必要があり、長期運用を考えると負担が大きいと判断しました。 そこで次の候補として、Kubernetes クラスタ上で ARC を運用する方法を検討しました。 ただし Kubernetes は強力である一方、クラスタバージョンアップやノード管理といった運用コストの高さが懸念でした。 こうした背景から、最終的に採用したのが EKS Auto Mode × ARC の組み合わせです。 EKS Auto Mode : クラスタ管理・ノード管理の運用負荷を大幅削減 ARC : GitHub API と連携し、Runner Pod を動的にスケーリング 「Kubernetes の柔軟性を活かしながら、運用負荷を抑えて安定した Self-hosted Runner 基盤を実現できる」 そう判断し、この構成を選びました。 プロジェクト体制と期間 本プロジェクトは、プラットフォームエンジニア 1 名と壁打ち役 1 名という少人数体制で進行しました。 EKS Auto Mode では、クラスターを立ち上げるだけで主要な Add-on が自動的にセットアップされるため、そこに ARC(Actions Runner Controller)を Helm でデプロイするだけで、基本的な骨組みをすぐに構築できます。 これにより、検証と調整を素早く繰り返せる環境を整え、効率的に構築を進めることができました。 さらに、EKS Auto Mode ではノードや主要な Add-on の更新・管理を AWS 側が自動で行ってくれるため、運用設計にかける手間を大幅に減らすことができました。 その結果、短いサイクルで構築から本番導入までスムーズに完了し、検証開始から約 2 か月で安定稼働に至りました。 システムアーキテクチャー ARC : GitHub API と連携し、必要に応じて Runner Pod を自動で起動・削除 EKS Auto Mode : Karpenter による高速スケーリングを実現 EKS Auto Mode のおかげでノード管理の負担を大幅に軽減し、「Kubernetes を使いたいが運用コストは最小限にしたい」という要件を満たすことができました。 導入時に直面した課題と解決策 ① Spot インスタンスの安定性問題 当初はコスト削減を狙って、停止率の低いインスタンスタイプの Spot インスタンス を採用していました。しかし、弊社のCIは 35 並列で高頻度に実行 されるため、必要なインスタンス数が多くなり、停止確率が低いタイプでも 1 日あたり 5〜10 回ほどノードが落ちる ことがありました。その結果、CIが途中で失敗するケースが頻発し、 開発者体験を大きく損ねる要因 となってしまいました。 対策 そこで思い切って オンデマンドインスタンスに切り替え 、必要に応じて Savings Plans を適用する方針にしました。 オンデマンドにしたことで、Runnerが突然落ちるリスクがなくなり、安定して CI を回せるようになった 安定性が向上したことで、CIだけでなく デプロイなど他のワークフローも Self-hosted Runner に寄せる ことが可能に これにより EC2 のアイドル時間を減らし、稼働率を高めることでコスト効率も改善できました ② スケールインで Runner Pod が強制終了する問題 次に直面したのは「EC2 のスケールインによって、Runner Pod が CI 実行中に突然落ちる」という問題です。 原因は、Karpenter の設定でした。 デフォルトでは disruption.consolidationPolicy が WhenEmptyOrUnderutilized になっており、リソース使用率が低いと、 Pod が稼働中でも容赦なくノードを落としてしまう のです。 (参考: https://karpenter.sh/docs/concepts/disruption/ ) 対策 consolidationPolicy を WhenEmpty に変更 Podがないノードのみスケールイン対象とするよう設定 spec: disruption: consolidationPolicy: WhenEmpty これで Runner Pod が実行中に消える問題は解消しました。 ③ ノードが全然スケールインしない問題 しかし、ここで新たな課題が発生します。 それは「一度スケールアウトすると、ノードがほとんどスケールインしなくなる」という現象です。 原因は、Kubernetes のスケジューリングの仕組みにありました。Kubernetes は、Pod をできるだけ均等にノードへ分散配置しようとする特性があります。そのため、ノード上の Pod 数がバラけやすく、どのノードも完全に空になることがほとんどありません。 結果として、スケールインのトリガー条件 (=Pod が存在しないノード) がなかなか満たされず、 ノードが減らない状態が続いてしまいました。 対策 Pod Affinity を利用し、Runner Pod はなるべく同じノードに詰めるよう設定 Pod 配置の断片化を防ぎ、スケールインしやすくしました affinity: podAffinity: preferredDuringSchedulingIgnoredDuringExecution: - weight: 100 podAffinityTerm: labelSelector: matchLabels: actions.github.com/scale-set-namespace: arc-runners topologyKey: kubernetes.io/hostname これによりリソース効率が大きく改善されました。 ④ 夜間にリソースを最適化する作戦 リソース効率をさらに高めるため、 日中は安定性を優先し、夜間だけ段階的にノードを整理する仕組み を導入しました。 具体的には、disruption.consolidationPolicy を WhenEmptyOrUnderutilized に設定したうえで、夜間に 一定間隔で 15 分だけ pod が存在するノードのスケールインを許可 → その後は再び禁止 というサイクルを繰り返します。 これにより、ノード上にPodが残っていても一気に消されることはなく、 「急に Pod が落ちて CI が止まる」といったリスクを避けながら、少しずつリソースを最適化 できるようになります。 spec: disruption: consolidationPolicy: WhenEmptyOrUnderutilized consolidateAfter: 5m budgets: - nodes: "0" reasons: - Underutilized schedule: "0 0 * * *" duration: "11h45m" - nodes: "0" reasons: - Underutilized schedule: "0 12 * * *" duration: "3h15m" - nodes: "0" reasons: - Underutilized schedule: "30 15 * * *" duration: "1h45m" - nodes: "0" reasons: - Underutilized schedule: "30 17 * * *" duration: "2h45m" - nodes: "0" reasons: - Underutilized schedule: "30 20 * * *" duration: "3h30m" この仕組みによって、 日中は安定して CI を回しつつ、夜間は少しずつノードを整理してリソースを効率的に活用 できるようになりました。 導入の効果 コスト面 現時点では、GitHub-hosted Runner を利用していた頃とコストはほぼ同水準です。 しかし今後、Savings Plans の適用やリソースチューニングを進めることで、段階的なコスト削減を見込んでいます。 GitHub-hosted Runner は、 利用時間に応じて課金される従量課金モデル であり、Private リポジトリ向けは 2core 固定 の課金体系になっています。 一方、Self-hosted Runner は EC2 の実行時間に基づく課金 となるため、ジョブの内容に応じて柔軟にリソースを割り当てることが可能になりました。 CPU バウンドなジョブでは多コアを割り当てて高速化 I/O 中心や軽量なジョブでは 1core またはそれ以下に制限 このようにリソースを使い分けることで、EC2 の起動台数を最適化し、コストを柔軟にコントロールできるようになりました。 さらに、Self-hosted Runner の課金体系は基本的に EC2 の稼働時間に依存するため、開発者数が増えても、GitHub-hosted Runner のように Runner 利用料金が比例して膨らむことがない点も大きな利点です。 パフォーマンス面 Runner イメージに事前に必要な apt パッケージなどをインストールしておくチューニングにより、CI 実行時間を 平均で約 3 分短縮 しました。 運用コスト面 EKS を利用する上で手間のかかるポイントのひとつが、ノードや Add-on のバージョン管理です。しかし、EKS Auto Mode を採用したことで、 ノードと主要な Add-on のアップデートは AWS 側で自動的に管理 されるようになりました。 そのため、利用者がノードの入れ替えや Add-on の更新を手動で行う必要がなく、運用負荷を大幅に削減できました。 一方で、クラスタ本体 (control plane) のバージョンアップは引き続き手動で行う必要があります。 ただし、ARC Runner (Helm) で使用している Kubernetes 関連の依存関係については、 Renovate や Dependabot により継続的に最新化しています。その結果、 常に最新の API 群を利用できており、非推奨 API に依存するリスクが低減 されています。これにより、クラスタ本体のバージョンアップ時にも大きな修正を伴うことが少なく、 安全かつスムーズにアップグレードを進められる運用体制 を実現できました。最終的には、定期的にクラスタのバージョンを上げるだけで安定稼働を維持できるようになり、 ほぼ手放しで安定稼働できる運用体制を実現しており、日常的なメンテナンス工数は従来に比べて大幅に軽減されています。 今後の取り組み Runner イメージのチューニングによって、実行時間の短縮には一定の成果を得られました。 今後は、 セキュリティ強化 を目的として、Self-hosted Runner のさらなる活用を検討しています。 たとえば、Terraform を用いて AWS 構成管理を行う GitHub Actions のワークフローでは、 その性質上、比較的強い IAM Role の権限を付与する必要があります。 ワークフロー内では IAM ユーザーを直接使用していないものの、一時的に発行される STS トークン(セッションクレデンシャル)によって、一定期間 AWS リソースにアクセスできる状態になります。 このような仕組みの中で、仮に悪意のあるアクションや依存ライブラリによって環境変数からクレデンシャル情報が抜き取られた場合、そのトークンを悪用して AWS リソースを破壊・改ざんされるリスクがあります。 これは、GitHub-hosted Runner 利用時における 攻撃対象領域 の一つとなり得ます。 Self-hosted Runner を活用することで、こうしたリスクに対してより強固なセキュリティ対策が可能です。 たとえば、Runner の送信元 IP は NAT 経由で固定されているため、Terraform 実行時に利用する IAM Role に IP 制限を付与することで、不正アクセスを防止できます。 さらに、 DNS Firewall や Network Firewall を組み合わせることで、ワークフロー内から外部への不正な通信(例:環境変数を外部サーバーに送信するなど)を遮断できます。これらの対策により、ワークフロー内で利用される一時的なクレデンシャル情報の漏えいを防ぎ、よりセキュアで信頼性の高い環境を実現できると考えています。 まとめ EKS Auto Mode × Actions Runner Controller (ARC) の導入により、タイミーでは運用負荷を抑えながら、スケーラブルで安定した Self-hosted Runner 基盤を実現しました。 EKS Auto Mode によるノード管理の自動化と、ARC・Karpenter による柔軟なスケーリングによって、高速な CI 実行と高い安定性を両立し、開発者体験も大きく向上しました。 今後は、コスト最適化やセキュリティ強化を継続的に進めるとともに、EKS Auto Mode の運用ナレッジが社内に蓄積されていけば、必要に応じてサービス基盤への適用も検討していきたいと考えています。 著者について 徳富 博 (Tokudomi Hiroshi) 株式会社タイミー プラットフォーム エンジニアリング1G 2024年5月にタイミーへ入社。オブザーバビリティ、開発者体験やセキュリティの向上、インフラ整備、パフォーマンスチューニングなどに取り組んでいます。
アバター
本記事は米国時間 2025 年 10 月 31 日に公開された「 This is Kiroween 」を翻訳したものです。 ついに来ました!このハロウィン、私たちは初回となる Kiroween ハッカソン を開始します。これは年に一度のコンテストで、従来のツールでは実現が困難な、ワイルドで創造的なアイデアを刺激するために設計されています。私たちは 12 の異なる賞と 66 人の受賞者に総額 10 万ドルを授与し、1 位の賞金は 3 万ドルです。スペック、エージェントフック、ステアリング、MCP などの Kiro のエージェント機能が可能性をどのように押し広げるかを体験してください。あなたが熟練した開発者、スタートアップ創設者、デザイナー、または技術愛好家であっても、Kiro があなたをどのように後押しするかを見るのが待ちきれません。 Devpost で登録 注意:提出期間中、参加者には Kiro Pro + プラン相当のクジレットを提供いたします。Kiroween に登録すると、特典を受ける方法の詳細な手順が記載された確認メールが届きます。私たちの優先事項は、あなたが Kiro で意味のある構築と実験を行うためのリソースを確実にご提供することです。 ダークモードでコーディングする勇気を チャレンジは、ハロウィンの精神に浸れるような不気味なカテゴリーセットに着想を得て、Kiro を使用して動作するアプリを構築することです。これらを自由にしたのは、あなたが最もワクワクするものを構築でき、本当にクールでユニークなアプリのアイデアを引き出すのに十分なインスピレーションを与えるためです。 復活 :お気に入りの廃れた技術を蘇らせましょう。廃れた技術を今日のイノベーションで再構想するか、明日の問題を解決してください。 フランケンシュタイン :思いもよらない強力なものを一つのアプリにしてつなぎ合わせましょう。一見互換性のない要素を結び合わせて、予想外に強力なものを構築してください。 スケルトンクルー :骨組みとなるコードテンプレートを構築してください。簡潔で明確でありながら、様々なユースケースに対応できる柔軟性を備えたものにしましょう。基盤となる 2 つの異なるアプリケーションを通じて、その汎用性を示してください。 コスチュームコンテスト :どんなアプリでも構築してください。ただし、洗練されて忘れられない不気味なユーザーインターフェースを見せてください。アプリの機能を向上させる不気味なデザイン要素を取り入れてください。 さらに、スタートアップらしい味付けも Kiroween に新たな賞カテゴリ「ベストスタートアッププロジェクト」を追加しました。このカテゴリでは、最優秀作品に 1万ドル を授与します。(提出詳細については ルール を参照してください)。スタートアップ創設者に、通常であれば大幅により多くのリソースが必要なコンセプトを迅速にプロトタイプし開発する機会を提供したいと考えています。Kiro の開発サイクル加速能力により、より野心的なアイデアをテストし、より速い反復で、魅力的な製品を生み出すことができます。これらをすべてハッカソンの期間内に実現します。 詳細 重要な日程: 開始:2025 年 11 月 1 日土曜日、日本時間 午前 1 時 提出締切:2025 年 12 月 6 日金曜日、日本時間 午前 7 時 賞金プール :カテゴリー受賞者、総合受賞者、創造性、ソーシャルエンゲージメントなどの特別ボーナス賞を含む、総額 10 万ドルの賞金が待っています。 審査基準 :あなたの提出物は、 Ania Kubow 、 Santiago Valdarrama 、 Rachel Stephens などを含む専門業界審査員のパネルによって評価されます。各アプリは以下に基づいて評価されます: 潜在的価値 :あなたのソリューションはどれほど有用で、アクセスしやすく、インパクトがありますか? 実装 :Kiro の機能をどれほど効果的に活用しましたか? 品質とデザイン :あなたのプロジェクトはどれほど創造的で、独創的で、洗練されていますか? 提出要件 : .kiro ディレクトリ(スペック、フック、ステアリングの使用方法を示す)を含むパブリックコードリポジトリ、機能するアプリケーション URL、3 分間のデモンストレーション動画、および以下のような機能の次世代レベルの理解を示す開発プロセス全体での Kiro 活用に関するドキュメントを提供する必要があります。 バイブコーディング :プロジェクトを構築するために Kiro との会話をどのように構造化しましたか?Kiro が手助けした最も印象的なコード生成は何でしたか? エージェントフック :Kiro フックでどのような特定のワークフローを自動化しましたか?これらのフックは開発プロセスをどのように改善しましたか? 仕様駆動開発 :Kiro が実装するためのスペックをどのように構造化しましたか?仕様駆動アプローチは開発プロセスをどのように改善しましたか?これはバイブコーディングと比較してどうでしたか? ステアリングドキュメント :Kiro の応答を改善するためにステアリングをどのように活用しましたか?最も大きな違いを生んだ特定の戦略はありましたか? MCP :Kiro の機能拡張はプロジェクト構築にどのように役立ちましたか?MCP が可能にした機能やワークフロー改善のうち、そうでなければ困難または不可能だったものは何ですか? Devpost で登録 Discord が居場所です Kiro Discord では専用の #kiroween-hackathon チャンネルが待っています。そこで仲間の参加者とつながり、チームを結成し、アイデアを共有し、他の開発者や Kiro チームメンバーからサポートを得ることができます。私たちのコミュニティは、課題をナビゲートし、フィードバックを提供し、途中での進歩を祝うお手伝いをする準備ができています。また、製品専門家にリアルタイムで質問できる隔週のオフィスアワーもあります。ハッカソンを超えて、プロジェクトスポットライト、製品発表、イベント更新、その他のニュースやリソースが定期的に共有されています。そこでお会いしましょう。 暗闇に git commit する準備はできましたか? Kiroween は Kiro 開発者のために、Kiro で実験し、それが提供する機能と能力の全範囲を活用する楽しい機会として設計されました。今こそ、忘れられない何かを生み出すチャンスです。Kiroween の特別な不気味さからインスピレーションを得て、アイデアを召喚し、暗闇に git commit してください。 Devpost で登録 X 、 LinkedIn 、 Instagram で @kirodotdev を、 BlueSky で@kiro.devをタグ付けし、ハッシュタグ #codewithkiro を使用して進捗の更新を共有してください。
アバター