TECH PLAY

AWS

AWS の技術ブログ

2959

画期的なパフォーマンスとスケーラビリティを備えた 第 2 世代 AWS Outposts ラック を 4 月に発表してからも、AWS はクラウドのエッジでお客様のために革新し続けてきました。9 月 30 日、 AWS Outposts サードパーティー統合プログラムが拡大され、既存の NetApp オンプレミスエンタープライズストレージアレイ や Pure Storage FlashArray との統合リストに、 Dell PowerStore システムと HPE Alletra Storage MP B10000  システムが仲間入りしました。このプログラムは、お客様が AWS ネイティブツールを使用して、AWS Outposts をサードパーティーストレージアレイで簡単に使用できるようにします。ソリューションの統合は、VMware ワークロードを AWS に移行しており、移行中に既存のストレージインフラストラクチャを維持する必要がある組織や、AWS サービスの使用中もデータをオンプレミスに維持することで、厳しいデータレジデンシー要件を満たす必要がある組織にとって特に重要です。 この発表は、AWS が過去 1 年の間に達成した 2 つの重要なストレージ統合マイルストーンを基盤とするものです。2024 年 12 月、AWS マネジメントコンソール経由で Outposts 上の Amazon EC2 インスタンスに サードパーティーストレージアレイからのブロックデータボリュームを直接アタッチする機能 を導入しました。2025 年 7 月には、これらの外部ストレージアレイから直接 Amazon EC2 インスタンスを起動 できるようにしました。今回 Dell と HPE が追加されたことにより、オンプレミスストレージ投資の AWS Outposts との統合方法におけるお客様の選択肢がますます広がりました。 強化されたストレージ統合機能 AWS のサードパーティーストレージ統合は、データボリュームとブートボリュームの両方をサポートし、iSCSI SanBoot と Localboot の 2 つの起動方法を提供します。iSCSI SANBoot オプションは読み取り専用ブートボリュームと読み取り/書き込みブートボリュームの両方を有効にし、Localboot オプションは iSCSI プロトコルか NVMe-over-TCP プロトコルのいずれかを使用する読み取り専用ブートボリュームをサポートします。この包括的なアプローチにより、お客様は、Outposts が提供する一貫的なハイブリッドエクスペリエンスを維持しながら、ストレージリソースを一元的に管理できます。 お客様は、AWS マネジメントコンソールにある Amazon EC2 インスタンス起動ウィザードを使用して、任意のサポート対象パートナーが提供する外部ストレージを使用するようにインスタンスを設定できます。ブートボリュームについては、 Windows Server 2022 と Red Hat Enterprise Linux 9 向けの AWS 検証済み AMI が提供されており、 AWS Samples からセットアッププロセスを簡素化するための自動化スクリプトを入手できます。 さまざまな Outposts 構成のサポート Outposts 2U サーバーと両世代の Outposts ラックでは、サードパーティーストレージ統合特徴量のすべてがサポートされています。第 2 世代 Outposts ラックのサポートは、お客様が Outposts 上の最新 EC2 インスタンスの強化されたパフォーマンス (2 倍の vCPU、メモリ、ネットワーク帯域幅など) を、希望するストレージソリューションと組み合わせて活用できることを意味します。統合は、簡素化された新しいネットワークスケーリング機能と、超低レイテンシーで高スループットのワークロード向けに設計された専用の Amazon EC2 インスタンスの両方とシームレスに連動します。 知っておくべきこと お客様は、既存の Outposts デプロイで、または AWS マネジメントコンソール から新しい Outposts を注文することで、これらの機能の使用を今すぐ開始できます。Outposts サーバーとのサードパーティーストレージ統合を使用している場合は、オンサイト担当者またはサードパーティー IT プロバイダーにサーバーの取り付けを依頼できます。Outposts サーバーがネットワークに接続されたら、AWS がコンピューティングリソースとストレージリソースをリモートでプロビジョニングして、アプリケーションの起動を開始できるようにします。Outposts ラックのデプロイプロセスには、ラックを取り付けてアクティブ化する前に AWS 技術者がサイトの状態とネットワーク接続を確認するセットアップ作業が含まれます。サードパーティーストレージコンポーネントの実装は、ストレージパートナーが援助します。 互換性のあるすべてのストレージベンダーとの Outposts サードパーティーストレージ統合は、Outposts がサポートされているすべての AWS リージョンで利用でき、追加の料金はかかりません。サポートされているリージョンの最新リストについては、 Outposts サーバー と Outposts ラック のよくある質問を参照してください。 Outposts サードパーティーストレージ統合プログラムの今回の拡大は、エンタープライズグレードの柔軟なハイブリッドクラウドソリューションを提供し、クラウド移行ジャーニーの進捗状況に合わせてお客様に対応するという AWS の継続的な取り組みを実証するものです。この機能とサポートされるストレージベンダーの詳細については、 AWS Outposts のパートナーページ と、 Outposts サーバー 、 第 2 世代 Outposts ラック 、 第 1 世代 Outposts ラック のテクニカルドキュメントをご覧ください。 パートナーソリューションの詳細については、 Dell PowerStore の AWS Outposts との統合 と、 HPE Alletra Storage MP B10000 の AWS Outposts との統合 をお読みください。 原文は こちら です。
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの野間です。最近すっかり涼しくなり、私の周りには体調を崩される方が多くなってきました。みなさま働きすぎと体調管理にお気を付けください。ちなみに私はいつも元気です。 さて、月替わりしまして10月の builders.flash から生成AI関連の記事が出ていますのでピックアップしてみました。週刊生成AIの情報と併せて是非ご参照くださいませ。 Amazon Bedrock ガードレールでゲーム内のキャラクターを彩ろう! 「それ、AI にやらせてみよう」Claude Code Action 活用テクニック with Amazon Bedrock AWS Transform for mainframe と GenU で COBOL プログラム説明書を作ってみよう Amazon Novaを使った特許分析システムの処理コスト最適化 ~ パテント・リザルトの生成 AI 実装解説 生成 AI x RAG x サーバーレスで実現! AWS AppSync Events と Amazon Bedrock Knowledge Bases で作るライブチャットモデレーション Cline with Amazon Bedrock で始める Vibe Coding ~ テックアカデミーにおける活用事例 AI エージェントで開発効率を加速しよう!Bedrock Engineer を触って学ぶ AI エージェント活用術 利用率 100% 達成 ! Amazon Bedrock を活用した生成 AI の開発組織への導入 そして毎回お知らせしておりますが「 AWS ジャパン生成 AI 実用化推進プログラム 」も非常に引き続き募集中ですのでよろしくお願いします。 では今週も生成 AI with AWS界隈のニュースを見ていきましょう! さまざまなニュース AWS生成AI国内事例ブログ「株式会社ケアネット様の AWS 生成 AI 事例「医師向け情報サービスにおける大規模 AI ライティングシステムの実装」のご紹介」 このブログでは医師向け情報サービスを提供する株式会社ケアネット様が、Amazon Bedrock を活用して医学文献から記事を自動生成する大規模AIライティングシステムを構築した事例を紹介しています。年間150万件以上発表される医学文献の中から、従来は人力で1日約10件しか提供できなかった記事を、生成AIを活用することで最大5,000件まで飛躍的に増加させ、24万人の医師会員に個別最適化された情報配信を実現しました。Amazon Bedrockのクロスリージョン推論機能により大量のリクエストを並列処理し、セキュアなインフラ内で医療情報という機密性の高いデータを安全に扱いながら、高い継続率60%超という成果を達成しています。Amazon Bedrockを活用する際のアーキテクチャ設計、スケーラビリティの確保、セキュリティ対策の参考になる内容となっています。 AWS生成AI国内事例ブログ「AWS Summit Japan 2025 AI健康アプリ「HugWay」を支えるAWSアーキテクチャ:テオリア・テクノロジーズの認知症プラットフォーム戦略」 AWS Summit Japan 2025で展示されたテオリア・テクノロジーズのAI健康アプリ「HugWay」は、認知症予防をサポートする新しい健康管理アプリケーションです。このブログでは、AIパートナー「ハグまる」がユーザーに寄り添った会話を実現する仕組みや、会話履歴を分析・要約して長期的なパーソナライゼーションを提供する技術が紹介されています。マイクロサービス設計により機能拡張がしやすく、トラフィックの変動にも柔軟に対応できる実践的なアーキテクチャは、生成AIアプリケーションを開発する方にとって参考になると思います。また、OpenTelemetryを採用したオブザーバビリティ基盤の構築手法も解説されており、生成AIの安全性検証や品質管理のアプローチについてヒントを得ることができます。 サービスアップデート Anthropic Claude Sonnet 4.5 が Amazon Bedrock で提供開始 Amazon Bedrock でAnthropicの最も高性能なモデルであるClaude Sonnet 4.5が利用可能になりました。このモデルは、SWE-bench Verifiedベンチマークで高い性能を誇り、複雑なエージェント処理、コーディング、長期にわたるタスクに優れた能力を発揮しながら、大量利用時のスピードとコスト効率も最適化されています。マルチチャネルマーケティングキャンペーンの自律的な管理、クロスファンクショナルなエンタープライズワークフローの調整、サイバーセキュリティにおける脆弱性の自動パッチ適用、金融サービスでの高度な予測モデリングなど、複雑なマルチステップタスクを高精度で処理できます。Amazon Bedrock API 経由で、過去のツール呼び出しからの古い情報を自動的にクリアするコンテキスト編集機能と、コンテキストウィンドウ外に情報を保存・参照できる新しいメモリツールが利用可能となり、生成AIエージェントの精度とパフォーマンスが向上します。クロスリージョン推論により複数のロケーションで利用できます。またCross-Region Inference Profile に日本が追加され、日本国内(ap-northeast-1 と ap-northeast-3)でのクロスリージョン推論が可能となりました。 AWS API MCP Server v1.0.0 がリリース AWS API Model Context Protocol(MCP)Server のv1.0.0がリリースされました。このサーバーは、自然言語でAWS APIと対話し、文法的に正しいCLIコマンドを生成・実行できる機能を提供します。今回のリリースでは、起動時間の短縮、セキュリティ強化、CloudWatchエージェントによるログ収集対応、HTTP transportのサポート追加などの機能強化が実装されました。オープンソースとして GitHub で公開され、 Amazon ECR Public Gallery からコンテナイメージとしても利用可能です。 AWS Knowledge MCPサーバーが一般提供開始 AWS Knowledge Model Context Protocol(MCP)Server の一般提供が開始されました。このサーバーは、AWSのドキュメント、ブログ投稿、What’s New、ベストプラクティスなどの情報を、LLM互換フォーマットでAIエージェントやMCPクライアントに提供します。今回のリリースでは、AWS API のリージョンごとの可用性や CloudFormation リソースの情報も含まれており、より実用的な情報のアクセスが可能になりました。AWSアカウント不要で無料利用でき、グローバルに提供されています。 Open Source Model Context Protocol (MCP) Server now available for Amazon Bedrock AgentCore Amazon Bedrock AgentCore 向けに、オープンソースのModel Context Protocol(MCP)サーバーが提供開始され、開発者が好みの開発環境で本格的なAIエージェントを分析・変換・デプロイできる標準化されたインターフェースが利用可能になりました。Kiro、Claude Code、Cursor、Amazon Q Developer CLI などの統合IDEやAIコーディングアシスタントとワンクリックインストールで統合でき、自然言語を使ってエージェントロジックを反復開発し、AgentCore SDKに変換して開発アカウントにデプロイすることが可能です。AgentCore MCP Serverについてのドキュメントやインストール方法は、 GitHubリポジトリ をご覧ください。また、詳しい情報はこちらの ブログ にも掲載しています。 Amazon Bedrock Data Automationが文字起こし機能を強化 Amazon Bedrock Data Automation で、音声ファイルの文字起こし出力が強化され、スピーカーダイアライゼーション(話者識別)とチャネル識別がサポートされるようになりました。スピーカーダイアライゼーションは複数人が参加する会議や通話で各話者を自動的に検出・追跡し、チャネル識別では顧客と営業担当者など、各チャネルの音声を個別に処理できます。米国西部(オレゴン)、米国東部(バージニア北部)、GovCloud(米国西部)、欧州(フランクフルト)、欧州(ロンドン)、欧州(アイルランド)、アジアパシフィック(ムンバイ)、アジアパシフィック(シドニー)で利用可能です。 Cohere Embed v4 マルチモーダル埋め込みモデルが Amazon Bedrock で提供開始 Amazon Bedrock でCohereの最新マルチモーダル埋め込みモデルEmbed v4が利用可能になりました。このモデルは、テキストだけでなく、表やグラフ、図、コードスニペット、手書きメモを含む複雑なビジネスドキュメントをネイティブに処理できる点が大きな特徴です。従来のモデルでは必要だった大規模なデータ前処理パイプラインが不要となり、スペルミスやフォーマットの問題も自動的に処理するため、時間のかかるデータクリーンアップ作業から解放されます。100以上の言語をサポートし、金融、医療、製造などの業界特有の文書に対してもファインチューニングされているため、グローバルな企業が専門的なドキュメントから洞察を引き出す際に優れた性能を発揮します。生成AIアプリケーションにおいては、複雑なビジネス資料を含むRAGシステムの構築や、多言語対応の高度な検索・情報取得機能の実装が、これまで以上に容易かつ高精度に実現できます。米国東部(バージニア北部)、欧州(アイルランド)、アジアパシフィック(東京)で利用可能です。また、特定のAWSリージョンからクロスリージョン推論を通じてアクセスすることができます。詳細は こちらのドキュメント をご参照ください。 Amazon Neptune DatabaseがGraphStormと統合し、スケーラブルなグラフ機械学習を実現 Amazon Neptune Database が、エンタープライズ向けのオープンソースグラフ機械学習ライブラリであるGraphStormと統合されました。この統合により、GraphStormでグラフニューラルネットワーク(GNN)モデルをトレーニングし、Neptune上のグラフデータに対してリアルタイムで推論を実行できるようになります。ノード分類やリンク予測などの予測結果を1秒未満で取得できるため、アカウント、デバイス、トランザクション間の複雑な関係性をリアルタイムに分析する不正検知や、ユーザー行動に即座に適応する動的レコメンデーション、継続的に更新されるリスクスコアリングなどのユースケースが実現可能です。Amazon Neptune Database が利用可能な全リージョンで提供されています。 Amazon OpenSearch Ingestion がバッチAI推論をサポート開始 Amazon OpenSearch Ingestion パイプラインで、バッチAI推論機能が利用できるようになりました。これまで Amazon Bedrock やAmazon SageMaker などとのコネクターを使ったリアルタイム推論は可能でしたが、今回のアップデートにより、大規模データセットをオフラインで効率的に処理できる非同期バッチ推論が追加されました。この機能により、ベクトル埋め込みの生成や取り込みといった大量データの処理が、より高いパフォーマンスとコスト効率で実現できます。Amazon OpenSearch Ingestion 対応の全リージョンおよびバージョン2.17以降のドメインで利用可能です。詳細は こちらのドキュメント をご参照ください。 Amazon SageMaker managed MLflow が AWS GovCloud(米国)リージョンでの提供を開始 Amazon SageMaker managed MLflow が AWS GovCloud(米国西部)および AWS GovCloud(米国東部)の両リージョンで利用可能になりました。政府機関や厳格なセキュリティ要件を持つ組織にとって、GovCloudでの提供により高いセキュリティ基準を満たしながら生成AI開発を推進できる重要な選択肢となります。 Amazon Bedrock がアジアパシフィック(タイ、マレーシア、台北)リージョンでの提供を開始 Amazon Bedrock が新たにアジアパシフィック(タイ、マレーシア、台北)リージョンで利用可能になりました。これにより、タイ、マレーシア、台北それぞれの現地でデータを保持しながら、多様な基盤モデルと包括的なツール群を活用した生成AIアプリケーションの開発・運用が実現できます。詳細は こちらのドキュメント をご参照ください。 Amazon Bedrock が中東(UAE)リージョンでの提供を開始 Amazon Bedrock が新たに中東(UAE)リージョンで利用可能になりました。これにより、UAE現地でデータを保持しながら、多様な基盤モデルと包括的なツール群を活用した生成AIアプリケーションの開発・運用が実現できます。詳細は こちらのドキュメント をご参照ください。 Amazon Bedrock がイスラエル(テルアビブ)リージョンでの提供を開始 Amazon Bedrock が新たにイスラエル(テルアビブ)リージョンで利用可能になりました。これにより、イスラエル現地でデータを保持しながら、多様な基盤モデルと包括的なツール群を活用した生成AIアプリケーションの開発・運用が実現できます。詳細は こちらのドキュメント をご参照ください。 今週は以上です。それでは、また来週お会いしましょう! 著者について 野間 愛一郎 (Aiichiro Noma) AWS Japan のソリューションアーキテクトとして、製造業のお客様を中心に日々クラウド活用の技術支援を行なっています。データベースやデータ分析など、データを扱う領域が好きです。最近、ハーブを育てるのにハマっています。
アバター
9 月 29 日、Anthropic を搭載した Claude Sonnet 4.5 が Amazon Bedrock で利用可能になったことを発表できることを嬉しく思います。Amazon Bedrock は、主要な AI 企業が提供する高性能な基盤モデルの選択を提供するフルマネージドサービスです。この新しいモデルは、Claude 4 の基盤に基づいて構築されており、コーディングや複雑なエージェントアプリケーションにおいて最先端のパフォーマンスを実現しています。 Claude Sonnet 4.5 は、ツール処理、メモリ管理、およびコンテキスト処理でのパフォーマンスが強化されたことで、エージェント機能が向上したことを示しています。このモデルでは、最適な改善点の特定から、リファクタリングの決定におけるより強力な判断の実施まで、コード生成と解析において著しい改善が見られます。特に、開発サイクル全体を通じて一貫したパフォーマンスと信頼性を維持しながら、複雑なソフトウェアプロジェクトを数時間または数日にわたって効果的に計画および実行できる、自律的で長期的なコーディングタスクに優れています。 ソース: https://www.anthropic.com/news/claude-sonnet-4-5 Amazon Bedrock で Claude Sonnet 4.5 を使用することで、デベロッパーはフルマネージドサービスにアクセスできるようになります。このサービスでは、基盤モデル用の統合 API を提供するだけでなく、セキュリティと最適化のためのエンタープライズグレードのツールでデータを完全に制御できます。 また、Claude Sonnet 4.5 は Amazon Bedrock AgentCore とシームレスに統合されているため、デベロッパーは複雑なエージェントを構築する際にモデルの機能を最大限に活用できます。AgentCore の専用インフラストラクチャは、ツール処理、メモリ管理、およびコンテキスト理解におけるモデルの強化された機能を補完します。デベロッパーは、完全なセッション分離、8 時間の長期サポート、および包括的なオブザーバビリティ特徴量を活用して、自律的なセキュリティ運用から複雑なエンタープライズワークフローまで、本番環境に対応したエージェントをデプロイおよび監視できます。 ビジネスアプリケーションとユースケース Sonnet 4.5 は、その技術的機能だけでなく、一貫したパフォーマンスと高度な問題解決能力を通じて、実用的なビジネス価値をもたらします。このモデルは、複雑なワークフロー全体で信頼性の高いパフォーマンスを維持しながら、ビジネス文書の作成と編集に優れています。 このモデルは、いくつかの主要産業における強みを示しています: サイバーセキュリティ – Claude Sonnet 4.5 を使用すると、脆弱性が悪用される前に自律的にパッチを適用するエージェントをデプロイし、事後対応型の検出から事前対応型の防御へと移行できます。 財務 – Sonnet 4.5 は、エントリーレベルの財務分析から高度な予測分析まですべてを処理し、手作業による監査準備をインテリジェントなリスク管理に変換するのに役立ちます。 リサーチ – Sonnet 4.5 は、ツールやコンテキストをより適切に処理し、すぐに使えるオフィスファイルを提供できるため、専門家が分析して最終的な成果物や実用的な洞察を得ることができます。 Amazon Bedrock API の Sonnet 4.5 機能 Amazon Bedrock API での Sonnet 4.5 のハイライトは次のとおりです: スマートコンテキストウィンドウ管理 – 新しい API は、AI モデルが最大容量に達したときにインテリジェントな処理を導入します。Claude Sonnet 4.5 では、会話が長すぎたときにエラーを返す代わりに、利用可能な上限までの応答を生成し、停止した理由を明確に示すようになりました。これにより、イライラするような中断がなくなり、ユーザーは利用可能なコンテキストウィンドウを最大限に活用できます。 効率化のためのツール使用量のクリア – Claude Sonnet 4.5 では、長時間の会話中でもツールのインタラクション履歴を自動的にクリーンアップできます。会話に複数のツールコールが含まれる場合、システムは最新のツール結果を保存しながら、古いツール結果を自動的に削除できます。これにより、会話を効率的に保ち、不要なトークンの消費を防ぎ、会話の質を維持しながらコストを削減できます。 クロスカンバセーションメモリ – 新しいメモリ機能により、Sonnet 4.5 はローカルメモリファイルを使用してさまざまな会話の情報を記憶できます。ユーザーは、好み、コンテキスト、または 1 回のチャットセッションを超えて残る重要な情報をモデルに明示的に記憶するように依頼できます。これにより、ローカルファイル内の情報を安全に保ちながら、よりパーソナライズされたコンテキスト認識型のインタラクションが可能になります。 コンテキストを管理するためのこれらの新機能により、デベロッパーは、コンテキストの制限に達したり、重要な情報を頻繁に失ったりすることなく、長時間実行されるタスクをより高いインテリジェンスで処理できる AI エージェントを構築できます。 開始方法 Claude Sonnet 4.5 の使用を開始するには、正しいモデル ID を使用して Amazon Bedrock からアクセスできます。 Amazon Bedrock Converse API を使用してコードを一度記述し、さまざまなモデルをシームレスに切り替えることが優れたプラクティスです。これにより、Sonnet 4.5 や Amazon Bedrock で利用できる他のモデルを簡単に試すことができます。 これを簡単な例で実際に見てみましょう。Amazon Bedrock Converse API を使用して、Sonnet 4.5 にプロンプトを送信します。まず、これから使用するモジュールをインポートします。この短い例では、BedrockRuntimeClient を作成できるように、 AWS SDK for Python (Boto3) のみが必要です。後で出力をうまくフォーマットできるように、リッチパッケージもインポートしています。 ベストプラクティスに従って、boto3 セッションを作成し、Amazon Bedrock クライアントを、直接作成するのではなく、そこから作成します。これにより、構成を明示的に制御でき、スレッドの安全性が向上し、デフォルトのセッションに依存する場合に比べてコードの予測とテストが容易になります。 Sonnet 4.5 のパワーを実証するために単純な質問をするのではなく、少し複雑なものをモデルに与えたいと思います。そこで、単一のデータベースを使用して Java で記述された架空のレガシーモノリシックアプリケーションの現在の状態をこのモデルに与えて、移行戦略、リスク評価、推定タイムライン、主要なマイルストーン、および具体的な AWS サービスの推奨事項を含むデジタルトランスフォーメーション計画を求めます。 プロンプトがかなり長いので、ローカルのテキストファイルに入れて、コードでロードするだけです。次に、ロールを「user」に設定して Amazon Bedrock コンバースペイロードをセットアップし、これがアプリケーションのユーザーによるメッセージであることを示し、コンテンツにプロンプトを追加します。 ここで魔法が起こります! すべてをまとめて、モデル ID を使用して Claude Sonnet 4.5 を呼び出します。こんな感じですね。Sonnet 4.5 には、推論プロファイルからのみアクセスできます。これにより、モデルリクエストを処理する AWS リージョンが定義され、スループットとパフォーマンスの管理に役立ちます。 このデモでは、Amazon Bedrock のシステム定義のクロスリージョン推論プロファイルの 1 つを使用しています。これにより、リクエストが自動的に複数のリージョンにルーティングされ、最適なパフォーマンスが得られます。 あとは、画面にプリントして結果を確認するだけです。ここでは、先ほどインポートした豊富なパッケージを使用するので、これに対して長い応答が予想されるため、適切な形式の出力が得られる可能性があります。また、出力をファイルに保存して、チームと簡単に共有できるようにしています。 オーケー、結果を確認しましょう! 予想通り、Sonnet 4.5 は私の要求を満たし、私が実行に移せるデジタルトランスフォーメーション計画のための広範囲かつ詳細なガイダンスを提供してくれました。その内容には、エグゼクティブサマリー、時間の見積もりがある段階的な移行戦略のほか、開発プロセスを開始してマイクロサービスに分解し始めるためのコードサンプルも含まれていました。また、テクノロジーを導入するためのビジネスケースを示し、各シナリオに適した AWS サービスを推奨しました。レポートのハイライトをいくつかご紹介します。 Claude Sonnet 4.5 は、一貫性を保ちながら創造的なソリューションを提供できるため、複雑な問題解決や開発タスクに AI を使用したい企業にとって理想的な選択肢です。指示に従い、ツールを使用するという強化された機能が、さまざまなビジネス環境においてより信頼性が高く革新的なソリューションに効果的に反映されます。 知っておくべきこと Claude Sonnet 4.5 は、エージェント機能において大きな進歩を遂げており、一貫したパフォーマンスと創造的な問題解決が不可欠な分野では特に優れています。ツール処理、メモリ管理、およびコンテキスト処理における強化された機能により、金融、研究、サイバーセキュリティなどの主要業界で特に価値があります。Claude Sonnet 4.5 は、複雑な開発ライフサイクルの処理、長期にわたるタスクの実行、ビジネスクリティカルなワークフローへの取り組みのいずれにおいても、卓越した技術と実践的なビジネス価値を兼ね備えています。 Claude Sonnet 4.5 が本日発売されました。 提供状況の詳細 については、ドキュメントをご覧ください。 Amazon Bedrock の詳細については、自分のペースで進められる Amazon Bedrock Workshop をご覧ください。また、利用可能なモデルとその機能をアプリケーションで使用する方法をご覧ください。 原文は こちら です。
アバター
みなさん、こんにちは。ソリューションアーキテクトの根本です。 今週も 週刊AWS をお届けします。 今週で4月期初の企業は上期が終わり、内定式や異動など多い季節でしょうか。 まだ暑い日も多く寒暖差激しいので、みなさん体調お気をつけください。 AWSが直接開催するイベントではないですが、今週末の10/11(土)はいよいよJAWS FESTA 2025 in 金沢ですね。 キャンセル待ち等もあるようですが、興味ある方はぜひ確認してみてください! – JAWS FESTA 2025 in 金沢 https://jawsfesta2025.jaws-ug.jp/ それでは、先週の主なアップデートについて振り返っていきましょう。 2025年9月29日週の主要なアップデート 9/29(月) Anthropic’s Claude Sonnet 4.5 is now in Amazon Bedrock Amazon Bedrock で Anthropic の最新モデル Claude Sonnet 4.5 が利用可能になりました。このモデルは現在 SWE-bench Verified ベンチマークでトップの成績を収めており、コーディングや複雑なエージェント処理に優れ、マルチチャネルマーケティングキャンペーンの自動管理やサイバーセキュリティの脆弱性パッチ適用など、多段階タスクを高精度で実行できます。新たにメモリツール機能も追加され、コンテキストウィンドウ外の情報を保存・参照して、精度とパフォーマンスを向上させることも可能になっています。利用可能なリージョンに関しては ドキュメント 、詳細は Blog もご確認ください。 Amazon ECS announces IPv6-only support Amazon ECS で IPv6-only サブネットでのタスク実行がサポートされました。従来は IPv4 アドレスが必須だったため、大規模にコンテナを展開するアプリケーション環境では IPv4 アドレス不足がボトルネックになることがありました。今回のアップデートによりIPv4を必要とせず、IPv6 のみでの運用が可能になりスケーラビリティの制約が解消されます。詳細についてはこちらの Blog をご確認ください。 9/30(火) Announcing Amazon ECS Managed Instances Amazon ECS Managed Instances が発表されました。このサービスはECSにおいて EC2を利用時に、EC2のインフラストラクチャ管理をAWSに任せつつ、全機能へのアクセスを提供するよう設計された、新しいフルマネージドのオプションです。従来からECSではデータプレーンとしてFargateも選択可能ですが一定の環境制約が存在します。一方、EC2を利用時はスケーリングを含むEC2の管理を自分でする必要がありました。今回の機能により vCPU 数やメモリサイズを指定するだけで最適なEC2インスタンスが自動でプロビジョニングされ、動的スケーリングや、14 日ごとのセキュリティパッチも AWS に任せることが可能になります。この機能は東京リージョンを含む 6 つのリージョンで利用可能です。詳細は ドキュメント や Blog をご確認ください。 AWS Transfer Family now supports VPC endpoint policies and FIPS VPC endpoints AWS Transfer Family で VPC エンドポイントポリシーと FIPS 対応 VPC エンドポイントがサポートされました。これまで、VPC エンドポイント経由で Transfer Family API にアクセスする際はAPIの細かい制御ができませんでしたが、今回のVPCエンドポイントポリシーサポートにより CreateServer や DeleteServer など、 詳細なAPI 操作制御ができるようになりました。これにより企業のセキュリティポリシーに応じてアクセス権限を適切に管理でき、データ保護とセキュリティ体制が大幅に向上します。この機能はAWS Transfer Familyの各サービスが利用可能なすべてのAWS リージョンで利用可能です。詳細は ドキュメント をご確認ください。 AWS Transform now enables Terraform for VMware network automation AWS Transform for VMware が VMware 環境からネットワーク構成のIaCを自動生成する選択肢として、これまでのCloudFormation と CDKに加えてTerraform サポートしました。VMware 環境からクラウドへの移行時、既存の Terraform ベースのデプロイメントパイプラインをそのまま活用できるため、移行作業の効率が大幅に向上します。この機能はAWS Transformが提供されるすべてのAWS リージョンで利用可能です。詳細は ドキュメント をご確認ください。 Amazon CloudWatch and OpenSearch Service expand region support for integrated analytics experience Amazon CloudWatch と Amazon OpenSearch Service が統合分析エクスペリエンスが、大阪を含む5つのリージョンで新たに利用可能になりました。このアップデートは従来、OpenSearch Service でのCloudWatchのログ分析にはストレージへのコピーや ETL パイプラインが必要だったのを不要にする他、CloudWatch Logs のログ分析にCloudWatch Logs Insights QLだけではなく SQL や OpenSearch PPL が使えるようにするものです。これらにより作業効率が大幅に向上します。詳細については ドキュメント をご確認ください。 10/1(水) AWS API MCP Server v1.0.0 release AWS API MCP Server v1.0.0 がリリースされました。このサーバーを使うことで、FMモデルを活用し自然言語で AWS API を操作できるようになります。v1.0.0 リリースにあたっては起動時間を短縮、セキュリティの強化、既存の stdio に加えてストリーミング可能な HTTP トランスポートのサポートなどの機能追加がされています。また、一般的な AWS タスクの規範的なワークフローを提供する get_execution_plan という新しいツールも追加されています。利用開始方法と機能の詳細については GitHub リポジトリ  をご確認ください。 Application map is now generally available for Amazon CloudWatch Amazon CloudWatch でApplication mapがGAしました。Application mapはアプリケーションパフォーマンス監視 (APM) 機能で、設定や関係性に基づいて関連サービスを自動的に検出しグループに整理するものです。これにより大規模な分散アプリケーションの監視で問題となる、サービス間の依存関係を把握を容易にしてくれます。関係性の可視化が容易になることで、障害時の影響範囲を素早く特定でき、平均復旧時間 (MTTR) の短縮が期待できます。この機能は全ての商用リージョン利用可能です。詳細は ドキュメント をご確認ください。 AWS Knowledge MCP Server now generally available AWS Knowledge MCP Server がGAしました。これは AI エージェントや MCP クライアントが AWS の公式ドキュメント、ブログ記事、Well-Architected のベストプラクティスなどの情報に LLM 互換フォーマットでアクセスできるサービスです。従来は手動で AWS の情報を収集・管理する必要がありましたが、このサーバーにより AI が、信頼できる AWS 情報を基にした正確で一貫性のある回答を提供できるようになります。この機能はAWS アカウント不要で無料で利用可能です。利用に当たっては 利用ガイド をご確認ください。 Announcing Apache Airflow 3.0 support in Amazon Managed Workflows for Apache Airflow Amazon MWAA で Apache Airflow 3.0 がサポートされました。Apache Airflow 3.0 では新しい UI でワークフロー管理がより直感的になり、外部イベントに基づく自動実行機能により従来の定期実行だけでなくリアルタイムなデータ処理が可能になります。また、Task SDK の導入でコード記述が簡単になり、Python 3.12 対応やセキュリティ強化も実現されています。Apache Airflow 3.0の詳細は 変更ログ を、Amazon MWAAについては ドキュメント をそれぞれご確認ください。 10/2(木) Amazon ECS now supports one-click event capture and event history querying in the AWS Management Console Amazon ECS がAWS Management Console で直接イベント取得とイベント履歴クエリを利用可能になりました。従来はタスクの停止理由やサービスのイベント履歴を確認するのにCloudWatch Logsなど複数のサービスのコンソールを行き来する必要がありました。今回のアップデートによりこれが不要になり、ECS コンソール内で完結したトラブルシューティングが可能になります。この機能はすべてのリージョンで利用可能です。詳細は ドキュメント をご確認ください。 Amazon Neptune Database now integrates with GraphStorm for scalable graph machine learning Amazon Neptune Database が GraphStorm と統合されました。Neptune はグラフデータベースで、GraphStorm は、エンタープライズ規模のアプリケーション向けに構築された、スケーラブルなオープンソースのグラフ機械学習 (ML) ライブラリです。この統合により、詐欺検出や動的レコメンド、リスクスコアリングなどレイテンシに敏感なトランザクション環境でグラフMLの推論が可能になりました。この機能は、Amazon Neptune Database が利用可能なすべてのリージョンで利用可能です。詳細はこちらの Blog をご確認ください。 Amazon Bedrock AgentCore 向けオープンソース Model Context Protocol (MCP) サーバーが利用可能に Amazon Bedrock AgentCore のためのオープンソースModel Context Protocol (MCP) Serverが利用可能になりました。このインターフェースにより、好みの開発環境で直接AIエージェントの分析、変換、デプロイが可能になります。KiroやClaude Code、Cursor、Amazon Q Developer CLIなどのAgentic IDEとワンクリックインストールにより統合できるので、自然言語を使用したエージェント開発やデプロイの指示などが可能です。このMCPサーバについては GitHub リポジトリ や Blog をご確認ください。 AWS Builder ID now supports Sign in with Google AWS Builder ID の作成時に Google アカウントを使ったサインインが可能になりました。AWS Builder ID は Kiro、 AWS Training や re:Post などを含む AWS アプリケーションにアクセスするための、AWSアカウントの認証とは独立した個人プロファイルです。今回のサポートにより、Google アカウントでワンクリックサインインできるようになり、パスワード管理の手間を省けます。AWS Builder IDと、利用するアプリケーションについては ドキュメント をご確認ください。 10/3(金) AWS Introduces self-service invoice correction feature 請求書の修正をセルフサービスで行える機能がGAしました。これまで請求書の住所変更等はサポートに依頼して、作業の待ち時間が発生していました。今回の機能によりAWS Billing and Cost Management のコンソールから、購入注文番号や会社名、住所などの請求書情報を直接編集可能によります。これにより自社の経理処理、請求書管理を迅速に行うことが可能になります。この機能はGovCloud (US) リージョンおよび中国 (北京) と中国 (寧夏) リージョンを除く、他のすべてのリージョンで利用可能です。詳細は 製品詳細ページ をご確認ください。 EC2 Image Builder now provides enhanced capabilities for managing image pipelines EC2 Image Builder に連続失敗後に自動でパイプラインを無効化する機能とカスタムロググループ設定の2つの管理機能が追加されました。これにより柔軟な運用が可能になり、また失敗時に無効化できることで繰り返し失敗するビルドによるコストを削減できます。この機能は全ての商用リージョンで利用可能です。詳細は ドキュメント をご確認ください。 Amazon OpenSearch Ingestion now supports batch AI inference Amazon OpenSearch Ingestion パイプライン内でバッチ AI 推論がサポートされました。従来サポートしていたリアルタイム推論は、ストリーミングエンリッチメントなどの低レイテンシ要件に向いたものです。今回のバッチ推論サポートにより、大規模データセットを効率的にオフライン処理できるようになりました。この機能はAmazon OpenSearch Ingestionと2.17以降のバージョンのドメインをサポートする全てのリージョンで利用可能です。詳細については ドキュメント をご覧ください。 実は、私(根本)が週刊AWSを執筆するのは今回を最後にします。2023年の7月に小林、下佐粉から引き継いで以降2年強書いてきましたが、「週刊AWS読んでます!」「写真見たことあります。」とお声がけいただく機会が多く、読んでくださっている方の多さに感謝すると共に、励みになりました。これまでありがとうございました! 週刊AWSは他のメンバー達で今後も更新されますので、引き続きよろしくお願いします。 ソリューションアーキテクト 根本 裕規 著者について 根本 裕規(Yuki Nemoto) AWS Japan のソリューションアーキテクトとして、金融機関のお客様の AWS 活用や個別案件の技術支援を担当しています。過去には公共部門やモダナイゼーションのスペシャリストもしていました。好きなサービスは AWS CodeBuild です。週末はオフロードバイクのレースをしています!
アバター
本投稿は、 Suchindranath Hegde と Mahesh Kansara と Sridhar Ramasubramanian による記事 「 Data consistency with AWS DMS data resync 」を翻訳したものです。 この投稿では、 AWS Database Migration Service の データの再同期機能について詳しく説明します。これは DMS バージョン 3.6.1 で導入された機能で、データベース移行中のデータの不整合を検出して解決するので、手動による修正が必要ありません。 データの再同期 を使用することで、ソースとターゲットデータベース間のデータ検証によって特定されたデータの不整合が識別され、対処されます。ここでは、データの再同期機能を有効にする手順と、例を通じてデータの不整合を特定する方法について説明します。 データの再同期が利用可能になる前は、データの不整合に対してユーザーの介入が必要でした。例えば、フルロードと変更データキャプチャ (CDC) のタスクでテーブルの再ロードを実行したり、ターゲットのレコードを手動で更新したりする必要がありました。データの再同期は、AWS DMS が Oracle か SQL Server から PostgreSQL か Amazon Aurora PostgreSQL への移行をサポートしているすべての リージョン で利用可能です。 AWS DMS データの再同期の設定 データの再同期は、DMS データ検証で特定された不一致を読み取り、ソースから現在の値を取得し、それをターゲットに適用してターゲット上のレコードを同期することによって実行されます。フルロードのみのタスクの場合、再同期が有効になっていると、すべてのテーブルが検証された直後に実行されます。CDC タスクの場合、再同期はタスク設定を通じてスケジュールする必要があり、その時点で、タスクは CDC とデータ検証を一時停止することで書き込みの競合を最小限に抑えます。 ベストプラクティス で推奨されているように、ソースデータベースのアクティビティが少ないタイミングに、再同期ウィンドウを短時間でスケジュールすることをお勧めします。これにより、CDC が一時停止することによるレイテンシーのスパイクを最小限に抑えることができます。 データの再同期を設定するには、タスクの 作成 または 変更 時に有効にする必要があります。AWS DMS コンソールで、 データの再同期 の下にある 再同期のスケジュール を選択します。以下のスクリーンショットに示すとおりです。 再同期スケジュールは、Cron 式を使用してデータ再同期の実行をスケジュールします。 * * * * * | | | | | | | | | | | | | | +---- Day of Week (0-6) | | | +------ Month (1-12) | | +-------- Day of Month (1-31) | +---------- Hour (0-23) +------------ Minute (0-59) 例えば、以下の設定では、データの再同期を土曜日の深夜に実行するようにスケジュールしています: "ResyncSettings": { "EnableResync": true, "ResyncSchedule": "0 0 * * 6", // Run Saturday at midnight "MaxResyncTime": 360, // Run for maximum of 360 minutes, or 6 hours "ValidationTaskId": "" //Optional, used only if validation is performed as a separate Validation only task } その他の例については、 データ再同期の設定と例 を参照してください。 AWS DMS はデータ再同期で PostgreSQL ターゲットエンドポイントに awsdms_validation_failures_v2 テーブルを作成します。このテーブルの構造は、以下のスクリーンショットに示されています。 このテーブルは、検証プロセス中にプライマリキーを使用してソースのデータを参照することで、ターゲットテーブルの不一致を追跡し対処するために参照されます。AWS DMS バージョン 3.6.1 以上にタスクをアップグレードまたは移行する際、アップグレード前に発生した検証の失敗は自動的に再同期されません。アップグレードによる検証の失敗に対処するには、テーブルの再ロードまたは再検証を開始する必要があります。アップグレード後に発生する新しい検証の失敗は、 awsdms_validation_failures_v2 テーブルを通じて追跡され、再同期されます。 再同期実行中に、AWS DMS はタスクタイプに応じて以下の一連のステップを実行します。各ステップについて、タスクタイプに応じて以下のメッセージが CloudWatch ログに記録されます: フルロード と CDC タスク、または CDC タスクの場合: 再同期実行のトリガー: [DATA_RESYNC ]I: Data Resync Manager schedule window time matched to start resync 検証の一時停止: [DATA_RESYNC ]I: Trying to STOP validation before resync process. (resync_manager.c:331) CDC の一時停止: [DATA_RESYNC ]I: Data Resync Manager sending command to sorter to PAUSE applying changes to target. テーブルの再同期: [RESYNC_UNLOAD ]I: Sent ctrl command for Resync Unload of table with id: 1 CDC の再開: [DATA_RESYNC ]I: Data Resync Manager sending command to sorter to RESUME applying changes to target 検証の再開: [DATA_RESYNC ]I: Trying to RESUME validation after resync process フルロードのみのタスクの場合、検証プロセスが完了した後に再同期マネージャーがトリガーされるため、スケジュールを指定する必要はありません。 再同期実行のトリガー: [DATA_RESYNC ]I: Data Resync Manager sending command to start up resync subtasks テーブルの再同期: [TASK_MANAGER ]I: All tables are loaded. Validation is finished. Waiting for resync to finish... (replicationtask.c:4953) [DATA_RESYNC ]I: Stopped Data Resync Manager, exiting thread AWS DMS データの再同期のユースケース AWS DMS のデータの再同期が有効なユースケースはいくつかあります。このセクションでは、2 つの例を見ていきます。 ターゲットでレコードの誤削除 最初に検討するユースケースは、ターゲット上のレコードが誤って削除された場合です。このユースケースを説明するために、REVIEWS という名前のテーブルを Oracle から PostgreSQL に移行します。フルロードが完了した後、ターゲット上の数レコードを誤って削除します。以下の例では、ターゲット上の特定のレコードを削除するために、ターゲットに対して Data Manipulation Language (DML) ステートメントを実行します: dmsdb=> delete from dms_test.reviews where review_id=8193 ; DELETE 1 このシナリオでは、テーブルの再検証を試みるとデータ不整合が発生します。これは、以下のコマンドを入力するか、AWS コンソールで確認することができます: aws dms describe-table-statistics --replication-task-arn arn:aws:dms:us-east-1:xxxxxxxxxxxx:task:xxxxxxxxxxxx --filters Name=table-name,Values="REVIEWS" { "TableStatistics": [ { "SchemaName": "DMS_TEST", "TableName": "REVIEWS", "Inserts": 0, "Deletes": 0, "Updates": 0, "Ddls": 0, "AppliedInserts": 0, "AppliedDeletes": 0, "AppliedUpdates": 0, "AppliedDdls": 0, "FullLoadRows": 3500, "FullLoadCondtnlChkFailedRows": 0, "FullLoadErrorRows": 0, "FullLoadStartTime": "2025-06-03T14:24:23.062000-05:00", "FullLoadEndTime": "2025-06-03T14:24:25.408000-05:00", "FullLoadReloaded": false, "LastUpdateTime": "2025-06-03T14:35:12.009000-05:00", "TableState": "Table completed", "ValidationPendingRecords": 0, "ValidationFailedRecords": 1, "ValidationSuspendedRecords": 0, "ValidationState": "Mismatched records" } ] } データの再同期が有効になっている場合、ソースをチェックし、ターゲットに再適用することでこれらの不整合が処理されます。次の例では、 public.awsdms_validation_failures_v2 テーブルに反映されたレコードを確認できます。ここでは、 RESYNC_ACTION が UPSERT であることから、ターゲットに再適用されたことがわかります。 RESYNC_TIME は、アクションが実行されたタイムスタンプを示しています。 dmsdb=> select * from public.awsdms_validation_failures_v2 ; -[ RECORD 1 ]-+--------------------------- RESYNC_ID | 1029 TASK_NAME | BESR3KWW2FCLLH4AJBFSEYSNW4 TABLE_OWNER | dms_test TABLE_NAME | reviews FAILURE_TIME | 2025-06-03 19:33:26.410998 KEY_TYPE | Row KEY | { + | "key": ["8193"] + | } FAILURE_TYPE | MISSING_TARGET DETAILS | RESYNC_RESULT | SUCCESS RESYNC_TIME | 2025-06-03 19:35:06.322 RESYNC_ACTION | UPSERT CDC 中にターゲットで誤って数件のレコードを削除してしまうシナリオを想像してみてください。例えば、以下の SQL コマンドでは、ターゲット上の 20 件のレコードをランダムに削除します: dmsdb=> delete from dms_test.reviews where ctid in (select ctid from dms_test.reviews order by RANDOM() LIMIT 20); DELETE 20 データの再同期がこれらのレコードを処理し、ターゲットに正常に適用されたことを確認できます。 dmsdb=> select "TABLE_OWNER", "TABLE_NAME","RESYNC_ACTION", "FAILURE_TYPE", "RESYNC_RESULT",count(*) from public.awsdms_validation_failures_v2 group by "TABLE_OWNER", "TABLE_NAME","RESYNC_ACTION", "FAILURE_TYPE", "RESYNC_RESULT"; -[ RECORD 1 ]-+--------------- TABLE_OWNER | dms_test TABLE_NAME | reviews RESYNC_ACTION | UPSERT FAILURE_TYPE | MISSING_TARGET RESYNC_RESULT | SUCCESS count | 21 これまで説明したフルロードと CDC の両方のシナリオでは、データの再同期にテーブルの再検証が必要です。これにより、すべてのデータの不整合が適切に特定され、修正されます。この再検証が必要なのは、ターゲットの変更が AWS DMS によって行われたものではないためです。 テーブルエラー後の CDC タスクの再開 別のユースケースとして、移行中にテーブルがエラー状態になり、そのテーブルの変更がターゲットにレプリケートされない場合があります。この場合、タスクの実行中にテーブルを 再ロード することができます。ただし、CDC のみのタスクの場合、テーブルが失敗した時の LSN からタスクを再開する必要があります。AWS DMS タスク中に複数のテーブルがある場合、特定の時間枠から DMS タスクを開始すると、変更がターゲットに再度適用される場合があります。 Oracle から PostgreSQL に ADMIN スキーマの 5 つのテーブルを移行するシナリオを考えてみましょう。次のスクリーンショットでは、5 つのテーブルのうち 3 つがエラーで終了しています。 CloudWatch ログから、これらのテーブルが異なるタイムスタンプでエラーになったことがわかります。テーブルが異なるタイムスタンプで失敗したため、テーブルがエラーになった最も早いタイムスタンプを CDC 開始時間として使用し、これら 3 つのテーブルで CDC のみのタスクを作成する必要があります。この場合、最も早いタイムスタンプは 2025-06-05T03:40:13 です。 2025-06-05T03:40:13 [TASK_MANAGER ]W: Table 'ADMIN'.'DMST1' was errored/suspended (subtask 0 thread 1). 2025-06-05T03:47:53 [TASK_MANAGER ]W: Table 'ADMIN'.'DMST2' was errored/suspended (subtask 0 thread 1). 2025-06-05T03:52:32 [TASK_MANAGER ]W: Table 'ADMIN'.'DMST5' was errored/suspended (subtask 0 thread 1). データの再同期中に、検出された競合が解消されたことを確認できます。以下のスクリーンショットに示されています。 dmsdb=> select * from public.awsdms_validation_failures_v2 ; -[ RECORD 1 ]-+--------------------------- RESYNC_ID | 9949 TASK_NAME | 6LOQBMAKQFDELB5WQB5BPG5Q74 TABLE_OWNER | admin TABLE_NAME | dmst1 FAILURE_TIME | 2025-06-05 05:26:58.027987 KEY_TYPE | Row KEY | { + | "key": ["101"] + | } FAILURE_TYPE | MISSING_TARGET DETAILS | RESYNC_RESULT | SUCCESS RESYNC_TIME | 2025-06-05 05:30:06.423 RESYNC_ACTION | UPSERT Conclusion この投稿では、データの再同期について紹介し、その設定方法と、検証中にデータ再同期を使用して不整合を確認および修正できる 2 つのユースケースについて説明しました。詳細については、 AWS DMS データの再同期 を参照してください。 著者について Suchindranath Hegde Suchindranath は Amazon Web Services のシニアデータ移行スペシャリストソリューションアーキテクトです。彼はお客様と協力して、AWS DMS を使用した AWS へのデータ移行に関するガイダンスと技術支援を提供しています。 Mahesh Kansara Mahesh は Amazon Web Services のデータベースエンジニアリングマネージャーです。彼は開発チームやエンジニアリングチームと緊密に連携して、移行およびレプリケーションサービスを改善しています。また、お客様と協力して、データベースや分析のさまざまなプロジェクトに関するガイダンスや技術支援を行い、AWS を使用する際のソリューションの価値向上を支援しています。 Sridhar Ramasubramanian Sridhar はAWS Database Migration Service チームのデータベースエンジニアです。彼はAWSのお客様のニーズにより合うように、DMS サービスの改善に取り組んでいます。
アバター
このブログは、テオリア・テクノロジーズ株式会社と、アマゾン ウェブ サービス ジャパン合同会社 ソリューション アーキテクト 椎名優司による共著です。 2025 年 6 月 25 日、26 日に幕張メッセで開催された AWS Summit Japan 2025 では、EXPO として AWS Village と呼ばれる展示エリアが用意され、90 を超える AWS 最新テクノロジー展示、先進企業 50 社による AWS 活用事例、パートナーによる 130 以上のソリューション展示など、270 を超える展示を行いました。その中に展開された Industries Pavilion では、各業界向けの最新の AWS ソリューションの展示や、実際に AWS を活用している企業のブースも併設されました。 テオリア・テクノロジーズ株式会社は Industries Pavilion のヘルスケア・ライフサイエンス業界向けブースに出展されました。 今回のブログでは、Industries Pavilion のテオリア・テクノロジーズ株式会社ブースで展示されたAI健康アプリ「 HugWay(はぐうぇい) 」について、プラットフォーム概要やAWS アーキテクチャをご紹介します。 テオリア・テクノロジーズの認知症プラットフォーム事業とAI健康アプリ「HugWay」 テオリア・テクノロジーズは「認知症との向き合い方を、テクノロジーで変えていく。」をミッションに掲げ、エーザイグループの一員として認知症という社会課題の解決を目指しています。 エーザイが創薬で貢献する一方、テオリアはデータサイエンス技術を中心に、「認知症にかかわる全ての人が自分らしくいるための『羅針盤』となる」世界を目指します。その核となるのが、認知症に関する様々なソリューションや人々をつなぐ「認知症プラットフォーム」の構築です。 運動プログラムや食事指導、治療薬やデジタルを活用したものなど多岐にわたるソリューションを線で繋げ、一人ひとりへの「体験の最適化」を目指します。具体的には、健常・未病の方向けに認知機能の低下のリスクに「そなえる」、認知機能の低下が顕著になった方向けに医療機関受診・診断・治療への橋渡しを行う「つながる」、認知症やMCI(軽度認知障害)の診断後の治療・介護を「ささえる」の3つの領域でサービス開発を進め、ポータルサイト「 テヲトル 」がこれらを横断します。 「そなえる」領域のサービスである脳に良い生活習慣をサポートするアプリ「 HugWay(はぐうぇい) 」は、2025年6月16日にリリースしたAIを搭載した健康管理アプリケーションです。「HugWay」は、ユーザーに寄り添うAIパートナーとの対話を中心に、歩数管理、睡眠管理、活動記録、脳に良い生活習慣コンテンツ、そして楽しく続けられる脳トレゲーム(ブレインワークアウト)を提供し、多くの人が抱える「漠然とした認知症への不安」や「義務感があって健康活動が続けられない」「老後の健康不安」といった悩みを解決します。 脳に良い生活習慣をサポートするアプリ「HugWay(はぐうぇい)」の特徴 AIパートナーとの会話と記録 AIパートナー「ハグまる」と日常の出来事や感じたことなど好きなテーマで話す事ができます。AIパートナーがユーザー自身の事や話した内容の一部を覚えて、寄り添った会話が特徴です。話せば話すほどにAIパートナーの「ハグまる」がユーザーの事を理解してくれて、共感し、時には健康に関するヒントや新しい活動を提案します。過去の会話内容も踏まえてパーソナライズされたコミュニケーションを提供し、孤独感の解消やモチベーション維持に繋げます。また、会話の記録はアプリで確認してふりかえる事ができます。 歩数や睡眠などの活動管理 日々の歩数や活動量、睡眠データ、毎日の会話を自動で記録し、ダッシュボードで分かりやすく可視化します。歩数の目標設定機能もあり、AIパートナーとの会話の中で褒められたりと楽しみながら健康習慣の定着をサポートします。 脳活コンテンツ 脳トレゲームとしてブレインワークアウトを搭載。計算問題や記憶ゲームなど、スキマ時間に手軽に楽しく取り組める全10種類のゲームです。脳の活性化を促し、認知機能の維持をサポートします。その他にも脳の健康情報サイトである「 脳ラボ 」と連携し、脳の健康を意識した食事や睡眠、運動などのコンテンツを提供します。 こんな方におすすめ 脳の健康が気になる方 「何となく認知症は不安」、「とりあえず脳トレはやってるけど、認知症のそなえはよくわからない」といった方へ脳に良い生活習慣のサポートを「HugWay」が行います。 健康改善が必要な方 健康診断の結果や体調の変化を機に、生活習慣を見直したいと考えている方に、「HugWay」が寄り添います。 アクティブなシニア層 趣味や社会との繋がりを大切にし、これからも活動的な生活を送りたい方を「HugWay」が応援します。 「HugWay」のシステム設計と運用基盤 「HugWay」 では、生成 AI によるユーザーの会話体験を中核に据え、継続利用を促す話題創出に向けた機能拡張性を担保しました。さらに、スケールと安全性を高めるために当社独自の ID 基盤を活用し、API ゲートウェイを開発して、モバイルからバックエンド、データ基盤までを疎結合のマイクロサービス群として設計しています。これにより、新しい会話体験や外部データ連携を小さく素早く追加可能にしました。また、トラフィックのスパイク時にも安定したレスポンスを維持し、ゼロトラスト前提の認証・認可でユーザーデータを保護します。さらに、DevOps 体制のもとで CI/CD とオブザーバビリティ基盤を活用し、継続的なフィードバックを取り込むことで、機能改善の速度とサービスの信頼性を同時に高めています。 「HugWay」のAWSアーキテクチャのご紹介 サービスとしてAPI機能を提供するバックエンド環境と、生成AIのオブザーバビリティ環境について紹介します。 API を提供するバックエンドは AWS App Runner を中核に据え、オートスケーリングと負荷分散を適切に設計しています。構成は、当社 ID 基盤と連携する認証サーバー、生成 AI と連携するチャットサーバー、その他のアプリ機能を担うメインサーバーの3サーバー構成です。 AWS App Runner はウェブアプリケーションを自動的に構築するサービスであり、トラフィックに合わせてスケールし、Amazon Bedrockを含むほかAWSサービスとシームレスに連携させることができます。AWS App Runnerはフルマネージドサービスであり、インフラの構築や運用は不要です。開発者はコンテナレジストリに保存されているコンテナイメージ、もしくはレポジトリでホストされているコードをソースとして使用することでサービス(上記構成では各機能をもつサーバー)をデプロイできます。 Amazon Bedrock は生成AIアプリケーションやエージェントを構築するためのサービスであり、「HugWay」ではユーザーとAIパートナーの間でパーソナライズされたコミュニケーションを実現するために利用しています。ユーザーとの会話を実現するためにAIチャットサーバーが Converse API を用いてAmazon Bedrockを利用しているほかに、会話内容からユーザーの特徴や傾向を分析したり、シームレスな会話体験を提供するため会話内容を要約して Amazon Aurora に保存し適宜参照し会話に活かすことで、ユーザーに寄り添った会話を実現しています。 生成 AI のテレメトリーは過渡期にあり選定が難しかったため、「HugWay 」では OpenTelemetry を採用しその時最適なソリューションを選択する方法を採用しました。ベンダーに依存しない形でアプリケーションの観測性を高め、生成テキストの安全性検証や表現ルールの策定に活用しています。 おわりに 本ブログでご紹介したテオリア・テクノロジーズ株式会社の展示や関連する AWS サービスに関して、ご興味・ご質問をお持ちのお客様は お問い合わせフォーム もしくは担当営業までご連絡ください。 著者について テオリア・テクノロジーズ株式会社 太田 忠 (Tadashi Ota) プロダクトマネージャー 予防、ヘルスケア領域を担当しており、認知症のそなえを推進しています。プロダクトマネジメントの他に事業戦略や組織、採用など幅広く活動しています。 安藤 圭吾 (Keigo Ando) プロダクト開発部シニアソフトウェアエンジニア バックエンド・インフラを中心に、何でもやる縁の下の力持ちを目指しています。 アマゾン ウェブ サービス ジャパン合同会社 椎名 優司 (Yuji Shiina) ソリューションアーキテクト ヘルスケア・ライフサイエンス領域のお客様を中心に、クラウド利用の技術支援を通じてお客様のご要望を具現化するための活動をしています。
アバター
クライオ電子顕微鏡(Cryo-EM)は、創薬研究者が創薬に不可欠な生体分子の三次元構造を決定することを可能にします。Cryo-EMの導入が進むにつれ、科学者やITシステム管理者は、これらの顕微鏡によって毎日生成される数テラバイトのデータを効率的に処理する方法を模索してきました。これらの処理パイプラインには、スケーラブルで多様なワークロードに対応できるコンピューティング環境と、高速かつコスト効率に優れたストレージが必要です。 AWS Parallel Computing Service (PCS)は、クラウドでハイパフォーマンスコンピューティング(HPC)クラスタを展開・管理するためのマネージドサービスです。Cryo-EMにPCSを使用することで、構造生物学者にとって一貫したユーザー体験を維持しながら、HPCインフラの構築と管理に伴う差別化につながらない重労働を軽減し、研究に迅速に取り掛かることができます。 この投稿では、PCS上でCryo-EMに使用できる推奨リファレンスアーキテクチャを紹介し、一般的なアプリケーションである CryoSPARC を使用した具体例を示します。また、可視化ツールとして ChimeraX について紹介し、一般的にクラウドでCryo-EMを実行するためのベストプラクティスについても解説します。 アーキテクチャの概要 図1 – AWS上のCryoSPARCのアーキテクチャ概要。SlurmコントローラはAWSサービスアカウントに配置され、コンピュートとストレージリソースはユーザーAWSアカウントに配置されます。クラスタにはFSx for LustreとAmazon Elastic File Store (EFS)がマウントされています。 セットアップと前提条件 PCSドキュメントに記載されている 前提条件 に加え、CryoSPARCのライセンスが必要です。ライセンスなしでこのガイドに従ってPCSクラスタを作成することは可能ですが、最終的にはソフトウェアをインストールしてテストジョブを実行するためにライセンスが必要になります。ライセンスを取得するには、 Structura Biotechnology にお問い合わせください。 共有ストレージを使用したクラスタの作成 HPC Recipes Library は AWS のエンジニアリングチームとアーキテクチャチームが作成したテンプレートを共有するGitHubの公開リポジトリです。これにより、面倒な構築手順なしにHPCインフラをクラウド上に展開できます。この例に適した共有ストレージを備えたPCSクラスタを作成するには、AWS CloudFormationを使用してクラスタ全体を迅速に起動する PCS guidance for a one-click deployment &nbsp;を利用できます。 CloudFormationが起動するとパラメータ指定の画面が表示されます。ここにクラスターのログインノードにアクセスするためのSSHキーをプルダウンで指定するオプションが表示されます。その他のフィールドはすべてそのままにしておき、 Create を選択してください。これにより、必要なネットワークの前提条件、ログインノードグループを含むクラスター、単一のデモ用コンピューティングノードグループ、/home用のEFSファイルシステム、および/shared用のLustreファイルシステムが作成されます。。 準備が整うと CloudFormation console &nbsp;に以下のスタックが表示されるはずです。図2はCloudFormationのスクリーンショットで、各スタックにデプロイされた内容の簡単な説明が含まれています。 図2: hpcレシピテンプレートによって作成されたCloudFormationスタック また、PCSクラスタを手動で作成する場合や、アカウント内の既存のリソースを使用する場合は PCS User Guide の手順に従ってこれらのリソースを設定するだけです。 LustreファイルシステムのスループットのためのFSxの調整 CloudFormation console で View Nested のラジオスライダーをクリックして、デプロイしたテンプレートから作成されたさまざまなスタックを確認します。 get-started-cfn-FSxLStorage で始まるスタックを見つけてクリックします。コンソールの右側にスタック情報が表示されたら、 Outputs タブをクリックし、後ほど使用する FSxLustreFilesystemId &nbsp;の値をメモします。 図 3: hpc レシピテンプレートによって作成された FSx for Lustre CloudFormation スタック CryoSPARC のインストールを成功させるには、FSx for Lustre システムのストレージ単位あたりのスループットを 250 MB/s/TiB に更新する必要があります。この処理には最大 20 分かかる場合がありますので、残りのクラスター設定を進める間、ファイルシステムの更新がバックグラウンドで完了する時間を確保するため、今すぐコマンドを実行しましょう。 aws fsx update-file-system \ --file-system-id $FSX-LUSTRE-ID \ --lustre-configuration PerUnitStorageThroughput=250 追加のノードグループとキューの作成 最初のクラスタ作成が完了したら、いくつかのコンピュートノードグループとキューを作成します。AWS PCSのコンピュートノードグループは、Amazon Elastic Compute Cloud (Amazon EC2)のノード(インスタンスと呼称されます)の論理的な集合体です。これらは、あなたがジョブを実行する一時的なマシンとなります。AWS PCSキューは、スケジューラのネイティブ実装であるワークキューを軽量に抽象化したものです。ジョブはキューに投入され、キューは1つ以上のコンピュートノードグループにマッピングされます。CryoSPARCでは、レーンはPCSキューに相当します。 compute-cpu (c5a.8xlargeインスタンス)、 compute-single-gpu (g6.4xlarge)、 compute-multi-gpu (g6.48xlarge)の3つの新しい計算ノードグループを作成し、これらの計算ノードグループをそれぞれのキューにマッピングします。これらのインスタンスタイプは、私たちの内部テストに基づいて選定されました。処理パイプライン内の個々のタスクのスケーラビリティに関する詳細な説明は CryoSPARC performance benchmarks にて選定理由が説明されています。 これらのノードグループはPCSコンソールから作成できますが、ここではAWS CLIで作成する方法を紹介します。このコマンドを実行して、 compute-1 の PCS Compute Node GroupのAMI ID、Instance Profile、Launch Template IDを取得し、出力を保存します。次の一連のコマンドでこれを使用して、追加のコンピュートノードグループを作成します: aws pcs get-compute-node-group \ --cluster-identifier $PCS_CLUSTER_NAME \ --compute-node-group-identifier compute-1 以下のコマンドを実行し、各コマンドの出力から計算ノードグループ名とIDを保存します。これを使用して、これらのノードグループをキューにマッピングします: aws pcs create-compute-node-group \ --compute-node-group-name compute-cpu \ --cluster-identifier $PCS_CLUSTER_NAME \ --region $REGION \ --subnet-ids $PRIVATE_SUBNET_ID \ --custom-launch-template id=$COMPUTE_LT_ID,version='1' \ --ami-id $AMI_ID \ --iam-instance-profile $INSTANCE_PROFILE_ARN \ --scaling-config minInstanceCount=0,maxInstanceCount=2 \ --instance-configs instanceType=c5a.8xlarge aws pcs create-compute-node-group \ --compute-node-group-name compute-single-gpu \ --cluster-identifier $PCS_CLUSTER_NAME \ --region $REGION \ --subnet-ids $PRIVATE_SUBNET_ID \ --custom-launch-template id=$COMPUTE_LT_ID,version='1' \ --ami-id $AMI_ID \ --iam-instance-profile $INSTANCE_PROFILE_ARN \ --scaling-config minInstanceCount=0,maxInstanceCount=2 \ --instance-configs instanceType=g6.4xlarge aws pcs create-compute-node-group \ --compute-node-group-name compute-multi-gpu \ --cluster-identifier $PCS_CLUSTER_NAME \ --region $REGION \ --subnet-ids $PRIVATE_SUBNET_ID \ --custom-launch-template id=$COMPUTE_LT_ID,version='1' \ --ami-id $AMI_ID \ --iam-instance-profile $INSTANCE_PROFILE_ARN \ --scaling-config minInstanceCount=0,maxInstanceCount=2 \ --instance-configs instanceType=g6.48xlarge 以下のコマンドを実行して、ノードグループの作成状況を確認します: aws pcs get-compute-node-group --region $region \ --cluster-identifier $cluster-name \ --compute-node-group-identifier $node-group-name 3つのノードグループそれぞれのステータスが ACTIVE になったら、キューの作成に進むことができます。各キューは1つ以上のノードグループにマッピングされ、これらのノードグループはキューに到着したジョブを処理するための一時的なインスタンスを供給する役割を担います。このクラスタでは、各キューを単一のノードグループにマッピングします。 $NODE_GROUP_ID はノードグループ名と同じではないことに注意してください。 aws pcs create-queue \ --queue-name cpu-queue \ --cluster-identifier $PCS_CLUSTER_NAME \ --compute-node-group-configurations computeNodeGroupId=$COMPUTE_CPU_NODE_GROUP_ID aws pcs create-queue \ --queue-name single-gpu-queue \ --cluster-identifier $PCS_CLUSTER_NAME \ --compute-node-group-configurations computeNodeGroupId=$COMPUTE_SINGLE_GPU_NODE_GROUP_ID aws pcs create-queue \ --queue-name multi-gpu-queue \ --cluster-identifier $PCS_CLUSTER_NAME \ --compute-node-group-configurations computeNodeGroupId=$COMPUTE_MULTI_GPU_NODE_GROUP_ID 次に、キューが正常に作成されたことを確認します: aws pcs get-queue --region $REGION \ --cluster-identifier $PCS_CLUSTER_NAME \ --queue-identifier $PCS_QUEUE_NAME ステータスが ACTIVE &nbsp;を返したら、キューの作成は完了です。クラスタログインノードにログインして、CryoSPARCをインストールします。 Amazon EC2のコンソールを開き Instances に移動します。 検索バー で aws:pcs:compute-node-group-id = &lt;LOGIN_COMPUTE_NODE_GROUP_ID &gt; を検索し、 &lt;LOGIN_COMPUTE_NODE_GROUP_ID&gt; をログインノードグループのIDに置き換えてエンターキーを押します。このインスタンスを選択し、 Connect を選択します。次のページで、 Session Manager を選択し、 Connect を選択します。ブラウザのタブでターミナルセッションが開きます(これはSession Managerの優れた機能です)。ターミナルで、ユーザを ec2-user に変更します。ec2-userは、ジョブの投入と管理を行うSlurmの権限を持つクラスタ内のユーザです。 sudo su - ec2-user クラスタのログインノードに接続したら、次のコマンドを実行して追加のSlurmパーティションを確認します: sinfo 以下のように表示されます: PARTITION AVAIL TIMELIMIT NODES STATE NODELIST demo up infinite 4 idle~ compute-1-[1-4] single-GPU up infinite 4 idle~ single-GPU-[1-4] CPU up infinite 4 idle~ CPU-[1-4] multi-GPU up infinite 4 idle~ multi-GPU-[1-4] クラスタにログインできたので、CryoSPARCをインストールしてテストデータセットをダウンロードします。 CryoSPARCのインストールとテストデータセットのダウンロード CryoSPARCのインストールとセットアップを簡単にするために、共有ファイルシステムにアプリケーションをインストールし、クラスタのキュー名に基づいてレーンを登録するシェルスクリプトを用意しました。これにアクセスするには、 キーペアを生成して ログインノードにSSH接続します。ログインノードに接続したら、スクリプトをダウンロードして実行可能ファイルにしてください: wget https://raw.githubusercontent.com/aws-samples/cryoem-on-aws-parallel-cluster/refs/heads/main/parallel-computing-service/pcs-cryosparc-post-install.sh スクリプトを実行し、インストール用の共有ファイルシステムを指定します。 $LICENSE_ID をCryoSPARCのライセンスに置き換えてください。最大1時間かかります。 chmod +x pcs-cryosparc-post-install.sh sudo ./pcs-cryosparc-post-install.sh $LICENSE_ID /shared/cryosparc /shared/cuda 11.8.0 11.8.0_520.61.05 /shared インストールが完了したら、CryoSPARCサーバーを起動します: /shared/cryosparc/cryosparc_master/bin/cryosparcm start ログインノードを再起動した場合、CryoSPARCサーバーのstartコマンドを再度実行する必要があります。このコマンドを起動テンプレートのEC2ユーザーデータセクションに追加することで、このプロセスを自動化できます。Amazon EC2ユーザーデータの操作については PCS User Guide を参照してください。 サーバーが正常に起動し、 CryoSPARC master started という確認メッセージが表示されたら、新しいユーザーを作成します: cryosparcm createuser \ --email "&lt;youremail@email.com&gt;" \ --password "&lt;yourpassword&gt;" \ --username "&lt;yourusername&gt;" \ --firstname "yourname&gt;" \ --lastname "&lt;yourlastname&gt;" 完了したら、ログインノードからログアウトしてください。 CryoSparc UIへのアクセス 次に、先に生成したEC2キーペアを使用してSSHトンネルをCryoSPARCのログインノードに設定します: ssh -i /path/to/key/key-name -N -f -L \ localhost:45000:localhost:45000 ec2-user@publicIPofyourinstance これを実行した後、ウェブブラウザで http://localhost:45000 &nbsp;にアクセスすると、CryoSPARC のログイン画面が表示されます。 図4: ウェブブラウザのログイン画面から、新しく作成したユーザー認証情報を使ってCryoSPARCにアクセスします。 テストジョブの実行 sharedディレクトリにテストデータ用のデータフォルダを作成し、以下のコマンドでテストデータセットをダウンロードします: mkdir /shared/data cd /shared/data /shared/cryosparc/cryosparc_master/bin/cryosparcm downloadtest tar -xf empiar_10025_subset.tar このステップの完了には数分かかります。 このテストでは、データセットをLustreファイルシステムに直接ダウンロードしています。本番環境では、Amazon Simple Storage Service (Amazon S3)にデータセットを保存し、Amazon S3とAmazon Fsx for Lustreファイルシステム間で Data Repository Association (DRA) を使用することをお勧めします。1つのCryo-EMサンプルのサイズは数十テラバイトになることがあり、組織は定期的にペタバイトの顕微鏡データを保存しているため、このようにAmazon S3とFSx for Lustreを使用すると、コストを大幅に削減できます。DRA をセットアップするには FSx for Lustre documentation を参照してください。 テストデータセットのダウンロードが完了したら Get Started with CryoSPARC Tutorial &nbsp;の手順に従って、Import Movies ジョブを実行します。ジョブのキューを選択すると、Slurmクラスタのキューが表示されます。Import Moviesジョブの compute-cpu レーンを選択します: 図5:CryoSPARCは、PCSキューと同じ名前でレーンを構成しています。ムービーのインポートジョブにcompute-cpuを選択します ジョブを実行します。CryoSPARC UIのEvent Logの下に、このようなSlurmサブミッションが表示されるはずです: 図6: 成功したCryoSPARCジョブ投入 ターミナルに戻ってログインノードから squeue コマンドを実行すると、クラスタ上で実行されているジョブを確認できます: JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON) 1 compute-c cryospar ec2-user CF 1:02 1 compute-cpu-1 sinfo を実行して、ジョブ用に割り当てられているノードを確認します: PARTITION AVAIL TIMELIMIT NODES STATE NODELIST demo up infinite 4 idle~ compute-1-[1-4] compute-cpu up infinite 1 mix# compute-cpu-1 compute-cpu up infinite 3 idle~ compute-cpu-[2-4] compute-single-GPU up infinite 4 idle~ compute-single-gpu-[1-4] compute-multi-GPU up infinite 4 idle~ compute-multi-gpu-[1-4] このノードは、EC2によってAWSアカウントにプロビジョニングされたシングルインスタンスです。EC2コンソールで確認できます。ジョブは数分で正常に完了するはずです。これ以上ジョブをキューに投入しなければ、最後のジョブが完了した数分後にそのインスタンスが動的に終了するのがわかります。 可視化と次のステップ 可視化パッケージのような追加アプリケーションをクラスタ共有ストレージにインストールすることができます。 ChimeraXは構造生物学者によく使われている可視化アプリケーションです。この記事では取り上げませんが、ログインノードにAmazon DCVを設定することで、クラスタ上でこれを実行することができます。DCVは、デスクトップとクラウド間で低レイテンシー、高解像度のリモート可視化を提供し、手元の環境とクラウド間の時間とコストのかかるデータ移動を不要にします。 図7: CryoSPARCで実行し、ChimeraXで可視化したEMPIAR 10288サンプルの結果のスクリーンショット。 環境の削除 AWS CLIを使用して、まず以下のコマンドを使用して cpu-queue 、 single-gpu-queue 、 multi-gpu-queue を削除することで、この投稿で構築した環境を削除できます: aws pcs delete-queue --cluster-identifier &lt;pcs_cluster_name&gt; --queue-identifier &lt;pcs_queue_name&gt; 次に、以下のコマンドで compute-cpu , compute-single-gpu と compute-multi-gpu &nbsp;の各コンピュートノードグループを削除します: aws pcs delete-queue --cluster-identifier &lt;pcs_cluster_name&gt; --compute-node-group-identifier &lt;pcs_compute_node_group_name&gt; 最後に、次のコマンドを使用してCloudFormationテンプレートを削除することで、PCSクラスタとそれで作成されたすべてのリソースを削除します: aws cloudformation delete-stack --stack-name &lt;pcs_cloudformation_stack name&gt; 結論 AWS Parallel Computing Service は、 Cryo EM をクラウドで実行するためのパワフルでスケーラブルなソリューションを提供し、研究者が新しい科学的発見を解き放つことを可能にします。 AWS上のスケーラブルでオンデマンドなコンピューティングにより、科学者のアイデアや意欲の成長に合わせて要求に応えることができます。多様なワークロードに対応できるコンピューティングでAWS PCSを構成し、利用可能になった最新のインスタンスタイプで状態を保つことができます。Amazon DCVを使用してPCSに統合された高解像度、低レイテンシーの可視化により、科学者はデスクトップから直接、完全なCryo-EMワークフローを実行できます。 お客様がクライオ電子顕微鏡(Cryo-EM)のデータ解析環境にAWSを選択するメリットは、研究者にとってスケーラビリティ、柔軟性、最終的な効率性をもたらすことができることです。 本ガイドでは、PCS上でCryo-EMジョブを実行する方法の一例を紹介します。構造生物学者は、1つのサンプルを処理する際に複数のアプリケーションを使用し、組織内の研究グループ間でデータセットを共有することがよくあります。AWS Professional ServicesとClovertexのようなAmazon Partner Network (APN)のメンバーは、組織のニーズに合わせてこの初期システムのスケールアウトを支援することができます。詳細については、AWSアカウントチームにお問い合わせいただくか ask-hpc@amazon.com までご連絡ください。 <!-- '"` --> 本ブログ記事は、プロフェッショナルサービスの山下が翻訳しました。原文は こちら です。 &nbsp; 著者について Marissa Powers Marissa Powers は、ハイパフォーマンスコンピューティング(HPC)とライフサイエンスに特化したAWSのスペシャリストソリューションアーキテクトです。彼女は計算神経科学の博士号を持っており、創薬ワークロードを加速するために研究者や科学者と働くことを楽しんでいます。ボストンに家族と住んでおり、ウィンタースポーツとアウトドアの大ファンです。 Juan Perin Juan Perin は、HPCとストレージを専門とするヘルスケアとライフサイエンスのスペシャリストです。ライフサイエンス分野の研究開発で深い経験を持ち、テクノロジーとサイエンスの応用のギャップを埋めることに喜びを感じています。ニューヨーク近郊に住み、3人の男の子の父親として多忙な日々を送っています。 Rye Robinson Rye Robinson は、AWSのHPCを専門とするライフサイエンス・ソリューション・アーキテクトです。お客様が新技術や最先端技術を活用し、多様な複雑な課題を解決するお手伝いをすることが喜びです。仕事以外では、完璧なエスプレッソを淹れるための探求を続けています。 翻訳者について Tomoya Yamashita 山下 智也(Tomoya Yamashita)は Professional Services のコンサルタントです。大規模なマイグレーションやDBマイグレーションチームに所属しています。HPC、ライフサイエンスをはじめエッジの効いたマイグレーションを推進することを楽しんでいます。最近は一緒に年を取ってきた老犬のお世話を日課にしています。 <!-- '"` --> TAGS: Cryo-EM , Elastic Fabric Adapter , Research Computing , Storage , visualization
アバター
コンタクトセンターのリーダーは、情報に基づいた適切な運用上の意思決定を行うために、 Amazon Connect のコストの可視性の向上を常に求めています。この記事では、生の請求データを実用的なインサイトに変換する強力なソリューションである Amazon Connect Cost Insight Dashboard をご紹介します。このツールは、コンタクトセンターの最適化に特化して設計された包括的なコスト分析機能を提供し、サービスの品質・優秀性を維持しながら効率化の機会を特定することを可能にします。 Amazon Connect Cost Insight Dashboard は、コンタクトセンターの財務的なパフォーマンスについて、包括的に可視化します。月次のコストトレンドを追跡し、サービスコンポーネント別にコストを分解し、通話国や通話の方向に関わらずテレフォニー費用を分析します。このダッシュボードは、チャネル別のコスト比較、地域別のコスト分析を可能にし、コンタクトあたりのコストなどの主要な効率性に関わるメトリクスを提供します。この強力なツールは、コンタクトセンターマネージャーが情報に基づいた意思決定を行い、運用を最適化するために、必要なデータを提供します。 仕組み このソリューションは、以下のように AWS サービスを利用し、請求データをアクセスしやすいインサイトに加工します。 図 1: Cloud Intelligence Dashboards Framework のアーキテクチャ概要 AWS コストと使用状況レポート (AWS CUR) が詳細なコストデータを S3 バケットに配信 AWS Glue crawler がコスト情報のデータカタログを作成・更新 Amazon Athena が情報をクエリし、関連する Amazon Connect のデータを処理 Amazon QuickSight がこれらのデータからインタラクティブな可視化を提供 Amazon Connect のコスト分析に役立つ 6 つのビュー Overview (概要): Amazon Connect の使用状況とコストに対する概要レベルの可視化を提供します。Amazon Connect のサービスと通話料を分割して表示できす。また月次のトレンドや当月のメトリクスを表示できます。インバウンドおよびアウトバウンド通話の上位国を特定できます。アカウント、リージョン、サービス別にコストを分類できます。 Contact Center: Amazon Connect が有効化されたアカウント内での AWS サービス全体のコストを追跡します。より明確に可視化するため Amazon Connect のコストを除外したサービスのトレンドを表示します。Amazon Lex、Amazon DynamoDB、Amazon S3 などのコンタクトセンターソリューションに統合されるサービスの利用増加のパターンを明らかにできます。また、それらの月次分析が可能です。このビューでは、コンタクトセンターソリューション全体の完全なコストをマッピングできます。例えば、棒グラフでは(Amazon Connect のコストを除いた)サービスタイプ別のコンタクトセンターでの使用状況を表示でき、Amazon Connect と併用されている追加サービスのコストが確認できます。これにより、顧客は Amazon Connect サービスを超えた全体の技術的な支出を理解できます。 Amazon Connect: Amazon Connect サービスコストを通話料と切り離して確認できます。複数のリージョンとアカウント間での使用パターンをマッピングでき、サービスコンポーネントの詳細な内訳(エンドカスタマーの通話分数、チャットインタラクション、タスク、エージェント評価)を表示できます。各サービスコンポーネントの単位あたりコストを計算できます。 Telecom: コンタクトセンターの通話料の分析のためのビューです。インバウンド/アウトバウンドの時間(分)と通話料のタイプを分類できます。国別にテレコムの使用状況とコストをマッピングでき、世界地図上でグローバルな通話料の状況を可視化できます。コスト影響の多い上位の要素と高額な通話先を特定できます。 Daily usage (日次使用状況): 過去 30 日間の詳細な使用状況ビューを提供します。データをインバウンド、アウトバウンド、電話番号のコストに分類できます。特定の日、国、通話へのドリルダウンが可能です。バブルチャートを使用してコストと利用量、価格の関係を可視化できます。個別の通話コストの調査に役立つビューです。 Call Details (通話詳細): コンタクト ID ごとの使用タイプを集約できます。通話コストと通話時間の分布を可視化します。最も高額で最も長時間の通話にフラグを立てたり、国別の通話時間パターンを表示することができます。特定の通話詳細と使用タイプの詳細な分析に役立ちます。 Contact Search (問い合わせ検索): 特定の問い合わせに対する高度なフィルタリングを提供します。価格、通話時間、国による検索が可能です。コンタクトセンター使用状況を地理的ビューで確認できます。個別の問い合わせコストと特性の詳細分析が可能です。 Amazon Connect Cost Insight Dashboard のデモ 実際にデプロイする前にダッシュボードの機能を体験したい場合、 インタラクティブなデモをご覧ください 。このデモではサンプルデータを使用して、ダッシュボードの直感的なインターフェースと強力な可視化機能を紹介しています。 図 2: Amazon Connect Cost Insight Dashboard のデモ このデモでは、サービスコンポーネント別のコスト内訳、地域別支出比較、チャネルコスト分析などの主要機能に触れることができます。FinOps チーム、コンタクトセンターマネージャー、DevOps エンジニア、ビジネスリーダーは、これらのインサイトが各役割と責任にどのように活用、適用できるかすぐに確認できます。 コンタクトセンターのコスト最適化の例 高額な通話の調査によるコスト分析 Call Details ビューにアクセスすることで、最もコストの高い上位 50 件の通話を特定し分析することができます。例えば $0.62 の通話を例にします。この特定のデータポイントを選択すると、ビューが即座にフィルタリングされ、その完全な内訳が表示されます。ダッシュボードでは、エンドカスタマーとフリーダイヤルの分単位のコストの両方が表示され、$0.62 に積み上がるコストの単価・要素が表示されます。高額な通話に対して、この詳細な可視化を行うことで、高コストなやり取りのパターンを特定し、的を絞ったコスト最適化戦略とより効率的なリソース配分を可能にします。 国別の通話時間ベースのコスト分析 国別の通話時間分布により、10 秒の短い通話から 20 分の長時間の通話まで、異なる時間別のセグメントにわたるコストパターンが明らかになります。例えば、ベルギーの通話パターンを調べるために、その時間のセグメントを選択すると、関連するすべてのコンタクト ID がインタラクティブにバブルとして表示され、それぞれに関連するコストが表示されます。特定の問い合わせをクリックすると、エンドカスタマーとフリーダイヤル分数の詳細なコスト内訳が表示されます。この詳細なビューを Contact Lens の分析と組み合わせることで、どの通話時間と国がより高いコストを発生させるかを特定し、国際通話ルーティングの最適化、人員配置の調整、運用費用削減のためのプロセス改善について、データに基づいた意思決定を可能にします。 アクションを起こしましょう Amazon Connect のコストを完全に可視化しましょう。このダッシュボードは、すべてのチャネルにわたる使用パターンとコストを明らかにし、最適化の機会のすばやい特定に役立ちます。 このソリューションを実装し、コンタクトセンターのコストを最適化するために、 ワークショップガイドにアクセス してください。 筆者紹介 Paras Babbar は AWS の Enterprise Support Lead および Connect スペシャリストで、顧客が堅牢で効率的なクラウドソリューションを構築するためのガイダンスの提供に長けています。彼はコンタクトセンターの革新と複雑なビジネス課題への取り組みを専門とし、顧客の成功を推進する革新的な戦略を一貫して提供しています。 Alex Yankovskyy は AWS Telecom のソリューションアーキテクトで、コンタクトセンターおよびカスタマーエクスペリエンスのソリューションにおいて 15 年の経験を持っています。彼は様々な業界の企業が Amazon Connect を使用してコンタクトセンターを変革することを支援し、AI 統合と運用効率に焦点を当てています。Alex は 12 の AWS 認定資格を保有しています。 Baraa Elkosh は AWS Telecom のソリューションアーキテクトで、コンタクトセンターおよびカスタマーエクスペリエンスのソリューションにおいて 15 年の経験を持っています。彼は様々な業界の企業が Amazon Connect を使用してコンタクトセンターを変革することを支援し、AI 統合と運用効率に焦点を当てています。Alex は 12 の AWS 認定資格を保有しています。 Mariia Poliak は AWS のクラウドオペレーションアーキテクト(COA)で、クラウドコスト最適化に情熱を持っています。Enterprise Support 組織内で働く彼女は、顧客が AWS サービスから最大の価値を得ながら、最適なクラウド利用のプラクティスを実現できるよう支援しています。 翻訳はテクニカルアカウントマネージャー高橋が担当しました。原文は こちら です。
アバター
皆さん、信じられますか? 早いもので、今年も年末がすぐそこまでやって来ています。AWS re:Invent が開催日を迎えるのもあっという間です! 米国ラスベガスで毎年行われる AWS 最大のイベントは 12 月 1 日から 12 月 5 日の日程で開催され、私たちが取り組んできた数多くの事柄が発表およびリリースされます。チケットをまだ購入していない場合は AWS re:Invent 2025 のチケットを購入 して、このイベントを実際に体験しましょう。ラスベガスに行けなくても心配ありません。数々の発表を情報が入り次第お伝えする AWS ニュースブログをチェックしてください。 これから re:Invent までの間にもエキサイティングな新しいリリースがまだまだたくさん行われるので、いつものように9 月 22 日週のハイライトを簡単に振り返って最新のリリースを見ていきましょう。まずは、最も人気のあるサービスの 1 つである Amazon S3 です。 S3 の更新 S3 チームは、S3 の使用をさらに向上させるために懸命に取り組んできました。今月だけでも、 S3 バッチオペレーションのターゲット一括選択 、 S3 汎用バケットでの条件付き削除のサポート 、 マルウェア防止のためのファイルサイズとアーカイブスキャンの制限拡張 などがリリースされました。 9 月 22 日週は、 AWS コンソールでの Amazon S3 Tables プレビュー機能の追加 により、新たな S3 マイルストーンが達成されました。今後は、コンソールから直接 S3 テーブルを確認することで、SQL を記述しなくてもテーブルのデータ構造と内容を簡単に理解できるようになります。簡単に表示できるこの特徴量は、S3 Tables がサポートされているすべてのリージョンで今すぐ利用でき、発生するコストはテーブルプレビューを表示するために必要な S3 リクエストの料金のみです。 その他のリリース 9 月 29 日週はすばらしい機能をリリースしたその他サービスのハイライトをいくつかご紹介します。 Amazon Bedrock AgentCore が エンタープライズ統合オプションと自動化オプションを拡大 – Bedrock AgentCore サービスは、新たに Amazon VPC 接続、 AWS PrivateLink 、 AWS CloudFormation 、リソースタグをサポートすることで エンタープライズ対応性をレベルアップ し、開発者がセキュリティやインフラストラクチャの自動化よりよく制御できるようにしました。スケーラブルなエージェントデプロイ用の AgentCore Runtime、ウェブインタラクション用の AgentCore Browser、セキュアなコード実行用の AgentCore Code Interpreter のどれを使用しているかにかかわらず、これらの機能強化によって、プライベートリソースへのアクセス、インフラストラクチャのデプロイ自動化、系統立ったリソース管理の維持をセキュアに実行できる AI エージェントのデプロイが可能になります。 AWS X-Ray が より優れたエラー検出のためのスマートサンプリングを導入 – AWS X-Ray が、 定義した制限内でトレースキャプチャ率を自動的に調整する適応型サンプリング の提供を開始しました。この機能は、DevOps チームや SRE が通常の操作時にオーバーサンプリングを行うことなく重要な問題を検出できるようにします。新機能には、異常発生時にサンプリングを増加させる Sampling Boost や、ターゲットを絞りこんだエラートレースを行う Anomaly Span Capture などがあり、チームはコストを抑えながら必要なときに高度なオブザーバビリティを実現できます。 AWS Clean Rooms が段階的な ID マッピングでリアルタイムコラボレーションを強化 – AWS Clean Rooms では、 AWS Entity Resolution を使用した新規、変更済み、削除済みのレコードのみでの ID マッピングテーブルの更新が可能になり、コラボレーター間でのデータ同期化をより効率的かつタイムリーに行えるようになりました。この改善は、広告効果測定プロバイダーがプライバシーコントロールを維持しながら広告主やパブリッシャーとの最新データセットを維持するために役立ち、データセット全体を再処理しなくても常時オンのキャンペーン効果測定が可能になります。 要点だけを簡潔に チームやワークロードに大いに役立つと思われる更新をいくつか簡単に紹介します。 EC2 インスタンスタイプはどんどん更新されるので、最新タイプを完全に把握しておくのも大変です。 AWS Compute Optimizer では、最新の C8、M8、R8、I8 ファミリーを含めた 99 のインスタンスを追加でサポートするようになりました。 e スポーツでは、1 ミリ秒たりとも無駄にできません! Amazon GameLift が米国ダラスに新しい Local Zone を立ち上げ、テキサス州のプレイヤーはより近い場所に設置された超低レイテンシーゲームサーバーを利用できるようになりました。 大規模な Amazon EC2 デプロイを管理するときは、コントロールがすべてです! Amazon EC2 の 許可された AMI 設定がマーケットプレイスコード、廃止時、作成日、命名パターンでのフィルタリングのサポートを開始 しました。これは、非準拠イメージの使用防止に役立ちます。さらに、 EC2 Auto Scaling ではインスタンスの更新を即座に強制キャンセル できるようになり、重要なデプロイ中の制御をより迅速に行えるようになりました。 よりインテリジェントでセキュアなカスタマーサービスをさまざまな言語で実現しましょう! Amazon Connect が、より優れたカスタマージャーニーインサイトを得るために フローデザイナーの分析を強化 し、 正確なインタラクション追跡のためのカスタム属性 を追加するとともに、 Contact Lens の機密データ秘匿化機能を拡張 してさらに 7 つの欧米言語をサポートするようになりました。 9 月 29 日週のニュースは以上です! 世界中で開催される 今後の AWS イベントのすべて を忘れずにチェックしましょう。テクノロジー業界の気の合う仲間たちとすばらしい 1 日を過ごしながら、たくさんの人々と出会い、たくさんの事柄を学べる無料のイベントに参加するエキサイティングな機会が盛りだくさんです。 賞金を掛けて勝負したいと考えているなら、特別なイベントへの参加期間が終了間近です! 10 月 20 日まで続く AWS AI Agent Global Hackathon は、AWS の包括的な生成 AI スタックを使用して革新的な AI エージェントを構築するというまたとない機会を開発者に提供します。45,000 USD を超える賞金と独占的な市場参入機会を獲得できるグローバルなコンペであなたの創造性と技術力を披露するチャンスをお見逃しなく。 9 月 22 日週のリリースから、役に立つ機能やエキサイティングな機能を見つけていただけたでしょうか。AWS では、毎週月曜日にウィークリーレビューを公開して AWS の最新情報を皆さんにお届けしています。このページをブックマークして、10 月 6 日週もまたお会いしましょう! Matheus Guimaraes | @codingmatheus 原文は こちら です。
アバター
本ブログは、2025 年 9 月 23 日に Adam Balest によって執筆された「 Showcase your AWS achievements with the new Skills Profile 」を翻訳したものです。 AWS Training and Certification では、AWS のスキルと成果を共有したい学習者のために、AWS Skill Builder の新機能「スキルプロファイル」の提供を開始しました。これは、AWS 認定、学習成果、デジタルバッジを 1 つの共有可能なプロファイルで紹介する強力な新しい方法です。スキルプロファイルにはカスタマイズ可能な共有オプションがあり、可視性と信頼性を高めながら、学習者それぞれのクラウドスキルを伝えるために使用できます。 スキルプロファイルは Skill Builder にサインインしている学習者が利用でき、AWS の学習成果を公開できる中心的な場所となります。あなたが意欲的なクラウドプラクティショナーであろうとベテランエキスパートであろうと、あなたのスキルプロファイルはあなたの AWS スキルのショーケースとなり、LinkedIn などのプラットフォームや求人応募で、同僚や採用マネージャーにすぐに共有可能です。 「スキルプロファイルでは、AWS の学習過程と、私が身に付けたスキルを簡単に紹介できます。認定資格や学習のマイルストーンをわかりやすい形式で共有できます。スクリーンショットや色々な場所に散らばったリンクは必要ありません。」— AWS Skill Builderの学習者 学習から専門的な評価へ 専門的なプラットフォームでのソーシャルラーニングの広がりにより、学習者が信頼性の高い一貫した方法で専門知識を示すことが不可欠になっています。スキルプロファイルは、プライベートな学習記録と、公開される専門的な評価の間のギャップを埋めるものです。 Skill Builder 内の学習者ダッシュボードはプライベートである一方、スキルプロファイルは公開共有を目的に設計されています。AWS の認定資格、Skill Builder での学習成果、Cloud Quest のバッジ、その他の達成項目などを紹介できます。表示内容を完全にコントロールできるため、自分がプロファイルで共有したい内容を伝えることができます。 スキル共有を通じたつながりの構築 スキルプロファイルは、クラウドの専門知識を可視化し、共有可能にすることで、学習者と組織の双方に新たな価値をもたらします。認証された AWS での実績を共有することで、新たな職業的なつながり、コラボレーション、キャリアの機会への扉が開かれます。 学習者にとっては、熱心に培ってきたスキルを示す手段となり、組織や採用担当者にとっては、クラウド人材を発見し検証するための信頼できる情報源となります。これらの共有プロファイルにより、スキルを持つ専門家と、現在および将来の機会との間により強固なつながりが生まれます。 今後、スキルプロファイルは、特定のスキルや AWS クラウドでの成果に基づいて組織や採用担当者が人材を発見するのを助ける機能に加えて、さらに多くの共有可能な実績を含むように拡張される予定です。 スキルプロファイルの始め方 スキルプロファイルを使い始めるには、AWS Skill Builder にサインインし、画面右上の「アカウント」より「プロフィール」に移動し、スキルプロファイルを作成・カスタマイズします。そこから、表示する実績を選択し、ヘッドライン (オプション) を挿入して、プロファイルのリンクをネットワークと共有できます。 次の役職に就くことを目指している場合でも、最近の認定資格を紹介したい場合でも、AWS で学んだことを誇りを持って共有したい場合でも、スキルプロファイルを使用して自分のクラウド専門知識を世界に共有できます。 あなたの AWS ストーリーを共有する準備はできましたか ? 今すぐ AWS Skill Builder にサインインして、スキルプロファイルを作成しましょう ! 翻訳は Technical Instructor の 室橋 弘和 が担当しました。
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの森です。 2025 年も多くのお客様に生成 AI の活用にチャレンジいただいております。特に注目すべきは、生成 AI をコアビジネスの価値向上や成長加速に繋げる事例が増えてきていることです。今回ご紹介するのは、医療従事者向けの情報サービスを提供する株式会社ケアネット様が、AWS の生成 AI サービスである Amazon Bedrock を活用して、医師向け情報サービスの価値を大幅に向上させた事例です。 ケアネット様の状況と課題 株式会社ケアネット様は、医療従事者向けプラットフォームを基盤に、医療の人材・教育・経営関連の事業から新薬の開発・治験普及を支援する事業まで、医療・医薬分野の専門サービスを幅広く展開しています。 その中でも、日常臨床に役立つ医療・医学情報を提供する医師向けの会員制サイト「CareNet.com」は、ケアネット様の主力サービスとなっており、日本全国の医師数の約70%に相当する24万人が登録しています。CareNet.comでは、臨床医による連載やガイドライン解説などの臨床で役立つコンテンツや、医学誌に掲載された論文を厳選し日本語で要約したニュース記事を配信したりしています。しかし、忙しい医師にとっては次のような点が課題となっていました: 膨大な医学情報の処理:年間 150 万件以上の医学文献が発表される中、臨床医が最新情報を継続的に取得することが困難 情報提供の限界:従来の人力によるニュース作成では 1 日約 10 件程度しか提供できず、医師の情報ニーズを十分に満たせていなかった これらの課題を解決するため、ケアネット様は生成 AI を活用した新サービス「CareNet Academia(ケアネットアカデミア)」の開発に着手しました。ケアネットアカデミアは、「限られた時間で専門分野の知識を効率よくアップデートしたい」といった臨床現場のニーズに応えるスマホ対応ブラウザアプリケーションです。膨大な医学文献(米国国立医学図書館(NLM)が提供する医学文献データベース PubMed)のアブストラクト情報を読み込み、各医師ごとの関心に合わせて生成 AI が自動でニュース記事を選定・作成し、その内容がメールで配信されます。関心のあるトピックス(診療科や疾患)については利用開始時に選択可能となっており、配信されたニュース記事を評価することでより有益な情報を配信できるようになります。 ソリューション ケアネットアカデミアで配信する記事を作成するために、Amazon Bedrock を活用した大規模 AI ライティングシステムを構築しました。具体的には、Anthropic 社が開発した LLM である Claude を使ってニュース記事を自動生成し、独自開発のレコメンデーションAIと組み合わせることで、個々の医師に最適化された情報配信を実現しています。 本記事では、特に Amazon Bedrock を活用した AI ライティングシステムについて詳細に解説します。 主な機能 AI ライティングシステム(Amazon Bedrock を活用した機能) Claude を活用して医学文献から記事を自動生成 Claude を使って医学文献を整理・要約 解説記事の自動生成 Amazon Bedrock 選定理由 ケアネット様が Amazon Bedrock を選定した主な理由は以下の通りです: セキュリティとデータ保護 データが AWS 内に閉じるため、会員情報、医療情報のセキュリティを確保 転送中・保管時のデータ暗号化により、機密性の高い会員情報、医療情報を安全に処理 信頼性と品質 Amazon Bedrock の SLA が定義されており、安定したサービス品質を確保 スケーラビリティ クロスリージョン推論機能を活用し、大量のリクエストを並列処理 短時間で多数の記事を生成・処理することが可能 導入効果 Amazon Bedrock を活用した新機能の導入により以下の効果が得られました: 情報提供量の飛躍的増加 1日あたりの記事生成数が最大5,000件に拡大(従来比約500倍) 医師が必要とする幅広い医学情報をカバー 医師の情報収集効率化 膨大な医学文献から必要な情報だけを抽出・要約して提供 医師の情報収集時間の短縮と、より効率的な臨床判断をサポート また、CareNet Academiaをお使いいただいているユーザーの継続率は60%を超えていることからも、医師からの高い満足度が伺えます。さらに、ユーザーからの追加機能の要望(関心のある疾患カテゴリの追加)に迅速に対応したことで、「非常に有用で助かっている」という声も届いています。ケアネット様の CTO である榊原海様からは「Amazon Bedrock の活用で、AWS の統合されたセキュアなインフラ内でAI処理の大規模並列実行を実現できました。」とコメントを頂戴しています。 まとめ 本事例は、医療情報という専門性の高い分野において、生成 AI を活用してビジネスの価値向上に繋げた優れた事例です。Amazon Bedrock のセキュリティ、信頼性、スケーラビリティを活かし、医師向け情報サービスの質と量を大幅に向上させることに成功しました。 特に注目すべきは、単に業務効率化だけでなく、医師の情報収集をサポートし、最終的には医療の質向上に貢献するという社会的意義の高いユースケースである点です。AWS は今後も、このような社会的価値の創出に貢献できるよう、安全で信頼性の高い生成 AI サービスの提供を続けてまいります。 生成 AI を活用したビジネス価値の向上や、AWS が提供する様々なサービスの選択肢にご興味をお持ちの方は、お気軽にお問い合わせください。 ソリューションアーキテクト 森 瞭輔
アバター
はじめに 近年、IT の急速な進歩と共に EC 市場は急速に拡大し、様々な顧客ニーズに応えるため EC サイトや決済手段も多様化する中、「電話」という従来からのチャネルの重要性は今なお低下することはありません。シニア層や IT に不慣れな方への対応や緊急時の問い合わせなど、電話での対応が必要とされるシーンは決して少なくなく、むしろ事業者様とお客様をつなぐ接点として大きな価値をもたらす役割を担っています。 その一方で、コンタクトセンターにおける人手不足やコストの課題は、業界共通の大きな悩みであることも事実です。オペレータの負荷軽減や業務効率化、運用コストの削減を目指す中で注目される技術として IVR (Interactive Voice Response) があります。IVR は電話による顧客対応を自動化する技術として活用されており、音声ガイダンスに従ってキーパッドから番号を入力する、あるいはユーザーが発話することで、その内容に応じて様々なサービスを利用できるシステムです。この技術により、ヒューマンオペレーターの対応を減らし必要な場面にだけオペレーターが介在できるため、人手不足の課題解決につながり、見方を変えると、オペレータ対応を真に必要とするお客様に絞った対応ができるため、問い合わせ窓口としての満足度向上にも貢献できます。 ここで注目したいのが、AWS が提供するクラウドベースのコンタクトセンターサービス Amazon Connect と AI による柔軟な対話を実現する Amazon Lex です。従来の定型フレーズによる音声ガイダンスでは無機質な印象もあった IVR ですが、AI や 音声合成マークアップ言語 (SSML) など、多様な機能を活用することで、より自然で温かみのあるインタラクションを AWS で実現することができます。そもそも、従来のオンプレミスのコンタクトセンター基盤の IVR にこうした最新のテクノロジーを組み込もうとした場合、時間やコストが制約になることもあります。これに対し、Amazon Connect と Amazon Lex はわずか数クリックでデプロイすることができ、料金についても初期費用不要の従量課金モデルでサービスを利用することが可能です。そのため、スモールスタートで素早く取り組みを開始し、事業成長とともに規模をスケールすることができます。 また、 Amazon Pay は Amazon が提供する ID 決済サービスで、Amazon アカウントを持っていればどなたでも利用できる簡単・便利な決済サービスです。 amazon.co.jp を普段からご利用いただいているお客様はすでに Amazon アカウントをお持ちですので、Amazon Pay をすぐに利用できます。 Amazon Pay が導入されている EC サイト では、Amazon アカウントに登録されたお支払い方法・お届け先住所を利用できるため、最短 3 ステップでお買い物が完了します。Amazon Pay を IVR による電話注文と統合することで、電話口でのやり取りから Web 決済までスムーズかつセキュアに完結し、これまで抱えていた「電話口でのクレジットカード番号の伝達」や「注文導線における入力操作の手間」というお客様の不安・不満、さらには事業者様が懸念する「購入からの途中離脱」の解消につながります。 本記事では、Amazon Connect および Amazon Lex を活用した IVR による電話注文から Amazon Pay での Web 決済につなげる新しい購入体験のシナリオや構成例についてご紹介します。お客様の利用シーンや属性に合わせて選択可能な最適なチャネルを提供し、コンタクトセンタービジネスをさらに拡張するアプローチのきっかけとなれば幸いです。 電話注文時のユーザー体験 本記事では電話注文のシーンに焦点を置き、電話注文の開始から決済完了までの一連の流れを想定します。 お客様がカタログやテレビショッピングで見た電話番号を入り口とし、どういった体験ができるかのアイデアをご紹介します。 一例ではありますが、以下のようなフローをユーザー体験として想定できます。 電話をかけて、商品名・購入数 を電話口で伝える。 注文を電話口で確認したら、電話をかけた端末に SMS メッセージを受信する。 SMS のリンクから Web に遷移し、Amazon Pay で決済を行う。 手順 1, 2 のフローは電話口でのインタラクションとなり、手順 3 は、Web での決済操作となるイメージです。 電話口でのインタラクションは IVR によって実現が可能です。つまりオペレータの介在なしに電話でのフローは完結できます。 例えば、以下のような対話イメージを IVR によって実現できます。 IVR による電話注文を実現する AWS のサービス 電話口での IVR は Amazon Connect と Amazon Lex で構築が可能です。 Amazon Connect は AWS が提供するクラウドベースのコンタクトセンターサービスで、Web コンソールの UI 上でブロックをつなげることで、コンタクトフローを簡単に構築することができます。そのブロックの中の一つに、Amazon Lex を呼び出すブロックがあります。Amazon Lex は 会話型インターフェースを構築する、いわゆるチャットボットのサービスです。Amazon Lex を Amazon Connect と統合することで、電話口での対話を実現することができます。Amazon Lex では注文を処理するためのインテントを構築し、Amazon Connect のフローの中で呼び出すように構築が可能です。「買い物したい」という発話によって、構築した注文処理のインテントが発動し、最後の注文確認までの会話フローを構築することができます。 また、Amazon Lex から AWS Lambda を呼び出すことも可能なため、Amazon Lex のインテントの中で注文確認ができれば AWS Lambda を呼び出し、注文情報をデータベースなどに保管するような構築イメージになります。 なお、SMS メッセージの送信についても AWS で実現することができ、例えば、Amazon SNS のサービスに SMS メッセージを送信する機能があります。Amazon Connect では発信者の電話番号を取得することができ、さらにコンタクトフローの中で AWS Lambda に電話番号情報を渡して実行することも可能です。そのため、Lambda 関数にて Amazon SNS から SMS 送信を行うよう実装することで、Amazon Connect から連携された電話番号をもとに発信者であるお客様に SMS メッセージを送信することを実現できます。 上記のように、多様な機能を提供する AWS のサービスを組み合わせることで、IVR による電話注文から SMS の送信まで、すべてを AWS でシンプルに実現できると考えています。電話注文でのインタラクションから SMS 送信までのアーキテクチャ例を以下に掲載いたしますので、ご参考にいただけますと幸いです。 本記事冒頭でも言及した通り AWS は従量課金モデルであるため、スモールスタートで「まず試してみる」といったことが可能です。新しい機能の導入・拡張に AWS は非常に親和性が高いです。 Amazon Pay による Web 決済 続いて、Web での決済操作の導線イメージをご紹介します。 ここでまずは簡単に Amazon Pay の紹介をいたします。 Amazon Pay とは Amazon Pay は Amazon のお客様向けに提供されている ID 決済サービスで、 Amazon Pay を導入されている事業者様 の EC サイトにてご利用いただけます。 Amazon Pay のご利用に新たな専用アカウント・アプリの登録は必要ありません。 Amazon アカウントをお持ちのお客様、つまり amazon.co.jp を普段からご利用いただいているお客様であれば、その Amazon アカウントに登録されているお支払い方法・お届け先住所を利用することができるため、購入したい EC サイトにて新たにクレジットカードや住所情報登録の手間が軽減され、スピーディーかつ安心してお買い物を楽しむことができます。また、Amazon Pay ではクレジットカードだけでなく、Amazon ギフトカードやあと払い(ペイディ)、メルペイ、パートナーポイントによるお支払いも可能です。 Amazon Pay に関する詳しい情報、および導入を検討される事業者様は、 Amazon Pay の公式ページ 、または こちらのページ から無料でダウンロードできる資料にてご説明しておりますので、ご参照ください。 Amazon Pay での決済イメージ Amazon Pay の概要を掴めたところで、決済操作の導線イメージをご紹介します。「電話注文時のユーザー体験」の章にて記載した手順 3 に相当する箇所のご紹介となります。 簡易な例ではございますが、以下に購入フローのイメージを掲載します。上部の水色のエリアが事業者様の EC サイト、下部のオレンジのエリアが Amazon 側のページ (Amazon Hosted Page) を表しています。 Amazon Pay ではこのように、EC サイトと Amazon Hosted Page を行き来することで決済を進めることが基本となります。 流れとしては、ユーザーに SMS が到達し、そこに記載された URL をクリックすることで、電話口での注文情報が反映されたカートページに遷移します。今回 SMS での送信としているのは、Amazon Connect で発信者の電話番号が取得できるためであり、他の手段で URL を送付する方法も考えられます。URL をクリックし Web ページに表示された Amazon Pay ボタンをクリックすることで、Amazon Hosted Page に遷移します。ユーザーはお持ちの Amazon アカウントでログインし、そのアカウントに登録されているお支払方法およびお届け先住所を選択、あとは EC サイト側で注文確定ボタンを押すことで Amazon Pay の決済を完了することができます。 このように、Amazon アカウントを持ったユーザーであれば、電話注文から購入完了までの一連の流れを、途中での入力の手間などなくスムーズに完結できるよう実装することが可能です。 Amazon Pay を事業者様サイトに組み込む方法については、 Amazon Pay インテグレーションガイド にて記載がございますので、適宜ご参照ください。 (EC サイトへの Amazon Pay 導入には お申し込み が必要です。) IVR × Amazon Pay 導入のメリット IVR による電話注文から、Amazon Pay での Web 決済に引き込むことで以下の観点でメリットがあると考えています。 待ち時間の軽減 IVR での自動応答がない場合、電話注文が殺到すると、オペレータに接続されるのを待つ時間が長くなってしまい、お客様の体験は低下します。 IVR による自動応答で一部の通話に対応することができれば、待ち呼数が減ることになり、有人対応を必要とするお客様もオペレータに繋がりやすくなります。 購入離脱の削減と在庫確保の安心感 オペレータと繋がらないことで今まで購入から離脱していたお客様を救うことができます。また、IVR によって商品の在庫状況をすぐに確認できるようになるため、例えば、期間限定商品の注文に対して、電話注文でまずは在庫を確保することでお客様の安心感や満足度を向上させることもできると考えられます。 有人対応が必要なお客様への手厚いサポート IVR による電話注文の導入により、その利用者だけでなく、一方でそれを利用しないお客様に対してもメリットがあると考えられます。例えば、高齢者やまだ Web 操作に不安がある方からの問い合わせや、注文トラブルなどの緊急の問い合わせに対して、オペレータをさらに動員させることできます。つまり、オペレータの対応が真に必要なお客様に対するサポートにより時間を充てられることにつながるため、コールセンターとしての質やお客様満足度の向上につながると考えられます。 電話口でのクレジットカード番号情報の伝達が不要、後払いによる支払い不安からの解消 Amazon Pay による Web での決済導線に誘導することで、電話口でクレジットカード番号を伝える必要がなくなります。加えて、商品と併せて配送する請求書でお客様からの入金を待つという決済モデルから解放され、支払い不安が解消されます。お客様および EC サイトを持つ事業者様双方においてメリットが出てくるポイントです。 利用シーン 利用シーンとしては、以下の場面が例として考えられます。 テレビ/ラジオ ショッピング カタログ通販 チケット予約 ホテル予約 飲食店予約時の事前決済 上記のユースケースや本記事にて紹介したフローはあくまで例ではございますので、他にも適用できる場面や取り入れられるフローなどがあるかと思います。イメージを膨らましていただくための一助となれば幸いです。 Outbound Call による Amazon Pay 決済 本記事でご紹介した構想は、テレビやカタログで見た電話番号に対してお客様から電話をかけるといったシーンを想定しておりました。一方、Amazon Connect では Outbound Call の機能があり、Amazon Connect からお客様に対して電話を発信することができます。 また、Amazon Pay では Payment Method On File (PMOF) という機能があります。 PMOF という機能は、購入者が商品を初回購入するタイミング、あるいはマイページなどから事前に支払い方法を登録することで、以降の購入時は事業者の任意のタイミングでその購入者が登録した支払い方法に対して課金することができる機能です。 支払い方法の事前設定を必要とする事業者や、購入者の操作なしに取引を処理する必要がある事業者に有用な機能です。 IVR を使った Amazon Connect からの Outbound Call と Amazon Pay の PMOF の機能を統合することで、お客様の再購入をサポートする体験を実現することも可能です。 (現時点におきまして、PMOF は Amazon Pay の担当者より個別でご案内をした事業者様のみご利用いただける限定機能となっております。導入のご検討・PMOF の技術資料をお求めの場合は Amazon Pay への お申し込み 後、担当者へご相談ください。) 流れとしては、初回の購入時あるいは事前に PMOF によって支払い方法を登録します。 初回の購入時から例えば 2 週間経過したタイミングで、その購入者に対して Amazon Connect から Outbound Call をかけます。 Outbound Call の中でお客様が購入の意思を示すことで、事前に PMOF にて登録した決済方法に対して請求をかけることができます。 これにより、再購入の際に Web 決済導線を再度操作することなく完結することができ、簡単でスムーズな購入体験を実現できます。 PMOF による支払い方法の登録を行った以降における Outbound Call での IVR 対話イメージ例を参考までに掲載いたします。 上記のイメージ例では、お客様は最短 1 クリックのキーパッド操作で購入まで完了できるため、非常に手軽でスムーズな購入体験になります。 認証コードによる本人確認や、注文から 60 分間は注文を取り消せるようにするといったオペレーションを組み込むことで、さらなる安心感を付加することもアイデアとしてあるかと思います。 なお、関連する記事といたしまして、取引内容の確認・承認を Amazon Connect の Outbound Call で自動化する技術ブログ Automate transaction confirmation using outbound calls with Amazon Connect もございますので、よろしければ参考にしてみてください。 最後に、Outbound Call に関して Amazon Connect Outbound Campaign という機能もございます。この機能はアウトリーチすべきお客様のセグメントを作成し、適切なタイミング、適切なチャネル(音声通話、SMS、Email等)でプロアクティブなアプローチを実現することができます。ここに IVR を活用することもでき、オペレータが不要な大規模なアウトリーチも可能です。ぜひご検討材料の一つとしていただけますと幸いです。 まとめ 本記事では、AWS で実現する IVR と Amazon Pay を統合することによって、電話注文から決済までを実現する構想についてご紹介しました。IVR を構成する AWS のサービスについても触れ、AWS を活用することでシンプルかつスモールスタートで始められる点、加えて柔軟に機能拡張していくことができる点も AWS 活用の大きな強みです。すでにコンタクトセンターを導入されている事業者様におきましても、IVR による電話注文のチャネルだけを切り出す形で AWS にて実現することも考えられます。また、Amazon Connect で実現するコンタクトセンターの柔軟性は Amazon Bedrock や Amazon Q in Connect と組み合わせることで、生成 AI の技術要素を盛り込みさらに広げていくこともできると考えています。 本記事でご紹介した対話フローや AWS 構成図は一例ではございますので、事業者様の取り扱う商材や社内要件、ターゲットとするお客様、必要となる機能によっても変わってくる部分があるかと思いますが、電話注文のチャネルを拡張するためのアイデアの一助となりましたら幸いでございます。 著者 庭屋 郁基 アマゾンジャパン合同会社 Amazon Payments Japan 事業部 Solutions Architect
アバター
はじめに 本稿は、日本航空株式会社デジタルEX企画部 空港オペレーショングループの橋本様よりご寄稿いただいた、成田空港でのドーリー運用効率化を目的とした動態管理システム導入プロジェクトの取り組みをご紹介します。 開発の経緯 空港内では、航空機に搭載する貨物や手荷物の入ったコンテナを運ぶために、『ドーリー』と呼ばれる台車を利用しています。 ドーリーは動力を持っておらず、牽引車で複数台連結して使用されます。航空機からコンテナを降ろすときも、航空機にコンテナを搭載するときも、必ずコンテナと同じ台数のドーリーが必要となります。 航空機からコンテナを降ろし、ドーリーに載せ替える 使用中のドーリー(コンテナあり) コンテナ搭載前のドーリー ドーリーに設置されたIoT機器 しかし、成田空港では以下のような課題に直面していました。 ドーリーの利用は、複数のグループ会社にまたがるため、各社で連絡を取り合いながら、利用するドーリーをそれぞれ確保している。 未使用のドーリーが空港内のどこに何台あるのか把握する手段が無く、利用の度に各社の現場作業者が捜索をしている。 ドーリーの稼働状況が分からず適正数が配備されているか不明。 成田空港内には多くのドーリー置き場や貨物上屋が点在しており、場合によっては移動に30分以上を要することもあります。そのため、ドーリーを見つけるだけでも多大な時間と労力がかかり、業務の効率性を損なう原因となっていました。 これらの課題を解決すべく、IoTデバイスとクラウド技術を活用した「DOLYSプロジェクト」を立ち上げました。 DOLYS導入の目指すもの 本プロジェクトの核となるのは、成田空港内の約3,040台のドーリーに装着したIoTデバイスを活用することで位置情報をリアルタイムに管理し、これを可視化するシステムです。このシステムにより以下の具体的な改善目標を掲げました。 1.ドーリー捜索時間の削減 IoTデバイスでリアルタイムに位置を管理することで、ドーリーを探す時間を削減し、業務効率を向上。 2.ドーリー稼働率の向上による台数削減 効率的な運用管理により、必要な台数を最適化し、ドーリーおよびカートの台数の削減。 プロジェクト体制とアプローチ 本プロジェクトでは、成田空港におけるドーリーの運用を効率化するシステムを低コスト・短期間で構築することを目指し、アジャイル開発を採用しました。この手法により、現場の課題や要望を迅速にシステムに反映しながら、稼働までのリードタイムを最小化しました。 特徴的なポイントとして、本プロジェクトでは、JALのグループ企業である JALグランドサービス 、 JALカーゴサービス 、 JALスカイ といった複数のグループ会社の現場からの意見を広く取り入れ、現場と開発チームとの連携を密接に構築。現場スタッフを主要ステークホルダーに位置付け、ユーザー目線のシステムを実現しました。 また、プロジェクトは「必要機能のみに絞る」という方針を掲げ、シンプルかつ実用性重視のシステム設計を行ったことが特徴です。 システムのアーキテクチャ AWSを基盤にしたサーバーレスアーキテクチャを採用しています。 システムの規模やデータ量に応じたリソースの自動スケールが可能となり、運用コストを最小化しました。また、サーバーレスの特性を活かし、迅速な開発と変更対応も可能になっています。 また、本システムはJALグループの統合クラウドプラットフォームである CIEL/S 上に構築することで、AWSの柔軟性を活用しつつ、同グループに求められるITガバナンス要件と高いセキュリティ基準を満たしました。 IoT技術とAWSのクラウドサービスを組み合わせることで、IoTデバイスからのリアルタイム位置情報を効率的に収集し、ドーリーの位置情報可視化および運用の最適化を実現しました。 ※DOLYS画面(成田空港の概略図にリアルタイムでドーリー台数を表示) また、現場作業者はiPadなどのタブレット端末を活用し、直感的にドーリーの場所を検索・確認できます。ダッシュボードでは「エリア・スポットごとのドーリー配置台数」や「各会社の必要数」をリアルタイム表示し、機材の種類やコンテナ搭載の有無など細かい条件による検索機能も備えているため、現場の即時対応力と業務効率を大幅に向上させています。 ※アーキテクチャ概略図 想定効果と今後の展望 本システムの導入により、以下の効果が見込まれます。 1.稼働率の向上に伴い、新規購入台数および点検費用の削減が可能となります。具体的には、年間で56台(約7%減)の更新台数削減により、約7,170万円のコスト削減が期待されます。 2.所在の見える化により、捜索時間と燃料消費の削減が実現します。年間で約14,157時間の捜索時間が削減され、燃料も約66,361リットル(約760万円相当)が節約されます。 加えてCO2排出量は年間約171トン削減され、環境負荷の軽減にも寄与します。 ※CO2算出方法:66,361[ℓ]×0.00258[t-CO2/ℓ]=171[t] 現在は成田空港で運用が進んでいますが、同様の仕組みを羽田空港にも展開する計画が進行中です。これにより、複数の主要空港でのドーリー運用効率が向上し、さらに標準化された管理体制が構築される見込みです。 現行のDOLYSは主に「ドーリーの現在位置」と「利用可否ステータス(積載検知)」を確認する機能で活用されていますが、将来的には以下のようなデータ分析機能の追加が構想されています。 稼働率の分析:ドーリーの使用頻度や運用状況を可視化。過剰な配備や不足を是正。 リソースマネジメント:人だけでなく、設備などのリソースを最適化し、全体の運用効率を最大化。 これらのデータ分析機能により、コスト削減と業務改善をさらに推進します。 まとめ 本稿でご紹介した「DOLYSプロジェクト」は、成田空港におけるドーリー管理の課題を起点に、IoTとクラウド技術を融合させた革新的なソリューションを実現しました。AWSを活用したサーバーレスアーキテクチャにより、低コストかつ迅速なシステム構築を可能とし、現場のニーズに対応したシンプルで使いやすい管理環境を提供しています。 導入効果として、稼働率向上による更新台数の削減や捜索時間・燃料消費の大幅な削減が想定されており、コストメリットだけでなく環境負荷の低減にも寄与しています。今後は、羽田空港への展開をはじめ、データ分析機能の充実によるさらなるリソース最適化を目指し、運用効率化に貢献してまいります。 本プロジェクトは、現場を中心に据えたアジャイル開発の好例であり、デジタル化推進における成功モデルとして、今後のさらなる業務改革の礎となることを期待しています。 日本航空株式会社 デジタルEX企画部空港オペレーショングループ 橋本 隆彦 2008年、日本航空のグランドハンドリング業務を担う株式会社JALグランドサービスに入社。 現場業務を経験後、2018年より社内システム開発に関する業務などを担当。 2024年より現職に従事。DOLYSや空港オペレーション系システムを担当。 日本航空株式会社 グランドハンドリング企画部BPR推進グループ 村上 忠 1993年、日本航空のグランドハンドリング業務を担う株式会社JALグランドサービスに入社。 現場業務・間接業務(安全品質・生産計画担当)を経験後、2022年より現職に従事。 DOLYSを含む空港ハンドリングの生産性向上施策を担当。 JALデジタル株式会社 デジタル開発部第1グループ 篠原 奈都未 2018年、日本航空のITを担う株式会社JALインフォテック(現:JALデジタル株式会社)に入社。 業務システムの基盤維持管理を担当。 2021年より現職に従事。 クラウドネイティブ技術を活用したアプリ開発やアジャイル開発推進を担当。
アバター
本記事は、2025 年 8 月 6 日に公開された Amazon QuickSight BIOps – Part 3: Assets deployment using APIs を翻訳したものです。翻訳は Solutions Architect の守田 凜々佳が担当しました。 ビジネスインテリジェンス (BI) エコシステムがチーム、アカウント、環境全体に拡大するにつれて、一貫性、信頼性、ガバナンスの維持が大きな課題となります。特にマルチアカウント環境では、ダッシュボードとデータセットを手動でデプロイすることで、バージョンの不一致、依存関係の破綻、運用リスクの増大につながることがあります。 このシリーズの投稿では、 Amazon QuickSight におけるビジネスインテリジェンス運用 (BIOps) に焦点を当てています。 パート 1 では、バージョン管理とコラボレーションのノーコードガイドを提供しました。 パート 2 では、QuickSight API を使用した自動バージョン管理とロールバック、そして BI アセットの継続的インテグレーション/継続的デリバリー (CI/CD) パイプラインについて説明しました。本記事では、QuickSight における API を活用した BIOps 戦略に焦点を当て、特に以下のトピックについて説明します: API を使用したクロスアカウントおよび複数環境へのアセットの展開 データセットのバージョン更新時における競合の検出と解決 開発、QA、本番環境間での権限と設定の管理 Assets-as-Bundle API、 Describe-Definition API、自動化スクリプトなどのツールを使用して、手作業を最小限に抑え、下流での障害を防ぎながら、アセットをプログラムによって自動的にデプロイする方法を説明します。 ソリューションの概要 このシリーズの パート 2 では、QuickSight API を使用したバージョン管理、ロールバック、CI/CD ワークフローについて説明しました。本記事では、その内容を踏まえて、デプロイメントをスケールし、異なる環境間での一貫性を確保するための実践的なテクニックを紹介します。 以下のセクションでは、QuickSight における API ベースの BIOps ソリューションの概要を説明し、チームがプログラムコードを用いて BI アセットのデプロイメントとガバナンスを自動化する方法を紹介します。 QuickSight において複数の AWS アカウント・リージョン間での BI アセットのデプロイ方法について解説し、API を使用してダッシュボード、データセット、および依存関係を一貫性をもって、安全でスケーラブルな形で展開する方法を説明します。 前提条件 このチュートリアルを実施するには、以下の前提条件が必要です。 AWS アカウント 以下の AWS サービスへのアクセス: AWS CloudFormation Amazon QuickSight Amazon Simple Storage Service (Amazon S3) AWS Identity and Access Management (IAM)、QuickSight の Template 、 Assets-as-Bundle 、 Create 、 Update 、 Delete 、 Describe API にアクセスする権限を持っていること Python の基本的な知識 (Python 3.9 以降を使用) SQL の基本的な知識 最新バージョンの AWS Command Line Interface (AWS CLI) がインストールされている Boto3 がインストールされている また、続きを読む前に、このシリーズの パート 1 と パート 2 を確認することをお勧めします。 アセットデプロイメントのためのテンプレート API 「 BIOps: Amazon QuickSight object migration and version control 」では、テンプレートベースのアプローチを使用して QuickSight アセットをデプロイする方法について説明しています。執筆時点ではテンプレートは環境間でダッシュボードを移行およびバックアップするための主な手段でした。 開発環境と本番環境の 2 つの QuickSight アカウントがあるとします。両方のアカウントは、有効なデータソースに接続するように設定されています。 以下の図は、このアーキテクチャを示しています。 実装の詳細に興味がある場合は、 元の記事 を参照してください。ただし、現在ではアセットのデプロイメントにテンプレート方式を使用することはおすすめしていません。 Assets-as-Bundle や Describe-Definition などの新しい API が導入されたことで、BI チームは QuickSight アセットの管理において、より柔軟で透明性が高く、バージョン管理に適したオプションを利用できるようになりました。 アセットの一括デプロイのための Assets-as-Bundle API Automate and accelerate your Amazon QuickSight asset deployments using the new APIs では、 Assets-as-Bundle API を使用して、AWS アカウントやリージョン間で QuickSight アセットをデプロイする方法について説明しています。これらの API は、ダッシュボード、分析、データセットなど、依存関係のあるアセットのデプロイのために設計されています。 次の図は、このアプローチに基づくサンプルワークフローを示しています。 ExportAssetsBundle API は、QuickSight JSON または CloudFormation テンプレートの 2 つのエクスポート形式オプションを提供します。 QuickSight JSON オプションを使用すると、アセットは各アセットタイプ(分析、ダッシュボード、データセット、データソースなど)に対応した JSON ファイルを含む ZIP ファイルとしてエクスポートされます。 この ZIP パッケージはアセット間の関係を保持し、個々の JSON ファイルの確認や修正がしやすいため、デプロイメントの自動化に適していますが、きめ細かなバージョン管理には適していません。 コンテンツは、次のスクリーンショットに示すような階層構造で整理されています。 この サンプル Jupyter ノートブック では、QuickSight JSON 形式で、ソースアカウントからターゲットアカウントに QuickSight アセットをデプロイするための ExportAssetsBundle および ImportAssetsBundle API の使用方法を示すワークフローを提供しています。このサンプルは基本的なユースケースとなり、ソース管理の統合、バージョンタグ付け、環境固有の設定などの自動化ステップを組み込んだ包括的なデプロイメントパイプラインに拡張することができます。 アセットデプロイメントにおけるアクセス許可の管理 デフォルトでは、エクスポートされた QuickSight アセットは、エクスポート操作時に include-permissions オプションが明示的に有効化されていない限り、ユーザーレベルまたはグループレベルの権限は保持されません。 権限が含まれている場合でも、ソース環境とターゲット環境の両方でユーザー名またはグループ名が一致していない限り、アカウント間で正しくマッピングされない可能性があります。 適切なアクセス制御のために、インポートジョブの完了後に適切な UpdatePermissions API を使用して、アセットのアクセス権限を手動で更新することがベストプラクティスです。 これにより、ターゲット環境の正しいユーザーまたはグループが、インポートされたダッシュボード、分析、データセット、その他のアセットにアクセスできるようになります。 もう 1 つの選択肢は、 StartAssetBundleImportJob API の OverridePermissions パラメータを使用して、インポート時にアクセス許可を割り当てることです。インポートされたアセットへのアクセス権を付与する必要があるターゲットアカウントのユーザーまたはグループを指定できます。 ただし、このオプションは慎重に使用する必要があります。インポートジョブが完了すると、指定されたユーザーまたはグループは直ちにアセットにアクセスできるようになります。意図しないユーザーに機密性の高いダッシュボードやデータセットが公開されることを防ぐため、アクセス許可が正しく設定されていることを確認することが重要です。 環境固有の設定を使用したアセットデプロイメントの管理 StartAssetBundleImportJob API には OverrideParameters というパラメータも用意されており、BI チームはこれを使用してインポート時に環境固有の設定を上書きできます。 これには、Virtual Private Cloud (VPC) 接続、データソースの資格情報、その他のデプロイメント固有の属性などが含まれます。 OverrideParameters を使用することで、エクスポートされたバンドルファイルを直接変更することなく、新しいアカウントや環境にインポートされたアセットが正しいインフラストラクチャリソースに確実に接続できるようにします。 これは特に、ネットワークや認証設定が異なる環境間 (例えば、開発環境から本番環境) でアセットを昇格させる際に便利です。 環境やアカウント間でのアセットのデプロイデプロイメントに関するより包括的なアーキテクチャについては、 Guidance for Multi-Account Environments on Amazon QuickSight を参照してください。 このガイダンスでは、開発、検証、本番アカウントの体系的な管理、QuickSight の名前空間とアクセス許可の管理、自動化されたアセットデプロイパイプラインの実装について、企業のシステムに求められるガバナンスおよびスケーラビリティの要件を考慮したベストプラクティスを説明しています。 次の図は、このオプションのソリューションアーキテクチャを示しています。 Assets-as-Bundle API の CloudFormation テンプレートオプションは、機能的には QuickSight JSON オプションと似ています。 このオプションを選択すると、エクスポート出力は、ダッシュボードまたは分析と、データセット、データソース、テーマ、フォルダなどの依存関係をカプセル化した CloudFormation テンプレートになります。このオプションは、既に AWS CloudFormation をインフラストラクチャの自動化に使用しているチームにとって特に有用です。なぜなら、一貫したツールとデプロイメントパイプラインを使用して、他の AWS リソースと共に QuickSight アセットをデプロイおよび管理できるためです。 実践的な例として、 Assets-as-Bundle API の CloudFormation テンプレートオプションを使用した一連のワークフローを示す サンプル Jupyter ノートブック をご参照ください。 このノートブックでは、CloudFormation テンプレートを使用して、構造化された再現可能な形でアセット昇格を実現するために QuickSight のアセットをアカウント間でエクスポートおよびデプロイする方法を示しています。 以下の表は、CloudFormation テンプレートを用いる方法と QuickSight JSON ( Assets-as-Bundle API) を用いる方法を比較したものです。 項目 CloudFormation テンプレート QuickSight JSON エクスポート形式 YAML/JSON 形式の CloudFormation テンプレート ZIP アーカイブ内の構造化された JSON ファイル 目的 AWS CloudFormation ベースの Infrastructure as Code (IaC) ワークフローとの統合 QuickSight ネイティブ形式でのアセットの移植性と検査の簡素化 対象範囲 ダッシュボード、分析、および依存関係を含む ダッシュボード、分析、および依存関係を含む 変更可能性 AWS CloudFormation の構文知識が必要;より厳格 読み書きが容易;JSON は QuickSight の内部構造に従う デプロイメント方法 CloudFormation スタックを使用してデプロイ ImportAssetsBundle API を使用してインポート 開発ツールの互換性 AWS CloudFormation ベースの環境に最適 JSON ベースのワークフローまたはカスタムデプロイメントスクリプトに最適 可読性 BI ユーザーにとって直感的ではない;インフラ指向 BI チームにとってより直感的; Describe API と密接に連携 ユースケースの適合性 BI アセットのデプロイメントを広範な IaC テンプレートに統合するチーム向け QuickSight アセットの移行やコードベースのワークフローに焦点を当てたチーム向け Assets-as-Bundle API で利用可能な QuickSight JSON と CloudFormation テンプレートのオプションについて詳しく比較するには、 Choosing between the two export options of the Amazon QuickSight asset deployment APIs をご参照ください。 この記事では、それぞれのオプションの長所と短所について詳しく説明し、実際の例を示しながら、BI チームがデプロイメントワークフローと自動化のニーズに最適なフォーマットを選択できるようにサポートします。 Automate your Amazon QuickSight assets deployment using the new Amazon EventBridge integration では、 Assets-as-Bundle API を Amazon EventBridge と連携してデプロイメントワークフローを自動化する方法を説明しています。 QuickSight アセットの作成、更新、削除などのイベントに応答する EventBridge ルールを設定することで、チームは環境間でアセットのエクスポート、バージョン管理、昇格を行うワークフローを自動的にトリガーできます。この連携は、QuickSight の BI アセットに対してイベントドリブンの CI/CD パイプラインを実現する上で特に有用です。 アセットの段階的なデプロイのための Describe-Definition API このシリーズの パート 2 では、 Describe-Definition API を使用して、単一の QuickSight アカウント内でバージョン管理を行う方法について説明しました。 同じ原則をマルチアカウント構成に拡張することで、環境全体で BI アセットの体系的かつ選択的なデプロイが可能になります。 個々のアセットのデプロイに Describe API を使用することは、多くのシナリオでベストプラクティスとされています。例えば、関連するダッシュボードを更新せずに本番アカウントのデータセットの問題を修正するための緊急デプロイを実行する場合や、依存アセットに影響を与えずにダッシュボード内のフィルター定義を更新する場合などです。このきめ細かな制御により、デプロイのリスクを軽減し、不要な上書きを回避し、大規模な BI 環境における段階的な開発ワークフローとの整合性を保つことができます。 サンプルコードについては、QuickSight アセットのデプロイに関する 2 つの一連の自動化オプションを説明している BIOps: Amazon QuickSight object migration and version control を参照してください。 この記事は元々テンプレートベースのアプローチに基づいていましたが、基本的な概念は今でも有用です。 関連する GitHub リポジトリ で提供されているコードを再利用および応用することができます。 従来のテンプレート関連の API 呼び出しを、新しい DescribeDashboardDefinition やその他の Describe-Definition API に更新することで、バージョン管理されたリソースのデプロイに関する現在のベストプラクティスに沿って、同じ自動化ワークフローを拡張できます。 API メソッドの比較 以下の表は、 Assets-as-Bundle API と Describe-Definition API の使用を比較したものです。 比較項目 Assets-as-Bundle API Describe-Definition/Describe API 主なユースケース 環境、アカウント、リージョン間での関連アセットのデプロイ バージョン管理、モジュール開発、CI/CD 統合 粒度 依存関係 (データセット、ソース、テーマ、フォルダ) を含むダッシュボードと分析を完全にバンドル 個別のアセット定義に焦点を当てる 可視性 ZIP ファイルに埋め込まれた JSON または CloudFormation テンプレート;追加作業を要して内容確認が可能 API を通じて直接アクセス可能な、完全に可視化された行単位の JSON 定義 バージョン管理との適合性 理想的ではない;差分の確認、モジュール化、レビューが困難 優れている;Git ベースのワークフロー、レビュー、ロールバックに適している コンポーネントの再利用性 限定的;バンドルは自己完結型で、複数バンドルのシナリオではデータセットが重複する可能性がある 高い;適切に設計されたソリューションでは、コンポーネント (計算フィールド、フィルター) をアセット間で再利用およびモジュール化できる 開発ワークフロー QuickSight の既存のダッシュボードまたは分析からバンドルを作成 JSON をプログラムで作成または変更し、 Update API を使用して適用 デプロイメントワークフロー ExportAssetsBundle を使用してエクスポートし、 ImportAssetsBundle を使用してインポート Create または Update API を使用して変更をプッシュ 最適な用途 環境間でのダッシュボードとその依存関係をパッケージとして移行する場合 反復的な開発、CI/CD、コードベースの作業を行う BI チーム向け 制約 バンドルが大きく、冗長なアセットが含まれる可能性がある;個別のコンポーネントの分離や編集が困難 依存アセット (データセット、ソース、テーマ) は含まれず、別途処理が必要 バックアップ、リストア、ディザスタリカバリ このセクションでは、QuickSight API を使用して BI アセットのバックアップ、リストア、リカバリを行い、信頼性の高いディザスタリカバリを実現し、環境全体でのデータ損失を最小限に抑える方法について説明します。 QuickSight アセットのバックアップ、リストア、ディザスタリカバリには、 Assets-as-Bundle API と Describe-Definition API の両方を使用できます。 アセットを定期的にバンドル (ZIP ファイルまたは CloudFormation テンプレート) または個別の JSON 定義としてエクスポートすることで、BI チームは Amazon S3、Git、その他のリポジトリに保存されるバージョン管理されたバックアップを作成できます。 Assets-as-Bundle API を使用すると、チームはダッシュボードごとにバックアップを整理し、各ダッシュボードをその依存関係 (データセット、データソース、テーマなど) と共にエクスポートできます。このアプローチは便利で、ダッシュボード単位でのリカバリに適しています。 一方、 Describe-Definition API はより柔軟性が高いものの、より多くの労力を必要とします。 BI チームは、すべてのアセットを個別にリストアップし、タイプ別 (データソース、データセット、分析) に保存し、モジュール式のバックアップ構造を維持できます。確実な復元のためには、データソースから始まり、データセット、テーマ、最後にダッシュボードと分析という依存関係を意識した適切な順序でアセットを再デプロイする必要があります。 前述のとおり、記事 BIOps: Amazon QuickSight object migration and version control では、テンプレートベースのアプローチを使用して QuickSight アカウントのアセットをバックアップおよび復元するためのサンプル実装を提供しています。関連する Jupyter ノートブック では、アカウント全体でのアセットの一括エクスポートとインポートを自動化する方法を説明しています。 もともとはテンプレートを中心に構築されていましたが、関連する API 呼び出しを Describe-Definition API に置き換えることで、現在のベストプラクティスに沿った、スケーラブルで保守可能なバックアップおよび復元ワークフローを作成できます。 さらに、チームは QuickSight フォルダを使用してバックアップを整理し、関連するアセットを構造化された復旧戦略の一部としてグループ化することで、より直感的に復元の操作を管理できます。フォルダベースのバックアップと復元のアプローチについては、こちらの サンプル Jupyter ノートブック を参照してください。このノートブックでは、フォルダで整理された QuickSight アセットのエクスポートと再インポートの方法を示しており、BI チームが関連するアセット (ダッシュボード、分析、データセット) をグループ化して一括管理できるようになっています。 データセットとダッシュボード間のマージコンフリクトの解決方法 このセクションでは、QuickSight でデータセットとダッシュボード間のマージのコンフリクトを検出し解決する方法について説明し、スキーマの変更が依存する可視化やフィルターを壊さないようにする方法を解説します。 次の図は、データセットのバージョン管理とコンフリクト解決のワークフローを示しています。 このプロセスは初期データセット (v1) から始まり、フィールドの名前変更やデータ型の変更などの更新が発生したかどうかを評価します。更新が検出されると、データセットはバージョン 2 (v2) に進み、潜在的なマージのコンフリクトをチェックします。コンフリクトが見つかった場合、フィールドマッピング(例えば、名前が変更されたフィールドを再マッピングしてビジュアルを復元する)によって解決できるかどうかを判断します。コンフリクトが解決可能な場合、影響を受けたアセットを復旧するためにマッピングが適用されます。解決できない場合(例えば、データ型の変更による場合)、サンプルコードを使用して変更されたフィールドを自動的に検出し、未解決の変更によって破損したフィルターやビジュアルをクリーンアップできます。 データセットのマージのコンフリクトを検出して処理するためのサンプルコードは、以下の Jupyter ノートブック で入手できます。このノートブックでは、変更されたフィールドを自動的に特定し、フィールドのデータ型の変更などの単純なマッピングの問題を解決し、互換性のない変更によって破損したフィルターをクリーンアップする方法を示しています。 さらに、QuickSight データセットの更新時にマージのコンフリクトの検出を自動化するためのサンプルコードと GitHub Actions ワークフローを提供しました。Python スクリプト compare_quicksight_datasets.py は、データセットのバージョンを比較して、データ型の変更、フィールド名の変更、フィールドの追加、フィールドの削除を特定します。 GitHub Actions ワークフロー compare-quicksight.yml は、比較を実行するために自動的にトリガーされます。 比較結果はリポジトリの新しいアーティファクトとして保存され、BI チームが変更内容を確認し、データセットのバージョン昇格時にコンフリクトを自動的に解決するか、手動での対応を行うかの判断を下すことができます。 ワークフローを設定して実行するには、以下のステップを完了してください: YAML ファイルが正しい GitHub ディレクトリに保存されていることを確認してください。 .github/workflows/compare-quicksight.yml リポジトリは以下のような構造になっているはずです。 your-repo/ ├── .github/ │ └── workflows/ │ └── compare-quicksight.yml ├── compare_quicksight_datasets.py ├── ... 以下の例のように compare-quicksight.yml に有効なトリガーが含まれていることを確認してください。 name: Compare QuickSight Datasets on: workflow_dispatch: # 手動トリガーを許可 この方法により、 Actions タブからワークフローを手動で実行できます。 ワークフローファイルをリポジトリにコミットしてプッシュします: git add .github/workflows/compare-quicksight.yml git commit -m "Add QuickSight dataset comparison workflow" git push origin main GitHub リポジトリのシークレットを追加します: GitHub リポジトリに移動し、 Settings, Secrets and variables, Actions を選択します。 New repository secret を選択します。 以下のようなシークレットを追加します: AWS_ACCESS_KEY_ID AWS_SECRET_ACCESS_KEY AWS_REGION QUICKSIGHT_ACCOUNT_ID NEW_DATASET_ID ワークフローを実行します: GitHub リポジトリに移動します。 Actions タブで、 Compare QuickSight Datasets を選択します。 Run workflow を選択し、必要な入力情報を提供します。 このユーティリティは、バージョン管理やデプロイメントパイプラインの一部として使用できます。また、BI チームは分析やダッシュボードで影響を受けるビジュアルやフィルターを直接確認して更新することで、手動でコンフリクトを解決できます。 リソースの削除 今後の料金発生を防ぐため、テスト中に作成した S3 バケット、QuickSight データセット、分析、ダッシュボード、サンプルスクリプトで使用したその他のリソースなどを削除してください。 まとめ QuickSight API の機能により、大規模な BI アセットを管理するための強力な自動化、ガバナンス、柔軟性が実現可能になります。本記事では、クロスアカウントおよび複数環境のデプロイメント、コンフリクトの検出とガバナンスに API を使用する方法について説明しました。本記事のガイダンスを使用して、QuickSight の信頼性が高くコンフリクトを考慮したデプロイメント手法を確立できます。 著者について Ying Wang は、AWS の Generative AI 組織の Senior Specialist Solutions Architect で、Amazon QuickSight と Amazon Q を専門とし、大規模エンタープライズおよび ISV のお客様をサポートしています。データアーキテクトおよびソフトウェア開発エンジニアリングマネージャーとしての強固な経験を持つとともに、データ分析とデータサイエンスの分野で 16 年の経験を有しています。データアーキテクトとして、お客様のクラウドにおけるエンタープライズデータアーキテクチャソリューションの設計とスケーリングを支援してきました。エンジニアリングマネージャーとしては、エンジニアリングとプロダクトの双方の観点から新機能の提供と製品革新を推進し、QuickSight を通じてお客様のデータの力を引き出すことを可能にしました。
アバター
本記事は、2025年8月6日に公開された Amazon QuickSight BIOps – Part 2: Version control using APIs を翻訳したものです。翻訳は ProServe Data Analytics Consultant の西澤 祐介が担当しました。 この記事では、API駆動のビジネスインテリジェンスオペレーションズ(BIOps)フレームワークの概要を説明します。このフレームワークは、手作業による負荷を軽減し、Amazon QuickSightにおけるライフサイクル管理を改善することを目的としています。 ビジネスインテリジェンス (BI) 環境が複雑化する中で、ダッシュボード、データセット、デプロイといった作業を手動で管理していると、結果の不整合、バージョンのずれ、コラボレーションの効率低下といった課題につながりがちです。データから得られるインサイトの提供をスケールさせ、ガバナンスを強化し、そして開発、QA(品質保証)、本番といった各環境の信頼性を高める上で、自動化は極めて重要になります。 DevOps は、ソフトウェア開発と IT 運用を統合することで、デリバリーを加速し、信頼性を向上させるための考え方です。ソフトウェアのワークフローを合理化し、スケールさせるために、DevOps では以下のプラクティスが重視されます。 継続的インテグレーションと継続的デリバリー(CI/CD) Infrastructure as Code (IaC) と Assets as Code (AaC) 自動化 モニタリング コラボレーションツール(Git、Jira、Slackなど) BIOps は、これらの原則を BI のワークフローに応用したものです。アセットのバックアップ、バージョン管理、デプロイを自動化することで、BI チームはダッシュボード、データセット、分析を、一貫性を高め、トレーサビリティを向上させ、より効率的に管理できるようになります。 このブログシリーズでは、皆様が QuickSight で BIOps のプラクティスを実装し、よりスケーラブルで信頼性の高い BIOps を実現するための方法について解説します。 パート1 では、ノーコードでのバージョン管理とコラボレーションに関するガイドを提供しました。この記事では、QuickSight API を使用してバージョン管理とロールバックを自動化し、BI アセットのための CI/CD パイプラインを構築する方法について解説します。そして パート3 では、クロスアカウントおよびマルチ環境でのデプロイ、競合の検出とガバナンスについて取り上げます。 ソリューションの概要 この記事では、QuickSight における API ベースの BIOps ソリューションの概要を解説し、チームがプログラムによって制御する手法で BI アセットのバージョン管理、デプロイ、ガバナンスを自動化する方法を紹介します。BI エンジニア、DevOps リード、そしてプラットフォーム管理者の方々は、この記事で紹介するコードベースのプラクティスを実践することで、BI ワークフローをスケールさせることができます。 前提条件 このチュートリアルを進めるにあたり、以下の前提条件が必要です。 AWS アカウント &nbsp;以下の AWS サービスへのアクセス権: AWS CloudFormation Amazon QuickSight Amazon Simple Storage Service (Amazon S3) AWS Identity and Access Management (IAM):QuickSight の Template , Assets-as-Bundle , Create , Update , Delete , Describe API を利用できる権限が必要です。 Python の基本的な知識(Python 3.9 以降を推奨) SQL の基本的な知識 最新バージョンの AWS Command Line Interface (AWS CLI) が インストール 済みであること Boto3 がインストール済みであること また、このチュートリアルを始める前に、シリーズの パート1 を確認しておくことをお勧めします。 QuickSight アセット API の概要 QuickSight は、BI アーティファクトを管理するための API ベースのアプローチを複数提供しています。バージョン管理、デプロイの自動化、バックアップといった目的に応じて、それぞれ強みの異なる API を使い分けることができます。 主なアプローチは以下の3つです。 Template API (旧来の方法) Assets-as-Bundle API (新しい方法) Describe-Definition API これら3つのアプローチは、いずれもダッシュボード、分析、データセットなどをプログラムで扱うことを可能にしますが、可視性、制御性、そして最新の CI/CD ワークフローとの親和性において大きく異なります。 Template API 「テンプレート」ベースのアプローチは、 CreateTemplate や CreateDashboard といった API を利用し、AWS アカウントや AWS リージョンをまたいで QuickSight のアセットを移行するための従来からの手法でした。従来、「テンプレート」はダッシュボードのバックアップや、他の環境へのアセットのデプロイに使用されてきました。初期の実装では、「テンプレート」の中身は不透明で、BIチームにとっては完全なブラックボックスでした。しかし、 DescribeTemplateDefinition API の登場により、チームは「テンプレート」のJSON 定義を抽出して、内容の確認やバックアップを行えるようになりました。とは言え、「テンプレート」は新しい他の方法に比べて柔軟性に欠け、反復的な開発、フィールドレベルでの編集、あるいはバージョン管理といったワークフローには最適化されていません。 それでも、Git リポジトリや S3 バケットといった外部のバージョン管理システムやストレージをセットアップせずに、QuickSight 環境内にバックアップを保存したいと考える BI チームにとっては、「テンプレート」は依然として有用です。このため、製品内でのアセット管理を中心に行いたいチームにとって、「テンプレート」は手軽な選択肢となります。 QuickSight アセットに関する Template API の全リストは以下の通りです。 CreateTemplate DeleteTemplate DescribeTemplate DescribeTemplateDefinition UpdateTemplate UpdateTemplatePermissions Assets-as-Bundle API CI/CDパイプラインを導入したり、IaC を実践したりしているチームにとって、モダンな Assets-as-Bundle API と Describe-Definition API は、より高い透明性、柔軟性、そして制御性をもたらします。そのため、今日の多くのエンタープライズ向けのユースケースにおいて推奨されるアプローチとなっています。 Assets-as-Bundle API は、よりモジュール化され、ポータビリティの高いデプロイの選択肢を提供します。この API は、QuickSight のダッシュボードや分析、そしてそれらに関連するアセット(データセット、データソース、テーマ、フォルダ)を、ZIP アーカイブ、または AWS CloudFormation テンプレートとしてエクスポートします。エクスポートされたアーカイブを展開すれば、アセットのメタデータを JSON ファイルとして確認することは可能ですが、それには手間がかかり、きめ細かいバージョン管理には理想的ではありません。さらに、複数のダッシュボードをエクスポートする際には、複数のバンドル間でデータセットが重複し、冗長な形で含まれてしまう可能性があります。QuickSight のインポート処理はこれらの重複を適切に処理し、意図しない上書きを防いでくれますが、やはりこの手法は、詳細なバージョン管理というよりは、関連アセットをまとめてデプロイする用途に適しています。 ソースアカウントからバンドルファイルをエクスポートするジョブの開始、追跡、詳細確認には、以下の API を使用します。バンドルファイルとは、呼び出し元が指定したアセットと、オプションでそのアセットが依存するすべてのリソースを含む ZIP ファイル(拡張子は .qs )のことです。 StartAssetBundleExportJob – アセットバンドルファイルをエクスポートするための非同期 APIです。 DescribeAssetBundleExportJob – エクスポートジョブのステータスを取得するための同期 APIです。成功した場合、レスポンスにはバンドルを取得するための署名付き URL が含まれます。 ListAssetBundleExportJobs – 過去のエクスポートジョブを一覧表示するための同期 API です。リストには、過去15日間の完了したジョブと実行中のジョブが両方含まれます。 以下の API は、バンドルファイルを入力として受け取り、ターゲットのアカウントでアセットを新規作成または更新するインポートジョブの開始、追跡、詳細確認を行います。 StartAssetBundleImportJob – アセットバンドルファイルのインポートを開始するための非同期 API です。 DescribeAssetBundleImportJob – インポートジョブのステータスを取得するための同期 API です。 ListAssetBundleImportJobs – 過去のインポートジョブを一覧表示するための同期 API です。リストには、過去15日間の完了したジョブと実行中のジョブが両方含まれます。 Describe-Definition API `Describe-Definition API` は、各アーティファクトの内部的な JSON 構造を、透過的かつフィールドレベルのフォーマットで公開します。この定義ファイルは Git で追跡したり、プルリクエストを通じてレビューしたり、対応する Update API で更新したりすることが可能です。そのため、CI/CD パイプラインや IaC プラクティスとの統合に最適な手法と言えます。主なトレードオフは、データセットやデータソースといった依存関係を個別に扱う必要がある点です。これらはダッシュボードや分析の定義には自動でバンドルされないためです。 Describe-Definition API には以下が含まれます。 DescribeDataSource DescribeDataSet DescribeAnalysisDefinition DescribeDashboardDefinition 実際の現場では、多くの BI チームは両方のアプローチを併用しています。アセットをまとめてデプロイする際には Assets-as-Bundle を、そして、きめ細かいバージョン管理や反復開発には Describe-Definition を利用する、といった使い分けです。それぞれの API をいつ使うべきか理解することで、ガバナンスの強化、監査性の向上、そして環境間でのスムーズなアセットの移行が可能になります。 各手法の比較 以下の表は、これら3つの API 手法の主なユースケースとデータの保管場所をまとめたものです。 手法 主なユースケース 用途 保管場所 Template API 製品内でのバックアップ、レガシーなデプロイ UI 中心のチーム、シンプルなバックアップ QuickSight 内 Describe-Definition API きめ細かいバージョン管理と自動化 CI/CD、Git との連携 Git, Amazon S3, コードリポジトリ Assets-as-Bundle API 依存関係を含めた環境単位のデプロイ 開発環境から本番環境への展開、一括移行 Amazon S3, ローカルのZIPアーカイブ QuickSight APIに関するより詳細な情報については、 QuickSight API リファレンス や Boto3 QuickSight ドキュメント をご参照ください。 BI アーティファクトのバージョン管理におけるベストプラクティス これ以降のセクションでは、単一アカウント内でのダッシュボードのバージョン管理に関するベストプラクティスを解説します。 QuickSight において、「ダッシュボード」は他の人が見れるように設定された、「分析」のスナップショットです。一方、「分析」は、BI チームが開発や改善を繰り返すための作業用アセットです。QuickSight の UI 上では、バージョン管理機能は「ダッシュボード」に対してのみ提供されています。これは、「分析」がエンドユーザーに公開されることはなく、常に開発中のものと見なされているためです。 しかし、 Describe-Definition API のようなプログラム的な手法を用いると、分析の各要素(フィルター、計算フィールド、ビジュアル、パラメーターなど)を、モジュール化されたコードブロックとして扱うことができます。これにより、チームは構造化されたコード駆動の方法で「分析」を管理し、バージョンを記録していくことが可能になります。結果として、複数の作成者が並行して共同作業を進められるようになります。そのため、 Describe-Definition API を利用する際には、「分析」自体のバージョン管理も重要なプラクティスであると我々は考えています。 Template API を利用したバージョン管理 以前のブログ記事「 BIOps: Amazon QuickSight object migration and version control 」では、テンプレートベースのアプローチを用いて QuickSight のダッシュボードのバージョン管理を実装する方法を解説しました。その記事の執筆時点では、「テンプレート」が、「ダッシュボード」のバージョン管理を行うための唯一利用可能なメカニズムでした。 次の図は、そのソリューションで用いたアーキテクチャを示したものです。 このワークフローは以下のステップで構成されます。 まず、BI 開発者が「分析」を作成し、それに基づいて「テンプレート」を保存します。これらがバージョン1のアセットとなります。 この「分析」は「ダッシュボード」として公開され、QA チームがこのバージョン1の「ダッシュボード」に対してテストを実施します。 QA テストの後、BI 開発者は「分析」の改修を続け、バージョン2を構築します。 更新された「分析」は、バージョン2の「ダッシュボード」として公開されます。 QA チームはバージョン2の「ダッシュボード」をテストし、結果に応じて以下のアクションのいずれかを実行します。 テストに合格した場合: BI 管理者は「テンプレート」を更新し、バージョン2の内容を反映させます。 問題が発見された場合: BI 開発者は分析上で修正を試みます。 問題が修正可能な場合、バージョン2の開発が継続されます。 問題が修正不可能な場合、BI 管理者はバックアップ用の「テンプレート」を使ってバージョン1にロールバックできます。 QuickSight には、作成者がセッション中に以前のバージョンに戻せる Undo 機能があります。もし Undo の履歴がリセットされた場合(例えばデータセットの置換など)、あるいは以前に安定版として確認済みの状態へのロールバックが必要になった場合は、BI 管理者はバージョン1の「テンプレート」と UpdateAnalysis API を使って分析を復元できます。 BI 開発者は、この復元されたバージョン1の「分析」をベースに作業を再開し、次の安定バージョンを目指して開発サイクルを繰り返します。 Describe-Definition API を利用したバージョン管理 次の図は、 Describe-Definition API と Create または Update API を利用して、QuickSight アセットのバージョン管理を実装するためのアーキテクチャを示したものです。 ワークフローは以下のステップで構成されます。 アセットの作成と保存 BI チームは、 Describe-Definition API のレスポンス構文を参考に、プログラムで QuickSight アセットの構築を開始できます。ダッシュボードや分析は、シート、計算フィールド、ビジュアル、フィルター、パラメーターといった JSON ベースの構成要素を使って構築可能です。同様に、データセットも物理テーブルと論理テーブルのマッピングを定義する JSON 構造を用いて作成できます。QuickSight のアセットは構造化された JSON 形式に従っているため、コード駆動の開発に適しています。 学習のハードルを下げるために、まず QuickSight コンソールを使ってアセットを作成し、その設定が要件を満たしていることを確認した上で、 Describe-Definition API でアセットの定義を抽出する方法もあります。抽出した JSON 定義は、Git、Amazon S3、あるいは社内のコードリポジトリといったバージョン管理が可能な場所に保存できます。これは、UI ベースの開発からコード駆動の開発へスムーズに移行するのに役立ちます。 チームが既に本番環境にアセットをデプロイ済みで、そこからプログラムによるワークフローに移行したい場合は、本番アカウントから直接 Describe-Definition API で定義を抽出できます。その定義を開発環境のソースリポジトリ(Git や Amazon S3 など)に保存し、今後の開発やデプロイの起点として利用することが可能です。 JSON 定義のデプロイと可視化 BI チームが JSON 定義の開発を完了したら、 Create または Update API ( CreateDashboard , UpdateAnalysis , UpdateDataSet など)を使ってアセットをデプロイし、QuickSight コンソール上で直接内容を可視化します。これにより、コードからビジュアルへのシームレスな移行が実現し、バージョン管理されている定義が UI に一貫して反映されるようになります。 テストと本番環境へのデプロイ 開発環境や QA 環境にアセットをデプロイした後、BI チームはテストを実施し、アセットが機能面・ビジュアル面で要件を満たしているか検証します。検証後、テスト済みの定義を同じ Create または Update API を使って本番アカウントへデプロイすることで、統制の取れた一貫性のあるリリースプロセスを実現できます。更新された分析を QA という名前のフォルダにデプロイする サンプルコード 、QA アカウントへデプロイする サンプルコード を用意してますのでご確認下さい。 以下の サンプルコード は、「分析」の定義を取得し、dev という名前のフォルダにコピーします。これにより、BI チームはアセットをプログラムで開発・管理できるようになります。 def describe_analysis_definition(session, id): qs = session.client('quicksight') sts_client = session.client("sts") account_id = sts_client.get_caller_identity()["Account"] try: response = qs.describe_analysis_definition( AwsAccountId=account_id, AnalysisId=id) except Exception as e: return ('Faild to describe analysis: ' + str(e)) else: return response try: sample_analysis = func.describe_analysis_definition(qs_session, analysisid) print('Successfully get sample analysis contents.') except Exception as e: faillist.append({ "Action": "scenario_1_dev: get sample analysis contents", "Error Type": "describe_analysis_contents Error", "AnalysisID": analysisid, "Name": 'template_1', "Error": str(e) }) new_id = 'copy_t_1_' + str(int(time.time())) new_name = 'copy_t_1' try: res = func.copy_analysis(qs_session, sample_analysis, new_id, new_name, 'owner', dev_config["assets_owner"]) except Exception as e: faillist.append({ "Action": "scenario_1_dev: copy analysis", "Error Type": "copy_analysis Error", "AnalysisID": analysisid, "Name": 'template_1', "Error": str(e) }) time.sleep(20) status = func.check_object_status('analysis', new_id, qs_session) print('Copy status of analysis ' + new_id + ' is ' + status) if status == 'CREATION_SUCCESSFUL': res = func.locate_folder_of_asset(qs_session, new_id, dev_config["dev_folder"], 'ANALYSIS') print('Successfully copied analysis ' + new_id + ' in dev account/folder.') 以下の サンプルコード は、「分析」を定義し、計算フィールド、パラメーター、フィルターをプログラムで追加するものです。これらの二次的なアセット(計算フィールド、フィルター、パラメーター)は、再利用可能なコードブロックとして共有ライブラリに保存されます。 { "most_recent": { "DataSetIdentifier": "ds_assets_as_code", "Name": "most_recent", "Expression": "max({date_time})" } , "Calculated TimeFrame": { "DataSetIdentifier": "ds_assets_as_code", "Name": "Calculated TimeFrame", "Expression": "datediff(${StartDate},${Enddate},'DD')" } } """ Now, please add CalculatedFields """ f = open('Assets_as_Code/library/2nd_class_assets/analysis_cf_library.json') l_cf = json.load(f) cf_name = 'most_recent' try: res = func.update_analysis(qs_session,new_id, new_name, new_analysis, 'CalculatedFields', l_cf[cf_name]) except Exception as e: faillist.append({ "Action": "scenario_2_dev: add CalculatedFields", "Error Type": "update_analysis Error", "AnalysisID": new_id, "Name": new_name, "Error": str(e) }) print(cf_name + " is successfully added into analysis " + new_name) """ Now, please add parameters (keyword: ParameterDeclarations) """ new_analysis = func.describe_analysis_definition(qs_session, new_id) f = open('Assets_as_Code/library/2nd_class_assets/parameter_library.json') l_p = json.load(f) p_name = "StartDate" try: res = func.update_analysis(qs_session,new_id, new_name, new_analysis, 'ParameterDeclarations', l_p[p_name]) except Exception as e: faillist.append({ "Action": "scenario_2_dev: add ParameterDeclarations", "Error Type": "update_analysis Error", "AnalysisID": new_id, "Name": new_name, "Error": str(e) }) print(p_name + " is successfully added into analysis " + new_name) ビルド済みの関数群は GitHub で公開されています。 ライブラリ 、 ユーティリティ 、 設定サンプル 、 ロギングヘルパー といったその他の補助コードは、以下の ディレクトリ に格納されています。 次のスクリーンショットは、AaC(Assets as Code)アプローチにおけるサンプルコードのディレクトリ構造を示したものです。パッケージ全体をダウンロードし、独自のAaCソリューションを構築するためのベストプラクティスとしてご活用ください。 このアーキテクチャでは、バージョン管理は Git リポジトリや Amazon S3 のバージョニング機能といった外部の仕組みで扱われます。このアプローチにより、BI チームはアセットを並行開発したり、計算フィールド、フィルター、ビジュアルといった二次的なアセットを再利用したりすることが可能になります。例えば、チームは計算フィールドの定義を、標準化された名前を持つ独立した JSON オブジェクトとして保存できます。これにより、複数の分析やダッシュボードをまたいで再利用できるようになります。この手法のさらなるメリットとしては、プルリクエストによる行単位のコードレビュー、以前のバージョンへの簡単なロールバック、そして CI/CD ワークフローとのシームレスな統合などが挙げられます。 まとめると、このパターンは QuickSight を完全にコード駆動のプラットフォームへと変革し、インフラと BI アセットをコードとして扱うことを可能にします。 QuickSight UI と API を併用したハイブリッドワークフローによるバージョン管理 BI チームは、このアーキテクチャを拡張してハイブリッドモデルを構築することもできます。つまり、開発は QuickSight UI で行い、バージョン管理を API 経由で行うというモデルです。このアプローチでは、チームは QuickSight コンソール上で対話的にアセットの構築や更新を続けます。開発が完了し、アセットがテストに合格したら、チームは Describe-Definition API を使って更新された JSON 定義を抽出し、Git や Amazon S3 といったバージョン管理リポジトリに保存します。 このモデルは、UI ベース開発の容易さと柔軟性を、コードベースのバージョン管理が持つ構造性やトレーサビリティと組み合わせるものです。プログラムによるワークフローへ移行しようとしているBI チームにとっては、まさに両者の良いとこ取りと言えるでしょう。 次の図は、UI ベースの開発とコードベースのバージョン管理が持つ構造性やトレーサビリティを組み合わせたアーキテクチャを示しています。 ワークフローは以下のステップで構成されます。 BI の作成者は、ダッシュボード、分析、データセット、データソース、テーマを QuickSight コンソール上で直接開発します。 開発が完了し、アセットが機能面・ビジュアル面のテストに合格したら、チームは Describe-Definition API を使ってアセットの定義をエクスポートし、Git やAmazon S3 に保存します。 検証済みのアセットは、 Create または Update API を使って本番環境にデプロイされます。 作成者は、次のバージョンに向けてUI 上で同じアセットの開発を再開します。 作成したバージョンはテストされます。 テストに合格した場合:リポジトリにあるバージョン管理された JSON 定義を更新し、ステップ6に進みます。 テストに失敗した場合:Git や Amazon S3 に保存しておいた以前の定義を使い、 Update API を介して QuickSight UI 上のアセットをロールバックします。 更新された、あるいはロールバックされた定義を本番アカウントにデプロイすることで、安定したバージョン管理下でのリリースを実現します。 Amazon EventBridge を利用した QuickSight のバージョン管理自動化 Amazon EventBridge を利用すると、個々の QuickSight アセット(分析、ダッシュボード、VPC 接続など)やフォルダ構造への変更を、アセットレベルのイベントとしてほぼリアルタイムに捉え、監視することができます。ここで言うイベントには、アセットの作成、更新、削除、フォルダ構成の変更などが含まれます。詳細については、「 Automate your Amazon QuickSight assets deployment using the new Amazon EventBridge integration 」をご参照ください。 QuickSight と EventBridge を連携させることで、BI チームは特定のアセットやフォルダが変更された際に、後続のワークフロー(例えば AWS Lambda や AWS Step Functions )を自動的にトリガーするルールを定義できます。これにより、アセット定義のエクスポート、Git や Amazon S3 へのスナップショット保存、監査やロールバックのためのタグ付けといったバージョン管理プロセスがシームレスになります。結果として、チームは手動での介入なしにガバナンスを自動化し、環境間の一貫性を維持できるようになります。 Assets-as-Bundle APIを利用したバージョン管理 Assets-as-Bundle API をバージョン管理に利用することは推奨しません。この API の主なユースケースは、ダッシュボードとその依存関係にあるアセットを環境間で移行(例えば、開発環境から QA、本番環境へ)することです。バンドルファイルは技術的には保存して再利用できますが、きめ細かい追跡、比較、モジュール開発にはあまり適していません。適切なバージョン管理のためには、 Describe-Definition API を Git や Amazon S3 ベースのストレージと組み合わせて利用してください。 クリーンアップ 将来的な課金を防ぐため、テスト中に作成した S3 バケット、QuickSight のデータセット、分析、ダッシュボード、その他サンプルスクリプトで利用したアセットなどのリソースは削除してください。 まとめ この記事で解説した QuickSight API の機能は、BI アセットを大規模に管理するための強力な自動化、ガバナンス、そして柔軟性をもたらします。これらの API により、アセットのライフサイクルを完全にコントロールし、CI/CD パイプラインや Git ベースのワークフロー、カスタムツールとシームレスに連携させることが可能になります。ダッシュボードのバージョン管理、環境をまたいだデプロイ、スキーマ競合の解決などを簡単に行うことができます。 きめ細かい制御、監査性、アカウントやリージョンをまたいだ再現可能なデプロイが必要な場合は、API を利用してください。スピード、使いやすさ、あるいは手軽なイテレーションを優先する場合は、QuickSight コンソールを利用しましょう。多くのチームにとっては、QuickSight コンソールで開発し、変更のキャプチャを API で行うというハイブリッドなアプローチが、両方の長所を活かす最良の方法となるでしょう。 BIOps プラクティスを導入することで、BI チームはデリバリーをスケールさせ、リスクを低減し、一回限りの開発から、信頼性が高く統制の取れたインサイトの創出へと移行することができます。 パート3 では、クロスアカウントおよびマルチ環境でのデプロイ、そして競合の検出とガバナンスについて解説します。
アバター
本記事は、2025年8⽉6⽇に公開された Amazon QuickSight BIOps – Part 1: A no-code guide to version control and collaboration を翻訳したもの です。翻訳は Public Sector PSA の西川継延が担当しました。 ビジネスインテリジェンス(BI)チームが成長するにつれて、ダッシュボード、データセット、分析の管理はますます複雑になります。明確なバージョン管理なしでのコラボレーションは、作業の上書き、レポートの不整合、本番環境でのエラーにつながる可能性があります。ビジネスのステイクホルダーは迅速なインサイトを要求しますが、BI 作成者は変更を間違いなく繰り返し、自信を持ってデプロイするためのツールを欠いていることがよくあります。 DevOps の原則に着想を得たビジネスインテリジェンスオペレーション(BIOps)は、BI プロセスにバージョン管理と共同開発を導入します。この記事では、 Amazon QuickSight のノーコードのコンソール機能を使用して BIOps を実装する方法を説明します。ダッシュボードのバージョン管理、ビジュアルの再利用、並行でのコラボレーション、そして更新の安全なデプロイを、すべて QuickSight UI を通じて行う方法を紹介します。私たちのフレームワークは、QuickSight に組み込まれたバージョン管理ツールを使用して、チームが管理を合理化し、手作業を削減するのに役立ちます。このコード不要のアプローチは、BI アナリストとダッシュボード作成者の両方がこれらのプラクティスをすぐに採用するのに役立ちます。 QuickSight の基本 このセクションでは、Amazon QuickSight におけるビジネスインテリジェンスオペレーション(BIOps)の基本を紹介します。QuickSight のアセットがどのように分類されるか、基礎となる権限モデル、そして私たちのオペレーションを導く不可欠な BIOps の原則という3つの主要な領域を検証します。 アセットの分類 QuickSight はアセットを4つのカテゴリに整理し、それぞれが BI ワークフローで特定の目的を果たします。 メインアセット – これらは中核となる構成要素であり、QuickSight コンソール上でスタンドアロンのオブジェクトとして表示されます。これらのアセットは相互に依存しています。例えば、分析はデータセットに依存し、データセットはデータソースに依存します。 データソースは、 Amazon Redshift 、 Amazon Athena 、 Amazon Simple Storage Service (Amazon S3) などのシステムに接続します。 データセットはデータソースから構築され、結合、カスタム SQL、計算フィールドを含むことができます。 分析は、ビジュアルを構築するためのインタラクティブな環境です。 ダッシュボードは、分析が公開されたもので、読み取り専用のバージョンです。 Amazon Q のトピックは、自然言語クエリのためのセマンティックレイヤーを定義します。 補助アセット -これらはユーザーエクスペリエンスを向上させますが、QuickSight UI では主要なオブジェクトではありません。例えば、テーマはダッシュボードや分析のスタイルを定義しますが、QuickSight コンソール上ではスタンドアロンのアセットとしてリストされません。しかし、テーマは API を介してプログラム的にスタンドアロンのオブジェクトとして管理でき、 list 、 describe 、 update 、 delete などの操作をサポートします。 セカンドクラスアセット – これらはメインアセット内の内部コンポーネントであり、カスタム SQL、テーブル、フィルター、計算フィールド、パラメータなどが含まれます。これらの要素は QuickSight コンソール UI 上ではスタンドアロンのオブジェクトではなく、直接的なリスト ( list ) や詳細表示 ( describe ) の API コールを通じてもアクセスできません。代わりに、データセット、分析、またはダッシュボードの定義内で定義されます。これらは QuickSight コンテンツのロジック、構造、およびインタラクティビティを定義する上で重要な役割を果たします。 フォルダ – これらはメインアセットを階層構造に整理するために使用される管理アセットです。個人用または共有フォルダを作成してアセットを分類できます。フォルダはアクセス権限をサポートし、1つのアセットは複数のフォルダに存在できます。 権限モデル QuickSight のメインアセット、補助アセット、および管理アセットは、安全なコラボレーションのためにユーザーおよびグループレベルの権限をサポートしています。 BIOps の基本ワークフロー BIOps には3つのコア機能が含まれます。 アセットのバックアップと復元 – これは通常、AWS アカウントごと、または AWS リージョンごとにスコープが設定されます。このプロセスにより、誤った削除、サービスの中断、またはデータの破損が発生した場合に QuickSight アセットを復元できることが保証されます。 バージョン管理 – これは同じ AWS アカウント内で適用でき、BI チームはアセット定義(例えば、データセットやダッシュボード)への変更を追跡したり、以前のバージョンにロールバックしたり、時間の経過とともに異なる開発ブランチを維持したりできます。 デプロイメント – これは環境間(例えば、開発アカウントからテスト、QA、本番アカウントへ)およびリージョン間(例えば、 us-east-1 から us-west-2 へアセットをデプロイ)でのアセットの昇格をサポートします。 BIOps ワークフローを使用すると、チームはアセットレベルとフォルダレベルの両方でデプロイとバックアップを管理できます。ダッシュボードをデプロイする際、チームは機能をサポートするために依存アセット(データセット、データソース、テーマ)を含めることができます。フォルダレベルの操作により、関連するアセットを単一のパッケージとして昇格させることが可能になります。AWS アカウント間でのデプロイには、慎重な権限管理が必要です。アセットタイプにはユーザーまたはグループの権限があり、セキュリティを維持し、依存関係の破損を防ぐために、ターゲット環境で適切に再作成する必要があります。 次の図は、BIOps ワークフローの概要を説明したものです。バージョン管理は、QuickSight コンソール UI を通じても実現できます。 QuickSight ダッシュボードの構築と公開 次のグラフに示すように、QuickSight のダッシュボード開発プロセスは、BI 作成者から始まります。BI 作成者は、アクセス管理を簡素化するためにグループにまとめることができます。 作成者はまず、QuickSight を Amazon Redshift などのストレージシステムに接続してデータソースを作成します。次に、変換、結合、カスタムフィールドを追加してデータセットを構築します。データセットの鮮度は、手動またはスケジュールされた更新によって維持され、モニタリング機能も備わっています。 これらのデータセットを使用して、作成者はビジュアルとインタラクティブなコンポーネントを備えた分析を作成します。一貫した組織のブランディングのためにテーマを適用することができます。最終ステップは、分析をダッシュボードとして公開し、特定のユーザーやグループと共有することです。このプロセスにより、ガバナンスを維持しながら、スケーラブルなセルフサービス BI が可能になります。 ソリューションの概要 この記事では、3つの主要な QuickSight 機能について説明します。 コンソール UI を通じた ダッシュボードのバージョン管理 異なる分析からダッシュボードを公開することによる並行でのチームコラボレーション 他の分析やダッシュボードから ビジュアルをインポート することによるコンテンツの再利用 QuickSight コンソールのこれらの新機能により、ノーコードのインターフェースを通じて効率的な BI コラボレーションとダッシュボードのライフサイクル管理が可能になります。作成者は以下のことができます。 ダッシュボードとデータセットのバージョン履歴を追跡する ダッシュボードを以前のバージョンにロールバックする アセットを手動で複製する 分析とダッシュボード間でビジュアルをインポートおよびエクスポートする アセットの説明を通じて変更を文書化する ブックマークを使用してパーソナライズされたビューを作成する 元に戻す(undo)とやり直し(redo)機能で分析の編集を管理する これらの機能は、コーディングの経験を必要とせずに、合理化されたガバナンスとチームコラボレーションをサポートします。 この記事では、ノーコードでUIベースのワークフローに焦点を当てます。このシリーズの パート 2 と パート 3 では、QuickSight API とプログラム可能なアプローチを使用した自動化されたガバナンスとデプロイについて説明します。 UI ベースのデータセットとダッシュボードのバージョン管理 QuickSight は 2021 年後半にネイティブな データセットのバージョン管理 を導入しました。ユーザーは、QuickSight コンソール UI 内で直接、最大 1,000 の公開済みバージョンを追跡および管理できます。データセットの所有者は、過去の状態をプレビューしたり、以前のバージョンに戻したり、安全に編集したりできます。これには、互換性のない変更(削除されたソースや無効な計算など)に対する保護機能が含まれています。 2025 年 4 月、QuickSight は&nbsp; ダッシュボードのバージョン管理 を導入し、バージョン管理機能をデータセットから完全なダッシュボードへと拡張しました。ダッシュボードの所有者は、UI を通じてバージョンの管理、変更の追跡、以前の状態への復元を、コードを書くことなく行えるようになりました。技術チームは引き続き API ベースの自動化を選択するかもしれませんが、アナリストやビジネスユーザーはこれらの機能を利用して、エンドツーエンドのダッシュボードライフサイクル管理を容易に行うことができます。 次の図は、QuickSight のダッシュボード開発における、バージョン管理された継続的インテグレーションと継続的デリバリー(CI/CD)のワークフローを示しています。 ワークフローは、分析の作成と編集(バージョン 1)から始まり、次にそれをダッシュボードバージョン 1 として公開します。QA テストの後、ダッシュボードが合格すれば、分析はバージョン 2 に更新され、再公開されます。QA テストがどの時点でも失敗した場合、チームは現在のバージョンの編集を続けるか、以前のバージョンにロールバックすることができます。このサイクルは、公開、テスト、更新という反復的な開発を続け、変更が本番環境に到達する前に検証されることを保証します。「元に戻す」「やり直し」アクションは分析内の変更をサポートし、バージョンのロールバックは BI チームの安全性と俊敏性を高めます。 分析における軽微な編集のための「元に戻す」「やり直し」 QuickSight で分析を編集する際、作成者は 「元に戻す」および「やり直し」 オプションを使用して、変更が永続的になることを心配せずに実験できます。分析内で最大 200 のアクションを元に戻したり、やり直したりすることができ、ツールバーのアイコン(次のスクリーンショットを参照)を使用してアクセスできます。 ダッシュボードの公開とバージョン履歴 分析がダッシュボードとして公開されると、QuickSight は自動的に新しいバージョンを作成します。ダッシュボードの所有者は、 バージョン履歴 を表示することでこれらのバージョンを管理できます。そのためには、ダッシュボードを開き、上部ツールバーのバージョン履歴アイコンを選択します(次のスクリーンショットを参照)。 これにより、現在公開されているバージョンと、タイムスタンプや各バージョンを公開したユーザーを含むすべての以前のバージョンのリストが表示されるペインが開きます。そこから、必要に応じて以前に公開されたバージョンを確認、比較、復元できます。この機能は、ダッシュボードの変更履歴を明確に追跡でき、所有者はコンテンツがどのように変化してきたかを把握することができます。 間違いが発見されたり、以前のバージョンが好まれたりした場合、所有者はワンクリックでダッシュボードを以前のバージョンにロールバックできます。 このバージョン管理機能は、公開された各ダッシュボードの完全なスナップショットを保持することで、手動での再作業を削減します。他のバージョンへのアクセスを失うことなく以前のバージョンを復元でき、安定性を維持しながら迅速なイテレーション(反復)を可能にします。 UI ベースの並行作成とコラボレーション 次の図は、単一の QuickSight 開発アカウント内で複数の作成者が並行してコラボレーションする方法を示しています。共有フォルダ「QA Assets」は、再利用可能なコンテンツを一元管理する場所として機能し、作成者はダッシュボードを拡張したり、ビジュアルを再利用したり、バージョンを独立して管理したりできます。 この例では、3人の作成者が共有の開発ワークフローに貢献しています。 Ying は分析 1 を作成し、それをダッシュボード 1 として公開し、チームのための再利用可能なアセットを確立します。 Julia は分析 2 を作成し、ダッシュボード 1 から選択したビジュアルをインポートします。これにより、既存の作業を基に構築しながら、独自のバージョンを維持できます。その後、ダッシュボード 2 を公開します。 Rushabh はダッシュボード 2 の「 名前を付けて保存 」オプションを使用して分析 3 を作成し、さらにカスタマイズしてダッシュボード 3 を公開します。Rushabh は、分析 3 を公開してダッシュボード 1 を置き換えることで、ダッシュボード 1 を更新することもできます。 このアプローチは 2 つの主要な利点をサポートします。 並行開発 – 各作成者は、共有アセットを参照しながら独立して作業します。これにより、上書きや競合の変更のリスクなしに、複数のダッシュボードや機能を同時に開発できます。 副次的な変更を伴わない安全な修正 – 本番のダッシュボードに迅速な修正が必要な場合、作成者は公開されたバージョンから開始し、ターゲットを絞った編集を行い、再公開することができます。これにより、開発中の元の分析にある未完成のビジュアルや実験的な変更を導入することがありません。 これらの機能を組み合わせることで、バージョンの追跡可能性が促進され、リスクが最小化され、大規模なコラボレーションが合理化されます。共有フォルダとモジュール式のワークフローにより、QuickSight はエンタープライズ BI チームにとって強力なプラットフォームとなります。 ダッシュボードを分析として保存 公開後、ダッシュボードはさらなる変更のために分析として 保存 できます。作成者は、次のスクリーンショットに示すように、「 名前を付けて保存 」オプション(フロッピーディスクアイコン)を使用して、利用中のダッシュボードから新しい分析を作成できます。 新しい分析は個人のリストに表示され、自由に編集できます。元のダッシュボードに影響を与えることなく、ビューをカスタマイズしたり、ビジュアルを試したりできます。 他の分析やダッシュボードからビジュアルをインポート QuickSight の ビジュアルのインポート機能 を使用すると、分析間でダッシュボードコンポーネントを効率的に再利用し、標準化できます。分析ツールバーから「ビジュアルのインポート」を選択し、共有または個人のアセットを参照して 1 つ以上のビジュアルをインポートします。クエリ、フォーマット、インタラクションを含むインポートされたビジュアルは、現在の分析にコピーされ、元のソースに影響を与えることなく独立してカスタマイズできます。この機能により、ダッシュボードの開発が合理化され、ビジュアルの一貫性が促進され、チーム間の重複が削減されます。 分析からダッシュボ​​ードを公開 QuickSight で 既存のダッシュボードを置き換える には、公開時に「既存のダッシュボードを置き換える」を選択します。これにより、セキュリティ設定や E メールレポートの設定に影響を与えることなく、ダッシュボードが新しい変更で更新されます。 ダッシュボードを分析として保存する、任意の分析からダッシュボードを公開する、他の分析やダッシュボードからビジュアルをインポートするなどの機能を組み合わせることで、BI チームは開発ワークフローにおいて強力な柔軟性を得ることができます。チームはダッシュボードを並行して開発でき、複数の作成者が異なる機能やビジュアルに独立して取り組むことができます。また、元の分析にある進行中または実験的なビジュアルを誤って本番バージョンに導入することなく、本番ダッシュボードの問題を安全に修正することもできます。このモジュール式で管理されたアプローチは、本番環境での安定性を維持しながら、アジャイルなイテレーション(反復)をサポートします。 ダッシュボードを壊さずにデータセットを置き換える QuickSight のフィールドタイプは、ビジュアル、フィルター、計算がどのように機能するかを決定します。データセットのスキーマ変更が分析の要件と競合すると、ダッシュボードの障害が発生する可能性があります。次のスクリーンショットは、フィルターとビジュアライゼーションのキーフィールドとして SaleDate を使用して構築された、映画チケット販売ダッシュボードの例です。 データセットが更新されました。この更新中に、 SaleDate は Date(日付)フィールドから Integer(整数)に変更されました。 再公開後、ダッシュボードは SaleDate に関連付けられたビジュアルを読み込むことに失敗しました。影響を受けた各ビジュアルには、「データセットが変更されすぎたため、QuickSight が分析を自動的に更新できませんでした」というメッセージが表示されました。 円グラフのレンダリングが停止し、時間比較のビジュアルが失敗し、 SalesDate のフィルターコントロールが機能しなくなりました。 すでにダッシュボードを動かしているデータセットのスキーマを更新する際、データ型の不一致(フィールドを Date から Integer や String に変更するなど)は、ビジュアルが破損する一般的な原因です。 スキーマの変更が意図的な場合は、次のことを行う必要があります。 影響を受けるフィルターを再作成する 新しいデータ型を認識するようにビジュアルを更新する スキーマの変更が意図的でない場合は、次のことができます。 不要な変更が含まれていない以前のデータセットバージョンに戻す QuickSight でデータセットを置き換える際、フィールドマッピングの不一致によるビジュアルの破損も一般的なリスクです。これを軽減するために、QuickSight は現在、次のアクションを実行します。 不一致が検出された場合にフィールドマッピングを更新するようユーザーに自動的に促す スキーマの類似性に基づいてフィールドを自動的にマッピングしようと試みる スキーマが完全に一致しない場合にレビューのための不一致ダイアログを表示する 一致しない、または不整合なフィールドは手動で調整する必要があります。QuickSight は検出された不一致に対してマッピングを強制しますが、ユーザーが提供したマッピングの正確性を検証しません。スキップされたり不適切なマッピングは、依然としてビジュアルの破損を引き起こします。正しいフィールドマッピングにより、ビジュアルが新しいデータセットで期待通りにレンダリングされることが保証されます。 まとめ 新しい QuickSight コンソール機能により、ダッシュボードとデータセットのライフサイクルをコードフリーで管理できます。チームは、バージョン管理、ロールバック機能、並行開発、ビジュアルの再利用を活用して、より安全で効率的なワークフローを作成できます。 自動化、CI/CD 統合、またはプログラムによるガバナンスを必要とするチームのために、このシリーズの パート 2 と パート 3 では、API ベースの BIOps ワークフローについて説明します。 著者について Ying Wang は、AWS のジェネレーティブ AI 組織に所属するシニアスペシャリストソリューションアーキテクトで、Amazon QuickSight と Amazon Q を専門とし、大企業や ISV のお客様をサポートしています。彼女はデータアナリティクスとデータサイエンスで 16 年の経験を持ち、データアーキテクトおよびソフトウェア開発エンジニアリングマネージャーとしての強力なバックグラウンドを持っています。データアーキテクトとして、Ying は顧客がクラウドでエンタープライズデータアーキテクチャソリューションを設計し、スケールするのを支援しました。エンジニアリングマネージャーとしての役割では、新機能を提供し、エンジニアリングと製品の両方の観点から製品イノベーションを推進することで、顧客が QuickSight を通じてデータの力を解き放つことを可能にしました。 Julia Flash は、AWS のジェネレーティブ AI 組織に所属するシニアビジネスディベロップメントスペシャリストで、北米のエンタープライズセグメント向けのQuickSightエンゲージメントをリードしています。AI、コーディング、製品戦略で 12 年の経験を持ち、エンジニア、テクニカルプロダクトマネージャー、特許を持つイノベーターとしての深いバックグラウンドを持っています。Julia は AI ソリューションの設計と開発、オープンソースのデータサイエンスへの貢献、そして影響力の大きい顧客対応のエンゲージメントを提供してきました。今日、彼女は引き続き顧客と協力し、QuickSight の大規模な採用を推進しています。
アバター
本ブログは 2025 年 4 月 24 日に公開された AWS Public Sector ブログ「 How AWS Wickr can enable secure communications for the Australian Government and its allies 」を翻訳したものです。 メッセージングアプリケーションは、オーストラリア人のコミュニケーション方法においてますます中核的な存在となっています。 オーストラリア通信メディア庁 (ACMA) の調査によると、オーストラリア人の約 5 人中 4 人が個人的な目的でメッセージングアプリケーションを使用していることが分かりました。これらのアプリは特に若いオーストラリア人の間で普及しており、18~24 歳の 92%、25~34 歳の 89% がつながりや交流のためにこれらのアプリを使用していると報告されています。 また、 Australian Public Service (APS) Workforce Strategy 2025 (オーストラリア公共サービス人材戦略 2025) では、2025 年までに APS の労働力の半分がデジタルネイティブである Y 世代と Z 世代で構成されるようになることが認識されています。このように変わりゆく労働力構成を考慮すると、友人や家族とのチャットに使用するアプリと同じようなツールが職場でのコミュニケーションにおいても求められるようになることは自然な流れのように考えられます。 しかし、一般消費者向けのメッセージングアプリケーションの使用は、オーストラリア政府機関にとって重大なセキュリティと主権のリスクをもたらし、政府の情報管理義務を満たすことを困難にしています。 Official guidance from the National Archives of Australia (NAA: オーストラリア国立公文書館) の公式ガイダンスでは、「オーストラリア政府業務の一環として作成または受信されたインスタントメッセージの投稿は連邦記録である」と明確に述べられています。 Australian National Audit Office (ANAO: オーストラリア会計検査院) は、 国防省 のハンター級フリゲート艦プロジェクトの管理に関する業績監査報告書において、プロジェクトの記録管理の弱点を指摘し、特に国防省職員によるコンシューマーメッセージングアプリケーションの使用について「Signal、Zoom、WhatsApp などのアプリケーションは、公式情報の送信や保存に使用することはできない」と 具体的に言及 しています。 セキュアでコンプライアントなメッセージング Amazon Web Services (AWS) Wickr は、エンドツーエンド暗号化メッセージングおよびコラボレーションサービスであり、政府機関が機密情報を保護し、 Australia’s Archives Act 1983 (オーストラリアの公文書館法) などの法的要件を満たすために必要な高度なセキュリティ、管理制御、およびデータ保持機能を提供します。 Wickr は、1 対 1 およびグループメッセージング、音声・ビデオ通話、ファイル共有、画面共有、位置情報共有を 256 ビット暗号化で保護します。データは、あるエンドポイントから別のエンドポイントへ移動する際に、不正アクセス、傍受、改ざんから保護されます。コンテンツの復号化に必要なキーにアクセスできるのは、意図された受信者のみであり、AWS でさえアクセスできません。Wickr は 2023 年 10 月に AWS シドニーリージョン で開始されました。 きめ細かい管理制御により、ユーザーをセキュリティグループに編成し、そのレベルでの機能やコンテンツへのアクセスを制限できます。Wickr ネットワーク管理者は、望ましい結果を達成するためにカスタマイズされたポリシーを各グループに適用できます。パスワードのリセットやプロファイルのリモート削除が可能で、紛失または盗難されたデバイスに起因するデータ漏洩のリスクを軽減できます。 Wickr ネットワーク管理者は、Wickr ネットワーク内の内部および外部コミュニケーションにデータ保持を設定および適用できます。これには、ゲストユーザー、外部チーム、その他のパートナーネットワークとの会話が含まれるため、組織との間で送受信されるメッセージやファイルを、完全にお客様の管理下にあるプライベートデータストアに保持でき、オーストラリア政府の記録管理義務への準拠をサポートします。 Wickr は、 Information Security Registered Assessors Program (IRAP: 情報セキュリティ登録評価者プログラム) プロセスに基づき、 独立した評価者による監査を受け 、 Information Security Manual PROTECTED (ISM: 情報セキュリティマニュアル準拠) レベルの要件を満たしていることを認定されました。この認定により、各省庁は、Wickr の使用に関して、情報管理および記録保持の要件に加えて、PROTECTED セキュリティ分類までの情報の取り扱いに関する要件を満たすことができます。 Wickr は、ユーザーやチームが他の組織の Wickr ネットワーク内のユーザーとセキュアに通信できるよう、ネットワークフェデレーションを提供します。ユーザーグループを特定のフェデレーションルールに割り当て、選択した機関やパートナーへのアクセスを制限し、個々のセキュリティグループに対してゲストユーザーアクセス機能を許可または無効にできます。 Wickr は現在、アジアパシフィック (シンガポール、シドニー、東京)、カナダ (中部)、ヨーロッパ (フランクフルト、ロンドン)、および米国の米国東部 (バージニア北部) リージョンの AWS リージョンで利用可能であり、2024 年には追加のリージョンが開始される予定です。これにより、確立された同盟国・同志国、新興パートナーとのセキュアなコラボレーションを迅速かつ簡単に設定できます。例えば、次の図に示すように、オーストラリア政府機関は、英国、米国、日本政府の対応機関と Wickr ネットワークフェデレーションを設定できます。 図 1. AWS シドニー、ロンドン、東京、バージニア北部リージョン間の Wickr フェデレーション コミュニケーションを保護する 従業員は今後も、友人や家族とのチャットや職場での生産性向上のためにメッセージングアプリを使い続けるでしょう。これらのアプリの多くは政府機関にリスクをもたらしますが、Wickr はエンドツーエンド暗号化と管理制御、データ保持、データレジデンシー制御を組み合わせることで、お客様の目標達成と、内部およびオーストラリアの主要セキュリティパートナーとの安全なコミュニケーションを支援します。 詳細については、 AWS Wickr のウェブページ をご覧になるか、 メール にてお問い合わせください。 著者について Andrew McBride Andrew は オーストラリアのキャンベラを拠点に、国家安全保障・防衛 (NSD) セクターのお客様を担当する AWS のシニアソリューションアーキテクトです。Andrew は 20 年以上の経験を持ち、実践的なアナリストやソフトウェア開発者から戦略的計画まで幅広く携わってきました。オーストラリア国立大学の National Security College にて国家安全保障政策の修士号を取得しています。 このブログは WWPS Proposal Writer 中村昌幸が翻訳しました。
アバター
みなさん、こんにちは。ソリューションアーキテクトの西村です。 今週も 週刊AWS をお届けします。 2025 年 10 月 6 日(月) に 「 Trainium x モデル開発最前線! – カラクリ、Upstage、AWS 3社合同セミナー 」というイベントが開催されます。普段 AI を利用されている方は多くいると思いますが、LLM 開発をするといった機会はそう多くないと思います。本セミナーでは、AWS が最新世代の AI 学習チップ「Trainium2」の技術アップデートと性能優位性から始まり、Upstage 社の先進的な AI Solution と Karakuri 社と開発した最新版の LLM 詳細、そして Trainium でコスト効率良く学習させた技術ノウハウがお聞きいただけます。これからのAI時代に先駆け、AI 導入を具体的に検討している企業の方にとって技術選定の判断材料などの知識を得られる機会となります。ぜひご登録ください。 それでは、先週の主なアップデートについて振り返っていきましょう。 2025年9月22日週の主要なアップデート 9/22(月) Amazon Connect フローデザイナーでアナリティクスモードをサポート開始 Amazon Connect のフローデザイナーで新しい分析モードが利用可能になりました。この機能により、顧客が IVR や自動応答システムのどこでエラーになったり離脱したりするかを可視化できます。例えば会話型AIのやり取りがエージェントキューへの転送につながった回数や、フロー設定のエラーによって顧客が間違ったキューに振り分けられた回数を確認することができます。これまでフローの問題点を特定するのは困難でしたが、データに基づいて改善点を見つけられるため、より良い顧客体験を提供できます。詳細は こちらのドキュメントをご参照ください。 Amazon Connect Contact Lens が 5つの追加言語で機密データ編集機能を提供開始 Amazon Connect Contact Lens で機密データの自動編集機能が 5つの言語 (フランス語、ポルトガル語、イタリア語、ドイツ語、スペイン語) に対応しました。これまで英語のみだった個人情報やクレジットカード番号などの自動マスキング機能が多言語で利用できるようになり、グローバル企業のコールセンターでも顧客プライバシーを効率的に保護できます。詳細は こちらの公式ページをご参照ください。 9/23(火) Amazon EC2 R8gb インスタンスが一般提供 Amazon EC2 R8gb インスタンスが一般提供されました。AWS Graviton4 プロセッサを搭載し、従来の Graviton3 と比較して最大 30% のコンピューティング性能向上を実現します。最大 150 Gbps の EBS 帯域幅により、高性能データベースや NoSQL データベースのワークロードで優れたパフォーマンスを発揮できます。最大 768 GiB のメモリと 200 Gbps のネットワーク帯域幅を提供し、大規模なアプリケーションにも対応可能です。バージニア北部リージョンとオレゴンリージョンで利用できます。 Amazon RDS がリージョン間およびアカウント間スナップショットコピーを発表 Amazon RDS で、スナップショットの別リージョン・別アカウントへのコピーが 1 回の操作で実行できるようになりました。従来は 2 段階の操作が必要でしたが、今回のアップデートで中間スナップショットが不要となり、コスト削減と復旧時間の短縮を実現できます。ランサムウェア攻撃やリージョン障害時のデータ保護に特に有効で、カスタムスクリプトによる監視も不要になります。詳細は こちらのドキュメントをご参照ください。 AWS License Manager が AWS Managed Active Directory における複数アカウントの共有機能サポート開始 AWS License Manager で複数のAWSアカウント間でのAWS Managed Active Directoryの共有をサポートしました。これまで各 AWS アカウントごとに Active Directory を設定する必要がありましたが、複数アカウント間で一つの Directory を共有できるようになります。Microsoft Office や Visual Studio のライセンス管理を一元化でき、IT 運用の負荷軽減とコスト削減が期待できます。詳細は こちらのユーザーガイドをご参照ください。 9/24(水) Amazon EC2 Auto Scaling でインスタンスリフレッシュの強制キャンセルをサポート Amazon EC2 Auto Scaling で、インスタンスリフレッシュの強制キャンセル機能が追加されました。従来はインスタンスの起動や終了処理の完了を待つ必要がありましたが、今回のアップデートにより即座にキャンセルできるようになりました。アプリケーションデプロイでサービス障害が発生した際など、緊急時に素早く別のデプロイを開始できるため、システムの復旧時間を大幅に短縮できます。詳細は こちらのドキュメントをご参照ください。 AWS が EC2 I8g および I7i インスタンスで無制限のネットワークバースト期間を発表 AWS が EC2 I7i と I8g インスタンス (4xlarge より大きいサイズ) でネットワーク帯域幅のバースト時間制限を撤廃しました。従来はクレジット方式で一定時間のみ最大性能を発揮できましたが、今回のアップデートで常時安定した高速ネットワーク通信が可能になります。データベースやリアルタイム分析など、継続的な高スループットが必要なワークロードで予測可能なパフォーマンスを実現できます。 9/25(木) PostgreSQL 18.0 が Amazon RDS データベースプレビュー環境で利用可能に Amazon RDS for PostgreSQL 18.0 が プレビュー環境 で利用可能になりました。新機能として、マルチカラム B-tree インデックスの skip scan サポートや、並列 GIN インデックス構築、タイムスタンプベースの UUIDv7 サポートが追加されています。本番環境への導入前に、最新の PostgreSQL 機能を安全にテストできるため、アプリケーションの互換性確認やパフォーマンス検証に活用できます。プレビュー環境のインスタンスは最大 60 日間保持され、オハイオリージョンの料金体系が適用されます。詳細は こちらのドキュメントをご参照ください。 S3 コンソールで Amazon S3 Tables のプレビューが可能に Amazon S3 Tables を S3 コンソールから直接確認できるようになりました。これまで SQL クエリを書く必要がありましたが、今回のアップデートでテーブルのスキーマやサンプルデータをコンソール上で手軽に確認できます。データの構造や内容を素早く把握したい場面で特に便利で、セットアップも不要です。詳細は こちらのドキュメントをご参照ください。 AWS Network Firewall がアプリケーション層トラフィック制御を強化 AWS Network Firewall でアプリケーション層のトラフィック制御が強化されました。従来は複数のパケットに分割された TLS や HTTP 通信の監視が困難でしたが、新しいデフォルトルールにより複雑なカスタムルールを書かずに適切にセキュリティ制御できるようになります。現代の暗号化技術や大きな HTTP リクエストにも対応し、セキュリティチームの運用負荷を軽減しながら強固な保護を実現できます。詳細は こちらのドキュメントをご参照ください。 9/26(金) Amazon EBS が汎用 (gp3) ボリュームの最大サイズとプロビジョンドパフォーマンスを増加 Amazon EBS の汎用 SSD (gp3) ボリュームが大幅にパワーアップしました。容量は従来の 16 TiB から 64 TiB へ 4 倍に、IOPS は 16,000 から 80,000 へ 5 倍に、スループットは 1,000 MiB/s から 2,000 MiB/s へ 2 倍に拡張されています。これまで複数のボリュームを組み合わせて使っていた大容量アプリケーションも、単一の gp3 ボリュームで対応可能になり、運用がシンプルになります。コンテナ環境や単一ボリューム構成のアプリケーションに特に効果的です。詳細は こちらのドキュメントをご参照ください。 Amazon RDS for Db2 でリザーブドインスタンスの提供を開始 Amazon RDS for Db2 で Reserved Instances の提供が開始されました。On-Demand と比較して最大 47% のコスト削減が可能です。サイズフレキシビリティ機能により、同じインスタンスファミリー内であれば購入した Reserved Instance の割引が自動的に異なるサイズのインスタンスにも適用されます。例えば db.r7i.2xlarge の Reserved Instance を購入すると、2 つの db.r7i.xlarge インスタンスに割引が適用されるため、柔軟な運用とコスト最適化を両立できます。詳細は こちらのドキュメントをご参照ください。 AWS Clean Rooms が AWS Entity Resolution による増分 ID マッピングをサポート AWS Clean Rooms で AWS Entity Resolution を使った増分 ID マッピング処理がサポートされました。これまでは全データを処理する必要がありましたが、新規・変更・削除されたレコードのみを処理できるようになり、リアルタイムでのデータ同期が可能になります。測定事業者が広告主や出版社との共同分析において、オフライン購入データを常に最新状態で維持でき、キャンペーン効果の継続測定とコスト削減を同時に実現できます。 徐々に涼しくなったとはいえ、いきなり暑くなったりとまだまだ残暑は続きそうです。体調管理に気をつけてお過ごしください。 それでは、また来週! 著者について 西村 忠己(Tadami Nishimura) / @tdmnishi AWS Japan のソリューションアーキテクトとして、小売・消費財業種のお客様を担当しています。データガバナンスの観点から、お客様がデータ活用を効果的に行えるようなデモンストレーションなども多く行っています。好きなサービスは Amazon Aurora と Amazon DataZone です。趣味は筋トレで、自宅に徒歩0分のトレーニングルームを構築して、日々励んでいます。
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。 週末に屋外プールに行ったのですが暑かったり寒かったりと温度対策に苦戦しながらも季節の変わり目を感じました。 9 月 30 日 に「 Amazon Q Developer Meetup #3 生成AIの利用を中心としたソフトウェア開発の新しいアプローチであるAI-DLCおよびその活用実績のご紹介 」というイベントが開催されます。AI‑DLC (AI 駆動開発ライフサイクル) の概念と実際のインパクトをお伝えします。また実際の開発の中にその手法を取り入れた経験談もお客様事例としてご紹介いただきます。ぜひご参加ください! 「 AWS ジャパン生成 AI 実用化推進プログラム 」も非常に多くの申し込みをいただいています。引き続き募集中ですのでよろしくお願いします。 それでは、9 月 22 日週の生成 AI with AWS 界隈のニュースを見ていきましょう。 さまざまなニュース AWS生成AI国内事例ブログ「東京海上日動システムズ株式会社様の AWS 生成 AI 事例:金融業界初 AI-DLC Unicorn Gym による開発変革への挑戦」を公開 東京海上日動システムズ株式会社様が金融業界初となる AI-DLC Unicorn Gym を2025年8月に実施しました。本ブログでは、開発生産性の抜本的向上を目指す AI-DLC(AI-Driven Development Life Cycle)の取り組みについて紹介しています。AI-DLC(AI-Driven Development Life Cycle)は要件定義からリリースまでの開発プロセス全体に AI を組み込む手法で、従来2週間かかっていた1スプリントを1日や半日の「Bolt」という単位に圧縮する開発手法( 参考 )です。2日間のワークショップで実際に動作するシステムの初期版を4つのチームが完成させた成果をレポートしています。 ブログ記事「DeepSeek-V3.1 モデルが Amazon Bedrock で利用可能に」を公開 DeepSeek-V3.1 モデルが Amazon Bedrock でフルマネージド基盤モデルとして利用可能になりました。本ブログでは、思考モードと非思考モードを切り替えられるハイブリッドオープンウェイトモデルである点や、以前のバージョンのモデルと比較してツール使用とエージェントタスクにおいてパフォーマンスが改善された点を解説しています。また100超の言語サポートや具体的な使用開始手順も含めて紹介しています。 ブログ記事「Qwen モデルが Amazon Bedrock で利用可能に」を公開 Alibaba の Qwen3 モデル4種類 (Qwen3-Coder-480B-A35B-Instruct、Qwen3-Coder-30B-A3B-Instruct、Qwen3-235B-A22B-Instruct-2507、Qwen3-32B) が Amazon Bedrock で利用可能になりました。本ブログでは、各モデルの特徴やユースケースの違い、エージェンティック機能・ハイブリッド思考モード・ロングコンテキスト処理などの新機能について詳しく説明しています。 ブログ記事「Amazon Bedrock における Anthropic の Claude 3.5 Sonnet から Claude 4 Sonnet に移行する」を公開 本ブログでは、Amazon Bedrock における Anthropic の Claude 3.5 Sonnet から Claude 4 Sonnet への移行方法を解説しています。Claude 4 Sonnet はコンテキストウィンドウが 1M トークンに拡張され、ネイティブ推論メカニズムや高度なツール使用機能を導入しています。API の変更点、プロンプトエンジニアリングの考慮事項、新しい拡張思考機能の戦略的活用方法など移行のポイントを紹介しています。 ブログ記事「Amazon Bedrock エージェントで SAP インスタンスを管理」を公開 本ブログでは、Amazon Bedrock Agentsを活用してSAPインスタンスの開始と停止、ヘルス状態とパラメータ値の確認などの基本的なSAP運用タスクの実行を支援する使用例を紹介しています。SAPControl Web サービスと連携する Lambda 関数の作成から Bedrock エージェントの設定まで、自然言語で SAP システムを操作できるソリューションの構築手順を解説しています。 ブログ記事「Amazon Q Developer for GitHub によるインタラクティブなコードレビュー体験の紹介」を公開 本ブログでは、Amazon Q Developer for GitHub に新たに追加された対話型コードレビュー機能について紹介しています。/q コマンドによるインタラクティブな質問機能、スレッド化された検出結果の要約表示、GitHub 内での変更適用など、コードレビューの効率化を実現する新機能を紹介しています。この新機能により、コードレビューの待ち時間が短縮が期待されます。 ブログ記事「Nova Act IDE 拡張機能で AI エージェント開発を加速」を公開 Nova Act IDE 拡張機能が発表され、Visual Studio Code、Cursor、Kiro などの IDE から直接ブラウザ自動化エージェントを構築できるようになりました。本ブログでは、自然言語でワークフローを記述してスクリプトを生成する機能、ノートブックスタイルのビルダーモード、統合されたブラウザテスト機能など、Nova Act 拡張機能の主要な特徴と使用方法を紹介しています。 サービスアップデート Amazon Nova Act 拡張機能: IDE 内で AI エージェントを構築・テスト Amazon Nova Act 拡張機能 が発表されました。Amazon Nova Act は、Webブラウザ上でアクションを実行するためのAIモデルです。本機能は、Visual Studio Code や Cursor などの IDE 内で Web ベースの自動化エージェント開発ができる拡張機能です。従来はコーディングとテスト環境の複数のツールを行き来する必要がありましたが、自然言語でのスクリプト作成からブラウザテストまでを 1 つの画面で完結できるようになりました。IDE の拡張機能マーケットプレイスから無償で利用可能です。詳細は こちらの Blog 記事 をご参照ください。 Amazon Bedrock AgentCore Runtime、Browser、Code Interpreter が VPC、AWS PrivateLink、CloudFormation、およびタグ付けのサポートを追加 Amazon Bedrock AgentCore の Runtime、Browser、Code Interpreter が VPC 接続、AWS PrivateLink、CloudFormation、タグ付けに対応しました。これまでインターネット経由でのアクセスが必要だった AI エージェントが、VPC 内のプライベートリソース (データベースや内部 API) に直接安全に接続できるようになります。CloudFormation によるインフラ自動化とタグ付けによるコスト管理も可能になり、エンタープライズ環境での AI エージェント運用がより実用的になりました。現在プレビュー版でバージニア北部、オレゴン、シドニー、フランクフルトリージョンで利用可能です。詳細は こちらのドキュメント をご参照ください。 著者について 木村 直登(Naoto Kimura) AWS Japan のソリューションアーキテクトとして、製造業のお客様に対しクラウド活用の技術支援を行なっています。最近は AI Agent と毎日戯れており、AI Agent 無しでは生きていけなくなっています。好きなうどんは’かけ’です。
アバター
本ブログは 2025 年 4 月 24 日に公開された AWS Public Sector ブログ「 AWS demonstrates resilient and secure edge-to-cloud at Department of Defense exercise 」を翻訳したものです。 米国国防総省 (DoD) は、任務の成功に不可欠な新規技術や新興技術の採用と統合において、民間企業への依存を高めています。現代の防衛環境は急速に進化しており、産業界との連携が成功の重要な要素となっています。 2025 年 3 月 6 日付けの覚書「 Directing Modern Software Acquisition to Maximize Lethality (戦闘効果を最大化するための現代的ソフトウェア調達の指示)」において、国防長官 Pete Hegseth 氏は、「国防総省は、ソフトウェア調達に関する既存の権限、契約戦略、およびプロセスの活用を最大化しなければならない。これにより、国防総省は民間技術の進歩に歩調を合わせるよう設計された体制に直ちに移行することが可能になる」と述べ、この考えを反映しています。 Amazon Web Services (AWS) は、軍事イノベーションの推進に向けたこの民間重視かつ協調的なアプローチを実現するという課題に取り組んでいます。最近では、AWS は Technology Readiness Experimentation (T-REX) シリーズのイベントへの参加を通じてこれを実現しました。 OUSD/R&amp;E (研究工学担当国防次官室) が主催する T-REX イベントは、軍用技術の迅速なプロトタイピングと実験を行う場です。「競争は複雑で、状況に応じて変化し続けます。競合他社を上回るためには、未来を探る手段が必要です。新興のテクノロジーや機能が作戦遂行上もたらす価値を相対的に評価することで、実験的取り組みから意思決定のためのエビデンスが得られます。それらのエビデンスに基づき、特定のテクノロジーや機能について、さらなる研究が必要か、または、本格的な投資に値する段階に達していると判断することができます」と、OUSD/R&amp;E のプロトタイピング・実験・評価担当ディレクターである An ‘Mike’ Tran 博士は述べています。これらのイベントにおいて、国防総省は防衛産業基盤 (DIB) ソリューションと軍事用途向け民間技術の評価を行います。 AWS のパートナーである General Dynamics Information Technology (GDIT) は、T-REX の直近 2 回の実施において、マルチドメインのクラウドコンピューティング機能を成功裏に実証しました。T-REX 24-2 は 2024 年 8 月 19 日から 28 日まで開催され、T-REX 25-1 は対無人航空システムの限定目標実験として 2025 年 3 月 6 日から 21 日まで実施されました。 AWS で米国国防総省のお客様をサポートする Tony Jacobs が Cloud Edge Global Access (CEGA) on AWS について説明し、演習の共通状況図 (COP) に提供するデータフィードと相互接続性を紹介。 国防総省が軍事利用に向けて AWS の民生技術を検証 AWS の DOD 担当チームは、AWS 上の Cloud Edge Global Access (CEGA) を使用して、タクティカルエッジから AWS GovCloud に接続する、回復力とセキュリティを備えたネットワークアクセスを提供しました。CEGA は、SD-WAN (Software-Defined Wide Area Networks) を使用した自動 PACE 通信ソリューションです (Primary [主]、Alternate [代替]、Contingency [予備]、Emergency [緊急] )。CEGA は AWS のグローバルバックボーンの力を活用し、AWS のお客様が活動するあらゆる場所でタクティカルネットワークにスピードと回復力をもたらします。 CEGA の使用は、指揮官のデータから意思決定までを加速するマルチドメインユーティリティを実証しました。チームは航空、地上、海上のデータを統合するタクティカルエッジノードを確立しました。これらのノードからのデータは共通状況図 (COP) に送信され、T-REX スタッフと参加者に包括的な指揮統制 (C2) 支援を提供しました。 Defense Operations Grid Mesh Accelerator (DOGMA) とは AWS と GDIT の合同ソリューションであり、GDIT の LunaAI 予測分析を Amazon Simple Storage Service (Amazon S3)、Amazon Kinesis、Amazon Athena、Amazon SageMaker、AWS Lambda、AWS Wickr など、複数の AWS サービスと統合します。これにより、任務の管理と実行のための堅牢でスケーラブル、かつセキュアな環境を提供します。DOGMA は、シームレスな通信、リアルタイムデータ処理、効率的なリソース管理を支援することで国防総省の目標に合致しています。 この高度な分析とクラウドサービスの統合により、DOGMA は任務成功に不可欠なリアルタイムの洞察と予測を提供することで、現代の軍事作戦における動的なニーズに対応できることが保証されます。DOGMA を使用して、AWS と GDIT は AWS クラウドとエッジの両方でドローン脅威の人工知能 (AI) 予測モデリングを実証しました。 図 1. AWS と GDIT のソリューション DOGMA のアーキテクチャ図。AWS 上の CEGA と GDIT の LunaAI を使用。ソリューションの主要な AWS コンポーネントには Amazon Kinesis、Amazon Athena、AWS Wickr が含まれる。 国防総省が取り組む次世代自律機能の実現に AWS が寄与 作戦の俊敏性と情報優位性が最重要となる時代において、クラウドイネーブルド自律システムは現在のニーズを満たすだけでなく、今後の戦域を予測し、形作っています。T-REX 24-2 と T-REX 25-1 において、AWS とそのパートナーは国防総省の任務における UAS の自律任務管理の未来も実証しました。 Tactical Edge Embodied AI Mesh (TEEAM) により、AWS は防衛産業パートナーである Gambit と協力し、AI が開発した行動パターンを使用した複数の無人航空システム (UAS) の一元的な運用管理を実証しました。これにより、UAS オペレーターは任務指揮官からの指示を受けて UAS 群をより効率的に制御できるようになりました。 GDIT との AWS の戦略的パートナーシップを活用し、AWS は DOGMA により T-REX 25-2 期間中に OUSD/R&amp;E を支援しました。DOGMA は 16 の異なるデータソースを統合し、8 つのイベント会場にわたって状況認識と意思決定を向上させる統一された COP を提供しました。これは、インディアナ州の Camp Atterbury と Muscatatuck Urban Training Center の両方にある Task Force Research and Development Experimentation Reserve (TF RDER) 基地防衛作戦センターを直接支援しました。AWS タクティカルエッジノードは、AWS 上の CEGA とともに、回復力とセキュリティを備えたエッジからクラウドまでの接続性を提供し、複数の参加者が自律機能を成功裏に実証することを可能にしました。 T-REX イベントの一環として、OUSD/R&amp;E の評価者は AWS と GDIT のソリューションの評価を実施しました。評価者は 3 つの重要な作戦上の課題、8 つの目標、15 の有効性指標に関するデータを収集しました。これらの評価は、イベントの数日間にわたって、複数のセンサータイプとネットワークパスで繰り返し実施されました。 AWS は、インフラ支援を提供することで TF RDER のリソースプロバイダーとしても機能しました。AWS は、T-REX 25-1 参加者のソリューション同士、他の参加者のソリューション、TF RDER COP、そしてより大きなイベントネットワークの一部としてインターネットと AWS クラウドを接続するバックホール接続を提供しました。 「TREX において他の企業が自社の機能を実証できるよう、回復力のあるネットワークバックボーンを提供してくれた AWS に感謝したいと思います。T-REX を会場として活用することで、これらのイノベーションを関連性のある作戦環境でテストし、各社のコラボレーションを通じて作戦即応性を向上させることができます」と、Principal Deputy Assistant Secretary of Defense for Mission Capabilities (任務能力担当国防次官補首席代理) の Marcia Holmes 氏は付け加えました。 まとめ 防衛に関連するお客様向けに、AWS の商用クラウド技術に基づく商用アプリケーションを提供することは、国防の近代化に向けた重要な一歩を表しています。AI と自律システムを組み合わせ、AWS と GDIT は国防総省の任務指揮官の状況認識能力を強化するとともに、国家安全保障における官民パートナーシップの新たな基準を設定しています。 防衛に関連するお客様と共に、AWS が戦域をどのように再形成しているかについて、今後の情報にご注目ください。タクティカルエッジまたは AWS クラウドによるミッションのイノベーション施策を通じて、AWS はパブリックセクターに変革をもたらしています。国防の近代化における AWS の役割についての詳細は、AWS のウェブサイト「 Cloud Computing for U.S. Defense 」および「 Tactical Edge 」をご覧ください (英語コンテンツ)。 著者について Dwayne Dickens Dwayne Dickens は AWS のシニアテクニカルデリバリーマネージャーで、軍事および技術分野で 30 年以上のリーダーシップ経験を持っています。米国国防総省のアカウントを専門とし、クラウド導入と戦略的成果を推進し、大幅な収益成長に貢献しています。Dwayne は大規模プロジェクトの管理において実績があり、特にサイバーセキュリティ、衛星通信、IT 管理の分野で経験を積んでいます。Army War College で修士号を取得しています。 Graham Boone Graham Boone は AWS のソリューションアクセラレーションエンジニアです。通信情報分野での経験を持つ米国空軍の退役軍人で、Park University で学士号を取得しています。AWS では、エッジデモンストレーションを可能にするハードウェアプラットフォームとネットワークインフラストラクチャの設計、構築、サポートを行っています。ハイブリッドデプロイメントについてお客様にアドバイスを提供し、接続性や環境条件を問わず間断なく動作するミッションクリティカルなワークロードの実現に貢献しています。 John DeRosa John DeRosa は AWS のプリンシパル、プロダクトマネージャー(テクニカル)です。Amazon 入社前は、国防総省で文民職員、将校、兵士として 30 年間勤務し、統合軍、陸軍、特殊作戦司令部で戦略担当者を務めました。イラクおよびバルカン作戦の陸軍退役軍人で、George Mason University で博士号を取得し、National War College を卒業しています。 Tony Jacobs Tony Jacobs は AWS のソリューションアクセラレーションマネージャーです。タクティカルエッジでの運用を専門とするチームを率い、通信、コンピュート、統合の課題を解決しています。指揮統制システムでの経験により、パートナーが適切なデータ処理レベルで、サイズ、重量、電力の制約内で航空、水上、地上、宇宙システムを統合できるよう支援しています。機密システム、メッシュネットワーキング、軍用データリンク製品、レーダー解析、可視化のための商用ソリューション開発において、技術リーダーとして 25 年の経験を持っています。 このブログは WWPS Proposal Writer 中村昌幸が翻訳しました。
アバター