本記事は 2025/11/25 に投稿された Everything you don’t need to know about Amazon Aurora DSQL: Part 4 – DSQL components を翻訳した記事です。 Amazon Aurora DSQL は、アクティブ-アクティブの分散データベース設計を採用しており、リージョン内およびリージョン間で、 すべてのデータベースリソースが等しく読み取りと書き込みの両方のトラフィックを処理します。この設計により、 シングルおよびマルチリージョンの Aurora DSQL クラスターにおいて 同期データレプリケーションとデータ損失ゼロの自動フェイルオーバーが 可能になります。 この Aurora DSQL に関するブログシリーズでは、 基本的な概念 を説明し、機能と注意点を探り、 トランザクションの動作 を分析してきました。この記事では、 ACID 準拠で強力な一貫性のあるリレーショナルデータベース機能を提供する、マルチリージョン分散データベースの各コンポーネントとその責務について説明します。 5 部構成の本シリーズの 第 2 回のブログ記事 では、Aurora DSQL の基本的なコンポーネントを示す次の図を紹介しました。この記事では、各コンポーネントをより詳細に見ていきます。主題に関して包括的に理解するために、第 2 回の記事の対応セクションを再確認することをお勧めします。以下の図は、Aurora DSQL 内のデータ処理ワークフローを示すシステムアーキテクチャ図です。 Amazon Aurora DSQL 内のデータ処理ワークフローを示すシステムアーキテクチャ図 クエリプロセッサ(QP)は、SQLの実行ライフサイクル全体を統括します。入力された SQL 文を解析し、実行計画を構築し、実行計画の処理を最適化します。QP はデータの取得を管理し、結果をマージし、クライアントに結果セットを返す前に必要な集計を行います。トランザクション処理中、読み取りセットと書き込みセットの両方を追跡し、トランザクションがコミットまたはロールバックするまで一時的に書き込みをスプールします。トランザクション完了時には(前回の記事で説明したように) 、QP は COMMIT プロトコル全体を調整し、他のシステムコンポーネントとの適切な連携を提供します。 QP は一時的で、ソフトステート特性を持つシェアードナッシングのコンポーネントとして 設計されています。したがって、耐久性、一貫性の強制、同時実行制御、耐障害性、スケールアウト操作などの従来のデータベース機能の多くを担当していません。これらの機能は、Aurora DSQL アーキテクチャ内の他のコンポーネントによって処理されます。インフラストラクチャの観点からは、QP は QP ホスト上の Firecracker マイクロ仮想マシン(microVM)内で動作し、各ホストが複数の QP をサポートしています。各トランザクションは単一の専用 QP によって処理されます。データベースごとに専用の QP プーラーが、接続とアクティブな QP のマッピングを管理し、厳密なデータベース分離を維持しながら効率的なリソース使用を提供します。 Aurora DSQL は、データベースカタログとメタデータに対してのみキャッシングを使用し、データキャッシングを完全に避けるという設計上の決定をしています。データベースは通常、次の3つの主要な課題に対処するためにキャッシュを使用することを考えると、この設計上の決定は直感に反するように見えるかもしれません: メモリアクセスと比較して高いストレージレイテンシー BTree などのデータ構造に対する複数のアクセスポイントの必要性 I/O ラッチによるクラッシュ一貫性を維持する要件 しかし、Aurora DSQL はこれらの課題に異なる方法で対処しています。このアーキテクチャは、QP がロックを保持せずに動作し、ストレージフリートの配置とパフォーマンスが最適化され、ラウンドトリップを最小限に抑えるために処理がプッシュダウンされるなど、いくつかの利点を提供します。この革新的なアプローチにより、キャッシングメカニズムを必要とせずに、あらゆる規模で一貫したパフォーマンスを実現しています。 Aurora DSQL の QP は、単一トランザクション処理モデルで動作します。データウェアハウスシステムとは異なり、クエリは複数のプロセッサに分散されるのではなく、単一の QP 内で実行されます。つまり、すべてのクエリ実行は QP で行われ、遅いクライアントがデータベースを遅くしたり、他のクライアントに影響を与えたりすることはありません(ノイジーネイバー問題はありません)。 アジュディケータ Aurora DSQL のアジュディケータシステムは分散コンポーネントとして機能し、複数のアジュディケータがデータベース全体で責任を共有しています。各アジュディケータは特定のキー範囲を所有しています。このシャーディングアプローチにより、単一のアジュディケータがボトルネックになることはなく、システムが複数のリージョンにわたってスケールすることが可能になります。 アジュディケータは、障害やパーティション発生時に一貫性を維持するために、高度な リースベースのシステム を実装しています。アジュディケーターがキー範囲の責任を引き受ける際、ジャーナルに対してリースを取得し、定期的なハートビートを通じてそれを維持します。このリースシステムにより、任意の時点で任意のキーに対して権限を持つアジュディケータは正確に1つだけとなり、障害シナリオ中の競合する決定を防止します。 これらのメカニズムを通じて、アジュディケータシステムは分散データベースシステムのスケーラビリティと信頼性の要件を維持しながら、堅牢な一貫性保証を提供します。 ジャーナル ジャーナルは Aurora DSQL アーキテクチャにおいて重要なコンポーネントとして機能し、データベースの耐久性の実装を根本的に再構築しています。従来のデータベースではストレージ層が耐久性の責任を担っているのに対し、Aurora DSQL ではこのタスクをジャーナルに委任しています。このアーキテクチャの選択により、機能を分離することでデータベースエンジンが大幅に簡素化されています。トランザクションはジャーナルにコミットされるとコミット済みとみなされ、トランザクション処理と耐久性保証の間に明確な境界を確立します。ジャーナルは単に操作や変更をログに記録するのではなく、トランザクションの包括的なポストイメージを保存します。このアプローチは、より大きなストレージ容量を必要とする一方で、いくつかの利点を提供します: 予測可能な回復操作を容易にします。 ストレージノードの処理を最適化します。 レプリケーション中の計算オーバーヘッドを最小限に抑えます。 ジャーナルは、高いスループットを管理するために複数のジャーナルが並列処理を行う洗練されたスケーリングモデルを採用しています。アジュディケータによって保証される順序のおかげで、トランザクションは利用可能な任意のジャーナルに書き込むことができます。コミットするアジュディケータと同じアベイラビリティーゾーン内のジャーナルを選択することで、パフォーマンスを最適化することができます。 ジャーナルはリカバリ機能を提供するために、 Amazon Simple Storage Service (Amazon S3)にスナップショットのデータを保存します。システムは定期的にスナップショットを取得し、ストレージの完全な状態を記録します。リカバリ時には、システムは最新のスナップショットをロードし、その時点からジャーナルを再生します。このアプローチにより、トランザクション履歴全体を再生することなく 耐久性保証を維持することができます。 クロスバー Aurora DSQL のジャーナルコンポーネントは、システム内の仲介役として機能するクロスバーコンポーネントにトランザクションデータを提供します。クロスバーは複数のジャーナルからのデータを完全に順序付けられたシーケンスにマージし、適切なストレージシャードにデータを配布します。重要なのは、クロスバーが操作を開始する前に、特定のタイムスタンプまですべてのジャーナルが処理を完了するのを待つ必要があることです。 クロスバーは高度なファンアウトメカニズムとして機能し、部分的に順序付けられたシステム内のすべての ジャーナルをサブスクライブして、完全に順序付けられ統合 された トランザクションのストリームを生成します。その主な責任は、キー範囲に基づいて原子的なトランザクションを分解し、各ストレージノードに割り当てられたキー空間に該当するデータのみを受け取るようにすることです。このターゲットを絞った配信により、システム効率が大幅に向上し、冗長なデータ転送が最小限に抑えられます。 クロスバーの主要な機能の1つは、ストレージノードへのデータ配信のタイミングを管理することです。監視するすべてのジャーナルで特定のタイムスタンプを確認した後にデータを転送します。この同期メカニズムは一貫性を提供しますが、潜在的なレイテンシーの課題をもたらします。これに対処するため、システムはすべての関連ジャーナルでデータが利用可能になると進む最低水準(low-water mark)を採用しています。 クロスバーは、 イレイジャーコーディングを使用した 革新的なテールレイテンシー削減アプローチを実装しています。このシステムでは、アジュディケータがメッセージを M 個のセグメントに分割し、元のメッセージは任意の k 個のセグメント( k は M 以下)から再構築できます。これらのセグメントは複数のジャーナルに分散され、クロスバーは任意のメッセージの k 個のセグメントを受信した後に処理を進めることができます。この設計はスケーラビリティと耐障害性の両方を提供します。 これらのメカニズムを通じて、クロスバーはジャーナルとストレージノード間のデータフローを調整するという複雑なタスクを、一貫性とパフォーマンスを維持しながら管理します。この全体設計は Aurora DSQL のスケーラビリティと信頼性に貢献しています。 ストレージ Aurora DSQL のストレージ層は、データの永続性と取得のための基盤として機能し、従来のデータベースストレージシステムとは大きく異なります。その主な機能は、長期的なデータ耐久性の提供とデータクエリの実行であり、すべて複数のコンポーネントにわたって機能を分離するユニークなアーキテクチャフレームワーク内で行われます。 書き込み操作はシステムを通じて独自の経路をたどり、ジャーナルから始まり、データを適切なシャードに分割するクロスバーを経由します。その後、データはストレージノードに到達し、アプライヤーがそれをストレージシステムに取り込みます。対照的に、読み取り操作はより直接的な経路を採用し、効率性を高めるために中間コンポーネントをバイパスして QP からストレージに直接流れます。 即時の耐久性(これはジャーナルの担当範囲)を処理する代わりに、ストレージ層は Amazon S3 に保存される定期的なスナップショットを通じて長期的な耐久性に焦点を当てています。これらのスナップショットは複数の重要な機能をサポートします: 障害後の回復 スケーリング操作 インデックスの作成 ポイントインタイムリカバリを含むバックアップと復元機能 ストレージシステムは、水平トリムの概念 ( 古いものから時系列順に処理する)に基づくガベージコレクションメカニズムを実装しており、最大トランザクション時間に対応するアジュディケータの 5 分の最低水準に合わせています。このアプローチにより、各コンポーネントはローカル時間に基づいて独自のガベージコレクションを管理でき、複雑な連携の必要性が排除されます。 ストレージノードの障害が発生した場合、システムはパーティションメンバーを他のストレージノードに再分配し、スナップショットを使用してシステムの状態を復元します。このアプローチは、ジャーナルの短期的な耐久性保証と組み合わさることで、高可用性とデータ耐久性の両方を提供します。 ストレージ層の設計は、Aurora DSQL が同時実行制御などの従来のデータベース機能を特化したコンポーネントに委任しながら、堅牢なデータ管理を重視していることを反映しています。 まとめ この記事では、Amazon Aurora DSQL の個々のコンポーネント、その処理メカニズム、そしてユニークな特徴について紹介しました。さらに、システム内での責任の分散についても説明しました。 次の記事 では、Aurora DSQL 内のクロックの概念について説明します。 Katja-Maja Kroedel Katja は AWS でデータベースと IoT の情熱的なアドボケイトです。彼女はクラウドテクノロジーの可能性を最大限に活用できるよう顧客を支援しています。コンピュータエンジニアリングのバックグラウンドと IoT およびデータベースにおける豊富な経験を持ち、これらの分野におけるクラウド導入、移行、および戦略に関するガイダンスをお客様に提供しています。 翻訳はソリューションアーキテクトの伊津野安梨沙が担当しました。原文は こちら です。
本記事は 2025年6月10日 に公開された「 Connect to Amazon RDS for Db2 using AWS CloudShell | AWS Database Blog 」を翻訳したものです。 Amazon Relational Database Service (Amazon RDS) for Db2 インスタンスへの接続は、従来 Amazon Elastic Compute Cloud (Amazon EC2) の踏み台ホストを起動するか、ローカルで Db2 クライアントを実行する必要がありました。新しい AWS CloudShell の Virtual Private Cloud (VPC) 統合環境により、Amazon EC2 不要、ローカルインストール不要、通常の Amazon RDS と AWS ネットワーキング以外のコスト不要で、安全に接続できるようになりました。 この記事では、CloudShell を使用して Amazon RDS for Db2 に接続する方法を紹介します。 ソリューション概要 CloudShell には以下のメリットがあります: ゼロコストクライアント – CloudShell は無料で、標準的なネットワークと Amazon RDS の料金のみ発生します 同一サブネット – CloudShell セッションは VPC 内の RDS データベースと同じ場所に配置されるため、レイテンシーが最小限に抑えられます Amazon EC2 不要 – 踏み台ホストのプロビジョニング、パッチ適用、管理が不要です AWS CLI プリインストール – AWS コマンドラインインターフェイス (AWS CLI) は CloudShell にデフォルトで設定されており、CloudShell はカスタム VPC ネットワーキングを完全にサポートしています このソリューションは以下のステップで構成されています: VPC 内で CloudShell を起動する IBM Data Server Driver シンクライアントをダウンロードしてインストールする プレーンテキスト (TCP/IP) と SSL 接続の両方を設定する IBM の Command line processor plus (CLPPlus) で接続をテストする 前提条件 以下の前提条件が必要です: VPC 内で到達可能な既存の RDS for Db2 インスタンス Db2 ポート (デフォルト TCP 50000+ または SSL 50xxx) へのインバウンドアクセスを許可する VPC サブネットとセキュリティグループ Amazon CloudShell へのアクセス VPC 内で CloudShell を起動する 以下の手順で VPC 内で CloudShell を起動します: AWS マネジメントコンソール にサインインし、メニューバーで CloudShell を選択します。 CloudShell ウィンドウで、 Actions を選択し、 Create VPC Environment を選択します。 Name に名前を入力します (例: PRIVATE )。 VPC で、RDS for Db2 データベースをホストしている VPC を選択します。 Subnet で、Amazon RDS for Db2 インスタンスのアベイラビリティーゾーンのサブネット ID を選択します。 Security group(s) で、TCP および SSL ポートのルールを含む最大 5 つを選択します。 Create を選択します。 CloudShell がプライベートサブネット内で再起動します。 CloudShell セッションは 30 分間非アクティブ状態が続くとタイムアウトします。Db2 クライアントは単一のスクリプトインストールなので、再作成できます。 (訳注:この Blog で紹介するスクリプトによる Db2 クライアントは非永続化領域に導入されるため、スクリプトの再実行が必要となります。) Amazon RDS for Db2 用に AWS CloudShell で Db2 クライアントをインストールする方法 直接実行 curl -sL https://bit.ly/getdb2driver | bash ダウンロードして実行 curl -sL https://bit.ly/getdb2driver -o db2-driver.sh chmod +x db2-driver.sh ./db2-driver.sh 注: 上記の短縮 URL は https://aws-blogs-artifacts-public.s3.us-east-1.amazonaws.com/artifacts/DBBLOG-4900/db2-driver.sh を指しています。 上記のスクリプトは、AWS CloudShell を Amazon RDS for Db2 に接続するための準備を行います。 ツールの出力に表示される 2 つのコマンドを実行する必要があります。 DB2 インスタンスに接続するための DSN 作成プロセスを完了します: db2inst1 ユーザーに切り替えます: sudo su - db2inst1 スクリプトを実行します: source db2-driver.sh スクリプトは db2inst1 ユーザーで実行すると以下を行います: Amazon RDS for Db2 インスタンスを一覧表示し、接続したいインスタンスを選択します RDS for Db2 インスタンス内で検出されたデータベースを db2dsdriver.cfg ファイルにカタログ登録します SSL が有効な場合、スクリプトは各データベースの SSL 接続も db2dsdriver.cfg ファイルに登録します これで、db2 コマンドラインプロセッサを使用して RDSADMIN データベースに接続して管理タスクを実行したり、ユーザー定義データベースに接続して通常の Db2 アクティビティを実行したりできます。 Amazon EC2 インスタンスで同じスクリプトを実行して、Amazon RDS for Db2 インスタンスに接続するための Db2 クライアントをインストールすることもできます。Amazon EC2 を使用する利点は、AWS CloudShell とは異なり、クライアントが永続化されることです。 (訳注:AWS CloudShell では、/home/cloudshell-user ディレクトリ以下は永続化されます。この Blog で紹介するスクリプトは、Db2 クライアントを /home/db2inst1 ディレクトリに導入するため、セッション切断後に削除されます。) トラブルシューティング curl コマンドを実行してスクリプトを直接実行し、スクリプトが何も出力しない場合は、VPC がインターネットアクセス用に適切に設定されていないことを示しています。スクリプトを正常に実行するには、インターネットアクセスが利用可能で、適切な IAM 権限があり、適切なサブネット ID を使用し、Db2 のインバウンドトラフィックが有効になっている適切なセキュリティグループが必要です。 スクリプトを実行するユーザーに適切な IAM 権限がない場合、スクリプトが失敗する可能性があります。以下のコマンドを使用して、スクリプトの実行に必要な権限を確認してください: curl -sL https://bit.ly/getdb2driver | bash -s -- --check-permissions または ./db2-driver.sh --check-permissions Amazon Secrets Manager でマスターユーザーパスワードを使用している場合は、 functions.sh で利用可能な get_master_user_password などのヘルパー関数を使用して、 MASTER_USER_PASSWORD 環境変数を設定できます。スクリプト functions.sh は db2inst1 ユーザー用にインストールされ、利用可能になっています。 Amazon RDS for Db2 データベースへの接続に使用する名前がわからない場合は、 CONN_HELP_README.txt ファイルを参照してください。このファイルには、Amazon RDS for Db2 に接続するための db2 コマンド構文が記載されています。 CloudShell は Amazon RDS for Db2 への迅速な接続を提供します。ただし、フルまたは軽量の Db2 クライアントインストールを使用するアプリケーションサーバーや Amazon EC2 インスタンスに必要な標準 Db2 クライアントの代わりにはなりません。 30 分間の非アクティブタイムアウトが発生した場合は、スクリプトを再度実行して RDS for Db2 データベースをインストールおよび登録し、再接続できます。 ツールの機能強化 このツールのソースコードは GitHub リポジトリ で公開されています。機能強化のリクエストは イシューを作成 するか、変更案を プルリクエストで送信 してください。 まとめ この記事では、わずか数コマンドで CloudShell 内で完全に Db2 コマンドラインプロセッサを Amazon RDS for Db2 に対して実行できることを紹介しました。EC2 インスタンスやローカルインストールは不要で、クリーンなサーバーレススタイルのワークフローを実現できます。ぜひご自身のユースケースでこのソリューションをお試しいただき、コメントでご意見をお聞かせください。また、Amazon EC2 インスタンスで同じスクリプトを複製して、Amazon RDS for Db2 インスタンスに接続するための Db2 クライアントをインストールすることもできます。 著者について Vikram S Khatri は Amazon RDS for Db2 のシニア DBE です。Vikram は Db2 で 20 年以上の経験があります。ゼロから新製品を開発することを楽しんでいます。余暇には瞑想を実践し、ポッドキャストを聴くことを楽しんでいます。 Sumit Kumar は AWS のシニアソリューションアーキテクトで、複雑な問題を解決することを楽しんでいます。さまざまな業界のお客様が AWS クラウド上でワークロードを構築・設計するのを支援してきました。料理、チェス、家族との時間を楽しんでいます。 Rajib Sarkar は Amazon RDS for Db2 のシニアデータベースエンジニアです。Rajib は Db2 で 20 年以上の経験があります。 Ashish Saraswat は Amazon RDS for Db2 のシニアソフトウェア開発エンジニアです。Ashish は 10 年以上のソフトウェア開発経験があります。 この記事は ソリューションアーキテクト の Hidehiko Yamane が翻訳しました。
本記事は 2025/11/25に投稿された Everything you don’t need to know about Amazon Aurora DSQL: Part 3 – Transaction processing を翻訳した記事です。 Amazon Aurora DSQL は、アクティブ-アクティブの分散データベース設計を採用しており、すべてのデータベースリソースが対等であり、リージョン内およびリージョン間の読み取りと書き込みトラフィックの両方に対応します。この設計により、同期データレプリケーションと、単一および複数リージョンのAurora DSQLクラスターに対する自動的なゼロデータ損失フェイルオーバーが可能になります。 このシリーズの3番目の投稿では、Aurora DSQLの2種類のトランザクションタイプ(読み取り専用と読み書き)のエンドツーエンド処理について検証します。Amazon Aurora DSQLには書き込み専用トランザクションはありません。なぜなら、各変更においてテーブルスキーマの確認や主キーの一意性を確保することが不可欠であり、その結果としてこれらも読み書きトランザクションとなるからです。 読み取り専用トランザクション 以下は、読み取り専用トランザクションのデータ処理ワークフローを示すシステムアーキテクチャ図です。 読み取り専用トランザクションのデータ処理ワークフローを示すシステムアーキテクチャ図 トランザクションフローの異なるフェーズをより深く理解するために、トランザクション開始から始まる複数のステップに分けて説明します。 トランザクション開始 : トランザクションプロセスは、クライアントが`START TRANSACTION`または`BEGIN`コマンドを発行することから始まります。フロントエンドは専用のクエリプロセッサ(QP)を割り当てます。このQPは、トランザクションのクエリを解析、計画、実行する専用のマイクロ仮想マシン(VM)です。各トランザクションには独自のQPが割り当てられます。この分離は、各トランザクションが他の同時実行トランザクションからの干渉なく独立して動作することを保証するため重要です。ステートメントを実行する前に、QPは Amazon Time Sync Service を使用して同期された現在時刻を読み取り、トランザクション開始時間τ-startを割り当てます。このタイムスタンプは、トランザクション全体の基準点となり、Auroraの分散アーキテクチャ全体での一貫性維持に重要な役割を果たします。 クエリ実行 : 初期化後、QPはSQLステートメントの包括的な解析を実行することでその主要機能を開始します。このフェーズでは、クエリの構文と意味の両方の正確さを検証し、実行計画を作成します。ストレージからデータを読み取るために、QPはシャードマップを参照して、ストレージノード全体で必要なデータの正確な位置を特定します。 ストレージノードからのデータ取得 : ストレージノードがリクエストを受信すると、各ノードは重要な事前取得チェックを実行します。これらのチェックにより、τ-start以前のタイムスタンプを持つすべてのトランザクションが完全に処理されていることを確認します。必要に応じて、ノードは一貫性保証を維持するための待機メカニズムを実装します。ストレージノードはτ-startタイムスタンプに基づくスナップショット分離を採用しています。このメカニズムにより、すべてのノードがトランザクション開始時点でのデータの一貫したビューを提供することが保証されます。このアプローチは、同時実行トランザクションから生じる可能性のある異常を効果的に防止します。その後、ストレージノードは要求されたデータを返します。データを取得した後、QPは複数のノードからの結果を集約します。Aurora DSQLのアーキテクチャはインタラクティブなトランザクションをサポートし、同じトランザクションコンテキスト内で複数のクエリを実行できるため、単一のトランザクション内でクエリプロセスを複数回繰り返すことができます。システムは、セッション全体を通じて一貫したトランザクション状態を維持し、複数の操作全体で分離保証を保持します。 トランザクションのコミット : 読み取り専用トランザクションでは、Aurora DSQLはコミット時間(τ-commit)をトランザクション開始時間(τ-start)に設定するユニークなコミットメカニズムを実装しています。これにより、論理的な観点からは実質的にゼロ期間のトランザクションが作成され、読み取り専用トランザクションが常に一貫したスナップショットを参照し、競合による失敗が発生しないことが保証されます。 読み取り書き込みトランザクション 以下は、Aurora DSQL内のデータ処理ワークフローを示すシステムアーキテクチャ図です。 Amazon Aurora DSQL内のデータ処理ワークフローを示すシステムアーキテクチャ図 トランザクション開始 : 読み書きトランザクションの初期フェーズは、読み取り専用トランザクションと同様です。 クエリ実行と書き込み処理 : 実行フェーズでは、QPは読み取り専用トランザクションと同様の方法でSQLステートメントを処理します。ただし、読み書きトランザクションでは、変更の処理に追加の複雑さが生じます。書き込み操作が発生すると、QPはこれらのデータベース変更の結果をローカルに保存し、トランザクションの期間中、効果的に書き込みをスプールします。ロールバックや切断が発生した場合、QPはスプールされた書き込みを破棄します。内部的には、Amazon Aurora DSQLでのトランザクションの実行は、同時実行メカニズムに基づいて最適化されています。使用されるMVCCの実装により、早期中止(この概念の詳細は論文 MVCCトランザクション間の競合の修復 の章 3.3.1 書き込み-書き込み競合の処理 で確認できます)が可能になり、コミット時に失敗する可能性のある読み書きトランザクションに対応します。QPがストレージから読み取る際、ストレージはデータの最新バージョンを参照しているかどうかを示します。トランザクションがすでに新しいバージョンを持つ行を更新しようとすると、トランザクションは即座に中止されます。 コミット処理 : コミット時に、QPはシャードマップを参照して、変更したキーを所有するアジュディケータを特定します。QPは書き込みセットを構築し、書き込んだ行(新しく作成された行を含む場合もあります)を含め、それらをポストイメージとともにパッケージ化してアジュディケータに送信します。最後に、この完全な書き込みセットを指定されたアジュディケータに送信します。 裁定フェーズ : 各アジュディケータは、トランザクションの開始時間(τ-start)以降に変更された行に書き込みが発生したかどうかを検証します。いずれかのアジュディケータによって競合が検出された場合、コミットは拒否されます。競合が検出されない場合、アジュディケータはコミットフェーズ中に影響を受ける行に対してロックを配置し、排他的アクセスを確保します。これらのロックは、現在のトランザクションが完了するまで他のトランザクションが同じデータを変更することを防止し、コミットされる更新の整合性を保護します。さらに、アジュディケータはτ-startを超え、以前に発行されたτ-commit値よりも大きいコミットタイムスタンプ(τ-commit)を選択します。ポストイメージとタイムスタンプはジャーナルに書き込まれます。ジャーナルがこれらの変更を確認した後、QPはクライアントにそれらを確認応答します。クライアントの観点からはトランザクションは終了しています。DSQLの観点からは、その内容をストレージノードに書き込む必要があります。 ストレージ更新フェーズ : クロスバーコンポーネントはジャーナルからトランザクションの書き込みを受け取り、キースペースの購読部分に基づいて関連する行を適切なストレージノードに転送します。これらのストレージノードはその後、変更を永続化します。 コミットフェーズの動作 データベース内のキースペースはシャード化され、アジュディケータ間で分散されており、アジュディケータの数はキースペースのサイズに比例してスケールします。その結果、各キーはグローバルに見て正確に1つのアジュディケータによって所有されています。読み書きトランザクションのコミット中、各アジュディケータは自身のキースペースがコミット可能かどうかを独立して判断し、その後、同じトランザクションに関与する他のアジュディケータと連携します。ジャーナルへのコミットの書き込みにより、コミットは成功し、永続的に保存されます。逆に、コミットが失敗した場合、関与するすべてのアジュディケータは中止する必要があります。 コミットアルゴリズムについて、このサービスは 2フェーズコミット と ワープスタイルコミット のハイブリッドアプローチを使用して、不要な往復時間を最小化しています。これは以下の図に示されています: アジュディケータが使用するコミットアルゴリズム Aurora DSQLでトランザクションをコミットすると、舞台裏では次のようなことが起こります: QPがトランザクションを担当し、変更されるデータに基づいて、どのアジュディケータが関与する必要があるかを決定します。 次に、関与するアジュディケータのうち1つを除くすべてに対して並行してPREPAREメッセージを送信します。これらのアジュディケータはトランザクションをコミットできるかどうかを確認し、指定された最終アジュディケータに応答を送信します。 最終アジュディケータは意思決定者として機能します:QPからのトランザクションデータと他のアジュディケータからの応答の両方を受け取ります。関与するすべてのアジュディケータによって競合が検出されなかった場合、トランザクションをコミットします。いずれかのアジュディケータが問題を報告した場合、トランザクションを中止し、全員に通知します。 このプロセスは効率的に設計されています – データは一度送信され、応答はシステムを通じて流れ、コミットの決定とリージョン間のデータレプリケーションの両方を1回のパスで処理します。この連携アプローチにより、分散トランザクションはシステム全体で一貫性を維持しながら、不要な往復通信を最小限に抑えることができます。 Amazon Aurora DSQL での SELECT FOR UPDATE の動作 SELECT FOR UPDATE はAmazon Aurora DSQLにおける特殊なSQLステートメントです。読み書きトランザクションでは、Aurora DSQLが読み取りレコードに対して同時実行チェックを実行しないため、 書き込みスキュー を管理するために SELECT FOR UPDATE を利用できます。詳細、例、これらのクエリの処理方法については、 Amazon Aurora DSQLにおける同時実行制御 をご覧ください。 まとめ この投稿では、Amazon Aurora DSQL内のトランザクション管理の複雑さについて探求しました。コミット処理の内部メカニズムを調査しました。 次回の投稿 では、Aurora DSQLを構成するコンポーネント(QP、アジュディケータ、ジャーナル、クロスバー、ストレージ)について包括的な分析を提供します。 著者について Katja-Maja Kroedel Katja はAWSでデータベースとIoTに情熱を持つアドボケイトです。彼女はクラウドテクノロジーの可能性を最大限に活用できるよう顧客を支援しています。コンピュータエンジニアリングのバックグラウンドと、IoTおよびデータベースにおける豊富な経験を持ち、これらの分野におけるクラウド導入、移行、戦略について顧客にガイダンスを提供しています。 翻訳はクラウドサポートエンジニアの新巻が担当しました。原文は こちら です。
本記事は 2025/11/25に投稿された Everything you don’t need to know about Amazon Aurora DSQL: Part 2 – Shallow view を翻訳した記事です。 このブログ記事シリーズ では基本的なデータベースの概念と、それらが Amazon Aurora DSQL にどのように適用されるかの概要から始めました。 この第2回の記事では、Aurora DSQL のアーキテクチャを検証し、その設計判断が機能(楽観的ロックや PostgreSQL の機能サポートなど)にどのような影響を与えるかを説明し、アプリケーションとの互換性を評価できるようにします。ユーザーから完全に抽象化されている基盤アーキテクチャの包括的な概要を提供します。リージョンエンドポイントのみを介して操作することで、ユーザーはサービスの機能に直接アクセスできます。サービスのアーキテクチャを理解することで、その潜在能力を戦略的に活用できるようになると私は確信しています。 サービス概要 Aurora DSQL は、 オンライントランザクション処理 (OLTP)ワークロード向けに特別に設計された最新のサーバーレス分散型 SQL データベースです。PostgreSQL 互換性を念頭に置いて構築され、 その機能のサブセット を提供し、リージョン内およびリージョン間の両方で読み取りと書き込みトラフィックを処理できるピアとして、すべてのデータベースリソースが機能するアクティブ-アクティブデプロイメントモデルを採用しています。また、このサービスは実際のリソース消費量とデータストレージ要件に基づく 従量課金制の価格モデル を採用しています。 このサービスは、 同期データレプリケーション により、単一リージョンおよびマルチリージョンクラスターの両方でデータ損失ゼロを実現し、読み取りに対して書き込み後の 強い 読み取り一貫性を提供します。 次の図は、Aurora DSQL インフラストラクチャの高レベルな概要を示しており、単一リージョン(左)とウィットネスリージョンを持つマルチリージョン(右)の同期クラスターのスケーラビリティを示しています。 単一リージョンおよびウィットネスリージョンを持つマルチリージョン同期クラスターのスケーラビリティを示す Aurora DSQL インフラストラクチャの大まかな概要 単一リージョン構成では、コンピュート、トランザクションログ、ストレージの各層が3つのアベイラビリティーゾーンに分散配置された多層処理モデルで構成されており、高可用性を実現しています。アプリケーションは専用のエンドポイント経由でアクセスします。 マルチリージョン構成では、それぞれが単一リージョン構成と同じインフラストラクチャを持つ2つの同期リージョンに加え、ウィットネスリージョンと呼ばれる第3のリージョンで構成されています。ウィットネスリージョンは、トランザクションの合意形成に参加し、ネットワーク障害時におけるタイブレーカーとして機能します。 Aurora DSQL は、単一リージョン構成で 99.99% の可用性を提供し、マルチリージョン構成ではさらに高い可用性(99.999%)を実現できます。この高い信頼性を活用するためには単にサービスを複数のリージョンで稼働させるだけでは不十分で、アプリケーションが必要に応じて自動的にリージョン間を切り替えるよう設計されている必要があります。つまり、1つのリージョンで問題が発生した場合、アプリケーションは自動的に正常なリージョンに接続できることが重要です。これは非常用電源を持つのと似たような考え方で、複数の電源を用意するだけでなく、正常な電源への自動切り替え機能があってこそ真価を発揮します。この設計アプローチによって、1つのリージョンの障害が他に波及する相関障害を防ぎ、アプリケーションが稼働中のリージョンに接続できる限りサービス全体の停止を回避することが可能です。 Aurora DSQL の読み取り処理は実行元のリージョン内で完結するため、リージョン間のレイテンシーは完全に排除されます。書き込み処理では、コミット時にのみリージョン間レイテンシーが発生します。運用面では、Aurora DSQL はデータベース管理の簡素化とスケーラビリティ向上において複数のメリットを提供します。このアーキテクチャによって、コンピュート・コミット・ストレージの各層を独立してスケールできるため、ワークロードの要求に応じた精密なリソース配分が可能となります。これらの処理はすべてバックグラウンドで自動実行され、AWS が完全に管理するため、真のサーバーレス体験を実現しています。結果として、メンテナンスウィンドウが不要となり、運用負荷の軽減とシステムの可用性が向上します。 Aurora DSQL は他の AWS サービスと深く統合されており、アクセス制御のための AWS Identity and Access Management (IAM)や監査ログのための AWS CloudTrail などのサービスとの連携を容易にします。 Aurora DSQL アーキテクチャ Aurora DSQL は、 Firecracker 仮想化 など、多数の Amazon のイノベーションを活用した新しい分散データベースシステムです。DSQL の設計では、コンピュートやストレージなどの単一インスタンスデータベースコンポーネントを、厳密に定義された仕様によって連携を確保しつつ、特定のタスクに集中できる疎結合なマルチテナントフリートとして再構築することで複雑さを削減しています。各コンポーネントは、それぞれのドメインにとって最適な設計判断を行います。これは次の3つの基本的な特性に沿っています: 各コンポーネントが独立して変更と改善を行う コンポーネントは個別にスケールする 各コンポーネントに対して異なるセキュリティ分離の決定が行われる Amazon Aurora DSQL の最も重要なコンポーネントは次の通りです: クエリプロセッサ (QP)は各接続専用の PostgreSQL エンジンとして機能し、SQL の処理のほとんどをローカルで処理し、読み取りに応じてデータを返し、トランザクションがコミットされるまで書き込みデータをスプールします。 アジュディケータ は読み書きトランザクションがコミットされるかどうかを決定し、分離を確保するために他のアジュディケータと通信します。 ジャーナル はコミットされたトランザクションを永続化し、アベイラビリティゾーン間、マルチリージョン構成ではリージョン間で、データを複製する順序付けられたデータストリームです。 クロスバー はジャーナルからのデータストリームをマージし、ストレージにルーティングします。 ストレージノード はデータへのアクセスを提供し、シャードキーに基づいてデータを保存します。また、データの複数の読み取りレプリカも含んでいます。 以下の図は、書き込みパス(実線)と読み取りパス(点線)を明確に示し、異なるアクセスパターンに対してシステムが最適化できる能力を強調しています。 Amazon Aurora DSQL 内のデータ処理ワークフローを示すシステムアーキテクチャ図 フロントエンド はトランザクションとセッションのルーターとして機能し、各接続を独自のクエリプロセッサにルーティングします。QP は SQL クエリを実行し、読み取りに応じて対応するデータを返す責任があり、時間ベースの分離と調整を通じて一貫した処理を提供するために メトロノーム (タイミングコンポーネント)と連携します。QP はローカルの シャードマップ を参照して、どのキーがストレージ(読み取り用)とアジュディケータ(読み書きトランザクションのコミット用)のどこに配置されているかを判断します。また、書き込みに応じてデータをバッファし、トランザクションプロトコルを管理します。Amazon Aurora DSQL のトランザクションは 最大300秒 (ハード制限)で、この期間を超えるトランザクションは拒否されます。特筆すべきは、QP が他の QP と通信することはなく、ディスクページではなく行を要求することです。Amazon Aurora DSQL は、パフォーマンス向上と QP に戻るデータ通信を削減するために述語をストレージにプッシュダウンします。これは、フィルタリング、集約、射影などの重要な処理の多くがストレージレイヤーで実行されることを意味します。各トランザクションは独自の QP を受け取り、水平方向にスケーリングが可能になり、各トランザクションが他のトランザクションに影響を与えたり、影響を受けたりすることなく独自のコンピュートリソースを確保できます。Aurora DSQL 内のコンピュートスタックは QP のみで構成されています。 コミット時に、QP はトランザクションをアジュディケータに提出し、アジュディケータは楽観的同時実行制御プロトコルを実行します。アジュディケータは特定のキー範囲を割り当てられ、複数のキーセットに影響するトランザクションについてピアと調整します。彼らはトランザクションが自分のシャード内でコミットできるかどうかを判断し、必要に応じて協力します。マルチリージョンクラスターでは、アジュディケータはすべてのリージョン間で競合する書き込みを検出します。このアプローチは楽観的同時実行制御を使用し、検証フェーズまでロックを取得せずにトランザクションを進行させます。これは分散システム全体でのデータ一貫性を維持しながら、同時操作を管理します。トランザクションの終わりに競合をチェックすることで、この方法はダーティリードやロストアップデートなどの問題を防ぎ、競合がまれなシナリオに特に適しています。 ジャーナルはコミットされたトランザクションを永続化する順序付けられたデータストリームであり、クライアントに書き込みを確認します。Amazon Aurora DSQL 内のコミットスタックはアジュディケータとジャーナルで構成され、各ジャーナルは単一のアジュディケータに排他的に関連付けられています。 クロスバーはジャーナルストリームを時系列順にマージし(ジャーナルがトランザクション順にコミットを保存するのとは対照的に)、ストレージに書き込みを発行します。 ストレージは複数のストレージノードで構成され、データは主キーに基づくレンジパーティショニングによってノード間に分散されています。ストレージノードは読み取りを提供するために存在し、短期的な耐久性については責任を負いません。ストレージは、ノード上のキーに対する大量の読み取りリクエストに対応するため、そのノードの読み取り専用レプリカを作成する場合があります。 アーキテクチャに基づく Aurora DSQL のメリット概要 以下は、この分散アーキテクチャを通じて得られるメリットの概要です(完全なリストではありません): Aurora DSQL は、同期データレプリケーション、スナップショット分離、アトミック性、アベイラビリティーゾーン間およびリージョン間の耐久性により、強力な一貫性を持つ 原子性、一貫性、独立性、永続性(ACID)トランザクション を提供します。 Aurora DSQL は snapshot isolation とロックフリーの同時実行制御を実装しています。このアプローチの主な利点の1つは、読み取り専用トランザクションが強力な一貫性を維持しながらも、アベイラビリティーゾーン間やリージョン間のレイテンシーを発生させないことです。 書き込みトランザクションは、コミット時にリージョン間レイテンシーの往復時間(RTT)を2回発生させます。レイテンシーはステートメントごとではなくトランザクションごとに発生するため、ステートメントの数は関係ありません。 コミット前に発生するすべての処理は QP 内でローカルに行われ、各接続が専用のQPリソースを持つことで、処理の遅いクライアントが他のクライアントに影響を与えることはありません。 Aurora DSQL 内の各コンポーネントは、それぞれが受け取る個別のタスクに特化して設計されており、各コンポーネントが独立してスケールし、個別にシャーディングすることができます。これによってデータベースはさまざまな読み取り/書き込み、コンピューティング-読み取り、コンピューティング-読み取りの比率に対して動的に適応します。 コンポーネントは独立してデプロイされ、複数のステートレスホストに分散されています。必要に応じてホスト間で移動を行うため、顧客に影響を与えず、メンテナンスウィンドウを必要としません。 Aurora DSQL を使用する際の考慮事項 Aurora DSQL は PostgreSQL 互換の分散データベースで、事実上無制限のスケールと高可用性を提供します。PostgreSQL 互換ではありますが、Aurora DSQL は現在 PostgreSQL で利用可能なすべての機能を提供しているわけではありません。この機能差異は時間と共に解消されていく予定ですが、Aurora DSQL の分散アーキテクチャの特性上、一部の機能は異なる実装となります。サポートされている PostgreSQL 機能セットについては、 Aurora DSQLのドキュメント で透明性をもって公開されており、アプリケーション要件との適合性を事前に確認することができます。その結果、PostgreSQL の実績ある基盤と先進的な分散コンピューティング機能を組み合わせたデータベースが提供され、アプリケーションの将来の成長とスケール要求に対応できます。 Aurora DSQL のためにワークロードを設計する際は、以下の要素を考慮してください(完全なリストではありません): Aurora DSQL は楽観的同時実行制御のため、ロックを実装していません。アプリケーションが明示的なデータベースロックを実装するロジックに依存している場合、アプリケーションの一部を再構築する必要があるかもしれません。詳細については、 Amazon Aurora DSQL の同時実行制御 を参照してください。 このサービスは3つ以上の読み書きエンドポイントを持つマルチリージョン構成をサポートしていません。つまり、3つ以上のリージョンでデータを同期的に複製する必要があるユースケースをサポートしていません。 Aurora DSQL は、2つの重要な設計原則に従うことで最も効果を発揮します:ホットキー書き込みとホットキー範囲の回避です。Amazon Aurora DSQL ではテーブルにランダムな主キーを定義することが理想的です。これは UUID に基づく単一キーか、または複数の列を組み合わせた高いカーディナリティを持つ複合キーを意味します。 楽観的同時実行制御を採用しているため、複数のトランザクションが同時に同じデータを変更しようとする場合(ホットキーの書き込み)、1つが成功し、他は再試行しなければならないことを意味します。 同様に、特定のキー範囲内に操作を集中すること(ホットキー範囲)は、DSQL の分散アーキテクチャが損なうことになります。 マルチリージョン構成で読み書き操作の強力な一貫性を保証するため(読み取り専用操作は対象外)、Aurora DSQL はコミット時に2往復分(2 RTT)の追加レイテンシーが発生します。このレイテンシーは選択した2つのリージョン間の物理的距離に比例して増加します。 これらの原則に沿って設計することで、Aurora DSQL の大きなメリットを最大限に活用でき、 データ要件の拡大に対応した成長と安定したパフォーマンスを実現する基盤を築くことができます。 まとめ この投稿では、Amazon Aurora DSQL のアーキテクチャと、そのアーキテクチャへの貢献、メリット、およびサービスを使用する上での考慮事項について探りました。 次回の投稿 では、Aurora DSQL のエンドツーエンドのトランザクション処理機能について詳しく掘り下げていきます。 著者について Katja-Maja Kroedel Katja は AWS でデータベースと IoT の熱心なアドボケートです。彼女はクラウドテクノロジーの可能性を最大限に活用できるよう顧客を支援しています。コンピュータエンジニアリングのバックグラウンドと IoT およびデータベースにおける豊富な経験を持ち、これらの分野におけるクラウド導入、移行、戦略について顧客にガイダンスを提供しています。 翻訳はソリューションアーキテクトの 永末 健太 が担当しました。原文は こちら です。
本記事は 2025/11/25に投稿された Everything you don’t need to know about Amazon Aurora DSQL: Part 1 – Setting the scene を翻訳した記事です。 2014年に発表された Amazon Aurora は、高性能な商用データベースのスピードと可用性、オープンソースデータベースのシンプルさとコスト効率を組み合わせたリレーショナルデータベースエンジンで、MySQL と PostgreSQL との互換性や強化されたパフォーマンスを提供しています。re:Invent 2024 において、AWS はさらに顧客中心のイノベーションを進め、 Amazon Aurora DSQL を発表しました—これはクラウドベースの設計でトランザクション処理に最適化された新しいサーバーレス SQL データベースです。このブログ投稿シリーズでは、Aurora DSQL の技術的詳細を共有し、基盤となるコンポーネントとサービス開発全体で行われた設計上の選択について深く掘り下げていきます。 この投稿では、Aurora DSQL のメリット、機能セット、および基盤となるコンポーネントを理解するために重要な基本概念について詳しく説明します。 Amazon Aurora DSQL は、マルチリージョン、アクティブ-アクティブ、分散データベースエンジンを実装し、データベースクラスターのすべてのリージョンで読み取りと書き込みのワークロードの両方を容易にします。このサービスはサーバーレスかつ PostgreSQL 互換 であり、その機能のサブセットを提供しています。あなたが消費するリソースと保存するデータの量に応じて 課金 されます。 クラウドにおける可用性と耐久性 クラウドサービスは、確実性、パフォーマンス、そして信頼性を確保するために、可用性と耐久性といった重要な指標に依存しています。可用性とは、システムやデータへのアクセスのしやすさを指し、多くの場合、稼働率の割合として測定されます。例えば、可用性が 99.99% のデータベースは、年間のダウンタイムが1時間未満となります。耐久性は、データの損失や破損なしに長期的なデータ保存を保証します。 Amazon Web Services (AWS) では、顧客がインフラストラクチャ管理ではなくイノベーションに集中できるよう、サービスは高可用性と高耐久性を念頭に置いて設計されています。Aurora DSQL は、マルチリージョン構成で 99.999% の可用性を持つサービスレベルアグリーメント(SLA)を提供し、これは 年間5分16秒の許容ダウンタイム に相当します。また、複数のリージョンにデータを保存することでデータの耐久性を提供し、コミットが成功した後にデータが失われないことを保証します。 可用性と耐久性はクラウドサービスにとって不可欠ですが、最適なパフォーマンスを得るためには、データベースが処理するように設計された特定のワークロードのタイプを理解することも同様に重要です。これにより、 オンライントランザクション処理 (OLTP)と オンライン分析処理 (OLAP)システムの 違い について考える必要があります。 OLTP と OLAP OLTP は、高速なクエリ処理による大量の日常的なトランザクション処理に優れています。例えば、顧客の注文を処理する e コマースプラットフォームは、通常 OLTP データベースに依存しています。対照的に、OLAP は複雑なクエリとデータ分析に最適化されており、チームが膨大なデータセットを分析して実用的な洞察を導き出すビジネスインテリジェンス(BI)アプリケーションに理想的です。Aurora DSQL は OLTP ワークロード向けに設計されています。 可用性と耐久性というこれらの基本的な指標を超えて、データベースシステムの成功は、特に OLTP と OLAP の操作 観点から、特定のタイプのワークロードをどれだけうまく処理できるかにも大きく依存しています。 ACID 原子性、一貫性、独立性、永続性(ACID)は、データベースがトランザクションにおけるデータの整合性と信頼性を維持するために必要な一連の特性です。 原子性(Atomicity) は、トランザクションが単一の単位として扱われ、完全に成功するか失敗するかのいずれかになることを保証します。 一貫性(Consistency) は、トランザクションがデータベースを一つの有効な状態から別の有効な状態へ移行させることを意味します。この概念は、書き込み後の読み取り整合性などの他の一貫性モデルとは異なります。後者では「一貫性」とは、クライアントが書き込んだデータを読み取ることへの期待を指し、データベースの状態自体を指すものではありません。 独立性(Isolation) は、並行トランザクションが逐次実行と同じ効果を持つことを保証します。 永続性(Durability) は、コミットされた変更が失われないことを保証します。 Aurora DSQL はインタラクティブな ACID 準拠のトランザクションを提供します。「インタラクティブ」とは、トランザクションを開始し、データを要求、取得し、追加のコードを実行できることを意味します。これらの原則、特に独立性の実装には、高度な同時実行制御メカニズムが必要です。 トランザクション分離レベル トランザクション分離レベルは、1つのトランザクションによって行われた変更が他のトランザクションにどのように見えるかを定義します。標準的な分離レベルには以下が含まれます: Read uncommitted – トランザクションがまだコミットされていないデータを読み取ることを許可します。 Read committed – トランザクションがコミットされたデータのみを読み取ることを保証しますが、 ノンリピータブルリード や ファントムリード の可能性があります。ファントムリードは、トランザクションが特定の条件に基づいて行のセットを取得したが、トランザクションが完了する前に、別のトランザクションがその条件に影響する行を挿入または削除した場合に発生します。例えば、トランザクション A が今日の注文をすべてカウントするクエリを実行し、その後トランザクション B が新しい注文を追加してコミットした場合、トランザクション A がカウントクエリを再度実行すると、この新しい「ファントム」行が表示されます。 Repeatable read – トランザクションが行を読み取ると、同じトランザクション内の後続の読み取りで同じデータを取得することを保証し、ノンリピータブルリードを防止しますが、ファントムリードは依然として許可されます。これは、個々の行にロックをかけますが、新しい行が挿入される可能性のある「ギャップ」をロックしないためです。 Snapshot isolation – トランザクションに対して、トランザクション開始時点のデータベースの一貫したスナップショットを表示することを許可し、完全な直列化のオーバーヘッドなしに、ダーティリード、ノンリピータブルリード、およびファントムリードを防止します。その背後にある概念は、トランザクション T の開始時間とコミット時間の間にタイムスタンプを持つ T の 書き込みセット に書き込みが受け入れられていない場合、トランザクション T はコミットするというものです。言い換えれば、現在のトランザクションが書き込もうとしている行に変更が加えられている場合、トランザクションは中止されます。 Serializable – トランザクションを一つずつ実行することで最高の分離レベルを提供し、ダーティリード、ノンリピータブルリード、およびファントムリードを防止します。その背後にある概念は、トランザクション T の開始時間とコミット時間の間にタイムスタンプを持つ T の 読み取りセット に書き込みが受け入れられていない場合、トランザクション T はコミットするというものです。言い換えれば、現在のトランザクションが読み取っている行が変更されている場合、トランザクションは中止されます。 Amazon Aurora DSQL は snapshot isolation レベルで動作しており、トランザクションタイプレベルでの説明は 後のブログ記事 で説明します。 同時実行制御 現代のデータベースはしばしば、より洗練された同時実行制御 メカニズムを実装しており、 マルチバージョン同時実行制御(MVCC) は最も広く採用されているソリューションの1つです。 MVCC はデータベースにおいて、データへの同時アクセスと変更を管理するために使用される技術です。MVCC はデータの異なるバージョンを作成することでロックの必要性を減らし、読み取り側と書き込み側が互いにブロックすることなく同時に操作できるようにします。PostgreSQL では、各行の複数のバージョンを維持することでこれを実現しており、各バージョンには作成(xmin)と削除または更新(xmax)を担当するトランザクションを記録する隠しシステムカラムが含まれています。トランザクションがデータを更新すると、元のバージョンを保持しながら行の新しいバージョンを作成します。これは、古いバージョンに xmax 値をマークし、新しい行は新しい xmin(古いバージョンのxmaxと一致)を取得し、この新しいエントリには xmax 値が設定されないことで行われます。他のトランザクションがデータを読み取る際、これらのトランザクション ID によって決定される開始時に有効だったバージョンを表示し、進行中のトランザクションによって行われた変更は無視されます。これにより、ブロックなしで同時に読み取りと書き込みが可能になり、バックグラウンドプロセスが最終的にどのトランザクションからもアクセスできなくなった古いバージョンの行を削除します。 Amazon Aurora DSQL も MVCC を使用しており、データベース内に複数のデータバージョンを格納することを意味します。 MVCC の実装では、データベースは同時変更を処理するために、悲観的ロックスキームと楽観的ロックスキームという異なる高レベルのアプローチを採用しています:悲観的同時実行制御は、競合を防ぐためにリソースを事前にロックし、現在のトランザクション内ですでに変更またはロックされたデータを同時実行トランザクションによって変更できないようにします。しかし、このアプローチは過剰なリソースロックによりパフォーマンスのボトルネックを引き起こす可能性があります。対照的に、楽観的同時実行制御は競合が稀であると仮定し、トランザクションコミット時にそれらをチェックします。これは3つのフェーズで構成されます: クライアントからのすべての SQL 文が処理され、すべての書き込みはトランザクション内でローカルに記録されます。 クライアントのコミット時に、データベースはトランザクションの読み取りと変更を評価して、コミット能力を判断します。2つの検証方法が可能です:前方検証と後方検証。 前方検証は、現在進行中のトランザクションとの競合をチェックします。 後方検証は、以前にコミットされたトランザクションとの競合をチェックします。 その後、変更はストレージに書き込まれます。競合が検出されなければ、変更はストレージに書き込まれ、そうでなければ中止されます Amazon Aurora DSQL と標準 PostgreSQL はどちらも MVCC を使用していますが、ロックに対するアプローチが異なります。Amazon Aurora DSQL は後方検証による楽観的同時実行制御を採用しているのに対し、標準 PostgreSQL は悲観的アプローチを使用しています。 まとめ この投稿では、基本的なデータベース概念と Amazon Aurora DSQL への適用について探索し、サービスの予備的な概要を提供しました。Aurora DSQL はマルチリージョン構成で 99.999% の可用性を持つサービスレベルアグリーメント(SLA)を提供し、インタラクティブな ACID 準拠のトランザクションを提供し、楽観的同時実行制御を伴う MVCC を使用しながら snapshot isolation レベルで動作しています。 このシリーズの次の投稿 では、サービス自体の包括的な理解、その利点と制限、および基盤となるアーキテクチャについて説明します。 著者について Katja-Maja Kroedel Katja は AWS でデータベースと IoT の情熱的なアドボケイトです。彼女は顧客がクラウドテクノロジーの可能性を最大限に活用できるよう支援しています。コンピュータエンジニアリングのバックグラウンドと IoT およびデータベースにおける豊富な経験を持ち、これらの分野におけるクラウド導入、移行、および戦略に関するガイダンスを顧客に提供するために働いています。 翻訳はソリューションアーキテクトの 永末 健太 が担当しました。原文は こちら です。
はじめに 株式会社カプコン(以下、カプコン)は、学生を対象としたゲーム開発コンペティション『CAPCOM GAMES COMPETITION』を開催しました。 このイベントでは、PLATINUM SPONSOR である Amazon Web Services (AWS) のクラウドサービスを活用し、カプコンの独自ゲームエンジン『RE ENGINE』を AWS クラウド上で提供することにより、本格的なゲーム開発に取り組む環境を実現しました。 本記事では、AWS がどのようにこのコンペティションを⽀えているかについて、技術的な詳細とともにご紹介します。 図1: CAPCOM GAME COMPETITION ロゴ イベント概要 カプコンは 2025 年 4 月から 9 月にかけて 『CAPCOM GAMES COMPETITION』 を開催しました。 このコンペティションでは参加者が自由に環境を選択できる従来の形式とは異なり、『RE ENGINE』 の使用を必須としました。これはAAAタイトル開発で実績のある『RE ENGINE』でのゲーム制作を、より多くの学生に体験していただくことで、世界水準で活躍できる若手クリエイターの早期創出を目指したものです。一般公開されていない『RE ENGINE』をゲーム制作に活用できる貴重な体験と、半年間の制作期間の間カプコンスタッフによる専門的な技術サポートを受けられるという点が、参加者にとって大きな魅力となり多数の参加応募がありましたが、最終的にその中から選抜された15チームが参加することになりました。 AWS はこのコンペティションにおいて技術的なサポートを包括的に提供し、カプコンはこれを活用して200名以上の学生が、場所を問わず高性能な開発環境にアクセスできる体制を実現しました。 また、AWSのクラウド技術を活用することで、従来は大規模な設備投資が必要だったゲーム開発環境を柔軟かつスケーラブルに提供することが可能となり、次世代のゲーム開発者育成に大きく貢献しています。 アーキテクチャ システム全体像 今回のアーキテクチャは、前年の 近畿⼤学での実習 をベースに、15 チームが同時利⽤できる設計に拡張しています。AWS のクラウドサービスを活⽤することで、セキュアで⾼性能、かつ⼤規模なゲーム開発環境を実現しました。 図2: CAPCOM GAMES COMPETITION 全体アーキテクチャ図 ネットワーク構成 15 チームが異なる拠点から安全にアクセスできるよう、 Amazon Virtual Private Cloud (VPC) を学⽣環境⽤ VPC および共通基盤⽤ VPC の 2 つに分けています。 共通基盤⽤ VPC には、学⽣が利⽤する Amazon Elastic Compute Cloud (Amazon EC2) インスタンスを起動・停⽌するウェブアプリケーション、バージョン管理データを保存する Perforce サーバー、アセットを保存する NAS サーバーなどの共有サービスをホスティングしています。⼀⽅、学⽣が直接利⽤する 『RE ENGINE』 端末は、学⽣環境⽤ VPC に配置しています。 学⽣は、まず⾃分の PC から AWS Client VPN を利⽤して学⽣環境⽤ VPC に接続し、ゲーム開発を⾏います。ゲーム制作に使⽤するアセットやその他のデータのアップロードには、 AWS Transfer Family Web Apps を利⽤しており、これらのファイルは Amazon S3 に保存された後、NAS サーバー経由で 『RE ENGINE』 の EC2 インスタンスから利⽤できる仕組みとなっています。 開発環境 各チームには Visual Studio 開発環境がプリインストールされたワークステーション (Amazon EC2) を最⼤ 8 台まで提供しました。インスタンスタイプは NVIDIA T4 GPU を搭載した g4dn.4xlarge (16 vCPU、64 GB メモリ、20 Gbps ネットワーク) を使⽤しています。東京リージョンと⼤阪リージョンを組み合わせて約 100 台の GPU インスタンスを確保することで、学⽣は⾃宅から Amazon DCV によるリモートデスクトップアクセスを通じて快適にアクセスでき、⾼性能ワークステーションと同等の開発体験を得ることができます。 試遊環境 ゲーム開発環境に加えて、実際にゲームをプレイする試遊環境も提供しました。 Amazon API Gateway および AWS Lambda を利⽤して Web ベースのシステムを構築し、ゲームの本体は Amazon S3 に保存する仕組みとしています。さらに、 Amazon GameLift Streams を活⽤することで、ユーザーはブラウザから直接ゲームコントローラーを利⽤して、低レイテンシーでゲームをプレイできる環境を実現しました。 図3: 試遊環境アーキテクチャ図 スケーラビリティと可⽤性 15 チームが同時に開発できるよう、以下の点を考慮した設計としています。 東京リージョンでは ap-northeast-1a、1c、1d の 3 つの AZ を、⼤阪リージョンでは ap-northeast-3b、3c の 2 つの AZ を活⽤し、キャパシティを分散させることで可⽤性を確保しています。さらに、AWS のクラウドならではの柔軟性を活かし、開発期間中の利⽤状況に応じてリソースを調整しており、特に夏休み期間の利⽤ピークに備えた追加確保など、必要なタイミングで迅速にスケールアップを実現しました。 AWS による⽀援とサポート 本プロジェクトの成功に向けて、AWS は事前準備段階から運⽤期間中まで、包括的な技術⽀援とサポートを提供しました。 事前準備段階からの技術⽀援 プロジェクト開始の数ヶ⽉前(2024 年 11 ⽉〜12 ⽉)から、AWS はカプコンと密に連携を開始しました。⼤規模開発環境の運⽤⽅法、リソース確保の戦略、コスト最適化など、多岐にわたる技術的な課題について、専⾨的な知⾒を提供し、最適なアーキテクチャ設計を⽀援しました。 運⽤期間中の継続的なサポート キャパシティの確保と最適化 開発期間中、特に夏休み期間(7 ⽉〜8 ⽉)には学⽣の利⽤が急増し、東京リージョンと⼤阪リージョンを組み合わせて約 115台のインスタンスを確保する必要がありました。稼働している状態を安定的に維持するため、 EC2 オンデマンドキャパシティ予 約 を活⽤した計画的なキャパシティ確保を提案しました。利⽤ピークに備えた追加確保を迅速に対応することで、学⽣が開発に集中できる環境を提供できました。 技術的な課題解決への協⼒ 半年間の運用では、Windows ライセンス管理や macOS ユーザーのゲームパッド対応など、様々な技術的な課題が発生しました。 AWS はカプコンと協力しながら、これらの課題に対して解決案を提示することで、学生が開発に専念できる環境を維持するための技術支援を提供しました。 結果 ⾼い完⾛率の実現 参加していた 15 チーム中 14 チームが半年間の開発期間を完走し、作品を完成させることができました。完走率 93% という高い数値を達成できた要因として、AWS上に構築した 『RE ENGINE』 開発環境により、学生は自身のPCスペックや使用OSなどの制約を受けることなく、また学校・自宅の双方で制作できる自由度の高さなどにより、創作活動に集中できたことが挙げられます。 さらにカプコンスタッフによるサポートで技術面・進行管理面の両方をカバーし、加えて充実したチュートリアルと学習コンテンツで 『RE ENGINE』 の使い方を段階的に習得できる環境を提供しました。通常、このような難易度の高いコンペティションでは完走率が低くなりがちですが、十分な環境とサポートを提供することで高い完走率を実現しました。 図4: 授賞式の様子(左からAWS 賞、最優秀賞、タートル・ビーチ賞) 『RE ENGINE』 の認知拡⼤ 参加した学生からは、「RE ENGINE の性能の高さに驚いた」「企業で使っているエンジンを触る機会が嬉しい」「実際の現場での使い方や分業等のワークフローが知ることができた」といったポジティブなフィードバックを得られました。 コンペティション開催前の全く 『RE ENGINE』 を使ったことのない状態から、半年間のゲーム開発を通じて 『RE ENGINE』 を実際に使いこなし、作品を完成させる経験を積むことができました。その過程でカプコンの開発環境や技術力を肌で感じることができ、ゲーム業界への就職を目指す学生にとって貴重な経験となりました。カプコンも今回のコンペティションを通じて、 『RE ENGINE』 の認知度向上と利用ハードルの低減という当初の目的を達成することができました。 今後の展望 今回のコンペティションで得られた知見とフィードバックは、『RE ENGINE』 の今後の開発と展開に活かしていきます。外部ユーザーへの提供方法、サポート体制、チュートリアルの充実など様々な改善を進め、将来的により多くの開発者に 『RE ENGINE』 を使っていただける環境を整備していく計画です。今回の成功事例は、その過程において大きな進歩となりました。 カプコンでは、オープンカンファレンスでの技術発信、近畿大学での実習、そして今回の 『CAPCOM GAMES COMPETITION』 の開催と、継続的に外部への情報発信と社会貢献を行っており、このような取り組みを通じて「RE ENGINE開発で培われた技術やカプコンのゲーム開発などの情報を発信することで 面白いことにチャレンジしている企業だと知ってほしい」という思いのもと、来年以降も何らかの形で継続していきたいと考えています。 またAWS のクラウド技術を活用することで、地理的な制約を超えた教育機会の提供が可能となりましたので、今後もより多くの学生がゲーム開発の世界に触れられる環境を整備していきます。 今回の経験を活かし、カプコンは今後も AWS と協力しながら、『RE ENGINE』 の社外活用、産学連携の拡大、そして業界全体の発展に貢献できるよう新しい施策にチャレンジすることで、次世代のゲーム開発者育成と、ゲーム業界全体の持続的な成長に寄与することを目指します。 AWS では多くのゲーム会社様が AWS のクラウドサービスを使ってゲームを開発・運⽤するための技術⽀援をしています。またこのブログを始め、CEDEC や GDC などのゲーム業界イベントや AWS 主催のイベント ( Game Tech Night ) などでゲーム会社様向けの情報を発信しています。私たちの活動がゲーム業界の発展に貢献できる様、今後も技術とビジネスの両⾯から全⼒でお客様をサポートしていく所存です。 著者について 伊集院 勝 株式会社カプコン 基盤技術研究開発部 基盤開発支援室 室長 山田 拓海 株式会社カプコン 基盤技術研究開発部 基盤技術開発室 エンジニア 富澤 淳太 株式会社カプコン 基盤技術研究開発部 業務システム開発室 エンジニア 長田 義広 アマゾン ウェブ サービス ジャパン合同会社 ゲームエンターテイメントソリューション部 ゲームスペシャリスト シニアソリューションアーキテクト Zheng Shao アマゾン ウェブ サービス ジャパン合同会社 ゲームエンターテイメントソリューション部 ソリューションアーキテクト
この記事は「 Consolidate, modernize, transform: Edge computing for modern retail 」(記事公開日:2025 年 9 月 10 日)の翻訳記事です。 現在、小売業者は「計画的な資本投資を維持しながらインフラストラクチャをモダナイズする」という圧力の高まりに直面しています。お客様との対話から、一貫して3つのテーマが浮かび上がってきています。高額な店舗サーバーを統合する必要性、クラウドとエッジ全体で統一されたアーキテクチャを確立したいという要望、そして高度な店舗内アプリケーションをサポートする緊急性です。企業は、店舗を次世代の小売体験を提供できるインテリジェントなハブに変革しようとしていますが、既存のインフラストラクチャでこの取り組みをどのように始めればよいか苦慮していることがよくあります。本記事では、小売業者がエッジコンピューティングを活用して、既存の投資を最大限に活用しながらインフラストラクチャを統合し、統一されたクラウド-エッジアーキテクチャの確立を経て、次世代の店舗アプリケーションを実現する方法について説明します。 エッジコンピューティングのビジネスケース エッジコンピューティングは、クラウドネイティブな機能を店舗に提供することで、小売業者がインフラストラクチャを統合し、コストを削減し、高度なアプリケーションへの変革できるようサポートします。IDC によると、2028 年までに小売業者の 30% が AI チップを搭載した分散エッジコンピューティングを活用することで、店舗の IT コストを 10% 削減し、レイテンシーを低減し、IT 運用パフォーマンスを向上させるとされています。 予測可能な数値を見てみましょう。最新のエッジコンピューティングソリューションを使用することで、小売業者は以下を実現できます: 新しい店舗機能とアプリケーションのデプロイが 70% 高速化 サーバー統合による IT コストの 10% 削減 レイテンシーが 60% 向上し、アプリケーションパフォーマンスが向上 一元管理によるセキュリティとコンプライアンスの強化 レジリエンス、データ管理、ディザスタリカバリの改善 ビジネス価値を推進する主要ユースケース エッジコンピューティングは、実店舗の運営に即座に価値をもたらす 3 つの変革的な機能を実現します: 店舗サーバーの統合 多くの小売業者は、異なるアプリケーション(POS、在庫管理、セキュリティなど)のために、店舗ごとに 3〜5 台の個別サーバーを維持しています。 Amazon EKS Hybrid Nodes を使用することで、小売業者はこれらのワークロードを単一のモダンなエッジプラットフォームに統合できます。例えば、AWS パートナーの Spectro Cloud は、あるグローバルコーヒーチェーンが店舗サーバーのフットプリントを 60% 削減し、アプリケーションパフォーマンスを向上させ、管理の複雑さを軽減することを支援しています。この統合により、通常 10〜15% のコスト削減を実現しながら、将来のイノベーションの基盤を提供します。 モダンな POS(販売時点情報管理)システム 従来の POS システムは、専用ハードウェアと複雑なネットワークを必要とすることが多くありました。エッジコンピューティングを使用することで、小売業者は EKS Hybrid Nodes 上で実行されるコンテナ化されたアプリケーションを使用して、POS インフラストラクチャをモダナイズできます。AWS パートナーの Artisan Studios は、米国のクイックサービスレストランがクラウドネイティブ POS ソリューションをデプロイし、ハードウェアコストを 40% 削減しながら、アップデートの高速化と信頼性の向上を実現することを支援しました。このソリューションは、オフライン運用やリアルタイム在庫更新などの高度な機能もサポートします。 高度な店舗内アプリケーション エッジコンピューティングは、コンピュータビジョン、IoT、AI/ML ワークロードを含む次世代小売アプリケーションの基盤を提供します。小売業者は、クラウドサービスとのシームレスな統合を維持しながら、これらのワークロードをエッジで効率的に実行できます。例えば、小売業者は在庫モニタリングのためにリアルタイムで動画を処理し、IoT センサーで環境制御を行い、パーソナライズされた顧客体験のために AI モデルを実行できます。これらすべてが単一で統一されたコントロールプレーンを通じて管理されます。 Gartner によると、これにより小売業者は、単一のデジタルエクスペリエンスを通じて店舗データ、運用インテリジェンス、アプリケーションを統合した従業員向けの「スーパーアプリ」をデプロイできます。例えば、 GameStop は、すべての店舗、配送センター、本社の拠点にわたってタスクとコミュニケーションを統合する「現場従業員向けのスーパーアプリ」を使用しています。監査作業、ロス削減、従業員エンゲージメントにおいて測定可能な改善を実現し、より良い意思決定のためのリアルタイム分析を可能にしました。 AWS は、小売業者が Amazon EKS Hybrid Nodes に基づいたモダンなエッジコンピューティングプラットフォームを設計、および実装するための詳細な アーキテクチャガイダンス を提供しており、クラウドとエッジ環境全体で Kubernetes ワークロードの統一された管理を可能にします。さらに、軽量モデルとコンテナを使い小売拠点で AI および生成 AI 機能を活用するための ガイダンス も提供しており、お客様が実店舗に高度で革新的な機能をデプロイできるよう支援しています。AWS のリファレンスアーキテクチャと実装パターンは、ネットワーク接続、セキュリティ、可観測性、アプリケーションライフサイクル管理などの重要な考慮事項をカバーしています。各リファレンスアーキテクチャには、POS、在庫管理、コンピュータビジョンアプリケーションなどの小売ワークロード向けの具体的なガイダンスが含まれています。検証済みのパートナーソリューションと AWS Professional Services の専門知識を通じて、既存のアプリケーションと将来の小売イノベーションの両方をサポートできる、スケーラブルでレジリエントなエッジアーキテクチャを作成するための規範的なガイダンスを提供します。 図1 – AWS における小売業向けエッジコンピューティングのガイダンス 図2 – AWS におけるエッジでのAIのガイダンス 戦略的実装の考慮事項 ビジネスリーダーがエッジコンピューティングの導入を開始する際、成功への鍵は、3 つのフェーズを中心とした実用的で体系的なアプローチから始めることです: 評価 :まず、現在の店舗テクノロジー環境をマッピングし、統合とモダナイゼーションの機会を特定します。Spectro Cloud の評価フレームワークは、小売業者が既存のインフラストラクチャ、アプリケーション要件、運用プロセスを評価し、明確なモダナイゼーションロードマップを作成するのに役立ちます。 実装 :ニーズに最適なアプローチを選択します。新規店舗の場合、Spectro Cloud は AWS サービスとシームレスに統合される完全なエッジプラットフォームを提供します。既存の店舗の場合、Artisan Studios は、ビジネスの継続性を維持しながら、小売業者がインフラストラクチャを段階的にモダナイズすることを専門としています。多くの成功している顧客は、新規店舗では本格的なソリューションを実装し、既存店舗では段階的にアップグレードするハイブリッドアプローチを選択しています。 投資戦略 :短期的な価値と長期的な変革目標のバランスを取ります。店舗ごとのデプロイメントモデルにより、組織はそれぞれの店舗での導入から得られる知見を活かしながら、支出を効果的に管理できます。Spectro Cloud と Artisan Studios の両社は、コストと価値実現を一致させる柔軟な消費モデルを提供しています。 AWSとともに進む道 AWS は、エッジコンピューティングへの各組織の道のりが各社により異なることを理解しています。ご紹介したアプローチは、ビジネスリーダーにとって重要な実用的な考慮事項を示しています:すなわち、初期資本要件の最小化、既存投資の最大化、そしてソリューションが効率的にスケールできることの保証、です。 Amazon EKS Hybrid Nodes はエッジコンピューティングにおける画期的な進歩をもたらし、小売業者は既存のオンプレミスのインフラストラクチャを Amazon EKS クラスターのノードとして使用できます。これにより、クラウドとエッジ環境全体で統一された Kubernetes 管理が実現し、その運用が大幅に簡素化されコストが削減されます。 エッジコンピューティングの導入を加速するために、AWS は以下を提供しています: Amazon EKS Hybrid Nodes :オンプレミスのエッジロケーションと AWS クラウド全体で Kubernetes ワークロードを一貫して実行 AWS Outposts ファミリー :AWS のサービスと運用モデルをあらゆる施設に提供 AWS Professional Services :深い技術的専門知識と実装ガイダンス 検証済み パートナーソリューション :Spectro Cloud や Artisan Studios などのパートナーによる事前構築された小売ソリューション 次のステップ エッジコンピューティングは、イノベーションから必須要素へと進化しました。AWS の包括的なサービスとパートナーソリューションにより、大規模な資本投資や専門知識を必要とせずに、店舗の変革を開始できます。IDC が予測するように、「2026 年までに、小売ツールの 90% が AI アルゴリズムを組み込むようになる」でしょう。こんにち、堅牢なエッジコンピューティングインフラストラクチャを確立する小売業者は、これらの次世代アプリケーションを活用するための独自の立場に立つことができます。 競合他社に先を越されないようにしましょう。今すぐ AWS 担当者に連絡して、ディスカバリーセッションをスケジュールし、店舗でエッジコンピューティングの力を引き出す方法をご確認ください。小売業の未来は、インテリジェントで、レスポンシブで、エッジによって支えられています。変革をリードする準備はできていますか? その他のリソース: A deep dive into Amazon EKS Hybrid Nodes Use your on-premises infrastructure in Amazon EKS clusters with Amazon EKS Hybrid Nodes 著者について Justin Swagler Justin Swagler は、AWS のワールドワイド実店舗小売責任者として、実店舗小売のグローバル戦略とThought Leadership を統括しています。Justin は、消費財、小売、戦略分野において 15 年以上の経験を持ち、イノベーション戦略、小売オペレーション、製品開発、エグゼクティブリーダーシップにわたる専門知識を有しています。組織が戦略的にイノベーションを起こし、消費者体験を再発明することを支援することに情熱を注いでいます。イリノイ大学アーバナ・シャンペーン校で学士号を、ケロッグ経営大学院で MBA を取得しています。 Jacob Cravinho Jacob Cravinho は、AWS のエンタープライズソリューションアーキテクトです。小売業界に焦点を当てたソフトウェアエンジニアリングのバックグラウンドを持っています。チャレンジを楽しみ、常に次の素晴らしい食事を探求しています。 Leland Johnson Leland Johnson は、旅行・ホスピタリティ分野を担当する AWS のシニアソリューションアーキテクトです。ソリューションアーキテクトとして、スケーラブルで安全なクラウドソリューションを設計することで、お客様のクラウドジャーニーをガイドする重要な役割を果たしています。仕事以外では、音楽演奏や軽飛行機の操縦を楽しんでいます。 Will Strye Will Strye は、小売・消費財分野を担当する AWS のシニアソリューションアーキテクトです。ソリューションアーキテクトとして、小売業界のリーダーと協力して革新的なクラウドソリューションをアーキテクトし、顧客体験を向上させ、ビジネス変革を推進するスケーラブルでレジリエントな設計を提供するとともに、テクノロジーの未来に関する戦略的ガイダンスを提供しています。仕事以外では、アート、音楽、執筆を楽しんでいます。 本ブログはソリューションアーキテクトの羽生田が翻訳しました。原文は こちら です。
本ブログは エスツーアイ株式会社様 と アマゾン ウェブ サービス ジャパン合同会社 が共同で執筆いたしました。 みなさん、こんにちは。AWS ソリューションアーキテクトの齋藤です。最近、多くのお客様から「AI コーディングツールをどう活用すればいいのか」「開発効率を向上させたい」というご相談をいただく機会が増えています。特に、生成 AI を活用した開発プロセスの改善への関心が高まっており、実際の導入事例を求める声を多く耳にします。 その一方で、「AI コーディングツールを使いたいが、何から始めればいいのかわからない」「実際にどれくらいの効果があるのか不安」「若手エンジニアへの展開方法が見えない」といった課題をお持ちの方も多いのではないでしょうか? 今回ご紹介する事例は、エスツーアイ株式会社様が AI IDE(統合開発環境)の「 Kiro 」を活用して、わずか 10 日間で経費精算システムを開発された事例です。ベテランエンジニアが実際の業務の空き時間を活用しながら、AI との協働により効率的な開発を実現された取り組みをご紹介します。 お客様の状況と課題 エスツーアイ株式会社様は、愛知県に本社を置き、製造業向けのシステムインテグレーションサービスを提供されている企業です。同社では、経営層が AI コーディングの重要性を認識し、毎週のように「AI コーディングをやらないと取り残される」という危機感を営業やエンジニアに伝えていました。しかし、現場のエンジニアは日々の業務に追われ、なかなか新しい技術に取り組む余裕がない状況でした。 開発効率面での課題 開発期間の長期化: 従来の開発手法では、小規模なシステムでも相応の期間と工数が必要 人月単価の競争力: 業界標準の 100〜110 万円程度の人月単価から、さらなる付加価値の創出が求められる スキル習得の機会不足: 現場業務が忙しく、新しい技術やツールを学ぶ時間が確保できない 組織的な課題 AI ツール活用のノウハウ不足: 様々な AI ツールを検証していたものの、実プロジェクトでの活用方法が不透明 若手エンジニアへの展開方法: ベテランエンジニアが個人的に試すことはできても、組織全体への展開方法が見えない 開発プロセスの標準化: マニュアルやドキュメントの更新が追いつかず、属人化が進んでいる ソリューション・構成内容 これらの課題を解決するため、エスツーアイ株式会社様は「Kiro」を活用して、出張経費精算システムの開発に取り組まれました。 Kiro を用いた設計画面の様子 申請された内容を確認する画面 申請された内容の月次レポートを確認できる画面 開発アプローチ 10 年選手のベテランエンジニアが、AI IDE の情報収集を行い、Kiro の存在を知ったことがきっかけでした。会社として検証チームを立ち上げ、社内の課題である「出張経費精算の煩雑さ」を解決するアプリケーションを、AI コーディングで開発することを決定されました。 開発プロセスと工夫 1. 初期段階:要件定義の試行錯誤 当初は就業規則の PDF を読み込ませて、概要設計から一気に進めようと試みました。しかし、これだけでは十分なアウトプットが得られないことが判明しました。 課題として感じられた点: PDF を直接読み込めず、テキスト化が必要だった 就業規則だけでは、システムの詳細仕様を生成できなかった 2. Vibe と Spec の使い分けの発見 Kiro には「Vibe」と「Spec」という 2 つの開発モードがあります。 Vibe モードは、チャット形式で AI エージェントに問い合わせができる機能です。コーディングだけでなく、ドキュメント生成など幅広いタスクに対応できます。素早いやり取りで、即座にフィードバックを得ながら開発を進められます。 Spec モードは、Kiro が提唱する「仕様駆動開発」を実現するモードです。Requirements(要件定義)、Design(設計)、Tasks(実装タスク)の 3 フェーズで構造的に開発を進めることができます。仕様と実装の同期を保ちながら開発を進められるため、ドキュメントとコードの整合性を維持しやすいのが特徴です。 お客さまが開発を進める中で、これらの使い分けが重要であることを発見されました。 お客様における Vibe の使いわけ: コードの自動生成に特化 トランザクション的に素早く対応できる ただし、監査ログやドキュメントの更新はされない お客様における Spec の使いわけ: 読み込んだ仕様書を理解・判断してコードを生成 マニュアルやドキュメントへの反映も可能 処理に時間がかかる場合がある 最適な活用方法: 現場業務の合間に Spec で処理を投げておき、本業務を進める その間に Spec が処理を完了させる 細かいコーディング部分は Vibe で素早く対応 マニュアルやドキュメントが必要な箇所は Spec を活用 この使い分けにより、ドキュメントも含めた完成度の高い成果物を効率的に作成できました。 3. 段階的な機能実装 フェーズ 1 で実装した機能: 出張費用と領収書をアップロード 経理担当者による承認・差し戻し機能 基本的なワークフロー管理 今後の展開(フェーズ 2 以降): 路線検索 API との連携による自動料金計算 AI OCR による領収書の自動読み取り 既存経理システムとの連携 当初は路線検索 API や AI OCR の実装も検討しましたが、開発期間を考慮し、まずは基本機能に絞って完成させる判断をされました。 技術的なポイント セキュリティへの配慮 社内の就業規則を AI に学習させるにあたり、データセキュリティへの懸念がありました。しかし、Kiro はオプトアウトの設定により、顧客データが学習されない仕組みになっていることを ドキュメント で確認し、安心して利用できました。 マニュアルの自動生成 Spec を活用することで、コードだけでなくマニュアルも自動生成されました。完成度は約 70% でしたが、ドキュメント化の工数を大幅に削減できたことは大きなメリットでした。 導入効果 Kiro を活用した開発により、以下の効果を実現されました: 1. 開発期間の大幅短縮 実働約 10 日間で基本機能を実装: 1 日あたり 1〜2 時間の作業時間で完成 ゼロから完全新規開発: 既存システムの改修ではなく、0→1 からの開発を実現 従来手法と比較して、大幅な期間短縮が見込まれる(具体的な比較は困難だが、体感として数倍の効率化) 2. ドキュメント品質の向上 マニュアルの自動生成により、ドキュメント作成工数を削減 監査ログの自動記録により、開発プロセスの透明性が向上 ドキュメントとコードの同期により、メンテナンス性が向上 3. AI コーディングツールの実践的な知見獲得 Vibe と Spec の使い分けノウハウを獲得 現場業務と並行した開発手法の確立 若手エンジニアへの展開に向けた具体的な課題が明確化 4. 今後の展開への足がかり 本格的な AI コーディングツールの導入に向けた実績作り 経営層の期待に応える具体的な成果の提示 他のプロジェクトへの横展開可能性の確認 開発における発見と課題 ポジティブな発見 空き時間での開発が可能: Spec に処理を投げておき、本業務を進める間に処理が完了するため、効率的に開発を進められた ドキュメント管理の自動化: コードとドキュメントが連動して管理される利点を実感 段階的な学習: 実プロジェクトで試しながら、ツールの特性を理解できた 今後の改善課題 テスト自動化の理解深化: 単体テストや結合テストの自動化について、さらなる理解が必要 チーム開発への適用: 今回は一人での検証だったが、チーム開発でどう活用するかの検討が必要 CI/CD との統合: GitLab などのバージョン管理やリリース管理との統合方法の検討 若手への展開方法: 組織としてどのように若手エンジニアに展開していくかが最大の課題 今後の展望 エスツーアイ株式会社様では、今回の成功を踏まえ、さらなる展開を計画されています。 短期的な目標 経費精算システムの機能拡張: 路線検索 API、AI OCR、経理システム連携の実装 他プロジェクトへの適用: 顧客向けシステム開発での Kiro 活用 若手エンジニアへの教育: ベテランの知見を活かした組織的な展開 中長期的なビジョン 開発プロセス全体の改革: CI/CD パイプラインの構築と AI コーディングツールの統合 人月単価の向上: 開発効率化により、130万円、140万円、150万円といった高付加価値サービスの提供 競争力の強化: AI 活用により、2〜3割の工数削減を実現し、市場での競争優位性を確立 特に注目すべきは、AWS 上での総合的な開発環境の構築です。GitHub、 AWS CodeBuild 、 AWS CodeDeploy などを組み合わせた CI/CD 環境に、AI コーディングツールを統合することで、開発から保守運用までを一貫して効率化する構想を持たれています。 お客様の声(エスツーアイ株式会社様) 弊社は、製造業を中心とした IT コンサルティングからアウトソーシングまでシステム開発を行ってきました。そんな中で昨今の AI コーディングツールの進化を目の当たりにしています。そんな中で我々自身も進化すべく、AI IDE として Kiro を試してみることとなりました。 弊社エンジニアの所感として「ツールの利用方法を正しく理解することで開発生産性の向上は見込めそうだ」という感触を得るに至りました。今後は AI IDE の活用範囲を広げていく計画もあり、コンサルティング段階での利用なども視野に入れてお客様へのサービス提供価値向上に向けて取り組んでいきたいと考えております。 お問い合わせ・資料請求 | エスツーアイ株式会社 – S2I – 愛知県 東浦町 まとめ 今回は、Kiro を活用して、わずか 10 日間で経費精算システムを開発されたエスツーアイ株式会社様の事例をご紹介しました。 特に注目すべきは、以下の 3 点です: 現実的なアプローチ: 本業務の空き時間を活用し、無理のない範囲で AI コーディングツールを試せることを実証 実践的な知見の獲得: Vibe と Spec の使い分けなど、実際に使ってみないと分からないノウハウを蓄積 組織展開への示唆: 個人の検証から組織全体への展開に向けた、具体的な課題と方向性の明確化 AI コーディングツールは、適切に活用すれば開発効率を大幅に向上させる可能性を秘めています。しかし、その実現には「まず試してみる」ことが重要です。エスツーアイ株式会社様の事例は、中小企業でも AI コーディングツールを活用して成果を出せることを示す、貴重な先行事例となっています。 同様の課題をお持ちのお客様、特に「AI コーディングツールの導入を検討している」「開発効率を向上させたい」「若手エンジニアのスキルアップに課題を感じている」といったニーズをお持ちの方には、非常に参考になる事例だと思います。 また、AWS では、生成 AI を活用したソリューション開発を支援するさまざまなイベントやプログラムを定期的に開催しております。技術セッションやハンズオンを通じて実際に技術に触れることができますので、ぜひご参加ください。 https://aws.amazon.com/jp/events/ ご関心のあるお客様は、ぜひ AWS までお問い合わせください。本事例の詳細や、AI コーディングツールの導入支援につきましては、AWS ソリューションアーキテクトまでお気軽に お問い合わせ ください。 著者について 齋藤 拓巳 ソリューションアーキテクトとして幅広いお客様の AWS 導入支援を担当しています。AWS Lambda や Amazon API Gateway などのサーバレスのサービスが好きです。
生成 AI の進歩は著しいものの、医療機関における展開はまだ途上にあります。東京慈恵会医科大学が中心になり行った「 医療現場における医療AIの導入状況の把握、及び導入に向けた課題の解決策の検討のための研究 」では、翻訳等の一般的な AI 製品の導入が 2 割前後の一方、看護サマリやケアプラン作成といった業務にかかわる領域での導入率は 1% 未満となっています。本調査における「導入」は買うことが前提であり、「自ら作る」ことは考慮されていません。 医療機関が自ら生成 AI を活用しシステムを作ることは非現実的でしょうか? 非現実的な理由はいくらでも挙げることができます。IT を専門に扱う人材がいないかいても数名であること、システムには医療情報ガイドラインに基づくセキュリティに万全を期す必要がありリスクを冒すことができないこと、電子カルテをはじめとしとした様々なシステムがデータを占有しベンダの許可なしには連携や接続が困難なこと、なにより 2025 年時点で自治体病院の 8~9 割が赤字という予算の問題です。これらの制約の中、内製化を推進できるのは一部の病院のみとみなされています。 しかし、現実は時に予想よりも “非現実的” です。2025 年 10 月に開催された企業の内製化推進を支援する ANGEL Dojo 2025 の頂上決戦、最終選考に残った 4 企業のうち 1 つは 兵庫県立リハビリテーション中央病院 様でした。社会福祉法人の病院であり、必ずしも資金が潤沢で人材が豊富というわけではありません。頂上決戦の場で Well Architected に則ったシステム構成を話すのは、 90 日前には IT 知識ゼロの状態から始めた総務部の方でした。頂上決戦は逃したものの中間発表 1 位に選ばれたのは、 熊本中央病院 様でチームは看護師をはじめとした現場の方で構成されていました。 頂上決戦の様子はこちらから参照できます 。 “DX は夢ではない” と語られていたのが、ANGEL Dojo 2025 で 2 病院のチャレンジを支援する中で私が最も心に残った言葉です。両病院の挑戦が実際に病院の中で実を結ぶにはまだ道のりがありますが、本ブログでは途中経過としてどのように病院様と AWS パートナーが協力し非現実的と思われる地方病院でのシステム内製化を現実にしていったのか紹介します。 ANGEL Dojo とは ANGEL Dojo は企業の内製化を支援するための AWS のプログラムです。本プログラムの特徴として、企業自身による “完全内製化” ではなく内製化支援推進 AWS パートナーが伴走する “ 共創型内製化 ” の実現を目指しています。現場の課題やビジネス知識に造詣が深いユーザー企業が企画を主導し、システム開発に長けた AWS パートナーが開発・運用を主導しつつ、お互いの専門領域に歩み寄り共通言語を醸成することで「阿吽の呼吸」でスピード感のあるシステム開発を行います。 過去参加されたお客様では、 戸田建設様が DX 推進室の取り組みを ANGEL Dojo で担当した Serverless Operations 様と拡大しており 、 エフピコ様では営業担当者の日報作成・分析を行うスマートフォン対応アプリケーションを内製化し 事例化しています。戸田建設様が事例インタビューで 「 予想以上のスピードで、たくさんの内製化プロジェクトが進んでいます。当社の中でも DX 推進室に対して見る目が変わり、いろいろな部署から相談が来るようになっています 」と語っていただいている通り、阿吽の呼吸により必要なものをスピード感もって実装できることが共創型内製化を実現する大きなメリットとなります。 全体のプログラムは次のようになっています。AWS = 開発というイメージがあるかもしれませんが、開始 1 ヵ月ほどの長い時間をかけて「何を作るべきか?」を形にするための講義・実践に当てています。“Working Backwards ワークショップ” は、Amazon の実践するプロダクト開発プロセスである Working Backwards を演習形式で学びます。Working Backwards はお客様の声、病院であれば患者や現場の医師・看護師の声を聴く “Listen” というフェーズから始まり声の裏側にある課題を解決するソリューションを「プレスリリース」という形で具体化する点に特色があります。設計・開発に入る前には AI 開発エージェントのワークショップを行い自然言語から開発を支持する方法、技術的な質問を解決する方法を学んでいただきました。 3 ヵ月の間、お客様 3~4 名と内製化支援推進認定を受けた AWS パートナー 3~4 名が 1 つのチームとなりプログラムの支援を受けながら「 実際の課題 」を解決するためのシステム開発に取り組みます。今回、両病院はスマートフォンによる院内情報の参照など DX に向けた施策を進める中で ANGEL Dojo の存在を知り、院長自身から参加に強い意欲を示して頂いたことから参加頂きました。90 日間という長期のプログラムで、しかも期間中はメンバー全員が週 2 日の全日を活動に費やす必要があります。病院様側の参加メンバーは普段看護師や理学療法士を担当されている方が中心で、患者の方に向かい合う貴重な時間を投資を頂きました。 ANGEL Dojo で参加病院様が取り組んだテーマ ANGEL Dojo では、兵庫県立リハビリテーション中央病院様は 富士ソフト株式会社様 と 株式会社アンチパターン様 とリハビリのスケジュール自動化に取り組まれました。この背景には、休日や休暇・欠勤などによるスケジュールの再作成によりセラピストが本来リハビリに当てるべき時間が奪われ、患者のリハビリ機会及び病院収益の最大化のボトルネックになっていることがあります。兵庫県立様のチームが Working Backwards を通じ作成したプレスリリースを一部抜粋します。 そして、熊本中央病院様は キヤノンITソリューションズ株式会社様 と医療文書作成時間の削減に取り組まれました。この背景には、月 700 名に登る患者様の退院に伴い 月 2,000 件以上の文書作成、時間にして 1,000 時間超の業務が発生しており 80% 以上のスタッフが肉体的・精神的ストレスを感じている ことがありました。熊本中央病院様のチームが Working Backwards を通じ作成したプレスリリースを一部抜粋します。 (ぜひ、両病院のプレスリリースについて冒頭だけでも読んでみてください!) (ぱっと見で情報をつかむのは難しいですが、「読む」とその情報量の密度に驚かれるのではないかと思います) Working Backwards では、パワーポイントの「見た目」で「分かった気になる」ことで失われてしまう細かい数字、背景、厳しい質問への回答など緻密・厳密な情報量を維持するため文書・プレスリリースの形を用いているのが特徴です。2004 年に創業者のジェフ・ベゾスが Power Point を禁止にしたという逸話を聞いたことがある方もいるかもしれませんが、実際に Amazon / AWS 内で今でも用いられているプロセスです (対外発表などでは Power Point も使いますが)。 医療機関ならではの課題の解決 ANGEL Dojo 期間中に病院の実務に使えるシステム構築まで進めるためには、用意されたプログラム以外の対策が必要でした。ANGEL Dojo のプログラムに加え実施した講義や施策を紹介します。 基礎的な IT 知識の獲得 今回、両病院とも IT 知識の獲得から始める状態でした。そのため、ANGEL Dojo 前に事前学習のコンテンツを用意し学習をしていただきました。AWS で開催した過去の講習動画が中心でしたが、開発者向けであったためわかりにくい概念について病院の皆様にイメージしてもらいやすい解説で説明を補足することで皆さんの理解を促しました。こちらは ANGEL Dojo 開始前のランチタイム勉強会として 5~6 回ほど実施しました。 身近な事例でクラウドのコンセプトを理解する より 医療情報ガイドラインの理解と実践 医療機関でのシステム開発においてセキュリティの確保は重要な要件です。一方、セキュリティへの過度な懸念はベンダー依存を招き自主的な情報活用を阻む温床になっています。医療機関のシステムに何が求められているか具体的に理解し、どうすれば要求事項を満たせるのか明確な道筋をつかむことは内製化において必要不可欠なマイルストンとなります。 そこで、ANGEL Dojo 期間内にヘルスケア領域を担当する Solution Architect から総務省・経済産業省、厚生労働省から提示されている「医療情報ガイドライン」について講義を頂きました。これには、支援を行う AWS パートナーの方にも参加いただき知識を揃えて頂きました。 医療情報システム on AWS より こちらの講義の内容は AWS ブログで公開しています。 医療情報ガイドラインの改定から読み解くクラウド化 医療情報ガイドラインをクラウド上で実践する – ネットワーク編 Part 1 医療情報ガイドラインをクラウド上で実践する – ネットワーク編 Part 2 医療情報ガイドラインをクラウド上で実践する -概要編- 医療情報ガイドラインをクラウド上で実践する -詳説編- さらに「明確な道筋」をつかむため、リスクの洗い出しと対処を実践するための「脅威モデリング」を演習形式で実践頂きました。脅威モデリングではデータフローを可視化したうえで「何が起こりえるか?」をフレームワークを活用しチームで洗い出しをしていきます。次のスライドのように業務担当者、システム担当者、知見がある人は攻撃側の視点に、と様々な知識を持つチームのメンバーが意見を出し合うことがリスクを洗い出すうえで大きなポイントとなります。 脅威モデリングの理解と実践 より 業務に詳しい現場の方とシステムに詳しい AWS パートナーの共創型チームと脅威モデリングの愛称は非常によく、私達も予想しない効果、役立ったというフィードバックを頂きました。 1つのフローに対して、 短時間でもあれだけのリスクを洗い出せることに驚きました 。作成ばかりで病院側で脅威について考える機会が少なかったので、とても貴重な時間でした。また、意見出しもしやすく、学びにもなり、とても有意義な時間でした。 先週のWAレビューはリスク、AWSサービスについての知識が乏しく、脅威・リスクのイメージが持てず、正直ついていけなかったです。本講義では、 一般用語に落とし込んでご説明、課題提示をしていただけた ので、脅威モデリングの思考過程や、我々の開発、病院環境の課題をよく理解することができ、大変勉強になりました。ありがとうございました。 セキュリティはすごく 自分にとって遠いものだと感じていましたが、今すごく身近なものになっています 実際に意見を出し合って実践できたので次回からも自信をもって行えます! システムのセキュリティ管理は専門家が知らないところで実装するものではなく、 自分達自身も主体的に加わり関与することではじめて実効性のある・ガイドラインが本来意図するところのセキュリティ対策になる ことを実感頂くことが出来ました。 院内システムとの連携 AWS 上で構築したシステムが院内のデータを扱うには当然連携が必要です。データの取得・ネットワークを通じた連携を実現するには導入を担当したベンダーの方々と調整が必要です。ANGEL Dojo で実装するシステムの要件と設計が固まった 9 月の段階から早めにベンダーとのやり取りを開始し、ANGEL Dojo 期間内のアーキテクチャーレビューに同席いただくなど具体的な連携に向けた議論を進めました。こちらは現在進行形であり、現在も実現に向けた調整を行っています。先に挙げた通り、私達はよく言われる”セキュリティ”が病院における情報活用の真のハードルではないと確信しています。病院様が危機感と熱意を持ち取り組まれる中で、同じ温度感で対応いただくことは大きな課題の一つです。現在、病院単独からユーザー会や地域を通じ総体で声を上げるなど様々な方策を進めています。 内製化できる自信を醸成する 両病院とも初めてのシステム開発に取り組む中で、「本当にできるのか」「自分に役割はあるのか」といった不安は大きかったと思います。実際にキックオフの前に大きな不安があるという話も個別に伺いました。そうした中、ポジティブかつ意欲的に取り組めるよう、内製化支援推進の AWS パートナーである富士ソフト株式会社、株式会社アンチパターン様、キヤノンITソリューションズ株式会社は様々な工夫をされていました。 素早く動くプロトタイピング : まず動くものを作る方針。仕様変更を恐れず、リリースを目指す姿勢を持つ 素直なコミュニケーション : 「わからないことを正直に伝える」ことの大切さ共有、専門用語を排した解説 チーム組成 : クレイジー8 を用いたメンバー全員でのアイデア発案、メンバー独自の専門性・得意分野を確立 チームで動く : 外部からの優先度指示よりもチーム内の方針を優先、プレッシャーがあっても一丸となる姿勢 短いサイクルでのアウトプット : LT形式で頻繁に発表し、考えを固めすぎない 生成 AI の活用 : Generative AI Use Cases を使ったプロンプトエンジニアリングの練習、習熟、 Kiro や Amazon Q Developer を活用した素早いコード解析と画面共有 わからないことをわからないと率直に言える心理的安全性を確立し、動くものをなるべく早く目にすることで不安を解消し、一人一人が役割を見出せるように強みを発見するコミュニケーションを取られていました。富士ソフト様、アンチパターン様、キヤノン IT ソリューションズ様のチームメンバーは医療領域のエキスパートというわけではありませんでした。しかし、 共に学び専門的な IT 知識をもって意欲的に・ポジティブに支援してくれるパートナーの存在が十分すぎるほど内製化を加速させる ことが病院様メンバーの表情的にも、成果的にも証明されたと感じています。 成果 兵庫県立リハビリテーション中央病院様は、生成 AI モデルへ安全にアクセスできる Amazon Bedrock を用いプロンプトを工夫した生成 AI によるスケジュール作成でを実装し、 60% の自動化ができることを確認しました 。これにより 土・日のスケジュール作成に費やす時間・人的コスト (1病棟・1日分あたり) 100 分を 20分と 80% 短縮し人員も 1/3 で済む見込みです 。さらに、空いた時間がリハビリの提供に当てられることで 月当り約36単位 (88,200円) 収益の増加 が得られる見込みで運用保守費用と比べても費用対効果がペイすると試算できています。リハビリ以外のスケジュール業務も多々あり、応用できれば更なる効率化に繋がります。 熊本中央病院様は、退院サマリ等の文書作成に生成 AI を活用することで月 800 時間の文書作成時間の削減ができることを確認しました。より効率化はもちろん診察科の違いを吸収できることを確認されています。整形外科、内分泌科など複数の診療科でそれぞれ要件に応じた文章が作成できることも確認ができています。さらに、脅威モデリングに基づくセキュリティ対策も実装されています。 両病院とも、まだ補完すべき点はあるものの「実際に動く」「効果に確信が持てる」「セキュリティ要件を実装した」システムの実装を 90 日で成し遂げられました。 共創型内製化の効果 病院様、AWS パートナー様にインタビューして得られたエピソードを紹介します。 看護師の方が、画面上にどんなボタンやメニュー、また項目があると医師を含め操作しやすいか検討。さらに、 自ら直接色やレイアウトについて AI 開発エージェントを使いイメージを形にした 病院の事務員の方が、早い段階から病院内のセキュリティルールを調査し 業務フロー上のリスクを洗い出した 。AWS パートナーがそこからセキュリティチェックリストを作成し、脅威モデリングの講義を受けチーム全体でブラッシュアップした 看護師の方が、当初書き方に明確なルールがない診療情報提供書について AWS パートナーと会話することで 必要な条件やゴールの明確化ができるようになり安定して文書生成ができるプロンプトを書けるようになった 理学療法士の方が、データから機微情報をフィルタする機能を AI 開発エージェントで自ら改善し、稼働環境に反映された 院長へのインタビューでは「 本来的にシステムで何が出来て、どの程度のコストでできるのか理解できるようになった 」ことが大きいと回答いただいています。システムの実装という開発スキルに留まらず、ベンターからの仕様やコストについて「 健全に疑い 」、セキュリティを「 健全に怖がる 」ことで自信をもって切り返せるようになった点を評価いただいているということです。病院でのシステム導入や改修は高額かつ長期になることもしばしばあります。その時に、ANGEL Dojo を通じ身に着けた「IT 領域におけるコミュニケーションの取り方」は限られた IT 予算の最適化という具体的な成果につながる可能性があります。ANGEL Dojo の 3 ヵ月という長期間でなくても、この効果を実感頂けるプログラムが検討できるのではないかと考えています。 次のステップ ANGEL Dojo は 10/31 の頂上決戦をもって終了しましたが、病院での実用にむけた活動は続いています。その中で、ANGEL Dojo の中で培った力は必要不可欠なものばかりと考えています。 実現したいことを Working Backwards で考え、プレスリリースという文章にする力は RFI/RFP を書く際に必要な力そのものです 生成 AI のアシスタントにより実現したいものの設計や実装についてより具体的なイメージを得て、実装難易度にあたりをつける力はベンダー等から提示される作業や見積もりを健全に疑う力に繋がります 医療情報ガイドラインについての知識とリスク対策の経験は、情報漏洩や不正アクセスといった時に内製化を拒む脅し文句に対し健全に対処し実現に向けた道を拓く力に繋がります なにより、90 日間という長いようで短い期間、学び形あるものに仕立て発表した経験は「 やってやれないことはない 」という自信につながったのではないかと思います。90 日はシステムの開発を依頼したら要件のヒアリングや見積もりや折衝で簡単に飛んでしまう期間であり、それに比べ本気の内製化に取り組み IT 知識を獲得することが費用対効果的にも一考に値すると感じています。 AWS では、2025 年 11 月に開催された 医療情報学連合大会 にて両病院の取り組みを紹介させて頂きました。AWS の展示ブースでご紹介をしていたところ、グループ全体で参加したいが次はいつ開催か? 数十病院単位で参加したい、など強い関心を頂きました。展示と共に、次に向けた機会創出も行っています。医療情報学連合大会では多くの医療にかかわる企業が参加するため、両病院をお招きし展示の様子を見て頂くと共に “共創型内製化” の次の一手に欠かせないソリューションやパートナー 3~4 社様との引き合わせを実施しました。ispec様の、病院内ネットワークとクラウドサービスをセキュアに接続できる CloudSail には両病院とも AWS で構築したソリューションと院内システムの連携を実現する有効なソリューションとして関心を持たれていました。ispec 様はデジタル庁標準型電子カルテのプロダクトワーキンググループにも参加されています。ANGEL Dojo でに身につけた知見をもとに、取り組みに不可欠なパートナーやサービスを自分達自身で選べるようになったのも効果の一つと考えています。 AWS を使ったシステム開発というと IT 専門家の領分でとても縁遠いと感じられている方もいると思います。しかし、自然言語で開発を進められる Kiro、AWS のリソースを自在に扱える MCP Server の登場により必ずしもシステム開発は経験ある会社の専売特許ではなくなりつつあります。ANGEL Dojo が目指す企業とパートナーによる 共創型内製化 は、改革が喫緊である医療の現場で求められるスピード感を出すための効果的かつ「現実的な」手段になっています。先日、 医療機関自ら 4 日で内製化を実現した例として 春日井市民病院 様の事例が公開されました 。病院内で Amazon Q Developer を活用し病床管理システム、医療文書作成支援アプリを実装されています。 内製化はまさに “夢ではない”ところまで来ています。日本に住む一人として、特に自治体病院の窮状、9 割以上が赤字経営と報道されている現実を理解しています。AWS では 国立大学法人浜松医科大学様との包括連携協定締結 や、先端技術の提供・支援で 神戸大学との包括連携協定締結 を行っています。ANGEL Dojo の取り組み、また共創型内製化に関心がある方は AWS までぜひご連絡ください。 著者プロフィール 久保 隆宏 (Takahiro Kubo) は AWS Japan の機械学習領域のデベロッパーリレーションを担当しており、「機械学習をするなら AWS 」と感じて頂くべく機械学習・生成 AI を実用につなげるための支援と情報発信、フィードバックの収集による AWS サービスの改善を行っています。
本ブログは 明治ホールディングス株式会社様 と Amazon Web Services Japan 合同会社が共同で執筆いたしました。 みなさん、こんにちは。AWS ソリューションアーキテクトの羽生田です。 昨今、多くのお客様から生成 AI を活用した開発生産性向上についてご相談いただくようになりました。特に企業の DX 推進を担う部門においては、限られたリソースでより多くの価値を創出するため、AI 活用による効率化が重要な課題となっています。明治ホールディングス株式会社様は、食品と医薬品事業を中核とした総合企業として、デジタル変革を通じた事業価値向上に積極的に取り組まれています。今回は、同社グループ DX 推進部 AWS 事務局が Amazon Q Developer を段階的に導入し、複数のチームで 80-90% の生産性向上を実現した事例についてご紹介します。 企業概要とデジタル変革への取り組み 明治ホールディングス株式会社 は「明治」ブランドで親しまれ、毎日の生活に欠かせない食品・医薬品事業を展開し、健康と安心を届ける総合企業です。傘下に株式会社 明治・Meiji Seika ファルマ株式会社、KM バイオロジクス株式会社があり、グローバル展開も積極的に行っています。同社のグループ DX 推進部 AWS 事務局は、明治グループ全体における AWS 基盤の構築、管理と運用を司る CoE 機能を持った組織です。AWS 上での基盤運用チームと社内システム開発支援を通じて全社のデジタル変革を推進する重要な役割を担っており、2025 年 12 月現在で 300 を超える AWS アカウントを 20 名のメンバーで管理しています。 AWS 事務局では社内の複数プロジェクトを横断的に運用・支援しており、効率的な開発と運用プロセスの確立が常に求められていました。 課題:限られたリソースでの開発・運用効率化 グループ DX AWS 事務局では、多数のAWS アカウントを 20 名体制で管理する中で、以下のような構造的な課題に直面していました: ドキュメント整備の負荷と品質のばらつき : 設計書や構成図の作成・更新に多くの時間を要し、コードとの整合性維持が困難。標準化が不十分で成果物の品質が属人的になりがち 開発業務における手作業の非効率性 : 社内標準に準拠したインフラコードの作成やレビューに時間がかかり、本来注力すべき戦略的な企画・設計業務に十分なリソースを割けない 運用業務の属人化 : 障害対応やセキュリティ監視、技術情報の検索において特定メンバーの知識に依存し、組織全体での知識共有が困難 管理業務の煩雑さ : 多数の AWS アカウントやプロジェクトの管理に手作業が多く、定型業務に時間を取られる状況 これらの課題により、本来注力すべき戦略的な企画と設計開発業務に十分なリソースを割けない状況が続いていました。 解決策:Amazon Q Developer の段階的導入 Amazon Q Developer とは Amazon Q Developer は、開発者がAWS上でより効率的に作業できるよう設計された包括的な AI 支援ツールです。自然言語処理、コード生成、セキュリティスキャン、運用支援など多岐にわたる機能により、開発プロセス全体を通じて生産性の向上とエラーの削減を実現します。多様なプラットフォームでの利用可能性と柔軟な料金体系により、個人開発者から大規模チームまで幅広いニーズに対応しています。 Amazon Bedrock を基盤として構築されており、AWS の各種サービスの理解、構築、拡張、運用を支援します。開発者は自然言語を使用して AWS アーキテクチャ、リソース、ベストプラクティス、ドキュメント、サポートに関する質問を行うことができ、利用している AWS アカウントについて文脈に応じた実用的な回答を得ることができます。 統合開発環境(IDE)で使用する場合、Amazon Q Developer はソフトウェア開発支援機能を提供します。コードに関する対話、インラインコード補完、新規コード生成、セキュリティ脆弱性のスキャン、言語アップデート、デバッグ、最適化などのコード改善を行うことができます。 導入アプローチ AWS 事務局は生成 AI コーディングエージェントである Amazon Q Developer の有用性については注目していたものの、大規模な展開の前に AWS アカウントへの接続と権限のコントロールについて懸念を持っていました。ユーザ登録や IAM ロールの定義などを新規に定義する必要があったため、多数のメンバーへのサブスクリプション配布には慎重を期しました。段階的導入によりリスクを最小化しながら効果を最大化する方針を固め、3 段階での導入アプローチを採用しました。 フェーズ 1:AWS 事務局での検証(2025 年 5 月 – 7 月) AWS 事務局の 2 名でパイロット導入 ドキュメント整備と共通プロンプトの作成に注力 社内Gitでの共通プロンプト管理体制を構築 フェーズ 2:限定プロジェクトでの実証( 2025 年 7 月 – 8 月末) 5 名のプロジェクトチームに展開 既存バッチ見直しと AWS 利用料算出の実プロジェクトで検証 具体的な効果測定と改善点の抽出 フェーズ 3:事務局・部内全体への展開( 2025 年 8 月末-現在) 申請ベースで事務局だけでなく部内の 35 名超に展開 週次オフィスアワー : AWS ソリューションアーキテクトによる質問対応 このアプローチにより、それぞれのフェーズにおいて懸念事項をひとつずつ解決していきながらユーザ数を増やし、生成 AI コーディングエージェントの利点をそれぞれのメンバーが享受し、共有できる土壌作りも同時に行うことができました。 具体的な活用事例と成果 1. ドキュメント・設計資料の自動化 課題 : 設計書や構成図の作成・更新に多くの時間を要し、コードとの整合性維持が困難 活用例 : AWS CloudFormation テンプレートから設計書を自動生成 AWS 公式アイコンを使用したアーキテクチャ図の自動作成 コード変更時の設計書・構成図の自動更新 AWS を含む各種インフラストラクチャの変更履歴を自動記録 成果 : 生産性向上率: 約 95% 以上向上 品質向上: コードとの整合性 100% 、更新漏れゼロを実現 設計書・構成図作成の大幅な時間短縮により、ドキュメントの鮮度と正確性が向上 2. Infrastructure as Code 開発の効率化 課題 : 社内標準に準拠したコードの作成やレビューに時間がかかる 活用例 : 明治固有の環境構造(ドメイン、ネットワーク構成)を理解した AWS CloudFormation テンプレート自動生成 60 以上の AWS サービスに対応した統一命名規則の自動適用 社内用語(「監査 VPC 」「基幹系」「汎用系」など)の自動反映 成果 : 生産性向上率: 約 95% 以上向上 品質向上: タイプミスゼロ、命名規則違反ゼロ、一貫性 100% を達成 レビュー工数の大幅削減により、開発サイクルが加速 3. 運用・トラブルシューティングの高度化 課題 : 障害対応やセキュリティ監視、技術情報の検索において特定メンバーの知識に依存している 活用例 : エラーメッセージから対象リソースの自動特定と VPC フローログの分析 AWS Security Hub の検出結果を自動分析し、優先度判定と対処方法を提案 社内用語・システム構成の歴史・設計判断の背景を体系化し、自然言語で検索可能に 成果 : 生産性向上率: 約 85-95% 向上 属人化解消: 技術情報へのアクセスが民主化され、特定個人への依存を削減 障害対応時間の大幅短縮と、セキュリティ監視の見落とし削減を実現 4. 組織全体の管理基盤整備 課題 : 多数の AWS アカウントやプロジェクトの管理に手作業が多く、定型業務に時間を取られる 活用例 : 310 の AWS アカウントを SSO 統合管理し、簡易名でのアクセスを実現 プロジェクトの自動分類と番号付きフォルダ管理システムの構築 AWS 利用料のサービス別算出を AWS Lambda 関数で自動化 成果 : 生産性向上率: 約 90% 以上向上 セキュリティ向上: クレデンシャル排除によるリスク削減 毎日の定型作業が完全自動化され、管理工数を大幅に削減 これらを実現していく中で特に重要だったのが Model Context Protocol サーバの利用です。これにより素早く正確な情報へのアクセスと調査、ドキュメント生成を行うことができるようになり、従来多くの時間を要していた作業の大幅な効率化を実現しました。 全体的な成果 AWS事務局が Amazon Q Developer により実現した成果について、明治ホールディングス株式会社様 は以下のようにレポートしています。 定量的効果 80-90% の生産性向上を AWS 事務局全体で実現 30 名超が継続的に活用 多数の定型作業を完全自動化(毎日 1 時間以上/人の時間短縮) 定性的効果 共通プロンプトにより生成 AI を用いた作業品質の平準化 新規参画メンバーの立ち上がり時間の大幅短縮 戦略的業務への人的リソース確保 お客様の声 明治ホールディングス株式会社 グループ DX 戦略部の猪俣 亮様・小林 達也様 は次のように評価されています: 猪俣様のコメント 「AWS 事務局のメンバーは技術者集団として、そして私自身も個の技術者として生成 AI コーディングエージェントを自らの職務の『武器』として手に入れ使いこなしたい、という強い信念がありました。Amazon Q Developer の導入により、これまで時間を要していたドキュメントの整備やコード解析、コード開発が劇的に効率化されました。また、ネットワーク関連の疎通調査において実際の環境の設定値やログを包括的に調査することにより、従来の人手による調査よりも各段に早く問題解決に至ることができるようになりました。 共通プロンプトの活用により、チーム全体で一定の品質と基準を守った成果物を短時間で作成できるようになり、QCD が大幅に向上しました。共通プロンプトにはリソースやドキュメント更新、命名規則等の優先順位付けされたルール、SSO ログインのツールや MCP サーバの設定をしています。これらの活用により正確な情報を取得し、更に高度な自動化が実現できたことで、AWS事務局メンバーが本来注力すべき戦略的な業務により多くの時間を割けるようになりました。」 小林様のコメント 「これまでは戦略的業務や新たな取り組みに取りかかる際、具体的に仕掛かるまでの進め方・事前調査・検討に多くの時間を要していました。Amazon Q Developer の活用により、例えばコスト最適化に関しては、Savings Plans やReserved Instances 購入後の管理・棚卸といった運用面まで見据えた購入計画を Amazon Q Developer に提案させることでコスト削減率の最大化、及び長期的なプラン購入計画の迅速な策定・実践が可能となりました。我々人間自らが思考する・考える範疇の多くを Amazon Q Developer に移譲する中で、結果的に自身では至らなかった多くの見解や気付きを素早く得られるようになりました。今後、より戦略的業務に対する障壁を下げ、効率的に新たな取り組みに挑戦できるようになると期待しています。」 今後の展望 明治ホールディングス株式会社様では、以下の展開を計画されています: 明治グループ全体への展開拡大:成功事例を基に、部内・他部署、各事業会社への展開拡大 PoC、モック作成:新規価値創造の領域で、検証用アプリケーションやモックの作成 さらなる自動化推進:MCP サーバの活用範囲拡大による、より高度な業務自動化 Excel 計算からの脱却加速:いまだ手入力が基本となっている業務をピックアップし AWS 上のアプリケーションに変換 AI エージェント導入:トラブルシュートの一次切り分けエージェントの構築 まとめ 明治ホールディングス株式会社様の事例は、Amazon Q Developer の段階的導入により、大規模な開発チームでも着実に生産性向上を実現できることを示しています。特に、共通プロンプトによる標準化と MCP サーバの高度活用は、他の企業様にとっても参考になる実践的なアプローチです。 生成 AI を活用した開発生産性向上をご検討の際は、ぜひ AWS までお気軽にご相談ください。 Amazon Q Developerについて詳しくは、 こちら をご覧ください。
本記事は 2025 年 11 月 26 日 に公開された「 Introducing catalog federation for Apache Iceberg tables in the AWS Glue Data Catalog | AWS Big Data Blog 」を翻訳したものです。 Apache Iceberg は、大規模で堅牢かつ信頼性の高い分析を求める組織にとって、オープンテーブルフォーマットの標準的な選択肢となっています。しかし、企業は異なるカタログシステムを持つ複雑なマルチベンダー環境をますます多く扱うようになっています。マルチベンダー環境で運用する組織にとって、これらのシステム間でデータを管理することは大きな課題となっています。この断片化は、特にアクセス制御とガバナンスに関して、運用上の複雑さを大幅に増加させます。 Amazon Redshift 、 Amazon EMR 、 Amazon Athena 、 Amazon SageMaker 、 AWS Glue などの AWS 分析サービスを使用して AWS Glue Data Catalog 内の Iceberg テーブルを分析しているお客様は、リモートカタログのワークロードでも同じ価格性能を得たいと考えています。これらのリモートカタログを単純に移行または置き換えることは現実的ではなく、チームはシステム間でメタデータを継続的に複製する同期プロセスを実装・維持する必要があり、運用上のオーバーヘッド、コストの増加、データの不整合のリスクが生じます。 AWS Glue は、Data Catalog でリモート Iceberg テーブルのカタログフェデレーションをサポートするようになりました。カタログフェデレーションを使用すると、 Amazon Simple Storage Service (Amazon S3) に保存され、リモート Iceberg カタログでカタログ化されたリモート Iceberg テーブルを、テーブルを移動または複製することなく、AWS 分析エンジンを使用してクエリできます。リモートカタログが統合されると、AWS Glue は常にバックグラウンドで最新のメタデータを取得するため、お好みの AWS 分析サービスを通じて常に Iceberg メタデータにアクセスできます。この機能は、粗い粒度のアクセス制御と AWS Lake Formation によるきめ細かな粒度の権限の両方をサポートしており、リモート Iceberg テーブルをデータコンシューマーと共有する方法とタイミングを柔軟に選択できます。Snowflake Polaris Catalog、Databricks Unity Catalog、および Iceberg REST 仕様をサポートするその他のカスタムカタログとの統合により、リモートカタログにフェデレートし、データベースとテーブルを検出し、アクセス権限を設定し、リモート Iceberg データのクエリを開始できます。 この記事では、Data Catalog で Iceberg テーブルのカタログフェデレーションを開始する方法について説明します。 ソリューションの概要 カタログフェデレーションは、Data Catalog を使用してリモートカタログシステムと通信し、カタログオブジェクトを検出し、Lake Formation を使用して Amazon S3 内のデータへのアクセスを認可します。リモート Iceberg テーブルをクエリすると、Data Catalog はクエリ実行時にリモートカタログ内の最新のテーブル情報を検出し、テーブルの S3 ロケーション、現在のスキーマ、パーティション情報を取得します。分析エンジン (Athena、Amazon EMR、または Amazon Redshift) は、この情報を使用して Amazon S3 から直接 Iceberg データファイルにアクセスします。Lake Formation は、Amazon S3 に保存されているテーブルデータへのスコープ付き認証情報を発行することでテーブルへのアクセスを管理し、エンジンがフェデレーテッドテーブルにきめ細かな粒度の権限を適用できるようにします。このアプローチにより、メタデータとデータの重複を回避しながら、お好みの AWS 分析エンジンを通じてリモート Iceberg テーブルへのリアルタイムアクセスを提供します。 Data Catalog は、リモートカタログエンドポイントとの AWS Glue 接続を確立することで、Apache Iceberg をサポートするリモートカタログシステムへの接続を容易にします。OAuth2 またはアクセストークンを使用したカスタム認証メカニズムを使用して、Data Catalog をリモート Iceberg REST カタログに接続できます。統合中、管理者はリモートカタログ内のリソースにアクセスするための適切な権限を持つプリンシパル (サービスアカウントまたは ID) を設定します。AWS Glue 接続オブジェクトは、この設定されたプリンシパルの認証情報を使用して、リモートカタログサーバー内のメタデータを認証およびアクセスします。また、ネットワークアクセスを分離および制限するためにプライベートリンクまたはプロキシを使用するリモートカタログに Data Catalog を接続することもできます。接続後、この統合は標準化された Iceberg REST API 仕様を使用して、これらのリモートカタログから最新のテーブルメタデータ情報を取得します。AWS Glue は、これらのリモートカタログを独自のカタログインフラストラクチャ内のフェデレーテッドカタログとしてオンボードし、複数のカタログシステム間で統一されたメタデータアクセスを可能にします。 Lake Formation は、フェデレーテッドカタログリソースへのユーザーアクセスを管理するための一元化された認可レイヤーとして機能します。ユーザーがフェデレーテッドカタログ内のテーブルやデータベースにアクセスしようとすると、Lake Formation は権限を評価し、きめ細かな粒度のアクセス制御ポリシーを適用します。 メタデータの認可に加えて、カタログフェデレーションは実際の基盤となるデータファイルへの安全なアクセスも管理します。これは、一時的でスコープが制限された認証情報を発行する認証情報発行メカニズムによって実現されます。AWS Glue フェデレーテッドカタログは、お好みの AWS 分析エンジンやクエリサービスと連携し、分析ワークロード全体で一貫したメタデータアクセスと統一されたデータガバナンスを実現します。 以下のセクションでは、Data Catalog をリモートカタログサーバーと統合する手順を説明します。 リモートカタログで統合プリンシパルを設定し、このプリンシパルにカタログリソースへの必要なアクセス権を付与します。統合プリンシパルの OAuth ベースの認証を有効にします。 AWS Glue 接続を使用して Data Catalog にフェデレーテッドカタログを作成します。統合プリンシパル (ステップ 1) の認証情報を使用してリモートカタログの Iceberg REST エンドポイントに接続する AWS Glue 接続を作成します。リモートテーブルデータが存在する S3 ロケーションへの権限を持つ AWS Identity and Access Management (IAM) ロールを設定します。クロスアカウントシナリオでは、バケットポリシーがこの IAM ロールに必要なアクセス権を付与していることを確認してください。このフェデレーテッドカタログは、リモートカタログサーバー内のカタログオブジェクトをミラーリングします。 Lake Formation または AWS Glue API を使用して、フェデレーテッドカタログ内の Iceberg テーブルを検出します。AWS 分析エンジンを使用して Iceberg テーブルをクエリします。クエリ操作中、Lake Formation はフェデレーテッドリソースに対するきめ細かな粒度の権限と、エンドユーザーへの基盤データへの認証情報発行を管理します。 前提条件 開始する前に、AWS で以下の設定が完了していることを確認してください。 AWS アカウント AWS Command Line Interface (AWS CLI) バージョン 2.31.38 以降がインストールおよび設定されていること 以下のサービスへの適切な権限を持つ IAM 管理者ロールまたはユーザー IAM AWS Glue Data Catalog Amazon S3 AWS Lake Formation AWS Secrets Manager Amazon Athena データレイク管理者を作成します。手順については、 データレイク管理者の作成 を参照してください。 リモート Iceberg カタログでの認証情報の設定 リモート Iceberg カタログへのカタログフェデレーションは、メタデータアクセス用に設定されたプリンシパルの OAuth2 認証情報を使用します。この認証メカニズムにより、AWS Glue Data Catalog は、プリンシパルに関連付けられた権限に基づいて、リモートカタログ内のさまざまなオブジェクト (データベース、テーブルなど) のメタデータにアクセスできます。適切な機能をサポートするには、これらのオブジェクトのメタデータを読み取るために必要な権限をプリンシパルに付与する必要があります。統合プリンシパルの OAuth ベースの認証を有効にするために、 CLIENT_ID と CLIENT_SECRET を生成します。 リモート Iceberg カタログへの接続を使用した AWS Glue カタログフェデレーションの作成 リモート Iceberg カタログサーバー内のカタログオブジェクトをミラーリングするフェデレーテッドカタログを Data Catalog に作成します。これは、AWS Glue サービスが ListDatabases 、 ListTables 、 GetTable などのメタデータクエリをリモートカタログにフェデレートするために使用されます。データレイク管理者として、AWS Lake Formation に登録された AWS Glue 接続オブジェクトを使用して、Data Catalog にフェデレーテッドカタログを作成できます。 AWS Glue 接続のデータソース接続の設定 カタログフェデレーションは、リモートカタログで認証と Iceberg REST API エンドポイントの設定を提供する際に、メタデータアクセス用の AWS Glue 接続を使用します。AWS Glue 接続は、認証方法として OAuth2 またはカスタムをサポートしています。 OAuth2 認証を使用した接続 OAuth2 認証方法では、クライアントシークレットを直接入力として提供するか、 AWS Secrets Manager に保存して認証時に AWS Glue 接続オブジェクトで使用できます。AWS Glue は、有効期限が切れるとトークンの更新を内部的に管理します。Secrets Manager にクライアントシークレットを保存するには、以下の手順を完了します。 Secrets Manager コンソールで、ナビゲーションペインの Secrets を選択します。 Store a new secret を選択します。 Other type of secret を選択し、キー名として USER_MANAGED_CLIENT_APPLICATION_CLIENT_SECRET を指定し、クライアントシークレットの値を入力します。 Next を選択し、シークレットの名前を指定します。 Next を選択し、 Store を選択してシークレットを保存します。 カスタム認証を使用した接続 カスタム認証では、Secrets Manager を使用してアクセストークンを保存および取得します。このアクセストークンは、お客様のアプリケーションまたはシステムによって作成、更新、管理され、認証プロセスを適切に制御および管理できます。Secrets Manager にアクセストークンを保存するには、以下の手順を完了します。 Secrets Manager コンソールで、ナビゲーションペインの Secrets を選択します。 Store a new secret を選択します。 Other type of secret を選択し、キー名として BEARER_TOKEN を指定し、統合プリンシパルのアクセストークンを値として入力します。 Next を選択し、シークレットの名前を指定します。 Next を選択し、 Store を選択してシークレットを保存します。 AWS Glue 接続の Lake Formation への登録 Lake Formation が認証情報を発行するために使用できる IAM ロールを作成し、Iceberg テーブルが保存されている S3 バケットプレフィックスへの権限をアタッチします。オプションで、Secrets Manager を使用してクライアントシークレットを保存する場合やネットワーク設定を使用する場合は、これらのサービスへの権限をこのロールに追加できます。手順については、 リモート Iceberg カタログへのカタログフェデレーション を参照してください。 接続を登録するには、以下の手順を完了します。 Lake Formation コンソールで、ナビゲーションペインの Catalogs を選択します。 Create catalog を選択し、データソースを選択します。 フェデレーテッドカタログの詳細を入力します。 フェデレーテッドカタログの名前 リモートカタログサーバー内のカタログ名 (リモートカタログの正確なカタログ名と一致する必要があります) AWS Glue 接続の詳細を入力します。既存の接続を再利用するには、 Select existing connection を選択し、再利用する接続を選択します。初回セットアップの場合は、 Input new connection configuration を選択し、以下の情報を入力します。 AWS Glue 接続名を入力します。 リモートカタログの Iceberg REST API エンドポイントを入力します。 カタログオブジェクトの大文字小文字のタイプを指定します。接続は、オブジェクト階層全体で大文字のオブジェクトまたは小文字のオブジェクトをサポートできます。 認証パラメータを設定します。 OAuth2 の場合: クライアント ID とクライアントシークレットを直接入力するか、クライアントシークレットが保存されているシークレット、トークン認可 URL、および認証情報にマッピングされたスコープを選択します。 カスタムの場合: アクセストークンが保存されている Secrets Manager で管理されるシークレットを指定します。 ネットワーク設定: ネットワークやプロキシの設定がある場合は、この情報を入力できます。それ以外の場合は、このセクションをデフォルトのままにします。 リモートテーブルのメタデータとデータが保存されているバケットへのアクセス権を持つ IAM ロールを使用して、接続を Lake Formation に登録します。 Run test を選択して接続を確認します。 テストが成功したら、カタログを作成します。 これで、フェデレーテッドカタログの下にあるリモートオブジェクトを検出できます。同じ外部カタログインスタンスに設定された既存の接続を再利用して、他のリモートカタログをオンボードできます。 AWS 分析エンジンを使用したフェデレーテッドカタログオブジェクトのクエリ データレイク管理者として、AWS Lake Formation を使用してフェデレーテッドカタログ内のデータベースとテーブルのアクセス制御を管理できるようになりました。また、タグベースのアクセス制御を使用して、アクセス制御メカニズムに基づいてリソースにタグを付けることで、権限モデルをスケールすることもできます。 権限が付与されると、IAM プリンシパルまたは IAM ユーザーは、Athena、Amazon Redshift、Amazon EMR、Amazon SageMaker などの AWS 分析サービスを使用してフェデレーテッドテーブルにアクセスできます。以下の例に示すように、Athena を使用してフェデレーテッド Iceberg テーブルをクエリします。 クリーンアップ 継続的な料金の発生を避けるため、以下の手順を完了して、このウォークスルーで作成したリソースをクリーンアップします。 Data Catalog のフェデレーテッドカタログを削除します。 aws glue delete-catalog \ --name <your-federated-catalog-name> Lake Formation から AWS Glue 接続の登録を解除します。 aws lakeformation deregister-resource \ --resource-arn <your-glue-connector-arn> Lake Formation の権限を取り消します (付与されている場合)。 # まず既存の権限を一覧表示 aws lakeformation list-permissions \ --catalog-id <your-account-id> \ --resource '{ "Catalog": {} }' # 必要に応じて権限を取り消し aws lakeformation revoke-permissions \ --principal '{ "DataLakePrincipalIdentifier": " <principal-arn> " }' \ --resource '{ "Database": { "CatalogId": " <catalog-id> ", "Name": "<database-name>" } }' \ --permissions ["SELECT", "DESCRIBE"] AWS Glue 接続を削除します。 aws glue delete-connection \ --connection-name <your-glue-connection-to-snowflake-account> Lake Formation と AWS Glue 接続に関連付けられた IAM ロールとポリシーを削除します。 # ロールからポリシーをデタッチ aws iam detach-role-policy \ --role-name <your-lakeformation-role-name> \ --policy-arn <your-lakeformation-policy-arn> # カスタムポリシーを削除 aws iam delete-policy \ --policy-arn <your-lakeformation-policy-arn> # ロールを削除 aws iam delete-role \ --role-name <your-lakeformation-role-name> # ロールからポリシーをデタッチ aws iam detach-role-policy \ --role-name <your-glue-connection-role-name> \ --policy-arn <your-glue-connection-policy-arn> # カスタムポリシーを削除 aws iam delete-policy \ --policy-arn <your-glue-connection-policy-arn> # ロールを削除 aws iam delete-role \ --role-name <your-glue-connection-role-name> Secrets Manager のシークレットを削除します。 # シークレットの削除をスケジュール (7〜30 日) aws secretsmanager delete-secret \ --secret-id <your-snowflake-secret> このクリーンアップガイドは、リモートカタログサーバー内の実際のメタデータや S3 バケット内のデータには影響しません。Data Catalog と Lake Formation のフェデレーション設定にのみ影響します。リモートカタログサーバー内の対応するサービスプリンシパルや設定は、別途対処する必要があります。 依存関係の競合を避けるため、指定された順序でクリーンアップ手順に従ってください。たとえば、AWS Glue カタログオブジェクトが関連付けられている場合、AWS Glue 接続オブジェクトは削除できません。 また、これらのリソースを削除するために必要な権限があることを確認してください。 まとめ この記事では、カタログフェデレーションがマルチベンダーカタログ環境全体で Iceberg テーブルを管理するという増大する課題にどのように対処するかを探りました。Data Catalog が Snowflake Polaris Catalog、Databricks Unity Catalog、およびカスタム Iceberg REST 準拠カタログを含むリモートカタログシステムと通信し、安全なデータアクセスのための一元化された認可と認証情報発行を行うアーキテクチャを説明しました。認証プリンシパルの設定、AWS Glue 接続を使用したフェデレーテッドカタログの作成から、きめ細かな粒度のアクセス制御の実装、AWS 分析エンジンからのリモート Iceberg テーブルの直接クエリまで、セットアッププロセスを説明しました。 カタログフェデレーションには、いくつかの利点があります。 AWS 分析サービスのセキュリティ、ガバナンス、価格性能の利点を維持しながら、Iceberg データが存在する場所でクエリできます 同期プロセスを維持するための運用上のオーバーヘッドとコストを削減できます データの重複と不整合を回避できます 既存のカタログを移行または置き換えることなく、最新のテーブルスキーマにリアルタイムでアクセスできます 詳細については、 リモート Iceberg カタログへのカタログフェデレーション を参照してください。 著者について Debika D は、Amazon SageMaker のシニアプロダクトマーケティングマネージャーで、レイクハウスアーキテクチャのメッセージングと市場投入戦略を専門としています。データと AI に関するあらゆることに情熱を持っています。 Srividya Parthasarathy は、AWS Lake Formation チームのシニアビッグデータアーキテクトです。プロダクトチームやお客様と協力して、分析データプラットフォーム向けの堅牢な機能とソリューションを構築しています。データメッシュソリューションの構築とコミュニティとの共有を楽しんでいます。 Pratik Das は、AWS Lake Formation のシニアプロダクトマネージャーです。データに関するあらゆることに情熱を持ち、お客様と協力して要件を理解し、素晴らしい体験を構築しています。データ駆動型ソリューションと機械学習システムの構築のバックグラウンドを持っています。 この記事は Kiro が翻訳を担当し、ソリューションアーキテクト の 松岡勝也 がレビューしました。
本稿は、2025 年 11 月 24 日に AWS migration-and-modernization Blog で公開された Introducing the AWS Transform discovery tool を翻訳したものです。 The AWS Transform discovery tool は、VMware インフラストラクチャにデプロイする Open Virtual Appliance(OVA)です。このツールは Application Discovery Service Agentless Collector に代わるものです。 AWS Transform discovery tool は、クラウド接続や外部依存関係を必要とせずにオンプレミスでデプロイできる自己完結型アプリケーションとして動作します。このアーキテクチャにより、厳格に規制された業界や、厳格なデータガバナンス要件を持つ組織に適しています。包括的な検出は、移行計画、正確なコスト見積もり、移行リスクの軽減に不可欠です。AWS Transform discovery tool は、ワークロードからパフォーマンスデータとネットワーク接続データの両方を収集します。パフォーマンスデータを収集することで、AWS Transform がワークロードに最もコスト効率の高いインスタンスタイプを推奨することを可能にします。ネットワーク接続データを収集することで、関連する、すべての仮想マシンを同時に確実に移行を行い、誤ってオンプレミスに依存関係を残してしまうことを防ぎます。 このコレクターは、AWS Migration Portfolio Assessment(MPA)形式でエクスポートし、AWS Transform assessment が取り込んで処理することで、総所有コスト分析とビジネスケースを生成します。MPA 形式は、パートナーが AWS と移行データを交換するために使用されます。すべてのデータは、仮想アプライアンス上で収集し、ローカルに保存されます。ツールからエクスポートされたデータは、ワークステーション上のローカルにダウンロードされます。エクスポートされたデータを AWS にアップロードすることを選択しない限り、データは AWS に送信されません。このツールは、インターネットへのアウトバウンドアクセスを必要としません。 前提条件 VMware vCenter に OVA をデプロイする権限が必要です。 アプライアンスは、4 vCPU、16GB RAM、35GB ハードディスクが必要です。 アプライアンスは、エージェントレスアプローチを使用してデータを収集します。アセスメント対象の VM は、アプライアンスからのインバウンド接続を許可する必要があります: Linux – SSH TCP/22 Windows – TCP/5985 for HTTP, TCP/5986 for HTTPS(デフォルトポート。カスタムポート構成もサポートされています) SNMP – UDP/161 Linux の場合、サーバーに SSH 接続できるユーザーアカウントが必要です。 SSH 検出の場合、ツールは ss -tnap を使用します。SSH ユーザーは、sudo を使用して ss コマンドを実行できる必要があります。 ss が利用できない場合、ツールは netstat を代替手段として利用します。 Windows のアカウント要件については documentation を参照してください。 デプロイ アプライアンス をダウンロードします。 標準の OVA デプロイプロセス を使用してアプライアンスをデプロイします。 図 1. AWS Transform discovery tool アプライアンスのデプロイする、OVF デプロイの最後の画面を表示 初期セットアップ AWS Transform discovery tool の管理インターフェースは、ポート 5000 で実行します。アプライアンス VM の IP が 10.250.1.20 の場合、管理インターフェースにはブラウザで https://10.250.1.20:5000 へアクセスします。 管理インターフェースに初めてアクセスする際に、パスワードを作成します。 図 2. AWS Transform discovery tool のパスワード作成 AWS Transform discovery toolにログインした後 Set up access を選択して vCenter Server に接続します。 図 3. vCenter アクセスのセットアップボタン vCenter の FQDN または IP、ユーザー名、パスワードを入力します。https:// は含めず、FQDN または IP のみを入力してください。Windows 認証を使用する場合、Windows ユーザーネームは DOMAIN\user 形式である必要があります。vCenter には読み取り専用アカウントを使用できます。 図 4. vCenter アクセスのセットアップ AWS Transform discovery tool が vCenter Server にアクセスできる場合、ステータスが Connected に変わり、数分後 Last collection に日付と時間が表示されます。 図 5. vCenter 接続の成功と最新の収集日時 検出収集は 1 時間ごとに実行されます。収集を強制する必要がある場合は、Actions メニューから実行できます。 図 6. 検出収集の強制実行 検出されたインベントリは Discovered inventory ページから表示できます。 図 7. 検出されたすべてのインベントリ OS アクセスの構成 初期構成では Set up OS access ボタンが表示されます。以降の構成では Edit OS access ボタンを使用します。 図 8. Edit OS access ボタン 認証情報画面では、SSH と WinRM の両方の認証情報を入力する例を示しています。Windows 資格情報は、WinRM 経由で Windows サーバー全体の SQL Server インストール環境をリモートで調査・収集するために使用され、バージョン情報、エディション詳細、サービス構成、インスタンス名、起動設定、サービスアカウント、クラスタリングステータスを含む、すべてのSQL Serverコンポーネントに関する詳細なメタデータが収集されます。Kerberos を使用する場合、ユーザー名は username@DOMAIN.TLD 形式である必要があります – ユーザー名は小文字、ドメインは大文字です。 Auto-connect ボックスにチェックを入れると、AWS Transform discovery tool はすべての VM に対してその認証情報を使用しようとします。ボックスにチェックを入れない場合は、認証情報を手動で割り当てる必要があります。 図9. OS アクセス認証情報 認証情報を手動で割り当てるには Discovered inventory 画面に移動します。フィルターを入力するオプションがあります。この例では、フィルターに atx-wp と入力しました。これは Enter キーを押すと適用されます。 図10. インベントリフィルターの入力 フィルターは一致する VM を選択します。認証情報を割り当てるには、Hostname の横にあるボックスにチェックを入れます。以下に示すように、すべてを選択できます。次に Manage access credential を選択します。 図 11. フィルタリングされたインベントリリストからサーバーを選択してアクセス認証情報を割り当てる ドロップダウンから認証情報を選択し Save and collect を選択します。 図 12. サーバーのリストに対するアクセス認証情報の選択 約 15 秒後、認証情報の割り当てが成功すると Network status 列に Success が表示されます。 図 13. Linux サーバーの認証情報の成功 以下は、Windows VM の例です。まず、Windows 認証情報を割り当てます。 図 14. Windows VM への WinRM 認証情報の割り当て 成功すると Network status 列が Success に変わります。この Windows VM は SQL Server のインスタンスを実行しているため、 Database status 列も Success に変わりました。 図 15. Windows の認証情報の成功 ダウンロード データを収集した後 Download inventory ボタンを使用してインベントリをダウンロードできます。 図 16. Download inventory ボタン これは MySQL バックエンドを持つ Web サーバーで収集されたネットワークデータの例です。 図 17. ソースとターゲットの IP、ターゲットのポートとプロトコルを含むサンプルネットワークデータ 必要に応じて Download logs を使用してトラブルシューティング用のログをダウンロードできます。 図 18. Download logs ボタン クリーンアップ クリーンアップ手順は vCenter インベントリからアプライアンスを削除することだけです。 AWS Transform discovery tool で使用するために特定の OS 認証情報を作成した場合は、認証情報を無効化する必要がある場合があります。 まとめ AWS Transform discovery tool を使用すると、移行の準備として、組織内のサーバーインベントリ、データベースインスタンス、ネットワーク依存関係を自動的に検出できます。クラウド接続や外部依存関係を必要とせずに自己完結型アプリケーションとして動作するため、セキュリティを最も重視する環境にも適しています。 現在のインフラストラクチャに対する包括的な可視性を提供することで、AWS Transform discovery tool は以下を支援します: 将来の AWS 環境を正確にサイジングしてコスト計算する 移行計画に影響を与えるアプリケーションの依存関係を特定する データ駆動型の TCO 分析とビジネスケースを生成する 移行戦略と優先順位について情報に基づいた意思決定を行う AWS Transform discovery tool からダウンロード可能な出力は、AWS Transform assessment にアップロードでき、移行計画のための詳細な TCO 分析とビジネスケース生成を可能にします。このデータ駆動型アプローチは、移行リスクを軽減し、AWS への移行を加速するのに役立ちます。 次のステップ AWS Transform discovery tool の出力を評価に使用できます。出力ファイルに変更を加える必要はありません。AWS Transform assessment に直接アップロードするだけです。評価の作成について詳しくは、AWS Transform assessment の 製品ドキュメント をご確認ください。 <!-- '"` --> Patrick Kremer Patrick Kremer は、インフラストラクチャの移行とモダナイゼーションに焦点を当てたシニアスペシャリストソリューションアーキテクトです。Patrick は 2022 年に AWS に入社し、20 年の VMware 経験を活かして、お客様が AWS ソリューションに移行するのを支援しています。彼は AWS 認定ソリューションアーキテクトプロフェッショナルであり、教育とブログ執筆に情熱を持っています。 Pedro Calixto Pedro Calixto は、AWS のシニアソリューションアーキテクトで、ワークロードの移行とモダナイゼーションを専門としています。彼の焦点は、企業が AWS 内でオンプレミス環境を拡張、移行、保護するのを支援すること、および AWS サービスを使用してアプリケーションのモダナイゼーションを加速することです。 この投稿の翻訳は Solutions Architect の田澤が担当させていただきました。原文記事は こちら です。
人工知能( AI )を活用したショッピングエージェントが目新しいものから必需品へと進化する中、消費者の商品発見と購入方法を根本的に変革することが期待されています。これらのインテリジェントなデジタルアシスタントは、近い将来、複数のマーケットプレイスを同時にナビゲートし、価格、品質、在庫状況、消費者の好みなどの複雑な基準に基づいて瞬時に購入決定を下せるようになるでしょう。小売企業にとって、この変化は存亡に関わる課題であると同時に、前例のない機会でもあります。 この変化の初期事例はすでに定着しています。この変化の初期の例はすでに現実のものとなっています。Amazon の Buy for Me 機能や Perplexity のショッピング機能は、消費者がインテリジェントエージェントに購入決定を委ねる AI 仲介型コマースの第一波です。業界予測では、eコマース、オムニチャネル革新、パーソナライズされた顧客体験の急速な普及により、小売業における AI 市場は 2030年までに1,640億ドルを超える と予想されています。 Google が商品検索を変革した際に検索エンジン最適化( SEO )が不可欠となったように、小売業者は今、AI エージェントがカタログと顧客の間を仲介する世界に備える必要があります。AI エージェントが商品データ、在庫システム、価格設定エンジンをリアルタイムで理解し、対話できるようにする標準化された AI 通信プロトコルは、デジタルコマースインフラの次なる進化を象徴しています。これらのプロトコルを早期に導入する企業は、AI 主導のコマースが加速する中で、大きな市場シェアを獲得できるでしょう。 この変革には、技術的な実装以上のものが求められます。デジタルコマース戦略の根本的な見直しが不可欠です。Amazon Web Services ( AWS ) 上に AI プロトコル対応のインフラストラクチャを構築し、顧客体験を再構築するなど、今すぐに行動を起こす小売業者は、AIエージェントによる市場認知度の向上、顧客獲得コストの削減、そして AI を介したショッピングを好む消費者の増加に対応できる能力など、先行者利益を享受できるでしょう。 ビジネス課題: AI 仲介型コマースへの適応 小売企業は、新世代の消費者が購入決定に AI アシスタントを頼るようになる中で、ますます複雑な市場に直面しています。人間のブラウジングと検索エンジン向けに最適化された現在のeコマースインフラストラクチャには、AI エージェントが必要とするセマンティックな豊富さが欠けています。複数のシステムに散在する商品情報、一貫性のないデータ形式、リアルタイムの在庫課題も、AI エージェントが小売業者の提供商品を効果的に表現することを妨げる障壁となっています。 AI エージェントとの相互作用のための標準化されたプロトコルがなければ、小売業者は以下のリスクに直面します: AI エージェントからの不可視性:AIが適切に処理できるフォーマットで作成されていない商品は、エージェントを介した購入には表示されません。 競争上の不利:消費者がエージェントを介したショッピングに移行するにつれて、AI に最適化されたインフラストラクチャを持つ競合他社が市場シェアを獲得するでしょう。 仲介コストの増加:サードパーティのアグリゲーターが小売業者と顧客の間に介入することで、このギャップを埋めて彼ら自身が定着する可能性があります。 ファーストパーティデータアクセスの喪失:AIエージェントとの直接的な関係がなければ、小売業者は貴重な顧客インサイトを仲介業者に奪われてしまいます。 エージェント通信のための AI プロトコルの理解 小売業におけるAIとシステム間、およびAI同士の通信の未来を形作る複数の通信プロトコルがあります:Model Context Protocol ( MCP )、Agent-to-Agent ( A2A )通信フレームワーク、Agentic Commerce Protocol( ACP )、Agentic Payment Protocol( AP2 )です。 A2Aフレームワークは、AI エージェント同士が直接通信し、複数の専門能力を必要とする複雑なタスクを調整することを可能にします。小売の業務において、これはショッピングエージェントが配送タイミングを最適化するためにロジスティクスエージェントと協力したり、価格比較エージェントが在庫エージェントと連携してリアルタイムの在庫状況更新を提供したりすることが考えられます。A2A 通信により、複数の AI システムがシームレスに連携する必要がある高度なワークフローを実現します。 ACP は、AI エージェントが小売業者を発見、評価、取引するための標準化された方法を確立し、ショッピングエージェントが商品情報を要求し、複数の販売者間で提供内容を比較する方法を定義します。これに補完的に、AI 仲介取引における決済およびチェックアウトプロセスを標準化し、自律的な購入のための安全な認証情報管理と取引承認に対処します。 しかし、ほとんどの小売業者にとって、MCP が最も戦略的な出発点となります。ACP や AP2 などのプロトコルがショッピングジャーニーの特定のタッチポイントに対処する一方で、MCP の汎用アーキテクチャは、初期の商品発見と調査から比較ショッピング、在庫確認、購入後サポートまで、顧客体験全体をカバーします。この包括的なアプローチにより、単一の MCP 実装で複数のユースケースやエージェントタイプに対応でき、それぞれの専用プロトコルごとに個別の統合を必要とせずに済みます。 さらに、MCP は AI エコシステム全体で幅広く採用されています。主要な AI プラットフォームとエージェント・フレームワークはすでに MCP サポートを統合しており、ネットワーク効果を生み出して AI システム通信の事実上の標準となっています。この広範な採用により、小売業者は、統一されたインフラストラクチャを通じて、商品の発見、属性の比較、在庫状況、価格評価、購入取引、支払い処理、注文追跡、顧客サービスなど、AI を介したあらゆるインタラクションをサポートできるようになります。MCP は、AI ショッピング エージェントが小売システムを理解し、一貫性と予測可能な方法でインタラクトできるようにする「言語」と考えてください。HTTP が Web 通信を標準化し、インターネット革命を可能にしたのと同様に、MCP は、閲覧からチェックアウト、フルフィルメント、さらにその先まで、カスタマー ジャーニーのあらゆる段階で AI エージェントがビジネスデータにアクセスして解釈する方法を標準化することを目指しています。 戦略的優位性は明確です:MCP インフラストラクチャに最初に投資することで、小売業者は、ACP や AP2 などの専門プロトコルが成熟するにつれてそれらに対応できる柔軟な基盤を構築しながら、新興の AI エージェントエコシステムにサービスを提供するために必要な技術能力を即座に確立します。これにより、MCP は、ドメイン固有のプロトコルの代替ではなく、すべての後続の AI コマース革新を可能にする必須のベースラインとして位置づけられます。 強固なデータ基盤の構築 MCP サーバーを実装する前に、小売業者は堅牢なデータ基盤を確立する必要があります。これは単に技術に関することではなく、商品情報、在庫データ、ビジネスルールがAI対応であることを確保することです。 商品情報アーキテクチャ 商品データは基本的な SKU レベル情報を超えて進化する必要があります。AI エージェントには以下を含む豊富でセマンティックな商品説明が必要です: 単純なカテゴリを超えた詳細な属性分類 補完商品間の関係マッピング 使用コンテキストとアプリケーションシナリオ 代替品に対する比較優位性 リアルタイム在庫インテリジェンス 瞬時の決定を下す AI エージェントには、静的な在庫スナップショットでは不十分です。データレイヤーは以下をサポートする必要があります: すべてのチャネルにわたるミリ秒精度の在庫状況 輸送中商品に基づく予測在庫 位置情報を認識したフルフィルメントオプション 高需要アイテムの動的割り当てルール 統合価格設定とプロモーションエンジン AI エージェントは総顧客価値を評価するため、以下への統合アクセスが必要です: すべてのチャネルにわたるリアルタイム価格設定 アクティブなプロモーションと適格性ルール ロイヤルティプログラムの特典と階層固有の価格設定 競合価格ポジショニングデータ ソリューション概要:AWS 上の MCP サーバー AWS 上の MCP サーバーは、AI エージェントを有効にするクラウドネイティブアプローチを提供します。 このソリューション は、小売企業が必要とするパフォーマンス、スケーラビリティ、セキュリティを提供する AWS の実証済みインフラストラクチャを使用します。 高レベル実装アプローチ 以下の段階的アプローチは、AWS 上で MCP ベースのアーキテクチャを構築、統合、スケールする方法を概説しています。 フェーズ1:基盤 – 商品カタログデータをAIエージェントに公開することに焦点を当てて、AWS 上でコア MCP インフラストラクチャを確立します。このフェーズには、安全な API エンドポイントの設定、認証プロトコルの実装、監視フレームワークの確立が含まれます。このフェーズでは、チームは既存の商品データを MCP 互換形式にマッピングし、AI 理解に必要な変換レイヤーを作成します。 フェーズ2:統合 – 在庫管理、価格設定エンジン、注文管理プラットフォームを含む既存の小売システムに MCP サーバーを接続します。このフェーズは、リアルタイムデータ同期と、すべての顧客タッチポイント間での一貫性の確保を重視します。統合パターンでは、AWS のネイティブコネクタとイベントドリブンアーキテクチャを使用することで、既存システムへの影響を最小限に抑えます。 フェーズ3:インテリジェンス – パーソナライゼーション機能、需要予測の統合、動的価格設定の最適化といったコンテキストインテリジェンスを活用し、MCP のレスポンスを強化します。このフェーズでは、基本的なデータ公開をインテリジェントなコマース機能へと変換し、AI エージェントが顧客のコンテキストとビジネス目標に基づいてカスタマイズされたレスポンスを受け取ることを可能にします。 フェーズ4:スケール – 高度なキャッシング戦略、グローバル配信、マルチリージョンフェイルオーバー機能を実装することで、エンタープライズスケールのトラフィックを処理できるようソリューションを拡張します。このフェーズでは、インフラストラクチャが数百万件もの AI エージェントのインタラクションをサポートしながら、1 秒未満の応答時間を維持できるようにします。 実装における主要な考慮事項 データガバナンスと品質 – 成功の鍵は、強力なデータガバナンスプラクティスの確立です。これには、標準的な製品定義の作成、データ品質監視の実装、プライバシー規制へのコンプライアンス確保が含まれます。AWS は、 データリネージの追跡 と 品質監視 のためのツールを提供しています。 セキュリティとアクセス制御 – MCP サーバーは、AI エージェントの ID を検証し、アクセスポリシーを適用し、機密性の高いビジネスデータを保護する高度なセキュリティモデルを実装する必要があります。AWS の Identity and Access Management (IAM) サービスは、AI プラットフォームとの安全で監査可能な接続を構築するための基盤を提供します。 パフォーマンスの最適化 – AI エージェントは、ほぼ瞬時の応答を期待しています。実装においては、インテリジェントなキャッシュ、一般的なリクエストの事前計算、効率的なデータ取得パターンを通じて、クエリパフォーマンスを最適化することに重点を置く必要があります。AWS のグローバルインフラストラクチャは、レイテンシーを最小限に抑えるエッジコンピューティング戦略を可能にします。 主要なビジネス利益 AWS に MCP サーバーを実装することで、ビジネス全体にわたって大きなメリットがもたらされます。 戦略的な観点から見ると、MCP サーバーを導入する小売業者は、AI コマースにおけるマーケットリーダーとしての地位を確立し、競合他社が変化に気付く前に、先進的でテクノロジーを活用したブランドを確立できます。この先行者利益は、エージェントが豊富でアクセス可能なデータを提供する小売業者を自然に好むため、AIプラットフォームからの優遇待遇に繋がります。さらに、小売業者は仲介業者に依存せずに AI プラットフォームと直接関係を築くことで、顧客関係をコントロールし、サードパーティへの集約に伴う利益率の低下を回避できます。 運用面では、MCP の実装により組織全体の効率性が大幅に向上します。データアクセスの標準化により、小売業者は AI プラットフォームやショッピングエージェントごとに個別の接続が不要になるため、複数の統合ポイントを管理する複雑さが軽減されます。このアーキテクチャの簡素化により、新機能の市場投入までの時間が短縮され、メンテナンスのオーバーヘッドも削減されます。さらに、AI エージェントのインタラクションを統合的に把握することで、自動購入パターンに関するより深い洞察が得られ、小売業者は人間と AI の両方の顧客に対して最適なサービス提供が可能になります。このプラットフォームはイノベーションの基盤としても機能し、小売業者は動的バンドル、予測在庫配置、アルゴリズムによる価格設定戦略といったAI を活用した新しい機能を迅速に試すことができます。 リスク軽減の観点では、AWS 上の MCP サーバーは、将来の市場の混乱に対する重要な保護を提供します。この標準ベースのアプローチにより、小売業者は独自のプラットフォームにロックインされたり、AI 環境が進化する中で陳腐化に直面したりすることがありません。ベンダー独立性を維持することで、小売業者は新規参入者に適応する柔軟性を保持しながら、複数のAI プラットフォームと同時に作業できます。このアーキテクチャにより、小売業者は AI コマース、データプライバシー、アルゴリズムの透明性に関する新たな規制にも準拠できます。これは、世界中の政府が AI ガバナンスフレームワークに取り組む中で重要な考慮事項です。 エンタープライズにおける考慮事項 MCPサーバーの導入を成功させるには、技術設計にとどまらず、セキュリティ、組織の準備、既存のエンタープライズシステムとの統合にも配慮する必要があります。 セキュリティとコンプライアンス AWS 上の MCP サーバーは、保存時および転送時の暗号化、IAM ベースのアクセス制御、継続的なコンプライアンス監視など、プラットフォームの包括的なセキュリティ制御を継承しています。このアーキテクチャは、決済処理の PCI-DSS、サービス組織の SOC 2、国際事業の GDPR など、業界固有の要件をサポートしています。 変更管理 AI エージェントが主要な顧客チャネルになった場合、組織は新しい運用モデルに備える必要があります。これには、AI に最適化された製品説明に関するマーチャンダイジングチームのトレーニング、アルゴリズム購入者向けの価格戦略の更新、AI チャネルのパフォーマンスに関する新しい KPI の設定などが含まれます。 統合戦略 MCPの導入は、既存のシステムを置き換えるのではなく、補完するものでなければなりません。AWSは、主要な小売プラットフォーム向けの構築済みコネクタ、イベントドリブン型の統合パターン、API管理ツールなど、幅広い統合機能を提供しています。このアプローチにより、既存の投資を維持しながら新しい機能を実現できます。 戦略的考慮事項 MCP 導入を評価する際、経営幹部は組織の準備状況を複数の側面から評価する必要があります。意思決定の枠組みは、データの準備状況を把握することから始まります。例えば、商品情報と在庫情報が統一されたアクセス可能な形式で存在しているか、それとも複数のレガシーシステムに分散しているかを検証します。次に、技術能力を評価し、社内チームが導入に必要なクラウドとAPI の専門知識を有しているか、あるいはパートナーのサポートが必要かどうかを判断します。市場タイミングの考慮も同様に重要です。小売業者は、顧客が AI ショッピングアシスタントの導入を開始しているか、あるいは競争圧力により迅速な対応が求められているかを評価する必要があります。 投資期間の計画には、12~18ヶ月の変革タイムラインとそれに伴うリソースのコミットメントを慎重に検討する必要があります。戦術的なテクノロジー導入とは異なり、MCP の導入は商取引の未来への戦略的な賭けであり、経営陣の支援と部門横断的な連携が不可欠です。組織は、既存の技術ベンダーやマーケットプレイスパートナーとの関係、確立されたチャネル戦略への潜在的な混乱を含む、より広範なエコシステムの影響を考慮する必要があります。最も成功した実装は、MCP を孤立した技術プロジェクトとしてではなく、マーチャンダイジング、マーケティング、オペレーション、カスタマーサービスに触れる根本的なビジネス変革として扱います。 多くの場合、実装の成功は技術的な要素よりも、企業文化の準備状況によって左右されます。組織は、アルゴリズムが顧客となり、新たな指標、インセンティブ構造、そして運用プロセスが必要となるパラダイムシフトに備える必要があります。先進的な小売業者は、既に「 AI コマース」チームを立ち上げ、テクノロジーとビジネス機能を連携させ、MCP への投資を最大限に活用できるようにしています。 小売変革の時代におけるリーダーシップ AI を介したコマースへの移行は、eコマースの誕生以来、小売業界にとって最も重大な変革です。AWS 上に MCP サーバーを実装する小売業者は、顧客体験とデータのコントロールを維持しながら、AI エージェントと直接的な関係を構築することで、この新たな環境で成功するための基盤を築くことができます。 先行者利益のチャンスはまだ開かれていますが、永遠に続くわけではありません。AI ショッピングエージェントが消費者の信頼と市場シェアを獲得するにつれ、MCP インフラを持たない小売業者は、特定のカテゴリーの購買層全体から見えなくなってしまうリスクがあります。AWS の実績あるクラウドプラットフォームと包括的なパートナーエコシステムを活用することで、大企業向け小売業者はこの変革に自信を持って乗り越え、潜在的な混乱を競争優位性へと転換することができます。 著者について Aditya Pendyala Aditya は、ニューヨークを拠点とする AWS のプリンシパルソリューションアーキテクトです。クラウドベースのアプリケーションの設計において豊富な経験を有しています。現在は、大規模企業と協働し、拡張性、柔軟性、そして耐障害性に優れたクラウドアーキテクチャの構築を支援し、クラウドに関するあらゆる側面について指導しています。シッペンズバーグ大学でコンピュータサイエンスの理学修士号を取得しており、「学ぶことをやめれば、成長もやめてしまう」という格言を信じています。 Martin Sakowski Martin Sakowski は、AWS のシニアソリューションアーキテクトであり、革新的なデジタルプラットフォームの構築に15年以上の経験があります。小売業の近代化を専門とし、大企業のテクノロジーインフラ変革による成長促進と顧客体験の向上を支援しています。 翻訳はソリューションアーキテクトの程が担当しました。原文は こちら です。
小売・消費財業界は、人工知能とエージェント技術によって推進される変革を経験しており、これらの技術は企業の運営方法と顧客との関わり方を根本的に再構築しています。2026年に向けて、小売・消費財企業は前例のない投資レベルで AI 駆動ソリューションを優先的に取り組んでいます。調査対象の小売業者の 80% が人工知能と生成 AI の両方への資金提供を増やす計画を立てており、平均投資増加率は 36-38% となっています。 この AI 導入の急増により、小売業者は取引業務を超えて、統合されたリテールコマース戦略の変革的実行に向かうことが可能になっています。ここでは、データがチャネルに関係なくパーソナライズされた顧客体験を提供するための重要なバックボーンとなります。AI 駆動の顧客サービスから、エージェントの戦略的活用、インテリジェントなサプライチェーンのオーケストレーションまで、小売業者はこれらの技術を活用してインサイトを自動化し、製品開発を加速し、すべてのタッチポイントでシームレスなインタラクションを創出しています。 同時に、小売および消費財業界の状況は、消費者の期待の変化、そして特に利便性が高く、パーソナライズされ、社会的責任を果たした体験を求めるZ世代/アルファ世代の購買意欲の高まりによって大きく変化しています。この世代交代により、小売業者は従来の商品カテゴリーではなく、顧客行動を軸にマーチャンダイジング戦略を再構築する必要に迫られており、同時に顧客体験と販売員体験の両方を向上させるテクノロジーへの投資も積極的に行っています。 具体的なビジネス成果への注力は、業界クラウドプラットフォームの着実な導入を促進しており、小売業者の 47% が既にこれらのソリューションを導入し、収益、収益性、運用効率の目に見える改善を実現しています。小売業界のCIOは、コスト管理担当者から戦略的な収益創出担当者へと進化を遂げており、部門横断的なコラボレーションとデータ主導のイノベーションを通じて競争上の差別化を実現するデジタルトランスフォーメーション・イニシアチブを推進する責任がますます高まっています。 こうした変革の潮流と技術革新の切迫したニーズを踏まえ、業界リーダーは業界カンファレンスへの参加を通じて、デジタルトランスフォーメーションを加速できるプラットフォームやパートナーシップを求めています。だからこそ、AWS re:Invent カンファレンスの参加者数は飛躍的に増加しています。小売・消費財業界の数千人の経営幹部が re:Invent に参加することで、クラウドコンピューティングや AI の進歩の実用的な応用例を発見し、将来の技術トレンドに関する洞察を得ることができます。さらに、re:Invent は、今後何年にもわたるビジネス変革を推進するために必要な戦略的パートナーシップの成長を促進します。 では、どのように始めれば良いのでしょうか?変革を加速させ、刺激的なトピックや講演を提供し、何年も記憶に残る楽しく刺激的なカンファレンス体験となるセッションのリストをご紹介します。以下の情報は、re:Invent への訪問計画を立てる際にお役に立ちます。re:Invent での時間を最大限に活用し、2026 年に迅速にイノベーションをスタートさせましょう。 業界の同業者から学ぶブレイクアウトセッション: IND384 – クラウドと AI ソリューションでインサイトを自動化し、イノベーションを推進(出演:Mondelez、WW Grainger) IND383 – AI を活用した製品開発と発売の迅速な加速(出演:VF Corporation、Fanatics) IND3307 – AWS Cloud と AI ソリューションを活用したサプライチェーンイノベーションの推進(出演:Sysco、McDonald’s) BIZ213 – Petco が Amazon Connect でエージェントAI駆動カスタマーサービスを実現 BIZ214 – Traegerが、エージェント型 AI を活用したコンタクトセンターエージェントの生産性向上 IND331 – AWSを活用して Whirlpool の仮想製品開発を民主化 AIM280-S – AWS 上でエンタープライズ対応のエージェント型音声 AI パイプラインを構築( NVIDIA 提供) インタラクティブなチョークトークセッションに参加: IND327 – Sysco のデジタル変革:Amazon Q を使用したプラットフォームエンジニアリング IND330 – Amazon Nova Sonic を活用した音声 AI レストラン注文プラットフォーム IND307 – マルチエージェントオーケストレーションによるインテリジェントサプライチェーンの設計 IND385 – AI エージェントの構築:Strands と Amazon Bedrock AgentCore を使用したスケーラブルフレームワーク AMZ402 – AI エージェントの評価:Amazon のエージェントシステムから学ぶ実践的な教訓 AIM379 – E コマースプラットフォームへのバーチャル試着の統合 最新トピックを学ぶライトニングトーク、イノベーションセッション、基調講演をお見逃しなく: IND386 – UX から AX へ:AI ショッピングエージェント向け MCP サーバー HMC204-S – YUM! Brands、AWS、Spectro Cloud よる小売業界のエッジの変革( Spectro Cloud 提供) ANT202-S – キッチンからクラウドへ:Brinker がデータドリブンを成功させた方法( Teradata 提供) INV211 – 舞台裏:Amazon のイノベーションを支える AWS 小売、消費財、レストラン業界のベストプラクティスを議論する AWS ミートアップに参加: AI ドリブンな世界におけるデータ基盤の構築 – 社内外の AI アプリケーションを支える堅牢なデータ基盤を構築するための洞察とベストプラクティスを共有 レジリエントな店舗ネットワーク:コアからクラウドまでのエッジイノベーションの推進 – 小売・レストラン業界の AWS エキスパートやお客様と交流し、店舗の接続性の近代化方法を学習 そしてもちろん、 Magic gatherings から スポーツフォーラム 、 re:Play まで、楽しいイベントも盛りだくさんです。 最高の体験をするには: 参加者ガイド をご覧ください re:Invent ポータルでセッションをお気に入りに登録して予約しましょう アプリをダウンロードしましょう。アプリを使えば、セッションの追跡やシャトルバスの検索など、様々な機能がご利用いただけます。 歩きやすい靴をご用意ください!たくさん歩きますよ! 皆様にお会いできることを楽しみにしています! 著者について デイビッド・ドーフ デイビッド・ドーフは AWS のワールドワイド・リテール・ソリューションズを率い、小売業に特化したソリューションの開発と小売業者のイノベーション支援に携わっています。AWS 入社以前は、Infor Retail、Oracle Retail、360Commerce、Circuit City、AMF Bowling、そして Schlumberger の小売・銀行部門で小売テクノロジー・ソリューションを開発していました。ドーフは NRF-ARTS で数年間、技術標準の策定に携わり、MACH Alliance の諮問委員会に所属し、Retail Orphan Initiative の慈善団体を支援しています。バージニア工科大学とペンシルベニア州立大学で学位を取得しています。 翻訳はソリューションアーキテクトの程が担当しました。原文は こちら です。
みなさん、こんにちは。AWS ソリューションアーキテクトの野間です。 先週は AWS re:Invent 2025 が開催されました。今週は特別号となっており、多くのアップデートを広くお届けするために、以下の 3 part 構成となっています。 週刊生成AI with AWS – re:Invent 2025 特別号 part 1 (本ブログ) 週刊AWS – re:Invent 2025 特別号 part 2 週刊AWS – re:Invent 2025 特別号 part 3 また、2025年12月5日に実施した AWS re:Invent 2025 速報の資料及び動画が公開 されました。AWS re:Invent 2025 で発表されたばかりの新サービス、新機能を1時間に凝縮して一挙紹介しています。動画はオンデマンドでご視聴いただけます。AWS に興味をお持ちのすべての方、re:Invent 2025 を見逃してしまった方や振り返りたい方、日本語でわかりやすく新サービス・新機能の概要を知りたい方は是非チェックしてください。 今回はモリモリ盛りだくさんの内容です。早速 re:Invent で発表された生成 AI with AWS のニュースを見ていきましょう! さまざまなニュース このパートでは 12/1 – 12/5 の期間に発表された生成 AI に関連する AWS 日本語ブログの記事をまとめています。 お知らせ 【開催予告】JAPAN BUILD TOKYO 建設DX展への出展お知らせ 2025年12月10日からの3日間、東京ビッグサイトで開催される JAPAN BUILD TOKYO の「建設DX展」にてソリューション展示を行います。展示テーマは「生成AIが起こす建設業の業務改革」で、物理世界とデジタルをつなぐAIロボット、遠隔臨場×デジタル技能継承、設計図書のAIレビュー、エージェンティックAI時代のBIM活用の4つのテーマで、実際に動くデモンストレーションをご覧いただけます。展示期間中および終了後に詳細資料を公開予定です。 生成 AI を組み込んだ構築済みアプリケーション Amazon Quick Suite の埋め込みチャット機能を発表 Amazon Quick Suite の埋め込みチャット機能を発表しました。これは、お客様のアプリケーションに直接埋め込むことができる統合された会話体験です。構造化データと非構造化ナレッジを単一の会話で統合する Quick Suite のエージェント型 AI チャットを、ユーザーが既に使用しているツールに組み込むことができます。ワンクリック埋め込みにより、Quick Suite インターフェースからコードをコピーしてエンタープライズアプリケーションに挿入するだけで、数分以内にチャットエージェントをアプリケーションに埋め込むことができます。企業のブランドに合わせたカスタマイズ可能なビジュアルテーマや、コミュニケーションスタイルに合わせたカスタマイズ可能なトーンも提供されています。 Amazon Quick AutomateでAI駆動のSAP自動化をシームレスに構築 Amazon Quick Suite の新機能 Amazon Quick Automate を使用して、SAP システムとシームレスに統合する AI 駆動の自動化を構築する方法を紹介しています。AWS Action Connectors for SAP により、SAP S/4HANA などの SAP ERP システムとリアルタイムでデータを読み取り、ビジネスオペレーションを合理化できます。Genpact 社の事例では、サプライチェーンの混乱対応プロセスを自動化し、通常2〜3日かかる分析を数分で完了できるようになりました。 アプリケーション開発のための各種サービス Amazon S3 Vectors がスケールとパフォーマンスを向上させて一般提供開始 Amazon S3 Vectors がスケールとパフォーマンスを大幅に向上させて一般提供を開始しました。単一のインデックスで最大 20 億のベクトルを保存および検索できるようになり、プレビュー時の 40 倍の増加となりました。クエリパフォーマンスも最適化され、頻度の低いクエリは引き続き 1 秒未満で結果を返し、頻度の高いクエリでは約 100 ミリ秒以下のレイテンシーを実現しています。専用のベクトルデータベースソリューションと比較して、ベクトルの保存とクエリの総コストを最大 90% 削減できます。 Amazon API Gateway レスポンスストリーミングによる応答性の高い API の構築 Amazon API Gateway でレスポンスストリーミングのサポートを発表しました。この新機能により、レスポンスペイロードをクライアントに段階的にストリーミングすることで、REST API の応答性を大幅に向上させることができます。LLM 駆動アプリケーション(AI エージェントやチャットボットなど)のユーザーエクスペリエンス向上、Web およびモバイルアプリケーションの time-to-first-byte (TTFB) パフォーマンス改善、大きなファイルのストリーミング、server-sent events (SSE) を使用した長時間実行される操作の実行などが可能になります。 Amazon Bedrock AgentCore ゲートウェイインターセプター: きめ細かなアクセス制御の実現 Amazon Bedrock AgentCore Gateway の新機能「ゲートウェイインターセプター」を紹介する記事です。この機能により、AIエージェントが数千のMCPツールに安全にアクセスする際の、きめ細かなセキュリティ、動的なアクセス制御、柔軟なスキーマ管理が可能になります。ゲートウェイリクエストインターセプターとゲートウェイレスポンスインターセプターの2つのLambda 関数を通じて、ユーザー認証情報やセッションコンテキストに基づくアクセス制御、監査証跡の作成、スキーマ変換などが実現できます。 Amazon OpenSearch Service が GPU アクセラレーションと自動最適化でベクトルデータベースのパフォーマンスとコストを改善 Amazon OpenSearch Service において、サーバーレス GPU アクセラレーションとベクトルインデックスの自動最適化を発表しました。GPU アクセラレーションを使用しない場合と比較して、最大 10 倍高速にベクトルデータベースを構築でき、インデックス作成コストを 4 分の 1 に削減できます。また、10 億規模のベクトルデータベースを 1 時間以内に作成できます。自動最適化により、ベクトルの専門知識がなくても、ベクトルフィールドの検索レイテンシー、品質、メモリ要件の最適なバランスを見つけることができます。 Amazon Bedrock Knowledge BasesでSAPおよびエンタープライズデータから新たな可能性を解き放つ Amazon Bedrock Knowledge Bases を SAP システムおよびエンタープライズデータと統合し、構造化データと非構造化データを組み合わせた統合データインテリジェンスを実現する方法を解説しています。AWS Glue for SAP OData を使用して SAP S/4HANA からデータを抽出し、Amazon Redshift Serverless に統合、Bedrock Knowledge Bases の構造化データストアとして活用することで、自然言語でのデータクエリが可能になります。製造企業の事例では、在庫管理システムにおいて余剰在庫コストの削減と需要予測の精度向上を実現しました。 開発者向けツール Kiro autonomous agent の紹介 開発者とチームがソフトウェアを構築・運用する方法を変革する Kiro autonomous agent のプレビュー版をリリースしました。このエージェントは、セッションベースではなく常に存在し、作業全体でコンテキストを維持します。マルチリポジトリ作業を統一されたタスクとして扱い、影響を受けるリポジトリを特定し、コードを更新し、完全なテストスイートを実行し、テスト済みプルリクエストをレビュー用に作成します。Kiro Pro、Pro+、Power プランを契約している個人開発者向けにプレビュー版として順次展開されています。 Kiro powers の紹介 AI エージェントにフレームワークやツールの専門知識を動的に提供する新しい仕組み「Kiro powers」を発表しました。Powers は、MCP ツールとフレームワークの専門知識を一つのパッケージにまとめ、必要な時だけ動的に読み込む仕組みです。従来の MCP 実装ではすべてのツールを事前に読み込むためコンテキストウィンドウを圧迫していましたが、powers では関連するタスクの時だけアクティブ化されます。Stripe、Supabase、Figma、Neon、Netlify などのパートナー企業の powers がワンクリックでインストール可能で、コミュニティが構築した powers や独自の powers も作成・共有できます。将来的には Kiro 以外の AI 開発ツール(Cline、Cursor、Claude Code など)でも動作する標準を目指しています。 AWS Transform Custom のご紹介:AI 活用によるコードモダナイゼーションで技術的負債を解消 組織が大規模なモダナイゼーションに取り組む方法を根本的に変える新しいエージェント AWS Transform Custom を発表しました。Java、Node.js、Python のアップグレード向けにあらかじめ用意された変換機能と、独自の変換を定義できる柔軟性を組み合わせています。ドキュメント、自然言語での説明、コードサンプルを利用して独自の変換を定義でき、サービスはこれらの特定パターンを数百から数千のリポジトリにわたり一貫して適用します。実行時間を最大 80% 削減したケースもあります。 AWS Transform がフルスタック Windows モダナイゼーション機能を発表 AWS Transform for .NET において、フルスタック Windows モダナイゼーション機能を発表しました。.NET Framework アプリケーションをクロスプラットフォーム対応の .NET に移行するだけでなく、SQL Server データベースを Amazon Aurora PostgreSQL-Compatible Edition に移行し、インテリジェントなストアドプロシージャの変換や依存するアプリケーションコードのリファクタリングも行います。また、ASP.NET Web Forms の UI を Blazor にモダナイズする機能も追加されています。 AWS Transform for mainframe は Reimagine 機能と自動テスト機能を導入します AWS Transform for mainframe において、AI 搭載の分析機能、Reimagine モダナイゼーションパターンのサポート、テスト自動化を含む強化機能を発表しました。Reimagine パターンでは、AI 搭載分析がメインフレームのシステム分析と組織の知識を組み合わせ、詳細な業務・技術ドキュメントおよびアーキテクチャの推奨を作成します。自動化テスト機能では、テストケースの計画、テストデータ収集スクリプトの生成、テスト自動化スクリプトの生成が可能になり、テストの期間を短縮するとともに精度を向上させます。 IAM Policy Autopilot(ビルダー向け新規オープンソース MCP サーバー)で、IAM ポリシー作成を簡素化しましょう アプリケーションコードを分析し、AI コーディングアシスタントが AWS IAM のアイデンティティベースポリシーを生成するのを支援する、新しいオープンソースの Model Context Protocol (MCP) サーバー「IAM Policy Autopilot」を紹介しています。Kiro、Claude Code、Cursor、Cline などの AI コーディングアシスタントと統合され、決定論的なコード解析を用いて信頼性の高い有効なポリシーを作成します。追加費用なしで利用でき、ローカルで実行されます。 フルマネージド Amazon EKS MCP Server (プレビュー) の紹介 Amazon EKS クラスターを自然言語で管理できる、フルマネージド EKS Model Context Protocol (MCP) Server のプレビュー版を紹介しています。この新しいホスト型 EKS MCP Server は、インストールとメンテナンスの排除、一元化されたアクセス管理、強化されたトラブルシューティング、強化された監視と可視性を提供します。クラスター管理、Kubernetes リソース管理、アプリケーションデプロイ、トラブルシューティング、ドキュメントとナレッジベースへのアクセスなど、専門ツールを提供します。 サービスアップデート このパートでは 12/1 – 12/5 の期間に発表された生成 AI に関連する AWS アップデートをまとめています。 AWS MCP Server のプレビューを提供開始 AWS MCP Server は、AI エージェントや AI ネイティブ IDE が AWS サービスを横断して複数ステップのタスクを実行できるようにするマネージド型の Model Context Protocol (MCP) サーバーです。既存の AWS API MCP と AWS Knowledge サーバーの機能を統合した単一のインターフェースを通じて、AWS ドキュメントへのアクセス、15,000 以上の AWS API の呼び出し、さらに Agent SOPs(標準操作手順)と呼ばれる事前構築されたワークフローによる段階的なガイダンスを提供します。これにより AI アシスタントに対して「S3 で静的ウェブサイトをホスティングして」「EC2 インスタンスをプロビジョニングして」といった自然な指示を出すだけで、複数の AWS サービスにまたがる実際の作業を完了できます。米国東部(バージニア北部)リージョンで追加料金なしで利用できます。 AWS AI League 2026 Championship の開催発表 AWS AI League 2026 Championship は、実世界のビジネス課題をゲーム形式の競技を通じて解決する AI トーナメントで、賞金総額は前回の倍となる 5 万ドルに増額されました。参加者は Amazon SageMaker AI を使った基盤モデルのファインチューニングに挑戦する Model Customization チャレンジと、Amazon Bedrock AgentCore で推論・計画・実行が可能なインテリジェントエージェントを構築する Agentic AI チャレンジの 2 つのトラックから選択できます。企業は社内トーナメント開催によって AWS クレジットを受け取ることができ、チームでの協働と競争を通じて自社のビジネスニーズに即した AI ソリューションを開発する環境を整えられます。個人開発者は AWS Summit で実践的なスキルを競い合いながら、賞金総額 50,000 ドルを目指して AWS AI サービスの活用を深化させることができます。 AWS AI Factories – 専用AIインフラストラクチャソリューション を発表 AWS AI Factories は、お客様のデータセンター内に迅速にデプロイ可能なAI インフラストラクチャソリューションです。最新のAWS Trainiumアクセラレータ、NVIDIA GPU、専用低レイテンシネットワーキング、高性能ストレージを提供し、独自に構築する場合と比較して数ヶ月から数年単位でAI構築を加速します。Amazon Bedrock や Amazon SageMaker といった AWS AI サービスが統合されており、個別のモデルプロバイダーとの契約交渉なしに主要な基盤モデルへ即座にアクセスできます。お客様が提供するデータセンターのスペースと電力容量に AWS がインフラを展開・管理する形式で、完全に分離された専用環境として運用されるため、生成 AI を活用して独自データで大規模言語モデルのトレーニングやデプロイを行いたい企業や政府組織にとって、イノベーションに集中できる環境が整います。 AWS Transform に VMware 移行向け Agentic AI 機能を追加 AWS Transform に VMware 環境の AWS 移行を自動化する強力な agentic AI 機能が追加されました。この AI エージェントは移行チームと協働しながら、ビジネス優先度を理解し、数百のアプリケーションと数千台のサーバーにわたる移行を自動的に計画・実行します。オンプレミス環境の検出、サードパーティ製検出ツールのインベントリデータ、ドキュメントやノート・ビジネスルールといった非構造化データを分析し、インフラ・データベース・アプリケーションの依存関係をマッピングして、組織・部門・機能別に最適化された移行計画を生成します。ネットワーク構成の自動生成、柔軟な IP アドレス管理、複数アカウントへのデプロイに対応し、VMware、HyperV、Nutanix などのハイパーバイザーやベアメタル環境から Windows/Linux サーバーを安全に段階的に移行できます。移行プロセス全体を通じてエージェントと対話しながら、ステップの繰り返しやスキップ、計画の調整が可能で、内部承認用の詳細なレポートも自動生成されるため、生成 AI の力を借りて大規模な VMware 環境の移行を従来よりも大幅に短期間・低リスク・低コストで実現できます。 AWS Transform がフルスタック Windows モダナイゼーション向け AI エージェントを提供開始 AWS Transform は .NET モダナイゼーションエージェントの機能を拡張し、.NET アプリケーションと Microsoft SQL Server データベースの両方を扱うフルスタック Windows モダナイゼーションエージェントを提供開始しました。この AI エージェントは、Amazon EC2 や Amazon RDS 上の SQL Server データベースと GitHub などのソースリポジトリから .NET アプリケーションコードをスキャンして、カスタマイズ可能なモダナイゼーション計画を自動生成します。生成 AI の力で複雑なレガシーシステムの移行と変換を自動化し、AI コードコンパニオンとの連携による変換後のコード理解も容易になります。 Amazon SageMaker AI がサーバーレス MLflow 機能を発表し AI 開発を加速 Amazon SageMaker AI にサーバーレス MLflow 機能が追加され、AI モデル開発のための実験トラッキング、比較、評価がインフラ設定を待たずにすぐに開始できるようになりました。従来は MLflow のトラッキングサーバーを継続的に維持・スケールし、複雑な容量計画を行う必要がありましたが、この機能により負荷の高いモデル開発タスクに応じて自動的にスケールし、アイドル時にはスケールダウンするため、管理の負担とコストが大幅に削減されます。Resource Access Manager によるクロスアカウントアクセスで組織境界を越えたチーム協業も簡素化され、SageMaker AI JumpStart、Model Registry、Pipelines とネイティブに連携します。追加料金なしで利用でき、MLflow の最新バージョンへの自動更新にも対応しているため、生成 AI モデルやエージェントの開発において、インフラの複雑性ではなく実験とイテレーションに集中できる環境が整い、AI 開発の生産性が向上します。 Amazon SageMaker AI に新しいサーバーレスモデルカスタマイゼーション機能を追加 Amazon SageMaker AI に、AI 開発者が人気モデルを独自データで素早くカスタマイズできるサーバーレスモデルカスタマイゼーション機能が追加されました。Amazon Nova、Llama、Qwen、DeepSeek、GPT-OSS といった人気モデルに対して、supervised fine-tuning や reinforcement learning、direct preference optimization などの最新技術を使ったカスタマイゼーションが可能です。従来はユースケース定義からデータ準備、モデル選択、トレーニング、評価まで長い反復サイクルが必要でしたが、使いやすいインターフェースでデータ準備から評価・デプロイまでのエンドツーエンドワークフローが簡素化され、プロセス全体が加速します。 Amazon SageMaker HyperPod がチェックポイントレストレーニングをサポート Amazon SageMaker HyperPod に、障害回復時のチェックポイントベースのジョブレベル再起動を不要にする新しい基盤モデルトレーニング機能「チェックポイントレストレーニング」が追加されました。従来のチェックポイントベースの回復では、障害発生時にトレーニングクラスタ全体を一時停止し、手動で問題を診断して保存されたチェックポイントから復元する必要があり、高価な AI アクセラレータが数時間アイドル状態になることがありました。チェックポイントレストレーニングは分散クラスタ全体でモデルのトレーニング状態を保持し、故障したノードを自動的にスワップアウトして正常なアクセラレータからピアツーピアで状態転送を行うため、障害からの回復時間を数時間から数分に短縮します。 Amazon CloudWatch GenAI オブザーバビリティが Amazon AgentCore Evaluations をサポート Amazon CloudWatch が AgentCore Evaluations を通じて AI エージェントの自動品質評価を可能にする機能を追加しました。実世界のインタラクションに基づいて AI エージェントのパフォーマンスを継続的に監視・改善でき、品質問題が顧客に影響を与える前に特定して対処できます。helpfulness、tool selection、response accuracy などをカバーする 13 の事前構築された評価器と、カスタムモデルベースのスコアリングシステムを提供し、CloudWatch ダッシュボードで統一された品質メトリクスとエージェントテレメトリにアクセスできます。エンドツーエンドのトレーシング機能により評価メトリクスとプロンプト・ログを関連付けることができ、Application Signals、Alarms、Sensitive Data Protection、Logs Insights などの既存の CloudWatch 機能とシームレスに統合されます。カスタム評価インフラの構築・維持が不要になるため、生成 AI を活用した高品質な AI エージェントの開発とデプロイを大幅に加速でき、エージェントフリート全体を単一のコンソールから効率的に管理できます。 Amazon Q が SES のメール送信分析をサポート Amazon Q が Amazon Simple Email Service (SES) のメール送信分析機能を追加しました。これにより SES のリソース設定や使用パターンについて自然言語で質問でき、Q が設定の最適化とメール配信性のトラブルシューティングを支援します。従来は Virtual Deliverability Manager などのダッシュボードやクエリツールを使ってメール送信の概念を深く理解する必要がありましたが、Q がお客様の使用パターンと SES リソース設定を自動評価して、事前知識や手動探索なしに必要な回答とコンテキストを提供します。メール送信システムの運用管理を技術的な専門知識に依存せずに実行できるようになり、生成 AI を活用して複雑なメール配信の問題を会話形式で迅速に解決し、SES の運用効率を向上できます。 AWS が AI Competency に新しい Agentic AI カテゴリを追加 AWS は AI Competency(旧 Generative AI Competency)を拡張し、60 の検証済みパートナーを含む 3 つの新しい Agentic AI カテゴリを追加しました。Agentic AI Tools、Agentic AI Applications、Agentic AI Consulting Services の各カテゴリは、最小限の人間監視で知覚・推論・行動できる自律的 AI システムの開発と実装を専門とするパートナーを特定するための基準となります。これらのパートナーは Amazon Bedrock AgentCore、Strands Agents、Amazon SageMaker AI などを使用した高度なソリューション提供能力について厳格な技術検証を受け、AWS のセキュリティ・信頼性・運用 excellence 基準を満たす顧客実装の実績を実証する必要があります。パートナー検証プロセスを加速するため AWS Partner Central に AI エージェントも導入され、AI Specialization 申請に即座にフィードバックを提供します。 Strands Agents で TypeScript サポートを発表 Strands Agents SDK がオープンソース Python フレームワークに TypeScript サポートをプレビュー提供開始し、開発者は Python と TypeScript のいずれかを選択して AI エージェントを構築できるようになりました。TypeScript 版は完全な型安全性、async/await サポート、最新の JavaScript/TypeScript パターンを提供し、AWS Lambda や Bedrock AgentCore などのランタイムでクライアント、ブラウザ、サーバーサイドアプリケーションとして実行可能で、AWS CDK による完全な TypeScript スタックの構築もサポートします。さらにエッジデバイスサポートが一般提供となり llama.cpp などのローカルモデルプロバイダーで小規模デバイス上でエージェント実行が可能になりました。 Frontier Agent(フロンティアエージェント)関連 AWS Security Agent(プレビュー)を発表 – アプリケーションセキュリティを積極的に守る AI エージェント AWS Security Agent は、開発ライフサイクル全体でアプリケーションを積極的にセキュアにする AI 駆動のエージェントです。セキュリティチームが承認された暗号化ライブラリ、認証フレームワーク、ログ標準などの組織のセキュリティ要件を一度定義すると、開発全体を通じてアーキテクチャドキュメントとコードを自動的に検証し、違反検出時には具体的なガイダンスを提供します。デプロイ検証では、ペネトレーションテストのスコープを定義するだけで、AI エージェントがアプリケーションコンテキストを開発し、高度な攻撃チェーンを実行して脆弱性を発見・検証します。これにより全チームで一貫したセキュリティポリシー適用が実現し、開発速度に合わせたセキュリティレビューのスケーリングが可能になります。生成 AI を活用してセキュリティレビューを自動化することで、開発初期段階での脆弱性防止とリスクエクスポージャーの削減を実現します。 AWS DevOps Agent(プレビュー)を発表 – 運用の卓越性を実現するフロンティアエージェント AWS DevOps Agent は、AWS、マルチクラウド、ハイブリッド環境でインシデントを解決し積極的に防止するフロンティアエージェントです。経験豊富な DevOps エンジニアのように、リソースとその関係性を学習し、観測ツール、ランブック、コードリポジトリ、CI/CD パイプラインと連携して、テレメトリ・コード・デプロイメントデータを相関分析します。アラートが入った瞬間に自律的に調査を開始してインシデントをトリアージし、チームを迅速な解決へ導いて平均復旧時間(MTTR)を短縮します。過去のインシデントのパターンを分析して、観測性、インフラ最適化、デプロイメントパイプライン強化などの実用的な推奨事項を提供し、ワークフローを変更せずに運用データの未活用の洞察にアクセスできます。生成 AI を活用したインシデント対応の自動化により、開発チームは本来の開発業務により集中でき、システムの信頼性とパフォーマンスを継続的に改善しながら運用負荷を削減します。 Kiro autonomous agent の紹介 Amazon Nova 関連 Amazon Nova 2 Omni をプレビューを発表 Amazon Nova 2 Omni は、業界初となるマルチモーダル推論と画像生成を統合したオールインワンモデルで、テキスト、画像、動画、音声入力をサポートしながらテキストと画像の両方を生成できます。従来は入出力タイプごとに異なる専門モデルを組み合わせる必要がありましたが、Nova 2 Omni は単一モデルでマルチモーダル理解、自然言語による画像生成・編集、音声の文字起こしを実現し、複数 AI モデルの管理の複雑性を排除してアプリケーション開発を加速します。1M トークンのコンテキストウィンドウ、200 以上の言語対応、キャラクター一貫性やテキストレンダリングを含む高品質な画像生成、複数話者の会話を文字起こし・翻訳・要約する優れた音声理解に加え、柔軟な推論制御により深さと予算を調整できます。生成 AI を活用したマーケティングコンテンツ作成、カスタマーサポート通話の文字起こし、動画分析、ビジュアルエイド付きドキュメント作成など多様なタスクを単一モデルで効率的に処理でき、コストとパフォーマンスの最適化を同時に実現します。 Amazon Nova Forge: Nova を使用した独自のフロンティアモデル構築 Amazon Nova Forge が一般提供となり、Nova を使って組織独自のフロンティアモデルを構築できるようになりました。SageMaker AI 上で Nova の初期チェックポイントからプレトレーニング、ミッドトレーニング、ポストトレーニングの各フェーズでモデル開発を開始でき、独自データと Amazon Nova キュレートデータをブレンドしてトレーニングできます。Nova Forge 限定機能として、環境内の報酬関数を使った Reinforcement Fine Tuning (RFT) の実行や、組み込みの責任ある AI ツールキットによるカスタム安全ガードレールの実装が可能です。組織の独自知識を深く理解し専門性を反映したモデルを構築しながら、推論などの一般的能力を維持し、壊滅的忘却のリスクを最小化します。 Amazon Nova Act(GA)で本番環境の UI ワークフローを自動化するエージェントを構築 Amazon Nova Act が一般提供となり、開発者は本番環境の UI ワークフローを自動化する高信頼性エージェントのフリートを構築・管理できるようになりました。カスタム Nova 2 Lite モデルで駆動され、高いコスト効率と高速な価値創出、大規模実装の容易性を提供します。ブラウザ内での反復的な UI ワークフローの実行、API やツール(PDF への書き込みなど)の実行、適切なタイミングでの監督者へのエスカレーションを実行します。開発者は自然言語の柔軟性と Python コードの決定性を組み合わせてワークフローを定義でき、 nova.amazon.com/act のオンラインプレイグラウンドで迅速にプロトタイピングを開始し、Nova Act IDE 拡張でスクリプトを改良・デバッグし、わずか数ステップで AWS にデプロイできます。生成 AI を活用したエンタープライズ全体の反復プロセス自動化により、手作業による UI 操作を削減し、生産性を向上できます。 Amazon Nova 2 基盤モデルが Amazon Bedrock で提供開始 Amazon Nova 2 は、業界トップクラスのコストパフォーマンスで推論機能を提供する次世代の汎用モデルです。高速でコスト効率の高い Amazon Nova 2 Lite と、高度に複雑なマルチステップタスク向けの最も高性能な Amazon Nova 2 Pro(プレビュー)の 2 つのモデルが提供されます。両モデルはステップバイステップ推論とタスク分解を行う拡張思考をサポートし、低・中・高の 3 つの思考強度レベルでスピード・知性・コストのバランスを制御できます。コードインタープリタやウェブグラウンディングなどの組み込みツール、リモート MCP ツールサポート、100 万トークンのコンテキストウィンドウを備え、Nova 2 Lite はカスタマーサービスチャットボット、ドキュメント処理、ビジネスプロセス自動化に、Nova 2 Pro はマルチドキュメント分析、動画推論、ソフトウェア移行といった複雑なエージェントタスクに活用できるため、生成 AI アプリケーションの開発において日常業務から高度な分析まで幅広いユースケースを効率的かつ柔軟に実現できます。 Amazon Nova 2 Sonic をリアルタイム会話 AI 向けに発表 Amazon Nova 2 Sonic は、自然でリアルタイムな会話 AI を実現する音声対音声モデルです。最高クラスのストリーミング音声理解で背景ノイズや話し方の違いにロバストに対応し、効率的な対話処理と複数言語をネイティブに話せる表現力豊かな音声生成(Polyglot voices)を提供します。同じ声で異なる言語をネイティブの表現力で話せる Polyglot voices、低・中・高で設定可能なターンテイキング制御、音声とテキストのシームレスな切り替え、会話フローを中断しないマルチステップタスク向けの非同期ツール呼び出し、100 万トークンのコンテキストウィンドウを備えています。Amazon Bedrock の双方向ストリーミング API で直接統合でき、Amazon Connect、Vonage、Twilio、AudioCodes、LiveKit、Pipecat などとシームレスに連携するため、生成 AI を活用したカスタマーサポートやバーチャルアシスタントなど高品質な音声対話アプリケーションを迅速に構築できます。 Amazon Bedrock 関連 Amazon Bedrock が 18 のフルマネージドオープンウェイトモデルを追加 Amazon Bedrock がこれまで最大となる 18 のフルマネージドオープンウェイトモデルを追加しました。統一 API を通じて Google(Gemma 3 4B/12B/27B)、MiniMax AI(MiniMax M2)、Mistral AI(Mistral Large 3、Ministral 3 シリーズ、Magistral Small 1.2、Voxtral シリーズ)、Moonshot AI(Kimi K2 Thinking)、NVIDIA(Nemotron Nano 2 シリーズ)、OpenAI(gpt-oss-safeguard シリーズ)、Qwen(Qwen3-Next、Qwen3-VL)などの主要 AI 企業のモデルにアクセスできます。アプリケーションの書き換えやインフラ変更なしにモデルを評価・切り替え・採用できるため、ユースケースに応じて最適なモデルを柔軟に選択でき、特定ベンダーへのロックインを回避しながら、生成 AI アプリケーションとエージェントを本番スケールで構築できます。多様なモデルの選択肢により、コスト、パフォーマンス、機能のバランスを最適化し、ビジネス要件に最も適したソリューションを実現できます。 Bedrock Knowledge Bases のマルチモーダル検索が一般提供開始 Amazon Bedrock Knowledge Bases のマルチモーダル検索が一般提供となり、テキスト、画像、音声、動画ファイル全体で動作する AI 検索と質問応答アプリケーションの構築が可能になりました。従来はテキストドキュメントと画像のみ検索可能でしたが、会議記録、トレーニング動画、ビジュアルドキュメンテーションなど、すべてのエンタープライズデータフォーマットから洞察を抽出できるようになりました。開発者はマルチモーダルコンテンツを取り込む際にパース、チャンキング、埋め込み、ベクトルストレージを制御でき、テキストクエリまたは画像を入力として送信し、関連するテキスト、画像、音声、動画セグメントを取得して LLM で応答を生成できます。 Amazon Bedrock AgentCore に Policy(プレビュー)、Evaluations(プレビュー)などを追加 Amazon Bedrock AgentCore に Policy(プレビュー)と Evaluations(プレビュー)が追加され、エージェントをプロトタイプから本番環境へ安心してスケールするために必要なコントロールと品質保証を提供します。Policy は AgentCore Gateway と統合してすべてのツール呼び出しをリアルタイムで傍受し、エージェントを定義された境界内に保ちながら、自然言語で作成したポリシーを自動的に AWS オープンソースポリシー言語 Cedar に変換します。Evaluations は 13 の組み込み評価器(helpfulness、tools selection、accuracy など)またはカスタムモデルベーススコアリングシステムで、実世界の動作に基づいてエージェントのパフォーマンスをテスト・監視し、広範な顧客影響を与える前に問題を発見します。さらに AgentCore Memory にエピソード記憶、Runtime に双方向ストリーミング、Identity にカスタムクレームが追加され、開発・コンプライアンス・セキュリティチームがカスタムコードなしで生成 AI エージェントのルールを設定・理解・監査でき、品質とガバナンスを維持しながら組織全体でエージェントを効率的に展開できます。 Amazon Bedrock AgentCore Runtime が双方向ストリーミングをサポート Amazon Bedrock AgentCore Runtime が双方向ストリーミングをサポートし、エージェントが同時にリスニングと応答を行いながら会話途中の割り込みやコンテキスト変更を処理できるようになりました。従来のエージェントは応答完了まで待つ必要があり、特に音声アプリケーションで不自然な止まり・進み型の対話となっていましたが、双方向ストリーミングにより継続的な双方向コミュニケーションを実現し、ユーザーは会話途中で割り込み・明確化・方向転換が可能になります。AgentCore Runtime に組み込まれているため、リアルタイムストリーミング機能の構築に必要な数ヶ月のエンジニアリング作業を排除でき、音声エージェントだけでなくテキストベースの対話の応答性も向上します。 Mistral Large 3 と Ministral 3 ファミリーが Amazon Bedrock で先行提供開始 Mistral Large 3 と Ministral 3 ファミリーが Amazon Bedrock で先行提供となりました。Mistral Large 3 は 41B アクティブパラメータと 675B 総パラメータを持つ最先端のオープンウェイト汎用マルチモーダルモデルで、256K コンテキストウィンドウと強力なエージェント機能により本番グレードのアシスタント、検索拡張システム、複雑なエンタープライズワークフローに最適化されています。Ministral 3 ファミリーは 14B(ローカルデプロイ向け高度マルチモーダル)、8B(エッジデプロイとシングル GPU 向けテキスト・ビジョン)、3B(低リソース環境向けコンパクト)の 3 つのモデルを提供し、フロンティア知性から効率的エッジコンピューティングまで全スペクトラムをカバーします。 Amazon Bedrock が強化学習型ファインチューニングをサポート、ベースモデルと比較して平均 66% の精度向上を実現 Amazon Bedrock が強化学習型ファインチューニングをサポートし、機械学習の専門知識や大量のラベル付きデータなしでモデル精度を向上できるようになりました。従来のファインチューニング手法では大量のデータが必要でしたが、強化学習型ファインチューニングは小さなプロンプトセットで学習でき、同じプロンプトに対する複数の応答へのフィードバックを通じてモデルが良い応答の判断を学習します。Amazon Bedrock はこのワークフローを自動化し、コンピュータから直接または Amazon S3 に保存されたデータセットでトレーニングデータをアップロードでき、ルールベースまたは AI ベースの報酬関数で組み込みテンプレートを使ってコード生成や数学推論などの客観的タスク、指示追従やチャットボット対話などの主観的タスクの両方を最適化します。平均 66% の精度向上により、より小型で高速かつコスト効率の高いモデルを高品質を維持しながら使用でき、独自データは AWS の安全でガバナンスされた環境内に保持されるため、生成 AI モデルを組織固有のビジネスニーズに迅速・安全に適応させ、専門人材や複雑なインフラへの投資なしに高度なモデルカスタマイズを実現できます。 Amazon Bedrock が OpenAI の Responses API をサポート Amazon Bedrock が OpenAI API 互換のサービスエンドポイントで Responses API をサポート開始しました。長時間実行の推論ワークロード向けに非同期推論を実現し、エージェントワークフロー向けのツール統合を簡素化するとともに、状態を保持した会話管理を提供します。従来は各リクエストで会話履歴全体を渡す必要がありましたが、Responses API により手動履歴管理なしでコンテキストを自動的に再構築できます。ストリーミング/非ストリーミングモード、Chat Completions API での推論努力サポートを備え、既存コードベースでベース URL の変更のみで OpenAI SDK 互換性を持って統合できます。新しい分散推論エンジン Project Mantle により、Amazon Bedrock へのモデルオンボーディングを簡素化・迅速化し、高性能で信頼性の高いサーバーレス推論、自動容量管理とデフォルトクォータの向上、OpenAI API 仕様との標準互換性を実現しており、生成 AI アプリケーション開発において既存の OpenAI 統合コードをほぼそのまま活用しながら Amazon Bedrock の幅広いモデル選択肢とエンタープライズ機能を利用できます。 TwelveLabs の Pegasus 1.2 モデルがグローバルクロスリージョン推論により 23 の新 AWS リージョンで利用可能に Amazon Bedrock が TwelveLabs の Pegasus 1.2 にグローバルクロスリージョン推論を導入し、既存の 7 リージョンに加えて 23 の新リージョンでモデル利用が可能になりました。地理的クロスリージョン推論により全 EU リージョンでもアクセスでき、特定地域内のデータ残留やコンプライアンス要件に対応します。Pegasus 1.2 は動画ファーストの言語モデルで、動画内のビジュアル、オーディオ、テキストコンテンツからテキストを生成し、特に長尺動画の動画対テキスト生成と時間的理解に優れています。データとエンドユーザーに近い場所で動画インテリジェンスアプリケーションを構築できるようになり、レイテンシを削減してアーキテクチャを簡素化できます。 ふぅ、ここまで読んでくださった皆様ありがとうございました!続けてPart2、Part3もございますので是非アクセスしてみてください。 週刊AWS – re:Invent 2025 特別号 part 2 週刊AWS – re:Invent 2025 特別号 part 3 今週は以上です。それでは、また来週お会いしましょう! 著者について 野間 愛一郎 (Aiichiro Noma) AWS Japan のソリューションアーキテクトとして、製造業のお客様を中心に日々クラウド活用の技術支援を行なっています。データベースやデータ分析など、データを扱う領域が好きです。最近、ハーブを育てるのにハマっています。 三厨 航 (Wataru MIKURIYA) AWS Japan のソリューションアーキテクト (SA) として、ヘルスケア・ハイテク製造業のお客様のクラウド活用を技術的な側面・ビジネス的な側面の双方から支援しています。クラウドガバナンスや IaC 分野に興味があり、最近はそれらの分野の生成 AI 応用にも興味があります。最近見たドラマは「阿修羅のごとく」です。
2025 年 12 月 3 日、Amazon Nova、 DeepSeek 、 GPT-OSS 、Llama、Qwen などの人気の AI モデル向けの Amazon SageMaker AI の新しいサーバーレスカスタマイズを発表できることを嬉しく思います。 新しいカスタマイズ機能は、強化学習などの最新ファインチューニング手法を簡単に操作できるインターフェイスを提供し、AI モデルのカスタマイズプロセスを数か月から数日に短縮できます。 わずか数クリックで、モデルとカスタマイズ手法をシームレスに選択し、モデルの評価やデプロイメントを行うことができます。すべて完全にサーバーレスで実行されるため、インフラ管理ではなくモデルのチューニングに専念できます。サーバーレスカスタマイズを選択すると、SageMaker AI がモデルとデータサイズに基づいて適切なコンピューティングリソースを自動的に選択およびプロビジョニングします。 サーバーレスモデルのカスタマイズを始める Amazon SageMaker Studio でモデルのカスタマイズを開始できます。左側のナビゲーションペインで [ モデル ] を選択し、カスタマイズしたいお気に入りの AI モデルをチェックしてください。 UI によるカスタマイズ 数回のクリックで AI モデルをカスタマイズできます。 Meta Llama 3.1 8B Instruct などの特定のモデルの「 モデルのカスタマイズ 」ドロップダウンリストで、「UI でカスタマイズ」を選択します。 ベースモデルをユースケースに適合させるために使用するカスタマイズ手法を選択できます。 SageMaker AI は、 直接選好最適化 、 検証可能な報酬からの強化学習 (RLVR)、AI フィードバックによる強化学習 (RLAIF) など、 教師ありの微調整と最新のモデルカスタマイズ技術をサポートしています 。 それぞれの手法は、データセットのサイズと品質、利用可能な計算リソース、手元のタスク、必要な精度レベル、展開の制約などの要因によって異なる方法でモデルを最適化します。 選択したカスタマイズ手法に必要な形式に一致するトレーニングデータセットをアップロードまたは選択します。選択した手法が推奨するバッチサイズ、学習率、エポック数の値を使用してください。ハイパーパラメーター、実験追跡用の新しく導入されたサーバーレス MLfLow アプリケーション、ネットワークとストレージボリュームの暗号化などの詳細設定を構成できます。[ 送信 ] を選択して、モデルトレーニングジョブを開始してください。 トレーニングジョブが完了すると、作成したモデルが [ マイモデル ] タブに表示されます。いずれかのモデルで [ 詳細を表示 ] を選択します。 [ カスタマイズを続ける ] を選択すると、ハイパーパラメーターを調整したり、さまざまな手法でトレーニングしたりして、モデルを引き続きカスタマイズできます。[ 評価 ] を選択すると、カスタマイズしたモデルを評価して、基本モデルと比較してどのように機能するかを確認できます。 両方のジョブを完了したら、「デプロイ」ドロップダウンリストで「 SageMaker 」または「 Bedrock 」 を選択してモデルをデプロイできます 。 サーバーレス推論には Amazon Bedrock を選択できます。 Bedrock とモデル名を選択して、モデルを Amazon Bedrock にデプロイします。デプロイされたモデルを見つけるには、 Bedrockコンソールで 「 インポートされたモデル 」を選択します。 インスタンスタイプやインスタンス数などのデプロイリソースを制御したい場合は、モデルを SageMaker AI 推論エンドポイントにデプロイすることもできます。SageMaker AI デプロイメントが稼働中になったら 、このエンドポイントを使用して推論を実行できます。 Playground タブでは、カスタマイズしたモデルを 1 つのプロンプトまたはチャットモードでテストできます。 サーバーレスの MLFlow 機能を使用すると、コードを変更せずにすべての重要な実験メトリクスを自動的にログに記録し、豊富なビジュアライゼーションにアクセスしてさらに分析することができます。 コードでカスタマイズ コードによるカスタマイズを選択すると、AI モデルを微調整またはデプロイするためのサンプルノートブックが表示されます。サンプルノートブックを編集する場合は、JupyterLab で開きます。または、[Deploy] を選択してモデルをすぐにデプロイすることもできます 。 Amazon SageMaker Inference または Amazon SageMaker Hyperpod のいずれかからデプロイリソースを選択して、Amazon Bedrock または SageMaker AI エンドポイントを選択できます。 ページの右下にある [ Deploy ] を選択すると、モデルの詳細ページにリダイレクトされます。SageMaker AI デプロイメントが稼働したら、このエンドポイントを使用して推論を実行できます。 さて、SageMaker AI でモデルのカスタマイズを効率化する方法を見てきました。これで、お気に入りの方法を選択できます。詳細については、 Amazon SageMaker デベロッパーガイド をご覧ください。 今すぐご利用いただけます Amazon SageMaker AI の新しいサーバーレス AI モデルのカスタマイズが 、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (東京)、およびヨーロッパ (アイルランド) リージョンで利用できるようになりました。トレーニングと推論中に処理されたトークンの分のみお支払いいただきます。詳細については、 Amazon SageMaker AI 料金表ページをご覧ください 。 Amazon SageMaker Studio にぜひお試しいただき、 AWS re:Post for Amazon SageMaker 宛てに、または通常の AWS サポートの連絡先を通じて、フィードバックをお寄せください。 – Channy 原文は こちら です。
みなさん、こんにちは。ソリューションアーキテクトの古屋です。今週も 週刊AWS を皆様へお届けします! 先週は AWS re:Invent 2025 が開催されました。今週は特別号となっており、多くのアップデートを広くお届けするために、以下の 3 part 構成となっています。 週刊生成AI with AWS – re:Invent 2025 特別号 part 1 週刊AWS – re:Invent 2025 特別号 part 2 週刊AWS – re:Invent 2025 特別号 part 3 (本記事) また、AWS の公式Youtubeチャンネル AWS Events にて各セッションをオンデマンド配信しておりますので、臨場感を味わいたい方はぜひこちらもご視聴くださいませ! それでは、主なアップデートについて振り返っていきましょう。 カテゴリリンク : Migration & Modernization | Networking & Content Delivery | Partner Network | Security, Identity, & Compliance | Storage Migration & Modernization AWS Transform カスタム が組織全体のアプリケーションモダナイゼーションを加速 AWS Transform カスタム の一般提供が開始されました。エージェント型 AI を使用して組織固有のコードとアプリケーションのモダナイゼーションを大規模に加速するサービスです。バージョンアップグレード、ランタイム移行、フレームワーク移行などを自動化し、多くのケースで実行時間を 80% 以上削減します。Python や Node.js のランタイムアップグレード、Java 8 から 17 へのアップグレードなどの一般的なパターンについては事前構築済みの変換を提供し、組織固有のニーズには自然言語で変換を定義できます。シンプルな 1 行の CLI コマンドで変換をトリガーでき、エージェントは開発者のフィードバックから継続的に学習し変換精度を向上させます。詳細は こちらのブログをご覧ください。 AWS Transform がフルスタック Windows モダナイゼーション向け AI エージェントを発表 AWS Transform for full-stack Windows modernization が発表されました。Windows アプリケーションスタック全体にわたる複雑で面倒なモダナイゼーション作業を自動化するサービスです。アプリケーション、UI、データベース、デプロイメント層全体で、フルスタック Windows モダナイゼーションを最大 5 倍加速します。.NET Framework アプリケーションをクロスプラットフォーム .NET に移植するとともに、SQL Server データベースを Amazon Aurora PostgreSQL に移行し、ストアドプロシージャの変換と依存するアプリケーションコードのリファクタリングを行います。検証とテストのため、AWS Transform はアプリケーションを Amazon EC2 Linux または Amazon ECS にデプロイし、本番環境用のカスタマイズ可能な AWS CloudFormation テンプレートとデプロイ設定を提供します。詳細は こちらのブログをご覧ください。 AWS Transform for mainframe に新しいテスト自動化機能を追加 AWS Transform for mainframe で新しいテスト自動化機能が提供開始されました。通常プロジェクト期間の 50% 以上を消費するメインフレームモダナイゼーションテストに必要な時間と労力を削減できます。自動テスト計画生成、テストデータ収集スクリプト、テストケース自動化スクリプトが含まれ、テスト環境のステージング、テストケースの実行、結果検証を自動化します。複雑なテストタスクを自動化し、希少なメインフレーム専門知識への依存を減らすことで、組織はより高い信頼性でアプリケーションをモダナイズできます。詳細は こちらのブログをご覧ください。 AWS Transform にエンタープライズ VMware 移行向けエージェント型 AI 機能を追加 AWS Transform に VMware 移行を自動化する新しいエージェント型 AI 機能が追加されました。移行エージェントが移行チームのビジネス優先順位を理解し、数千のサーバーにまたがる数百のアプリケーションを計画・移行することで、手動作業、時間、複雑さを大幅に削減します。所有権、部門、機能などのビジネスおよび技術的優先順位でグループ化された移行計画を生成し、VMware、HyperV、Nutanix、KVM などのハイパーバイザーや物理環境から AWS へサーバーを安全に移行します。移行中はエージェントに質問しながら、ステップの繰り返しやスキップ、計画の調整が可能です。詳細は こちらの製品ページをご参照ください。 Networking & Content Delivery AWS Interconnect – multicloud のプレビュー提供を開始 AWS Interconnect – multicloud のプレビュー提供が開始されました。他のクラウドサービスプロバイダー (CSP) へのシンプルで回復力のある高速プライベート接続を提供するサービスです。従来、複数のクラウドプロバイダー間でワークロードを相互接続する際に必要だったグローバルな多層ネットワークの管理が不要になり、Amazon VPC と他のクラウド環境間で専用帯域幅と組み込みの回復力を備えたプライベートで安全な接続を迅速に確立できます。プレビューでは Google Cloud が最初のローンチパートナーとなり、2026 年後半には Microsoft Azure もサポート予定です。現在、バージニア北部リージョンを含む、5 つの AWS リージョンでプレビュー提供中です。詳細は こちらのドキュメントをご参照ください。 Amazon Route 53 Global Resolver が安全な anycast DNS 解決を提供(プレビュー) Amazon Route 53 Global Resolver のプレビュー提供が開始されました。組織内の認証済みクライアントに対し、インターネット経由でどこからでも利用できる、簡単・安全・高信頼な DNS 解決を提供する新しい DNS リゾルバーです。このサービスにより、パブリックドメインと、Route 53 プライベートホストゾーンに関連付けられたプライベートドメインの両方を解決するスプリット DNS を実現できます。 また、DNS Firewall ルールを使って、マルウェアやスパム、DNS トンネリングといった脅威カテゴリに基づいてドメインクエリをフィルタリングし、DNS ベースのデータ流出攻撃からクライアントを保護できます。2 つ以上のリージョンを anycast DNS 解決の対象として選択することで、自動フェイルオーバー付きの高可用な DNS 解決を構成できます。 プレビュー期間中は、Global Resolver を追加料金なしで利用できます。詳細は こちらのブログをご覧ください。 Partner Network AWS Marketplace でマルチプロダクトソリューションを提供開始 AWS Marketplace でマルチプロダクトソリューションのサポートが開始されました。1 つ以上の AWS パートナーからの製品とサービスを組み合わせた、特定の業界や顧客ユースケースに合わせたソリューション中心の調達が可能になります。パートナーは、独立系ソフトウェアベンダー (ISV) からシステムインテグレーターまで、自社のソフトウェアやサービスと、他の AWS パートナーから再販を許可された製品を組み合わせて包括的なソリューションを販売できます。ユーザーは、単一の窓口での交渉、総コストの評価、ソリューションを構成するすべての製品を一括で承認できるなど、合理化された調達プロセスのメリットを得られます。 購入後は、各コンポーネントごとに更新や契約期間を個別に管理できる柔軟性も備えています。詳細は こちらのブログをご覧ください。 AWS Partner Central が AWS Management Console で利用可能に AWS Partner Central が AWS Management Console で利用可能になりました。これにより、AWS パートナーは Partner Central と AWS Marketplace Management Portal に、より簡単にアクセスできるようになりました。また、統合やプロセス自動化のための API も利用可能です。また、IAM に基づく強化されたセキュリティとユーザー管理機能により、きめ細かなアクセス許可設定やシングルサインオン (SSO) が可能になり、運用効率とスケーラビリティが向上します。本機能はすべての AWS リージョンで利用可能です。詳細は こちらのブログをご覧ください。 AWS AI Competency に新しい Agentic AI カテゴリを追加 AWS AI Competency(旧 Generative AI Competency)が大幅に拡張され、Agentic AI Tools、Agentic AI Applications、Agentic AI Consulting Services の3 つの新しい Agentic AI カテゴリが追加されました。これらのカテゴリにより、ユーザーは最小限の人間の監視で認識・推論・行動できる自律型 AI システムの開発と実装を専門とする AWS パートナーを容易に特定できます。また、パートナー検証プロセスを効率化するために AWS Partner Central に AI エージェントが導入され、パートナーは AI Specialization 申請に対して即座にフィードバックを受け取れるようになり、コンピテンシー取得までの道のりが大幅に加速されます。 詳細は こちらのブログをご覧ください。 Security, Identity, & Compliance AWS Security Agent を発表(プレビュー) AWS Security Agent のプレビュー提供が開始されました。開発ライフサイクル全体でアプリケーションを積極的に保護する AI エージェントです。組織の要件に合わせた自動セキュリティレビューを実施し、コンテキストを考慮したペネトレーションテストを提供します。セキュリティチームが暗号化ライブラリや認証フレームワークなどのセキュリティ要件を一度定義すると、エージェントがアーキテクチャドキュメントとコードを評価し、違反が検出された場合に具体的なガイダンスを提供します。ペネトレーションテストでは、エージェントがアプリケーションコンテキストを構築し、高度な攻撃チェーンを実行して脆弱性を発見・検証します。すべてのチームにわたって一貫したセキュリティポリシーの適用を実現し、リスク露出を大幅に削減します。バージニア北部リージョンでプレビュー提供中です。詳細は こちらのブログをご覧ください。 Amazon GuardDuty Extended Threat Detection が Amazon EC2 と Amazon ECS をサポート Amazon GuardDuty Extended Threat Detection が Amazon EC2 インスタンスと Amazon ECS クラスターを対象とした多段階攻撃を検出する機能を発表しました。AWS 規模でトレーニングされた AI と機械学習アルゴリズムを使用して、セキュリティシグナルを自動的に相関付け、重大な脅威を検出します。また、新たに 2 種類の重大度「クリティカル」の検出結果が追加され、攻撃シーケンス情報を提供することで、初期分析にかかる時間を短縮し、重大な脅威への対応により多くの時間を割けるようになります。各検出結果には、詳細なサマリー、イベントタイムライン、MITRE ATT&CK の戦術とテクニックへのマッピング、推奨される対処方法が含まれます。GuardDuty Extended Threat Detection は、GuardDuty を有効化しているお客様であれば追加料金なしで自動的に有効になります。詳細は こちらのブログをご覧ください。 IAM Policy Autopilot が IAM ポリシー作成を簡素化を実現 IAM Policy Autopilot が発表されました。アプリケーションコードを分析し、AI コーディングアシスタントが AWS Identity and Access Management (IAM) のアイデンティティベースのポリシーを生成するのを支援する、新しいオープンソースの Model Context Protocol (MCP) サーバーです。コーディングアシスタントは IAM Policy Autopilot を呼び出してアプリケーション内の AWS SDK 呼び出しを分析し、必要なアイデンティティベースの IAM ポリシーを生成します。詳細は こちらのブログをご覧ください。 (新)AWS Security Hub が一般提供開始 新しいAWS Security Hub の一般提供が開始されました。重要なセキュリティ問題を優先順位付けし、大規模な対応を支援する統合クラウドセキュリティソリューションです。一般提供により、Security Hub にはニアリアルタイムのリスク分析、高度なトレンド、統合された有効化と管理が含まれるようになりました。Amazon GuardDuty、Amazon Inspector、AWS Security Hub CSPM からのセキュリティシグナルを関連付けて強化することで重大なリスクを検出し、クラウド環境内のアクティブなリスクを迅速に表面化して優先順位を付けることができます。強化された視覚化とコンテキストエンリッチメントを通じて、セキュリティシグナルを実用的な洞察に変換します。詳細は こちらのブログをご覧ください。 Storage Amazon FSx for NetApp ONTAP が Amazon S3 アクセスをサポート開始 Amazon FSx for NetApp ONTAP ファイルシステムに Amazon S3 Access Points をアタッチできるようになりました。ファイルデータを S3 にあるかのようにアクセスできます。FSx for NetApp ONTAP のファイルデータが、S3 と連携する AI、機械学習、分析サービスやアプリケーションで簡単に利用できるようになり、ファイルデータは FSx for NetApp ONTAP ファイルシステムに保存されたままです。Amazon Bedrock で生成 AI アプリケーションを強化したり、Amazon SageMaker で機械学習モデルをトレーニングしたり、Amazon Glue を使用して分析を実行したり、S3 ベースのクラウドネイティブアプリケーションを使用してワークフローを実行できます。詳細は こちらのブログをご覧ください。 Amazon S3 Tables にレプリケーションと Intelligent-Tiering を追加 Amazon S3 Tables に 2 つの新機能が追加されました。1 つは、アクセスパターンに基づいてストレージコストを自動最適化する Intelligent-Tiering ストレージクラス、もう 1 つは、手動同期なしで AWS リージョンやアカウント間で一貫した Apache Iceberg テーブルレプリカを維持できるレプリケーションのサポートです。Intelligent-Tiering ストレージクラスでは、アクセスパターンの変化に応じてデータを最もコスト効率の高いアクセス階層へ自動的に移動し、アプリケーションの変更やパフォーマンスへの影響なしにストレージコストを削減できます。レプリケーション機能では、Apache Iceberg テーブルのレプリカが読み取り専用テーブルとして自動的に作成され、ソーステーブルのスナップショット構造を維持したまま更新が順次反映されます。詳細は こちらのブログをご覧ください。 Amazon S3 Storage Lens に 3 つの新機能追加 Amazon S3 Storage Lens に 3 つの新機能が追加されました。ストレージのパフォーマンスと使用パターンに関する深い洞察を提供するパフォーマンスメトリクス、数十億のプレフィックスの分析サポート、Amazon S3 Tables への直接エクスポート機能です。新しいパフォーマンスメトリクスには、小さなオブジェクトによるパフォーマンス低下を特定するリクエストサイズ分布、同時 PUT 操作による 503 エラーの追跡、リージョン間データ転送の可視化、頻繁にアクセスされるオブジェクトの特定などが含まれます。プレフィックス分析は大幅に拡張され、従来の 1% サイズ閾値と最大深度 10 レベルの制限が撤廃され、バケットあたり数十億のプレフィックスを最も詳細なレベルで分析できるようになりました。メトリクスは S3 Tables に自動的にエクスポートされ、Amazon Athena や Amazon QuickSight などの AWS 分析サービスで追加の処理インフラストラクチャなしですぐにクエリできます。詳細は こちらのブログをご覧ください。 Amazon S3 Vectors がスケールとパフォーマンスを向上させて一般提供開始 Amazon S3 Vectors の一般提供が開始されました。ベクトルデータの保存とクエリをネイティブにサポートする初のクラウドオブジェクトストレージで、専用のベクトルデータベースソリューションと比較して総コストを最大 90% 削減できます。単一のインデックスで最大 20 億のベクトルを保存および検索できるようになり、プレビュー時の 40 倍に増加しました。クエリパフォーマンスも最適化され、頻度の高いクエリでは約 100 ミリ秒以下のレイテンシーを実現し、会話型 AI やマルチエージェントワークフローなどのインタラクティブなアプリケーションに適しています。書き込みパフォーマンスも大幅に向上し、最大 1,000 PUT トランザクション/秒をサポートします。完全なサーバーレスアーキテクチャにより、インフラストラクチャのオーバーヘッドが排除され、使用した分だけ支払います。14 の AWS リージョンで利用可能です。詳細は こちらのブログをご覧ください。 Amazon S3 で最大オブジェクトサイズが 50 TB に Amazon S3 の最大オブジェクトサイズが 50 TB に増加しました。従来の 5 TB 制限から 10 倍の増加となります。高解像度ビデオ、地震データファイル、AI トレーニングデータセットなどの大きなオブジェクトの処理が簡素化できます。50 TB のオブジェクトはすべての S3 ストレージクラスに保存でき、すべての S3 機能を使用できます。詳細は こちらのドキュメントをご参照ください。 それでは、また来週お会いしましょう! 著者について 古屋 楓 (Kaede Koya) / @KaedeKoya35328 AWS Japan のソリューションアーキテクトとして、多種多様な業界のお客様をご支援しています。特定の技術やサービスに偏らず、幅広い分野のご相談に対応し、技術相談会や各種イベントにて登壇しています。好きな AWSサービスは Amazon Lightsail と Amazon Q Developer で、シンプルかつ柔軟にクラウドの力を活用できる点がお気に入りです。休日は愛犬 2 匹と静かに過ごしています。
組織は、AI モデルを自社の具体的なビジネスニーズに適応させる際に、難しい選択を迫られます。平均的な結果しか出ない汎用モデルで妥協するか、高度なモデルカスタマイズの複雑さとコストに挑むかです。従来の方法では、小規模モデルでは性能が低く、大規模モデルでは高コストや複雑なインフラストラクチャの管理が必要になるという選択を強いられます。強化学習による微調整は、大規模なラベル付きデータセットではなくフィードバックを使ってモデルを訓練する高度な手法ですが、実装には通常、専門的な機械学習の知識、複雑なインフラ、および多大な投資が必要であり、特定のユースケースに必要な精度が得られる保証はありません。 2025 年 12 月 3 日、 Amazon Bedrock の強化微調整について発表しました 。これは、フィードバックから学び、特定のビジネスニーズに合わせてより質の高いアウトプットを提供する、 よりスマートで費用対効果の高いモデルを作成する新しいモデルカスタマイズ機能です 。強化型微調整は、報酬信号に基づいてモデルが反復的に改善されるフィードバック駆動型のアプローチを使用し、基本モデルに比べて平均で 66% の精度向上をもたらします。 Amazon Bedrock は強化微調整のワークフローを自動化し、 深い機械学習 (ML) の専門知識や大規模なラベル付きデータセットを必要とせずに、この高度なモデルカスタマイズ手法を日常の開発者が利用できるようにしています。 強化微調整の仕組み 強化学習の微調整は 、ビジネス要件とユーザーの好みに合ったアウトプットを一貫してモデルが生成されるようにするという共通の課題に対処するために、強化学習の原則に基づいて構築されています。 従来のファインチューニングは大規模なラベル付きデータセットと高額な人的注釈を必要としますが、強化学習によるファインチューニングは異なるアプローチを取ります。固定された例から学習するのではなく、報酬関数を使って、特定のビジネス用途に対してどの応答が良いとされるかを評価・判断します。これは、膨大な量の事前ラベル付きトレーニングデータを必要とせずに、モデルが高品質な応答の条件を理解できるように教えるもので、Amazon Bedrock での高度なモデルカスタマイズをより手軽でコスト効果の高いものにします。 Amazon Bedrock で強化微調整を使用する利点は次のとおりです。 使いやすさ — Amazon Bedrock は複雑さの多くを自動化し、AI アプリケーションを構築する開発者が強化の微調整をより簡単に行えるようにします。Amazon Bedrock の既存の API ログを使用するか、データセットをトレーニングデータとしてアップロードしてモデルをトレーニングできるため、ラベル付けされたデータセットやインフラストラクチャの設定は不要です。 モデルパフォーマンスの向上 — 強化による微調整により、基本モデルと比較してモデルの精度が平均 66% 向上し、より小さく、より速く、より効率的なモデルバリアントをトレーニングすることで、価格とパフォーマンスを最適化できます。これは Amazon Nova 2 Lite モデルと連携し、特定のビジネスニーズに合わせて品質と価格パフォーマンスを向上させ、他のモデルも間もなくサポートする予定です。 セキュリティ — データはカスタマイズプロセス全体を通して安全な AWS 環境内に留まるため、セキュリティとコンプライアンスの懸念が軽減されます。 この機能は、モデルを柔軟に最適化するための次の 2 つの補完的なアプローチをサポートします。 検証可能な報酬を伴う強化学習 (RLVR) では、コード生成や数学推論などの客観的なタスクにルールベースの採点器を使用します。 AI フィードバックによる強化学習 (RLAIF) では、指導のフォローやコンテンツのモデレーションなどの主観的なタスクに AI ベースのジャッジを採用しています。 Amazon Bedrockで補強材の微調整を始める それでは、補強微調整ジョブの作成について順を追って見ていきましょう。 まず、 Amazon Bedrock コンソールにアクセスします 。次に、「 カスタムモデル 」ページに移動します。[ 作成 ] を選択し、次に [ 強化微調整ジョブ ] を選択します。 まずこのカスタマイズ作業の名前を入力し、次に基本モデルを選択します。発売時点では、補強の微調整により Amazon Nova 2 Lite がサポートされ、その他のモデルも間もなくサポートされる予定です。 次に、トレーニングデータを提供する必要があります。保存されている呼び出しログを直接使用できるため、個別のデータセットをアップロードする必要がありません。新しい JSONL ファイルをアップロードしたり、 Amazon シンプルストレージサービス (Amazon S3 ) から既存のデータセットを選択したりすることもできます。強化微調整を行うと、トレーニングデータセットが自動的に検証され、OpenAI Chat Completions データ形式がサポートされます。 呼び出しログを Amazon Bedrock 呼び出し形式または逆形式で提供すると 、Amazon Bedrock はそれらをチャット完了形式に自動的に変換します。 リワード機能の設定では、何が良い反応になるかを定義します。ここで私は二つの選択肢があります。客観的なタスクについては、 カスタムコードを選択し 、 AWS Lambda 関数を介して実行されるカスタム Python コードを記述できます 。より主観的な評価を行う場合は、 審査員としてモデルを選択するか 、 評価指示を出すことでファンデーションモデル(FM) を審査員として使用できます。 ここでは、 カスタムコードを選択し 、新しい Lambda 関数を作成するか、既存の Lambda 関数を報酬関数として使用します。提供されているテンプレートの1つから始めて、特定のニーズに合わせてカスタマイズできます。 学習率、バッチサイズ、エポックなどのデフォルトのハイパーパラメータをオプションで変更できます。 セキュリティを強化するために、組織のコンプライアンス要件を満たすように仮想プライベートクラウド (VPC) 設定と AWS Key Management Service (AWS KMS) 暗号化を設定できます。次に、[ 作成 ] を選択してモデルのカスタマイズジョブを開始します。 トレーニングの過程で、モデルがどのように学習しているかを理解するために、リアルタイムの指標を監視することができます。トレーニングメトリクスダッシュボードは、報酬スコア、損失曲線、時間経過に伴う精度の向上など、主要なパフォーマンス指標を表示します。これらの指標は、モデルが適切に収束しているかどうか、報酬関数が学習プロセスを効果的に導いているかどうかを理解するのに役立ちます。 強化微調整ジョブが完了すると、 モデルの詳細ページで最終的なジョブの状態を確認できます 。 ジョブが完了すると、ワンクリックでモデルをデプロイできます。[ 推論の設定 ] を選択し、[ オンデマンド用にデプロイ ] を選択します。 ここでは、私のモデルの詳細をいくつか説明します。 デプロイ後、Amazon Bedrock プレイグラウンドを使ってモデルのパフォーマンスを素早く評価できます。これにより、微調整したモデルをサンプルプロンプトでテストし、その応答をベースモデルと比較して改善点を検証できます。 プレイグラウンドでテストを選択します。 Playground には直感的なインターフェイスがあり、迅速なテストとイテレーションが可能なため、本番アプリケーションに統合する前に、モデルが品質要件を満たしていることを確認できます。 インタラクティブデモ Amazon Bedrock 強化の微調整が実際に行われているインタラクティブなデモをご覧になり 、詳細をご覧ください。 その他の知っておくべきこと 留意点は以下のとおりです。 テンプレート — 客観的タスクと主観的タスクの両方の一般的なユースケースをカバーする、すぐに使える報酬関数テンプレートが7つあります。 価格 — 価格設定の詳細については 、 Amazon Bedrock の料金表ページを参照してください 。 セキュリティ — トレーニングデータとカスタムモデルは非公開のままであり、FM を一般に公開するための改善には使用されません。セキュリティを強化するために、VPC とAWS KMS の暗号化をサポートしています。 強化微調整のドキュメントにアクセスするか、Amazon Bedrock コンソールにアクセスして、強化の微調整を開始してください 。 構築がうまくいきますように! – Donnie 原文は こちら です。
みなさん、こんにちは。ソリューションアーキテクトの杉山です。 今週も 週刊AWS をお届けします。 先週は AWS re:Invent 2025 が開催されました。今週は特別号となっており、多くのアップデートを広くお届けするために、以下の 3 part 構成となっています。 週刊生成AI with AWS – re:Invent 2025 特別号 part 1 (ToBeUpdate) 週刊AWS – re:Invent 2025 特別号 part 2 (本記事) 週刊AWS – re:Invent 2025 特別号 part 3 (ToBeUpdate) re:Invent の発表内容をほぼ網羅したオンラインセミナーを 12/5 に開催しており「 2025 年 AWS re:Invent 速報 」に資料と動画が公開されていますので、こちらも合わせてご覧ください。 カテゴリリンク : Analytics | Business Application | Compute | Containers | Database | Global Infrastructure | Management & Governance AWS re:Invent 2025 期間に発表された主要なアップデート Part 2 Analytics AWS Clean Rooms で ML トレーニングのためのデータセット生成機能をサポート AWS Clean Rooms で、新たにデータセット生成機能をサポートしました。AWS Clean Rooms を活用すると、セキュリティを意識しながら社内外にデータを共有できます。新しいデータセット生成機能を利用すると、実際のレコードにアクセスすることなく、元のデータと類似した統計的特性を持つトレーニングデータセットを作成できるようになりました。元のデータ内でデータが収集された人物やエンティティなどの対象を匿名化し、モデルがトレーニングデータ内の個人に関する情報を学習するリスクを軽減しやすくなります。 Amazon EMR Serverless でローカルストレージが不要に Amazon EMR Serverless で Apache Spark ワークロード向けのサーバーレスストレージが利用可能になりました。これまでローカルディスクを手動設定する必要がありましたが、今回のアップデートでサーバーレスストレージを自動的に一部の処理で利用できるようになり、データ処理コストを最大 20 % 削減できます。EMR Serverless は shuffle などの中間データ操作を自動的に処理し、ローカルストレージを利用するのではなく、新しく追加されたサーバーレスストレージにオフロードします。この機能は、EMR リリース 7.12 以降で提供されています。 Business Application Amazon Connect が Model Context Protocol (MCP) サポートを開始 Amazon Connect が Model Context Protocol (MCP) をサポートしました。エンドユーザーが Amazon Connect に電話をかけると、コンタクトフロー上の自動音声対応や AI エージェントの対話の中から独自のMCP処理を呼び出せます。例えば、セルフサービスのやり取りの中で、注文ステータスの検索や顧客記録の更新を行うことができます。自動発注や自動返金などの金銭に関係する処理も技術的には可能ですが、ハルシネーションが発生する可能性が 0 ではないので、テストを行いながら検証を頂くとよいかなと思います。 詳細はこちらのドキュメント をご覧ください。 Amazon Connect で Amazon Nova Sonic モデルとの統合が可能に Amazon Connect で Amazon Nova Sonic の音声モデルと統合がサポートされ、より自然な音声体験を提供しやすくなりました。例えば、お客様が注文について電話をかけてきた際に、AI エージェントは名前を呼び掛けて挨拶を行い、要望を確認するための質問を行い、注文ステータスを調べ、返金処理を行います。会話全体を通じてお客様の会話トーンに適応した自然な応答がやりやすくなります。現在、バージニア北部、オレゴンリージョンで利用可能です。英語とスペイン語は一般提供されており、フランス語、イタリア語、ドイツ語ではプレビューで利用できます。 Amazon Connect Customer Profiles で新しいセグメンテーション機能を開始 (ベータ版) Amazon Connect Customer Profiles で、AI 支援によるセグメンテーション機能がベータ版で提供開始されました。従来のシンプルなセグメンテーションに加えて、Spark SQL を使った高度な顧客セグメント作成が可能になります。自然言語で「過去 1 か月で 3 回以上カスタマーサービスに連絡したお客様」といった条件を入力すると、AI が自動で SQL を生成してくれます。統計関数やデータ結合など複雑な分析も実現でき、より精密なターゲティングでアウトバウンドキャンペーンや個別化された顧客体験を提供できます。 詳細はこちらのドキュメント をご参照ください。 Compute AWS Lambda が複数ステップアプリケーションと AI ワークフロー向けの Durable Functions を発表 AWS Lambda に新機能「Durable Functions」が追加されました。従来の Lambda 関数は 15 分以内の短時間タスクに適していましたが、「Durable Functions」により長時間にわたるワークフローや、AI 関連フローなどを構築できるようになりました。実行状況を自動保存し、最大 1 年間処理を一時停止でき、障害時も自動復旧します。外部のオーケストレーションサービスが不要になり、開発者はビジネスロジックに集中できます。現在オハイオリージョンで Python と Node.js に対応しています。 AWS Lambda Managed Instances で EC2 インスタンス上で関数を実行 AWS Lambda Managed Instances が発表されました。これまで Lambda 関数は AWS が管理するインフラで実行されていましたが、この新機能により自分の EC2 インスタンス上で Lambda 関数を実行できるようになりました。Graviton 4 などの専用コンピュートリソースを利用できること、定常的に利用する Lambda の料金最適化 (Savings Plans など) をサーバーレス体験を維持しながら得られるメリットがあります。オートスケーリングに関して事前設定することで、裏側のスケーリングは AWS が行います。事前準備されたリソース上で Lambda 環境を実行できる場合は Lambda 関数のコールドスタートを回避できます。リクエストが多くなり追加のリソースが必要になると、AWSは数十秒以内に新しいインスタンスを自動的に起動します。最大 50 % までのスパイクリクエストはスケーリングなしに対応できますが、これを超える場合、スケーリング途中に一時的にスロットリングが発生することもあります。料金は、Lambda のリクエスト料金に加えて、EC2 インスタンスの料金が加わる形です。 より高速で低コストな生成 AI トレーニングを実現する Amazon EC2 Trn3 UltraServers の発表 AI 推論、および動画生成アプリケーションに最適な 3nm AWS AI チップである Trainium3 を搭載した EC2 インスタンスタイプを提供開始しました。Trn3 は、Trn2 UltraServers と比較して最大 4.4 倍高いパフォーマンス、3.9 倍高いメモリ帯域幅、4 倍優れたパフォーマンス/ワットを提供し、強化学習、Mixture-of-Experts (MoE)、推論、長コンテキストアーキテクチャを含むフロンティアスケールモデルのトレーニングと提供において価格パフォーマンスを提供します。 AWS Neuron SDK の利用が必要ですが、ネイティブ PyTorch 統合によりこれまでのモデルコードを活かした形で Trainium 3 の活用が可能です。 Amazon EC2 P6e-GB300 UltraServers が一般提供開始 P6e-GB300 UltraServers の一般提供開始を発表しました。NVIDIA GB300 NVL72 で高速化された P6e-GB300 UltraServers は、P6e-GB200 と比較して 1.5 倍の GPU メモリと 1.5 倍の FP4 コンピュート (スパース性なし) を提供します。お客様は、より高いコンテキストを必要とし、推論やエージェント AI などの新興推論技術を実装するアプリケーションにおいて、P6e-GB300 を使用して本番環境で最も強力なモデルのパフォーマンスを最適化できます。利用を希望する場合は AWS にお問い合わせください。 新しいメモリ最適化 Amazon EC2 X8aedz インスタンスの発表 新しいメモリ最適化 EC2 インスタンス X8aedz を発表しました。x8aedz.large, x8aedz.xlarge, x8aedz.3xlarge … といったインスタンスタイプ名です。第 5 世代 AMD EPYC プロセッサを搭載し、高い CPU 周波数である 5GHz を提供します。前世代の X2iezn インスタンスと比較して最大 2 倍高いコンピュート性能を実現します。物理レイアウトや物理検証ジョブなどの電子設計自動化 (EDA) ワークロード、高い CPU 性能やメモリが必要となるリレーショナルデータベースに最適です。 Amazon EC2 M4 Max Mac インスタンス (プレビュー) の発表 Amazon EC2 M4 Max Mac インスタンスのプレビュー提供を発表しました。このインスタンスは、16 コア CPU、40 コア GPU、16 コア Neural Engine、および 128GB のメモリを搭載しており、より必要なリソースが求められる環境でビルドが必要な際に、EC2 上で新たな選択肢を提供する形です。EC2 M4 Pro Mac インスタンスと比較して、2 倍の GPU コアと 2.5 倍以上のユニファイドメモリを提供します。利用を希望する場合は AWS にお問い合わせください。 Containers Amazon EKS Capabilities の発表 Amazon EKS Capabilities が一般提供開始されました。 Kubernetes プラットフォームの管理機能を AWS がフルマネージドサービスとして提供します。CI/CD (Argo CD)、AWS リソース管理 (ACK)、動的リソースオーケストレーション (KRO) の 3 つの機能が利用可能です。これまではお客様自身による運用が必要でしたが、マネージドサービスとして提供されることで、アップデート作業などを AWS に任せて、運用負担の軽減といったうれしさがあります。 Database Database Savings Plans の発表 Database Savings Plans を発表しました。これは、前払いなしの 1 年間の契約期間において、一定量の使用量 (1 時間あたりの利用料金) をコミットすることで最大 35% の節約を実現する料金モデルです。従来の Reserved Instance と違い、Aurora や RDS 、DynamoDB など複数のデータベースサービスを横断して割引が適用される点がうれしいポイントの一つです。インスタンスタイプや、リージョンの変更についても柔軟に対応できます。一方、Database Savings Plans の対象になるのは第 7 世代以上であること、ElastiCache の場合は Valkey インスタンスであること、といった制限がある点にも留意です。 詳細はこちらのウェブサイト をご覧ください。 Amazon RDS for SQL Server が新世代インスタンスで CPU 最適化を開始、最大 55% の価格削減を実現 Amazon RDS for SQL Server で新世代インスタンス M7i と R7i に対応した Optimize CPU 機能が提供開始しました。2 コア以上のインスタンスで SMT (同時マルチスレッド) を無効化することで vCPU 数が半減し、SQL Server のライセンス料金を 50 % 削減できます。物理 CPU コア数は変わらず性能もほぼ同等のため、データベースワークロードのコスト効率が向上します。詳細は こちらの料金ページ をご参照ください。 Amazon RDS の Oracle と SQL Server で最大 256 TiB のストレージ容量に対応 Amazon RDS の Oracle と SQL Server について、これまで最大ストレージ容量が 64 TiB でしたが、256 TiB に拡張しました。プライマリストレージボリュームに加えて、最大 3 つの追加ストレージボリューム (それぞれ最大 64 TiB のストレージ) をデータベースインスタンスに追加できます。追加ストレージボリュームは、アプリケーションのダウンタイムなしにデータベースインスタンスに追加、スケールアップ、または削除できます。Provisioned IOPS SSD (io2) ボリュームと General Purpose (gp3) ボリュームの組み合わせを使用して、コストパフォーマンスの最適化を図ることも可能です。 Amazon RDS for SQL Server が Developer Edition をサポート開始 Amazon RDS for SQL Server で Microsoft SQL Server 2022 Developer Edition がサポート開始されました。Developer Edition は無料版でありながら Enterprise Edition と同じ機能を持ち、開発・テスト環境で利用できます。これまで開発環境で Standard Edition や Enterprise Edition を使用していた場合、Developer Edition を利用することで、ライセンス費用を削減してコスト最適化をしやすくなりました。自動バックアップや暗号化などの RDS 機能もそのまま利用可能です。 詳細はこちらのドキュメント をご参照ください。 Global Infrastructure AWS AI Factories の提供開始 AWS AI Factories の提供を開始しました。お客様のデータセンター内に、高性能な AI インフラを AWS が迅速に構築するサービスです。AWS Trainium や NVIDIA GPU を組み合わせた専用環境により、独自に構築する際の手間を削減して、時間を短縮出来るメリットがあります。Amazon Bedrock や SageMaker といった AI サービスも統合されており、データ主権要件を満たしながら AWS クラウドの機能を活用できます。 Management & Governance AWS DevOps Agent のプレビュー提供開始 AWS DevOps Agent のプレビュー提供を開始しました。このエージェントは経験豊富な DevOps エンジニアのように問題を自動解決し、アプリケーションの信頼性向上を支援します。リソース間の関係性を学習し、監視ツールや CI/CD パイプラインと連携してインシデントを分析・対処することで MTTR (平均復旧時間) を短縮できます。プレビュー期間中はバージニア北部リージョンで無料利用可能です。 AWS Support のサポートプランが新しくエンハンスされ変更に AWS Support で AI と人間の専門知識を組み合わせた新しい 3 つのプラン (Business Support+、Enterprise Support、Unified Operations) を提供開始しました。AI による 24 時間体制のサポートが追加されたことが特徴で、AWS エンジニアによる直接支援と併用した活用ができます。料金プランが変わっている点に留意です。Developer Support がなくなりますが、これまでのプランを利用していたお客様は 2027 年 1 月 1 日まで引き続き利用が可能です。一方、新しく AWS を利用するお客様については、新規のプランから選択する形になります。 Amazon CloudWatch インシデントレポートで Five Whys 分析をサポート Amazon CloudWatch で、AI を活用したインシデントレポート機能が追加されました。この機能は Amazon Q を使った「Five Whys (5 つのなぜ)」分析を通じて、システム障害の根本原因を特定できます。従来は手動で原因調査していた作業が、AI ガイド付きのチャットベースワークフローで効率化されます。東京リージョンを含む 12 リージョンで追加コストなしで利用可能です。 詳細はこちらのドキュメント をご参照ください。 Amazon CloudWatch で AWS CloudTrail イベントを簡単に収集できるように AWS CloudTrail のイベントを Amazon CloudWatch で簡単に収集できる機能が提供開始となりました。これまで CloudTrail のログを CloudWatch で監視するには複雑な設定が必要でしたが、今回のアップデートにより VPC フローログや EKS コントロールプレーンログなどと一緒に一元的に設定・管理できるようになります。組織全体での包括的な監視とデータ収集が簡単に実現でき、運用効率が向上します。 詳細はこちらのドキュメント をご参照ください。 それでは、また来週お会いしましょう! 著者について 杉山 卓(Suguru Sugiyama) / @sugimount AWS Japan のソリューションアーキテクトとして、幅広い業種のお客様を担当しています。最近は生成 AI をお客様のビジネスに活かすためにアイデア出しやデモンストレーションなどを多く行っています。好きなサービスは仮想サーバーを意識しないもの全般です。趣味はゲームや楽器演奏です
2025 年 12 月 3 日、 Amazon SageMaker HyperPod における 2 つの新しい AI モデル訓練機能を発表しました:チェックポイントレス訓練は、ピアツーピアの状態回復を可能にすることで従来のチェックポイントベースのリカバリーの必要性を軽減するアプローチであり、エラスティック訓練は、リソースの可用性に基づいて AI ワークロードを自動的にスケールさせることを可能にします。 チェックポイントなしのトレーニング – チェックポイントなしのトレーニングは、障害が発生してもトレーニングの進行を維持し、数時間かかる復旧時間を数分に短縮することで、中断を引き起こすチェックポイント再起動のサイクルを排除します。AI モデル開発を加速させ、開発スケジュールの時間を取り戻し、数千の AI アクセラレータに対してトレーニングワークフローを自信を持って拡張しましょう。 弾力的トレーニング – 弾力的トレーニングは、トレーニングのワークロードが利用可能なアイドル容量を自動的に活用して拡大し、推論などの優先度の高いワークロードがピークに達したときにリソースを確保するために縮小することで、クラスターの利用効率を最大化します。計算資源の利用可能性に基づいてトレーニングジョブを再設定するのに費やすエンジニアリング時間を、週あたり数時間節約できます。 トレーニングのインフラを管理する時間を費やすのではなく、これらの新しいトレーニング手法によって、チームはモデルの性能向上に専念でき、最終的には AI モデルをより早く市場に投入することができます。従来のチェックポイント依存をなくし、利用可能な容量を最大限に活用することで、モデルのトレーニング完了時間を大幅に短縮できます。 チェックポイントレストレーニング:仕組み 従来のチェックポイントベースのリカバリには、次の順序でジョブのステージがあります: 1) ジョブの終了と再起動、2) プロセスの検出とネットワークのセットアップ、3) チェックポイントの取得、4) データローダの初期化、5) トレーニングループの再開。障害が発生すると、各段階がボトルネックになり、セルフマネージドのトレーニングクラスターではトレーニングの回復に最大で 1 時間かかることがあります。トレーニングを再開する前に、クラスタ全体がすべてのステージの完了を待たなければなりません。これにより、リカバリ操作中にトレーニングクラスタ全体がアイドル状態になる可能性があり、コストが増加し、市場投入までの時間が延びます。 チェックポイントなしのトレーニングは、トレーニングクラスター全体でモデルの状態を連続的に保持することで、このボトルネックを完全に取り除きます。障害が発生すると、システムは正常なピアを使用して即座に回復するため、ジョブ全体を再開する必要のあるチェックポイントベースのリカバリは不要になります。その結果、チェックポイントのないトレーニングにより、数分で障害回復が可能になります。 チェックポイントレストレーニングは、段階的な導入を想定して設計されており、連携する 4 つのコアコンポーネントに基づいて構築されています。1)通信の初期化の一括最適化、2)キャッシュを可能にするメモリマップデータロード、3)インプロセスリカバリ、4)チェックポイントレスなピアツーピア状態レプリケーションです。これらのコンポーネントは、 ジョブの起動に使用されるHyperPodトレーニングオペレーターによって調整されます 。各コンポーネントは復旧プロセスの特定のステップを最適化し、これらを組み合わせることで、何千もの AI アクセラレータを使用しても、手動による介入なしで、数分でインフラストラクチャ障害の自動検出と復旧が可能になります。トレーニングの規模に合わせて、これらの各機能を段階的に有効にすることができます。 最新の Amazon Nova モデルは、このテクノロジーを使用して何万ものアクセラレータでトレーニングされました。さらに、16 個の GPU から 2,000 個を超える GPU までのクラスタサイズに関する社内調査に基づくと、チェックポイントレストレーニングではリカバリ時間が大幅に短縮され、従来のチェックポイントベースのリカバリと比較してダウンタイムが 80 %以上短縮されたことが示されました。 詳細については、Amazon SageMaker AI 開発者ガイドの HyperPod チェックポイントレストレーニングをご覧ください 。 エラスティックトレーニング:仕組み さまざまなタイプのモダン AI ワークロードを実行するクラスターでは、短期間のトレーニングの実行が完了したり、推論の急増が発生して収まったり、完了した実験からリソースが解放されたりすると、アクセラレーターの可用性は 1 日を通して継続的に変化する可能性があります。このように AI アクセラレーターが動的に利用可能であるにもかかわらず、従来のトレーニングワークロードは最初のコンピューティング割り当てに縛られたままであり、アイドル状態のアクセラレーターを手動で操作しないと活用できません。この硬直性により、貴重な GPU 容量が未使用のままになり、組織がインフラストラクチャへの投資を最大限に活用できなくなります。 エラスティックトレーニングは、トレーニングワークロードがクラスターリソースと相互作用する方法を変えます。トレーニングジョブは、利用可能なアクセラレータを利用するように自動的にスケールアップし、他の場所でリソースが必要になったときに適切に契約できます。しかも、トレーニングの質は維持されます。 ワークロードの弾力性は、Kubernetes コントロールプレーンとリソーススケジューラーとの統合を通じてスケーリングの決定を調整する HyperPod レーニングオペレーターによって実現されます。ポッドライフサイクルイベント、ノードアベイラビリティの変更、リソーススケジューラーの優先度シグナルという 3 つの主要なチャネルを通じてクラスターの状態を継続的に監視します。この包括的な監視により、新たに利用可能になったリソースによるものか、優先度の高いワークロードからのリクエストによるものかにかかわらず、スケーリングの機会をほぼ瞬時に検出できます。 スケーリングメカニズムは、データ並列レプリカの追加と削除に依存しています。追加のコンピューティングリソースが使用可能になると、新しいデータ並列レプリカがトレーニングジョブに加わり、スループットが向上します。逆に、スケールダウンイベント(たとえば、優先度の高いワークロードがリソースを要求する場合)では、ジョブ全体を終了するのではなく、レプリカを削除してシステムがスケールダウンし、少ないキャパシティでトレーニングを継続できます。 さまざまなスケールにわたって、システムはグローバルなバッチサイズを維持し、学習率を調整して、モデルのコンバージェンスに悪影響が及ぶのを防ぎます。これにより、手動で操作しなくても、ワークロードを動的にスケールアップまたはスケールダウンして、利用可能な AI アクセラレータを利用できます。 Llama や GPT-OSS などの公開されているファンデーションモデル(FM)の HyperPod レシピからエラスティックトレーニングを開始できます。さらに、PyTorchトレーニングスクリプトを変更して、ジョブを動的にスケーリングできるエラスティックイベントハンドラーを追加することもできます。 詳細については、「Amazon SageMaker AI デベロッパーガイド」の「 SageMaker HyperPod training plans 」にアクセスしてください。はじめに、AWS GitHub リポジトリにある HyperPod レシピを見つけてください 。 今すぐご利用いただけます どちらの機能も、Amazon SageMaker HyperPod が利用できるすべてのリージョンで利用できます。これらのトレーニングテクニックは追加費用なしで使用できます。詳細については、 SageMaker HyperPod の製品ページ と SageMaker AI の料金ページ にアクセスしてください。 ぜひお試しいただき、 AWS re:Post for Amazon SageMaker 宛てに、または通常の AWS サポートの連絡先を通じて、フィードバックをお寄せください。 – Channy 原文は こちら です。