TECH PLAY

AWS

AWS の技術ブログ

2959

みなさん、こんにちは。AWS ソリューションアーキテクトの三厨です。 2025年も8月に入り、生成AIの分野では引き続き活発な開発と新機能のリリースが続いています。特に、Amazon Bedrock における先端的なモデル選択肢の拡充(Claude Opus4.1 及び gpt-oss)や昨今関心が高まっている AI 駆動開発ライフサイクルについてのブログがとても興味深かったのでぜひご一読ください。 先日 2つの新しいプランを追加した「 AWS ジャパン生成 AI 実用化推進プログラム 」も非常に多くの申し込みをいただいています。引き続き募集中ですのでよろしくお願いします。 それでは、8 月 11 日週の生成 AI with AWS界隈のニュースを見ていきましょう。 さまざまなニュース ブログ記事「 AI 駆動開発ライフサイクル:ソフトウェアエンジニアリングの再構築 」を公開 AI技術を活用した新しいソフトウェア開発ライフサイクルについて、従来の開発プロセスとの比較、AI統合による各フェーズの変革、具体的なメリットを包括的に解説しています。特に、要件定義から設計、実装、テスト、デプロイメント、運用に至る各段階をコンテキスト情報を介してシームレスに継続させる、アイデアから実際にお客様が利用するまでのソフトウェア開発全般を再考するための新しい考え方について詳しく説明しています。 ブログ記事「 Amazon Q Developer CLI カスタムエージェントで開発の混乱を乗り越えよう 」を公開 Amazon Q Developer CLIのカスタムエージェント機能を活用して、複雑な開発環境での混乱を解決する方法について詳しく解説しています。特に、マルチプロジェクト環境での依存関係管理、コード品質の一貫性確保、チーム間のワークフロー統一といった課題を題材に、複数のカスタムエージェントを使い分けることによってツールや権限設定といったエージェント管理上のオーバーヘッドを削減する方法を提示しています。 ブログ記事「 Kiro の価格設定を理解する:Spec、Vibe、使用量のトラッキング 」を公開 Kiroの包括的な理解を深めるため、お客様から特に多数のお問い合わせをいただいた価格体系の詳細、技術仕様、ユーザーエクスペリエンス、そして利用状況の効果的な追跡方法について詳しく解説しています。特に、コスト最適化のための料金プランの選択方法、パフォーマンス要件に応じた設定調整、実際の使用感やユーザビリティの評価ポイントに焦点を当てています。 ブログ記事「 OpenAI オープンウェイトモデルが AWS で利用可能に 」を公開 OpenAIのオープンウェイトモデル(gpt-oss-120b、gpt-oss-20b)がAWS上で利用可能になったことについて、モデルの特徴、性能ベンチマーク、具体的な活用シナリオを詳しく紹介しています。特に、コーディング支援、科学的分析、数学的推論における優れた性能、128Kコンテキストウィンドウの活用方法、調整可能な推論レベルの設定について実例を交えて説明しています。企業が独自のAIソリューションを構築する際に、高性能なオープンソースモデルを活用してコストを抑制しながらカスタマイズ性と制御性を確保できる、 AWS における新たな基盤モデルの選択肢に関する情報を提供しています。 ブログ記事「 自動推論チェックを使用して、AI のハルシネーションを最小限に抑え、最大 99% の検証精度を実現: 今すぐご利用いただけます 」を公開 Amazon Bedrock Guardrailsの自動推論チェック機能の一般提供について詳しく解説しています。基盤モデルによって生成されたコンテンツのハルシネーションを、ドメイン知識と照らし合わせて効果的に検出・防止し、高い検証精度を実現する仕組みと活用方法を紹介しています。 ブログ記事「 Amazon S3 Vectors の紹介: 大規模なネイティブベクトルサポートを備えた初のクラウドストレージ(プレビュー) 」を公開 Amazon S3 Vectorsのプレビュー提供について、ベクトルデータの効率的な保存・検索メカニズム、従来のソリューションとの性能比較、実装の簡素化について詳しく解説しています。特に、RAGアプリケーションでの活用方法、大規模ベクトル検索の最適化技術、既存のS3エコシステムとのシームレスな統合について具体的な事例を交えて説明しています。ベクトル検索を必要とするAIアプリケーションの開発者にとって、インフラストラクチャの複雑性を大幅に軽減し、開発速度を向上させるソリューションとして紹介されています。 ブログ記事「 Amazon DocumentDB サーバーレスが利用可能になりました 」を公開 Amazon DocumentDB サーバーレスの一般提供開始について、サーバーレスアーキテクチャの利点、従来のプロビジョニング型との違い、コスト最適化の仕組みについて詳しく紹介しています。特に、変動するワークロードへの自動スケーリング、使用量ベースの課金モデル、生成AIアプリケーションでのドキュメントストレージとしての活用方法について具体的に説明しています。RAGシステムやコンテンツ管理システムなど、ドキュメント指向のAIアプリケーションを構築する開発者にとって、運用負荷を軽減しながらコスト効率を向上させるデータベースソリューションとなります。 ブログ記事「 AWS Summit Japan 2025:  生成 AI を用いた教育業界向けソリューションデモのご紹介 」を公開 AWS Summit Japan 2025における生成AI教育に関する取り組みについて紹介しています。生成AI技術の普及と教育を通じて、より多くの人々がAI技術を活用できるようになることを目指した内容となっています。 サービスアップデート Amazon DynamoDB が Console-to-Code 機能をサポート DynamoDBでAmazon Q Developerを活用したConsole-to-Code機能がサポートされました。コンソール操作を記録し、生成AIでInfrastructure as Codeを自動生成できます。この機能は、Amazon Q Developerが利用可能な全ての商用リージョンで提供されています。 Anthropic の Claude Opus 4.1 が Amazon Bedrock で利用可能に AnthropicのClaude Opus 4.1がAmazon Bedrockで利用可能になりました。コーディングとエージェント機能において業界最高レベルの性能を提供し、複雑な開発タスクの自動化を実現します。現在、米国西部(オレゴン)、米国東部(バージニア北部)、米国東部(オハイオ)リージョンで利用可能です。 Amazon Bedrock と Amazon SageMaker JumpStart で OpenAI のオープンウェイトモデルが利用可能に OpenAIのオープンウェイトモデル(gpt-oss-120b、gpt-oss-20b)がAmazon BedrockとSageMaker JumpStartで利用可能になりました。コーディング、科学的分析、数学的推論に優れた性能を発揮します。Amazon Bedrockでは米国西部(オレゴン)リージョンで、SageMaker JumpStartでは米国東部(オハイオ、バージニア北部)およびアジア太平洋(ムンバイ、東京)リージョンで利用可能です。 Amazon Bedrockがアジア太平洋(メルボルン)リージョンで利用可能に Amazon Bedrockがアジア太平洋(メルボルン)リージョンで利用可能になりました。オーストラリアのお客様がより低いレイテンシーで基盤モデルを利用できるようになり、生成AIアプリケーションの構築が効率化されます。 Amazon Bedrock Guardrailsで自動推論チェック機能が一般提供開始 Amazon Bedrock Guardrailsで自動推論チェック機能が一般提供開始されました。形式検証技術により最大99%の精度でAIハルシネーションを検出し、規制業界での生成AI活用を支援します。この機能は、米国東部(バージニア北部)、米国東部(オハイオ)、米国西部(オレゴン)、欧州(フランクフルト)、欧州(アイルランド)、欧州(パリ)リージョンで利用可能です。 Amazon SageMaker HyperPodで継続的プロビジョニング機能がサポート SageMaker HyperPodで継続的プロビジョニング機能がサポートされました。利用可能なインスタンスでトレーニングを即座に開始しながら、バックグラウンドで残りの容量を自動プロビジョニングできます。この機能は、Amazon SageMaker HyperPodが利用可能な全てのAWSリージョンで提供されています。 Amazon OpenSearch Serverlessで自動セマンティック強化機能が導入 OpenSearch Serverlessで自動セマンティック強化機能が導入されました。複雑な設定なしでセマンティック検索を実装でき、英語専用と15言語対応の多言語バリアントが提供されています。この機能は、現在米国東部(バージニア北部、オハイオ)、米国西部(オレゴン)、アジア太平洋(ムンバイ、シンガポール、シドニー、東京)、欧州(フランクフルト、アイルランド、スペイン、ストックホルム)リージョンで利用可能です。 Amazon OpenSearch ServerlessでHybrid Search、AIコネクタ、自動化機能がサポート OpenSearch ServerlessでHybrid Search、AIコネクタ、自動化機能がサポートされました。RAGやセマンティック検索のユースケースが促進され、Amazon SageMaker、Bedrockとの統合が簡素化されます。これらの機能は、米国東部(バージニア北部、オハイオ)、米国西部(オレゴン)、アジア太平洋(ムンバイ、シンガポール、シドニー、東京)、欧州(フランクフルト、アイルランド、スペイン、ストックホルム)リージョンで利用可能です。 Amazon OpenSearch UIでSAML属性による Fine Grained Access Control がサポート OpenSearch UIでSAML属性による Fine Grained Access Control がサポートされました。IdPのユーザー属性に基づく動的で詳細なデータアクセス制御により、マルチテナント環境での運用が強化されます。この機能は、OpenSearch UIが利用可能な全てのリージョンで提供されています。 著者について 三厨 航  (Wataru MIKURIYA) AWS Japan のソリューションアーキテクト (SA) として、ヘルスケア・ハイテク製造業のお客様のクラウド活用を技術的な側面・ビジネス的な側面の双方から支援しています。クラウドガバナンスや IaC 分野に興味があり、最近はそれらの分野の生成 AI 応用にも興味があります。最近読んだ本は「PACHINCO」です。
アバター
ニフティ株式会社は、長年にわたりインターネットサービスプロバイダーとして安定したサービスを提供してきました。現在は総合的なデジタルサービス企業へと発展し、ポイントサービス事業も展開しています。同社の「ニフティポイントクラブ」は日常生活のあらゆる場面で利用できる便利なサービスとして多くのユーザーに親しまれており、顧客ロイヤリティの向上に大きく貢献しています。 このポイントサービスは、2025年4月にAurora PostgreSQLへの移行を完了しました。 本ブログでは、ニフティが提供するポイントサービスのデータベースをOracle Database Enterprise EditionからAurora PostgreSQLへ移行した際のエピソードについてご紹介します。 移行対象の既存システムとその課題 移行対象となったのは、会員のポイント残高管理、ポイントの付与・利用履歴の管理、キャンペーン管理などを担う、ポイントサービスの基幹システムです。本システムは、「ニフティポイントクラブ」およびその仕組みを利用する複数のサービスにとって中核を担うシステムであり、ニフティとして影響範囲が大きくなるため停止が許されないシステムでした。一方で、急激なアクセス増加への対応やセキュリティ要件への適応といった面では、現行システムには柔軟性や可用性に限界が見え始めており、将来的な運用継続に課題を抱えていました。そうした状況の中、利用中の基盤サービスの提供終了がアナウンスされたことを受け、より信頼性が高く、保守性に優れた新たなデータベース基盤への移行が求められる状況となっていました。 Aurora PostgreSQLに移行することを決定した理由 ニフティ株式会社では、Amazon Web ServiceのAmazon Aurora PostgreSQLを移行先として選定しました。移行先の判断にあたっては、複数の観点を総合的に評価しました。 AWS採用の理由①:インフラ環境のAWSへの統一による運用効率向上とAWSの豊富な実績 データベースに先立ち、アプリケーションの一部はすでにAWS上に移行済みであることや連携システムもAWS上に構築されていたことから、インフラ環境を統一することで運用効率が向上するという点がありました。また、豊富な技術ドキュメントやAWS Blogの事例情報、AWSのサポート体制も社内の意思決定を支える安心材料となりました。 AWS採用の理由②:AWS Database Migration Service やパートナーの活用 AWSには認定パートナーが多数存在し、移行に際してパートナーを見つけやすかったことに加え、データの移行および移行後のデータ検証にAWS Database Migration Service(DMS)を活用できるという利点もあり、これらが異種データベースへのマイグレーションを後押しする要因となりました。 異種データベース移行の理由①:PostgreSQLの運用経験と実績の蓄積 社内ではすでにPostgreSQLを用いた採用実績があり、その特性や運用ノウハウも蓄積されていたことから、新たな学習コストや移行後のトラブルに対する不安が少なく、採用を後押しする要因となりました。 異種データベース移行の理由②:エンジン変更に対するコスト 従来のシステムはPL/SQLへの依存度が低く、また、日々の運用において自動化されたテスト環境が整っていたことから、Oracle DatabaseからPostgreSQLへのエンジン変更に伴う移行コストは比較的抑えられると見込まれました。 Aurora採用の理由:Aurora サービスによる運用保守性の向上 Aurora PostgreSQLを活用した過去の移行経験を通じて、マネージドな機能が運用負荷の軽減に大きく寄与することを実感していました。今回のプロジェクトでも、バックアップや監視、セキュリティといった日常運用に関わる機能をAuroraに任せられることで、保守性の高い運用体制を実現できると判断し、Auroraの採用を決定しました。 移行プロジェクトの課題と対策 データベース移行プロジェクトは、技術的な課題だけでなく、計画策定や意思決定においても多くの困難を伴います。ニフティ株式会社では、移行にあたってアプリケーション移行とデータ移行の双方でさまざまな課題に直面し、それぞれに応じた対応を行いました。 アプリケーション移行における課題:Pro*Cを使ったレガシーコードの扱い プロジェクトの初期段階で、移行対象となる機能を詳細に洗い出した結果、すべての機能をそのまま移行すると、コストが膨大になることが判明しました。特に、Pro*Cを使用して実装されたコードが多数存在しており、Oracle Database固有の機能や構文に依存している箇所もありました。そのため、以下の対応を実施する方向で、計画の見直しを行いました。 Webアプリケーション側のロジックに組み込み、アプリケーションコードに置き換える対応 一部機能については外部パートナーへ開発を委託 利用頻度の低い機能を廃止する決断 必須機能と廃止可能な機能の選別、および社内で機能廃止の議論を行い、移行対象数を下げる対応 データ移行における課題①:文字コードの問題 データ移行において特に困難だった課題の一つが、文字コードの問題です。具体的には、EUCやSJISなど複数の文字コードが混在しており、これは連携先企業から取り込むデータに対するバリデーションが不十分であることなど、複数の要因によって発生していました。さらに、Oracle DatabaseのEUCとPostgreSQLのEUCでは機種依存文字の解釈に違いがあり、PostgreSQLでは一部の文字に対応できないという問題も存在しました。 これらの課題に対しては、DMSで移行可能なデータについては自動移行を実施し、エラーとなったデータについては個別に対応しました。また、文字コードの問題が予想されるカラムについては、CSVに出力して個別に移行処理を行うことで、文字化けやデータ欠損のリスクを最小限に抑えました。さらに、PostgreSQLで対応できない文字については、該当件数を確認したところ少数であることが判明したため、「?」に置換する方針で社内の合意を得て対応を進めました。 データ移行における課題②:大量データの取捨選択 長年運用されてきたシステムであったため、一部のテーブルには4億レコード(20年以上にわたって蓄積されたデータ)という膨大なデータが存在していました。すべてのデータを移行する場合、移行前の評価作業や移行にかかる時間の点で課題があったことから、データの必要性を改めて見直す決断をしました。他サービスにおけるデータ利用状況を、関係部門に確認のうえ精査した結果、古いデータ(特にポイント履歴データ)は移行の必要がないと判断できました。これにより、業務上必要な直近数年分のデータ(数千万レコード)のみを移行する方針を社内で決定することができました。この調査と判断により、移行対象となるデータ量を大幅に削減することができました。 計画変更を経て完了した移行の道のり 当初、移行プロジェクトは2025年3月末の完了を予定していましたが、実際には4月末に完了しました。また、人的リソースについても、当初計画していた50人月から約65人月へと増加する結果となりました。こうした規模の変化は、移行過程で判明した複雑な技術的課題に対応するために必要だったものです。一方で、DMSを用いて移行を行えたことや、AWS上で本番相当の検証環境を容易に構築できたことは、品質確保や開発スピードの向上に大きく寄与したと振り返っています。全体的な移行戦略については、AWSのメンバーに技術的な相談を行うことができました。特に重要だったのはデータ移行方式の選定です。当初は差分移行を計画していましたが、AWSメンバーとの協議を通じて、この方式に伴うリスクを確認することができました。リスクを踏まえ移行方式を変更したことで、潜在的な大規模障害を未然に防ぐことができたと考えています。これらの結果、移行プロジェクトは安全かつ確実に完了することができました。 Amazon Aurora PostgreSQL への移行の効果 Aurora PostgreSQLへの移行により、複数の効果が得られました。最も大きな効果は運用負荷の削減です。既存プラットフォームのシステム保守によるメンテナンス対応コストが50%削減されました。従来は基盤のセキュリティ対応によるメンテナンスが半期に数回発生し、その都度6時間程度のサービス停止が必要でしたが、Aurora移行後はそのような長時間の停止がなくなりました。 開発面では、PostgreSQLの使いやすさがエンジニアの生産性向上に貢献しています。古いOracle Databaseのバージョンを利用していたこともあり、クエリ構文が複雑化しやすい点が解消されました。またマネージドサービスになったことで、Amazon CloudWatchやAmazon RDS Performance Insightsといった監視機能やスロークエリの抽出機能、自動バックアップ機能を利用できるようになり、従来はシェルスクリプトで自前で構築・管理していた作業が不要になりました。Auroraの豊富な機能により、システムの安定性と拡張性を向上させることが出来ました。 まとめ ニフティ株式会社では、今回の AWS 移行により運用時の負荷やシステムの安定性を改善することができました。今回の AWS 移行について、ニフティ株式会社 サービスシステムグループの関 氏、細野 氏は以下のように振り返っています。 「使い慣れている Aurora PostgreSQL に移行したことで、運用が大幅に改善されました。セキュリティ面の向上なども実現でき、Aurora 移行によるメリットを感じています」 ニフティ株式会社 サービスシステムグループ 松尾 亜紀氏 (写真中央)、細野 俊平氏 (写真左)、関 歩武氏 (写真右)
アバター
この記事は、AWS の SAP グローバル責任者の Sara Alligood と、SAP の AI プロダクトアンドパートナーマネジメント部門長の Kai M ü hlbauer 氏との共著です 2025 年の SAP Sapphire にて、Amazon Web Services, Inc. と SAP は、パートナーがお客様のリアルタイムなビジネス課題を迅速に解決するための生成系 AI アプリケーションとエージェントを構築できるよう支援する、新しい AI 共同イノベーションプログラムの開始を発表しました。 多くの組織は、生成 AI がビジネスを変革する可能性を認識していますが、どこから始めればよいかわかりません。 高度な生成 AI 技術と基幹システムからの ERP データを組み合わせることで、企業は大きな価値を引き出すことができます。 例えば、配送ルートの最適化、サプライチェーン運用への潜在的な影響の予測、正確な財務見通しの作成などが可能です。 AI 共同イノベーションプログラム は、パートナーが ERP ワークロードに合わせた生成系 AI アプリケーションを定義、構築、デプロイできるよう支援するという、両社の共通ビジョンを表しています。 このプログラムでは、SAP のエンタープライズテクノロジーと AWS の生成 AI サービスを組み合わせ、AI のスペシャリスト、プロフェッショナルサービスのコンサルタント、ソリューションアーキテクトなど、両社のスペシャリストによる支援を提供し、お客様の導入に向けた取り組みをサポートします。 このプログラムには、業界特有のアプリケーションの開発、テスト、デプロイをサポートするための専任の技術リソース、クラウドクレジットなどが含まれます。 「AWS と SAP の長年にわたるパートナーシップは、お客様のクラウドジャーニーを加速し、ビジネスデータからより多くの価値を引き出すことを支援してきました」と、AWS のスペシャリストおよびパートナー担当バイスプレジデントの Ruba Borno は述べています。 「私たちの AI 共同イノベーションプログラムは、組織が Amazon Bedrock を使用して生成 AI アプリケーションを構築し、最も重要な SAP データを分析して活用できるようにする、セキュリティと柔軟性を備えた重要な次のステップです。 これにより、お客様は数十年分のビジネス情報を実践的な知見に変換しながら、より俊敏でデータ駆動型の組織への転換を加速することができます。」 「AWS との AI 共同イノベーションプログラムを通じて、企業は最も複雑な運用上の課題を高い精度とスピードで解決できるようになります」と SAP の最高技術責任者兼最高 AI 責任者の Philipp Herzig 氏は述べています。 「完全に統合されたプラットフォームであるSAP BTP の機能と、当社の深いビジネスプロセスの専門知識を、AWS の包括的な生成 AI 機能と組み合わせることで、パートナーは目的に特化した AI エージェントを作成できるようになりました。これにより、リアルタイムでの財務上の異常の特定から、混乱時のサプライチェーンの自動最適化まで、最も喫緊の課題を解決できます。」 このプログラムにより、パートナーは SAP Business Technology Platform 上の SAP AI Foundation で、Amazon Nova や Anthropic Claude などの大規模言語モデルを含む Amazon Bedrock の最新の生成 AI ツールとサービスを使用して、生成 AI アプリケーションを迅速に構築し、規模を拡大することができます。 この発表は、AWS と SAP が、Hyundai Motor Group、Moderna、Zurich Insurance Group などのお客様を支援するために行っている取り組みを拡大するものです。これにより、SAP ワークロードを AWS に移行・モダナイズし、クラウドの可用性、柔軟性、スケーラビリティを実現できます。AWS 上で SAP ワークロードを実行することで、お客様はデータを生成系 AI ソリューションと組み合わせることができます。Accenture や Deloitte などのパートナーは、このプログラムを通じて AWS と SAP と協力し、複雑な課題を解決するための生成系 AI ソリューションの開発とデプロイを加速させています。 「AWS と SAP の AI 共同イノベーションプログラムは、AWS のクラウドインフラストラクチャと SAP のエンタープライズソフトウェアの経験を組み合わせています。Accenture の AI 変革の専門知識と業界知識を加えることで、企業に対して生成 AI サービスを最も重要なビジネスワークロードに統合する方法を具体的に示すことができます」と、Accenture の Senior Managing Director で SAP Business Group Lead の Caspar Borggreve 氏は述べています。 「例えば、AWS と SAP と共同で、ある公共事業のお客様と協力して、自然災害に対する資産回復力の機能を構築しています。これにより、環境の課題を予測して対応し、資産密集地域を保護し、お客様へのサービス継続性を維持することができます。」 「この AI 共同イノベーションプログラムは、AWS と SAP の最先端の生成 AI 機能と、Deloitte の深い業界経験と技術力を組み合わせ、お客様に変革的なソリューションを提供します」と、Deloitte Consulting LLP の AWS グローバルチーフコマーシャルオフィサーである Nishita Henry 氏は述べています。 「このプログラムを通じて、Amazon Bedrock を活用した財務ソリューションを構築し、ヘルスケアおよびライフサイエンス企業が、不安定な市場環境下でも、製品ミックスの最適化、予測精度の向上、競争力のある価格設定の維持を実現できるよう支援します。」 AWS SAP AI 共同イノベーションプログラム の詳細については、 aws.amazon.com/sap/ai をご覧ください。 本ブログはパートナーソリューションアーキテクトの松本が翻訳しました。原文は こちら です。
アバター
イベント概要 本イベントでは、AWS が提供する環境上で典型的なセキュリティインシデントへの対応を、チーム対抗のゲーム形式で体験することができます。また、昨今様々なお客様にてご利用が検討されている生成 AI を用いたセキュリティについて、AWS および AWS パートナー様がどのようにインフラストラクチャ・アプリケーション・データ・AI のセキュリティを高度化できるのかをご紹介いたします。 AWS GameDay について AWS GameDay は、ある課題に対して AWS サービスで解決するための対応力や実装スキルを試すことができる実践形式のワークショップです。3~4 名でチームを結成し、待ち受けるさまざまなトラブルやクエストをクリアしながら最終ミッションの達成を目指します。各クエストをクリアするごとにポイントが付与され、最も多くのポイントを獲得したチームが勝者となります。安全な環境で、楽しみながらさまざまなことを学ぶことができる機会を得られるワークショップです。 開催日時 2025年10月14日(火)13:00 – 18:00 (12:30 開場)、18:00-19:00 にて参加任意の懇親会を実施いたします。 開催場所 東京都品川区上大崎 3-1-1 目黒セントラルスクエア 参加対象者 クラウドアーキテクトやエンジニアから、ディレクター、CTOまで、あらゆるレベルの技術リーダーやビルダーを対象としています。 特に以下のような方々に最適なイベントとなっております: ・全社の AWS アカウントのセキュリティ向上施策について検討されている方 ・CCoE など、全社でのアカウント管理やセキュアな利用を推進されている方 ・AWS 上に具体的なビジネスワークロードをもち、そのセキュリティ向上に関心のある方 ・生成 AI を利用したアプリケーションにおけるセキュリティ向上に関心のある方 ・生成 AI を用いたセキュリティ向上ソリューションに興味のある方 定員・参加費 120名 (1チーム 3名 x 40 チーム) 事前登録制となっております。 お申し込みは、AWSの担当営業を通してのお申し込みを受け付けとなります。 参加費無料 18:00-19:00 にてネットワーキングイベントを予定しております。クラウドにおけるセキュリティや生成 AI の活用のための参加者同士の交流の場としてもご活用ください。 皆様のご参加を心よりお待ちしております。
アバター
8 月 28 日、カスタム Intel Xeon 6 プロセッサを搭載し、3.9 GHz の持続オールコアターボ周波数を備えた、AWS でのみ利用可能な Amazon Elastic Compute Cloud (Amazon EC2) の汎用 M8i および M8i-Flex インスタンス の一般提供の開始をお知らせします。これらのインスタンスは、クラウドにおける同等の Intel プロセッサの中でも最高のパフォーマンスと最速のメモリ帯域幅を提供します。また、前世代の M7i および M7i-Flex インスタンス と比較して、最大 15 % 優れた価格パフォーマンス、最大 20 % 高いパフォーマンス、2.5 倍のメモリ帯域幅を実現します。 M8i および M8i-flex インスタンスは、汎用ウェブアプリケーションサーバー、仮想デスクトップ、バッチ処理、マイクロサービス、データベース、エンタープライズアプリケーションなどの汎用ワークロードの実行に最適です。これらのインスタンスのパフォーマンスに関して、M7i および M7i-Flex インスタンスと比較すると、NGINX ウェブアプリケーションの場合は最大 60 %、PostgreSQL データベースワークロードの場合は最大 30 %、AI 深層学習のレコメンデーションモデルの場合は最大 40 % 高速です。 R8i および R8i-Flex インスタンス と同様、これらのインスタンスは新しい第 6 世代 AWS Nitro Card を使用しており、前世代のインスタンスと比較してネットワークと Amazon Elastic Block Storage (Amazon EBS) の帯域幅が最大 2 倍増加しています。そのため、ウェブ、アプリケーション、ゲームサーバーなどの小規模なパケットを処理するワークロードのネットワークスループットが大幅に向上します。また、ネットワークと Amazon EBS 帯域幅の間で 25 % の割り当て調整を行う帯域幅設定にも対応しており、データベースのパフォーマンス、クエリ処理、ログ記録速度が向上します。 M8i インスタンス M8i インスタンスは、基盤となる物理ハードウェアへの専用アクセスを提供するベアメタルインスタンスを含め、最大 384 個の vCPU と 1.5 TB のメモリを提供します。これらの SAP 認定インスタンスは、最大のインスタンスサイズや継続的に高い CPU を必要とする大規模なアプリケーションサーバーやデータベース、ゲームサーバー、CPU ベースの推論、動画のストリーミングを実行するのに役立ちます。 M8i インスタンスの仕様は次のとおりです。 インスタンスサイズ vCPU メモリ (GiB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) m8i.large 2 8 最大 12.5 最大 10 m8i.xlarge 4 16 最大 12.5 最大 10 m8i.2xlarge 8 32 最大 15 最大 10 m8i.4xlarge 16 64 最大 15 最大 10 m8i.8xlarge 32 128 15 10 m8i.12xlarge 48 192 22.5 15 m8i.16xlarge 64 256 30 20 m8i.24xlarge 96 384 40 30 m8i.32xlarge 128 512 50 40 m8i.48xlarge 192 768 75 60 m8i.96xlarge 384 1536 100 80 m8i.metal-48xl 192 768 75 60 m8i.metal-96xl 384 1536 100 80 M8i-Flex インスタンス M8i-Flex インスタンスは、M8i インスタンスの低コスト版であり、5 % 低い料金で 5 % 優れた料金パフォーマンスを実現しています。最新世代のパフォーマンスから恩恵を享受できるにかかわらず、すべてのコンピューティングリソースを完全に活用していないワークロード向けに設計されています。これらのインスタンスは、95 % の確率で最大 CPU パフォーマンスを発揮できます。 M8i-Flex インスタンスの仕様は次のとおりです。 インスタンスサイズ vCPU メモリ (GiB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) m8i-flex.large 2 8 最大 12.5 最大 10 m8i-flex.xlarge 4 16 最大 12.5 最大 10 m8i-flex.2xlarge 8 32 最大 15 最大 10 m8i-flex.4xlarge 16 64 最大 15 最大 10 m8i-flex.8xlarge 32 128 最大 15 最大 10 m8i-flex.12xlarge 48 192 最大 22.5 最大 15 m8i-flex.16xlarge 64 256 最大 30 最大 20 現在、旧世代の汎用インスタンスを使用している場合は、アプリケーションやワークロードに変更を加えることなく、M8i-Flex インスタンスを採用できます。 今すぐご利用いただけます Amazon EC2 M8i および M8i-Flex インスタンスは、現在、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (スペイン) の AWS リージョン でご利用いただけます。M8i および M8i-Flex インスタンスは、 オンデマンド 、 Savings Plan 、 スポットインスタンス として購入できます。M8i インスタンスは、 ハードウェア専有インスタンス および 専有ホスト での利用も可能です。詳細については、 Amazon EC2 の料金ページ をご覧ください。 Amazon EC2 コンソール で M8i および M8i-Flex インスタンスをお試しください。詳細については、 Amazon EC2 M8i インスタンスのページ をご覧ください。また、 AWS re:Post for EC2 に、または通常の AWS サポートの連絡先を通じて、ぜひフィードバックをお寄せください。 – Channy 原文は こちら です。
アバター
Amazon プライムデー 2025 は、Amazon プライムデー史上最大のショッピングイベントとなり、4 日間のイベント期間中に売上高と販売商品総数の両方で最高記録を樹立しました。プライム会員は、イベント期間中に Amazon の何百万ものお買い得商品を購入し、数十億 USD を節約しました。 今年は、 Amazon と AWS の生成 AI オファリング の進歩により、プライムデーの体験が大きく変化しました。お客様は、現在数百万人のお客様に早期アクセスとして提供されている Amazon の次世代パーソナルアシスタントである Alexa+ に加えて、AI を利用するショッピングアシスタントである Rufus と AI ショッピングガイド を利用しました。AWS の 15 年超にわたるクラウドイノベーションおよび機械学習の専門知識と、Amazon の豊富な小売および消費者エクスペリエンスを基盤とするこれらの特徴量は、お客様がお得な情報をすばやく見つけたり、商品に関する情報を入手したりするのに役立ちました。これにより、プライム会員が年間を通して恩恵を享受できる高速かつ無料の配送が補完されました。 プライムデーでの史上最大の売上の実現を AWS がどのように支えたのかをお伝えするという、毎年恒例の行事の一環として、すばらしいショッピングエクスペリエンスを可能にした AWS のサービスと、最高レベルのメトリクスをご紹介します。 数値で見るプライムデー 2025 プライムデーなどの大規模なショッピングイベントの前の数週間にわたって、効率的かつ安全なオペレーションを実現するために、Amazon フルフィルメントセンターと配送ステーションは連携して準備を進めます。例えば、 Amazon Automated Storage and Retrieval System (ASRS) は、Amazon フルフィルメントセンター内で商品を移動する産業用モバイルロボットのグローバルフリートを運用しています。 AWS Outposts は、AWS Experience をオンプレミスに拡張するフルマネージドサービスであり、Amazon ASRS のコマンドアンドコントロールを管理するソフトウェアアプリケーションを強化し、重要なロボットコマンドを低レイテンシーで処理することを通じて、当日および翌日の配送をサポートします。 プライムデー 2025 では、Amazon 最大級のフルフィルメントセンターの 1 つに設置されている AWS Outposts が、7,000 台超のロボットに対して 5 億 2,400 万件超のコマンドを送信し、そのコマンド量はピーク時には 1 時間あたり 800 万件に達しました。これは、プライムデー 2024 と比較して 160% の増加です。 さらに興味深く、驚くべきメトリクスをいくつかご紹介します: Amazon Elastic Compute Cloud (Amazon EC2) – プライムデー 2025 では、Amazon EC2 で実行されるクラウドワークロードで最高の料金パフォーマンスを提供するように設計されたプロセッサファミリーである AWS Graviton が、Amazon.com によって利用される Amazon EC2 コンピューティングの 40% 超を担いました。また、Amazon は、プライムデー向けに Amazon Rufus を支えるため、深層学習と生成 AI のトレーニングおよび推論用のカスタムシリコンチップである AWS Inferentia および AWS Trainium チップを 87,000 個超デプロイしました。 Amazon SageMaker AI – 高性能かつ低コストの機械学習 (ML) を可能にする幅広いツールセットを統合したフルマネージドサービスである Amazon SageMaker AI は、プライムデー 2025 の開催中に 6,260 億件を超える推論リクエストを処理しました。 Amazon Elastic Container Service (Amazon ECS) と AWS Fargate – Amazon Elastic Container Service (Amazon ECS) は、コンテナ向けのサーバーレスコンピューティングエンジンである AWS Fargate とシームレスに連携するフルマネージドコンテナオーケストレーションサービスです。プライムデー 2025 の開催中、Amazon ECS は AWS Fargate 上で 1 日平均 1,840 万件のタスクを起動しました。これは、前年のプライムデーにおける平均から 77% 増加した数値です。 AWS Fault Injection Service (AWS FIS) – 当社は、回復力をテストし、プライムデーにおいて Amazon.com が高可用性を維持できるようにするため、6,800 件を超える AWS FIS 実験を実施しました。これは、2024 年に実施した数の 8 倍超です。この大幅な増加は、AWS Fargate でのネットワークフォールトインジェクション実験用の新しい Amazon ECS サポートと、継続的インテグレーションおよび継続的デリバリー (CI/CD) パイプラインにおける FIS テストの統合という 2 つの改善によって実現しました。 AWS Lambda – インフラストラクチャを管理せずにコードを実行できるようにするサーバーレスコンピューティングサービスである AWS Lambda は、プライムデー 2025 の開催中に 1 日あたり 1.7 兆回を超える数の呼び出しを処理しました。 Amazon API Gateway – API をあらゆる規模で、かつ、簡単に作成、維持、保護できるようにするフルマネージドサービスである Amazon API Gateway は、プライムデー 2025 の開催中に 1 兆件を超える内部サービスリクエストを処理しました。これは、プライムデー 2024 と比較すると 1 日あたり平均 30% の増加です。 Amazon CloudFront – 低レイテンシーと高速転送でコンテンツを安全に配信するコンテンツ配信ネットワーク (CDN) サービスである Amazon CloudFront は、プライムデー 2025 のグローバルウィーク中に 3 兆件を超える HTTP リクエストを処理しました。これは、プライムデー 2024 と比較すると 43% の増加です。 Amazon Elastic Block Store (Amazon EBS) – プライムデー 2025 の開催中、当社の高性能ブロックストレージサービスである Amazon EBS の I/O オペレーションはピーク時に 20.3 兆回に達し、1 日あたりのデータ量は 1 エクサバイトに達しました。 Amazon Aurora – プライムデーでは、PostgreSQL、MySQL、DSQL 向けにグローバル規模で高いパフォーマンスと可用性を実現するために構築されたリレーショナルデータベース管理システム (RDBMS) である Amazon Aurora が、5,000 億件のトランザクションを処理し、4,071 テラバイトのデータを格納し、999 テラバイトのデータを転送しました。 Amazon DynamoDB – フルマネージドのサーバーレス分散型 NoSQL データベースである Amazon DynamoDB は、Alexa、Amazon.com のサイト、すべての Amazon フルフィルメントセンターなど、トラフィック量の多い複数の Amazon のプロパティとシステムを支えています。プライムデーの期間中、これらのソースは DynamoDB API に対して数十兆回に及ぶ呼び出しを実行しました。DynamoDB は、1 桁ミリ秒のレスポンスを提供し、ピーク時には 1 秒あたり 1 億 5,100 万件のリクエストを処理しながら、高可用性を維持しました。 Amazon ElastiCache – プライムデーの開催中、マイクロ秒単位のレイテンシーを提供するフルマネージドキャッシュサービスである Amazon ElastiCache が、ピーク時には 1 日あたり 1,500 兆件を超えるリクエスト、1 分間に 1,4 兆件を超えるリクエストを処理しました。 Amazon Kinesis Data Streams – フルマネージドサーバーレスデータストリーミングサービスである Amazon Kinesis Data Streams は、プライムデー 2025 の開催中に、ピーク時には 8 億 700 万件のレコードを処理しました。 Amazon Simple Queue Service (Amazon SQS) – プライムデー 2025 の開催中に、マイクロサービス、分散システム、サーバーレスアプリケーション向けのフルマネージドメッセージキューイングサービスである Amazon SQS は、ピーク時のトラフィック量としては新記録となる、1 秒あたり 1 億 6,600 万件のメッセージを処理しました。 Amazon GuardDuty – プライムデー 2025 の開催中に、インテリジェントな脅威検出サービスである Amazon GuardDuty は、1 時間あたり平均 8.9 兆件のログイベントをモニタリングしました。これは、昨年のプライムデーと比較すると 48.9% の増加です。 AWS CloudTrail – AWS、ならびにハイブリッドおよびマルチクラウド環境におけるユーザーアクティビティと API の使用状況を追跡する AWS CloudTrail は、プライムデー 2025 の開催中に 2.5 兆件を超えるイベントを処理しました。これは、2024 年の 9,760 億件のイベントと比較すると大幅な増加です。 スケールするための準備 同様のビジネスクリティカルなイベント、製品のリリース、移行の準備をしている場合は、ブランドが刷新された AWS Countdown (旧称: AWS Infrastructure Event Management、IEM) を活用することをお勧めします。この包括的なサポートプログラムは、AWS のエキスパートによって開発された実績のあるプレイブックを使用して、運用の準備状況の評価、リスクの特定と軽減、キャパシティの計画を行うのに役立ちます。当社は、AI に関する取り組みを自信をもって開始およびスケールするのに役立つ 生成 AI 実装サポート 、 メインフレームモダナイゼーション を含む 移行およびモダナイゼーションサポート 、ならびに 選挙システム 、 小売業務 、 ヘルスケアサービス 、 スポーツおよびゲームイベント などの専門分野向けのインフラストラクチャの最適化を含むように拡張しました。 2026 年も、どのような記録が破られるか本当に楽しみです! – Channy 原文は こちら です。
アバター
8 月 25 日週の Weekly Roundup の準備をしながら、過去 10 年間にデータベーステクノロジーがどのように進化してきたかを振り返らずにはいられませんでした。何年も前に行われたアーキテクチャ上の決定が、現代のアプリケーションを構築する方法を形作っているというのは興味深いことです。今週は、クラウドデータベースのイノベーションにおけるこの進化を完璧に捉えた、特別なマイルストーンを迎えます。Amazon Aurora が データベースイノベーションの 10 周年をお祝いしました 。 Amazon Web Services (AWS) の Vice President である Swami Sivasubramanian は、LinkedIn で Amazon Aurora とのジャーニーを振り返り、これまで取り組んできた「最も興味深い製品の 1 つ」と書いています。Aurora は 2015 年にリリースされたとき、コンピューティングとストレージを分離することでデータベース環境を変えました。現在、さまざまな業界の何十万ものお客様から信頼されている Aurora は、MySQL 互換のデータベースから、Aurora DSQL、サーバーレス機能、I/O 最適化価格設定、ゼロ ETL 統合、 生成 AI サポートなどのイノベーションを備えた包括的なプラットフォームへと成長しました。 8 月 21 日のお祝いでは、お客様のデータベーススケーリングを簡素化し続けているこの 10 年にわたるトランスフォーメーションに注目が集まりました。 8 月 18 日 のリリース ご紹介で盛り上がったところで、私の目をひいた AWS のリリースをいくつかご紹介します。 AWS Billing and Cost Management にカスタマイズ可能なダッシュボードを導入 – この新特徴量では、コストデータを複数のウィジェットタイプと視覚化オプションを備えた視覚的なダッシュボードに統合し、Cost Explorer、Savings Plans、Reserved Instance レポートからの情報を組み合わせて、組織が支出パターンを追跡し、標準化されたコストレポートをアカウント間で共有できるようにします。 Amazon Bedrock が OpenAI のオープンウェイトモデルへのアクセスを簡素化 – AWS は OpenAI のオープンウェイトモデル (gpt-oss-120b と gpt-oss-20b) へのアクセスを合理化し、IAM ポリシーとサービスコントロールポリシーによる管理者の制御を維持しながら、手動でアクティベーションを行うことなく、すべてのユーザーが自動的に利用できるようにしました。 Amazon Bedrock に Claude Sonnet 4 モデルと GPT-OSS モデルのバッチ推論サポートを追加 –この特徴量により、複数の推論リクエストをオンデマンド推論と比較して 50% 低価格で非同期処理し、バッチワークロードの進行状況を追跡するために Amazon CloudWatch メトリクスによる文書分析、コンテンツ生成、データ抽出などの大量の AI タスクを最適化することができます。 AWS が Amazon EC2 R8i と R8i-Flex のメモリ最適化インスタンスを開始 – カスタムの Intel Xeon 6 プロセッサを搭載したこれらの新しいインスタンスは、R7i インスタンスよりも最大 20% 優れたパフォーマンスと 2.5 倍のメモリスループットを実現し、データベースやビッグデータ分析などのメモリを大量に消費するワークロードに最適です。R8i-Flex は、コンピューティングリソースを十分に活用しないアプリケーションのコストをさらに削減します。 Amazon S3 にバッチデータ検証機能を導入 –これは S3 バッチオペレーションの新特徴量で、データをダウンロードまたは復元しなくても、複数のチェックサムアルゴリズムを使用して数十億のオブジェクトを効率的に検証し、ストレージクラスやオブジェクトサイズに関係なく、コンプライアンスや監査を目的とした詳細な整合性レポートを生成できます。 AWS のその他のニュース その他の興味深いプロジェクトとブログ記事をいくつかご紹介します。 Amazonがマルチロボット連携のためのDeepFleet基盤モデルを発表 – Amazon フルフィルメントセンターと仕分けセンターからの何百万時間ものデータに基づいてトレーニングされたこれらの先駆的なモデルは、ロボットフリートの将来の交通パターンを予測します。これは、複雑な環境で複数のロボットを調整するために特別に設計された最初の基礎モデルです。 数行のコードでの Strands Agents の構築 – 新しいブログでは、マルチエージェント AI システムを数行のコードで構築する方法をご紹介しています。これにより、専門エージェントがシームレスに連携し、複雑なワークフローを処理し、個々のエージェントの能力を超えた分散型 AI システムを構築するための標準化されたプロトコルを通じて情報を共有できるようになります。 AWS Security Incident Response に ITSM 統合を導入 – Jira と ServiceNow との新しい統合により、セキュリティインシデント、コメント、添付ファイルの双方向同期が可能になり、既存のプロセスを維持しながら対応を合理化できます。カスタマイズや追加の IT サービス管理 (ITSM) プラットフォームへの拡張のためのオープンソースコードが GitHub で公開されています。 ネットワークデジタルツイングラフとエージェンティック AI による根本原因の発見 – 詳細なブログ記事では、AWS が NTT ドコモと協力し、グラフデータベースと自律型 AI エージェントを使用してネットワークデジタルツインを構築した方法を詳しく説明しています。これにより、通信事業者は相関関係を超えて、複雑なネットワーク問題の真の根本原因を特定し、将来の問題を予測し、全体的なサービスの信頼性を向上させることができます。 今後の AWS イベント カレンダーを確認して、近日開催予定の AWS イベントにサインアップしましょう。 AWS Summit – クラウドコンピューティングコミュニティが集まり、交流し、協力し、AWS について学ぶことができる無料のオンラインイベントと対面イベントにご参加ください。最寄りの都市で開催されるイベントにご登録ください。日程は、 トロント (9 月 4 日)、 ロサンゼルス (9 月 17 日)、 ボゴタ (10 月 9 日) です。 AWS re:Invent 2025 – この年次の大型カンファレンスは、12 月 1 日から 5 日までラスベガスで開催されます。 イベントカタログ が公開されました。AWS コミュニティの集まりを見逃さないように、カレンダーに印を付けておきましょう。 AWS Community Days – 世界中のエキスパート AWS ユーザーと業界リーダーがリードするテクニカルディスカッション、ワークショップ、ハンズオンラボが盛り込まれたコミュニティ主導のカンファレンスにぜひご参加ください。日程は、 アドリア (9 月 5 日)、 バルト諸国 (9 月 10 日)、 アオテアロア (9 月 18 日)、 南アフリカ (9 月 20 日)、 ボリビア (9 月 20 日)、 ポルトガル (9 月 27 日) です。 AWS Builder Center に参加して、AWS コミュニティで AWS ビルダーとともに学び、構築し、交流しましょう。今後開催される追加の 対面イベント と デベロッパー向けのバーチャルイベント をこちらでご覧ください。 8 月 25 日週のニュースは以上です。9 月 1 日週にお届けする次回の Weekly Roundup もお楽しみに! – Betty 原文は こちら です。
アバター
8 月 28 日、カスタムインテル Xeon 6 プロセッサを搭載した、AWS 上のみで利用可能な新しい第 8 世代のメモリ最適化 Amazon Elastic Compute Cloud (Amazon EC2) R8i および R8i-flex インスタンスの一般提供の開始を発表しました。これらのインスタンスは、クラウドにおける同等のインテルプロセッサの中で最高のパフォーマンスと最速のメモリ帯域幅を提供します。これらのインスタンスは、前世代のインスタンスと比較して、最大 15 % 優れた料金パフォーマンス、20 % 高いパフォーマンス、2.5 倍のメモリスループットを実現します。 これらの改善により、R8i および R8i-flex インスタンスは、SQL および NoSQL データベース、分散型ウェブスケールのインメモリキャッシュ (Memcached および Redis)、SAP HANA などのインメモリデータベース、リアルタイムのビッグデータ分析 (Apache Hadoop および Apache Spark クラスター) など、メモリを大量に消費するさまざまなワークロードに最適となっています。コンピューティングリソースを十分に活用していないワークロードの大部分にとって、R8i-flex インスタンスは、さらに 5% 優れた料金パフォーマンスと 5% 低い料金を実現できる、すばらしい第一の選択肢です。 両方のインスタンスにおける、前世代からの改善点 パフォーマンス面では、R8i インスタンスと R8i-flex インスタンスは R7i インスタンスよりも 20 % 優れたパフォーマンスを提供し、特定のワークロードではさらに高いパフォーマンスを実現します。これらのインスタンスは、前世代の R7i インスタンスと比較して、PostgreSQL データベースで最大 30%、NGINX ウェブアプリケーションで最大 60 %、AI 深層学習レコメンデーションモデルで最大 40 % 高速化しており、持続的な全コアターボ周波数は 3.9 GHz に達しています (前世代は 3.2 GHz)。また、L3 キャッシュは 4.6 倍に拡張され、メモリスループットが大幅に向上し、第 7 世代と比較して 2.5 倍のメモリ帯域幅を実現しています。すべてのベクトルにわたるこのより高いパフォーマンスにより、コストを抑えながらより多くのワークロードを実行できます。 R8i インスタンスは、最大 384 vCPU と 3 TB のメモリを搭載し、最大 96xlarge までスケールアップするようになりました (第 7 世代では 48xlarge サイズ)。これは、データベースアプリケーションのスケールアップに役立ちます。R8i インスタンスは、オンプレミスおよびクラウド環境におけるすべての同等のマシンの中で最高となる 142,100 aSAPS を実現する SAP 認定を受けており、ミッションクリティカルな SAP ワークロードのために卓越したパフォーマンスを提供します。R8i-flex インスタンスは、large から 16xlarge まで、極めて一般的なサイズを提供しており、すべてのコンピューティングリソースを最大限に活用していないアプリケーションにとってすばらしい第一の選択肢となります。R8i インスタンスと R8i-flex インスタンスはいずれも最新の第 6 世代 AWS Nitro Card を使用しており、前世代と比較して最大 2 倍のネットワーク帯域幅と Amazon Elastic Block Storage (Amazon EBS) 帯域幅を提供します。これにより、ウェブ、アプリケーション、ゲームサーバーなど、小さなパケットを処理するワークロードのネットワークスループットが大幅に向上します。 また、R8i インスタンスと R8i-flex インスタンスは、ネットワークと Amazon EBS 帯域幅の間で 25 % の割り当て調整を行う帯域幅設定もサポートしており、データベースのパフォーマンス、クエリ処理、ログ記録速度が向上します。その他の機能強化には、深層学習のトレーニングと推論、および他の人工知能および機械学習 (AI/ML) アプリケーションなどのワークロードをサポートするための、インテル AMX の FP16 データ型のサポートが含まれます。 R8i インスタンスの仕様は次のとおりです。 インスタンスサイズ vCPU メモリ (GiB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) r8i.large 2 16 最大 12.5 最大 10 r8i.xlarge 4 32 最大 12.5 最大 10 r8i.2xlarge 8 64 最大 15 最大 10 r8i.4xlarge 16 128 最大 15 最大 10 r8i.8xlarge 32 256 15 10 r8i.12xlarge 48 384 22.5 15 r8i.16xlarge 64 512 30 20 r8i.24xlarge 96 768 40 30 r8i.32xlarge 128 1024 50 40 r8i.48xlarge 192 1536 75 60 r8i.96xlarge 384 3072 100 80 r8i.metal-48xl 192 1536 75 60 r8i.metal-96xl 384 3072 100 80 R8i-flex インスタンスの仕様は次のとおりです。 インスタンスサイズ vCPU メモリ (GiB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) r8i-flex.large 2 16 最大 12.5 最大 10 r8i-flex.xlarge 4 32 最大 12.5 最大 10 r8i-flex.2xlarge 8 64 最大 15 最大 10 r8i-flex.4xlarge 16 128 最大 15 最大 10 r8i-flex.8xlarge 32 256 最大 15 最大 10 r8i-flex.12xlarge 48 384 最大 22.5 最大 15 r8i-flex.16xlarge 64 512 最大 30 最大 20 R8i-flex インスタンスを使用すべき場合 前述のとおり、R8i-flex インスタンスは R8i インスタンスよりも手頃な料金で利用でき、最大 5 % 優れた料金パフォーマンスと 5% 低い料金を提供します。最新世代のパフォーマンスから恩恵を享受できるが、すべてのコンピューティングリソースを完全に活用していないワークロード向けに設計されています。これらのインスタンスは、95 % の時間で CPU パフォーマンスを最大限に発揮でき、インメモリデータベース、分散型ウェブスケールキャッシュストア、中規模インメモリ分析、リアルタイムビッグデータ分析、および他のエンタープライズアプリケーションで優れたパフォーマンスを発揮します。R8i インスタンスは、分析、データベース、エンタープライズアプリケーション、ウェブスケールインメモリキャッシュなど、CPU、ネットワーク、EBS の持続的な高パフォーマンスが求められる、より要求の厳しいワークロードに推奨されます。 今すぐご利用いただけます R8i インスタンスと R8i-flex インスタンスは、現在、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、および欧州 (スペイン) の AWS リージョン でご利用いただけます。Amazon EC2 でのいつものお支払いと同様に、お支払いいただくのは使用した分の料金のみです。詳細については、「 Amazon EC2 の料金 」をご覧ください。アプリケーションの移行を開始するのに役立つ、 メモリ最適化インスタンス のフルコレクションをご覧ください。 詳細については、 Amazon EC2 R8i インスタンスページ と Amazon EC2 R8i-flex インスタンスページ にアクセスしてください。 AWS re:Post for EC2 に、または通常の AWS サポート担当者を通じて、ぜひフィードバックをお寄せください。 –  Veliswa 原文は こちら です。
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの三厨です。先日の夏休みには、実家に帰省して押し入れの整理をしていました。 来る 9/18 には AI ネイティブな未来を見据えたクラウドへのマイグレーションとモダナイゼーションがテーマの AWS Innovate: Migrate and Modernize が開催されます。実家の押し入れの如くどこから手をつければいいか悩むけど、放っておくとどんどん大変になる…。そんなレガシーシステムの”整理術”について是非学びを深めていただければと思います。 先日 2つの新しいプランを追加した「 AWS ジャパン生成 AI 実用化推進プログラム 」も非常に多くの申し込みをいただいています。引き続き募集中ですのでよろしくお願いします。 それでは、8 月 25 日週の生成 AI with AWS界隈のニュースを見ていきましょう。 さまざまなニュース ブログ記事「株式会社ウィンシステム様、Cline with Amazon Bedrock の活用により開発生産性が 10 倍向上」」を公開 旅行会社向けシステム開発や、企業の出張管理ソリューションを提供されている株式会社ウィンシステム様では、従来の開発プロセスでは、コーディング作業に多くの時間を要していました。これを解決するために、Cline with Amazon Bedrock を導入しました。その結果、開発生産性が10倍向上し、より創造的な業務に集中できるようになりました。今後、さらなる生成AI活用の拡大を検討しています。 寄稿ブログ記事「Amazon Bedrock を活用した AI エージェント開発・共有基盤「KTC Agent Store」の構築と実践」を公開 クルマのサブスクリプションサービス「KINTO」をはじめとするさまざまなモビリティサービスを展開している KINTO テクノロジーズ様より、Amazon Bedrock を活用したAIエージェント開発・共有基盤「KTC Agent Store」の概要・技術的特徴・活用事例をご紹介いただいています。AI Agent 開発の民主化や責任ある AI をどのようにお客様が実現できるのかについて、具体的な実装例を交えて解説していただいています。 ブログ記事「AWS Innovate: Migrate and Modernize 開催のお知らせ」を公開 9/18 開催の AWS Innovate: Migrate and Modernize の見どころが解説されています。このイベントでは、AI時代に向けたクラウド移行とモダナイゼーションについて、AWSのエキスパートから実践的な移行手法とベストプラクティスを学ぶことができます。また、Microsoft、VMware、SAP、Oracleなど6つの専門トラックを通じて、実際の成功事例や具体的な実装方法を知ることができ、自社のクラウド戦略立案に役立てることができます。 ブログ記事「Billing and Cost Management MCP サーバーの発表」を公開 AWS Billing and Cost Management MCP サーバーの発表について紹介しています。Model Context Protocol(MCP)を通じて、請求とコスト管理の情報にアクセスできる新しい仕組みが提供されます。生成AIアプリケーションでのコスト管理の自動化に役立つ機能です。コスト異常の検出やリソース使用量の分析など、実際のビジネスシーンでの活用例も詳しく解説されています。 ブログ記事「Kiro 価格設定の重要なお知らせ」を公開 Kiroの価格設定に関する重要な更新について説明しています。AI IDEであるKiroの価格体系の変更と、ユーザーへの影響について詳しく解説されています。Kiro の最新情報は、 https://kiro.dev/ をご覧ください。 サービスアップデート Amazon Q Developer が MCP 管理者制御機能を提供 Amazon Q Developer にて、MCP(Model Context Protocol)管理者制御機能が追加されました。これにより、組織レベルでのAI開発ツールの管理とガバナンスが強化され、セキュリティとコンプライアンスを保ちながらAI支援開発を推進できます。 AWS Transform for .NET が Azure DevOps リポジトリおよび NuGet サポートを追加 AWS Transform for .NET にて、Azure DevOps リポジトリのサポートが追加されました。.NETアプリケーションのモダナイゼーションにおいて、より多様な開発環境からの移行が可能になり、エージェンティックAIを活用した効率的な変換プロセスを提供します。 Amazon Connect が生成テキスト読み上げ音声をサポート Amazon Connect にて、生成AI技術を活用したテキスト読み上げ音声機能が追加されました。コンタクトセンターでのカスタマーエクスペリエンス向上と、より自然な音声対話の実現が可能になります。現在、英語、フランス語、スペイン語、ドイツ語、イタリア語について、ヨーロッパ(フランクフルト)、米国西部(オレゴン)、米国東部(バージニア北部)リージョンで利用可能です。 Amazon Bedrock Data Automation が5つの追加言語でドキュメント処理をサポート Amazon Bedrock Data Automation にて、新たに5つの言語(ポルトガル語、フランス語、イタリア語、スペイン語、ドイツ語)でのドキュメント処理がサポートされました。これにより、多言語環境でのドキュメント処理とデータ抽出がより効率的に行えるようになり、グローバルなビジネス展開を支援します。現在、ヨーロッパ(フランクフルト、ロンドン、アイルランド)、アジアパシフィック(ムンバイ、シドニー)、米国西部(オレゴン)、米国東部(バージニア北部)、AWS GovCloud(US-West)リージョンで利用可能です。 Amazon Polly が新しい合成生成音声を提供 Amazon Polly にて、新しい合成生成音声が追加されました。生成AI技術を活用したより自然で表現豊かな音声合成により、音声アプリケーションやアクセシビリティ機能の品質向上が期待できます。現在、ヨーロッパ(フランクフルト)、米国西部(オレゴン)、米国東部(バージニア北部)リージョンで利用可能です。 Amazon Neptune が BYOKG RAG ツールキットをサポート Amazon Neptune にて、BYOKG(Bring Your Own Knowledge Graph)RAG ツールキットのサポートが開始されました。このツールキットにより、既存のナレッジグラフを活用したRAGアプリケーションの構築が容易になり、より精度の高い情報検索と回答生成が可能になります。 Amazon RDS for MariaDB 11.8 がベクトルサポートを提供 Amazon RDS for MariaDB 11.8 にて、ベクトルサポートが追加されました。これにより、RAGアプリケーションや機械学習ワークロードにおいて、ベクトル検索機能を直接データベース内で実行できるようになり、アプリケーションアーキテクチャの簡素化が可能になります。 OpenSearch Serverless が属性ベースアクセス制御をサポート OpenSearch Serverless にて、属性ベースアクセス制御(ABAC)機能が追加されました。RAGアプリケーションやベクトル検索において、よりきめ細かなセキュリティ制御が可能になり、企業レベルでの安全な検索システムの構築を支援します。 Amazon SageMaker HyperPod が EBS CSI 永続ストレージをサポート Amazon SageMaker HyperPod にて、EBS CSI永続ストレージのサポートが開始されました。大規模な機械学習トレーニングワークロードにおいて、データの永続化とパフォーマンスの向上が実現され、より効率的なモデル開発が可能になります。 著者について 三厨 航  (Wataru MIKURIYA) AWS Japan のソリューションアーキテクト (SA) として、ヘルスケア・ハイテク製造業のお客様のクラウド活用を技術的な側面・ビジネス的な側面の双方から支援しています。クラウドガバナンスや IaC 分野に興味があり、最近はそれらの分野の生成 AI 応用にも興味があります。最近見たドラマは「AJLT」です。
アバター
みなさん、こんにちは。ソリューションアーキテクトの西村です。 今週も 週刊AWS をお届けします。 2025 年 9 月 18 日(木) に AWS Innovate: Migrate and Modernize というオンラインイベントが開催されます。今回の AWS Innovate は、AI やデータを活用できる基盤を整えるために、さまざまなシステムのクラウドへのマイグレーションとモダナイゼーションにフォーカスした内容となっており、約 30 のセッションを、AWS のエキスパートが実践手法とベストプラクティスをデモを交え解説します。また、クラウドの活用によりビジネス価値の創出に取り組まれているお客様より事例もご紹介いただきます。ぜひ、こちらからご登録ください。 それでは、先週の主なアップデートについて振り返っていきましょう。 2025年8月25日週の主要なアップデート 8/25(月) Amazon RDS for MariaDB が MariaDB Vector サポートを含む MariaDB 11.8 をサポート開始 Amazon RDS for MariaDB 11.8 がリリースされ、新機能 MariaDB Vector がサポートされました。この機能により、データベースにベクトル埋め込みを保存し、AI アプリケーションで検索拡張生成 (RAG) を活用できます。EC サイトやメディアアプリで類似商品検索などの生成 AI 機能をより容易に構築可能になりました。また、一時ファイルやテーブルの最大サイズ制限機能も追加され、ストレージ管理がより効率的になります。詳細は こちらのドキュメントをご参照ください。 Amazon Neptune が BYOKG – RAG (GA) をオープンソース GraphRAG ツールキットでサポート開始 Amazon Neptune で BYOKG-RAG (Bring Your Own Knowledge Graph for RAG) がサポート開始されました。これまでは独自のナレッジグラフを生成 AI と連携するには複雑なカスタムパイプラインが必要でしたが、GraphRAG Toolkit を使うことで既存のグラフデータベースを直接 LLM と組み合わせられるようになりました。詐欺調査での不審な取引パターン発見や通信ネットワーク障害の原因特定など、構造化されたデータを活用してより正確で説明可能な AI 応答が実現できます。詳細は こちらの GitHub をご参照ください。 Amazon Connect Contact Lens が 5 つの追加 AWS リージョンで外部音声をサポート開始 Amazon Connect Contact Lens の外部音声システム連携が、シドニー、東京、カナダ中部、フランクフルト、ロンドンリージョンで新たに利用可能になりました。これにより既存のコールセンターシステムを使いながら Contact Lens の AI 分析機能(通話録音、感情分析、リアルタイム分析など)が既存システムでも使えるため、段階的な Amazon Connect 移行や複数システムでの一元的な分析が実現します。 8/26(火) Aurora DSQL が AWS Fault Injection Service による耐障害性テストをサポート Amazon Aurora DSQL が AWS Fault Injection Service (FIS) との連携を開始しました。これにより、データベース接続の障害をシミュレーションして、アプリケーションの復旧力をテストできるようになりました。従来は本番環境で実際に障害が発生するまで、Aurora DSQLを含めたアプリケーションの復旧挙動を確認できませんでしたが、今回のアップデートにより、安全な環境で事前にテストが可能です。リージョン障害時の接続断絶などを模擬して、アプリケーションが適切に復旧するかを検証できます。東京リージョンを含む 8 つのリージョンで利用可能です。詳細は こちらのドキュメントをご参照ください。 Amazon Polly がより多くの合成生成音声を提供開始 Amazon Polly で 7 つの新しい生成音声が利用可能になりました。英語、フランス語、ポーランド語、オランダ語に対応し、合計 27 種類の多様な音声から選択できます。注目すべきは、同じ音声で複数言語を話せる polyglot 機能です。これにより企業のブランドアイデンティティを保ちながら、異なる地域向けのコンテンツを作成できます。チャットボットや音声コンテンツ制作において、より自然で表現豊かな音声体験を提供できるでしょう。バージニア北部、フランクフルト、オレゴンリージョンで利用可能です。詳細は こちらのドキュメントをご参照ください。 Amazon RDS for Oracle が Redo Transport Compression をサポート開始 Amazon RDS for Oracle で Redo Transport Compression 機能が利用可能になりました。この機能は redo データを圧縮してからスタンバイデータベースに送信することで、ネットワーク転送量を削減し redo transport のパフォーマンスを向上させます。結果として、より低い RPO (Recovery Point Objective) を実現でき、プライマリインスタンスに障害が発生した際のデータ損失を最小限に抑えられます。ただし圧縮処理で CPU リソースを消費するため、十分な CPU 容量の確保が必要となります。詳細は こちらのドキュメント をご参照ください。 AWS Client VPN が IPv6 リソースへの接続をサポート AWS Client VPN が IPv6 リソースへの接続に対応しました。これまでは IPv4 のみサポートでしたが、今回のアップデートで IPv6 や IPv4/IPv6 デュアルスタック接続が可能になりました。リモートワーカーが IPv6 対応デバイスから VPC 内の IPv6 リソースに直接アクセスでき、エンドツーエンドで IPv6 接続を維持できるため、IPv6 移行を進める組織にとって、ネットワーク構成がシンプルになる大きなメリットがあります。中東 (バーレーン) リージョンを除く全リージョンで追加料金なしで利用できます。 8/27(水) AWS Management Console で AWS アカウントに色を割り当てて識別を容易にする機能をサポート開始 AWS マネジメントコンソール で、アカウントに色を設定できる機能が全パブリックリージョンで利用開始されました。複数の AWS アカウントを運用している場合、これまではアカウント番号でしか識別できませんでしたが、この機能により、管理者がアカウントごとに色を設定することで視覚的に区別できるようになります。例えば本番環境は赤色、開発環境は青色といった運用が可能です。ナビゲーションバーに設定した色が表示され、誤操作防止にも効果的です。 AWS Transfer Family が SFTP コネクタのデプロイメント向け Terraform サポートを導入 AWS Transfer Family の Terraform モジュールが SFTP コネクタのデプロイに対応しました。これまでは SFTP サーバーエンドポイントのみサポートしていましたが、Amazon S3 とリモート SFTP サーバー間のファイル転送を自動化できるようになりました。Infrastructure as Code (IaC) でファイル転送リソースの一元管理が可能となり、手動設定によるミスを防ぎ、スケーラブルで再現性の高いデプロイが実現できます。 Amazon EC2 C7i インスタンスが大阪リージョンで利用可能に Amazon EC2 C7i インスタンスが大阪リージョンで利用開始されました。第 4 世代 Intel Xeon プロセッサを搭載し、C6i インスタンスと比較して最大 15% のコストパフォーマンス向上を実現可能です。バッチ処理や動画エンコーディングなどの計算集約的なワークロードに最適で、EBS ボリュームも従来の 28 個から 128 個まで接続可能になり、より大規模なデータ処理が行えます。 Amazon EKS がオンデマンドインサイト更新機能を導入 Amazon EKS でクラスターインサイトのオンデマンド更新機能が利用可能になりました。従来は定期的な自動チェックのみでしたが、今回のアップデートにより設定変更やアップグレード後すぐに最新の推奨事項や警告を確認できます。Kubernetes バージョンアップグレード前の準備不足などの問題を即座に検出し、迅速な検証とテストが可能です。詳細は こちらのドキュメントをご参照ください。 8/28(木) 新しい汎用インスタンス Amazon EC2 M8i および M8i-flex の提供開始 Amazon EC2 で新しい M8i と M8i-flex インスタンスの提供が開始されました。AWS 専用の Intel Xeon 6 プロセッサを搭載し、前世代と比較してコスト効率が最大 15% 向上、メモリ帯域幅が 2.5 倍になります。PostgreSQL では 30%、Web アプリケーションでは 60% の性能向上を実現します。M8i-flex は Web サーバーやマイクロサービスなど一般的なワークロードに最適で、M8i は大規模アプリケーションや継続的な高 CPU 使用に適しています。詳細は こちらの サービスページをご参照ください。 Amazon Connect が生成 AI テキスト読み上げ音声を提供開始 Amazon Connect で新しい生成 AI テキスト読み上げ音声が利用可能になりました。従来の機械的な音声と異なり、自然で人間らしい表現豊かな音声で顧客との会話を実現できます。英語やフランス語など 5 言語で計 20 種類の音声が用意され、ウェルカムメッセージやポリシー案内、動的な会話 AI 体験に活用できます。フロー設計画面の「Set Voice」ブロックや API で簡単に設定でき、バージニア北部、フランクフルト、オレゴンリージョンで提供中です。詳細は こちらのドキュメントをご参照ください。 Amazon Q Developer が MCP 管理者制御をサポート Amazon Q Developer で、管理者が AWS コンソールから Model Context Protocol (MCP) サーバーを直接制御できるようになりました。これまで個別に管理していた外部リソースを、組織レベルで一括制御できます。管理者が MCP 機能を無効にすると、ユーザーは新しい MCP サーバーを追加できず、既存サーバーも動作しません。セキュリティポリシーに応じて柔軟に制御でき、CLI や VSCode などの各プラグインで統一的な管理が実現します。詳細は こちらのドキュメントをご参照ください。 8/29(金) AWS IAM がネットワーク境界制御のための新しい VPC エンドポイント条件キーを開始 AWS IAM で新しい VPC エンドポイント条件キー 3 つ (aws:VpceAccount、aws:VpceOrgPaths、aws:VpceOrgID) が提供開始されました。これまで VPC エンドポイントを個別に列挙してポリシーを更新する必要がありましたが、今回のアップデートでアカウント、組織パス、組織全体レベルでのネットワーク境界制御が自動的にスケールするようになりました。既存の SCP や RCP、リソースベースポリシーなどで利用でき、AWS PrivateLink 対応の全商用リージョンで使用可能です。詳細は こちらの Blog 記事をご参照ください。 Amazon QuickSight が Google Sheets への接続をサポート Amazon QuickSight で Google Sheets への直接接続が可能になりました。これまで Google Sheets のデータを分析するには CSV エクスポートなどの手間が必要でしたが、今回のアップデートで Google アカウントでログインするだけで、スプレッドシートを直接 QuickSight に取り込んで分析できます。営業チームが管理する顧客データや、マーケティング部門の広告効果データなど、Google Sheets で管理している情報をリアルタイムでダッシュボード化できるため、データドリブンな意思決定がより迅速に行えるようになります。詳細は こちらの Blog 記事をご参照ください。 まだまだ残暑はつづいておりますので、体調管理に気をつけてお過ごしください。 それでは、また来週! 著者について 西村 忠己(Tadami Nishimura) / @tdmnishi AWS Japan のソリューションアーキテクトとして、小売・消費財業種のお客様を担当しています。データガバナンスの観点から、お客様がデータ活用を効果的に行えるようなデモンストレーションなども多く行っています。好きなサービスは Amazon Aurora と Amazon DataZone です。趣味は筋トレで、自宅に徒歩0分のトレーニングルームを構築して、日々励んでいます。
アバター
本稿は、2024 年 11 月 29 日に公開された “ Faster scaling with Amazon EC2 Auto Scaling Target Tracking ” を翻訳したものです。 はじめに AWS クラウドの主な利点の 1 つは弾力性です。これにより、ユーザーは必要なリソース分だけをプロビジョニングして利用できます。ユーザーは弾力性の利点を最大限に活用するために、自動化された幅広く簡単に操作できるメカニズムを必要としていました。 Amazon EC2 Auto Scaling は、変化するワークロードの需要に合わせて Amazon Elastic Compute Cloud (Amazon EC2) インスタンスの数を自動的にスケーリングできるようにすることで、これらの課題を解決できます。また、インスタンスのライフサイクルを管理するための幅広い機能を提供しています。 Auto Scaling グループ(ASG)をスケーリングするには、ユーザーはスケーリングポリシーを作成する必要があります。スケーリングポリシーは、ワークロードの需要に合わせて Amazon EC2 の容量を調整するためのガイドラインを ASG に提供します。スケーリングポリシーにはさまざまな種類があり、それぞれ容量を管理するアプローチが異なります。 ポリシーの 1 つとして ターゲット追跡スケーリングポリシー があります。これは、自動的にスケーリングするためのより簡単で効果的な方法です。これを使用するには、ユーザーは 使用率メトリクス を定義し、維持する目標値を設定する必要があります。たとえば、平均 CPU 使用率 60% というポリシーを設定すると、ASG は EC2 インスタンス全体にわたってメトリクスをできるだけその値に近づけます。 この投稿では、最近リリースされた ターゲット追跡スケーリング のアップデートについて説明します。また、新機能を使用するターゲット追跡スケーリングポリシーを作成する手順を説明し、新機能がもたらす利点についても説明します。 ターゲット追跡スケーリングポリシーの新機能 ユーザーがアプリケーションをモダナイズするにつれ、私たちは動的な Auto Scaling ソリューションを当初のターゲット追跡スケーリングポリシーの実装を超えて拡張する必要があることを学びました。 まず、ユーザーは、ターゲット追跡スケーリングが需要の急増に対応するのに数分かかると、短期的にパフォーマンスが低下する可能性があることに気付きました。多くのユーザーが、ランニングキャパシティをバッファリングすることでこの課題を軽減しましたが、これはコストの増加につながりました。次に、ワークロードが異なればスケーリング要件も異なります。つまり、ユーザーはワークロードごとに調整されたスケーリングポリシーを作成する必要があります。これは、パフォーマンスとコストを最適化するために、時間がかかり、エラーが発生しやすく、運用上もコストがかかる作業です。 これらのユーザーの課題に対処するために、合理的で応答性の高いターゲット追跡スケーリングポリシーをリリースしました。ターゲット追跡スケーリングは、個々のアプリケーションの固有の使用パターンに合わせて応答性を自動的に調整し、アプリケーションの需要を綿密に監視して、スケーリングの決定をより迅速に行えるようになりました。また、自動チューニングにより、ユーザーはワークロードごとに調整されたスケーリングポリシーを作成しなくても、アプリケーションのパフォーマンスを向上させ、Amazon EC2 リソースの使用率を高く維持してコストを削減できます。ユーザーは維持したい目標使用率を指定するだけで、ターゲット追跡スケーリングは追加設定なしにスケーリングできるようになりました。 自動スケーリングを迅速に行うために、ユーザーは Amazon CloudWatch の高解像度メトリクスを使用してターゲット追跡スケーリングポリシーを設定できます。このきめ細かい監視により、ターゲット追跡スケーリングは変化する需要を分単位ではなく数秒単位で検出して対応します。この機能は、クライアントサービス API、ライブストリーミングサービス、e コマース Web サイト、オンデマンドデータ処理など、需要パターンが不安定なアプリケーションに最適です。 新しいターゲット追跡スケーリングポリシーの始め方 すでにターゲット追跡スケーリングポリシーを使用している場合は、自動的に調整されるターゲット追跡スケーリングにアップグレードするためのアクションは必要ありません。ターゲット追跡スケーリングポリシーは、ターゲットメトリクスの履歴を定期的に分析し、スケールアウトとスケールインを開始するための適切な感度レベルを決定します。さらに、可用性とコスト削減の両方を最適化するために追加または削除する必要がある容量も決めます。これらの決定は、需要の変化の範囲や頻度、使用量の急増が長期的か短期的かなど、アプリケーションの需要パターンの固有の特性によって異なります。ターゲット追跡スケーリングは継続的に学習し、特定のアプリケーションや需要パターンに自動的に適応するように自動的に再評価されます。 ターゲット追跡スケーリングの迅速な応答を有効にする さらに、ターゲット追跡スケーリングポリシーからの迅速な対応を可能にするために、ユーザーは Amazon CloudWatch に 1 分未満の精度で発行されたメトリクス(高解像度メトリクスとも呼ばれます)を追跡できます。ユーザーは、既存のターゲット追跡スケーリングポリシーを更新したり、カスタマイズされたメトリクス(CustomizedMetricSpecification)の一部として高解像度メトリクスを含む新しいポリシーを作成したりできます。ユーザーは、Amazon CloudWatch にメトリクスを発行するときに作成された同じメトリクス名前空間、メトリクス名、および任意のディメンションやユニットを記述する必要があります。また、ターゲット追跡スケーリングがメトリクスを評価するために、メトリクスの粒度を示すメトリクス期間も定義する必要があります。次のステップでは、 AWS マネジメントコンソール で ASG を使う方法を説明します。 ステップ 1: ASG の選択 Amazon EC2 コンソールで ASG の名前を選択します。すると次の図に示すように 詳細 ページに移動します。 図 1: Amazon EC2 コンソールでスケーリングしたい ASG を選択 次の図に示すように オートスケーリング タブを選択してください。 動的スケーリングポリシーを作成する ボタンが表示されます。 図 2: 選択した ASG のオートスケーリングタブ ステップ 2: 動的スケーリングポリシーの作成 ポリシータイプとしてターゲット追跡スケーリングを選択してください。 メトリクスタイプ には、 カスタム CloudWatch メトリクス を選択してください。これは事前に入力された JSON スニペットを示しています。次の図に示すように、CloudWatch メトリクスの発行に使用したターゲット追跡スケーリングポリシーを使用して、スケーリングするメトリクスのメトリクス名、名前空間、ディメンションを編集できます。 図 3: 更新された CustomizedMetricSpecification セクション サポートされている最小期間は 10 秒です。10 秒のメトリクス期間を使用するには、メトリクスは 10 秒以上の解像度、たとえば 1 秒で発行する必要があります。ただし、1 秒間隔で発行すると、CloudWatch のコストが大幅に増加する可能性があります。コストに関する考慮事項については、この記事の後半で説明します。Auto Scaling では、ターゲット追跡スケーリングが使用量の急増を迅速に監視して対応できるように、60 秒の制限を設けています。 この 2 つのステップにより、ターゲット追跡スケーリングを高解像度のメトリクスでスケーリングできるようになります。 より迅速なスケーリングを可能にする 前述の手順により、ASG は使用率の変化をより迅速に検出できるため、需要が急増したときにより多くのインスタンスを追加できます。 次の図は、ターゲット追跡スケーリングポリシーがデフォルトである 60 秒の期間で構成された環境と 10 秒の期間で構成されている環境に対して、同じ負荷テストを実行した結果を示しています。各ポリシーの目標値は 60% の CPU 使用率です。負荷テストでは、需要の急増をシミュレートするために、それぞれ http リクエストを送信するたびに、3 分間で最大 20 スレッドまで増加しています。60 秒のケース(左の図)では、アプリケーションが CPU 使用率の目標である 60%(青い線)を 3 分間上回っていたことがわかります。容量(緑の線)は、システムの CPU 使用率が 100% のピークに達した後にのみ増加しました。これはアプリケーションのパフォーマンスの問題につながる可能性があり、それを回避するには、より多くの容量をプロビジョニングできるように使用率を下げることを目指さなければならず、コストが増加します。しかし、10 秒のケース(右の図)では、アプリケーションへの影響を避けるために迅速にスケーリングが行われました。容量は 1 分後に増加しましたが、その間 CPU 使用率は 60% 近くにとどまり、100% のピークレベルには達しませんでした。これにより、ユーザーはリソース使用レベルをより高くすることができ、アプリケーションのパフォーマンスに影響を与えずにコストを節約できます。 図 4: 60 秒と 10 秒のメトリクス期間で設定されたターゲット追跡スケーリングポリシー 考慮事項 高解像度のカスタムメトリクスを適用する前に、コストに影響する可能性があるため、次の要素を考慮することをお勧めします。 メトリクスタイプ : ターゲット追跡スケーリングは、メトリクスが ASG のインスタンス数に比例して変化することを前提としています。ターゲット追跡スケーリングポリシーを成功させるには、適切なメトリクスを選択することが重要です。詳細については、 ターゲット追跡スケーリングポリシーのドキュメント を参照してください。 料金 : これらの新機能を含め、EC2 Auto Scaling に追加料金はかかりません。ユーザーは、アプリケーションの実行に必要な AWS リソースと CloudWatch モニタリング料金のみを支払います。ただし、これらの機能に関連する CloudWatch の 3 つの請求項目を理解しておく必要があります。 1) 高解像度アラーム 2) API コール 3) カスタムメトリクス ターゲット追跡スケーリングでは、少なくとも 2 つのアラームが生成されます。アラームはそれぞれ、使用率の高い値と低い値を追跡し、それらのしきい値の間にバッファーを配置して変動を減らします。メトリクス期間が 60 秒未満の場合、これらのアラームは高解像度のアラームとして請求されます。この記事を書いている時点で、AWS アジアパシフィック(東京) リージョン の高解像度アラームの価格は、アラームメトリクスあたり 0.30 ドルですが、標準解像度のアラームの価格はアラームメトリクスあたり 0.10 ドルです。 CloudWatch エージェントを使用している場合は、CloudWatch エージェントは metrics_collection_interval の設定値に基づいて各インスタンスから API コールを送信します。各インスタンスは、間隔ごとに 1 回 API コールを Amazon CloudWatch に送信します。Amazon CloudWatch では、メトリクスは名前空間、メトリクス名、ディメンション(オプション)、単位(オプション)のユニークな組み合わせとして定義されます。CloudWatch エージェントからプッシュされたディメンションのユニークな組み合わせは、すべてカスタムメトリックとして請求されます。 以下は、無料利用枠を過ぎて有料利用枠の第 1 段階にあるアカウントで、東京リージョンを利用して予想される月額料金(USD)の例です。この例では、1 つのターゲット追跡スケーリングポリシーで、メトリクスとアラームが 10 秒間隔に設定されている ASG で、1 か月に平均 10 個のインスタンスが実行されていることを前提としています。 1) 高解像度アラーム: 2 つのアラーム * $0.30/アラームメトリクス = $0.60/月 2) API コール: 10 インスタンス * 30 日 * 24 時間 * 3,600 秒 / 10 秒間隔 = 2,592,000 API コール 2,592,000 API コール * $0.01/1,000 リクエスト = $25.92/月 3) カスタムメトリクス: 1 つの ASG に集約されたメトリクス * $0.30/月 = $0.30/月 合計見積もり: $26.82/月(ASG で 10 個のインスタンスを実行する前提) 1 回の PutMetricData API コールで複数のメトリクスをプッシュできます。複数の AutoScalingGroupName メトリクスを発行するように CloudWatch エージェントを設定した場合、API の料金は PutMetricData のサイズ制限に達するまで同じままになり、カスタムメトリクスの料金のみが増加します。 たとえば、ASG が c8g.xlarge インスタンスを実行している場合、これらの機能によって使用率が高くなるため、実行するインスタンスを 1 つ減らすと、東京リージョンでの毎月のコスト削減は次のようになります。 1 個 c8g.xlarge インスタンス $0.15896/時間 * 30 日 * 24 時間 = $114.45/月 CloudWatch の推定コストである月額 26.82 ドルを差し引くと、ASG あたり月額 117.18 ドルの節約になります。この例では、EC2 のコストをほぼ 8% 節約できます。 メトリクスの発行とスケーリングポリシーを更新するテンプレート 高解像度のメトリクスの公開を始めるのに役立つように、 AWS CloudFormation のサンプルテンプレートを用意しました。このテンプレートは、既存の ASG の新しいより速いスケーリング期間を検証するためのサンプルです。これには、CloudWatch エージェントをインストールし、ASG インスタンスの CPU 使用率を高解像度で Amazon CloudWatch に発行することが含まれます。このテンプレートには、この記事で説明されているようにターゲット追跡スケーリングポリシーも含まれています。 デプロイとカスタマイズの要件に関する説明は、AWS Samples リポジトリの Faster Scaling with EC2 Auto Scaling にあります。テンプレートにはお伝えしたいコードスニペットがいくつかあります。 まず、 CloudWatch エージェント をインストールするために、テンプレートは ASG で使用される起動テンプレートの UserData を更新します。 UserData: Fn::Base64: !Sub | #!/bin/bash yum install amazon-cloudwatch-agent -y sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config -m ec2 -c ssm:/cw-agent-asg-aggregate-cpu -s このコマンドは、Cloudwatch エージェントの設定を保持する AWS Systems Manager のパラメータを参照しています。 AWS Systems Manager のパラメータの次のスニペットは、10 秒間隔で CPU 使用率メトリクスを FasterScalingDemo というカスタム名前空間に報告します。このメトリクスは、Amazon CloudWatch で簡単に参照できるように、ASG の名前をディメンションとして集計されます。 CloudWatchMetricsSSMParameter: Type: AWS::SSM::Parameter Properties: Name: cw-agent-asg-aggregate-cpu Type: String Value: '{"agent":{"metrics_collection_interval":10,"run_as_user":"cwagent"},"metrics":{"force_flush_interval":10,"aggregation_dimensions":[["AutoScalingGroupName"]],"append_dimensions":{"AutoScalingGroupName":"${aws:AutoScalingGroupName}"},"namespace":"FasterScalingDemo","metrics_collected":{"cpu":{"drop_original_metrics":["cpu_usage_active"],"measurement":[{"name":"cpu_usage_active","rename":"CPUUtilization"}]}}}}' Tier: Intelligent-Tiering Description: Custom metric specification for CloudWatch Agent 次に、テンプレートには更新された AWS Identity and Access Management(IAM) の IAM ロールと対応する IAM インスタンスプロファイルも含まれています。このプロファイルには、Amazon CloudWatch への PutMetricData へのアクセス権と、エージェントを設定するために以前に作成した Systems Manager パラメータを取得する権限があります。 IAMInstanceRole: Type: 'AWS::IAM::Role' Properties: AssumeRolePolicyDocument: Version: "2012-10-17" Statement: - Effect: Allow Principal: Service: - ec2.amazonaws.com Action: - 'sts:AssumeRole' Path: / Policies: - PolicyName: FasterScalingDemo PolicyDocument: Version: "2012-10-17" Statement: - Effect: Allow Action: - cloudwatch:PutMetricData - ec2:DescribeTags - ssm:GetParameter Resource: '*' Tags: - Key: Name Value: !Sub ${EnvironmentName}_IAMROLE 最後に、CloudFormation テンプレートによってデプロイされたアーキテクチャを示します。 図 5: CloudFormation テンプレートによって作成された AWS リソース 選択した ASG に対してでプレートをデプロイしたら、ターゲット追跡スケーリングを高解像度のメトリクスでテストする準備が整っているはずです。負荷テストを実行し、ターゲット追跡スケーリングが動作していることを確認できます。負荷テストがアプリケーションの使用パターンに近いほど、これらの機能の利点を判断するテストの信頼性が高まります。 まとめ このブログでは、お客様の需要と Amazon EC2 の処理能力をより正確に一致させるために、ターゲット追跡スケーリングに追加された新機能の概要を説明しました。具体的には、高解像度の CloudWatch メトリクスをターゲット追跡スケーリングで使用し、需要に合わせて Auto Scaling レートを上げて可用性を向上させ、リソースをより有効に活用できることを示しました。高解像度メトリクスを使ったスケーリングを適用する前にこの機能をテストし、この投稿で概説されている考慮事項を検討することをお勧めします。これらの新機能の詳細については、 ターゲット追跡スケーリングポリシーのドキュメント をご覧ください。 翻訳はソリューションアーキテクトの 阿部 純一郎 が担当しました。
アバター
本記事は米国時間 2025 年 8 月 28 日に公開された Use Kiro for free until September 15 を翻訳したものです。Kiro の最新情報は、 Kiro の公式ドキュメント をご覧ください。 8 月 22 日の価格更新 に続き、9 月 1 日を超えて 9 月 15 日まで、Kiro の無料使用を延長いたします。 9 月 15 日まで引き続き Kiro を無料で使用できることとなります。9 月分の請求については全額返金いたしますので、引き続き無料で Kiro をご利用いただけます。使用制限は、通常のサブスクリプションサイクルの一部として、9 月 1 日にご利用制限がプランの上限までリセットされます。 さらに、お客様がご利用中の有料プランに関係なく、超過料金を有効にして、9 月 15 日まで追加で 1,000 回の vibe リクエストと 200 回の spec リクエストを無料でご利用いただけます。詳細については、以下の FAQ をご覧ください。 また、すべての払い戻しが処理されています。そして、今週初めにシステムの改善を行うため、制限をリセットしました。これにより、有意義な仕事ができるようになることを願っています。 お客様のフィードバックに耳を傾けており、Kiro の価格モデルをどのように進化させるかを決定する上で非常に貴重な情報となっています。お客様のご意見に基づき、今後数週間で価格変更を発表し、9 月 15 日以降に新しい価格を展開する予定です。新しい価格変更を展開する前に、お客様が適切に計画できるよう、今後の変更についてお知らせいたします。 これらの変更は、価格モデルにお客様のフィードバックを反映させながら、現在の体験をより長く皆様にお楽しみいただくために行っています。改めて皆様のサポートに感謝いたします。 Discord コミュニティ にご参加いただき、引き続きフィードバックをお寄せください。 FAQ お客様への返金はいつ、どのように行われますか? Kiro のアクティブなサブスクリプションをお持ちの場合、9 月 1 日に 9 月分の使用料がクレジットカードに請求されます。9 月 15 日までに金額を返金いたします。 超過料金も返金されますか? 8 月にすでに超過料金が発生している場合は、それらも返金いたします。 超過料金 は 9 月中、一時的に 1,000 回の vibe リクエストと 200 回の spec リクエストに制限されます。超過料金がクレジットカードに請求された場合、9 月末に返金いたします。 お客様の使用制限はいつ、どのようにリセットされますか? 月間プランの制限は 9 月 1 日にリセットされます。 今日サブスクリプションを購入した場合、9 月 15 日まで無料ですか? 9 月 14 日までにサブスクリプションを購入された場合、9 月 14 日まで無料でご利用いただけます。クレジットカードに請求されますが、9 月 15 日までに返金いたします。9 月 15 日まで、購入されたプランの月間制限の上限までご利用いただけます。 9 月は Kiro を無料で使用できますか? すでに有料プランをご利用の場合、月間制限は 9 月 1 日にリセットされ、9 月 15 日まで完全な月間制限内で引き続き Kiro を無料でご利用いただけます。 9 月 14 日までに有料プランを購入される場合、有効なクレジットカードを提供していただく必要があり、購入されたプランの価格と適用される税金および手数料が請求されます。その後、購入から数日以内の 9 月 15 日までに返金いたします。アップグレードした完全な月間プラン制限内で無料で Kiro をご利用いただけます。未使用のリクエストは翌月や更新されたプランに繰り越されません。お客様のニーズにより適合するよう既存の価格プランの調整を行っており、今後数週間で更新を展開する準備が整い次第、サブスクリプションをキャンセルしない限り、新しいプランに移行していただきます。9 月後半により詳細をお伝えいたします。 9 月中に超過料金を無料で有効にできますか? はい、超過料金を有効にできます。 超過料金 は 9 月 15 日まで一時的に 1,000 回の vibe リクエストと 200 回の spec リクエストに制限されます。9 月 15 日までに発生した超過料金がクレジットカードに請求された場合、9 月末に返金いたします。 今後数週間でどのような価格更新が期待できますか? 一般的な開発タスクで Kiro を使用する際に優れた効果を得られるよう、spec リクエストと vibe リクエストの動作方法を変更することを検討しています。価格を展開する前に更新をお伝えし、変更がお客様に適しているかどうかを判断していただく機会を提供いたします。 日割り請求はどのように機能しますか? 月が 30 日ある場合、20 日目にサインアップすると、その月の残り 10 日分が請求され、それに応じて月間制限をご利用いただけます。例えば、9 月 5 日に Kiro Plus にサブスクライブした場合、9 月は 30 日あるため、25/30 × $20(Kiro Plus のコスト)= $16.67 が請求され、25/30 × 225 = 187 回の vibe リクエストと 25/30 × 125 = 104 回の spec リクエストをご利用いただけます。 Kiro ハッカソンに参加していますが、これらの変更は私にどのような影響を与えますか? ハッカソン の提出期限は 9 月 15 日であり、この発表で説明されているのと同じ条件で、その日まで無料で Kiro をご利用いただけます。
アバター
この記事は、2025 年 8 月 19 日に Jeremiah Flom, Rudy Jaurequi, Connor Sparkman, Vivian Bui によって執筆された「 The AWS Tech U survival guide 」を翻訳したものです。 訳注: 本ブログでは、AWS の新卒研修プログラムである Tech U について、 AWS の若手社員が実際に参加した目線でプログラムを紹介し、若手キャリアの形成に必要な経験と成功のヒントを紹介しています。AWS Tech U は現在パブリック提供されていませんが、研修を計画する教育担当の方や、新卒研修に参加する若手エンジニアの方は、ぜひ参考にしてください。 今後のキャリアを決定づける瞬間を想像してみてください:AWS Tech U の初日。何を期待すべきでしょうか ? 今後数ヶ月間を最大限に活用するにはどうすればよいでしょうか ? このブログは、AWS Tech U に参加する若手の技術者や、クラウドテクノロジーでのキャリアを追求するために独自の学習を開始する方のためのガイドです。AWS Tech U は、新しく採用された若手人材が、AWS での技術ロールで成功に向けた準備をする、キャリア開発プログラムです。技術的な深さと専門スキルの両方の学習モジュールを提供しています。このブログでは、AWS Tech U のコアカリキュラム、 AWS 認定 の価値、そして Tech U を超えてキャリアを向上させる方法について説明します。 AWS Tech U コアカリキュラム AWS Tech Uは、職業的背景に関係なく、 Amazon Web Services (AWS) での技術的キャリアに向けて準備することを目的としています。プログラムは、技術トレーニングと ProSkills (専門スキル) トレーニングに分かれた包括的なカリキュラムで構成されています。プログラムは技術的創造性と実世界の問題解決を優先し、インストラクター主導および同僚同士の学習によって促進されます。 技術トレーニングは、オンラインのインストラクター主導セッション、ハンズオンラボ、およびコースの進行に合わせた、重要なクラウド概念を強化する自己学習モジュールで構成されています。インストラクター主導セッションでは、自己学習モジュールの内容を補完し、理解を深めるために実施されます。ネットワーク、高可用性 Web アプリケーション、データ分析、コンプライアンス、 人工知能と機械学習 (AI/ML) を含む幅広いトピックに触れることになります。 ProSkills トレーニングでは、専門的なロールで成功するために必要な非技術的スキルを学びます。これらのセッションには通常、自己学習モジュールと、同僚と一緒に実施する、ファシリテーター主導のグループワークやディスカッションが含まれます。ProSkills セッションで学ぶことが期待されるトピックには、協力的なブレインストーミングと課題解決スキル、執筆スキル、プレゼンテーションスキル、そして曖昧さの処理、時間管理、異なる性格スタイルの理解といった対人スキルがあります。 AWS 認定 AWS 認定 は、AWS での学習の重要な要素です。これらの認定を取得することで、あなたのクラウド専門知識が検証され、業界で認められた資格が提供されます。あなたのロールに応じて、プログラムでは認定の取得が求められます。例えば、ソリューションアーキテクトは最低要件として AWS Certified Cloud Practitioner と AWS Certified Solutions Architect – Associate を取得する必要があります。これらの基礎認定は、AWS サービスとアーキテクチャに関する原則の確実な理解を提供するように設計されています。生成 AI の台頭により、 AWS Certified AI Practitioner の取得も推奨されています。 最低認定要件を満たすことは不可欠ですが、追加の認定を取得することで技術的基盤を大幅に強化できます。 AWS Certified SysOps Administrator – Associate は、監視、自動化、セキュリティ実装、パフォーマンス最適化を含むシステム運用の知識を深めます。この認定は、クラウドコンピューティングの運用面に興味がある方にとって特に価値があります。 AWS Certified Developer – Associate 認定は、クラウドアプリケーションの構築と保守に焦点を当て、サーバーレスアーキテクチャ、継続的インテグレーションと継続的デリバリー (CI/CD) パイプライン、 API 開発、マイクロサービス設計などの重要なトピックをカバーしています。この認定は、クラウド環境でのアプリケーション開発スキルを強化したい方に理想的です。 認定取得で成功するために: AWS トレーニングリソースを活用する AWS 公式試験問題で練習する 一貫した学習スケジュールを維持する 学習を強化するために個人プロジェクトを構築する AWS Certified Cloud Practitioner と AWS Certified Solutions Architect – Associate が主要な目標であることを覚えておいてください。また、追加の認定を取得することで、AWS サービスのより深い知識を習得し、全体的なクラウドコンピューティングの専門知識を強化できます。 Learn and Be Curious Tech U プログラム中で、共通の興味と専門知識に基づいて AWS ビルダーを結集する専門グループである Technical Field Communities (TFC) について学ぶことになります。TFC は、それぞれが特定のドメインに焦点を当てた AWS 内の専門組織として機能します。各 TFC で利用可能な厳選されたトレーニングを通じて、あなたの興味を引く分野を探求する最適な道筋を提供します。これらのコミュニティは、技術スキルを中心としたものと特定の業界に特化したものの 2 つのカテゴリに構造化されています。 技術重視の TFC の例: データと分析 AI/ML セキュリティとコンプライアンス サーバーレスコンピューティング コンテナと Kubernetes 業界重視の TFC の例: 金融サービス ヘルスケアとライフサイエンス 製造業と産業 メディアとエンターテインメント 通信 Tech U プログラムは TFC への参加よりも優先されます。プログラムはあなたの重要な基盤を提供し、Tech U 期間中の広範な TFC 参加はあなたのコア学習に影響を与える可能性があります。これらのコミュニティを戦略的に探求するために空き時間を活用してください。内部イベント中に TFC メンバーと繋がったり、TFC の wiki ページを確認して彼らの仕事を理解したりできます。TFC メンバーは、彼らが専門とする技術や業界分野に基づくソリューションに興味を持つ顧客向けのデモンストレーションや、概念実証の構築を支援する意欲的なメンバーを歓迎することが多く、彼らの専門的な仕事への直接的な洞察を提供します。データと分析や金融サービス業界など、興味のある分野を特定したら、その TFC のアンバサダー向け学習パスを進めて専門化要件を理解してください。 TFC を補完的な学習機会として参加することで、その価値を最大化できます。Tech U の空き時間に、技術的な Deep Dive セッションに参加することで、将来のキャリア決定に役立ちます。また、 TFC メンバーと会話し専門的な繋がりを構築することで、Tech U を主要な焦点として維持しつつ専門化パスへの洞察を提供します。 TFC はあなたの AWS キャリア全体を通じて利用可能です。まず Tech U カリキュラムの完了に焦点を当て、その後時間が許す限り興味のある技術ドメインや業界を探求してください。この構造化されたアプローチにより、Tech U プログラムに集中しながら、専門化について情報に基づいた決定を可能にします。 シャドーイング機会 AWS Tech U プログラムを通じて、顧客会議中のスピーキングスキルを向上させる定期的な機会があります。専門的成長をさらに向上させるために、積極的にシャドーイング機会を探すことが推奨されます。これらの価値ある学習体験を見つける積極性を示すことで、専門的発展への取り組みを探究し、プログラムを自身でカスタマイズできます。 機会を見つけるためには、同僚、メンター、アドバイザーなど、あなたのネットワーク内のより経験豊富なソリューションアーキテクトと話してください。また、最近の AWS Tech U 卒業生にも連絡を取ってください。会議をシャドーイングする際は、将来の顧客会議で一人前の AWS 社員になる意図を持って準備し、参加することが重要です。そのためには、会議の準備に必要な作業を自身で行い、会議をリードしているかのように議論を積極的に聞いてください。 これらのガイドラインに従うことが重要です: 顧客を調査して会議の準備をする。会議をリードする人は、顧客または需要創出代表者 (DGR) からの紹介メールを提供すべきです。この情報を使用して以下を調べてください: 彼らのビジネスはどのようにお金を稼いでいるか ? 類似のビジネスは現在 AWS を使用しているか、どのように使用しているか ? 顧客は持続的または繰り返し発生する問題について言及しているか ? 会議後、DGR とソリューションアーキテクトに感謝し、会議について議論するための短い振り返り時間を作ってください。彼らが重要だと思ったことを聞き、あなたのメモと比較してください。ここで彼らの思考プロセスと要点への最も多くの気づきを得ることができ、あなたが見逃したかもしれない項目を理解できます。 会議のシャドウイングは、真に成長できる方法の一つです。AWS Tech U で行う作業のほとんどは基本的な要件であり、例外的な場面は要件を超えて冒険することによってのみ起こります。 さらなる成長機会 コアカリキュラムと認定を終えると、AWS Tech U は追加の専門的発展のための多数の機会を提供します。プログラムは AWS Skill Builder コース、ドキュメントの Deep Dive、ハンズオンワークショップを通じた自己学習を推奨しています。 AWS トレーニングと認定 ポータルなどの内部 AWS リソースを探して、豊富な自己学習資料、ウェビナー、バーチャルイベントを活用してください。 コミュニティエンゲージメントは、AWS でのあなたの発展において重要な役割を果たします。 AWS User Groups への参加、 AWS re:Invent や AWS Summit などの主要イベントへの参加、内部ディスカッションフォーラムへの貢献など、複数の機会があります。これらのイベントは業界の同僚と交流する良い機会であり、最新の AWS 知識を維持するために活用できます。 技術的成長は実践的な経験と知識共有を通じて得られます。個人プロジェクトの構築は、将来の機会に向けてあなたのスキルと創造性を育てます。さらに、あなたの学習を文書化し、ベストプラクティスを共有することで内部 AWS 知識ベースに貢献することは、あなたの成長と同僚の発展の両方に役立ちます。 AWS での成長は自己主導であり、これらの追加機会を探求する積極性を取ることで、AWS Tech U 体験と将来のキャリア見通しを大幅に向上させることができることを覚えておいてください。 成功のためのヒント 自分自身に目標を設定する あなたの期待が達成可能であることは良いことですが、大きく考えることを恐れないでください。AWS Tech U のような機会は稀であり、あなたにとって最適な方法で運営する柔軟性が与えられます。期間中に焦点を失わないように、AWS Tech U の開始時に少なくとも一つの主要な目標を立て、常に一貫した目標を持つようにしてください。この目標は追加の AWS 認定の取得、毎週の会議シャドーイング、または TFC での活躍かもしれませんが、何を達成したいにしても、それが実現不可能または努力に値しないと他人に説得されるという罠に陥らないでください。 類似の目標を持つ友人を作る AWS の誰もが、あなたの成長に役立つ独自の背景と知識を持っています。ここで提案しているのは、あなたと同じ道を歩む他の人々と学び、成長することです。私の友人グループは認定取得という共通の目標を共有していたため、お互いが勉強や試験を受ける日があることを明確に理解していました。困難を共有することで、困難がより簡単に感じられます。 あなたのやり方を見つける 勉強や新しいソリューションの構築のためにカレンダーで時間をブロックしてください。1 時間おきに会議があると、自己学習を進めることは不可能です。スケジュールを計画する際、どの会議があなたにとって必須かを決定し、会議主催者やマネージャーと欠席できる会議について話し合ってください。例えば、同僚、アドバイザー、メンターとの会議はすべてあなたの都合に合わせることができます。プロジェクトや目標で遅れを感じている場合は、彼らに知らせて会議を移動またはキャンセルする方が良いでしょう。多忙と感じることは一般的な経験であり、彼らはあなたと協力して解決策を見つけます。 時間を積み重ねる 長期間にわたる小さな努力は大きな結果を生み出すことができます。あなたの目標を心に留めておいてください。道に迷っていることに気づいたら、目標をより小さく、管理可能で測定可能な目標に分解してください。小さな達成はあなたの目標の目的を思い出させることができますが、私たちは皆失敗、疲労、フラストレーションに直面することを覚えておいてください。休憩が必要な時を認識し、それを適切に取ってください。 終わりに AWS Tech U プログラムでの学習は独特であることを覚えておいてください。一部の人は早期に認定で優秀な成績を収めるかもしれませんが、他の人は会議のシャドーイングや TFC への貢献で成長機会を見つけるかもしれません。重要なのは適応性と回復力を保ち、挑戦と時折の挫折が学習プロセスの自然な部分であることを理解することです。 このガイドで共有された戦略とアドバイスは、この道を歩んだ人々の実際の経験から来ています。効果的な時間管理、意味のある繋がりの構築、追加の成長機会の追求など、これらの洞察はあなたの AWS Tech U 体験を最大化に役立つことを意図しています。しかし、これらは厳格なルールではなく、ガイドラインとして見るべきです。あなたの個人的な学習スタイルとキャリア目標に合わせて適応させてください。 意図、熱意、成長マインドセットを持って AWS Tech U プログラムに参加することで、AWS およびより広い技術業界で通用するキャリアのスタートラインに立つことができます。 翻訳は Technical Instructor の 西村 諄 が担当しました。
アバター
こんにちは!AWS のソリューションアーキテクトの志村です。9 月 18 日 (木) に開催される「 AWS Innovate: Migrate and Modernize 」の見どころをご紹介します。 今回の AWS Innovate は、AI ネイティブな未来を見据えたクラウドへのマイグレーションとモダナイゼーションがテーマです。多くの企業では、オンプレミス環境で稼働する基幹システムやレガシーアプリケーションへの対応に、頭を悩ませているのではないでしょうか。また一方で、生成 AI をはじめとする最新テクノロジーを積極的に活用することで、どのように生産性を高めていけるか検討もしているかと思います。本イベントでは、AWS のエキスパートが実践的な移行手法とベストプラクティスを解説します。さらに、クラウド活用でビジネス価値の創出に成功したお客様の事例も紹介します。クラウドへの第一歩を踏み出そうとしている方から、すでに移行を進めている方まで、次のステップに向けた具体的なヒントが得られる内容となっています。今回は特に、AWS が実際のプロジェクトで得た知見に基づいて、生成 AI を活用した移行手法や将来の AI 活用を見据えた基盤作りについて深く掘り下げます。AWS が提供する豊富な移行支援ツールやパートナーエコシステムの活用方法、さらには効率的なマイグレーションとモダナイゼーションの実現方法まで、実践的な内容をお届けします。 なぜ今、クラウド移行に取り組むべきなのか 企業の IT 部門では、日々の運用保守に忙殺され、新しい取り組みになかなか着手できない状況が続いています。特に、レガシーワークロードの維持管理が、イノベーションの足かせとなっているケースが多く見られます。一方で、生成 AI の急速な発展により、企業の戦略において AI 技術の活用が必須となってきました。特に注目すべきは、エージェンティック AI の台頭です。今後多くの企業において、アプリケーションに AI エージェントが組み込まれ、日常業務の意思決定が AI で行えるようになると期待されています。実際、Amazon でもシステム開発において AI エージェントを活用することで、 年間 260 億 US ドルにおよぶ移行コスト削減 を達成しています。 このような変化に対応し、AI の恩恵を最大限に受けるためには、既存システムのクラウドへのマイグレーションとモダナイゼーションが不可欠です。マイグレーションとモダナイゼーションには、様々なアプローチが存在します。システムをそのままクラウドに移行する「リホスト」から、プラットフォームの最適化を行う「リプラットフォーム」、アプリケーションを刷新する「リファクタリング」まで、ビジネスニーズと技術ニーズの双方を考慮して戦略を選択します。一般的に、まずは現状のアセスメントを行い、システムの依存関係や制約を把握します。その上で、段階的な移行計画を立て、リスクを最小限に抑えながら実行していきます。特に重要なのは、単なるマイグレーションではなく、クラウドのメリットを活かした最適化を同時に検討することです。これにより、将来の変化に柔軟に対応できる基盤を整えることができます。 今回の AWS Innovate では、これらの背景や課題を噛み砕いて説明し、AWS が提供するソリューションやベストプラクティスをオープニングセッションと 6 つのトラックで紹介していきます。 セッションと見どころの紹介 オープニングセッション: AI 時代の移行戦略 オープニングセッションでは 2 つのパートに分かれています。前半では AI エージェントがもたらすマイグレーションとモダナイゼーションの革新について解説するとともに、AWS における実績も併せてご紹介します。また後半では、AWS クラウドの活用を「AI 技術を活用し、大きなビジネス価値を生み出すための布石」と位置づけ、AWS が長年の経験から得た知見と、なぜ今がクラウド移行のタイミングなのか、その背景と具体的なアプローチを示します。特に、AWS を活用することで得られる多くのベネフィット、移行のためのベストプラクティスおよび、それを支援するためさまざまな支援プログラムについても詳しく解説します。 実践知が詰まった 6 つのトラック 今回のイベントでは、以下の 6 つのトラックをご用意しています: Microsoft トラック : Windows Server、SQL Server、.NET アプリケーションなどの運用最適化について、セキュリティ強化やコスト最適化を含む包括的な方法論を解説します。AWS Transform for .NET による生成 AI を活用した革新的なアプローチも紹介し、デジタルトランスフォーメーションを成功に導くための知見をお届けします。 VMware トラック : 先日 一般提供を開始 した Amazon EVS による迅速なマイグレーション手法から、AWS Transform for VMware を活用した革新的アプローチ、コンテナ化によるモダナイゼーションまで、包括的なソリューションを提供します。特化したツールや移行プログラムを活用し、コストとリスクを最小限に抑えた確実な移行方法を学べます。 SAP トラック : 数千を超えるお客様が AWS で SAP ワークロードを実行している理由と、ミッションクリティカルなワークロードの運用方法を解説します。SAP のマイグレーションにおける実績のあるアプローチ方法、SAP データ分析のためのモダンアーキテクチャや生成 AI 活用のアプローチなど、SAP システムの価値を最大化する方法を学べます。 Oracle トラック : ミッションクリティカルな Oracle 環境のマイグレーションについて、Amazon RDS、Amazon Aurora、Amazon EC2、Oracle Database@AWS など、多様な選択肢から最適な移行戦略を学べます。AWS の強力なインフラを活用し、セキュリティとスケーラビリティを確保しながらコスト効率を実現する具体的な方法を紹介します。 AWS テクノロジートラック : マルチアカウント環境でのガバナンスや、オブザーバビリティ(監視)、生成 AI による開発プロセスの改善など、実際の開発・運用現場で使える実践的な技術を紹介します。人の活動を支えるサービスにフォーカスを当て、Amazon Q Developer を活用した効率的な開発・運用方法を提供します。 お客様事例トラック : Microsoft や VMware、SAP、Oracle など、AWS への大規模なマイグレーションを成功させた実例から、推進体制の構築やセキュアな移行の実現方法を学べます。将来を見据えたモダナイゼーション戦略まで、実際の経験に基づく実践的な知見を得られます。 明日のイノベーションは、今日の一歩から テクノロジーの変化が加速する中、「変化への対応」と「イノベーションの実現」は避けて通れない課題となっています。AWS Innovate は、その解決の糸口を見つけられる絶好の機会です。一般的に組織の変化はテクノロジーの変化に比べてゆっくりとしか進みません。だからこそ、今から準備を始めることが重要です。より有意義な時間となるよう、自身や自社のマイグレーションおよびモダナイゼーションの状況を棚おろししていただくと同時に、実際に AWS のコンソール からサービスを立ち上げて触ってみていただけると、当日の理解がより深まると思います。 本ブログを通じて、 AWS Innovate: Migrate and Modernize に少しでも興味を持っていただけた方は、ぜひ イベントページ から登録いただけると幸いです。当日はチャット形式のライブ Q&A も実施しますので、具体的なクラウド移行やモダナイゼーションの戦略、AWS サービス等についての疑問点、お悩みなどもお気軽にお寄せください。みなさまと会話できることを楽しみにしております! ソリューションアーキテクト 志村
アバター
本記事は KINTO テクノロジーズ (KTC) の AI ファースト Group による寄稿です。 はじめに KINTO テクノロジーズ (以下 KTC) は、クルマのサブスクリプションサービス「KINTO」をはじめとするさまざまなモビリティサービスを展開している トヨタ関連グループ会社です。近年、生成 AI の急速な発展により、ビジネスプロセスの自動化や顧客体験の向上が可能になってきました。KTC でもこの技術革新の波に乗り、 Amazon Bedrock を活用した AI エージェント開発・共有基盤「KTC Agent Store」を構築しました。 本記事では、KTC Agent Store の概要、技術的特徴、そして実際の活用事例について紹介します。 KTC Agent Store とは KTC Agent Store は、AI エージェントを開発・共有するためのプラットフォームです。このプラットフォームにより、開発チームは以下のことが可能になります。 主な機能 AI エージェントの新規開発とデプロイ :AI エージェントを効率的に開発し、AWS クラウド環境にデプロイできる AI エージェントテンプレートの公開・共有 :開発された AI エージェントのテンプレートを社内で公開・共有できる AI エージェントテンプレートの再利用 :公開・共有された AI エージェントテンプレートをダウンロードし、新たなプロジェクトで再利用できる 業務面での価値 KTC では、AI エージェントを大きく 2 種類に分類しています。 パーソナライズ系エージェント は個人作業向けで、Excel 処理やメール作成など日常業務の効率化に役立ちます。Microsoft Copilot などの個人アシスタントも利用しますが、特定業務に特化した専門の AI エージェントを併用することで、業務の生産性をさらに向上できます。 業務システム系エージェント は業務向けでバックエンドで動作し、顧客対応や内部業務処理の自動化、データ分析や意思決定支援などの機能を提供します。 KTC Agent Store により、このような様々なタイプの AI エージェントを開発・利用するための基盤が整いました。これらのエージェントをKTC Agent Store で効率的に開発・共有することで、様々な業務シーンでの AI 活用が可能になります。 例えば、以下のようなユースケースに対応できます。 「私は 40 代、年収 xxx、お勧めの車プランを教えてください」 このような顧客からの問い合わせに対して、パーソナライズされた回答を提供する AI エージェントを簡単に構築できるようになります。 KTC Agent Store v1.0 の開発 KTC Agent Store v1.0 として、 Amazon Bedrock Agents を活用して AI エージェントを開発・共有するプラットフォームを開発しました。 狙う効果 KTC Agent Store v1.0 の導入により、以下の効果を狙っています。 開発期間の短縮 :従来は数週間かかっていたエージェント開発が、数日で完了できます。 再利用性の向上 :共有テンプレートを活用することで、類似機能の実装時間が大幅に削減されます。 運用コストの削減 :Amazon Bedrock の従量課金モデルにより、必要な時に必要なだけリソースを使用します。 なぜ Amazon Bedrock を選んだのか? AI エージェント開発基盤の構築にあたり、Amazon Bedrock を選択した主な理由は以下の通りです。 ローコード開発の実現 :Amazon Bedrock Agents の機能により、複雑な AI エージェントの作法と AI モデルの知識がなくても、ビジネスロジックに集中してエージェントを開発できます。 セキュリティとガバナンス :Amazon Bedrock に組み込まれた Guardrails 機能により、AI エージェントへの入力と出力を制御し、企業のセキュリティポリシーに準拠した運用が可能です。 既存 AWS インフラとの統合 :KTC ではすでに多くのシステムを AWS 上で運用しており、Amazon Bedrock を活用することで既存システムとの連携が容易になります。 スケーラビリティ :Amazon Bedrock の従量課金モデルにより、利用量に応じた柔軟なスケーリングが可能です。 KTC Agent Store v1.0 のアーキテクチャ KTC Agent Store v1.0 は、以下のサービスを組み合わせて構築されています。 Amazon Bedrock :基盤となる AI エージェントプラットフォーム AWS Lambda :エージェントの処理ロジックを実装 Amazon Elastic Container Registry :Docker イメージのリポジトリ AWS CloudFormation, AWS Serverless Application Model (SAM) :インフラストラクチャのコード化 Amazon S3 :インフラストラクチャのスタック管理 GitHub リポジトリ :ソースコードとエージェントテンプレートの保存 GitHub Actions :CI/CD パイプライン 利用イメージ 社内のだれでも Agent の新規作成とリリースができる 開発者は Agent Store 上で AI エージェントの Base テンプレートを取得する。 取得した Base テンプレートをカスタマイズし、必要な lambda を作成する。 GitHub Actions を実行し、Bedrock Agents をデプロイする。 社内のだれでも作成した Agent を公開できる 開発者は開発した AI エージェントのテンプレートファイルを作成し、Github 上の Agent Store に Pull Request する。 Agent Store の管理者は、PR を承認し、マージする。 社内のだれでも Agent を取得し再利用できる 開発者は Agent Store 上に公開された AI エージェントテンプレートを取得する。 開発者は取得した AI エージェントテンプレートをベースに編集と加筆する。 GitHub Actions を実行し、Bedrock Agents をデプロイする。 メリット 簡単な AI エージェント作成 Amazon Bedrock Agents をベースにしているため、ローコードかつローコストで AI エージェントを実装できます。専門的な AI 知識がなくても、テンプレート機能により、ビジネス部門のメンバーや一般的な開発スキルを持つエンジニアでも、短時間でエージェントの作成から展開までを完結できます。 # エージェント定義の例 (簡略化) AWSTemplateFormatVersion: '2010-09-09' Transform: AWS::Serverless-2016-10-31 Resources: SuperAgentResource: Type: AWS::Bedrock::Agent Properties: AgentName: !Ref SuperAgentName FoundationModel: "anthropic.claude-3-5-sonnet-20240620-v1:0" Instruction: "あなたは人事面談結果をラベリングし、レポートを作成するエージェントです。入力された人事面談結果の Excel ファイルパスに基づき、人事面談結果をラベリングするエージェントを呼び出し、ラベリングされたファイルパスをレポートを作成するエージェントに渡し、レポートを作成する" Description: "人事面談の結果を処理するスーパーバイザーエージェントです。" AgentCollaboration: "SUPERVISOR" AgentResourceRoleArn: !Ref SuperAgentRole GuardrailConfiguration: GuardrailIdentifier: !Ref CommonGuardrail GuardrailVersion: !Ref CommonGuardrailVersion AgentCollaborators: - AgentDescriptor: AliasArn: !GetAtt HumanLabelingAgentRelease.AgentAliasArn CollaborationInstruction: "人事面談結果をラベリングする。具体的にラベリング、課題抽出と解決策を出力する。出力されたファイルパスを返す。" CollaboratorName: "labelingagent" - AgentDescriptor: AliasArn: !GetAtt HumanReportAgentRelease.AgentAliasArn CollaborationInstruction: "人事面談結果のレポートを作成するエージェントです。入力された人事面談結果を、ラベリングされたファイルパスに基づいて、グループごとの課題と解決策のレポートを作成する。" CollaboratorName: "reportagent" GuardrailConfiguration: GuardrailIdentifier: !Ref CommonGuardrail GuardrailVersion: !Ref CommonGuardrailVersion Tags: AgentStoreTemplate: "supervisor-agent" SuperAgentRelease: Type: AWS::Bedrock::AgentAlias Properties: AgentAliasName: "human-supervisor-agent" AgentId: !Ref SuperAgentResource Description: "人事面談結果を処理するスーパーバイザーエージェントバージョン1です。" 以上のように、マルチエージェントのオーケストレーション部分は Python 等でのコーディングを必要とせず、定義を記述するだけで実装できます。開発チームは、Lambda 関数で実装するビジネスロジックに集中することができます。 このアプローチによって、AI エージェント開発の民主化を実現し、専門知識を持たないチームメンバーでも開発に参加できるようになりました。その結果、組織全体での AI 活用が加速し、専門チームへの依存度が低下したことで、アイデア構想から実装までのリードタイムを短縮することに成功しています。 簡単なデプロイとプロビジョニング CI/CD とプロビジョニングには、KTC で標準で利用している GitHub Actions、AWS SAM を利用しています。これにより、開発チームは既存の知識を活かしながら、容易にキャッチアップして実装できます。 # GitHub Actions ワークフローの例 (簡略化) name: Deploy_Agent run-name: ${{ github.workflow }} / deploy (${{ inputs.env }}) on: workflow_dispatch: inputs: env: description: "デプロイ環境(dev/stg/prod)" required: true default: "dev" type: choice options: - dev - stg - prod working_directory: description: 'directory to run sam deploy' required: false default: './sam' sam_version: description: 'sam version' required: false default: '1.134.0' jobs: Deploy: runs-on: ubuntu-latest timeout-minutes: 15 environment: ${{ github.event.inputs.env }} defaults: run: working-directory: ${{ github.event.inputs.working_directory }} steps: - name: Checkout uses: actions/checkout@v4 - name: Setup Python uses: actions/setup-python@v3 - name: Setup SAM uses: aws-actions/setup-sam@v2 with: sam-cli-version: ${{ inputs.sam_version }} - name: Setup AWS Credentials uses: aws-actions/configure-aws-credentials@v4 with: role-to-assume: ${{ secrets.AWS_ASSUME_ROLE_ARN }} aws-region: ${{ vars.AWS_REGION }} - name: SAM Build shell: bash run: sam build - name: SAM Deploy shell: bash run: sam deploy --config-env ${{ github.event.inputs.env }} --no-confirm-changeset --no-fail-on-empty-changeset 既存システムとの容易な統合 AWS 上で作成したエージェントは、既存システムの AWS バックエンドから簡単に呼び出すことができます。これにより、段階的な導入や既存サービスの強化が可能になります。 # AWS SDK を使用したエージェント呼び出しの例 import boto3 from botocore.config import Config config=Config(read_timeout=1000) if __name__ == "__main__": agent_id = "YOUR_AGENT_ID" agent_alias_id = "YOUR_AGENT_ALIAS_ID" user_input = "人事面談結果ファイル\"人事ダミーデータ.xlsx\" に対して、ラベリングして、レポートを作成してください" bedrock_agent_runtime = boto3.client('bedrock-agent-runtime', config=config) response = bedrock_agent_runtime.invoke_agent( agentId=agent_id, agentAliasId=agent_alias_id, sessionId='session-' + str(hash(user_input))[:8], inputText=user_input ) event_stream = response['completion'] for event in event_stream: if 'chunk' in event: data = event['chunk']['bytes'].decode('utf-8') print(data) 責任ある AI KTC の Security CoE グループと Cloud Infra グループにより、Bedrock Guardrails を活用した「CommonGuardrail」が提供されています。この標準ガードレールは、KTC セキュリティ基準を満たしており、エージェント作成時にデフォルトで適用されます。これにより開発チームは、セキュリティの専門知識がなくてもガードレールを適用するだけで、企業のセキュリティポリシーに準拠した安全な AI エージェントを構築することができます。 # Guardrails 設定の例 (簡略化) Resources: SuperAgentResource: Type: AWS::Bedrock::Agent Properties: AgentName: !Ref SuperAgentName FoundationModel: "anthropic.claude-3-5-sonnet-20240620-v1:0" Instruction: "あなたは人事面談結果をラベリングし、レポートを作成するエージェントです。入力された人事面談結果の Excel ファイルパスに基づき、人事面談結果をラベリングするエージェントを呼び出し、ラベリングされたファイルパスをレポートを作成するエージェントに渡し、レポートを作成する" Description: "人事面談の結果を処理するスーパーバイザーエージェントです。" AgentCollaboration: "SUPERVISOR" AgentResourceRoleArn: !Ref SuperAgentRole GuardrailConfiguration: GuardrailIdentifier: !Ref CommonGuardrail GuardrailVersion: !Ref CommonGuardrailVersion AgentCollaborators: - AgentDescriptor: AliasArn: !GetAtt HumanLabelingAgentRelease.AgentAliasArn CollaborationInstruction: "人事面談結果をラベリングする。具体的にラベリング、課題抽出と解決策を出力する。出力されたファイルパスを返す。" CollaboratorName: "labelingagent" - AgentDescriptor: AliasArn: !GetAtt HumanReportAgentRelease.AgentAliasArn CollaborationInstruction: "人事面談結果のレポートを作成するエージェントです。入力された人事面談結果を、ラベリングされたファイルパスに基づいて、グループごとの課題と解決策のレポートを作成する。" CollaboratorName: "reportagent" Tags: AgentStoreTemplate: "supervisor-agent" 実際の活用事例 KTC では、Agent Store v1.0 を活用して、1 週間で以下の AIO エージェントを開発・展開しました。 AIO エージェント 生成 AI 時代の到来により、従来の SEO 戦略では限界が見えてきました。ChatGPT や Claude 等の生成 AI が検索行動を変化させ、ユーザーは直接 AI に質問して答えを得るようになっています。この新しい検索パラダイムに対応するため、 AIO (AI Optimization) という新たな最適化手法が求められています。 企業が早期に AIO 対応を始める際の課題 企業が AIO 対応を始める際に、現状では以下のような課題があります。 AIO (AI 最適化) 手法の未確立: どうすれば自社の情報を生成 AI に引用されやすくなるのか、確立された具体的な手法が存在しない 効率的な分析: ユーザーの検索行動はキーワード (点) ベースからトピック (面) ベースに変わるため、トピックを全てカバーしようとすると調査分析のコストが激増 AIO-Agent は、上記の生成 AI 時代の SEO 課題に対応すべく開発された、マーケティング・SEO 分析自動化エージェントです。 AI エージェントによる統合分析体験 4 つの Lambda 関数が連携する統合型エージェントとして、プロンプト生成から分析結果の解釈・アドバイスまでをエージェントが一貫して実行します。従来膨大な時間がかかると思われる SEO/AIO 分析業務を、自然言語での指示だけで数分で完了し、エージェント自身が結果を読み込んで具体的なアドバイスを提供します。 トピックごとのプロンプトを生成 AI で素早く作成 GPT などにプロンプトを自動に送信 回答文について再度生成 AI で AIO の観点で評価し、示唆も同時に生成 ( LLM-as-a-Judge を参考) 分析結果を表形式で Amazon S3 に格納 AI エージェントが過去の分析結果を読み込み、AIO についてのアドバイスを自然言語で提示 シームレスな分析体験を提供 実際の利用時には、ユーザーは自然な会話形式で AIO エージェントと対話するだけで、複雑な分析プロセスを意識せず、価値のあるインサイトを得ることができます。 ユーザー : 「AIO 分析をお願いします」 AIO-Agent : 「分析が完了しました。アピール度は 6.2 点、競合優位性は 4.8 点でした。特に料金面での競合優位性に課題があります。詳しい改善提案を聞きたいですか?」 ユーザー : 「料金面の改善について詳しく教えてください」 AIO-Agent : 「分析結果によると、月額料金の訴求が不十分です。具体的には…」 AIO エージェントの処理の流れ 1 AIO エージェントの処理の流れ 2 今後のロードマップ 私たちは段階的に KTC Agent Store の機能を拡張していく予定です。 現在 (v1.0) Single-Agent と Multi-Agent 対応 基本的なエージェント開発・デプロイ機能 次期バージョン (v2.0) フルプロビジョニング IAM Permission Boundary を使った IAM 権限管理 Agent Store OSS 版 Amazon Bedrock AgentCore に基づく OSS 版 AI エージェントの対応 認証認可 Observability Bedrock Agents + Bedrock Knowledge Base ナレッジデータベースとの連携強化 将来計画 (v3.0) MCP と A2A への対応 Model Context Protocol 対応と Agent-to-Agent 通信の実現 まとめ KTC Agent Store v1.0 は、Amazon Bedrock を活用した AI エージェント開発・共有プラットフォームとして、開発効率の向上、再利用性の促進、責任ある AI を実現しています。このプラットフォームにより、当社は AI エージェントの開発・展開を加速し、ビジネス価値の創出を期待できます。 Amazon Bedrock の柔軟性と拡張性を活かした KTC Agent Store v1.0 は、今後の AI 活用の基盤として、さらなる進化を続けていきます。私たちは、このプラットフォームを通じて、KTC のサービスをより魅力的で効率的なものにし、お客様により良い体験を提供できることを楽しみにしています。 本記事は、AWS プリンシパル ソリューション アーキテクトの國政が担当しました。
アバター
はじめに AWS Billing and Cost Management Model Context Protocol(MCP)サーバー の導入により、モダンなクラウドチームで FinOps 機能を活用するのがさらに簡単になりました。これにより、お好みの AI アシスタントやチャットボットが高度なコスト分析と最適化機能を直接利用できるようになります。MCP サーバーは、自然言語クエリ、安全なローカル認証情報や AWS アカウントのコストと使用状況データへのリアルタイムアクセスを統合することで、複雑なコンソールを操作したり、カスタムスクリプトを作成したりすることなく、インタラクティブにコストを分析し、節約の機会を特定し、詳細な FinOps 監査を実行できるようにします。先月の最も支出の多いサービスについて尋ねる場合でも、リソースを最適化するための実行可能な推奨事項を探す場合でも、これらの機能はコストの透明性と運用効率性を合理化し、クラウドの財務管理をより迅速かつ簡単にします。 Billing and Cost Management MCP サーバーの仕組み Billing and Cost Management MCP サーバー(billing-cost-management-mcp-server)は、AI エージェントがリアルタイムにデータソースに接続するための標準化された方法を提供します。これは、AI アシスタントとAWS Cost Explorer、AWS Cost Optimization Hub、AWS Compute Optimizer、Savings Plans、AWS Budgets、Amazon S3 Storage Lens や AWS Cost Anomaly Detection との架け橋となることで機能します。MCP サーバーは、自然言語による質問を変換し、要件を解析し、関連サービスへ問い合わせ、複数のサービスからの出力を処理して、わかりやすい回答をまとめて提供します。 なぜ使うのか? クラウドコストを管理していて、より少ない労力でよりスマートな財務上の意思決定を行うことを目指しているなら、Billing and Cost Management MCP サーバーは生産性を向上させるために必要なツールです。このツールを使うことで、お好みの AI アシスタントやチャットボットを通じて、AWS のコスト分析および最適化機能に直接アクセスできます。つまり、コンソールを操作したり、カスタムスクリプトを書いたりすることなく、自然言語で尋ねるだけで複雑なコストクエリを実行できるということです。あなたがクラウド財務アナリスト、クラウドアーキテクト、DevOps エンジニア、または FinOps チームの一員であるかどうかにかかわらず、支出を監視し、節約の機会を特定し、そしてクラウドリソースを効率的に運用し続けることが容易になります。AWS の財務データへのリアルタイムアクセス、予算の使用状況に対する透明性の向上、またはすぐに実践できる実用的な洞察などのメリットがあります。Billing and Cost Management MCP サーバーは、ワークフローを合理化し、詳細なコスト分析をより迅速かつ利用しやすくすることで、クラウドの財務管理をコントロールできるようにします。 開始方法 Amazon Q Developer CLI、Claude Desktop、Kiro やその他の MCP 互換ツールなどさまざまな MCP ホストが billing-cost-management-mcp-server を利用できます。この投稿では、Amazon Q Developer CLI の例に焦点を当てます。 前提条件 AWS アカウントで Cost Explorer が有効になっていること AWS Command Line Interface (AWS CLI) をインストールし、AWS CLI で AWS アカウントへ アクセスできる こと AWS Identity and Access Management (IAM) ユーザー がこのブログに記載されているサービスの権限をもっていること IAM 権限に 最小権限の原則 を適用していること (オプション) Amazon Q for command line がインストールされていること。インストール前に、 サポートされているコマンドライン環境 を参照してください Astral か GitHub README から uv をインストールしていること uv python install 3.12 を使用して Python をインストールしていること 必要なサービスにアクセスできるように AWS クレデンシャルを設定していること MCP クライアントの設定に MCP サーバーを追加していること Storage Lens Storage Lens のデータを使用する MCP ツールの呼び出しでは、以下も必要です。 エクスポートが有効化された Storage Lens ダッシュボード: Storage Lens ダッシュボードの設定がメトリクスのエクスポートを有効にしていること エクスポートは、CSV または Parquet フォーマットで S3 バケットに書き込めるように設定されていること AWS 権限: マニフェストとデータファイルを読み取るための S3 権限 データベースおよびテーブルの作成とクエリ実行できる Athena 権限 Athena カタログのための Glue 権限 MCP クライアントの設定で MCP サーバーの設定をしてください。Amazon Q Developer CLI では ~/.aws/amazonq/mcp.json ファイルに追加します。 For Linux/MacOS Users: { "mcpServers": { "awslabs.billing-cost-management-mcp-server": { "command": "uvx", "args": [ "awslabs.billing-cost-management-mcp-server@latest" ], "env": { "FASTMCP_LOG_LEVEL": "ERROR", "AWS_PROFILE": "your-aws-profile", "AWS_REGION": "us-east-1" }, "disabled": false, "autoApprove": [] } } } JSON For Windows Users: { "mcpServers": { "awslabs.billing-cost-management-mcp-server": { "command": "uvx", "args": [ "--from", "awslabs.billing-cost-management-mcp-server@latest", "awslabs.billing-cost-management-mcp-server.exe" ], "env": { "FASTMCP_LOG_LEVEL": "ERROR", "AWS_PROFILE": "your-aws-profile", "AWS_REGION": "us-east-1" }, "disabled": false, "autoApprove": [] } } } JSON その他 Docker デプロイメントやチーム用の IDE については、AWS MCP Servers GitHub リポジトリのインストールガイドを参照してください。 コストに関する考慮事項 AWS サービスの API では、リクエストごとに料金が発生します。この MCP サーバーによって行われる各 API 呼び出しは、AWS アカウントに請求されます。最新の価格情報については、それぞれのサービス API 料金を確認してください。 例 現在の AWS サービスのコスト使用状況はどうなっていますか? 図 1:現在の AWS サービスのコスト使用状況を示す MCP の応答 コスト最適化の推奨事項を取得して、最も節約できる推奨事項の詳細を表示してください 図 2:最も節約できる最適化の推奨事項を示す MCP の応答 すべての AWS リージョンの支出を比較してください 図 3: AWSリージョン全体での支出を示す MCP の応答 AWS 支出に大きな変化や変動がないかを特定、定量化するために、2025 年 6 月から 7 月のコストを比較分析してください 図 4:2025 年 6 月から 7 月までのコストを比較した MCP の応答 既存の AWS ワークロードを Graviton ベースのインスタンスへ移行した場合のコスト節約の可能性を評価してください 図 5:Graviton コストに関する MCP の応答 2025 年 7 月にコストが増加した理由を見極めるために分析を実施し、根本原因を特定してください 図 6:コスト増加原因を示す MCP の応答 過去 6 か月間の S3 ストレージの GB/月あたりのコストを教えてください 図 7:GB/月あたりの S3 のコストを示す MCP の応答 最も容量の大きい S3 バケットについて、関連するコストの詳細な内訳を含む包括的なコスト分析を生成してください 図 8:S3 の包括的な分析結果を示す MCP の応答 図 9:S3 の包括的な分析結果を示す MCP の応答 以下の例では、MCP クライアント内での詳細なツールの使用方法を示しており、さまざまな連携した機能がどのように包括的な対応を生み出すかを示しています。さらに、Claude Desktop を通じて MCP サーバーを活用すると、結果をより視覚的にわかりやすく表現できるようになり、AWS サービスを利用する開発者へよりリッチなインタラクティブ体験を提供できます。 過去数か月間のコストデータを分析してナラティブにまとめてください、IT および財務のリーダーシップ向けの 2 つのパラグラフのレポートを準備します。レポートには、コスト傾向、大きな変化の原因、コストの異常、予算に対する追跡方法およびコストを最適化して削減できる機会について含める必要があります 図 10:ナラティブレポート作成のための詳細なツール呼び出しを示す MCP プロンプトと応答 図 11:MCP の追加のツール呼び出し応答 Claude Desktop(Sonnet 4 利用) 先月の vCPU 時間あたりの EC2 コストはいくらでしたか? 図 12:vCPU 時間を示す Claude Desktop からの MCP の応答 Pricing ツールを使って、これらの vCPU 数をダブルチェックできますか? 図 13:vCPU の料金を含む Claude Desktop からの MCP の応答 いいですね、この分析を過去 6 か月間分繰り返しできますか? 図 14:6 か月の期間を分析した Claude Desktop からの MCP の応答 素晴らしいです、これを折れ線グラフにできますか? 図 15:vCPU 時間あたりのコストグラフを示す Claude Desktop からの MCP の応答 結論 AWS Billing and Cost Management MCP サーバーは、クラウド財務管理を大きく進歩させるものです。AWS の強力なコスト分析および最適化ツールと自然言語 AI アシスタントを結びつけます。これにより、複雑なコストクエリが簡単になり、FinOps ワークフローがスピードアップします。また、コストの透明性も向上し、リアルタイムのインサイトや実用的な推奨事項に簡単にアクセスできるようになります。 翻訳はテクニカルアカウントマネージャーの加須屋 悠己が担当しました。原文は こちら です。 Adam Richter Adam Richter は、AWS OPTICS のシニア最適化ソリューションアーキテクトです。この役職では、Adam は AI コスト最適化と FinOps プラクティスを専門としています。Amazon Q Business や Amazon Q Developer などの顧客向け機能の作成に貢献したほか、AWS re:Invent やその他の業界イベントで講演者として専門知識を頻繁に共有しています。Adam はまた、FinOps Foundation の AI ワーキンググループで AWS を代表して、AI における財務業務に関する幅広い議論に貢献しています。 Aneesh Varghese Aneesh Vargheseは、情報技術業界で 19 年以上の経験を持つ AWS のシニアテクニカルアカウントマネージャーです。Aneeshは、コスト最適化戦略、クラウド運用、MLOps について企業顧客をサポートし、AWS のベストプラクティスを利用したソリューションの計画と構築に役立つ提言や戦略的技術ガイダンスを提供します。仕事以外では、Aneesh は家族と時間を過ごしたり、バスケットボールやバドミントンをしたりするのが好きです。
アバター
本記事は、2025 年 8 月 26 日に公開された Zero-ETL: How AWS is tackling data integration challenges を翻訳したものです。翻訳は Solutions Architect の下佐粉が担当しました。 このブログ投稿では、 Amazon Web Services (AWS) がZero-ETL によってデータ統合をシンプルにしつつ、パフォーマンスの向上とコスト最適化を実現する方法をご紹介します。組織がアナリティクスと AI のためにデータを収集する中で、従来のデータ統合の中心である抽出、変換、ロード (ETL)のパイプラインは複雑化しています。これらのパイプラインの構築と維持は、イノベーションに費やすべき貴重なスタッフの時間とリソースを消費する、コスト要因にもなっています。AWS では Zero-ETL 統合を提供することによって、企業のデータ統合の取り扱いをシンプルなるよう支援します。Zero-ETL は、運用データベースとデータウェアハウス、データレイク、そしてこれらを組み合わせたレイクハウスなどの分析環境との間のシームレスなデータフローを維持しながら、データパイプライン維持の負担を軽減することができます。 数千もの AWS のお客様が、ペタバイト規模のデータを zero-ETL で処理しています。AWS のお客様は、 Amazon Aurora 、 Amazon Relational Database Service (Amazon RDS) 、 Amazon Redshift 、 Amazon DynamoDB 、 Amazon SageMaker などのサービスとの Zero-ETL 統合、およびサードパーティー SaaS アプリケーションとの Zero-ETL を活用しています。これら Zero-ETL による統合によって、データ統合は技術的な負担ではなく戦略的な強みとなり、企業はデータから実用的なインサイトを導き出すことに注力できるようになります。 データ統合の進化と課題 従来、組織は運用データベースと分析システム間のデータ移動に ETL パイプラインを構築してきました。この手法は機能的ではありますが、組織がデータからタイムリーな洞察を得ることを妨げる、いくつかの重要な課題があります。 ETL パイプラインの構築と保守には多大なエンジニアリングリソースが必要で、多くの場合、人材がコアビジネスの施策から離れざるを得なくなります。これらのパイプラインは、継続的なモニタリング、更新、最適化が必要で、運用の負担が続きます。データ量が増加し、更新が頻繁になり、スキーマが進化するにつれて、これらのパイプラインの複雑さは指数関数的に増大します。 パイプラインの障害はデータの可用性に遅延を引き起こし、意思決定プロセスに影響を与える可能性があります。パイプラインが障害を起こした場合、問題の診断と修正に数時間から数日かかることがあり、その間、重要なビジネス上の意思決定が古い情報に基づいて行われる可能性があります。このデータ作成から分析可能になるまでのタイムラグは、変化の激しい業界において大きな競争上の不利となる可能性があります。 複雑なデータ変換は潜在的な障害ポイントを生み出し、データの不整合が発生するリスクを高めます。各変換ステップは、変換ロジックのバグやデータの予期せぬエッジケース(滅多に発生しない状態)により、エラーが発生する可能性があります。これらの変換全体でデータの品質と一貫性を確保するには、厳密なテストと検証プロセスが必要です。 さらに、組織が新しいデータソースを追加するにつれて、複数のパイプラインを管理する運用オーバーヘッドは急激に増加します。通常、新しいソースごとに、抽出、変換、ロードのためのカスタムロジックを備えた独自のパイプラインが必要になります。このようなパイプラインの増加は、すぐに管理が困難になり、組織全体で一貫したデータ戦略を維持することを難しくします。 Zero-ETL によるデータ分析の実現 AWS zero-ETL 統合は、AWS サービスとサードパーティアプリケーションの両方から、AWS のデータウェアハウス、データレイク、レイクハウスへのデータレプリケーションを、自動化された完全マネージド型で提供し、カスタムパイプラインの開発を不要にします。この新たなアプローチは、複数の重要な領域にわたって多くのメリットを提供し、組織のデータ統合へのアプローチを根本的に変革します。 データアーキテクチャの簡素化 Zero-ETL 統合は、ローコードまたはノーコードのセットアップを提供するため、組織は専門的な知識がなくても迅速にデータアクセスとフローを確立できます。このデータ統合の民主化により、組織全体のチームが独自のデータ統合を設定・管理できるようになり、インサイト獲得までの時間が短縮されます。 Zero-ETL 統合は、データ定義言語 (DDL)、スキーマの変更、データ型のマッピングを自動的に処理するため、分析ストア内のデータが正確かつ完全な状態に保たれます。このデータはビジネスでの利用にすぐに使用でき、ソースシステムとターゲットシステム間の一貫性を確保するのに役立ちます。この自動マッピングにより、手動マッピングプロセスで発生する可能性のあるエラーのリスクが大幅に軽減され、システム間でデータ型と構造が正しく変換されることが保証されます。 組み込みのモニタリングとエラー処理機能により、レプリケーションプロセスの状況を把握できるようになり、データの整合性維持に役立ちます。管理者は、レプリケーションの遅延や転送の失敗などの特定の条件に対してアラートを設定でき、データ統合プロセスの予防的な管理が可能になります。 Zero-ETL 統合は、フルロードと CDC (Change Data Capture) による継続的な変更を自動的に処理し、最新のデータへの迅速なアクセスを実現します。組織はこの二重の機能を活用して、既存のデータを移行しながら、新しいデータが継続的にレプリケートされることを確認でき、新しい統合モデルへのシームレスな移行を実現できます。 ニア・リアルタイム分析 Zero-ETL 統合では、通常、ソースシステムの更新から数秒または数分以内にターゲットシステムでデータを利用できるようになります。このほぼリアルタイムの機能は、大量のトランザクションワークロードにも対応し、急速に変化するビジネスにタイムリーなインサイトを提供します。例えば、E コマース企業は購買パターンをほぼ即座に分析でき、リアルタイムの在庫管理やパーソナライズされたレコメンデーションを実現できます。 このソリューションは、データ量が増加しても性能を低下させることなく、一貫したパフォーマンスを維持します。ビジネスが成長しデータ量が増加しても、Zero-ETL 統合は自動的にスケールすることで、システムへの要求が増加に対応します。 組み込みのフォールトトレランスと回復メカニズムにより、高可用性とデータの一貫性を確保します。レプリケーション中に問題が発生した場合、失敗した操作の手動または自動リトライにより、最後の正常地点から再開することで、データ損失を最小限に抑え、ソースシステムとターゲットシステム間の一貫性を確保できます。 運用負荷の削減 カスタムパイプラインのメンテナンスが不要になることで、Zero-ETL 統合は貴重なエンジニアリングリソースを解放します。データエンジニアは、定期的なパイプラインのメンテナンスに時間を費やすのではなく、データモデリング、高度な分析、機械学習などのより価値の高いタスクに集中できます。 追加のインフラストラクチャを管理する必要がないため、複雑さとコストが削減されます。Zero-ETL 統合は AWS が管理するインフラストラクチャ上で実行されるため、データ統合のためにサーバー、ストレージ、ネットワークコンポーネントをプロビジョニングおよび管理する必要がありません。 システムは、スキーマの変更を自動的に処理し、人の介入なしでデータ構造の変化に対応します。例えば、ソーステーブルに新しいカラムが追加された場合、Zero-ETL 統合は自動的にこの変更を検出し、それに応じてターゲットスキーマを更新し、データの同期を維持します。 AWS のセキュリティ機能との統合により、レプリケーションプロセス全体を通じてデータを保護することができます。これには、保管時および転送時の暗号化のサポート、さらに各種規制基準に準拠するための AWS Key Management Service (AWS KMS) との統合が含まれます。 Zero-ETL によるお客様の成功事例 ローンチ以来、Zero-ETL 統合は急速に採用が進んでいます。Zero-ETL 統合の汎用性とメリットは、様々な業界における顧客の導入事例を通じて実証されています。 大手グローバル決済ソリューションプロバイダーである MassPay のペイメントシステムアーキテクチャ部門ディレクターの Yossi Shlomo 氏は、次のように述べています。「Zero-ETL は MassPay のチームに変革をもたらしました。 Amazon Aurora MySQL 互換エディション と Amazon Redshift の zero-ETL 統合を使用することで、コアペイメントシステムから不正検出、コンプライアンスケース管理、ビジネスインサイトに使用される分析環境へのデータフローを効率化しました。この移行によりレイテンシーが 90% 以上削減され、チームはプロセスと意思決定を最適化するための重要なデータにほぼ瞬時にアクセスできるようになりました」。このデータの鮮度と可用性の劇的な改善により、MassPay はより迅速で十分な情報に基づいた意思決定を行うことができ、顧客へのサービスと市場での競争力を向上させています。 Zero-ETL で統合可能な AWS サービス AWS は現在、人気の AWS データベースサービスと、フルマネージド型データウェアハウスサービスの Amazon Redshift をシームレスに接続するためのZero-ETL 統合を提供しています。これには、Amazon Aurora MySQL 互換エディション、Amazon Aurora PostgreSQL 互換エディション、Amazon RDS for MySQL、Amazon RDS for Oracle 、Amazon DynamoDB が含まれます。つまり、組織は各サービスの強み( Aurora と Amazon RDS のトランザクション機能、DynamoDB の柔軟性、Amazon Redshift の分析能力)を活用しながら、これらのシステム間のデータ移動の複雑さを最小限に抑えることができます。 サードパーティ統合のサポート Zero-ETL 統合は AWS サービスを超えて、幅広いサードパーティのデータもサポートするようになりました。AWS は、SAP OData、Salesforce、Salesforce Marketing Cloud Account Engagement、ServiceNow、Zendesk、Zoho CRM、さらに Facebook Ads や Instagram Ads などのソースと Zero-ETL 統合 を提供しています。ターゲットには、Amazon Redshift や Amazon SageMaker を使用したレイクハウス が含まれます。 最近の更新内容は以下の通りです: AWS Glue が Amazon DynamoDB と 8 つの SaaS アプリケーションから Amazon S3 テーブルへのZero-ETL 統合をサポート開始 Amazon Aurora MySQL と Amazon RDS for MySQL の Amazon SageMaker との統合が利用可能に さまざまなベンダーの従来のリレーショナルデータベースも、Zero-ETL 統合を通じてレイクハウスに連携できます。この包括的なサポートにより、組織はカスタム統合パイプラインを構築することなく、多様なソースからのデータを AWS 分析環境に統合できます。Zero-ETL を使用して、複数のベンダーソリューション間のデータサイロを解消し、データ統合プロセスを簡素化することで、組織は複雑なデータパイプラインの管理ではなく、インサイトの導出に注力できます。 より多くの AWS サービスとデータソースをサポートするための追加の統合機能が開発中であり、エコシステムをさらに拡大する予定です。AWS は、お客様のニーズとデータ環境の進化に対応して、Zero-ETL 統合の範囲を継続的に拡大することにコミットしています。 Zero-ETL の高度な機能 AWS のZero-ETL 機能には、高度な機能が含まれています。例えば、更新間隔コントロールを使用することで、データの同期頻度をカスタマイズでき、各ユースケースに必要な最新のデータに基づいて分析を行うことができます。一方、履歴モードではデータの過去のバージョンを保持し、トレンド分析、インサイトに富んだダッシュボード作成、監査要件への対応を可能にします。また、Amazon Redshift で Slowly Changing Dimension (SCD) Type 2 テーブルを作成することもできます。 データフィルタリング機能を使用して、特定のオブジェクトやデータサブセットを選択的にレプリケートし、ストレージの使用を最適化し、関連性の高いデータに焦点を当てることができます。包括的なロギングとモニタリング機能により、データの移動状況とシステムの状態を可視化できるため、管理者は問題を迅速に特定して対処できます。 2 つの主要な統合アプローチを組み合わせることもできます。Zero-ETL は包括的な分析のために完全なデータレプリケーション (移動) を提供し、一方でフェデレーションも提供しており、これはソースデータへのリアルタイムアクセスが重要な場合にデータをその場で照会することを可能にします。この柔軟性を活用して、組織固有のニーズとユースケースに合わせてデータ統合戦略を決めることが可能になります。 Zero-ETL の使用開始 Zero-ETL 統合の利用を開始するには、まずソースデータベースとターゲットの分析サービスを特定する必要があります。これには、現在のデータアーキテクチャを評価し、Zero-ETL アプローチが最も効果的なデータフローを判断することが含まれます。 次に、必要な権限とネットワーク要件を設定する必要があります。これには通常、 AWS Identity and Access Management (IAM) の設定、または AWS IAM Identity Center を使用したシングルサインオンの設定、そしてソースとターゲットのサービスが安全に通信できることを確認することが含まれます。 前提条件が整っていれば、次の画像に示すように、AWS 管理コンソール 内で簡単に Zero-ETL 統合を作成できます。直感的なインターフェイスがプロセスをガイドし、ソースとターゲットの詳細の指定、レプリケーション対象のテーブルの選択、追加オプションの設定を促します。 セットアップ後は、円滑な運用を確保するために、レプリケーションのステータスとパフォーマンスを監視できます。AWS は、Zero-ETL 統合の健全性とパフォーマンスを追跡するために、詳細なメトリクスとログを提供します。 詳細なセットアップ手順については、各サポートされている統合のステップバイストップガイドを提供している zero-ETL 統合の AWS ドキュメント をご覧ください。 Zero-ETL の今後の展望 AWS は、追加の AWS サービスとデータソースのサポートに向けたロードマップを積極的に取り組んでおり、Zero-ETL 統合の範囲を拡大することで、より多くのお客様がより広範なユースケースでシンプルなデータ統合のメリットを享受できるようにします。 Zero-ETL 統合は、組織がデータ統合にアプローチする方法の根本的な変化です。ETL パイプラインの複雑さがないため、お客様はインフラストラクチャの管理ではなく、データから価値を引き出すことに集中できます。このアプローチは、クラウド運用を簡素化し、お客様がより迅速なイノベーションを可能にするという AWS のコミットメントに沿っています。 Zero-ETL 統合の詳細と、そのメリットについては、以下のトピックをご覧ください。 Aurora のZero-ETL 統合については、Zero-ETL 統合の 利点 、 主要な概念 、 制限事項 、 クォータ 、 サポートされているリージョン をご覧ください Amazon RDS のZero-ETL 統合については、Zero-ETL の 利点 、 主要な概念 、 制限事項 、 クォータ 、 サポートされているリージョン をご覧ください DynamoDB のZero-ETL 統合については、 DynamoDB と Amazon Redshift のZero-ETL 統合 をご覧ください アプリケーションとのZero-ETL 統合については、 Zero-ETL 統合 をご覧ください AWS のZero-ETL 統合を使用して、データ運用を効率化し、データの可能性を最大限に引き出す方法を、今すぐ始めてみましょう。 Nikki Rouda は AWS のプロダクトマーケティングに従事しています。IT インフラストラクチャ、ストレージ、ネットワーキング、セキュリティ、IoT、アナリティクス、モダンアプリケーションなど、幅広い分野で長年の経験を持っています。
アバター
エンタープライズのコンタクトセンターでは、独立した IT および運用チームを持つ複数の事業部門 (LOB) をサポートするのに苦労しています。特にビジネスプロセスアウトソーサー (BPO) では、独自の要件を持つ数百の顧客を管理するため、この複雑さがさらに増大します。コンタクトセンターの移行パターンにより、これらの課題に対処し、デプロイメントを加速し、運用を簡素化することができます。 この投稿では、中規模から大規模なコンタクトセンターの移行において堅牢な基盤を構築する、実証済みの 5 つのパターンについて説明します。これらのパターンの実装には初期投資が必要ですが、全体的な移行スケジュールを加速させるでしょう。 移行の困難さ 架空の企業 AnyCompany で考えてみましょう。この会社は 7 つの LOB を運営しています。4 つの LOB はあるレガシープラットフォーム上で稼働していますが、最近の合併により取得した 3 つの LOB は異なるシステム上で運営されています。同社のサポート体制は 2 つの IT チームと 3 つの運営チームにまたがっており、それぞれがそれぞれのレガシープラットフォームを専門としています。 AnyCompany は、レガシープラットフォームのコストを削減し、安全でスケーラブルなクラウドベースのコンタクトセンターで改善された顧客体験を提供するため、7 つの LOB すべてを Amazon Connect に移行することを決定しました。同社は多くの組織で直面する優先順位付けのジレンマに直面しています。スピードと完璧さ、変革と基本的な移行のバランスを取り、特定のレガシーコンポーネントを維持するか、新規に構築するかを決定する必要があります。 AnyCompany は、まず小規模な LOB の 1 つから移行することを選択しました。移行初期では、各リージョンにおける開発、テスト、ステージング、本番環境全体で設定、フロー、統合を管理するためのパターンを確立する必要があります。レガシープラットフォームの 1 つは独自技術を使用しているので、サポートチームは移行後のコンタクトセンターをサポートするためスキルアップが必要です。 移行を加速するアクセラレーターパターン アクセラレーターパターンは、3つの基本的な原則に基づきます。 再発明よりも再利用を:再利用可能なコンポーネントを構築することで、チームは機能を一度開発すれば、コンタクトセンターの複数の領域にそれを適用できます。これは、開発時間を短縮し、一貫性を推進できます。 モノリスよりもモジュール性を:モジュラー設計により、複雑なシステムを管理可能な部品に分割し、チームが独立してそれぞれを実装および保守できるようにします。このアプローチは俊敏性を向上させ、移行プロセス中のリスクを軽減します。 カスタマイズではなく設定を:テンプレートベースの設計により、固有のケースを処理するためにコードではなく設定を定義して、全体的な作業を削減します。このアプローチは柔軟性を維持しながら、カスタム開発を最小限に抑えます。 パターン #1 – 設定可能な CX インターフェース Amazon Connect は、企業が重要なコンタクトセンターコンポーネントを設定できる包括的なネイティブユーザーインターフェースを提供します。これには、 キュー 、 ルーティングプロファイル 、 ユーザー管理 、 セキュリティ 設定、および自動化された フロー からエージェントとのやり取りまで、顧客体験を構築するための直感的なドラッグアンドドロップインターフェースが含まれます。エンタープライズ規模のコンタクトセンターでは、通常、フロー内に複数のエントリーポイントが実装されます。言語選択、顧客識別、認証、意図の取得、ルーティングなどのコアコンポーネントは、類似するパターンに従います。ただし、各体験は、問い合わせ属性と Amazon DynamoDB に保存されたデータを使用して動的にパーソナライズされます。またデプロイ後も、ビジネスチームは、緊急アナウンス、特別メッセージ、言語更新など、フロー動作に対して稼働中に変更を行う俊敏性を必要とします。組織はまた、開発、テスト、ステージング、本番環境全体にわたる堅牢な設定管理も必要とします。 パターン #2 – エージェント体験のインターフェース Amazon Connect には、 エージェントワークスペース と呼ばれるすぐに使えるエージェント用の問い合わせ処理機能(機能統合されたエージェントアプリケーション)があります。この統合されたデスクトップインターフェースにより、エージェントは単一のインターフェースから顧客プロファイル、やり取りの履歴、ナレッジベースにアクセスしながら、音声、チャット、タスクにわたる顧客とのやり取りを管理できます。このシステムには、コラボレーションツール、多言語サポート、リアルタイムパフォーマンスダッシュボードが含まれています。 ほとんどの企業顧客は、要件を満たすためにこのエージェントワークスペースを設定します。しかし、企業は Amazon Connect SDK と API を使用してカスタムコントロールパネルを構築することもできます。このオプションを選択する顧客は、エージェントワークスペースでネイティブに準備された機能を再構築する必要があります。エージェント体験を極度にパーソナライズする必要がある一部の顧客にとってはこの重い作業が必要になる場合もあり、このパターンではマイクロアプリケーションアーキテクチャを使用して異なる LOB 間で再利用できるように構築します。各機能を独立したマイクロアプリケーションとして機能し、分離された開発を可能にします。組織は、ニーズに基づいて特定の機能をデプロイし、コード変更ではなく設定を通じてそれらをカスタマイズします。 このアクセラレーターパターンは、自動デプロイメントを通じてカスタマイズされたエージェントインターフェースの開発時間を数か月短縮します。これにより LOB 間で一貫したエージェント体験が可能になり、大幅な再トレーニングなしにエージェントや担当者の共有が可能になります。モジュラー設計により、デスクトップ、ネットワーク、サーバーサイドの問題に対して単一のアプリケーションフットプリントを提供することで、トラブルシューティングも簡素化されます。このパターンを使用する組織は、時間の経過とともに機能を追加する柔軟性を維持しながら、より高速な機能開発サイクルとゼロダウンタイムを実現しました。 パターン #3 – コンタクトセンターの開発・運用・セキュリティ (DevSecOps) グローバル企業のコンタクトセンターでは複数の リージョン が必要な場合や、また複数の環境(開発、テスト、ステージング、本番)のプロビジョニングが必要な場合があります。コンタクトセンターのワークロードでは、Amazon Connect と併せて 10 以上の AWS サービスを使用することがあります。複数のインスタンスとサービスにわたって迅速にイノベーションを行うため、組織は自動化されたデプロイメントプロセスと一貫した環境設定を計画します。他のクラウドアプリケーションと同様に、標準化された DevSecOps アプローチ により、設定のドリフトやセキュリティ脆弱性のリスクを軽減しつつ、新機能の導入までの時間を改善できます。 このパターンでは、Amazon Connect デプロイメント向けに設計された DevSecOps フレームワークを実装します。 AWS Cloud Development Kit (CDK) などのデプロイメントツールを使用した Infrastructure as Code テンプレートを提供します。また、Amazon Connect インスタンス、フロー、 AWS Lambda 関数、および関連する AWS サービスのデプロイメントと設定を自動化する事前構築済みパイプラインも含まれています。このパターンは、デプロイメントパイプラインのすべての段階にセキュリティコントロール、テスト戦略、および自動検証を組み込みます。このパターンの主要コンポーネントには、Amazon Connect インスタンス管理、設定、および環境固有のインフラのデプロイ用のモジュラーコードリポジトリが含まれます。このパターンは、環境間での一貫した配信を確保するブランチング戦略、コードプロモーションワークフロー、および開発者ガイドラインも提供します。(これはレガシー技術でしばしば問題となっていた)環境間でのコードと設定の伝播をカバーし、品質とセキュリティコンプライアンスを向上させながら、LOB 実装あたりの技術基盤構築時間を数週間短縮します。 このアクセラレーターパターンは、組織が環境間での一貫性を維持しながら、機能デプロイメントを加速し、人的エラーを削減することを可能にします。モジュラー設計により、チームは既存のツールと成熟度レベルに基づいて、コンポーネントを段階的に採用できます。組織が複数の事業部門にわたって Amazon Connect フットプリントを拡張する際に効果的にスケールする、反復可能なフレームワークを提供します。 パターン #4 – モニタリングと運用の自動化 AWS サービスは、メトリクスとログを Amazon CloudWatch に公開します。このデータを表示および分析して、重要な運用メトリクスを監視し、アラームを設定できます。大規模なコンタクトセンターでは、サービス、インスタンス、リージョン全体にわたる監視が運用上の優秀性を維持するために必要です。従来のプラットフォームでは、コンタクトセンターのインフラストラクチャ全体の可視性に苦労することが多く、対症療法的な問題解決と長い解決時間につながっていました。企業は、顧客体験に影響を与える前に潜在的な問題を事前に特定しながら、複数の事業部門にわたってサービスレベル契約 (SLA) を維持する必要があります。 このパターンでは、コンタクトセンターインフラストラクチャ全体の可視性を提供する設定ベースの監視・アラート基盤を実装します。Amazon CloudWatch を基盤として使用し、カスタムメトリクスと Amazon Simple Notification Service を通じた自動アラートで機能を強化します。このパターンには、ヘルスメトリクス、ビジネスメトリクス、カスタマーエクスペリエンス指標の高レベルビューと詳細ビューの両方を提供する事前構築されたダッシュボードが含まれます。設定可能な通知チャネル(メール、SMS、Slack)を使用したしきい値ベースのアラート機能をサポートし、重要な問題に対するエスカレーション管理システムが含まれています。主要コンポーネントを AWS Cloud Development Kit(CDK) などの Infrastructure as Code としてパッケージ化し、環境やリージョン間での一貫したデプロイメントを可能にします。ビジネスチームは、長い待機時間、キューのあふれ、またはカスタマーエクスペリエンスに影響を与えるエラーを監視するためにこれらを使用できます。IT チームは、AWS Lambda 関数の障害、API レイテンシ、音声品質スコア、バックエンド接続エラーなどのシステムレベルメトリクスを監視し、異常を検出および予測するために使用できます。 このパターンで、監視機能を確立するために必要な時間を短縮し、通常は実装あたり数週間の開発工数を節約できます。プロアクティブな問題検出と解決を可能にし、すべての事業部門で高いサービスレベルを維持するのに役立ちます。このソリューションのモジュラー設計により、組織は必要最小限の監視設定から開始し、音声品質監視やサードパーティのチケットシステムとの統合などの高度な機能を段階的に追加できます。組織が追加の事業部門を Amazon Connect に移行する際に効果的にスケールする標準化された監視アプローチを提供できるのも重要な点です。 パターン #5 – 音声およびチャットのチューニングと最適化 セルフサービスのユースケースで 会話型 AI を実装するコンタクトセンターは、音声およびチャット実装が最適なパフォーマンスを維持できるよう管理する必要があります。チャットボットの実装では、効率的な顧客体験を推進し、ライブエージェントへのエスカレーションを回避するために、十分なサンプル発話、重複しないインテント、適切なエラーハンドリングが必要です。専門家による会話インターフェースの手動最適化は、専門家にとって付加価値の低い作業となる可能性があり、組織が最適なパフォーマンスを維持することがコスト的に困難になります。 このパターンでは、チャットおよび音声セルフサービス体験の分析とチューニングを自動化する最適化フレームワーク(多くの場合、 生成 AI を活用 )を実装します。このソリューションは、AWS の専門知識と実世界の実装から得られたベストプラクティスの厳選されたナレッジベースを使ってボットの設定を分析するため、基盤モデルを活用します。インテント、サンプル発話、スロット設定、エラーハンドリング戦略の自動分析が含まれます。インタラクティブな Web インターフェースと既存の CI/CD パイプラインとの統合の両方を通じて実用的な推奨事項を提供します。継続的な最適化フェーズで、ボットの定義や設定を処理します。 このパターンによって、ボットの最適化時間を数日から数分に短縮し、高品質を維持しながら長時間の専門コンサルテーションの必要性やコストを最小限に抑えます。組織が深い技術的専門知識を必要とせずに最適なパフォーマンスを維持できるようにしながら、すべての会話インターフェースでベストプラクティスの一貫した適用を可能にします。インテントの混乱、不十分なトレーニングデータ、不適切なエラーハンドリングなどの一般的な問題を防ぐのに役立ちます。このパターンを使用している組織では、セルフサービスのパフォーマンスの向上とセルフサービスでの解決率の増加を確認し、同時にエージェントへのエスカレーションを削減しました。 考慮事項とアイデア 前のセクションで挙げた各パターンについて、その価値と必要な投資を評価することをお勧めします。すべてのアクセラレーターパターンがあらゆる組織に適合したり、必要になったりするとは限りません。アクセラレーターが適合する場合、組織には以下の選択肢があります : AWS Professional Services と連携して、数百の組織のコンタクトセンター変革のために提供される事前構築済みアクセラレーターを実装する。これは、追加の継続的なコストなしに、これらのアクセラレーターを社内で所有、保守、拡張する意欲と専門知識を持つ顧客に適しています。 月額継続コストで利用できる Software as a Service モデルを使用して、類似のアクセラレーターパターンを提供する Amazon Connect パートナーを探す。このオプションは、社内でのソフトウェア開発と保守の専門知識が限られている顧客に適しています。 社内で構築する。Amazon Connect は他の AWS サービスとともに、この拡張性を促進する豊富な API セットを提供します。 他にもアクセラレーターパターンのアイデアとして、自動化された機能テストおよび負荷テストツール、ルーティング設定変更の影響を検証するルーティングシミュレーションツール、復旧運用の自動化、生成 AI ベースのフローのドキュメント化などがあります。コンタクトセンターのクラウドへの移行を設計する際に、追加のパターンを特定する可能性があります。 結論 この投稿では、5 つの移行パターンについて説明しました。設定可能な CX インターフェース、エージェントエクスペリエンス インターフェース、DevSecOps、監視と運用の自動化、音声とチャットのチューニングです。再利用性、モジュール性、設定駆動型アプローチに焦点を当てることで、AnyCompany は移行の複雑さを軽減し、後続の事業部門での価値実現までの時間を短縮しました。チームのスキル、予算、目標に適したアプローチを選択しましょう。これらのパターンは、クラウドネイティブなコンタクトセンターにおける継続的な改善とイノベーションの基盤を築き、技術の進歩に AnyCompany が適応し、優れた成果を上げられるようになりました。 Amazon Connect では、使用した分だけお支払いいただきます。初期費用、長期契約、最低月額料金はありません。セットアップにサポートが必要な場合は、 AWS Professional Services からサポートを受けることができます。また、世界中で利用可能な  Amazon Connect パートナー からサポートを求めることもできます。 Amazon Connect でカスタマーサービス体験を変革する準備はできていますか? お問い合わせください 。 筆者について Parind Poi は AWS プロフェッショナルサービスのシニアプラクティスリーダーです。彼は AWS のカスタマーエクスペリエンス (CX) に関する深い専門知識を持ち、専門業務をリードしています。Parind は、お客様がクラウド上でカスタマーエンゲージメントワークロードを最新化できるよう支援することに情熱を注いでいます。 Prashant Desai は AWS プロフェッショナルサービスのプリンシパルコンサルタントです。彼は大規模なコンタクトセンターの設計とクラウドへの移行の経験があります。25 年を超えるレガシー、クラウド両方のコンタクトセンターの経験があります。Prashant は、顧客体験をシンプルで革新的にする方法を常に模索しています。 翻訳はテクニカルアカウントマネージャー高橋が担当しました。原文は こちら です。
アバター
この記事は、2025 年 8 月 4 日に Raghava Kumar Vemu によって執筆された「 Begin your AWS journey with new free AWS Builder Labs learning plan on AWS Skill Builder 」を翻訳したものです。 実践的な Amazon Web Services (AWS) スキルをハンズオンで学習したいとお考えですか ? 本日、10 個の基礎レベルのハンズオンラボが含まれた、新しい学習プランである Introduction to AWS Cloud: Builder Labs Learning Plan (日本語版) の無料提供を発表します。AWS クラウド学習の旅を開始する準備をしましょう。 ※ こちらの無料学習プランは 2025 年 11 月 2 日までの期間限定アクセスです。 クラウド専門家にとって、AWS サービスでの実践経験は成功の鍵となります。理論的な知識も大切ですが、実際の AWS 環境でのハンズオン体験に勝るものはありません。この新しい学習プランは、基本的な AWS サービスをカバーするガイド付きハンズオン体験を提供し、AWS クラウドのインフラストラクチャ基盤、セキュリティとアイデンティティ管理、モダンアプリケーション開発の知識を強化することで、このニーズに応えています。これらのコースは、業界で重要視されている基本的な AWS スキルの習得に役立ちます。 無料学習プランに含まれる内容 Introduction to AWS Cloud: Builder Labs Learning Plan (日本語版) 学習プランは、基本的な AWS サービスを使った 10 のハンズオンラボで構成されており、様々な概念の理解を深めることができます。実際の AWS 環境でステップバイステップの手順に従いながら、実践的なスキルを身につけ、ソリューションを構築・テストします。 Introduction to Amazon Virtual Private Cloud (VPC) (日本語): このラボでは Amazon Virtual Private Cloud (Amazon VPC) を紹介します。このラボでは、Amazon VPC ウィザードを使用して VPC を作成し、インターネットゲートウェイをアタッチし、サブネットを追加し、サブネットとインターネットゲートウェイ間でトラフィックが流れるように VPC にルーティングを定義します。 Introduction to Amazon Simple Storage Service (S3) (日本語): Amazon Simple Storage Service (Amazon S3) は、業界をリードするスケーラビリティ、データ可用性、セキュリティ、パフォーマンスを提供するオブジェクトストレージサービスです。このラボでは、AWS マネジメントコンソールを使用して Amazon S3 の基本的な機能について学習します。 Introduction to Amazon EC2 (日本語): このラボでは、Amazon EC2 インスタンスの起動、サイズ変更、管理、モニタリングの概要を学習します。Amazon Elastic Compute Cloud (Amazon EC2) は、クラウド内でコンピューティング性能を変更できるウェブサービスです。Amazon EC2 を使用すると、開発者は高いスケール性を持ったクラウドコンピューティングを簡単に利用できるようになります。 Introduction to AWS Identity and Access Management (IAM) (日本語): AWS Identity and Access Management (IAM) は、お客様が AWS にアクセスできるユーザーと、そのユーザーのアクセス許可を管理できるウェブサービスです。IAM を使用すると、ユーザー、アクセスキーなどのセキュリティ認証情報、およびユーザーがどの AWS リソースにアクセスできるかをコントロールするアクセス許可を一元的に管理できます。 Introduction to AWS Key Management Service (日本語): このラボでは、AWS Key Management Service (AWS KMS) を学習します。AWS KMS の使用を開始するために必要な基本ステップを学習し、キーの作成、キーの管理と使用権限の割り当て、データの暗号化、キーのアクセスと使用のモニタリングを行います。 Performing a Basic Audit of your AWS Environment (日本語): このラボでは、主要な AWS リソースに基本的な監査を実行します。AWS マネジメントコンソールを使って複数の AWS サービス (Amazon EC2、Amazon VPC、Amazon IAM、Amazon Security Groups、AWS CloudTrail、Amazon CloudWatch など) を監査する方法を学習します。 Introduction to Amazon DynamoDB (日本語): Amazon DynamoDB は、1 桁ミリ秒台の一貫したレイテンシーを必要とする、あらゆる規模のアプリケーションに対応した、高速かつ柔軟な NoSQL データベースサービスです。このラボでは、Amazon DynamoDB にテーブルを作成し、音楽ライブラリに関する情報を保存します。 Introduction to Amazon CloudFront (日本語): このラボでは、Amazon CloudFront の基本について学習します。URL に CloudFront ドメイン名を使用して Amazon Simple Storage Service (Amazon S3) バケットに保存されているパブリックアクセス可能な画像ファイルを配信する、Amazon CloudFront ディストリビューションを作成します。 Introduction to AWS Lambda (日本語): このラボでは、イベント駆動型の環境で Lambda 関数を作成するために必要なステップを学習します。AWS Lambda は、イベントに応じてコードを実行し、コンピューティングリソースを自動的に管理するサーバーレスコンピューティングサービスです。 Introduction to Amazon API Gateway (日本語): このラボでは、シンプルな FAQ マイクロサービスを作成します。このマイクロサービスでは、AWS Lambda 関数を呼び出す Amazon API Gateway エンドポイントを使用して、ランダムな質問と回答のペアを含む JSON オブジェクトが返されます。 自分のペースで学習できます 実践的なクラウドスキルを構築したい場合でも、ハンズオン学習で AWS 認定対策をしたい場合でも、これらの基礎的なラボで着実に経験を積むことで、実際の開発・運用に向けた準備に役立ちます。学習プランは柔軟性を重視して設計されており、以下のことが可能です : 興味に応じて好きな順序でラボを完了 自分のペースで実践 ラボを繰り返し再試行および再実行 カリキュラムを通じて進捗を追跡 開始方法 ハンズオンで AWS 学習を始めてみませんか ? 無料の Introduction to AWS Cloud: Builder Labs Learning Plan (日本語版) にアクセスして、いますぐ実践的なクラウドスキルの学習を開始しましょう。AWS Builder Labs でのハンズオン学習を通じて、クラウドスキルを向上させている何千人もの学習者の仲間入りを果たしましょう。 ハンズオンおよび体験学習をさらに推進するために、 AWS Skill Builder の個人またはチームサブスクリプションに登録し、200 の Builder Labs 、200 の SimuLearns 、17 の Jam Journeys の完全なカタログにアクセスしてください。 (2025 年 8 月 27 日現在) 翻訳は Technical Instructor の 西村 諄 が担当しました。
アバター
本記事は米国時間 8 月 22 日に公開された「 Important Kiro pricing updates 」を翻訳したものです。Kiro の最新情報は、 https://kiro.dev/ をご覧ください。 価格設定についてお知らせがあります。 リクエストが誤ってカウントされる計測バグを修正しました まず、多くの人が、リクエストの消費の早さに驚かれていることをお聞きしました。私たちも驚きました!Kiro で価格設定を展開した際に、一部のタスクが不正確に複数のリクエストを消費するバグを導入していたことが判明しました。多くの方が経験された予期しない使用量の急増を引き起こしていた計測問題の修正をデプロイしました。 8 月の制限をリセットしました また、現在の制限では有意義な作業を行うのに十分な余裕がないという懸念もお聞きしました。これの多くは、ユーザーが意図したよりも早く制限を使い切ってしまう原因となっていた計測問題から来ていると考えています。そのため、プランに含まれる制限もリセットしました。Kiro をどのように使用されているか、現在のプランがどの程度機能しているかを理解したいと思います。 システムを注意深く監視しています。新しいバグが発生した場合は、引き続き調整を行い、必要に応じて制限をリセットします。 8 月に発生した料金を返金します バグによって生じた混乱を考慮し、8 月分の料金は請求しないことに決定しました。返金は 8 月 25 日(月)から順次実施されます。以下は返金、制限、8月の無料使用に関する FAQ です。追加のご質問がございましたら、 Discord でのディスカッションにご参加ください 。 サポートとフィードバックをありがとうございます ここ数日がスムーズではなかったことを承知しており、これを軽く考えていません。私たちの最優先事項は、価格設定だけでなく、実際の有意義な作業に頼れる Kiro を構築することです。私たちと共に歩み、フィードバックを共有し続けてくださりありがとうございます。お試しいただく際のご意見をお聞かせください。 FAQ お客様への返金はいつ、どのように行われますか? サブスクリプション料金の返金は 8 月 25 日(月)から順次実施されます。 超過料金も返金されますか? 既に超過料金が発生している場合は、それらも返金いたします。 お客様の使用量はいつ、どのようにリセットされますか? 無料プランと有料プランの両方の使用制限がリセットされました。無料プランユーザーは 100 vibeリクエストと 100 specリクエストにリセットされます。有料プランユーザーは購入したプランの日割り制限にリセットされます。 今日サブスクリプションを購入した場合、9 月 1 日まで無料になりますか? 8 月 31 日より前にサブスクリプションを購入した場合、8 月 31 日まで無料で使用でき、月末までにサブスクリプション料金を返金いたします。 「8 月無料」はどのように機能しますか? 既に有料プランをご利用の場合、制限がリセットされ、8 月 31 日まで日割り制限内で Kiro を無料で使用し続けることができます。 現在から 8 月 31 日までの間に有料プランを購入する場合、有効なクレジットカードを提供する必要があり、購入したプランの価格と適用される税金および手数料が請求されます。その後、購入から数日以内に 8 月 31 日までに返金いたします。アップグレードした日割りプラン制限内(例:Pro+ の場合、日割りで 450 vibeリクエストと 250 specリクエスト)で Kiro を無料で使用できます。未使用のリクエストは翌月に繰り越されません。 8 月中は、プランの制限を超えて(追加料金なしで)使用することは可能ですか? はい、 超過料金 を有効にできます。超過料金は一時的に 1,000  vibeリクエストと 200  specリクエストに制限されています。超過料金でクレジットカードに請求された場合、8 月末に返金いたします。 Kiro の使用で既に請求されている有料顧客として、外国為替手数料で損失を出さないよう、既存の 8 月の支払いを 9 月の前払いとして使用することを選択できますか? 現在これは不可能です。8 月分は返金されます。 まだ存在する既知の計測問題は何ですか? 以下は、私たちが認識し積極的に対処している既知の請求の不一致です。より迅速にブロックを解除するため、現在制限をリセットしましたが、今後数日でこれらのケースに対処する際に、これらの誤カウントされたリクエストがリクエストプールにクレジットバックされることを保証します。これらの変更を行う際にお知らせします。 tasks.md ファイルで実際に「Start task」をクリックするのではなく、チャットウィンドウで「Execute task X」と入力すると、spec リクエストに加えて追加の vibe リクエストが請求されます。 サブタスクを持つタスク(例:タスク 2 にサブタスク 2.1 と 2.2 がある場合)で、親タスク(例:タスク 2)をクリックすると、追加の vibe と追加のspec リクエストが請求されます。現在の回避策として、代わりにサブタスクをクリックできます。 エージェントが連続してツール呼び出しに失敗した場合(独自のツールまたは MCP ツール)、追加の vibe リクエストが請求されます。
アバター