Java
イベント
マガジン
技術ブログ
みなさん、こんにちは。ソリューションアーキテクトの戸塚です。今週も 週刊AWS をお届けします。 さて、みなさんはゴールデンウィークのご予定はお決まりでしょうか。今年は長期休暇にされる方も多いようですね。私はというと、6月24日・25日に幕張メッセで開催される AWS Summit の準備があり、飛び石連休をつなげての長期休暇は取れそうにありません。その代わり、趣味のパデルの大会にいくつかエントリーしているので、そこでリフレッシュしようと思っています。 AWS Summit では、パデルのフォームを VR で計測できる展示を予定しており、現在鋭意開発中です。VR の世界観も AI を活用して実現しており、日々多くの学びがあります。また、スマートグラスや音声を活用した業務効率化アプリも開発中で、そちらもご体験いただけます。ぜひご来場ください。 それでは、先週の主なアップデートについて振り返っていきましょう。 2026年4月20日週の主要なアップデート 4/20(月) Amazon CloudWatch Logs Insights が JOIN およびサブクエリコマンドを導入 Amazon CloudWatch Logs Insights で JOIN とサブクエリコマンドが利用可能になりました。これまで複数のロググループをまたいだ分析では、複数のクエリを実行して手動で結果を組み合わせる必要がありましたが、今回のアップデートで 1 つのクエリで完結できるようになりました。例えば、エラーが多いサービスを特定するサブクエリと、パフォーマンスデータを持つ別のロググループを JOIN することで、エラー頻度と応答時間を同時に分析し、優先対応すべきサービスを効率的に特定できます。詳細は こちらのドキュメントをご参照ください。 Amazon DocumentDB (MongoDB 互換) がバージョン 5.0 から 8.0 へのインプレースアップグレードをサポート Amazon DocumentDB で、バージョン 5.0 から 8.0 へのインプレースアップグレードが可能になりました。従来はクラスタを新規作成する必要がありましたが、今回のアップデートでクリック数回の操作だけでアップグレードできます。バージョン 8.0 ではクエリ処理が最大 7 倍高速化され、ストレージ圧縮も最大 5 倍向上するため、アプリケーションの応答速度改善とコスト削減を同時に実現できます。詳細は こちらのドキュメントをご参照ください。 4/21(火) AWS Lambda Durable Execution SDK for Java 一般提供開始 AWS Lambda Durable Execution SDK for Java が一般提供開始されました。Java 開発者が Lambda で長時間実行されるワークフローを構築できるようになります。注文処理パイプラインや AI エージェント連携、承認フローなどを外部サービスなしで作成可能です。実行を最大 1 年間一時停止でき、進捗も自動で保存されます。詳細は こちらの Document をご参照ください。 Amazon Aurora serverless: 最大 30% のパフォーマンス向上、よりスマートなスケーリング、そしてゼロまでのスケールダウンを継続 Amazon Aurora serverless がプラットフォームバージョン 4 で大幅にアップデートされ、最大 30% のパフォーマンス向上と賢いスケーリング機能を実現しました。従来は複数のタスクが同時実行される際にリソース競合が発生しやすかったビジネス用 Web アプリケーションや API サービスでも、効率的に動作するようになりました。特にエージェント型 AI アプリケーションのように、活動が集中する時間と長時間のアイドル状態が不規則に発生するワークロードに最適で、使用量に応じた自動スケーリングにより無駄なコストを削減できます。詳細は こちらの Blog 記事をご参照ください。 AWS Lambda 関数で Amazon S3 バケットを S3 Files によりファイルシステムとしてマウント可能に AWS Lambda で Amazon S3 バケットをファイルシステムとして直接マウントできる S3 Files 機能が提供開始されました。従来はデータ処理のためにオブジェクトをダウンロードする必要がありましたが、今回のアップデートによりファイル操作が直接可能になります。複数の Lambda 関数が同じファイルシステムに同時接続でき、AI や機械学習のワークフローでデータ共有が簡単になります。詳細は こちらの Blog 記事をご参照ください。 ハイブリッド Kubernetes ネットワーキング向け Amazon EKS Hybrid Nodes ゲートウェイの紹介 Amazon EKS で Hybrid Nodes gateway が提供開始されました。この機能により、クラウドとオンプレミス環境を跨ぐハイブリッド Kubernetes ネットワークが自動化されます。従来は複雑なルーティング設定やネットワークチームとの調整が必要でしたが、これらが不要になります。pod 間通信や AWS サービスとの接続も自動で処理され、EC2 インスタンスに Helm でデプロイするだけで利用できます。中国リージョン以外で追加料金なしで利用可能です。詳細は こちらのドキュメントをご参照ください。 4/22(水) Amazon Bedrock AgentCore が開発者のエージェント構築を高速化する新機能を追加 Amazon Bedrock AgentCore に新機能が追加され、AI エージェント開発が大幅に簡単になりました。新しい managed harness (プレビュー) により、従来必要だったオーケストレーションコードを書かずに、モデルとプロンプト、ツールを指定するだけでエージェントを即座に実行できます。セッション途中でのモデル変更や、タスクの中断・再開も可能で、プロトタイプから本格運用まで一貫してサポートします。追加料金は発生せず、オレゴン、バージニア北部、フランクフルト、シドニーの 4 リージョンで利用可能です。詳細は こちらの Blog 記事をご参照ください。 AWS Secrets Manager が MongoDB Atlas と Confluent Cloud への管理対象外部シークレット機能を拡張 AWS Secrets Manager が MongoDB Atlas と Confluent Cloud の外部シークレット管理に対応しました。従来は各サービスの認証情報を自動ローテーションするために Lambda 関数を自作する必要がありましたが、今回のアップデートで AWS が提供する機能だけで実現できるようになりました。データベースと Kafka を組み合わせたデータパイプラインなどで、複数のサービスのシークレットを一元管理し、運用負荷を大幅に削減できます。詳細は こちらのドキュメントをご参照ください。 Amazon ECS マネージドインスタンス向け GPU ヘルスモニタリングと自動修復機能の導入 Amazon ECS Managed Instances で NVIDIA GPU の健康監視と自動修復機能が提供開始されました。GenAI 推論などの GPU ワークロードでハードウェア故障が発生した際、自動的に故障を検知して問題のあるインスタンスを交換します。これまで GPU 故障時は手動での対応が必要でしたが、この機能により可用性が大幅に向上します。NVIDIA DCGM を使用して継続的に監視し、EventBridge 経由で通知も可能です。対応する NVIDIA GPU インスタンスタイプで追加料金なしで利用できます。詳細は こちらのドキュメントをご参照ください。 4/23(木) Amazon Redshift が Apache Iceberg テーブルに対する UPDATE、DELETE、MERGE をサポート Amazon Redshift で Apache Iceberg テーブルに対する UPDATE、DELETE、MERGE 操作がサポートされました。これまで Iceberg テーブルの個別行を修正するには外部エンジンが必要でしたが、今回のアップデートにより Redshift から直接データ操作が可能になります。データパイプラインの複雑さや遅延を削減でき、変更データキャプチャや緩やかに変化するディメンションなどの一般的なデータ統合パターンで活用できます。詳細は こちらのドキュメントをご参照ください。 AWS Client VPN が AWS Transit Gateway とのネイティブ統合をサポート AWS Client VPN が AWS Transit Gateway とのネイティブ統合をサポートしました。これまで複数の VPC にリモートアクセスするには中間 VPC の管理が必要でしたが、今回のアップデートで不要になり運用が大幅に簡素化されます。さらにエンドユーザーの IP アドレスが保持されるため、セキュリティ監査やトラブルシューティングが容易になります。詳細は こちらのドキュメントをご参照ください。 Amazon Athena がマネージドコネクタでフェデレーテッドクエリを簡素化 Amazon Athena で DynamoDB や PostgreSQL、MySQL、Snowflake など 12 のデータソースに対するマネージド コネクタが提供開始されました。従来は S3 以外のデータをクエリするためにコネクタリソースのデプロイや管理が必要でしたが、マネージド コネクタにより Athena が自動でセットアップと管理を行うため、この手間が不要になりました。データを移動することなく、複数のデータソースを横断してクエリできるため、分析作業が大幅に効率化されます。詳細は こちらのドキュメントをご参照ください。 4/24(金) Amazon Connect が AI エージェントのパフォーマンスを測定・改善するための 8 つの新しいメトリクスを提供開始 Amazon Connect で AI エージェントの性能を測定する 8 つの新しいメトリクスが利用可能になりました。ゴール成功率や忠実度スコア、ツール選択精度などを通じて、AI が顧客の問い合わせを正しく解決できているかを詳細に分析できます。従来は AI エージェントの品質評価が困難でしたが、今回のアップデートで定量的な改善が可能になります。専用ダッシュボードや API を通じてデータにアクセスでき、カスタマーサポートの質向上に活用できます。詳細は こちらのドキュメントをご参照ください。 Amazon Bedrock AgentCore Gateway と Identity が VPC egress をサポート Amazon Bedrock AgentCore Gateway と Identity が VPC egress をサポートし、プライベートネットワーク内のリソースと安全に通信できるようになりました。従来は外部からアクセスできないプライベート環境のリソース呼び出しが困難でしたが、今回のアップデートにより EKS 上の MCP サーバーなどを直接利用可能になります。マネージド設定で簡単に開始でき、複雑な要件には自己管理も選択できます。東京リージョンを含む 14 リージョンで利用可能です。 詳細はこちらのドキュメントをご参照ください。 Amazon Q がワークフォースインテリジェンスのための Visier の Vee エージェントと統合 Amazon Quick が Visier の AI アシスタント Vee と統合されました。これにより HR や財務担当者が Amazon Quick 内で直接人事データにアクセスできるようになります。従来はツールを切り替える必要がありましたが、今回のアップデートで自然言語による質問で人員数や離職率などの情報を瞬時に取得可能です。詳細は こちらの Blog 記事をご参照ください。 それでは、また来週お会いしましょう! 著者について 戸塚 智哉(Tomoya Tozuka) / @tottu22 飲食やフィットネス、ホテル業界全般のお客様をご支援しているソリューション アーキテクトで、AI/ML、IoT を得意としています。最近では AWS を活用したサステナビリティについてお客様に訴求することが多いです。 趣味は、パデルというスペイン発祥のスポーツで、休日は仲間とよく大会に出ています。
みなさん、こんにちは。AWS ソリューションアーキテクトの野間です。最近1週間の生成 AI を巡っては、Anthropic Claude Opus 4.7 の Amazon Bedrock 対応や、東京リージョンでの提供開始をはじめとして、「より強いモデルを、より現場に近い場所で動かす」ためのアップデートが相次ぎました。また4月20日〜24日に開催された Hannover messe では、AI技術による生産プロセスの最適化、効率化、そして企業の競争力向上と持続可能性が主要なテーマとなっていました 。データ分析中心のAIから「物理世界で自律的に動くフィジカルAI」への移行の加速が進んでいます。そして、AWS界隈も目が離せません。 それでは 4月 20 日週の生成 AI with AWS界隈のニュースを見ていきましょう。 さまざまなニュース ブログ記事「 富士通株式会社様との AI-DLC Unicorn Gym で見えた開発の未来 」 AWSが提唱するAI駆動開発ライフサイクル(AI-DLC)を実践的に学ぶプログラム「Unicorn Gym」に、富士通株式会社が参加した際の取り組みを紹介するブログです。7チーム40名弱が3日間、Amazon Bedrock AgentCoreやAmazon Connectなどを活用しながら、COBOLからJavaへの移行、ペーパーレス化システム、AIエージェントプラットフォーム、自動架電システムといった実課題に取り組んだ内容がまとめられています。記事では、COBOLからJavaへの移行で約4,300行のコードを自動生成した事例など、生成AIを活用した開発の具体的な成果が数字とともに語られています。あわせて、SE(システムエンジニア)の役割が「コードを書く力」から「仕様を策定する力」や「AIが生成した成果物をレビューする力」へとシフトしていく点にも触れられており、生成AIを使った開発プロセスを組織に取り入れたいユーザーにとって導入のヒントになる内容です。 ブログ記事「 【開催報告 & 資料公開】お試しから卒業!Kiro の仕様駆動開発を本格活用 in 大阪 」 2026年3月17日にアマゾン ウェブ サービス ジャパン 大阪オフィスで開催された「AWS Business Innovation Series – West Japan」第1回の開催報告ブログです。18社37名が参加し、AWSが提供するIDE「Kiro」を使った仕様駆動開発を、座学・ハンズオン・ハッカソンの3ステップで体験する内容が実施されました。参加者の約85%がIT部門、15%が事業部門で、開発経験者は全体の約10%と少数だった点が特徴で、普段コードを書かない参加者でも半日で動作するプロトタイプまで作れたという反応が紹介されています。「Vibe Coding」と「Specモード」の体験を通じて、要件定義から実装までの流れを掴める構成になっており、生成AIを使った開発に興味はあるが何から始めればよいか迷っているユーザーにとって、社内での取り組みを検討する際の参考になる内容です。 ブログ記事「 AUMOVIO が Amazon Bedrock 搭載のエージェント型コーディングアシスタントでソフトウェア開発を強化 」 自動車部品サプライヤーのAUMOVIO社が、AWSと協業してエージェント型のコーディングアシスタントを開発した事例を紹介するブログです。Amazon BedrockやAmazon SageMaker、AWS Lambdaなどを組み合わせ、自動車特有のコードベース(約7,000関数)でモデルをファインチューニングし、オープンソースの「Cline」を活用したエージェントとして実装されています。自動車業界のようにAUTOSARやMISRA-C/C++といった業界標準への準拠が求められる領域でも、ドメインに特化したファインチューニングとエージェント型のアプローチを組み合わせることで、コーディング支援の実用性を高められる点が特徴です。記事内ではシニア開発者が5日間かけていたバグ修正が数分で完了した例や、冗長なコードを削除してファイルサイズを半減させた事例も紹介されており、業界固有のルールを持つ組織で生成AIによる開発支援を検討しているユーザーにとって参考になる内容です。 ブログ記事「 AI for Science – AI がもたらす研究新時代 」 創薬・ゲノミクス・材料科学・気候科学・物理学といった科学研究の領域で、AI活用が実用段階に入りつつあるという「AI for Science」の潮流を解説したブログです。Amazon Bedrock、Amazon SageMaker AI、Amazon Textract、Amazon Comprehendなどを組み合わせた研究基盤の構成や、Genomics England、Allen Institute、LILA Sciences、アリゾナ大学といった海外の先進事例が紹介されています。文部科学省が推進する「SPReAD」事業の開始タイミングにあわせて、大学や研究機関の研究者に向けて書かれている点が特徴で、8〜12週間の小規模なPoC(概念実証)から始める段階的な進め方が示されています。研究データが基盤モデルの学習に利用されない仕組みなど、知的財産や個人情報に関するデータ保護の考え方にも触れられており、AI活用を検討している研究機関やそれを支援する立場のユーザーにとって参考になる内容です。 ブログ記事「 EngineLab AI: AWSで実現するスタジオとクリエイター向け本番制作AI環境 」 EngineLab社が提供するマネージドデプロイメントプラットフォーム「EngineLab AI」を、Amazon EC2のGPUインスタンスやAWS Deadline Cloud上で活用する方法を紹介するブログです。映像・メディア制作の現場でよく使われるComfyUIなどの生成AIアプリケーションを、本番環境で安定して運用するための構成が解説されています。顧客自身のAWSアカウント内にデプロイされるためデータがプラットフォーム外に出ず、知的財産(IP)を社内に留められる点や、必要なときだけGPUリソースを使うオンデマンド型の構成でオンプレミスの固定費を抑えられる点が特徴です。ノードベースの操作に慣れた上級者向けのUIと、技術知識のないクリエイター向けのArtist UIを両立している点にも触れられており、スタジオやクリエイター組織で生成AIを制作ワークフローに組み込みたいと考えているユーザーにとって、実装イメージをつかめる内容です。 ブログ記事「 開発現場から全社展開へ:Amazon Bedrock で Claude Cowork を動かす 」 Anthropic社が提供するデスクトップアプリ「Claude Cowork」を、Amazon Bedrockをバックエンドとして動かす方法を紹介するブログです。ドキュメントの読み取りや複数ステップのリサーチ、ファイル処理などをアプリ上で行いつつ、データを自社のAWSアカウント内に保持したまま利用できる構成が解説されています。Claude Codeのような開発者向けツールから一歩進んで、プロダクトマネージャー、オペレーションマネージャー、ファイナンスアナリストなど、社内のナレッジワーカー全体に生成AIの活用を広げていく展開イメージが示されている点が特徴です。MDM(モバイルデバイス管理)による一元的な設定配布や、シートライセンス不要の従量課金モデルにも触れられており、開発チームで始めた生成AI活用を組織全体にスケールさせたいと考えているユーザーにとって参考になる内容です。 ブログ記事「 AI 駆動の業務変革手法:『課題は何ですか?』と聞くのをやめた日 」 AWSが開発した業務変革プログラム「AI BPR(AI-driven Business Process Re-Engineering)」について、試行錯誤の過程とともに紹介するブログです。初期の「課題解決型」アプローチが機能しなかった経験から、組織心理学の理論(Appreciative Inquiryなど)を取り入れて再設計し、Observe・Shift・Simulate・Forecastという4段階のフレームワークに行き着いた経緯が解説されています。生成AIの導入は技術的な問題よりも、組織が変化を受け入れる「適応課題」である点に焦点を当てている点が特徴で、AI活用を進めたいがなかなか現場が動かないと感じているユーザーにとって、アプローチを見直すヒントになる内容です。 ブログ記事「 IAM プリンシパルベースのコスト配分で Amazon Bedrock のコストを呼び出し元ごとに追跡する 」 Amazon Bedrockの利用コストを、呼び出し元のIAMユーザーやIAMロール単位で追跡できる新機能を紹介するブログです。Bedrock APIの呼び出しごとにIAMプリンシパルのIDが自動的に記録され、AWS Cost and Usage Report(CUR 2.0)やAWS Cost Explorerでプリンシパル単位のコストを可視化できるようになります。これまではBedrockの利用料金が単一の明細にまとまって表示されていたため、どのチームやプロジェクトがどれだけ使っているかを把握するにはAWS CloudTrailのログと突き合わせる必要がありました。この機能により、チャージバック(社内費用配賦)が正確に行えるようになり、複数チームで生成AIを活用している組織のコスト管理の負荷を下げられます。API Gateway経由でBedrockを呼び出す構成では中間ロールにコストが集約されるため、セッションタグでの動的な帰属が推奨されるといった実装上の注意点にも触れられています。 ブログ記事「 VPC 内のプライベートサービスに AWS DevOps Agent をセキュアに接続する方法 」 AWS DevOps Agentから、Amazon VPC内に閉じたプライベートなサービスに安全にアクセスする構成方法を紹介するブログです。Amazon VPC Latticeのリソースゲートウェイを経由して接続を確立し、セキュリティグループでトラフィックを制御する構成が解説されています。パブリックインターネットに公開することなく、エージェントから社内のプライベートなサービスにアクセスできる点がポイントで、具体例としてセルフホスト型Grafanaへの接続手順が紹介されています。これによりエージェントがオブザーバビリティ(システムの可視化)データを参照できるようになり、インシデント対応時の調査を自動化しやすくなります。AWS CLIとマネジメントコンソールの両方で設定手順が記載されているため、運用環境へのAWS DevOps Agent導入を検討しているユーザーにとって参考になる内容です。 ブログ記事「 Amazon Bedrock での Anthropic の Claude Opus 4.7 モデルのご紹介 」 Anthropic社の最新モデル「Claude Opus 4.7」がAmazon Bedrockで利用できるようになったことを紹介するブログです。米国東部(バージニア北部)、アジアパシフィック(東京)、欧州(アイルランド)、欧州(ストックホルム)の各リージョンで提供され、最大100万トークンのコンテキストウィンドウに対応しています。自律的にコーディングを進めるエージェンティックな用途での性能が向上しており、SWE-Bench Proで64.3%、Finance Agent v1.1で64.4%といったベンチマーク結果が紹介されています。Converse API、Invoke API、Messages APIといった複数の呼び出し方法に対応しているほか、新しい推論エンジンによる動的なキャパシティ割り当てやリクエスト数のスケールにも触れられており、長いドキュメントを扱う業務や、複数ステップにわたるコーディング・分析タスクにClaudeを組み込みたいと考えているユーザーにとって参考になる内容です。 ブログ記事「 Opus 4.7 が Kiro で利用可能になりました 」 Anthropic の最新モデル Claude Opus 4.7 が Kiro IDE および CLI に順次展開されました。Opus 4.6 の直接アップグレード版として、複雑で長時間にわたるタスクでのコーディング性能が向上し、複数ファイル・ツールにまたがるマルチステップ実装や自己検証機能を備えています。Kiro の仕様駆動開発との親和性も高く、大規模コードベースでの高忠実度な実装を実現します。 ブログ記事「 Kiro CLI をプログラムから実行する:ヘッドレスモードの紹介 」 Kiro CLIを、ブラウザを介さずにプログラムから実行できる「ヘッドレスモード」を紹介しています。APIキーを発行して環境変数に設定するだけで、CI/CDパイプラインやcronジョブなど無人の自動化環境でKiroを動かせるようになります。具体例として、GitHub Actionsと組み合わせてプルリクエストに自動でコードレビューを行う実装方法が紹介されています。コードレビュー以外にも、ドキュメント生成、依存関係の監査、マイグレーション支援など幅広い用途に応用できる点が特徴で、開発者の手元だけでなく、CIパイプラインの中に生成AIを組み込んでいきたいと考えているユーザーにとって参考になる内容です。 ブログ記事「 Kiro でビルドする:コミュニティハブと Kiro Labs の紹介 」 Kiroのエコシステム拡張として、「Kiro Community(コミュニティハブ)」と「Kiro Labs」の2つが発表されました。コミュニティハブは開発者の実験的なプロジェクトの共有や、Discord・イベントを通じた情報交換の場として機能し、Kiro Labsはアマゾン社員が構築したオープンソースプロジェクト群を公開する場として位置づけられています。Kiro Labsではカスタムワークフロー、UI、生産性向上ツールなどが「as-is」で提供され、アクティブ・メンテナンス・アーカイブの3段階のステータスが付与されるほか、Amazonのオープンソース基準に沿ったセキュリティレビューも行われます。Kiroをすでに使っているユーザーにとっては、他の開発者の実装例を参照してワークフローを組み立てたり、プルリクエストで貢献したりといった形で活用できるリソースが増える内容です。 サービスアップデート Claude Platform on AWSが近日公開 Anthropic社が提供するネイティブのClaudeプラットフォームを、AWSの認証情報と請求の仕組みでそのまま利用できる「Claude Platform on AWS」が近日公開として発表されました。Anthropic本家のプラットフォームと同じAPIや機能にアクセスできるため、Claudeの最新機能をいち早く利用できるのが特徴です。利用にあたっては、別途Anthropicとの契約や認証情報を用意する必要はなく、既存のAWSアカウントとIAMポリシーをそのまま使えます。APIコールはAWS CloudTrailに記録されるため、ほかのAWSサービスと同じように監査ログを一元的に管理でき、利用料金もAWSの請求書にまとめられます。Amazon Bedrockが「AWSの基盤上でClaudeを動かし、データをAWS内で処理・保持する」位置づけなのに対し、Claude Platform on AWSは「Anthropic側のプラットフォームをAWSの認証・請求で使う」という選択肢を提供する形で、ユースケースに応じて使い分けられる点がポイントです。 Amazon Bedrock AgentCoreが新機能を追加しエージェント開発を加速 Amazon Bedrock AgentCoreに、エージェント開発を加速するための新機能が追加されました。モデル・システムプロンプト・ツールを指定するだけで即座にエージェントを動かせる「マネージドハーネス(プレビュー)」、AWS CDK対応でコードベースのガバナンスを実現する「AgentCore CLI」、コーディング支援ツール向けの事前構築スキル「AgentCore Skills」の3つが提供されます。オーケストレーションコードを書かずにアイデアからプロトタイプまでを素早く立ち上げられる点が特徴で、プロトタイプの進化に合わせて評価・メモリ・ツールを段階的に追加していくこともできます。AgentCore SkillsはまずKiroから利用でき、Claude Code・Codex・Cursorにも順次対応予定です。マネージドハーネスは米国西部(オレゴン)、米国東部(バージニア北部)、欧州(フランクフルト)、アジアパシフィック(シドニー)の4リージョンでプレビュー提供されています。 Amazon QuickがVisierのVeeエージェントと統合し、ワークフォースインテリジェンス機能を提供 Amazon Quickが、Visier社の人材分析プラットフォームのAIアシスタント「Vee」とMCP(Model Context Protocol)経由で統合されました。これにより、Amazon Quickのワークスペース内から、Visierが管理する人員数・離職率・勤続年数・求人情報などのワークフォースデータに自然言語でアクセスできるようになります。人事・財務・オペレーション部門の担当者が、ツールを切り替えることなく組織の人材データを参照できるようになる点が特徴で、定期的なワークフォースレビューやドキュメント作成をQuick Flowsで自動化する使い方も想定されています。Amazon Quickがサポートする全リージョンで利用でき、組織全体の予算やポリシーデータと合わせて意思決定に活用したいユーザーにとって参考になる内容です。 Amazon Bedrock AgentCore GatewayとIdentityがVPC egress に対応 Amazon Bedrock AgentCore GatewayとAmazon Bedrock AgentCore Identityが、VPC egress(VPC内のプライベートリソースへの接続)に対応しました。マネージド型のVPC egressと、自己管理型のAmazon VPC Latticeリソースの両方から構成を選択でき、東京リージョンを含む14のAWSリージョンで利用可能です。これにより、Amazon EKS上でホストしているMCPサーバーや、社内ネットワーク内のプライベートなアイデンティティプロバイダー(IdP)、プライベートDNSで名前解決するリソースなどに、AgentCoreから直接アクセスできるようになります。エージェントからプライベートなエンタープライズシステムに安全に接続したいユーザーにとって、構成の選択肢が広がる内容です。 Amazon SageMaker HyperPodが自動Slurmトポロジー管理に対応 Amazon SageMaker HyperPodが、ネットワークトポロジーを自動で選択・最適化する機能に対応しました。GPUインスタンスタイプに応じてツリートポロジー(階層的な相互接続)とブロックトポロジー(均一な高帯域幅)を自動で選び、クラスターのスケール変更やノード置換の際にも継続的に最適化されます。これまでSlurm設定ファイルやトポロジーファイルを手動で管理していた運用から解放され、GPU間通信(NCCL集約通信)の効率を保ったまま分散学習を進められる点が特徴です。機能はデフォルトで有効化されており設定不要なため、大規模な分散学習を行うユーザーにとって運用負荷の軽減につながる内容です。 Amazon SageMakerがIAM Identity Centerドメインでノートブックとデータエージェントに対応 Amazon SageMaker Unified Studioで、これまでIAMドメインでのみ利用できたサーバーレスノートブックと組み込みのデータエージェントが、AWS IAM Identity Center(IdC)ドメインでも利用できるようになりました。Amazon Athena for Apache Sparkと連携し、SQL・Python・自然言語を単一の対話型ワークスペース上で組み合わせて扱えます。AWS IAM Identity Centerで認証・アクセス管理を一元化している組織でも、IAMドメインと同等の分析・機械学習機能が使えるようになる点がポイントで、AIデータエージェントが自然言語のプロンプトからコードを生成する機能や、ペタバイト規模のデータ処理にも対応しています。シングルサインオン環境を維持したままデータ分析基盤を整備したいユーザーにとって参考になる内容です。 Amazon QuickがSharePointとGoogle Driveを対象としたナレッジベースで複数所有者機能をサポート Amazon Quickで、Microsoft SharePointとGoogle Driveを対象とした管理者管理型のナレッジベースに、複数の所有者を追加できるようになりました。所有者には「オーナー」と「ビューアー」の2種類があり、オーナーは編集・同期・共有・削除を含む管理権限を、ビューアーはクエリのみの権限を持ちます。これまでナレッジベースが単一の所有者に依存していた運用から、チーム単位での共同管理が可能になる点が特徴で、既存のデータソース接続をそのまま再利用できるため、認証情報を再入力する必要もありません。東京リージョンを含む7つのAWSリージョンで利用でき、複数メンバーで社内ナレッジの整備を担当しているユーザーにとって運用がしやすくなる内容です。 Amazon QuickがACL対応ナレッジベースの権限検証機能をサポート Amazon QuickのACL(アクセス制御リスト)対応の知識ベースで、特定のユーザーが特定のドキュメントにアクセスできるかを検証するPermission Checker機能が追加されました。管理者は「Sync reports」タブからメールアドレスを入力することで、アクセス可否や、対象ドキュメントにアクセス可能なユーザー・グループ一覧を確認できます。これまではデータソース側の権限継承を手作業で追いかける必要があり、権限設定のトラブルシューティングに手間がかかっていました。機密情報が想定外のユーザーに参照されていないかを体系的にチェックできるようになるため、社内ナレッジを扱う知識ベース運用のセキュリティ確認を効率化したいユーザーにとって役立つ内容です。東京リージョンを含む7つのAWSリージョンで利用できます。 Amazon SageMaker Unified StudioがIAMドメインのプロジェクト内で複数コードスペースに対応 Amazon SageMaker Unified Studioで、IAMドメインの単一プロジェクト内に複数のコードスペース(個別に設定できる開発環境)を作成・管理できるようになりました。従来はプロジェクトあたりJupyterLabスペース1つとCode Editorスペース1つに限られていましたが、それぞれ独立したAmazon EBSボリュームを持つ複数のスペースを用意できます。長時間のデータ変換ジョブを動かしながら別スペースでモデル学習を進めるといった並行作業がしやすくなる点が特徴で、スペースごとに計算リソースやストレージをスケールさせたり、一時停止・再開したりできます。ブラウザからもローカルIDEからも接続でき、Amazon Q有料版にも対応しているため、1つのプロジェクト内で複数のワークストリームを回しているデータサイエンティストにとって作業効率の向上につながる内容です。 Amazon SageMaker AIがQwen3.5モデルのサーバーレスモデルカスタマイズに対応 Amazon SageMaker AIで、Alibaba Cloudが提供するQwen3.5モデル(4B・9B・27Bパラメータ版)に対するサーバーレスのファインチューニングがサポートされました。教師ありファインチューニング(SFT)と強化学習ファインチューニング(RFT)の両方に対応し、クラスター管理を行わずにモデルカスタマイズを実行できます。自社の独自データでモデルを調整して業界特有の用語や品質基準に適応させたい場合でも、インフラの構築や運用はAmazon SageMaker AI側が担うため、データや評価設計に集中できる点が特徴です。利用した分だけの従量課金モデルで、東京リージョンを含む4つのAWSリージョン(米国東部(バージニア北部)、米国西部(オレゴン)、アジアパシフィック(東京)、欧州(アイルランド))で提供開始されており、Qwen3.5を自社ユースケース向けに特化させたいユーザーにとって選択肢の一つになります。 Amazon SageMaker AIが生成AI推論レコメンデーション機能を提供開始 Amazon SageMaker AIに、生成AIモデルの推論環境を自動でベンチマークし、最適な構成を提案する「推論レコメンデーション」機能が追加されました。ユーザーがモデルとトラフィックパターン、性能目標(コスト最適化・レイテンシー最小化・スループット最大化のいずれか)を指定すると、システムが複数のインスタンスタイプを評価し、検証済みのメトリクスとともにデプロイ可能な構成を返します。初回応答時間(TTFT)、トークン間レイテンシー、スループット、コスト予測といった指標が一度にまとめて得られるため、手動でベンチマークを組んで比較する手間を省ける点が特徴です。東京リージョンを含む7つのAWSリージョンで利用でき、生成AIモデルを本番展開する際のインスタンス選定に悩んでいるユーザーにとって参考になる内容です。 Amazon SageMaker JumpStartで5つの新しいQwenモデルが利用可能に Amazon SageMaker JumpStartで、Alibabaが提供するQwenシリーズの新しい5つのモデルが利用できるようになりました。ツール利用や実行失敗からの復旧に対応する「Qwen3-Coder-Next」、思考モードの切り替えに対応した「Qwen3-30B-A3B」、数学・科学・コーディングの推論に特化した「Qwen3-30B-A3B-Thinking-2507」、エージェント型コーディング向けの「Qwen3-Coder-30B-A3B-Instruct」、マルチモーダルに対応する軽量モデル「Qwen3.5-4B」の5種類です。数クリックでデプロイできるJumpStartの特性を活かして、コーディングエージェントや多言語アプリケーション、軽量モデルでのコスト最適化された推論など、用途に応じたモデルを選択しやすくなっています。Qwenシリーズを自社のユースケースで試したいユーザーにとって、選択肢が広がる内容です。 Amazon EC2 G7eインスタンスがAWS Local Zonesロサンゼルスで利用可能に Amazon EC2のG7eインスタンスが、AWS Local Zonesのロサンゼルス(us-west-2-lax-1b)で利用できるようになりました。NVIDIA RTX PRO 6000 Blackwell Server Edition GPUと第5世代Intel Xeon Scalableプロセッサを搭載しており、VFXや色補正などのクリエイティブ制作から、大規模言語モデルの推論といったAIワークロードまで幅広く対応します。ロサンゼルス周辺でスタジオワークステーションやポストプロダクション、エッジでのAI推論といった低レイテンシーが求められる用途に、地理的に近い場所からGPUリソースを利用できる点がポイントです。オンデマンドとSavings Plansの両方で購入でき、メディア・エンタテインメント業界やエッジAIの導入を検討しているユーザーにとって選択肢の一つになる内容です。 「 AWS ジャパン生成 AI 実用化推進プログラム 」も引き続き実施中ですので検討してみてください。 今週は以上です。それでは、また来週お会いしましょう! 著者について 野間 愛一郎 (Aiichiro Noma) AWS Japan のソリューションアーキテクトとして、製造業のお客様を中心に日々クラウド活用の技術支援を行なっています。データベースやデータ分析など、データを扱う領域が好きです。最近天ぷらを(食べるのではなく)揚げるほうにハマってます。
ABEMAの広告配信システムのバックエンド開発を担当している黒崎 ( @kuro_m88 )です。 ...















