TECH PLAY

IDE

イベント

該当するコンテンツが見つかりませんでした

マガジン

技術ブログ

本記事は 2026 年 4 月 30 日に公開された Ankit Sharma、Brian Beach による “ Amazon Q Developer end-of-support announcement ” を翻訳したものです。 私たちが Amazon Q Developer を立ち上げたときの目標は、AI による支援を開発者の作業の流れに直接組み込むことでした。お客様は VS Code、JetBrains、Eclipse、Visual Studio にわたって Q Developer を導入し、コード生成やデバッグ、チャットベースのガイダンスに活用してきました。Q Developer は、AI が日々の開発サイクルに欠かせない存在であることを証明しました。 この 1 年で私たちが学んだのは、もっともインパクトのある AI 開発者体験はコード生成や補完にとどまらないということです。開発者には、プロジェクト全体 —— アーキテクチャ、要件、テスト、そしてコードの背後にある意図 —— を理解する AI が必要です。そのためには、専用に設計された環境が必要になります。それこそが、私たちが Kiro を構築した理由です。 Kiro とは 、仕様駆動開発(spec-driven development)のためにゼロから構築されたエージェント型の開発環境(IDE、CLI)です。個別のプロンプトに反応するのではなく、構造化された仕様をもとに計画・実装・検証をコードベース全体にわたって進めます。主な機能は次のとおりです。 Specs —— 構築したいものを構造化された自然言語の要件として定義し、Kiro がそれをもとに実装を最初から最後まで進めます。 Hooks —— ファイル保存やコミットなどのイベント発生時に自動で実行されるトリガーです。手動での操作なしに、標準の適用、テストの実行、ドキュメントの更新を行います。 Steering files —— プロジェクト単位の設定ファイルで、アーキテクチャや規約、制約についての永続的なコンテキストを Kiro に提供します。 Custom subagents —— セキュリティレビュー、API 契約の検証、インフラのプロビジョニングなど、ドメイン固有のタスクのために自分で定義できる専用の AI エージェントです。 Powers —— Kiro のエージェント的な振る舞いを自分の開発プロセスに合わせて拡張できる、組み合わせ可能な機能モジュールです。 Kiro には、現在の Q Developer で開発者が活用している機能もすべて含まれています。エージェント型コーディング、インラインチャット、ターミナル統合、そして MCP サポートです。 何が変わるのか Amazon Q Developer の IDE プラグインと有償サブスクリプションは、2027 年 4 月 30 日にサポートを終了します。お客様には Kiro への移行期間として 12 か月が用意されています。 2026 年 5 月 15 日以降、新規サインアップを受け付けなくなります。 IDE プラグインから Builder ID を用いた Q Developer 無料利用枠アカウントの新規作成、および AWS コンソールからの Q Developer サブスクリプションの新規作成はブロックされます。 モデルが変更されます。  2026 年 5 月 29 日より、Q Developer Pro では Opus 4.6 が利用できなくなります。Opus 4.5 やその他の既存モデルは引き続き利用できます。Opus 4.7 を含む最新のコーディングモデルは Kiro でのみ利用できます。 既存のお客様はアクセスを維持できます。 Q Developer Pro サブスクリプションまたは Kiro サブスクリプションを通じて Q Developer をご利用の場合、2027 年 4 月 30 日までは引き続き Q Developer の IDE プラグインにアクセスできます。2026 年 5 月 15 日の変更は、Q Developer アカウントおよびサブスクリプションの新規サインアップにのみ影響します。 IDE プラグインの掲載は継続します。 Q Developer のプラグインは、4 つの IDE マーケットプレイスすべてで引き続き公開され、ユーザーを Kiro へ案内する非推奨の通知が表示されます。移行期間中は、既存ユーザー向けに重要なバグ修正の配信が継続されます。 何が変わらないのか AWS マネジメントコンソールおよび AWS ファーストパーティの体験(AWS マーケティングサイト、AWS ドキュメントサイト、AWS Console Mobile App、チャットアプリ向け Amazon Q Developer —— Slack および Microsoft Teams)における Amazon Q Developer は、今回のサポート終了の影響を受けず、引き続き AWS のお客様にご利用いただけます。これらのプロダクトで Q Developer をお使いのお客様は、現在のサブスクリプションの特典と機能を引き続きご利用いただけます。 お客様にお願いしたいこと 今日から Kiro を試してみてください。 kiro.dev から Kiro をダウンロードし、次のプロジェクトで仕様駆動開発を体験してみてください。 ご利用の IDE に合わせた 移行ガイド をご確認ください。 移行についてご質問がある場合は、担当の AWS アカウントチームまでお問い合わせください。 私たちは AI を活用した開発の未来にわくわくしており、すべてのお客様にとってこの移行ができる限りスムーズなものとなるよう取り組んでいきます。 翻訳は App Dev Consultant の宇賀神が担当しました。
こんにちは。SCSK渡辺(大)です。 2026年1月〜4月にかけて、 AWSとAnthropic の協業が一気に加速しました。 新モデルの連続リリース、開発者ツールの統合深化、サイバーセキュリティの新イニシアチブ、そして史上最大規模の投資拡大まで。 正直、情報を追いきれないので Kiro に整理してもらいました。 本記事では、この期間に発表された主要ニュースを時系列で整理し、 それぞれ 「誰にとって嬉しいのか」「何が変わるのか」 を掘り下げます。 引用元はAWSまたはAnthropicの公式サイト・ブログを中心にしています。   忙しい人向け:3分でわかるまとめ この4ヶ月を一言でまとめると、 「Claudeが開発者のツールから、組織全体のインフラへと進化した」 ということです。 なぜそう言えるのか?以下の3つの変化が根拠です: 使える人が広がった :これまでClaude CodeはエンジニアがBedrock経由で使うものでしたが、 Claude Cowork の登場で営業・経理・人事など エンジニア以外の全社員 がClaude Desktopを安全に使えるようになりました 管理の仕組みが整った : IAMプリンシパル別コスト配分 により 「誰がいくら使ったか」が見える化 され、組織全体でのAI利用を管理できるようになりました 長期的な安定供給が保証された : Amazonの最大330億ドル投資 と、Anthropicの10年1,000億ドルAWS支出コミットにより、 両社の協業が長期的に継続する見通し となりました 以下のテーブルは、 AWS × Anthropicのエコシステム全体 がこの4ヶ月でどう変わったかを、レイヤーごとに整理したものです。 レイヤー 説明 2025年末まで 2026年4月時点 Claudeモデル Bedrock上で使えるAnthropicのAI Opus 4.5 / Sonnet 4.5 Opus 4.7 / Sonnet 4.6 / Mythos Preview 開発者ツール エンジニアがコードを書くためのツール Claude Code(Bedrock対応済み)/ Kiro Claude Code + Claude Cowork(Bedrock対応)+ Kiro(GovCloud対応・Opus 4.7対応) エージェント基盤 AIが自律的にタスクを実行する仕組み AgentCore Runtime AgentCore Runtime + Managed Harness + CLI + Skills コスト管理 Bedrockの利用料金の可視化 AWSアカウント単位でしか把握できない IAMプリンシパル単位(チーム別・個人別に把握可能) Claudeの利用方法 AWSアカウントからClaudeを使う手段 Amazon Bedrockのみ Amazon Bedrock + Claude Platform on AWS(Preview) セキュリティ AIを使った防御の取り組み 標準的なモデル利用 Project Glasswing(Mythosによるゼロデイ脆弱性の自動発見) 認定資格 Claudeのスキルを証明する試験 なし CCA Foundations(Anthropic初の公式認定試験) 投資規模 AmazonからAnthropicへの出資額 Amazon累計80億ドル Amazon累計最大330億ドル / Anthropic 10年間で1,000億ドル以上をAWSに支出コミット 特に注目すべき3つのニュース Project Glasswing(4月7日) — Anthropicの最強モデ ル「Claude Mythos」 がサイバーセキュリティ特化で限定公開。AWS・Apple・Google・Microsoftなど約50組織がパートナーに。コーディング能力テスト(SWE-bench Verified) で93.9%、サイバーセキュリティテスト(Cybench)で100%を達成 Amazon × Anthropic 投資拡大(4月20日) — Amazon 50億ドル追加投資、Anthropic 10年間で1,000億ドル以上をAWSに支出コミット。新たに「Claude Platform on AWS」も発表 Claude Cowork in Bedrock(4月21日) — エンジニア以外もClaude Desktopを安全に使えるように。データはAWS内に留まり、Anthropicへのシートライセンス(1人あたり月額○円)は不要の従量課金 観点別の評価 観点 良い点 検討・留意すべき点 コスト Sonnet 4.6がOpus並みの性能をより低コストで提供。IAMプリンシパル別コスト配分で可視化も改善。Coworkはシートライセンス不要の従量課金 Opus系は高性能な分、料金も相応(入力5ドル/出力25ドル per 100万トークン)。Claude Codeの利用量は開発者によって大きく異なるため、IAMコスト配分を活用した予算管理の仕組みづくりが重要 セキュリティ Project Glasswingは防御側に先行アクセスを提供する画期的なアプローチ。Bedrock経由ならデータはAWS内に留まる Mythos Previewは現時点では限定公開のため、一般利用はできない。AI全般の能力向上に伴い、防御側・攻撃側双方の能力が高まる点は業界全体の課題として注視が必要 選択肢と柔軟性 Claude Platform on AWSの登場で選択肢が増加。Claudeは3大クラウド(AWS / GCP / Azure)すべてで利用可能な唯一のフロンティアモデル AWSとAnthropicの長期的なパートナーシップが深まる中、自社の要件に合った利用形態(Bedrock / Claude Platform on AWS / 直接API)を選定することが重要 開発者体験 Claude Code / Cowork / Kiro / AgentCoreの統合が進み、「開発→テスト→デプロイ→運用」の全フェーズでClaude + AWSの組み合わせが使える ツールの選択肢が増えた分、「どれを使うべきか」の判断が複雑に。用途に応じた使い分けガイドの整備が望まれる ここから先は各ニュースの詳細です。気になるトピックだけ読んでもOKです。   目次 タイムライン一覧 Claude Opus 4.6 — Bedrock提供開始(2月5日) Claude Sonnet 4.6 — Bedrock提供開始(2月17日) Kiro — Claudeモデル対応の加速(2月〜4月) Claude Certified Architect — Foundations 試験開始(3月12日) Project Glasswing & Claude Mythos Preview(4月7日) Bedrock IAMプリンシパル別コスト配分(4月上旬) Claude Opus 4.7 — Bedrock提供開始(4月16日) Amazon × Anthropic 投資拡大 & Claude Platform on AWS(4月20日) Claude Cowork in Amazon Bedrock(4月21日) AgentCore新機能 — Managed Harness / CLI / Skills(4月22日) 今後の注目ポイント 引用元一覧   タイムライン一覧 日付 ニュース ひとことで言うと 2月5日 Claude Opus 4.6 Bedrock提供開始 Anthropicの最高性能モデルがAWSで使える 2月17日 Claude Sonnet 4.6 Bedrock提供開始 Opusに迫る性能をより安く 2月5日〜 Kiro — Claudeモデル対応の加速 GovCloud対応、Opus/Sonnet 4.6即日対応、1Mコンテキスト 3月12日 Claude Certified Architect Foundations Anthropic初の公式認定資格 4月7日 Project Glasswing & Claude Mythos AIがゼロデイ脆弱性を自動発見する時代の幕開け 4月17日 Bedrock IAMプリンシパル別コスト配分 「誰がいくら使ったか」が見える化 4月16日 Claude Opus 4.7 Bedrock提供開始 コーディング性能がさらに向上、東京リージョン対応 4月20日 Amazon 50億ドル追加投資 & Claude Platform on AWS 史上最大規模のAI投資。Claudeの安定供給を長期保証 4月21日 Claude Cowork in Amazon Bedrock エンジニア以外もClaude Desktopを安全に使える 4月22日 AgentCore Managed Harness / CLI / Skills コードを書かずにAIエージェントを動かせる   この記事で出てくる用語の補足 AIモデルやAWSサービスの名前がたくさん出てくるので、先に整理しておきます。 用語一覧を開く(クリックで展開) 用語 ざっくり言うと Amazon Bedrock AWSが提供する「AIモデルの窓口」サービス。Claude、Nova、Llamaなど複数のAIモデルをAPI経由で使える。データはAWS内に留まるので、セキュリティ面で安心 Claude Anthropic社が開発したAIモデルのブランド名。性能順に Mythos > Opus > Sonnet > Haiku というラインナップがある トークン AIモデルが文章を処理する単位。日本語の場合、1文字が1〜3トークン程度。料金は「100万トークンあたり○ドル」で計算される コンテキストウィンドウ AIモデルが一度に読める文章の量。1Mトークン ≒ 日本語で約30〜50万文字(文庫本5〜8冊分) SWE-bench AIモデルの「プログラミング能力テスト」。GitHubの実際のバグ修正タスクを解けるかを測定する。スコアが高いほど優秀 Kiro AWSが開発したAI搭載のコードエディタ(IDE)。VS Codeベースで、Claudeモデルを使ってコードの生成・レビュー・テストを支援する Claude Code Anthropicが開発したターミナル(コマンドライン)で動くAIコーディングツール。2025年5月にGA(正式版)。Bedrock経由でも利用可能 Claude Cowork Claude Desktopアプリのエンタープライズ向けモード。エンジニア以外のビジネスユーザーがリサーチや文書作成にClaudeを使える AgentCore AWSが提供する「AIエージェントの実行基盤」。AIが自律的にツールを使って作業するための仕組み MCP Model Context Protocol。AIモデルが外部ツール(データベース、API等)と連携するための標準規格 IAM AWSの認証・認可サービス。「誰が何にアクセスできるか」を管理する ゼロデイ脆弱性 まだ誰にも知られていないソフトウェアのセキュリティ上の弱点。発見されるまで対策が取れないため非常に危険   Claude Opus 4.6 — Bedrock提供開始(2月5日) Anthropicの最高性能モデルがBedrock経由で利用可能に。コーディング、エージェント、エンタープライズ業務のすべてで業界トップの性能を発揮。 何が変わったのか Claude Opus 4.6は、Anthropicが「世界最高のコーディングモデル」と位置づけるフラッグシップモデルです。 これがAmazon Bedrockで使えるようになったことで、AWSの認証(IAM)やネットワーク分離(VPC)といったセキュリティの仕組みの中でOpusを利用できるようになりました。 項目 内容 コンテキストウィンドウ 1Mトークン (日本語で約30〜50万文字を一度に読める) 最大出力トークン 128K SWE-bench Verified(コーディング能力テスト) 80.8% (Opus 4.5と同等水準を維持しつつ他の能力が大幅向上) Terminal-Bench 2.0(ターミナル操作テスト) 65.4% 推論(Reasoning) サポート(Extended Thinking対応) 料金 入力 5ドル / 出力 25ドル(100万トークンあたり) 誰にとって嬉しいのか エンタープライズ開発チーム :複雑なコードベースの理解・リファクタリングに最適。長時間のエージェントタスクでも安定動作 Claude Code利用者 :Bedrock経由でOpus 4.6を使えるため、 APIキー管理不要・IAM認証・VPCエンドポイント のセキュリティメリットを享受 Kiroユーザー :Kiro IDEでもOpus 4.6が 同日(2月5日)に利用可能 に(2.2xクレジット乗数) Opus 4.6はSonnet 4.6(入力3ドル/出力15ドル)と比べて入力約1.7倍・出力約1.7倍の価格です。コスト最適化が重要な場合は、Sonnet 4.6をメインに使い、複雑なタスクのみOpusに振り分ける「モデルルーティング」戦略が有効です。 参考: Claude Opus 4.6 now available in Amazon Bedrock — AWS What’s New   Claude Sonnet 4.6 — Bedrock提供開始(2月17日) Opus 4.6に迫る性能を、より低コストなSonnet価格帯で実現。各種ベンチマークでOpusとほぼ同等のスコアを記録。 何が変わったのか 項目 Sonnet 4.6 Opus 4.6(参考) SWE-bench Verified(コーディング能力テスト) 79.6% 80.8% OSWorld(PC操作の自動化テスト) 72.5% 72.7% コンテキストウィンドウ 1Mトークン 1Mトークン 入力 / 出力料金 3ドル / 15ドル per 100万トークン 5ドル / 25ドル per 100万トークン OSWorldは「AIがPC上でマウスやキーボードを操作してタスクを完了できるか」を測るベンチマークです。Sonnet 4.6は72.5%で、Opus 4.6の72.7%とほぼ同等のスコアを記録しました。なお、この「Computer Use」機能はAnthropicのAPI経由で利用できるもので、Bedrock経由での利用方法はAnthropic Messages API(bedrock-mantle)またはBedrock Agentsを通じた形になります。 注目の新機能:Context Compaction(コンテキスト圧縮) 長い会話を続けると、AIモデルが読める量(コンテキストウィンドウ)の上限に近づきます。Sonnet 4.6では、 上限に近づくと自動的に過去のやり取りを要約して圧縮する 機能が追加されました。これにより、長時間の作業でも会話が途切れにくくなります。利用方法はシンプルで、APIリクエストに「入力トークンが○○を超えたら圧縮する」というパラメータを追加するだけです。 誰にとって嬉しいのか 大量にAIを使う組織 :Opus並みの性能を、 より低コスト(入力3ドル/出力15ドル vs Opusの5ドル/25ドル) で利用可能。大量のリクエストを処理する場合に最適 Claude Codeユーザー :Claude Codeの早期テストでは、Sonnet 4.5より 70%の確率で好まれた ( Anthropic公式発表 ) Kiroユーザー :Kiro IDEでも 同日(2月17日)に利用可能 に(1.3xクレジット乗数) 参考: Claude Sonnet 4.6 now available in Amazon Bedrock — AWS What’s New   Kiro — Claudeモデル対応の加速(2月〜4月) AWSのAI搭載IDE「Kiro」が、Bedrockに新モデルが追加されるたびに即座に対応。GovCloud対応、1Mコンテキスト正式化、オープンウェイトモデル追加など、この期間で大きく進化。 Kiroとは Kiroは、AWSが開発したAI搭載のコードエディタ(IDE)です。VS Codeをベースにしており、Claudeモデルを使った「スペック駆動開発」が特徴です。普通のAIコーディングツールが「コードを書いて」と頼むとすぐコードを生成するのに対し、Kiroは まず要件定義書(スペック)を作り、それに基づいてコードを生成・検証する というアプローチを取ります。 この期間のKiroの主なアップデート Kiro Models Changelog に基づく時系列です: 日付 内容 2月5日 Claude Opus 4.6対応 — Bedrock提供と同日。2.2xクレジット乗数。us-east-1で利用可能 2月10日 オープンウェイトモデル追加 — DeepSeek 3.2(0.25x)、MiniMax 2.1(0.15x)、Qwen3 Coder Next(0.05x)が利用可能に。低コストの選択肢が増加 2月17日 Claude Sonnet 4.6対応 — Bedrock提供と同日。1.3xクレジット乗数。us-east-1とeu-central-1で利用可能 2月下旬 GovCloud(US-East / US-West)対応 — 米国政府機関や規制産業の開発者がKiroを利用可能に 3月24日 Opus 4.6 & Sonnet 4.6が1Mコンテキストに正式対応 — 200Kから1Mに拡大し、「experimental」マークが外れてGA(正式版)に 4月17日 Claude Opus 4.7対応 — 2.2xクレジット乗数。まずIAM Identity Center認証ユーザーから段階的に展開 ポイント Bedrockへの新モデル追加と同日にKiroでも利用可能 になるパターンが定着。AWSのAI開発ツールとしてのKiroの位置づけが明確に Claudeだけでなく オープンウェイトモデル (DeepSeek、MiniMax、Qwen等)も選択可能。クレジット乗数が低い(0.05x〜0.25x)ため、コストを抑えたい場合の選択肢になる 3月24日のアップデートで、Opus 4.6とSonnet 4.6が 1Mコンテキストウィンドウに正式対応 。大規模なコードベースやドキュメントを一度に読み込めるようになった エンタープライズ向けには Model Governance 機能も追加。管理者が「どのモデルを使って良いか」を制御でき、データレジデンシー要件に対応 Kiroの利用にはAWSアカウントは必須ではありません。Google、GitHub、AWS Builder IDでもサインインできます。ただし、組織での利用にはAWS IAM Identity Centerが推奨されています。 参考: Kiro Models Changelog / Opus 4.7 is now available in Kiro — Kiro Blog   Claude Certified Architect — Foundations 試験開始(3月12日) Anthropicが初の公式認定資格を開始。Claudeを使った本番システム構築スキルを証明する試験。AWS認定資格のClaude版のようなイメージ。 何が変わったのか 項目 内容 試験名 Claude Certified Architect – Foundations(CCA-F) 開始日 2026年3月12日 試験時間 120分 問題数 60問(多肢選択) 合格スコア 720 / 1000 受験料 99ドル 前提知識 Claudeでの本番システム構築経験6ヶ月以上 試験範囲 Claude Agent SDKを使ったエージェントシステム設計 MCP(Model Context Protocol) のサーバー/クライアント実装 Claude Codeの CLAUDE.md を活用したプロジェクト管理 6つの本番シナリオ(カスタマーサポートエージェント、マルチエージェントパイプライン、CI/CD統合など) 誰にとって嬉しいのか AIアーキテクト・エンジニア :スキルの客観的証明が可能に。AWS認定資格と同様に、転職・昇進の武器になる SIer・コンサルティング企業 :Anthropicの Claude Partner Network と連動。1億ドルのトレーニング・セールスイネーブルメント投資の一環 組織の意思決定者 :チームのClaude活用スキルを定量的に評価できる この試験は「プロンプトが書けるか」ではなく「本番システムを設計・運用できるか」を問う実践的な内容です。AWS認定ソリューションアーキテクトと同じ感覚で取り組めます。   Project Glasswing & Claude Mythos Preview(4月7日) この期間で最大のインパクト。 Anthropicが「Opusの上位」に位置する新モデルクラス「Claude Mythos」を発表。サイバーセキュリティに特化した限定公開で、AWS・Apple・Google・Microsoftなど約50組織がパートナーに。 何が起きたのか Anthropicは2026年4月7日、 Project Glasswing を発表しました。これは、Claude Mythos Previewという未公開の最先端モデルを使い、世界の重要ソフトウェアのセキュリティ脆弱性を発見・修正するイニシアチブです。 簡単に言うと、 「AIが人間のセキュリティ専門家よりも高い精度でソフトウェアの弱点を見つけられるようになった。その力を、まず防御側(守る側)に先に渡して、悪用される前に弱点を直そう」 という取り組みです。 Claude Mythos Previewのスペック 項目 Mythos Preview Opus 4.6(参考) SWE-bench Verified(コーディング能力テスト) 93.9% 80.8% SWE-bench Pro(より難しいコーディングテスト) 77.8% 53.4% Cybench(サイバーセキュリティテスト) 100% — コンテキストウィンドウ 1Mトークン 1Mトークン 最大出力トークン 128K 128K 提供形態 ゲーテッドリサーチプレビュー (許可された組織のみ) 一般提供 利用可能リージョン us-east-1のみ 複数リージョン Project Glasswingのパートナー ローンチパートナー(12組織) : Amazon Web Services、Anthropic、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks 加えて約40の追加組織(インターネットの重要インフラを構築・保守する企業)が参加。 Anthropicのコミットメント 1億ドル のモデル利用クレジットをProject Glasswing参加者に提供 400万ドル のOSSセキュリティ組織への直接寄付(Linux Foundation経由250万ドル + Apache Software Foundation 150万ドル) リサーチプレビュー後の料金:入力25ドル / 出力125ドル per 100万トークン( Anthropic公式 ) 誰にとって嬉しいのか セキュリティチーム : 数千のゼロデイ脆弱性 を自律的に発見できるモデルを防御目的で利用可能。従来の自動スキャンツールでは見つけられなかった脆弱性を検出 OSS開発者・メンテナー :Linux Foundationがパートナーに含まれており、OSSの重要プロジェクトのセキュリティ強化に直結 AWS顧客 :Amazon Bedrock経由でアクセス可能(許可リスト制)。AWSのCISO Amy Herzogも「 AIによる防御を脅威が出現する前に構築する 」と言及 留意点: Claude Mythos Previewは現時点では一般公開されていません。許可リストに含まれた組織のみがアクセスでき、AWSアカウントチームから直接連絡があります。Anthropicは防御目的での利用を優先しており、段階的にアクセスを拡大する方針です。 ▼ なぜ「慎重なリリース」なのか — 背景を読む(クリックで展開) Anthropicは、Claude Mythosの能力が非常に高いレベルに達していることを認識しており、責任あるリリースのために以下の方針を採用しています: 防御優先 :まず防御側(セキュリティチーム、OSSメンテナー)にアクセスを提供し、脆弱性を修正する時間を確保 段階的公開 :インターネットの重要インフラを担う組織を優先し、徐々にアクセスを拡大 学びの共有 :パートナーが発見した知見を業界全体で共有し、エコシステム全体のセキュリティを向上 UK AI Security Institute(AISI)は、Claude Mythosが「他のどのモデルも合格できなかったサイバーセキュリティテストに合格し、事実上すべてのテストで他のフロンティアモデルを上回った」と確認しています。 Anthropicの レッドチーム評価 では、主にメモリ安全性の脆弱性に焦点を当てた結果が公開されています。 参考: Project Glasswing — Anthropic / Amazon Bedrock now offers Claude Mythos Preview — AWS What’s New   Bedrock IAMプリンシパル別コスト配分(4月17日) Amazon Bedrockの利用コストを、 「誰が」「どのモデルに」「いくら使ったか」 を自動で記録・可視化できるように。アプリのコードを変更する必要はなし。 何が変わったのか これまでBedrockのコストは「AWSアカウント全体でいくら」としか把握できませんでした。チームが増えてClaude CodeやCoworkを使う人が増えると、「誰がどれだけ使っているのか」が見えないという課題がありました。 新機能により: AWSの利用明細レポート(CUR 2.0)に、 誰がリクエストしたか の情報が自動で記録される IAMユーザーやロールに「チーム名」「コストセンター」などのタグを付けておけば、 チーム別・プロジェクト別・個人別 のBedrock利用コストを分析可能 AWS Cost Explorer(コスト分析ツール)でグラフ化もできる 具体例 | 誰が | 何を使ったか | いくら | |------------------------------|-------------------------------|----------| | arn:aws:iam::...:user/alice | Claude4.6Sonnet-input-tokens | $0.069 | | arn:aws:iam::...:user/alice | Claude4.6Sonnet-output-tokens | $0.214 | | arn:aws:iam::...:user/bob | Claude4.6Opus-input-tokens | $0.198 | | arn:aws:iam::...:user/bob | Claude4.6Opus-output-tokens | $0.990 | 誰にとって嬉しいのか FinOps(コスト管理)チーム :「どのチームがどのモデルにいくら使っているか」が一目瞭然。予算超過の早期検知が可能 Claude Code / Coworkを組織展開する管理者 :開発者ごとの利用量を把握でき、 コスト管理とガバナンスの両立 が実現 マルチテナントSaaS事業者 :テナント(顧客)ごとのAIコストを正確に按分可能 この機能は コード変更不要・追加料金なし で利用できます。IAMプリンシパルへのタグ付けとBilling設定のみで有効化されます。 参考: Introducing granular cost attribution for Amazon Bedrock — AWS ML Blog   Claude Opus 4.7 — Bedrock提供開始(4月16日) Opus 4.6の後継。コーディング性能が大幅向上し、高解像度画像の読み取りにも対応。 東京リージョンでもローンチ初日から利用可能。 何が変わったのか 項目 Opus 4.7 Opus 4.6(参考) SWE-bench Verified(コーディング能力テスト) 87.6% 80.8% SWE-bench Pro(より難しいコーディングテスト) 64.3% 53.4% コンテキストウィンドウ 1Mトークン 1Mトークン 高解像度画像 対応 (チャート、密なドキュメント、画面UIを正確に読み取れる) 標準解像度のみ Adaptive Thinking 対応 (質問の難しさに応じて「考える量」を自動調整) Extended Thinking Bedrock提供リージョン us-east-1、 ap-northeast-1(東京) 、eu-west-1、eu-north-1 — Opus 4.6との違い(わかりやすく言うと) AWSの公式ブログ によると: あいまいな指示でもより適切に対応してくれる(「いい感じにして」でもちゃんと動く) 問題解決がより徹底的になった(手抜きしない) 指示への追従がより正確になった(言ったことをちゃんとやる) 長時間タスクでも途中で迷子にならなくなった Kiroでの対応 Kiroでも 4月17日(Bedrock提供の翌日)にOpus 4.7が利用可能 になりました( Kiro Changelog )。2.2xクレジット乗数で、まずIAM Identity Center認証ユーザーから段階的に展開されています。 誰にとって嬉しいのか エージェント開発者 :長時間の自律タスク(8時間以上)でも安定動作。AgentCoreとの組み合わせで本番運用に耐えるエージェントを構築可能 ナレッジワーカー :スライド作成、財務分析、データ可視化などの業務タスクが改善 東京リージョンユーザー : ローンチ時点で東京リージョン(ap-northeast-1)に対応 。日本のユーザーにとってレイテンシ(応答速度)面で大きなメリット APIアクセス Opus 4.7は bedrock-runtime (AWS標準のAPI)と bedrock-mantle (Anthropic互換のAPI)の両方で利用可能です。 以下はサンプルです。 # Anthropic SDK(Bedrock Mantle経由) from anthropic import AnthropicBedrockMantle mantle_client = AnthropicBedrockMantle(aws_region="us-east-1") message = mantle_client.messages.create( model="us.anthropic.claude-opus-4-7", max_tokens=32000, messages=[{"role": "user", "content": "..."}] ) 参考: Claude Opus 4.7 is now available in Amazon Bedrock — AWS What’s New   Amazon × Anthropic 投資拡大 & Claude Platform on AWS(4月20日) この期間で最も戦略的なニュース。 Amazonが50億ドル(約7,500億円)を追加投資し、Anthropicは10年間で1,000億ドル以上をAWSに支出することをコミット。さらに「Claude Platform on AWS」が発表。 投資の全体像 項目 内容 Amazonの即時投資 50億ドル (約7,500億円) 将来の追加投資(マイルストーン連動) 最大 200億ドル (約3兆円) Amazonの累計投資額 最大330億ドル (過去の80億ドル + 今回50億ドル + 将来最大200億ドル) Anthropicの10年間AWS支出コミット 1,000億ドル以上 確保するコンピュート容量 最大 5GW (ギガワット) 使用チップ Trainium2 → Trainium3 → Trainium4 + Graviton Anthropicの年間売上(ランレート) 300億ドル以上 (2025年末の90億ドルから急成長) 「5GW(ギガワット)」はデータセンターの電力容量の単位です。参考までに、一般的な大規模データセンターは数十〜数百MW(メガワット)程度。5GWはその数十倍の規模で、AIモデルの学習・推論に必要な膨大な計算能力を支えるためのものです。 Claude Platform on AWS とは 新発表。 AnthropicのClaude Platformを、AWSアカウント内から直接利用できる新しい選択肢です。 これまでClaudeを使うには「Bedrock経由」か「Anthropicに直接契約」の2択でしたが、新たに「AWSアカウントのまま、Anthropicのネイティブ体験を使う」という第3の選択肢が加わります。   Amazon Bedrock Claude Platform on AWS 推論インフラ(AIが動く場所) AWS管理 (データはAWS内に留まる) Anthropic管理 (データはAnthropicインフラを経由) 認証・課金・監査 AWS(IAM / CloudTrail / AWS Billing) AWS(IAM / CloudTrail / AWS Billing) 利用可能モデル Claude + Nova + Llama + Mistral + DeepSeek等 Claudeのみ AWS管理機能 Guardrails、Knowledge Bases、Agents、PrivateLink等 なし(Anthropicネイティブ機能を利用) データレジデンシー(データの保管場所) AWSリージョン内 Anthropicインフラ経由 追加の契約・認証情報 不要 不要 ステータス GA(正式版) Coming Soon (プレビュー) 誰にとって嬉しいのか 全AWS顧客 :Claudeの安定供給が長期的に保証される。5GWのコンピュート確保は、「使いたいときに使えない」状況の低減を意味する Anthropic APIを直接使っている組織 :Claude Platform on AWSにより、 既存のAWSアカウント・IAM・課金をそのまま使いながら Anthropicネイティブの体験を得られる データの保管場所に厳しい要件がある組織 :Bedrockは引き続きAWSインフラ内でデータが完結。要件に応じて使い分けが可能 アジア・欧州のユーザー :国際推論の拡大が明記されており、東京を含むリージョンでの可用性向上が期待 留意点: Claude Platform on AWSは Bedrockの代替ではなく、新たな選択肢 です。複数のAIモデルを使いたい場合、データをAWS内に留めたい場合、Guardrails等のAWS管理機能が必要な場合はBedrockが最適です。「Claudeだけ使いたい」「Anthropic APIから移行したい」場合にClaude Platform on AWSが選択肢になります。 参考: Anthropic and Amazon expand collaboration for up to 5 gigawatts of new compute — Anthropic / Amazon and Anthropic expand strategic collaboration — About Amazon   Claude Cowork in Amazon Bedrock(4月21日) 開発者だけでなく、全社員にClaudeを届ける。 Claude Desktopアプリ(Cowork)がAmazon Bedrock経由で動作可能に。データはAWS環境内に留まり、エンタープライズのセキュリティ・ガバナンス要件を満たす。 何が変わったのか Claude Coworkは、Anthropicのデスクトップアプリ「Claude Desktop」のエンタープライズ向けモードです。これまでAnthropicのサーバーを経由していましたが、 Amazon Bedrock経由でAIの処理を実行 できるようになりました。 つまり、 社員がClaude Desktopを使っても、データが社外(Anthropicのサーバー)に出ない ということです。 Claude Code vs Claude Cowork — 何が違うのか   Claude Code Claude Cowork 対象ユーザー 開発者 全社員 (営業、マーケ、経理、人事等) インターフェース ターミナル(黒い画面)/ IDE デスクトップアプリ(普通のチャット画面) 主な用途 コーディング、コードレビュー、リファクタリング リサーチ、文書分析、レポート作成、データ整理 Bedrock経由 対応済み 今回新たに対応 MCP対応 対応 対応 対応OS macOS / Linux / Windows macOS / Windows エンタープライズ向けの特徴 データの保管場所 :AIの処理はAmazon Bedrockで実行。データはAWSリージョン内に留まる 認証 :AWS IAMまたはBedrock APIキーで認証 ネットワーク分離 :VPCエンドポイント経由でアクセス可能(インターネットを経由しない) 監査 :AWS CloudTrailで全操作を記録 課金 :AWS Billingに統合。 Anthropicへの別途シートライセンス(1人あたり月額○円)は不要 。使った分だけの従量課金 テレメトリ :Anthropicに送信されるのは匿名の集計データ(トークン数、モデルID、エラーコード)のみ。設定で無効化も可能 デバイス管理 :MDM(モバイルデバイス管理)システムから設定をプッシュ可能 誰にとって嬉しいのか IT管理者・CISO : 社員が個人のAIサービスに業務データを入力してしまうリスクへの対策として有効 。Bedrock経由なのでデータがAWS外に出ない エンジニア以外の社員 :プロダクトマネージャーがリサーチブリーフを作成、経理が月次レビューを整理、オペレーションがSOPを統合——すべてClaude Desktopから 既にClaude CodeをBedrock経由で使っている組織 : 同じセットアップをそのまま流用 してCoworkを展開可能 Claude Coworkは「開発者向けのClaude Code」を「組織全体の社員」に拡張するものです。Bedrock経由であれば、 Anthropicへのシートライセンス料は不要 で、AWS Billingに統合された従量課金のみです。 参考: From developer desks to the whole organization: Running Claude Cowork in Amazon Bedrock — AWS ML Blog   AgentCore新機能 — Managed Harness / CLI / Skills(4月22日) Amazon Bedrock AgentCoreに3つの新機能が追加。「アイデアから動くAIエージェントまで数分」を実現。 そもそもAIエージェントとは AIエージェントとは、 AIが自分で考えて、ツールを使って、タスクを完了する仕組み のことです。普通のAIチャットは「質問→回答」で終わりますが、エージェントは「目標を与えると、自分でWebを検索したり、コードを実行したり、ファイルを操作したりして、最終的な成果物を作る」ことができます。 何が変わったのか 新機能 ざっくり言うと ステータス Managed Harness 「AIモデル」「指示文」「使えるツール」を設定するだけでエージェントが動く。プログラミング不要 プレビュー AgentCore CLI ターミナルからエージェントの作成→テスト→デプロイ→運用を一貫して実行 GA Pre-built Skills AgentCoreのベストプラクティスをClaude Code、Codex、Cursorに直接提供。 Kiroには既にPowerとして組み込み済み 近日公開 Managed Harnessの特徴 マルチモデル対応 :Bedrock / OpenAI / Geminiを切り替え可能。セッション中のモデル切り替えも可能 ファイルシステム永続化 :エージェントがタスクを中断・再開可能 ビルトインツール :Shell(コマンド実行)、ファイル操作がデフォルトで有効。Browser(Web閲覧)、Code Interpreter(コード実行)、MCP、Gateway等を追加可能 追加料金なし :Harness自体は無料。裏側のRuntime(CPU/メモリ)の従量課金のみ Amazon Bedrock AgentCore Managed Harnessを試してみた 2026年4月22日にプレビューリリースされたAmazon Bedrock AgentCore Managed Harness (以下、AgentCore Harness)を、AWSマネジメントコンソールで触ってみました。私と同じく「AIエージェントを動かす基盤」と言われてもピンとこない方向けに、コンソール操作の流れに沿って「何が作られるのか」「料金はどうなるのか」等の整理をしてみました。 blog.usize-tech.com 2026.04.24 誰にとって嬉しいのか エージェント開発者 :「AIに考えさせる→ツールを選ばせる→実行する→結果をAIに戻す」というループを自分でプログラムする必要がなくなる プラットフォームチーム :CLIとCDKサポートにより、エージェントのデプロイをCI/CDパイプラインに組み込める Claude Code / Kiroユーザー :Pre-built Skillsにより、AgentCoreのベストプラクティスがIDEから直接利用可能 参考: Amazon Bedrock AgentCore adds new features — AWS What’s New   今後の注目ポイント Claude Platform on AWSのGA(正式版) :価格体系やデータの保管場所に関する詳細が明らかになる Trainium3の本格稼働 :2026年後半に予定。AIの処理コストの低下やキャパシティ拡大が期待 Project Glasswingの成果公開 :パートナーが発見した脆弱性の共有が進む見込み Claude Mythos Previewの一般公開時期 :現時点では未定。段階的な拡大が予想される AgentCore Managed HarnessのGA :プレビューから正式版への移行時期 Kiroの進化 :Opus 4.7対応の全ユーザーへの展開、さらなるモデル追加やエンタープライズ機能の強化   引用元一覧 全引用元を表示(クリックで展開) トピック 引用元 Claude Opus 4.6 AWS What’s New Claude Sonnet 4.6 AWS What’s New 、 Anthropic公式 Kiro Opus 4.6対応 Kiro Blog Kiro Sonnet 4.6対応 Kiro Blog 、 Kiro Changelog Kiro GovCloud対応 AWS News Blog Kiro 1Mコンテキスト正式化 Kiro Changelog Kiro Opus 4.7対応 Kiro Blog 、 Kiro Changelog Kiro モデル一覧 Kiro Docs 、 Kiro Models Changelog CCA Foundations Anthropic Partner Network Project Glasswing Anthropic公式 、 Anthropicブログ Claude Mythos Preview AWS What’s New 、 Anthropic Red Team IAMコスト配分 AWS ML Blog 、 AWS What’s New Claude Opus 4.7 AWS What’s New 、 AWS News Blog 投資拡大 & Claude Platform on AWS Anthropic公式 、 About Amazon Claude Cowork in Bedrock AWS ML Blog AgentCore新機能 AWS What’s New 、 AWS ML Blog Weekly Roundup(Mythos) AWS News Blog Weekly Roundup(Opus 4.7) AWS News Blog   以上。 当記事において不備がございましたらご連絡いただけますと幸いです。
本記事は2026年1月15日に公開された AUMOVIO Boosts Software Development with an Agentic Coding Assistant Powered by Amazon Bedrock を翻訳したものです。 本ブログ記事では、 AUMOVIO が Amazon Web Services (AWS) のサービスと知見を活用して、Software-Defined Vehicle (SDV) 領域における革新的な自動車向けコーディングアシスタントを開発した事例をご紹介します。AUMOVIO のソリューションは、複数の AI モデルを活用して開発ライフサイクルの各工程を加速させながら、自動車業界の標準と AUMOVIO 独自のコーディングベストプラクティスに準拠しています。可能な限りコードを再利用し、変更を最小限に抑えることで、このアシスタントは V 字モデル の他の工程に必要な作業を大幅に削減します。 AUMOVIO とその AWS 上の SDV ソリューションの詳細については、 こちら をご覧ください。 背景 車両がますますソフトウェアにより定義される中、自動車メーカーは複雑化するソフトウェア、イノベーションサイクルの高速化、厳格な品質要件という困難に直面しています。ハードウェア、拠点ごとのチーム、手作業に依存して構築された従来の開発手法は、制約となりつつあります。自動車メーカーは、現在世界中の拠点で勤務する数千人のエンジニアと連携しながら、様々な観点で検証が必要な膨大なコードベースを管理しなければなりません。さらに、開発チームは AUTOSAR 、 MISRA-C/C++ ガイドラインなどのドメイン固有のソフトウェア開発標準に加え、独自の社内標準にも準拠する必要があります。AUMOVIO の開発チームは、自社の組込みシステムプロセスをこの新しい現実に適応させるというプレッシャーにさらされています。 AUMOVIO は自動車向けのアプリケーションの厳格な基準を維持しながら、チームの生産性を向上させるインテリジェントなソリューションを求めて 、AWS と協業することにしました。 課題設定 自動車のベストプラクティスと規制によりよく適合させるため、AUMOVIO は V 字モデル に従ってソフトウェアを開発しています。各工程に費やされた工数を示す膨大な過去データのおかげで、AUMOVIO は効率化余地が最も高い工程を特定することができました。AWS の支援を受けて、AUMOVIO チームは以下を生成できるコーディングアシスタントの開発に取り組むことにしました: システム設計から自動車向けメソッド本体を生成(コーディングアシスタントの第 1 弾) システム設計からユニットテストを生成(コーディングアシスタントの第 2 弾) ソリューションの検討 AIコーディングアシスタントの実現可能性を検証するため、AUMOVIO は AWS の支援の下でハッカソンを開催しました。まず、AUMOVIO チームは RAG ベースのアプローチを試し、コードベースをベクトルストアに保存し、 Amazon Bedrock (サードパーティプロバイダーと Amazon の基盤モデルを簡単に使用できるフルマネージドサービス)を使用して、取得したチャンクに基づいてコードを生成しました。しかし、テストの結果、セマンティック検索では単一のクエリで与えられたタスクに関連するコードを取得できないことが判明しました。このアプローチの代わりに、チームはエージェント型アプローチを採用しました。このアプローチでは、コーディングアシスタント(強力な推論能力を持つモデルによって駆動)がコードベースから関連するコードコンテキストを段階的に取得します。言い換えると、エージェントは与えられたタスクに対して複数回検索を行い、各検索の結果を分析して必要な追加のコードコンテキストを決定し、コード生成などのタスクを完了するために必要なすべての関連情報を得るまで再度検索します。 このアプローチを実現するため、チームは Amazon Bedrock でホストされている Claude 3.7 Sonnet を搭載したオープンソースのコーディングアシスタント Cline を統合しました。エージェント型の構成は大きな可能性を示し、以下のような事例が得られました: シニア開発者が5日間かけた作業を数分でバグ修正 非常に大きなファイルをリファクタリングし、冗長性を削除してサイズを50%削減 同じ構成は既存コードの説明においても非常に優れたパフォーマンスを発揮しました。一方で、これらの標準モデルは、多くの再利用可能な API とベストプラクティスを含む AUMOVIO コードベースでファインチューニングされておらず、自動車特有のドメインにおいては限界も見られました。多くの場合、生成されたコードは良好であっても既存のライブラリを活用しておらず、既存実装の重複やわずかなバリエーションを引き起こしていました。 ワークショップの結果を踏まえて、AUMOVIO と AWS チーム (AWS の Generative AI Innovation Center を含む) は協力して、概念実証 (PoC) の一環としてエージェント型アーキテクチャを考案しました。PoC の目的は、自動車ソフトウェア開発向けの特化型コーディングアシスタントの実現可能性を探ることでした。このプログラムは、AI 駆動のイノベーション可能性を迅速に評価するため、事前に定めた成功基準と指標で評価する構造化されたアプローチを取りました。PoC フレームワークは、スコープ定義、開発、テスト、パフォーマンス評価、技術検証を包含し、期間内に測定可能な成果を提供するように設計されました。 チームは以下で構成されるエージェント型アーキテクチャを設計しました: ファインチューニングされたモデルまたはエージェント: コード生成やユニットテスト生成などの特定のV字モデルの工程に対して最先端の精度を提供するために使用。 オーケストレーターモデル (Claude Sonnet 3.7/4など): アプリケーションの対話ウィンドウで使用され、以下を実行: ユーザーからタスクに関する情報を収集 該当する場合、ファインチューニングされたモデルにタスクを委任 ファインチューニングされたモデルでサポートされていないタスクに応答(例: コード説明) パフォーマンスのベースラインを確立し、エージェントの取りうるさまざまな構成を理解するため、我々は多様な能力を持つ複数のモデルを評価しました。これには、迅速な応答に最適化された Nova Pro のようなプロンプトエンジニアリングのみを使用するモデルや、後に自動車特有のコードでファインチューニングのベースとして使用した Qwen3 32B のようなモデルが含まれています。 ソリューション この評価フェーズにおいて、柔軟なインフラストラクチャを用いてこれらの異なるモデル機能を統合するアーキテクチャの必要性が明らかになりました。アーキテクチャの概要は、以下の通りです: 図1:マルチモデル/マルチエージェント コードアシスタント アーキテクチャ AUMOVIO は、複数の拡張機能を備えた VS Code を標準の統合開発環境 (IDE) として採用しました。この既存の構成を基に、我々のアーキテクチャは Amazon Q Developer や Cline などのコーディング支援拡張機能を使用しています。 Amazon Q Developer は、開発者がアプリケーションを理解、構築、拡張、運用するのを支援する生成 AI アシスタントです。VS Code などの IDE で使用すると、Amazon Q はコードについてチャットし、インラインコード補完を提供し、新しいコードを生成し、セキュリティ脆弱性のためにコードをスキャンし、言語更新、デバッグ、最適化などのコードアップグレードと改善を行うことができます。Amazon Q Developer の推論とエージェント機能は、プレミアムモデルによってサポートされています。執筆時点では、Claude Sonnet 3.7 またはClaude Sonnet 4 で使用するように設定が可能でした。 同様に、オープンソースのプラグインの Cline は、IDE 内でエージェント型コードアシスタントのユースケースを実現するために、多くのエンドポイントをサポートしています。Cline は Claude Sonnet 3.7 や Claude Sonnet 4 など、 Amazon Bedrock でホストされているモデルで簡単に設定できます 。 さらに、このアーキテクチャは Model Context Protocol (MCP) を活用しています。MCP は、AI アシスタントが外部ツールやサービスと対話できるようにするオープン標準です。Cline と同様に、 Amazon Q Developer は MCP をサポートしており 、ユーザーはカスタムツールやサービスに接続することで Q の機能を拡張できます。我々のケースでは、ファインチューニングされたモデルを MCP エンドポイントとしてオーケストレーターモデルに公開しています。これにより、オーケストレーターモデルはユーザーから与えられたタスクの初期計画を行い、必要に応じてさらに情報を収集し、最終的に MCP プロトコルを介してファインチューニングされたモデルを呼び出すことができます。 以下は、図の番号付けに沿った Amazon Q Developer を使用した処理フローの例です: 1) 開発者は、 Amazon Q Developer が統合された VS Code に質問を送信します。 2) 基盤となるオーケストレーターモデルを使用して、Amazon Q Developer はタスクがメソッド生成に関するものであることを理解します。次に、オーケストレーターモデルは、関連するコードを生成するために一部の入力が不足していることを識別します。その後、Amazon Q Developer はさらなる入力 (不足している要件ドキュメントなど) を要求します。 3) 開発者とモデル間のメッセージ交換の後、Amazon Q Developer はすべての入力を収集します。次に、Amazon Q Developer は 「Method Generator 用 MCP クライアント」 を使用して、リクエストを Amazon API Gateway に転送します。Amazon API Gateway は、あらゆる規模で REST、HTTP、WebSocket API を作成、公開、維持、監視、保護するための AWS サービスです。 4) Amazon API Gateway は、クラウドネイティブ認証サービスである Amazon Cognito を使用してユーザーを認証します。 5) Amazon API Gateway は 「Method Generator」 AWS Lambda 関数 に委任します。これは、コードを実行するためのクラウドネイティブサーバーレスコンピューティングエンジンです。 6a) リモート MCP サーバーを立ち上げて、 「Method Generator」 Lambda 関数は Amazon Bedrock に推論リクエストを行います。Amazon Bedrock は、メソッド生成専用のファインチューニングされたモデルをホストしています。同様に、タスクがユニットテストの生成に関するものであれば、「Test Generator」が呼び出されます (6b)。 7) モデルからの応答は、AWS Lambda → API Gateway → MCP クライアントのパスを介して Amazon Q Developer に返され、ローカル IDE のコードを変更し、ユーザーに確認を求めます(読みやすさを向上させるため、図では番号付けが省略されています)。 別の処理フローでは、ユーザーが既存コードの説明を求める場合があります。この場合、オーケストレーターはタスクを処理するファインチューニングされたモデルがないと結論付け、独自の推論能力を使用して回答を提供します。 現在のソリューションの MCP エンドポイントは、単一のタスクを処理するモデルエンドポイントによってサポートされていることに注意してください。したがって、現在のイテレーションはマルチモデルですが、必ずしもマルチエージェントではありません。推論し、ツールを利用する唯一のエージェントはオーケストレーターモデルだからです。同時に、このアーキテクチャは MCP エンドポイントの背後に追加のエージェント(推論とオーケストレーション機能を持つ) の拡張をサポートしており、これによりマルチエージェントコーディングアシスタントが実現されます。 ファインチューニングの詳細 業界標準を考慮したドメイン特化型の自動車コードを生成するため、我々は人間が書いた高品質なコードで言語モデルをファインチューニングします。このセクションでは、ファインチューニングプロセスの詳細を説明します。 データの準備 効果的なモデルのファインチューニングの基盤は、高品質でドメイン特化型の学習用データです。我々は、生の自動車ソフトウェアリポジトリを、C/C++ コード生成に不可欠な豊富なコンテキストを保持する構造化された学習用データに変換する前処理パイプラインを構築しました。 前処理パイプラインは、AUMOVIO の C/C++ リポジトリを探索して、包括的なコンテキストとともに個々の関数を抽出することから始まります。このコンテキストには以下が含まれます: 関数ドキュメント: Doxygen スタイルのコメントとインラインドキュメントの両方が抽出され、対応する関数実装にリンクされます。 システム要件: パイプラインは DOORS が出力したXML ファイルを解析して、関数ドキュメントで言及されている要件識別子を完全な要件テキストにマッピングします。 アーキテクチャコンテキスト: ドキュメントで参照されている PlantUML 図が抽出され、挙動の仕様を提供するために含まれます。 API コンテキスト: 関連するヘッダーファイルとその関数シグネチャが収集され、利用可能な API とデータ構造に関する情報を提供します。 前処理を用いたアプローチの重要な工夫は、ヘッダーファイルと実装ファイルのインテリジェントな連携です。システムは各 C/C++ ソースファイルに対応するメインヘッダーファイルを識別し、含まれる依存関係から追加のコンテキストを抽出します。これにより、生成されたコードが既存の API を使用できることが保証されます。 # Example of context aggregation from the preprocessing pipeline def create_training_example(function_info): user_message = f"Implement the function: {function_info['signature']}\n\n" if function_info["documentation"]: user_message += f"with following specifications:\n{function_info['documentation']}" if function_info["requirements"]: user_message += f"\n\nRequirements tests:\n{function_info['requirements']}" if function_info["uml_diagram"]: user_message += f"\n\nThe behavior follows this UML diagram:\n{function_info['uml_diagram']}" return { "messages": [ {"role": "user", "content": user_message}, {"role": "assistant", "content": function_info["implementation"]}, 図2:抽出したコンテキストを集約するコード 前処理パイプラインは、いくつかの品質保証メカニズムも実装しています: 関数シグネチャの検証:ヘッダーファイルの宣言と照合することで、実装ファイルの関数シグネチャを自動的に修正します。 ドキュメントの完全性:包括的なドキュメントを持つ関数のみが学習用データセットに含まれます。 コードコンプライアンス:関数は、自動車の安全性とアーキテクチャパターンを含むカスタムルールセットに準拠しているか検証されます。 様々な複雑さを含むバランスの取れたコードを確保するため、前処理パイプラインは関数の長さと複雑さに基づく層別サンプリングを実装しています。このアプローチにより、一貫した分布特性を持つ学習用データセットとテスト用データセットが作成されます: # Stratified sampling ensures balanced complexity distribution stats = stratified_sample_jsonl( input_file="dataset-7037-funcs.jsonl", sampled_file="test-set-funcs.jsonl", remaining_file="train-set-funcs.jsonl", sample_size=1000, num_strata=5, ) 図3:層別学習用データサンプルの生成 結果として得られたデータセットには、完全なコンテキスト情報を含む約 7,000 の高品質な関数実装が含まれており、複雑さの分布を維持しながら学習用データセットとテスト用データセットに分割されています。 ファインチューニング ファインチューニングを用いたアプローチは、自動車ソフトウェア開発の計算リソース制約と精度要件に最適化された最先端の技術を活用しています。 プロジェクトチームは、コード生成タスクでの優れたパフォーマンスと適度な計算リソース要件から、Qwen3-32B をベースモデルとして選択しました。ファインチューニングプロセスは、モデルの一般的な能力を維持しながら効率的な学習を実現するために、Low-Rank Adaptation (LoRA) を採用しています: LoRA設定: アテンション層とフィードフォワード層に適用されるランク 8 アダプター (alpha=16) 量子化: BitsAndBytes を使用した 4 ビット量子化によりメモリ使用量を削減 ターゲットモジュール: クエリ、キー、バリュー、出力プロジェクション層に加えて、すべてのフィードフォワードネットワークコンポーネントに LoRA アダプターを適用 ファインチューニングでは、 Amazon SageMaker の分散学習機能と PyTorch DeepSpeed を利用しており、自動車コードベースでの大規模モデル学習の計算リソースの要件を満たすように特別に設計されています。我々は、 SageMaker の remote デコレーター を使用して、単一インスタンス内の複数の GPU 間で分散学習を構成し、マルチノード構成へのスケーリングのためのサポートを備えています。 @remote( instance_type="ml.p4d.24xlarge", volume_size=100, use_torchrun=True, pre_execution_commands=[ "pip install torch==2.5.1 transformers==4.51.3", "pip install peft==0.15.2 deepspeed bitsandbytes", ] ) def train_model(train_dataset, test_dataset, config): # Adaptive DeepSpeed configuration based on quantization settings stage = 2 if use_quantization else 3 deepspeed_config = { "zero_optimization": { "stage": stage, "overlap_comm": True, "contiguous_gradients": True, "offload_optimizer": {"device": "cpu", "pin_memory": True} } } if stage == 3: deepspeed_config["zero_optimization"].update({ "offload_param": {"device": "cpu", "pin_memory": True}, "stage3_prefetch_bucket_size": 1e6, "stage3_param_persistence_threshold": 1e4, }) # Training implementation... 図4: SageMaker のremoteデコレーターを介した LLM の学習 学習用のインフラストラクチャは、いくつかの重要な最適化を実装しています: 適応型メモリ管理: システムは、学習の設定に基づいて DeepSpeed ZeRO-2 と ZeRO-3 の最適化ステージの両方を採用しています。量子化を使用する場合、ZeRO-2 は4ビット量子化モデルとの互換性が優れているため優先され、モデルパラメータを複製したままオプティマイザの状態を GPU 間で分割します。フル精度学習シナリオの場合、システムは自動的に ZeRO-3 に切り替わり、モデルパラメータをデバイス間でさらに分割し、アクティブに必要とされない場合は CPU メモリにオフロードします。この適応型アプローチにより、限られた GPU メモリでも 320 億パラメータのフルモデルの学習が可能になり、各設定で最適なパフォーマンスを維持します。 高度なパラメータ管理: ZeRO-3のパラメータ分割機能により、包括的な関数ドキュメントや要件トレーサビリティに必要な大規模なコンテキストウィンドウの処理が可能になります。バケットサイズとパラメータ永続化の閾値を調整することで、過度な通信オーバーヘッドを発生させることなく、効率的なパラメータストリーミングを実現しています。 通信最適化: 分散セットアップでは、NVIDIA Collective Communication Library(NCCL)を使用し、最適化されたタイムアウト設定と通信オーバーラップにより、コード生成モデル特有の大規模かつ密な勾配を処理します。 耐障害性と信頼性: 長時間の学習を考慮し、インフラストラクチャには、モデルダウンロード時のエクスポネンシャルバックオフを用いた堅牢なエラーハンドリングと、一時的なハードウェア障害に対する自動リトライ機構を組み込んでいます。また、システムは中断時に最後に保存された状態から学習を再開するチェックポイント復旧機能を実装しており、ZeRO-3のパラメータ分割により、より細かい粒度でのチェックポイント戦略が可能になっています。 動的リソース割り当て: Amazon SageMaker 統合により、学習の計算負荷に基づく動的スケーリングが可能になり、学習の計算負荷がピークに達した時に追加の計算リソースを自動的にプロビジョニングする機能があります。 分散学習のセットアップは、安定した収束を維持しながら、すべてのデバイスで約 85% の GPU 使用率を達成し、AUMOVIO が効率的なリソース使用を通じてクラウドコンピューティングコストを最適化しながら、開発スプリントの時間軸でファインチューニングサイクルを完了できるようにしています。 学習完了後のモデルは、 Amazon Bedrock のカスタムモデルインポート機能 を通じてデプロイメント用にパッケージ化され、前述のマルチモデルアーキテクチャとのシームレスな統合が可能になります。ファインチューニングされたモデルは、IDE 統合に必要な会話能力を維持しながら、ドメイン特化型の精度で大幅な改善を達成しています。 評価結果 MCP エンドポイントとしてデプロイされたさまざまなコード生成モデルの有効性を評価するため、C と C++ の両方のコード生成に焦点を当てた包括的な評価を実施しました。このセクションでは、評価方法論と主要な結果について詳しく説明します。 図5:コンプライアンスとレイテンシに関するさまざまなモデルの評価 この表は、ファインチューニングされたモデルと汎用モデルなどさまざまなベースモデルと、人間が作成したコードを比較しています。我々は、プロンプトエンジニアリング (PE) とファインチューニング (FT) 戦略に焦点を当て、複数の評価指標を使用しています: カスタム自動車コーディングルールへの適合性: 正規表現ベースのカスタムビルド静的アナライザーを用いて測定 (関数あたりの平均エラー数で測定) カスタム自動車アーキテクチャルールへの適合性: 正規表現ベースのカスタムビルド静的アナライザーを用いて測定 (関数あたりの平均エラー数で測定) コード生成レイテンシ: 関数あたりの平均秒数 結果は興味深いパターンを示しています。 Qwen3 32B (PE) のような PE 重視のモデルは、C 言語 において Automotive Architecture Checker 準拠スコアで平均 1.22 の違反、Automotive Coding Checker 準拠スコアで 0.54 を示す強力な C コード 品質スコアを達成しましたが、FT 強化バージョンは C++ 生成で競争力のある結果を示しました。特に、Qwen3 32B – V2 (FT) は、C++ において優れた Automotive Architecture Checker 準拠スコア (0.02) と堅実な Automotive Coding Checker 準拠スコア (1.25) を達成し、ファインチューニングとプロンプトエンジニアリングを組み合わせる利点を示しています。 この結果は、MCP を通じて複数のコード生成モデルへの柔軟なアクセスを持つことの戦略的優位性を示しています。それぞれのモデルは異なるシナリオで優れた性能を示します: Nova Pro は 優れた C 準拠スコアと14.62 秒のレイテンシで迅速な生成を提供し、素早いプロトタイピングと C 重視の開発に理想的です。一方、Qwen3 32B 由来のモデルは優れた C++ 準拠スコアを示しています。PE と FT アプローチ間のシームレスな切り替えが可能なため、さらに最適化が可能です。開発者は、プロンプトのカスタマイズが鍵となる単純な API 実装に PE モデルを利用できます。より複雑な C++ コード生成の場合、学習されたパターンがより有益なので、 FT モデルに切り替えることができます。この柔軟性は、各モデルのコストパフォーマンスのトレードオフと組み合わせることで、開発チームがプロジェクト固有の要件に基づいてコード生成を調整できるようにします。 これらのコードの品質改善と標準への準拠は、SDV の複雑性の増大に追随しながらコード品質を維持するという冒頭で述べた課題に直接的に対処しています。 「 AUMOVIO のエンジニアリングアシスタントは、顕著に高速な開発サイクルとコード品質の向上を実現しながら、SDV の複雑化に対応するのに役立っています。このアシスタントは、開発スピードを犠牲にすることなく自動車業界の標準に準拠することが可能です。これはまさに、今日の競争の激しい自動車市場で我々が必要としていたものです。」 – Amir Namazi, AUMOVIO バーチャライゼーション クラウド & AI ソリューションマネージャー まとめ この最初のイテレーションで、AUMOVIO はコード生成のためのファインチューニングされたモデルを利用して高度に特化したコーディングアシスタントを開発しました。今後、AUMOVIO はコーディングアシスタントのイテレーションを続け、V 字モデル開発プロセスのさまざまな工程をより効果的にサポートするために機能を拡張していきます。この取り組みをさらに促進するため、AUMOVIO は、現在の構成のエージェント型コーディングアシスタント機能とともに、V 字モデルライフサイクルの複数の工程をカバーする 仕様駆動開発 をサポートする Kiro に徐々に移行しています。単体テスト生成は引き続き重要な関心領域ですが、AUMOVIO のより大きな目標は、このツールをAUMOVIO 社内チームと外部パートナーの両方に利益をもたらす統合された製品グレードのオファリングに進化させることです。長期的なビジョンとしては、特化したモデルとオーケストレーターが開発ライフサイクル全体でシームレスに連携するマルチエージェントフレームワークへの移行を目指しています。 詳細については、 AWS for automotive および Manufacturing ページをご覧いただくか、今すぐ AWS にお問い合わせください。 Levent Kent Levent Kent は、アマゾンウェブサービス (AWS) のシニア生成 AI ソリューションアーキテクトです。銀行、教育、ヘルスケアから自動車、製造に至るまで、さまざまな分野で 14 年以上にわたるサービス提供経験とアーキテクチャの専門知識を有します。現在は、自動車や製造業のお客様とのコラボレーションを通じて、スケーラブルで革新的な生成 AI ソリューションの設計と構築を支援することで成功を収めています。空き時間には、友達と踊ったり歌ったりするのが好きです。 Aiham Taleb, PhD Aiham Taleb, PhDは、Generative AI Innovation Centerのシニアアプライドサイエンティストとして、AWS の顧客と直接協力し、複数の重要なユースケースにわたって生成AIを活用しています。Aiham は教師なし表現学習の博士号を持ち、コンピュータビジョン、自然言語処理、医用画像処理など、様々な機械学習アプリケーションにわたる業界経験を有しています。 Amir Mahdi Namazi Amir は、AUMOVIO における高性能コンピュータ (HPC) 向けの仮想化、クラウド、および AI のソリューションマネージャー兼プロジェクトリーダーです。彼は TH Köln で工学とコンピュータサイエンス、および産業工学の学士号を、OTH Regensburg で機械工学の学位を取得しています。Amir は2017年に Continental にデータアナリストとして入社し、旧パワートレイン部門で NOx センサーに関する業務に従事しました。2019年にはソフトウェアエンジニアとなり、AUTOSAR Classic と Engine Control Units に注力しました。2020年以降、Amir は ANS PL1 において HPC のソフトウェアアーキテクトの職に就き、2023年からは現在の役職に就いています。 Brian Jensen Brian Jensen は、AWS Generative AI Innovation Center のアプライドサイエンスマネージャーで、15年の経験を持っています。彼は、アイデア創出からプロトタイプ、そして本番環境まで、革新的な生成 AI の顧客エンゲージメントの提供を主導し、製造業、旅行・運輸、金融サービス、自動車産業など、様々なセクターにわたって高価値の成果を推進しています。Brian は、コンピュータビジョン、ロボティクス、時系列予測、医用画像処理など、多様な機械学習アプリケーションにおける豊富な専門知識を有しています。 Daniel Schleicher Daniel Schleicher は、Continental を担当する AWS のシニアソリューションアーキテクトで、SDVに注力しています。この分野において、彼は自動車アプリケーションへのクラウドコンピューティング原則の適用と、仮想化ハードウェアを活用した自動車アプリケーションのソフトウェア開発プロセスの進化に関心を持っています。以前の役職では、Daniel は Volkswagen においてエンタープライズ統合プラットフォームの AWS への移行を主導し、プロダクトマネージャーとして、Mercedes Intelligent Cloud の中核サービスの構築に貢献しました。 Kim Robins Kim Robins は、AWS の Generative AI Innovation Center のシニア AI ストラテジストです。彼は、人工知能と機械学習における豊富な専門知識を活用し、組織が革新的な製品を開発し、AI 戦略を洗練させることを支援し、目に見えるビジネス価値を創出しています。 Liza (Elizaveta) Zinovyeva Liza (Elizaveta) Zinovyeva は、AWS Generative AI Innovation Center のアプライドサイエンティストで、ベルリンを拠点としています。彼女は、さまざまな業界の顧客が生成 AI を既存のアプリケーションやワークフローに統合するのを支援しています。AI/ML、金融、ソフトウェアセキュリティのトピックに情熱を持っています。余暇には、家族との時間、スポーツ、新しい技術の学習、クイズを楽しんでいます。 Martin Kraus Martin Krausは、AUMOVIOでハイパフォーマンスコンピュータ(HPC)のDevOps組織を率いており、CI/CD/CT、AI、仮想化のトピックをカバーしています。彼は世界中のすべての HPC プロジェクトの効率的な開発セットアップに責任を持っています。自動車ソフトウェアプロジェクトのリーダーとして15年以上の経験があり、AUMOVIOをより速く効率的な開発へと変革することに情熱を注いでいます。 Nikita Kozodozi, PhD Nikita Kozodozi, PhDは、AWS Generative AI Innovation Centerのシニアアプライドサイエンティストで、AI 研究とビジネスの最前線で活動しています。Nikita は、業界を超えた AWS の顧客の実際のビジネス課題を解決するための生成 AI ソリューションを構築しています。Nikita は機械学習の博士号を保有しています。 Samer Odeh Samer Odehは、AWS のテクニカルアカウントマネージャーで、自動車業界の顧客サポートを専門としています。IT およびクラウド技術において15年以上の経験を有します。Samerは自動車企業が AWS インフラストラクチャを最適化し、クラウドサービスを活用してソフトウェア定義車両(SDV)のイノベーションを推進することに注力しています。Samer の専門分野は、クラウドアーキテクチャ、DevOps プラクティス、コネクテッドカーソリューションのための戦略的IT計画です。Samer は、自動車組織が運用の卓越性を達成し、AWS サービス、特に SDV 開発と展開の領域を活用してデジタルトランスフォーメーションを加速することに情熱を注いでいます。 本記事は Solutions Architect の坂本 和穂 が翻訳しました。

動画

該当するコンテンツが見つかりませんでした

書籍