TECH PLAY

AWS

AWS の技術ブログ

2961

ここ数か月で私たちが目撃したことの一つは、 基盤モデル (FM) におけるコンテキストウィンドウの拡大です。今日では多くの FM が、わずか 1 年前には想像もできなかったシーケンス長を処理できるようになりました。しかし、エンタープライズでの使用に必要な信頼性とセキュリティ基準を維持しながら、膨大な量の情報を処理できる AI を利用したアプリケーションを構築することは、依然として困難です。 これらの理由から、4 月 28 日より、フルマネージドサーバーレスオファリングとして、 Writer の Palmyra X5 および X4 モデルが Amazon Bedrock で提供開始されることをお知らせできることを喜ばしく思います。AWS は、Writer のフルマネージドモデルを提供する最初の大手クラウドプロバイダーです。Palmyra X5 は、Writer が本日リリースした新しいモデルです。Palmyra X4 は、以前は Amazon Bedrock Marketplace で提供されていました。 Writer の Palmyra モデルは、エンタープライズのセキュリティ基準と信頼性を維持しながら、複雑なエージェントベースのワークフローをサポートする堅牢な推論機能を提供します。Palmyra X5 は 100 万トークンのコンテキストウィンドウを備え、Palmyra X4 は 128K トークンのコンテキストウィンドウをサポートします。これらの広範なコンテキストウィンドウにより、これらのモデルは、アプリケーションおよびエージェント開発における従来の制約の一部を取り除き、より深い分析とより包括的なタスク完了を可能にします。 今回のリリースにより、Amazon Bedrock は、セキュリティ、プライバシー、 責任ある AI を備えた生成 AI アプリケーションの構築に必要な最先端のモデルとツールへのアクセスを継続的に提供します。 FM 開発のパイオニアである Writer は、業界をリードするモデルを Amazon SageMaker HyperPod でトレーニングおよびファインチューニングしています。最適化された分散トレーニング環境により、Writer はトレーニング時間を短縮し、モデルをより迅速に市場に投入しています。 Palmyra X5 および X4 のユースケース Writer の Palmyra X5 および X4 は、エンタープライズのユースケースのために特別に設計されており、強力な機能と、 System and Organization Controls (SOC) 2 、 Payment Card Industry Data Security Standard (PCI DSS) 、 Health Insurance Portability and Accountability Act (HIPAA) コンプライアンス 認証などの厳格なセキュリティ対策を組み合わせています。 Palmyra X5 および X4 モデルは、複数の業界にわたるさまざまなエンタープライズのユースケースで優れたパフォーマンスを発揮します: 金融サービス – Palmyra モデルは、投資銀行、アセットマネジメント、ウェルスマネジメントにわたるソリューションを強化します。これには、取引案件のサポート、10-Q、10-K、決算説明会のトランスクリプトからの要点抽出、ファンドおよび市場調査、パーソナライズされた大規模な顧客アウトリーチが含まれます。 ヘルスケアとライフサイエンス – 保険支払者と医療提供者は、Palmyra モデルを使用して、加入者の獲得やオンボーディング、異議申立てや苦情の対応、ケースマネジメントや利用管理、法人向け提案書 (RFP) 作成のためのソリューションを構築しています。製薬企業は、これらのモデルを、商用アプリケーション、メディカルアフェアーズ、R&D、臨床試験に使用しています。 小売および消費財 – Palmyra モデルは、製品説明の作成とバリエーションの作成、パフォーマンス分析、SEO アップデート、ブランドとコンプライアンスのレビュー、自動化されたキャンペーンワークフロー、RFP の分析と対応のための AI ソリューションを実現します。 テクノロジー – テクノロジー業界の企業は、パーソナライズされたアカウントベースのマーケティング、コンテンツ作成、キャンペーンワークフローのオートメーション、アカウントの準備と調査、ナレッジサポート、求人概要と候補者レポート、そして RFP への対応のために Palmyra モデルを実装しています。 Palmyra モデルは、次を含む包括的なエンタープライズグレードの機能スイートをサポートしています: 適応型思考 – 高度な推論機能とエンタープライズグレードの信頼性を組み合わせたハイブリッドモデル。複雑な問題解決や高度な意思決定プロセスで優れたパフォーマンスを発揮します。 マルチステップのツール呼び出し – 複雑なマルチステップのワークフローやエージェントアクションで使用できる高度なツール呼び出し機能のサポート。これには、システムの更新、トランザクションの実行、E メールの送信、ワークフローのトリガーなどのタスクを実行するためのエンタープライズシステムとのインタラクションが含まれます。 エンタープライズグレードの信頼性 – エンタープライズでの使用に必要となる厳格な品質基準を維持しながら、一貫性があり、かつ、精度の高い結果を実現します。モデルはビジネスコンテンツに基づいて特別にトレーニングされており、出力はプロフェッショナル基準に準拠します。 Amazon Bedrock での Palmyra X5 および X4 の使用 Amazon Bedrock におけるすべての新しいサーバーレスモデルについては、まずアクセスをリクエストする必要があります。 Amazon Bedrock コンソール のナビゲーションペインで [モデルアクセス] を選択して、 [Palmyra X5] および [Palmyra X4] モデルへのアクセスを有効にします。 モデルにアクセスできるようになると、 Amazon Bedrock Converse API を使用して、任意の AWS SDK でアプリケーションの構築を開始できます。モデルは、次の推論プロファイルを使用して クロスリージョン推論 を使用します: Palmyra X5 の場合: us.writer.palmyra-x5-v1:0 Palmyra X4 の場合: us.writer.palmyra-x4-v1:0 AWS SDK for Python (Boto3) を使用したサンプル実装を次に示します。このシナリオでは、既存の製品の新しいバージョンがあります。新機能の詳細な比較を作成する必要があります。新旧の製品マニュアルがあります。Palmyra X5 の大規模な入力コンテキストを使用して、2 つのバージョンのマニュアルを読んで比較し、比較ドキュメントの初稿を作成します。 import sys import os import boto3 import re AWS_REGION = "us-west-2" MODEL_ID = "us.writer.palmyra-x5-v1:0" DEFAULT_OUTPUT_FILE = "product_comparison.md" def create_bedrock_runtime_client(region: str = AWS_REGION): """Create and return a Bedrock client.""" return boto3.client('bedrock-runtime', region_name=region) def get_file_extension(filename: str) -> str: """Get the file extension.""" return os.path.splitext(filename)[1].lower()[1:] or 'txt' def sanitize_document_name(filename: str) -> str: """Sanitize document name.""" # 拡張子を削除してベース名を取得します name = os.path.splitext(filename)[0] # 無効な文字をスペースに置き換えます name = re.sub(r'[^a-zA-Z0-9\s\-\(\)\[\]]', ' ', name) # 複数のスペースを 1 つのスペースに置き換えます name = re.sub(r'\s+', ' ', name) # 先頭/末尾のスペースを削除します return name.strip() def read_file(file_path: str) -> bytes: """Read a file in binary mode.""" try: with open(file_path, 'rb') as file: return file.read() except Exception as e: raise Exception(f"Error reading file {file_path}: {str(e)}") def generate_comparison(client, document1: bytes, document2: bytes, filename1: str, filename2: str) -> str: """Generate a markdown comparison of two product manuals.""" print(f"Generating comparison for {filename1} and {filename2}") try: response = client.converse( modelId=MODEL_ID, messages=[ { "role": "user", "content": [ { "text": "Please compare these two product manuals and create a detailed comparison in markdown format.Focus on comparing key features, specifications, and highlight the main differences between the products." }, { "document": { "format": get_file_extension(filename1), "name": sanitize_document_name(filename1), "source": { "bytes": document1 } } }, { "document": { "format": get_file_extension(filename2), "name": sanitize_document_name(filename2), "source": { "bytes": document2 } } } ] } ] ) return response['output']['message']['content'][0]['text'] except Exception as e: raise Exception(f"Error generating comparison: {str(e)}") def main(): if len(sys.argv) < 3 or len(sys.argv) > 4: cmd = sys.argv[0] print(f"Usage: {cmd} <manual1_path> <manual2_path> [output_file]") sys.exit(1) manual1_path = sys.argv[1] manual2_path = sys.argv[2] output_file = sys.argv[3] if len(sys.argv) == 4 else DEFAULT_OUTPUT_FILE paths = [manual1_path, manual2_path] # 各ファイルの存在を確認します for path in paths: if not os.path.exists(path): print(f"Error: File does not exist: {path}") sys.exit(1) try: # Bedrock のクライアントを作成します bedrock_runtime = create_bedrock_runtime_client() # 両方のマニュアルを読みます print("Reading documents...") manual1_content = read_file(manual1_path) manual2_content = read_file(manual2_path) # ドキュメントから直接比較を生成します print("Generating comparison...") comparison = generate_comparison( bedrock_runtime, manual1_content, manual2_content, os.path.basename(manual1_path), os.path.basename(manual2_path) ) # 比較結果をファイルに保存します with open(output_file, 'w') as f: f.write(comparison) print(f"Comparison generated successfully! Saved to {output_file}") except Exception as e: print(f"Error: {str(e)}") sys.exit(1) if __name__ == "__main__": main() AWS SDK で Amazon Bedrock を利用する方法については、 「Amazon Bedrock ユーザーガイド」のコードサンプル をご覧ください。 知っておくべきこと Writer の Palmyra X5 および X4 モデル は、米国西部 (オレゴン) の AWS リージョン において、 Amazon Bedrock で、 クロスリージョン推論 とともに本日よりご利用いただけます。リージョン別のモデルサポートに関する最新情報については、 Amazon Bedrock のドキュメント をご覧ください。料金については、「 Amazon Bedrock の料金 」にアクセスしてください。 これらのモデルは、英語、スペイン語、フランス語、ドイツ語、中国語、および他に複数の言語をサポートしているため、グローバルエンタープライズアプリケーションに適しています。 これらのモデルの拡張コンテキスト機能を使用することで、デベロッパーは、広範なドキュメントの処理、複雑なマルチステップ推論の実行、高度なエージェントワークフローの処理が可能な、より高度なアプリケーションとエージェントを構築できます。 Writer の Palmyra X5 および X4 モデルの使用を今すぐ開始するには、「 Amazon Bedrock ユーザーガイド 」の Writer のモデルのセクションにアクセスしてください。また、 community.aws サイトの生成 AI セクションでは、ビルダーコミュニティがソリューションで Amazon Bedrock をどのように利用しているのかを詳しく知ることもできます。 これらの強力な新機能を使用して何を構築したのかを、ぜひお知らせください! – Danilo 原文は こちら です。 ニュースブログはいかがでしたか? こちらの 1 分間のアンケートにぜひご協力ください ! (この アンケート は外部企業に委託して行われます。AWS は、 AWS プライバシー通知 に記載された内容に従って、お客様の情報を取り扱います。AWS は、このアンケートを通じて収集したデータを所有し、収集した情報をアンケートの回答者と共有することはありません)
アバター
Summit シーズンが本格的に到来しました! AWS Summit に参加したことがない方は、ぜひお近くで開催される Summit に足を運んでみてください。Summit は大規模な終日イベントで、講演に参加したり、興味深いデモやアクティビティを見たり、AWS や業界関係者と交流したりできます。また、これ以外のお楽しみもご用意しています。何より、参加費は無料です。必要なのは、登録することだけです! Summit のリストは、こちらの AWS イベントページ でご覧いただけます。ちなみに、同じページで、お近くで開催される他の AWS イベントもご覧いただけます。横にあるフィルターを使用して、興味のあるイベントを見つけてください。 AWS Summit といえば、今週は AWS Summit London (4 月 30 日) が開催されます。私にとって地元開催ということもあり、企画にも深く関わってきました。絶対に見逃せないイベントです! ぜひチェックしてみてください。会場でお会いできることを願っています。 4 月 21 日週の AWS のエキサイティングなリリースのハイライトを知りたいですか? それでは見てみましょう! 注目の新機能 まずは、4 月 21 日週にリリースされた機能強化をいくつか見てみましょう。 Amazon Q Developer が機能開発のための最先端のエージェントをリリース – AWS は、Amazon Q Developer のソフトウェア開発エージェントのアップデートを発表しました。このエージェントは、業界ベンチマークで最先端のパフォーマンスを達成し、コーディングの問題に対して複数の候補ソリューションを生成できます。この新しいエージェントは、より信頼性の高い提案を提供します。これは、デバッグ時間を短縮するのに役立つとともに、デベロッパーがより高度な設計とイノベーションに注力することを可能にします。 Amazon Cognito が更新トークンのローテーションのサポートを開始 – Amazon Cognito が OAuth 2.0 更新トークンのローテーションをサポートするようになりました。これにより、ユーザープールクライアントは、既存の更新トークンを新しい更新トークンに定期的かつ自動的に置き換えることができるため、ユーザーの再認証を必要とせずにセキュリティを強化できます。この機能は、利便性を考慮した長期トークンと、セキュリティを重視した短期トークンのいずれかをお客様に選択させるのではなく、更新トークンを頻繁に自動更新するため、お客様がシームレスなユーザーエクスペリエンスと強化されたセキュリティの両方を実現するのに役立ちます。 Amazon Bedrock Intelligent Prompt Routing の一般提供を開始 – Amazon Bedrock Intelligent Prompt Routing の一般提供が開始されました。この機能は、モデルファミリー内の異なる基盤モデルにプロンプトを自動的にルーティングすることで、応答の質とコストを最適化します。このサービスは、Claude (Anthropic)、Llama (Meta)、Nova (Amazon) などの複数のモデルファミリーにわたって向上した設定可能性を提供するため、ユーザーは、1 つのファミリーから任意の 2 つのモデルを選択し、カスタムルーティング条件を設定できます。 M365 Word および Outlook 向けの Amazon Q Business 統合のアップグレード – Microsoft Word および Outlook 向けの Amazon Q Business 統合では、企業ナレッジベースの検索、画像添付のサポート、より詳細なプロンプトのためのより大きなコンテキストウィンドウの処理が可能になりました。これらの機能強化により、ユーザーは、アプリケーションやコンテキストを切り替えることなく、ドキュメントや E メールの作成中に、インデックスが付けられた企業データにシームレスにアクセスし、よりリッチなコンテンツを取り込むことができます。 セキュリティ 4 月 21 日週はセキュリティに関する新たな改善がいくつかリリースされましたが、特に私の目に留まったものを次にご紹介します: AWS Account Management で、認可済み IAM プリンシパルを介したアカウント名の更新のサポートを開始 – AWS では、IAM プリンシパルがアカウント名を更新できるようになり、ルートユーザーアクセスに関する以前の要件がなくなりました。これは、スタンドアロンアカウントと AWS Organizations 内のメンバーアカウントの両方に適用され、そこで管理アカウントの認可済み IAM プリンシパルと委任された管理者アカウントがアカウント名を一元的に管理できます。 AWS Resource Explorer が AWS PrivateLink のサポートを開始 – AWS Resource Explorer は、すべての商用リージョンで AWS PrivateLink をサポートするようになりました。これにより、パブリックインターネットアクセスを必要とせずに、VPC 内の AWS リージョンとアカウント全体で、安全なリソース検出および検索機能を実現できます。 Amazon SageMaker Lakehouse が属性ベースのアクセス制御のサポートを開始 – Amazon SageMaker Lakehouse は、属性ベースのアクセス制御 (ABAC) をサポートするようになりました。これにより、管理者は、個別のポリシーを作成するのではなく、IAM ID に関連付けられた動的な属性を使用してデータアクセス許可を管理できます。これは、一致するタグを持つすべての IAM プリンシパルに許可が自動的に付与されるようにすることで、アクセス管理を簡素化します。これにより、チームの拡大に合わせてアクセス制御をより効率的に処理できるようになります。 ネットワーキング ご存知かもしれませんが、業界では、可能な限り既存のインフラストラクチャを移行しながら、新しいシステムのデフォルトプロトコルとして IPv6 を採用しようという気運が高まっています。今週、お客様がこの目標を達成するのをサポートするために、さらに 2 つのサービスが IPv6 のサポートを追加しました: Amazon SQS がインターネットプロトコルバージョン 6 (IPv6) のサポートを開始 – Amazon SQS は、API リクエストで IPv6 をサポートするようになりました。これにより、お客様は、パブリックエンドポイントを通じて、IPv6、IPv4、またはデュアルスタッククライアントを使用して通信できるようになりました。 AWS AppConfig がインターネットプロトコルバージョン 6 (IPv6) のサポートを開始 – 既存の IPv4 機能を維持しながら、IPv4 と IPv6 の両方のエンドポイントをサポートするようになりました。 キャパシティとコスト Amazon Kinesis Data Streams をご利用のお客様は、より高いデフォルトクォータを利用できます。また、Amazon Redshift Serverless をご利用のお客様は、新たなコスト削減の機会を活用できます。 Amazon Kinesis Data Streams のデフォルトのシャード制限が AWS アカウントあたり最大 20,000 に引き上げ – Amazon Kinesis Data Streams は、特定のリージョンでアカウントあたり最大 20,000 シャードという、より高いデフォルトの処理キャパシティをサポートするようになりました。これにより、お客様は、制限の引き上げをリクエストすることなく、10 GB/秒の入力と 20 GB/秒の出力を処理できます。 Amazon Redshift Serverless のサーバーレス予約 – 特定の RPU キャパシティを 1 年間契約することで、Amazon Redshift Serverless のコストを最大 24% 削減できるようになりました。前払いなしで 20% 割引を受けるか、全額前払いで最大限のコスト削減を実現するかを選択できます。 AWS のお知らせの詳細なリストについては、「 AWS の最新情報 」ページにアクセスしてください。 推奨される学習リソース 最近、MCP が話題になっています! AWS で MCP を活用する可能性について、最新情報や詳細を知るのに役立つ 2 つのすばらしいブログ記事をご紹介します。 Model Context Protocol (MCP) and Amazon Bedrock – この記事では、Giuseppe Battista が Amazon Bedrock で MCP を使用する方法を解説しています。 Scaling MCP Across Your Organization Through AWS Lambda – Chris Williams 氏が、スケーラビリティとセキュリティを実現するために、AWS Lambda で実行されるリモートツールを登録しながら、MCP サーバーをローカルに維持できるようにする方法についての非常に興味深い方法をご紹介します。 毎週月曜日に公開される Weekly Roundup は、AWS のリリースに関する最新情報を把握するのに役立ちます。5 月 5 日週もぜひチェックして、エキサイティングなニュースをご覧ください! よい一日をお過ごしください! 原文は こちら です。 ニュースブログはいかがでしたか? こちらの 1 分間のアンケートにぜひご協力ください ! (この アンケート は外部企業に委託して行われます。AWS は、 AWS プライバシー通知 に記載された内容に従って、お客様の情報を取り扱います。AWS は、このアンケートを通じて収集したデータを所有し、収集した情報をアンケートの回答者と共有することはありません)
アバター
本記事は 2025 年 4 月 29 日に公開された “ Extend the Amazon Q Developer CLI with Model Context Protocol (MCP) for Richer Context ” を翻訳したものです。 本日、 Amazon Q Developer はコマンドラインインターフェイス(CLI)での Model Context Protocol (MCP) サポート を発表しました。開発者は MCP サポートを使用して外部データソースを Amazon Q Developer CLI に接続し、よりコンテキストを意識した応答を得ることができます。MCP ツールとプロンプトを Amazon Q Developer CLI に統合することで、事前構築された幅広い統合リストや、 stdio をサポートするあらゆる MCP サーバーにアクセスできるようになります。この追加コンテキストにより、Amazon Q Developer は、独自の統合用のコードを開発する必要なく、より正確なコードを記述し、データ構造を理解し、適切なユニットテストを生成し、データベースドキュメントを作成し、正確なクエリを実行できるようになります。MCP ツールとプロンプトで Amazon Q Developer を拡張することで、開発者は開発タスクをより迅速に実行でき、開発者体験を効率化できます。AWS では、Anthropic による Model Context Protocol (MCP) のようなエージェント向けの人気のあるオープンソースプロトコルをサポートすることに取り組んでいます。今後数週間のうちに、Amazon Q Developer IDE プラグイン内でこの機能を拡張していく予定です。 はじめに 私は常に、自分の作業を効率化し、新しい可能性を引き出せるツールやテクノロジーを探しています。そのため、Amazon Q Developer コマンドラインインターフェイス(CLI)に Model Context Protocol (MCP) サポートが最近追加されたことをとても嬉しく思います。MCP は、アプリケーションが LLM とシームレスに統合する方法を標準化するオープンプロトコルであり、コンテキストを共有し、データソースにアクセスし、AI を活用した機能を実現する共通の方法を提供します。MCP についての詳細は この記事 で読むことができます。 Amazon Q Developer は以前からツールを実行することができました。私はこれまで、 CLI コマンドの実行や AWS リソースの記述ができることについて 紹介してきました。そして、Amazon Q Developer CLI が MCP ツールとプロンプトをサポートしたことで、さらにツールを追加できるようになりました。たとえば、これまではAWリソースを取得して確認することはできましたが、アプリケーションを開発するためには、データベーススキーマやメッセージのフォーマットなども確認する必要があります。ここで、MCP を設定してこの追加コンテキストを提供する方法を見てみましょう。 この投稿では、私が取り組んでいる単純な学習管理システム(Learning Management System : LMS)のデータベーススキーマを Amazon Q Developer に提供するための MCP サーバーを設定します。Amazon Q Developer は SQL を記述するのが得意ですが、私のデータベースのスキーマは知りません。テーブル構造やリレーションはデータベースに保存されており、プロジェクトのソースコードには含まれていません。そこで、データベーススキーマを照会できる MCP サーバーを使用することにしました。具体的には、 公式の PostgreSQL リファレンス実装 を使用して Amazon Relational Database Service (RDS) に接続します。それでは、始めましょう。 Model Context Protocol の登場前 MCP サポートが導入される以前の Amazon Q Developer CLI は、bash コマンドの実行、ファイルやファイルシステムとのやりとり、さらには AWS サービスへの呼び出しなど、ネイティブツール群を提供していました。しかし、データベースのクエリに関しては、CLI の機能は限られていました。 たとえば、MCP サーバーを設定する前に、Amazon Q Developer に「学生と各学生が取得している単位数を一覧表示するクエリを書いて」と頼みました。以下の画像にあるように、Amazon Q Developer は私の LMS のデータベーススキーマに関する具体的な知識がなかったため、一般的な SQL クエリしか生成できませんでした。 これは素晴らしいスタートですが、Amazon Q developer がデータベーススキーマを把握していれば、もっと多くのことができそうです。 Model Context Protocol の設定 Amazon Q Developer CLI の MCP サポートの開始により、MCP サーバーを簡単に設定できるようになりました。 mcp.json というファイルに 1 つ以上の MCP サーバーを設定します。この設定をホームディレクトリ(例: ~/.aws/amazonq/mcp.json )に保存すると、マシン上のすべてのプロジェクトに適用されます。あるいは、ワークスペースのルート(例: .amazonq/mcp.json )に設定を保存して、プロジェクトメンバー間で共有することもできます。以下は PostgreSQL の MCP サーバーの設定例です。 { "mcpServers": { "postgres": { "command": "npx", "args": [ "-y", "@modelcontextprotocol/server-postgres", "postgresql://USERNAME:PASSWORD@HOST:5432/DBNAME" ] } } } MCP サーバーを設定したところで、Amazon Q Developer がどのように私の体験を向上させるかを見てみましょう。 Model Context Protocol の登場後 まず、新しい Amazon Q Developer セッションを開始すると、すぐにその良さが確認できます。既存のツールに加えて、Amazon Q Developer は以下の画像に示すように PostgreSQL にアクセスできるようになりました。これにより、追加で統合用のコードを書くことなく、データベースのスキーマを簡単に探索し、テーブルの構造を理解し、さらには複雑な SQL クエリを実行できます。 MCP サーバーをテストするために、Amazon Q Developer に「データベーステーブルを一覧表示して」と頼んでみましょう。以下の例で見られるように、Amazon Q Developer は私が PostgreSQL データベースについて尋ねていることを理解し、MCP サーバーを使用して私の 3 つのテーブル「students」「courses」「enrollment」をリストアップしました。 この投稿の前半で取り上げた例に戻ってみましょう。再び、Amazon Q Developer に「学生と各学生が取得している単位数を一覧表示するクエリを書いて」と頼むと、今度はもはや一般的なクエリを返すだけではありませんでした。代わりに、Amazon Q Developer はまず私のデータベース内の関連するテーブルについて記述し、適切な SQL クエリを生成し、それを実行して、期待する結果を提供してくれました。 もちろん、Amazon Q Developer はクエリを書くだけでなく、もっと多くのことができます。Amazon Q Developer は MCP サーバーを使用して、データベースにアクセスする Java コードを書いたり、データレイヤーのユニットテストを作成したり、データベースのドキュメントを作成したりなど、さらに多くのことができます。たとえば、Amazon Q Developer に「Mermaid 構文を使用してエンティティ関係(ER)図を作成して」と頼みました。Amazon Q Developer はデータベーススキーマの視覚的な表現を生成し、さまざまなエンティティ間の関係をより明確に理解するのに役立ちました。 MCP の Amazon Q Developer CLI への統合により、必要に応じて追加ツールを導入できるようになり、作業が大幅に効率化されました。 まとめ Amazon Q Developer CLI に MCP サポートが追加されたことで、コンテキストの共有やデータソースへのアクセスを標準化された方法で行えるようになりました。この投稿では、Amazon Q Developer CLI の MCP 統合を使用して、PostgreSQL データベースへの接続をすばやく設定し、スキーマを探索し、追加の統合コードを書くことなく複雑な SQL クエリを生成する方法をご紹介しました。今後、皆さんが MCP を活用して開発作業をさらに強化する様子を見るのが楽しみです。是非、 MCP の機能を試し 、GitHub の AWS MCP サーバー リポジトリをチェックすることをオススメします。 翻訳はApp Dev Consultantの宇賀神が担当しました。
アバター
米国東部 (バージニア北部) リージョンは、 Amazon Web Services (AWS) が初めて立ち上げた リージョン であり、過去数年間で驚異的な成長を遂げ、お客様に広く利用されてきました。現在、スタートアップから大企業まで、幅広いお客様にご利用いただいている AWS は、米国東部 (バージニア北部) リージョンのインフラストラクチャとキャパシティを着実に拡大してきました。米国東部 (バージニア北部) リージョンは 6 つの アベイラビリティーゾーン で構成されており、強化された冗長性をお客様に提供するとともに、お客様が高可用性アプリケーションを設計できるようにしています。 4 月 24 日、メリーランド州に所在する新しいアベイラビリティーゾーンが米国東部 (バージニア北部) リージョンに追加されることをお知らせします。このリージョンは 2026 年に開設予定です。 この新しいアベイラビリティゾーンは、完全に冗長的な専用ファイバー経由で、高帯域幅かつ低レイテンシーのネットワーク接続によって、他のアベイラビリティーゾーンに接続されます。メリーランド州に開設予定のアベイラビリティーゾーンは、米国東部 (バージニア北部) リージョンにおける 生成 AI と 高度なコンピューティングワークロード の急速な成長をサポートするうえでも重要な役割を果たします。 すべてのアベイラビリティーゾーンは、リージョン内において、他のアベイラビリティーゾーンから物理的に数キロメートル (km) 離れていますが、すべてのアベイラビリティーゾーンは互いに 100 km (60 マイル) 以内にあります。ネットワークパフォーマンスは、米国東部 (バージニア北部) リージョン内のメリーランド州とバージニア州のアベイラビリティーゾーン間で同期レプリケーションを実行するのに十分です。アプリケーションが複数のアベイラビリティーゾーンにパーティショニングされている場合、ワークロードはより適切に分離され、停電、落雷、竜巻、地震などの問題から保護されます。 今回の発表により、AWS が現在取り組んでいるのは、 ニュージーランド 、 サウジアラビア王国 、 台湾 、 AWS European Sovereign Cloud の 4 つの新しいリージョンと、今後立ち上げ予定の 13 の新しいアベイラビリティーゾーンとなりました。 新しいアベイラビリティーゾーンの地理的情報 3 月に、すべての AWS リージョンとアベイラビリティーゾーンの 地理的位置情報 についてのよりきめ細かい可視性を提供しました。メリーランド州に新たに開設予定のこのアベイラビリティーゾーンの新しい地理的情報を反映するため、「 AWS Regions and Availability Zones 」ページを更新しました。次のスクリーンショットに示すように、新たに開設予定のアベイラビリティーゾーンのインフラストラクチャは、米国東部 (バージニア北部) us-east-1 リージョンのために、 メリーランド州 ( 米国 ) に配置される予定です。 お客様は引き続きこの地理的情報を使用して、規制、コンプライアンス、運用上の要件に適合するアベイラビリティーゾーンを選択できます。 新しいアベイラビリティーゾーンが立ち上げられると、 AWS マネジメントコンソール 、 AWS コマンドラインインターフェイス (AWS CLI) 、 AWS SDK を通じて、米国東部 (バージニア北部) リージョンの他のアベイラビリティーゾーンとあわせて利用できるようになります。 引き続きご期待ください 米国東部 (バージニア北部) リージョンのこの新しいアベイラビリティーゾーンは、2026 年に一般提供が開始される予定です。新しいアベイラビリティーゾーンが開設されたらすぐに知ることができるよう、いつものように AWS ニュースブログの リージョンニュース をご確認ください。 詳細については、 AWS グローバルインフラストラクチャのリージョンとアベイラビリティーゾーン のページまたは AWS ドキュメントの「 AWS Regions and Availability Zones 」ページにアクセスしてください。フィードバックは、 AWS re:Post に、または通常の AWS サポートの連絡先を通じてお寄せください。 – Channy 原文は こちら です。 ニュースブログはいかがでしたか? こちらの 1 分間のアンケートにぜひご協力ください ! (この アンケート は外部企業に委託して行われます。AWS は、 AWS プライバシー通知 に記載された内容に従って、お客様の情報を取り扱います。AWS は、このアンケートを通じて収集したデータを所有し、収集した情報をアンケートの回答者と共有することはありません)
アバター
4 月 24 日、 AWS AppSync Events がチャネル名前空間のデータソース統合をサポートするようになったことをお知らせします。これにより、デベロッパーは、より高度なリアルタイムアプリケーションを作成できるようになりました。この新機能により、 AWS Lambda 関数、 Amazon DynamoDB テーブル、 Amazon Aurora データベース、および他のデータソースをチャネル名前空間ハンドラーに関連付けることができます。AWS AppSync Events を利用すると、データ検証、イベント変換、イベントの永続的ストレージなどの機能を備えたリッチなリアルタイムアプリケーションを構築できます。 これらの新機能により、デベロッパーは、Lambda 関数を利用してイベントを変換およびフィルタリングすることで高度なイベント処理ワークフローを作成したり、新しい AppSync_JS バッチユーティリティを使用してイベントのバッチを DynamoDB に保存したりできます。この統合により、複雑なインタラクティブフローを実現でき、開発時間と運用上のオーバーヘッドを削減できます。例えば、複雑な統合コードを記述することなく、イベントをデータベースに自動的に保存できるようになりました。 データソース統合の概要 AWS マネジメントコンソール を使用してデータソース統合をセットアップする方法を順に見ていきましょう。まず、コンソールで AWS AppSync に移動し、Event API を選択 (または新規作成) します。 イベントデータを DynamoDB に直接永続化 複数の種類のデータソース統合から選択できます。この最初の例では、データソースとして DynamoDB テーブルを作成します。まず DynamoDB テーブルが必要なので、コンソールで DynamoDB に移動し、 event-messages という新しいテーブルを作成します。この例で必要なのは、 id というパーティションキーを使用してテーブルを作成することだけです。ここで、 [テーブルを作成] をクリックし、デフォルトのテーブル設定を受け入れてから、コンソールで AppSync に戻ります。 AppSync コンソール で、先ほど設定した Event API に戻り、タブ付きナビゲーションパネルから [データソース] を選択して、 [データソースを作成] ボタンをクリックします。 データソースに名前を付けた後、 [データソース] ドロップダウンメニューから [Amazon DynamoDB] を選択します。これで DynamoDB の設定オプションが表示されます。 データソースの設定が完了したら、ハンドラーロジックを実装できます。DynamoDB にイベントを永続化するパブリッシュハンドラーの例を次に示します: import * as ddb from '@aws-appsync/utils/dynamodb' import { util } from '@aws-appsync/utils' const TABLE = 'events-messages' export const onPublish = { request(ctx) { const channel = ctx.info.channel.path const timestamp = util.time.nowISO8601() return ddb.batchPut({ tables: { [TABLE]: ctx.events.map(({id, payload}) => ({ channel, id, timestamp, ...payload, })), }, }) }, response(ctx) { return ctx.result.data[TABLE].map(({ id, ...payload }) => ({ id, payload })) }, } ハンドラーコードを追加するために、タブ付きナビゲーションで [名前空間] をクリックします。そこでは、新しい [デフォルト] の名前空間が既に作成されています。デフォルトの名前空間をクリックして開くと、設定の詳細のすぐ下に [イベントハンドラー] を追加するためのボタンがあります。 [イベントハンドラーを作成] をクリックすると新しいダイアログが開きます。そこで、設定として [データソースを使用したコード] を選択し、パブリッシュ設定として DynamoDB データソースを選択します。 ハンドラーを保存したら、コンソールに組み込まれているテストツールを使用して統合をテストできます。ここでのデフォルト値は機能するはずです。以下に示すように、2 つのイベントが DynamoDB テーブルに正常に書き込まれました。 DynamoDB でキャプチャされたすべてのメッセージは次のとおりです! エラー処理とセキュリティ 新しいデータソース統合には、包括的なエラー処理機能が含まれています。同期オペレーションでは、機密性の高いバックエンド情報をクライアントに公開しないことでセキュリティを維持しながら、 Amazon CloudWatch にログ記録される特定のエラーメッセージを返すことができます。認可シナリオでは、Lambda 関数を使用してカスタム検証ロジックを実装し、特定のチャネルまたはメッセージタイプに対するアクセスを制御できます。 今すぐご利用いただけます AWS AppSync Events のデータソース統合は、AWS AppSync が利用可能なすべての AWS リージョンで今すぐご利用いただけます。これらの新機能は、AWS AppSync コンソール、 AWS コマンドラインインターフェイス (CLI)、または AWS SDK を通じてご利用いただけます。データソース統合の使用に追加料金はかかりません。お支払いいただくのは、(Lambda 呼び出しや DynamoDB オペレーションなど) 使用した基盤となるリソースと、既存の AppSync Events の使用量についての料金のみです。 AWS AppSync Events とデータソース統合の詳細については、 AWS AppSync Events のドキュメント にアクセスしてください。より強力なリアルタイムアプリケーションの構築を今すぐ開始しましょう。 – Micah 原文は こちら です。 ニュースブログはいかがでしたか? こちらの 1 分間のアンケートにぜひご協力ください ! (この アンケート は外部企業に委託して行われます。AWS は、 AWS プライバシー通知 に記載された内容に従って、お客様の情報を取り扱います。AWS は、このアンケートを通じて収集したデータを所有し、収集した情報をアンケートの回答者と共有することはありません)
アバター
2018 年の AWS Graviton プロセッサのリリース 以来、当社はイノベーションを続け、お客様のクラウドワークロードのパフォーマンスを向上させてきました。Graviton3 ベースのインスタンスの成功を受けて、NVMe ベースの SSD ローカルストレージ搭載の AWS Graviton4 プロセッサ を利用した 3 つの新しい Amazon Elastic Compute Cloud (Amazon EC2) インスタンスファミリーであるコンピューティング最適化インスタンス (C8gd)、汎用インスタンス (M8gd)、メモリ最適化インスタンス (R8gd) を発表できることを嬉しく思います。これらのインスタンスは、同等の AWS Graviton3 ベースのインスタンスと比較して、コンピューティングパフォーマンスが最大 30%、I/O 集約型データベースワークロードのパフォーマンスが最大 40% 向上し、I/O 集約型リアルタイムデータ分析のクエリ結果が最大 20% 高速になります。 新しいインスタンスにおいて改善された点をいくつか見てみましょう。これらのインスタンスは、Graviton3 ベースの以前のインスタンスと比較して、最大 3 倍の vCPU (最大 192 個の vCPU)、3 倍のメモリ (最大 1.5 TiB)、3 倍のローカルストレージ (最大 11.4 TB の NVMe SSD ストレージ)、75% 増のメモリ帯域幅、2 倍の L2 キャッシュを実現する、より大きなインスタンスサイズを提供します。これらの機能が、大量のデータの処理、ワークロードのスケールアップ、結果が出るまでの時間の短縮、総保有コスト (TCO) の削減を実現します。これらのインスタンスは、最大 50 Gbps のネットワーク帯域幅と最大 40 Gbps の Amazon Elastic Block Store (Amazon EBS) 帯域幅も提供しており、Graviton3 ベースのインスタンスに比べて大幅に改善されています。さらに、 EC2 インスタンスの帯域幅加重設定 を使用して、これらのインスタンスのネットワークと Amazon EBS の帯域幅を最大 25% 調整できるようになりました。これにより、帯域幅リソースの割り当てをより柔軟に行えるようになり、ワークロードをより適切に最適化できます。 AWS Graviton4 に構築されたこれらのインスタンスは、 Amazon Elastic Kubernetes Service (Amazon EKS) 、 Amazon Elastic Container Service (Amazon ECS) 、 Amazon Elastic Container Registry (Amazon ECR) 、Kubernetes、Docker、および C/C++、Rust、Go、Java、Python、.NET Core、Node.js、Ruby、PHP などの一般的なプログラミング言語で記述されたアプリケーションを使用して構築された、マイクロサービスベースのコンテナ化されたアプリケーションを含む、ストレージ集約型の Linux ベースのワークロードに適しています。AWS Graviton4 プロセッサは、AWS Graviton3 プロセッサと比較した場合、ウェブアプリケーションでは最大 30%、データベースでは 40%、大規模な Java アプリケーションでは 45% 高速です。 インスタンスの仕様 また、これらのインスタンスには 2 つのベアメタルサイズ ( metal-24xl と metal-48xl ) が用意されているため、インスタンスを適切なサイズに設定して、物理リソースに直接アクセスできる利点があるワークロードをデプロイできます。さらに、これらのインスタンスは AWS Nitro System に構築されており、CPU の仮想化、ストレージ、ネットワーキング機能を専用のハードウェアとソフトウェアにオフロードして、ワークロードのパフォーマンスとセキュリティを強化します。そして、Graviton4 プロセッサは、すべての高速物理ハードウェアインターフェイスを完全に暗号化することで、強化されたセキュリティを提供します。 インスタンスはファミリーあたり 10 サイズで利用でき、それぞれ 2 種類のベアメタル構成が用意されています。 インスタンス名 vCPU メモリ (GiB) (C/M/R) ストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) medium 1 2/4/8* 1 x 59 最大 12.5 最大 10 large 2 4/8/16* 1 x 118 最大 12.5 最大 10 xlarge 4 8/16/32* 1 x 237 最大 12.5 最大 10 2xlarge 8 16/32/64* 1 x 474 最大 15 最大 10 4xlarge 16 32/64/128* 1 x 950 最大 15 最大 10 8xlarge 32 64/128/256* 1 x 1900 15 10 12xlarge 48 96/192/384* 3 x 950 22.5 15 16xlarge 64 128/256/512* 2 x 1900 30 20 24xlarge 96 192/384/768* 3 x 1900 40 30 48xlarge 192 384/768/1536* 6 x 1900 50 40 metal-24xl 96 192/384/768* 3 x 1900 40 30 metal-48xl 192 384/768/1536* 6 x 1900 50 40 *メモリ値はそれぞれ C8gd/M8gd/R8gd のものです 利用可能なリージョンと料金 M8gd、C8gd、R8gd インスタンスは、現在、米国東部 (バージニア北部、オハイオ) および米国西部 (オレゴン) リージョンでご利用いただけます。これらのインスタンスは、オンデマンドインスタンス、Savings Plans、スポットインスタンスとして、またはハードウェア専有インスタンスあるいは専有ホストとして購入できます。 今すぐご利用いただけます M8gd、C8gd、R8gd の各インスタンスは、 AWS マネジメントコンソール 、 AWS コマンドラインインターフェイス (AWS CLI)、または AWS SDK を使用して、サポートされているリージョンで今すぐ起動できます。詳しくは、アプリケーションを Graviton インスタンスタイプに移行する際に役立つ一連の Graviton リソース をご覧ください。 Graviton 使用開始ガイド にアクセスして、Graviton の導入ジャーニーを開始することもできます。 – Micah 原文は こちら です。 ニュースブログはいかがでしたか? こちらの 1 分間のアンケートにぜひご協力ください ! (この アンケート は外部企業に委託して行われます。AWS は、 AWS プライバシー通知 に記載された内容に従って、お客様の情報を取り扱います。AWS は、このアンケートを通じて収集したデータを所有し、収集した情報をアンケートの回答者と共有することはありません)
アバター
こんにちは!アマゾン ウェブ サービス ジャパンのソリューションアーキテクト金杉です。 近年、生成 AI 技術の進化により、AI エージェントが大きな注目を集めています。特に、開発者の生産性を飛躍的に向上させる AI Coding Agent の活用が企業の間で熱を帯びています。AWS では、こうした生成 AI アプリケーションを効果的に構築・運用するためのプラットフォームを提供するとともに、GenAI Ops を通じた運用面でのサポートも充実させています。 生成 AI の最新状況をお届けするために、5月に7つのイベントを開催します。実際に導入・活用されているお客様による貴重な事例共有や、パートナー様のセッションも予定されています。本ブログでは、これらイベントについて、その概要と見どころをご紹介します。 情報満載!5月に予定されているイベント AI Agent 開発の 0→1 – AWS の実証事例に学ぶ、企画から組織展開までのメソッド (5月8日) 本セミナーは AI エージェント技術の活用を検討・推進されている方に最適です。AWS、Weights & Biases、エウレカ、TIS の各登壇者たちから実際の経験に基づいた知見をお話しします。本セミナー全体を通じ、企画から開発、運用・評価まで全工程にわたる知見を得ることが出来ます。 Amazon Bedrock Agent や W&B Weave、Langfuse などを活用した具体的な実装方法や AI Coding Agent による開発プロセスの自動化などについて実践的なアプローチを学ぶことができる貴重な機会ですので、ぜひご参加ください! 実施日程 2025年5月8日 (木) 10:00〜12:00 形式 オンライン 登録は こちら Coding Agent Workshop ~ 開発生産性向上とガバナンスの両立を目指した、Cline with Amazon Bedrock活用のコツ ~ (5月13日) 本セミナーでは、Cline と Amazon Bedrock を組み合わせ、企業として安全に AI Coding Agent を導入し、開発生産性の向上とセキュアな運用を両立を目指した環境を実際に体験いただきます。開発エージェントで出来ることは理解しているし、生産性が向上するメリットも分かるけど、どうやって開発業務に組み込めば良いのか分からないという方向けにぴったりのイベントです! 実施日程 2025年5月13日 (火) 13:00〜16:10 形式 物理開催 @ AWS 目黒オフィス 登録は こちら JAWS-UG Expert Online: Amazon Q Developer 特集 (5月14日) JAWS-UG コミュニティによる Amazon Q Developer に特化したオンラインイベントです。Amazon Q Developer は直近 強化された Amazon Q Developer CLI や、 日本語を含む言語対応の拡大 などワクワクする新機能をアナウンスしています。本イベントでは、Amazon Q Developer の基礎、そして AWS のソリューションアーキテクトによる事例や活用のテクニックをライトニングトーク形式で共有します。JAWS-UG の各支部が合同で開催し、メインセッションの後に各支部が独自コンテンツを用意しています。気になった支部にぜひ参加登録してみてください! 実施日程 2025年5月14日 (水) 19:00〜 (支部により終了時間が異なります) 形式 オンライン 登録はこちら [ 金沢 | 磐田 | 新潟 | 福岡 | AI/ML | 佐賀 ] ※ 申し込みページ準備中の支部があります。公開され次第、追記します。 GenAIOps – 生成 AI オブザーバビリティを Amazon Bedrock と Langfuse で実現 (5月15日) 本イベントは生成 AI オブザーバビリティを Amazon Bedrock と Langfuse で実現するハンズオンワークショップです。継続的評価の重要性を説く Eval-Centric AI の考え方や、オープンソースの生成 AI オブザーバビリティのツールとして代表的な Langfuse の解説から、ハンズオンワークショップを通じた実装体験まで、GenAIOps の実践に役立つ知見を提供します。 実施日程 2025年5月15日 (木) 14:00~17:30 (開場 13:30) 形式 物理開催 @ AWS 目黒オフィス Startup Loft 登録は こちら AI コーディングエージェント with AWS 〜「自律的にコードを書くAI」の AWS での始め方徹底ガイド〜 (5月22日) ソフトウェア開発の生産性が劇的に向上し、開発のあり方そのものを変えつつあるこの革新的技術について、本セミナーでは AI コーディングエージェントの現状と AWS ソリューションを幅広く扱います。開発者から、マネジメント職まで開発に携わるすべての方を対象に、AI コーディングエージェントでなにができるのか、どうこの技術と向き合っていくべきなのか、どのように導入するのかを紹介します。また、Amazon Q Developer と Cline を具体的なツールとして取り上げて、実践的な活用法を解説します。実際に導入されているお客様からの声も交え、セキュリティやガバナンス、コスト管理など実運用に必要な知識も提供します。 実施日程 2025年5月22日 (木) 14:00~16:00 形式 オンライン 登録は こちら Dify Enterprise on AWS – 企業 AI 活用の極意 (5月23日) Dify は、プログラミングの知識がなくても生成 AI アプリケーションを構築できるプラットフォームです。Dify をエンタープライズ企業で展開するのに適した Enterprise 版も提供されており、そのライセンスが AWS Marketplace 上で購入できるようになりました 。これを記念し、企業内で生成 AI 活用を推進されている方向けのセミナーを開催します。 Dify の AWS 環境でのデプロイ方法をお伝えするとともに、実際に社内展開している企業(カカクコム様、DNP 様、三越伊勢丹様)に事例を後共有いただきます。 実施日程 2025年5月23日 (金) 15:00~16:30 (開場 14:30) 形式 物理開催 @ AWS 目黒オフィス 登録は こちら Coding Agent at Loft #1 ~ Cline with Amazon Bedrock で 爆速開発体験ハンズオン ~ 大阪開催 (5月28日) 大阪でもAIコーディングエージェントを盛り上げたい! 本セミナーでは、Cline と Amazon Bedrock を題材に、AI コーディングエージェントを活用した開発手法に関する体験型ワークショップ(ハンズオン)を提供します。 AI コーディングエージェントである ClineやClineにネイティブで連携可能な生成AIサービスである Amazon Bedrock をご紹介します。その後、実際に VS Code に Cline の Plugin を追加し Amazon Bedrock と連携させたハンズオン形式のワークショップを行い、爆速開発を体験します。本セッションを通じて、AI コーディングエージェント活用戦略に役立つ知見を提供します。 実施日程 2025年5月28日 (火) 19:00〜21:00 形式 物理開催 @ AWS 大阪オフィス 26F 登録は こちら まとめ これらのイベントは、生成 AI そのものや AI エージェント、Coding Agent の導入を検討されている方から、すでに活用を始めている方まで、幅広い方々に価値のある内容となっています。改めて、各イベントの詳細・お申込みは、以下よりご確認いただけます。 5/8 AI Agent 開発の 0→1 – AWS の実証事例に学ぶ、企画から組織展開までのメソッド [ 登録先 ] 5/13 Coding Agent Workshop ~ 開発生産性向上とガバナンスの両立を目指した、Cline with Amazon Bedrock活用のコツ [ 登録先 ] 5/14 JAWS-UG Expert Online: Amazon Q Developer 特集 登録先: [ 金沢 | 磐田 | 新潟 | 福岡 | AI/ML | 佐賀 ] 5/15 GenAIOps – 生成 AI オブザーバビリティを Amazon Bedrock と Langfuse で実現 [ 登録先 ] 5/22 AI コーディングエージェント with AWS 〜「自律的にコードを書くAI」の AWS での始め方徹底ガイド〜 [ 登録先 ] 5/23 Dify Enterprise on AWS – 企業 AI 活用の極意 [ 登録先 ] 5/28 Coding Agent at Loft #1 ~ Cline with Amazon Bedrock で 爆速開発体験ハンズオン ~ 大阪開催 [ 登録先 ] また、6月25日〜26日には AWS Summit Japan  を開催します。AWS Summit でも多くの生成 AI セッション、ワークショップ、展示が予定されていますので、ぜひ足を運んでいただければと思います (ライブ配信もございます)。皆様の生成 AI 本格活用とその先のビジネスゴール達成の一助となれば幸いです。
アバター
みなさん、こんにちは。ソリューションアーキテクトの杉山です。今週も 週刊AWS をお届けします。 6 月 25 日 (水)、26 日 (木) に幕張メッセで開かれる AWS Summit Japan 2025 の事前登録 ができるようになりました。セッション、デモ、展示、ハッカソン、ハンズオンなどを提供し、大きな会場で参加者の熱量を肌で感じながら最新のテクノロジーを学習できます。業務に活かすためのヒントを各種コンテンツから得ることもできます。セッションなどは事前予約制となっており、ぜひ早めのご登録をよろしくお願いします。場所が遠い場合は、ホテルの予約も忘れずに :) それでは、先週の主なアップデートについて振り返っていきましょう。 2025 年 4 月 21 日週の主要なアップデート 4/21(月) Amazon Q Developer でソフトウェア開発エージェントのアップデート Visual Studio Code や JetBrains IDE の Q チャットウィンドウで「/dev」と入力することで、AI エージェントが開発を支援してくれる Amazon Q Developer のソフトウェア開発エージェント機能をアップデートしました。コード出力の品質が向上し、業界ベンチマークである SWTBench Verified で高いレベルのパフォーマンス (49%) を達成し、SWEBench Verified (66%) でもトップランクのモデルの中に位置しています。最近、 Amazon Q Developer が日本語対応 したこともあり、日本語ネイティブの方に使いやすくなっています。 Amazon SQS で IPv6 をサポート Amazon SQS の API リクエストエンドポイントで、IPv6 をサポートしました。IPv6、IPv4、またはデュアル スタックで Amazon SQS と通信できます。IPv6 を利用するアプリケーションで、SQS を利用できるようになり、利用範囲が拡大した形です。 4/22(火) Amazon Cognito がリフレッシュトークンのローテーションをサポート開始 Amazon Cognito は、ユーザープールクライアントに対する OAuth 2.0 のリフレッシュトークンのローテーションをサポートしました。リフレッシュトークンは、ユーザーが再度サインインすることなくアプリケーションが新しいアクセストークンを取得できる長期間なトークンです。リフレッシュトークンのローテーションにより、既存のリフレッシュトークンを定期的に新しいものに自動的に置き換えるように設定できるようになり、セキュリティの向上に役立ちます。 Amazon EC2 R7gd インスタンスが追加の AWS リージョンで利用可能になりました 最大 3.8 TB のローカル NVMe ベースの SSD ブロックレベルストレージを備えた R7gd インスタンスが、欧州 (ロンドン) およびアジアパシフィック (ハイデラバード、大阪) リージョンで利用可能になりました。R7gd は AWS Graviton3 プロセッサと DDR5 メモリを搭載し、AWS Nitro System 上に構築されています。高速で低レイテンシのローカルストレージへのアクセスが必要なアプリケーションに最適です。 Amazon Redshift Serverless の新しい割引価格オプションである Serverless Reservations をサポート Amazon Redshift Serverless で、新しい Serverless Reservations を提供開始しました。新しい割引価格で、コストを最大 24 % 削減できます。特定数の RPU (Redshift Processing Units) を 1 年間コミットし、支払い方法を「前払いなし」or「前払いあり」から選択いただけます。いわゆる、Savings Plans や Reserved Instance の Redshift Serverless 版という理解であながち間違っていないと思います。1 時間ごとに利用する RPU を指定してコミットします。仮に夜間に Redshift Serverless を利用しない時間がある場合でも、事前にコミットした RPU 分の料金は発生するのでご留意ください。詳細は こちらのドキュメント をご覧ください。 4/23(水) AWS アカウント管理が IAM ベースのアカウント名更新をサポート AWS Organizations を利用しているお客様向けに、アカウント名を更新できる新しい API を提供開始しました。ルートユーザーを必要とせず、アカウント内の認可された IAM プリンシパルを利用してアカウント名を更新できるようになります。ルートユーザーの日常的な利用は基本的にはおすすめしていない背景があり、IAM を利用することによるベストプラクティスの準拠がやりやすくなった形です。 Amazon Redshift が 8 つのサードパーティ SaaS アプリケーションに履歴モードのサポートを追加 Amazon Redshift で、Salesforce、ServiceNow、SAP を含む 8 つのサードパーティアプリケーションとの zero-ETL の履歴モードをサポートしました。従来、Aurora、DynamoDB、RDS for MySQL で利用できていたものが、Redshift でも利用ができるようになった形です。ETL プロセスの構築をせずに、サードパーティアプリケーションの履歴データを Redshift に持つことができ、既存のデータと連結して、包括的なデータ分析をしやすくするアップデートです。 Amazon Q Business の Microsoft 365 の Word と Outlook 向け統合機能のアップデート これまで提供していた Microsoft 365 の Word と Outlook で利用できる Amazon Q Business の統合機能をアップデートしました。「企業ナレッジへアクセス」「画像の添付」「プロンプトコンテキストウィンドウの拡張」の 3 機能が追加されました。「企業ナレッジへアクセス」により、Word や Outlook の Amazon Q Business アドイン経由で質問を投げかける際に、自社でインデックス化しているデータについて直接質問できるようになりました。組織内のコンテキストを意識した形で利用しやすくなった形です。 4/24(木) WebSocket API を提供する AWS AppSync Events でデータソース統合をサポート WebSocket API を提供する AWS AppSync Events でデータソース統合をサポートしました。この新機能により、開発者はチャネル名前空間ハンドラーに AWS Lambda 関数、Amazon DynamoDB テーブル、Amazon Aurora データベースなどのデータソースを関連付けて、AppSync Events で公開している WebSocket API に対して、特定の処理を付与できるようになりました。例えば、Lambda 関数を使用して公開されたイベントを変換およびフィルタリングしたり、DynamoDB 用の新しい AppSyncJS バッチユーティリティを使用してイベントのバッチを DynamoDB に保存したりすることで、高度なイベント処理ワークフローを作成できます。詳細は こちらのブログ を参照ください。 Amazon Connect エージェントワークスペースでサードパーティアプリケーションの機能拡張 Amazon Connect エージェントワークスペースで、発信通話の実行、コンタクトの受け入れ、転送、クリア、およびエージェントステータスの更新などを行う、サードパーティーアプリケーションとの統合機能をサポートしました。例えば、エージェントは最近の顧客とのやり取りを表示するカスタムビルドの通話履歴インターフェースから、ワンクリックで発信通話を開始できるようになりました。詳細は こちらのドキュメント をご参照ください。 4/25(金) AWS Resource Groups が 160 種類以上のリソースタイプをサポート AWS でリソースに付与した Tag などを基にして、関連したリソースを整理できる AWS Resource Groups という機能があります。今回のアップデートで、新たに 160 種類のリソースタイプをサポートしました。 こちらのドキュメント  にサポートしているリソースタイプがリストされており、多数のリソースがサポートされていることが確認できます。 AWS Resource Explorer が AWS PrivateLink をサポート AWS Resource Explorer で AWS PrivateLink をサポートするようになり、パブリックインターネットを経由せずに Amazon Virtual Private Cloud (VPC) 内で AWS リソースを検索および発見できるようになりました。AWS Resource Explorer を使用すると、組織内の AWS リージョンやアカウント全体で AWS リソースを検索および発見することができます。 Amazon Q Developer の運用調査 (プレビュー) が追加リージョンで利用可能に Amazon Q Developer の運用調査機能 (プレビュー) が、東京を含めた 11 のリージョンで新たに利用可能になりました。運用調査機能は、AWS 環境全体での調査を短時間行うのに役立ちます。Amazon Q Developer は環境内の異常を探し、調査すべき関連シグナルを表示し、潜在的な根本原因の仮説を特定し、問題をより迅速に修正するための次のステップを提案します。詳細は こちらのドキュメント をご覧ください。 それでは、また来週お会いしましょう! 著者について 杉山 卓(Suguru Sugiyama) / @sugimount AWS Japan のソリューションアーキテクトとして、幅広い業種のお客様を担当しています。最近は生成 AI をお客様のビジネスに活かすためにアイデア出しやデモンストレーションなどを多く行っています。好きなサービスは仮想サーバーを意識しないもの全般です。趣味はゲームや楽器演奏です
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。 最近は、毎晩寝る前に子供と一緒に、生成 AI が作成したクイズに挑戦することが習慣になっています。 さて、直近 1 ヶ月は生成 AI のイベントが盛りだくさんです。 5 月 1 日 (木): AWS Summit Japan 2025 生成 AI ハッカソン応援企画 ユースケース開発ワークショップ 5 月 8 日 (木): AI Agent の効果・リスク・実装方法・組織展開を 1 日で学ぶ 5 月 22 日 (木): AI コーディングエージェント with AWS 〜「自律的にコードを書くAI」の AWS での始め方徹底ガイド〜 また、6 月 25 日 (水)、26 日 (木) に開催される AWS Summit Japan 2025 の 事前登録 ができるようになっています。今年も多くの生成 AI セッションを用意しています。登録をお忘れなく! 先日発表された「 AWS ジャパン生成 AI 実用化推進プログラム 」も引き続き募集中ですのでよろしくお願いします。既に多数の応募をいただいています! それでは、4 月 21 日週の生成 AI with AWS界隈のニュースを見ていきましょう。 さまざまなニュース AWS生成AI国内事例ブログ「株式会社平和様、社員全員が使える生成 AI アシスタントをリリース」を公開 株式会社平和 は、遊技機の開発・製造・販売を行うメーカー企業です。社内の生産性向上に向けて生成 AI の導入を検討していたのですが「ペルソナが不明確」「社内に AI 有識者の不在」といった課題を抱えていました。そこで、多数のユースケースに対応可能かつ導入が容易な Bedrock Claude Chat をベースにカスタマイズを行うことにしました。結果、1 ヶ月で開発が完了し 500 名を超える会社全体で使える生成 AI アプリ基盤のリリースに成功しました。特に新入社員が多く使用している傾向が見られ、社員の育成面にも好影響が出ているようです。今後は、RAG やエージェントの利用も検討されているようです。 ブログ記事「Amazon Bedrock Data Automation によるコンテキスト広告向けビデオインサイトの自動抽出」を公開 Amazon Bedrock Data Automation (BDA) は、ドキュメント、イメージ、ビデオ、オーディオなどの非構造化コンテンツから構造化されたデータを抽出する機能を提供しています。本ブログでは、BDA でシーン内容の自動抽出やテキスト認識などのビデオ分析を行うことで、内容に沿った広告を動的に表示する方法を紹介しています。サンプルが github に公開されています。 ブログ記事「Pixtral Large が Amazon Bedrock で利用可能になりました」を公開 4 月 8 日 に Mistral AI の Pixtral Large 基盤モデルが Amazon Bedrock で一般提供開始となりました。本ブログでは、Pixtral Large の機能と活用例について説明しています。活用例では、ER 図から SQL コードを生成したり、組織図を与えて階層構造をJSON 形式に出力する例などが紹介されています。 ブログ記事「第3回 AWS ジャパン 生成 AI Frontier Meet Up ~学びと繋がりの場~ 開催報告」を公開 生成 AI 実用化推進プログラム の参加者や、 GENIAC の関係者などが一堂に会する「生成 AI Frontier Meetup」が、2025 年 4 月 16 日に開催されました。本記事は、そのイベントの開催レポートです。AWS スピーカーによるセッションに加え、プログラム参加者の成果発表、参加者交流会が行われ、それらの様子が記載されています。このように AWS では業界横断での連携や技術支援を通じて、企業の生成 AI 活用を後押しします。 サービスアップデート Amazon Q Developer が、最先端のソフトウェア開発エージェントをリリース Amazon Q Developer では、IDEに「/dev」と入力すると開発支援をしてくれるソフトウェア開発エージェント機能を提供しています。今回、機能がアップデートされコード生成の品質が向上しました。、業界ベンチマークである SWTBench Verified(49%)で最先端の性能を達成し、SWEBench Verified(66%)でもトップランクのモデルの一つとなりました。 Amazon Q Developer の運用調査機能(プレビュー)が追加リージョンで利用可能に Amazon Q Developer では、AWS のリソースの異常に対し、調査・改善案の提案を行う運用調査機能 (Operational Investigation) を提供しています。今回のアップデートにより、アジアパシフィック(東京)リージョン含む 11 の追加リージョンで利用可能になりました。プレビュー期間中は追加費用なしで利用できますので、ぜひお試しください。 Amazon Bedrock のインテリジェントプロンプトルーティング機能が一般提供開始 Amazon Bedrock のインテリジェントプロンプトルーティングは、プロンプト内容に応じて異なる基盤モデルに処理を振り分けることによって、応答の品質とコストを最適化する機能です。これまでプレビューでの提供でしたが、一般提供となりました。Claude、Llama、Nova の対応モデルで利用することが可能です。また、使用するモデルやルーティング基準が設定できるようになり柔軟性が向上しました。詳細は ドキュメント を参照ください。 Amazon Bedrockのプロンプト最適化機能が一般提供開始 Amazon Bedrockのプロンプト最適化機能は、基盤モデルからのより質の高い応答が得られるようにプロンプトを自動で書き換える機能です。Anthropic、Llama、Nova、DeepSeek、Mistral、Titan モデルがサポートされています。今回の一般提供開始に伴い 利用料金 も設定されていますのでご確認ください。 Amazon Bedrock Data Automation がモダリティコントロール、ハイパーリンク、より大きなドキュメントをサポート Amazon Bedrock Data Automation にて、データのモダリティ選択機能が導入され、画像、音声、動画などのデータタイプを必要に応じて指定できるようになりました。文書処理においては、埋め込まれたハイパーリンクを自動的に抽出する機能が実装されています。処理可能な文書量も拡大し、一度に最大 3,000 ページまでの文書を処理できるようになりました。これらの新機能により、マルチモーダルコンテンツをより細かく制御できるようになりました。 著者について 木村 直登(Naoto Kimura) AWS Japan のソリューションアーキテクトとして、製造業のお客様に対しクラウド活用の技術支援を行なっています。最近は生成 AI と毎日戯れており、特にコード生成と LLM エージェントに注目しています。好きなうどんは’かけ’です。
アバター
こんにちは ! テクニカルインストラクターの室橋です。さて、今年もゴールデンウィークが近づいてきました。皆様、ゴールデンウィークの予定はいかがでしょうか ? お出かけされる方もされない方も、皆様が素敵なゴールデンウィークを過ごせるようお祈りしております ! (私は自宅で過ごす予定です) AWS Cloud Quest の「Data Analytics」 ロールが日本語化されました ! AWS クラウドをゲームベースで学習できるコンテンツである「 AWS Cloud Quest (以下 Cloud Quest) 」はご利用いただいておりますでしょうか ? Cloud Quest は「 ゲーム内でストーリーに沿って出題されるソリューション構築に関する課題を、実際の AWS のアカウントを操作しながら解いていく、RPG テイストのコンテンツ 」です。ゲーム内で使用する AWS アカウントは、各課題内で一時的に用意されるものを利用できるため、サービスの利用料金などは気にせず、学習に集中することができます。「Cloud Quest をまだ知らないよ」という方は、 こちらのブログ にて詳しくご案内しておりますので、是非ご確認ください。 Cloud Quest の中には、様々なカテゴリ (ロール) の課題が含まれているのですが、この度、 ご要望の声が多かった「 Data Analytics 」ロール (データ分析ロール) について日本語対応を行いました 。Data Analytics ロールには 23 の課題 (一部他ロールと重複する課題もあります) が用意されており、AWS Glue や Amazon Kinesis、Amazon Athena をはじめとしたサービスを組み合わせながら、「スケーラブルなデータレイク、データウェアハウス、ビッグデータ分析」などに関するソリューションを構築可能です。色々なサービスを組み合わせながら実際のアカウントでソリューション構築ができますので、課題に取り組んでいただく中で新しい発見があるかもしれません。この機会に是非チャレンジしていただければと思います。 以下は「イベント駆動型 ETL 自動化」と「ストリーミング取り込み」の課題に関する画面イメージとなります。 さて、この度日本語化された Data Analytics ロールの課題と、その中で触れられるサービス (2025年4月25日現在。今後課題やサービスについては変更される可能性もあります) について、一覧を掲載いたします。 課題名 主な利用サービス クラウドコンピューティングの基本 Amazon S3 クラウド、はじめの一歩 AWS, Amazon EC2 コンピューティングの基礎 Amazon EC2 NoSQL データベースの実装支援 Amazon DynamoDB NoSQL データベースの設計 Amazon DynamoDB, Amazon EC2 ネットワークの概念 Amazon EC2, Amazon VPC リレーショナルデータベースの実装 Amazon Relational Database Service (RDS) セキュリティのコアコンセプト AWS Identity and Access Management (IAM), Amazon Relational Database Service (RDS), Amazon EC2 サーバーレス基盤 AWS Lambda データレイク AWS Lambda, Amazon S3 データレイクへのクエリ AWS Lambda, Amazon S3, Amazon Athena ビジネスインテリジェンスダッシュボード AWS Glue, Amazon Athena, Amazon QuickSight データカタログへの入力 AWS Glue, AWS Lambda, Amazon Athena, Amazon S3 ストリーミング取り込み Amazon Athena, Amazon Kinesis, Amazon S3, Amazon SQS リアルタイムデータ処理 AWS Lambda, Amazon DynamoDB, Amazon Kinesis 毎日のバッチ抽出 AWS Glue, Amazon Athena, Amazon Relational Database Service(RDS), Amazon S3 クラウドデータウェアハウス AWS Glue, Amazon Redshift, Amazon S3 データレイクの保護 AWS Glue, AWS Lake Formation, Amazon Athena, Amazon S3 イベント駆動型サーバーレス ETL AWS Glue, Amazon Redshift, Amazon S3 文書の索引付けと検索 AWS Glue, Amazon OpenSearch Service フェデレーションクエリ AWS Glue, Amazon Athena, Amazon DynamoDB イベント駆動型 ETL 自動化 AWS Glue, AWS Lambda, AWS Step Functions, Amazon Athena, Amazon S3 データ取り込み方法 AWS Glue, AWS Lambda, Amazon Athena, Amazon Kinesis 興味のある内容が見つかりましたら、是非 Skill Builder へアクセスして、Cloud Quest の Data Analytics ロール (要サブスクリプション) にチャレンジしてみてください。データ分析ロール内の課題をすべて終了させると、AWS Cloud Quest Data Analytics ロールのデジタルバッジも入手できます。デジタルバッジで成果をアピールし、ソーシャルネットワークで共有可能です。 「いきなりサブスクリプションは敷居が高いな」と思われる方には、 無料で利用可能な Cloud Practitioner ロール もご用意しておりますので、まずはこちらを試してみてください ! Skill Builder 自体への登録も無料で、AWS アカウントをお持ちでない方でもご利用が可能です 。 また、無料で利用可能な AWS Cloud Quest: Recertify Cloud Practitioner (日本語) というコースでは、名前の通り 「再受験不要で AWS Certified Cloud Practitioner を再認定」することが可能 です。「認定の有効期間が 6 ヶ月以内である」「合計 13 個の課題をクリアする必要がある ※」という制限はありますが、試験を受けずに再認定できるという部分にメリットを感じていただける方もいらっしゃるのではないでしょうか。なお、 本トレーニングは無料ベータであり、2025 年 7 月末まで無料でご利用いただけます。 ※ うち 12 課題は Cloud Practitioner ロールと共通のため、Cloud Practitioner ロールをすべて終わらせている方は実質 1 課題終わらせれば修了 AWS Skill Builder でのコースの探し方について AWS Skill Builder では、上記の AWS Cloud Quest 以外にも、データ分析関連のコースを多数ご用意しております。フィルタ機能をご利用いただくことにより、お好みのコースが探しやすくなりますので、下記にてフィルタ機能の使い方をご案内いたします。ここでは「言語が日本語」且つ「分野がデータ分析」のコースを検索しています。 1. AWS Skill Builder へアクセスし、「フィルター」をクリック 2. 「言語」より「その他のオプションを見る」から「日本語」にチェック 3. 「分野」より「Data Analytics」にチェック 4. 右上のメニューより、コースの表示順を変更することも可能です (ここでは「新しい順」にコースを並べ替えています) これにより、データ分析関連トレーニングを検索することが可能です。条件を変更いただければ、他にも皆様のご興味に合うコースが見つかるのではないでしょうか。是非色々なコースを探してみてください。 なお、上記説明に関しては AWS Skill Builder Learner Guide という学習者用のガイドの中でも動画の形でご案内しておりますので、動画の方がお好みの方は本ガイドをご利用ください。
アバター
アマゾン ウェブ サービス ジャパン(以下、AWS ジャパン)が 2024 年 7 月に発表した「 生成 AI 実用化推進プログラム 」は、生成 AI の活用を支援する取り組みです。基盤モデルの開発者向けと、既存モデルを活用する利用者向けの 2 つの枠組みを提供し、企業の目的や検討段階に応じた最適な支援を行っています。 その「生成 AI 実用化推進プログラム」の参加者や、GENIAC(Generative AI Accelerator Challenge)の関係者、生成 AI に関心を持つ企業が一堂に会する「生成 AI Frontier Meetup」が、2025 年 4 月 16 日に開催されました。2024 年 11 月 15 日に実施された 第 1 回 、2025 年 2 月 7 日に実施された 第 2 回 に続き、今回が第 3 回となります。本記事では、そのイベントの模様をレポートします。 本イベントの司会進行は、AWS ジャパンの事業開発統括本部 生成 AI 推進マネージャーである梶原 貴志が務め、全体を通じて登壇者の紹介やセッションの案内を行いました。 開会のご挨拶 イベント冒頭では、AWS ジャパンの代表執行役員社長である白幡 晶彦が、AWS の生成 AI に関する取り組みと今後の展望について挨拶しました。 AWS がこれまで日本における生成 AI 開発を支援してきた実績を紹介しました。2023 年には「 AWS LLM 開発支援プログラム 」として 17 社を支援し、2024 年には 150 社超が参加する「生成 AI 実用化推進プログラム」を実施。さらに、経済産業省・NEDO が主導する「GENIAC(Generative AI Accelerator Challenge)」でも 13 社を支援しています。 白幡は、本イベントで支援企業 5 社による事例発表や、2025 年度の新たな支援プログラム構想の発表が予定されていることを説明。最後に、参加者への感謝を述べるとともに、イベントを通じて新たな価値が生まれることへの期待を込めて挨拶を締めくくりました。 AWS スピーカーによるセッション 続いて、AWS ジャパンの Data & AI 事業統括本部 事業開発マネージャーである井形 健太郎が、生成 AI を活用したビジネス価値創出の最新動向と導入事例について解説しました。2025 年は、生成 AI から「ビジネス価値」を生む年であるとし、国内外の活用事例を紹介しました。 まずは、日本企業による 3 つの具体的な取り組みです。1 つ目のカラダノート社は、中途採用業務に生成 AI を導入し、履歴書の内容を基準と照らし合わせて自動評価する仕組みを構築。Slack との連携も含めて業務フローを見直し、作業時間を約 42% 削減しました。また、面接判断のばらつきを平準化できたことも成果の一つとして挙げられました。 2 つ目の PURPOM MEDIA LAB 社は、 Amazon Bedrock を活用したビジネスモデルキャンバス生成機能を開発。パートナー、チャネル、収益構造など 9 項目の情報を AI が自動で整理し、新規事業の検討・検証にかかる時間を大幅に短縮しています。 3 つ目の Nint 社は、EC モールのデータ分析業務に生成 AI を活用し、非エンジニアでも使いやすい対話型の分析ツールを構築しました。Amazon Bedrock の エージェント機能 も活用し、最大で 80% の作業効率向上を実現しています。 続いて、海外事例としてカリフォルニア大学ロサンゼルス校による卒業生向け寄付金依頼の取り組みを紹介。4 万 5,000 人の卒業生に対して、個別最適化されたメールを生成 AI で作成・送信した結果、寄付額が 132% 増加するという成果が得られたといいます。 また、韓国企業による先進的な事例も複数紹介されました。ビジネスコラボレーションツールを展開する Toss Lab 社は、日本やアジアの組織文化に合わせた独自の検索機能や、AI による要約・分析機能を構築。コンピュータービジョン領域で事業展開する Superb AI 社は、自動運転やセキュリティ、製造などの産業向けに特化したビジョン AI プラットフォームを提供しています。さらに、IT 教育プラットフォームを展開する InfLab 社は、字幕生成や多言語吹き替え機能を実現し、言語の壁を越えて学習コンテンツを提供しています。 これらの事例を踏まえ、井形は「生成 AI の活用にはアプリケーションだけでなく、しっかりとしたデータ基盤の整備が不可欠」と指摘。ストリーミングデータや構造化・非構造化データの循環的な活用を通じて、継続的に精度と価値を高めるサイクルを構築することが重要だと述べました。 セッションの終盤では、Amazon の財務部門が RAG ( Retrieval-Augmented Generation ) を活用して、複雑な財務データの処理や意思決定支援を行っている事例も紹介されました。生成 AI が膨大な非構造化データを文脈ごとに検索・解釈し、リアルタイムで的確な提案を行う仕組みは、今後あらゆる業界において応用可能であるといいます。 最後に、ソフトウェア開発生成 AI アシスタント「 Amazon Q Developer 」が新たに日本語対応を開始したことがアナウンスされました。 プログラム参加者の成果発表 生成 AI 実用化推進プログラムに参加する 5 社の企業代表者が登壇し、AWS のサービス利用を軸にした取り組みを紹介しました。AWS ジャパン サービス & テクノロジー事業統括本部 技術本部長の小林 正人(写真右)と、AWS シニア スタートアップ ML ソリューションアーキテクトの針原 佳貴(写真左)がモデレーターを務め、登壇者に質問を投げかけつつ進行しました。 株式会社野村総合研究所 生産革新センター AI ソリューション推進部の大河内 悠磨 氏は、業界・タスク特化型 LLM の開発と活用事例について紹介しました。野村総合研究所では、保険営業におけるコンプライアンスチェックをテーマに、小規模なオープンモデルに継続事前学習と指示チューニングを施し、専門知識に特化した LLM を構築。GPT-4o を上回る正解率を記録しました。さらに、AWS の AI チップを活用して学習・推論のコスト削減も実現しています。今後は保険に限らず、他業界や多様なタスクへの応用を視野に入れ、研究と実証を進めていくと述べました。 国土交通省 総合政策局 公共交通政策部門 モビリティサービス推進課 総括課長補佐 Project LINKS テクニカル・ディレクターの内山 裕弥 氏は、国土交通省の横断的な DX を推進する「Project LINKS」について紹介しました。本プロジェクトでは、紙や PDF など非構造化された膨大な行政データを、LLMを活用して正規化されたデータにする仕組みを開発しています。2025 年にはプロトタイプとして「LINKS Veda」を構築。文脈理解に基づくデータ抽出やノーコードでの構造化処理に加え、ハルシネーション対策やチャット検索機能も備えています。 フリー株式会社の AI プロダクトマネージャーである木佐森 慶一 氏は、クラウド会計ソフト「freee 会計」の新機能「AI クイック解説」を紹介しました。財務データの読み解きに不慣れな方でも活用できるよう、LLM を用いて自然言語でわかりやすく解説する仕組みです。ジュニア層の場合は 10 時間以上、シニア層でも数時間の作業負荷軽減が期待できるといいます。近く実装予定のアップデートにより、さらに進化した機能が披露される予定です。 株式会社 NTT データ テクノロジーコンサルティング事業部の鯨田 連也 氏は、 第1回 Meetup がきっかけとなった、株式会社 昭栄美術と協業して取り組んだクリエイティブ業務支援における AI エージェント活用の事例を紹介しました。Web 検索、デザイン案生成、画像生成といった機能を担う複数のエージェントを、スーパーバイザーエージェントが統括・連携する構成を採用。展示会ブースデザインにおける情報収集やアイデア創出の属人化、手戻りの多さといった課題に対応し、大幅な効率化を実現しました。今後は機能改善を進め、幅広いお客様の業務への適用を目指しています。 株式会社エイチ・アイ・エス DX 推進本部 サービスプラットフォーム企画部の李 章圭 氏は、旅行相談窓口における業務効率化プロジェクトについて紹介しました。本事例では、英語で記載された販売条件書の読み取り業務を AI により代替することで、事務作業の負荷を軽減し、顧客との対話時間を増やすことを目指しました。Amazon Bedrock を用いた PoC を経て、要約・構造化処理の仕組みを構築。試験導入を経て、現在は関東全店舗に展開しており、5 月以降は全国 150 店舗への本格導入を予定しています。 クロージング 各セッションの終了後、AWS ジャパン Data&AI 事業開発部の瀧川 大爾がクロージングを行いました。生成 AI の社会実装を推進する取り組みとして、2025 年度も「生成 AI 実用化推進プログラム」を継続実施することを発表しました。昨年度に続き、企業や自治体、スタートアップなど、さまざまな組織を対象に、生成 AI の活用支援を行う予定です。 2025 年度の「生成 AI 実用化推進プログラム」では、企業の課題やフェーズに応じて選べる 3 種類のコースが用意されています。 1 つ目の「モデルカスタマイズコース」は、既存モデルより高精度な応答や目的特化型の生成を求める方向けで、計算リソースの調達支援や実装・事業化までの伴走支援を提供します。 2 つ目の「モデル活用コース」は、公開モデルを活用して課題解決を目指す方向けで、事例共有を起点に、ユースケース特定から実用化までを一貫して支援します。 3 つ目の「戦略プランニングコース」は、生成 AI をビジネスの中核に据えたい企業向けで、AWS とパートナー企業が連携し、業務コンサルテーションから導入支援までを包括的にサポートします。 なお、プログラム期間中には成果共有やネットワーキングを目的とした交流イベントも実施される予定です。参加される企業様は、「生成 AI 実用化推進プログラム」ページ内の Web フォーム(「登録する」)からお申込みください。 参加者交流会の様子 交流会では、各セッションで紹介された実践事例をもとに、登壇者と参加者が垣根なく意見を交わす姿が多く見られました。生成AIの導入における具体的な工夫や課題、今後の展望について活発な対話が繰り広げられ、会場は終始熱気に包まれていました。業種や立場を越えたネットワーキングも進み、現場での学びを共有しながら、今後の連携や共創のきっかけを築く機会となりました。こうしたオープンな対話の積み重ねが、生成AIのさらなる社会実装を後押ししていくことが期待されます。 また、生成 AI 領域で先進的な取り組みを進めるカラクリ株式会社 (写真上) とストックマーク株式会社 (写真下)が、会場内に開発者ブースを出展されていました。自社で構築したモデルやプロダクトに関する技術的な知見を共有し、多くの参加者と活発な意見交換を行っていました。 おわりに 本イベントでは、登壇者による実践的な知見の共有に加え、参加者同士の意見交換やネットワーキングが随所で行われ、会場全体に前向きな熱気が広がっていました。生成 AI の社会実装に向けた最新の取り組みや、具体的な業務への応用例が紹介され、実務に直結する学びの多い時間となりました。AWS ジャパンは、今後も業界横断での連携や技術支援を通じて、企業の生成 AI 活用を後押しし、持続的な実用化に貢献していきます。
アバター
この記事は Pixtral Large is now available in Amazon Bedrock (記事公開日: 2025年4月10日) を翻訳したものです。 Mistral AI の Pixtral Large 基盤モデル (FM) が Amazon Bedrock で一般提供開始となったことをお知らせします。この発表により、Mistral の最先端マルチモーダルモデルを活用して、AWS 上で生成 AI のアイデアを構築、実験、そして責任を持って拡張することが可能になります。AWS は Pixtral Large を完全マネージド型サーバーレスモデルとして提供する初めての主要クラウドプロバイダーです。 この記事では、Pixtral Large の機能とその活用例について説明します。 Pixtral Large の概要 Pixtral Large は、Mistral AI によって開発された 1240 億パラメータを持つ高度なマルチモーダルモデルです。このモデルは 1230 億パラメータの強力なマルチモーダルデコーダーと、特殊な 10 億パラメータのビジョンエンコーダーを組み合わせています。複雑な視覚的およびテキストタスクをシームレスに処理しながら、前身の Mistral Large 2 の優れた言語処理能力を継承しています。 Pixtral Large の特筆すべき機能は、128,000 トークンの広大なコンテキストウィンドウであり、大量のテキストデータと共に複数の画像を同時に処理することができます。この能力により、文書、詳細なチャート、グラフ、自然画像の分析において特に効果的であり、幅広い実用的なアプリケーションに対応しています。 Pixtral Large の主な機能は以下の通りです: 多言語テキスト分析 – Pixtral Large は画像や文書から複数言語にわたる書かれた情報を正確に解釈・抽出します。これは特に、レシートや請求書の自動処理などのタスクに有益で、計算やコンテキストを考慮した評価を実行し、経費追跡や財務分析などのプロセスを効率化します。 チャートや 可視化されたデータ の解釈 – このモデルは複雑な視覚的データ表現を理解する優れた能力を示します。可視化されたグラフ内のトレンド、異常、主要なデータポイントを容易に識別できます。例えば、Pixtral Large はトレーニング損失曲線やパフォーマンス指標内の不規則性や洞察力のあるトレンドを特定するのに非常に効果的で、データ駆動型の意思決定の精度を向上させます。 一般的な視覚分析とコンテキスト理解 – Pixtral Large はスクリーンショットや写真などの一般的な視覚データを分析し、微妙なニュアンスまで読み取り、画像内容に基づくクエリに効果的に応答する能力に長けています。この機能は、プレゼンテーション内の視覚的コンテキストの説明からコンテンツモデレーションの自動化やコンテキスト画像検索まで、さまざまなシナリオをサポートでき、その使用可能性を大幅に広げています。 追加のモデル詳細は以下の通りです: クロスリージョン推論は以下のリージョンで利用可能です: us-east-2 us-west-2 us-east-1 eu-west-1 eu-west-3 eu-north-1 eu-central-1 モデル ID: us または eu 、その後に mistral.pixtral-large-2502-v1:0 コンテキストウィンドウ: 128,000 Amazon Bedrock で Pixtral Large を使用する Mistral AI モデルを初めて使用する場合は、 Amazon Bedrock コンソール でモデルアクセスをリクエストできます。詳細については、 Amazon Bedrock 基盤モデルへのアクセス をご覧ください。 Amazon Bedrock コンソールで Pixtral Large をテストするには、ナビゲーションペインの Playgrounds の下にある Text または Chat を選択します。次に、 Select model を選択し、カテゴリとして Mistral を、モデルとして Pixtral Large を選択します。 View API を選択することで、 AWS コマンドラインインターフェイス (AWS CLI) や AWS SDK のコード例を使用してモデルにアクセスすることもできます。以下のコードのように、 mistral.mistral-large-2407-v1:0 などのモデル ID を使用できます: $ aws bedrock-runtime invoke-model \ --model-id mistral.pixtral-large-2502-v1:0 \ --body "{\"prompt\":\"<s>[INST] this is where you place your input text [/INST]\", \"max_tokens\":200, \"temperature\":0.5, \"top_p\":0.9, \"top_k\":50}" \ --cli-binary-format raw-in-base64-out \ --region eu-north-1 \ invoke-model-output.txt 以下のセクションでは、Pixtral Large の機能について詳しく説明します。 Pixtral Large のユースケース このセクションでは、サンプルプロンプトを使用して Pixtral Large のユースケース例を紹介します。Pixtral Large は Mistral Large 2 をベースにしているため、ネイティブ JSON 出力モードを含んでいます。この機能により、開発者はモデルのレスポンスを構造化された読みやすい形式で受け取ることができ、さまざまなアプリケーションやシステムにシームレスに統合できます。JSON は広く使用されているデータ交換標準であるため、この機能によりモデル出力の処理プロセスが効率化され、異なる産業やユースケースにわたる開発者にとってよりアクセスしやすく実用的になっています。Converse API を使用した JSON の生成の詳細については、 Amazon Bedrock Converse API を使用した JSON の生成 を参照してください。 さらに、Pixtral Large は Converse API と ツールの使用 をサポートしています。Amazon Bedrock API を使用することで、送信するメッセージへのレスポンス生成をサポートするツールへのアクセス権をモデルに付与できます。 データベースエンティティ関係図からの SQL コードの生成 エンティティ関係 (ER) 図は、データベース設計で使用される視覚的表現で、エンティティとその属性の関係を示します。これは概念的モデリングの重要なツールであり、開発者やアナリストがデータベース内のデータ構造を理解し伝えるのに役立ちます。 この例では、エンティティとその関係を作成するための PostgreSQL 互換の SQL CREATE TABLE ステートメントを生成するモデルの能力をテストします。 以下のプロンプトを使用します: prompt = """ You are a database designer. You have created an ER diagram. You need to generate PostgreSQL compatible SQL statements to create the tables" """ 日本語訳(翻訳者追記) prompt = """ あなたはデータベース設計者です。ERダイアグラムを作成しました。このERダイアグラムに基づいてPostgreSQLと互換性のあるテーブル作成用のSQLステートメントを生成する必要があります。" """ 以下の ER 図を入力します。 モデルの応答は以下の通りです: Sure! Below are the SQL statements to create the tables based on the provided ER diagram for a PostgreSQL database. -- Create the Airport table CREATE TABLE Airport ( Airport_ID SERIAL PRIMARY KEY, AirportCity VARCHAR(255), AirportCountry VARCHAR(255) ); -- Create the Calendar table CREATE TABLE Calendar ( Day_Date DATE PRIMARY KEY, Business_Day_YN BOOLEAN ); -- Create the Flight_Details table CREATE TABLE Flight_Details ( Flight_ID SERIAL PRIMARY KEY, Source_Airport_ID INT REFERENCES Airport(Airport_ID), Destination_Airport_ID INT REFERENCES Airport(Airport_ID), Departure_Date_Time TIMESTAMP, Arrival_Date_Time TIMESTAMP, Airplane_Type VARCHAR(255) ); -- Create the Travel_Class table CREATE TABLE Travel_Class ( Travel_Class_ID SERIAL PRIMARY KEY, Travel_Class_Name VARCHAR(255), Travel_Class_Capacity INT ); -- Create the Seat_Details table CREATE TABLE Seat_Details ( Seat_ID SERIAL PRIMARY KEY, Travel_Class_ID INT REFERENCES Travel_Class(Travel_Class_ID), Flight_ID INT REFERENCES Flight_Details(Flight_ID) ); -- Create the Flight_Cost table CREATE TABLE Flight_Cost ( Seat_ID INT REFERENCES Seat_Details(Seat_ID), Valid_From_Date DATE, Cost DECIMAL(10, 2), Valid_To_Date DATE, PRIMARY KEY (Seat_ID, Valid_From_Date) ); -- Create the Flight_Service table CREATE TABLE Flight_Service ( Service_ID SERIAL PRIMARY KEY, Service_Name VARCHAR(255) ); -- Create the Service_Offering table CREATE TABLE Service_Offering ( Travel_Class_ID INT REFERENCES Travel_Class(Travel_Class_ID), Service_ID INT REFERENCES Flight_Service(Service_ID), Offered_YN BOOLEAN, From_Date DATE, To_Date DATE, PRIMARY KEY (Travel_Class_ID, Service_ID) ); -- Create the Passenger table CREATE TABLE Passenger ( Passenger_ID SERIAL PRIMARY KEY, P_FirstName VARCHAR(255), P_LastName VARCHAR(255), P_Email VARCHAR(255), P_PhoneNumber VARCHAR(255), P_Address VARCHAR(255), P_City VARCHAR(255), P_State VARCHAR(255), P_Zipcode VARCHAR(255), P_Country VARCHAR(255) ); -- Create the Reservation table CREATE TABLE Reservation ( Reservation_ID SERIAL PRIMARY KEY, Passenger_ID INT REFERENCES Passenger(Passenger_ID), Seat_ID INT REFERENCES Seat_Details(Seat_ID), Date_Of_Reservation DATE ); -- Create the Payment_Status table CREATE TABLE Payment_Status ( Payment_ID SERIAL PRIMARY KEY, Payment_Status_YN BOOLEAN, Payment_Due_Date DATE, Payment_Amount DECIMAL(10, 2), Reservation_ID INT REFERENCES Reservation(Reservation_ID) ); These SQL statements will create the tables as per the ER diagram you provided. Make sure to run these statements in the order they are listed to ensure that foreign key constraints are satisfied. 日本語訳(翻訳者追記) もちろんです!下記は提供された ER ダイヤグラムに基づいて PostgreSQL データベース用のテーブルを作成するための SQL ステートメントです。 -- 省略-- これらの SQL ステートメントは提供された ER ダイヤグラムに沿ってテーブルを作成します。外部キー制約が満たされるよう、これらの SQL ステートメントは必ず記載された順序で実行するようにしてください。 組織階層の構造化テキストへの変換 Pixtral Large は組織構造を理解し、構造化された出力を生成する能力を持っています。組織図でテストしてみましょう。 以下のプロンプトを使用します: prompt = """ Extract organization hierarchy from the given org structure. provide response in a structured json format with below: - role - name - reporting_manager """ 日本語訳(翻訳者追記) prompt = """ 与えられた組織図から階層構造を抽出してください。以下の項目を含む JSON 形式でレスポンスを提供してください: - 役職 - 氏名 - 報告先の管理者 """ 以下の組織図を入力します。 モデルの応答は以下の通りです: Here is the organization hierarchy extracted from the given org structure in a structured JSON format: [ { "role": "President", "name": "John Smith", "reporting_manager": null }, { "role": "VP Marketing", "name": "Susan Jones", "reporting_manager": "John Smith" }, { "role": "VP Sales", "name": "Rachel Parker", "reporting_manager": "John Smith" }, { "role": "VP Production", "name": "Tom Allen", "reporting_manager": "John Smith" }, { "role": "Manager", "name": "Alice Johnson", "reporting_manager": "Susan Jones" }, { "role": "Manager", "name": "Tim Moore", "reporting_manager": "Susan Jones" }, { "role": "Manager", "name": "Michael Gross", "reporting_manager": "Rachel Parker" }, { "role": "Manager", "name": "Kim Dole", "reporting_manager": "Rachel Parker" }, { "role": "Manager", "name": "Kathy Roberts", "reporting_manager": "Tom Allen" }, { "role": "Manager", "name": "Betsy Foster", "reporting_manager": "Tom Allen" } ] 日本語訳(翻訳者追記) こちらが入力された組織図から抽出した、JSON 形式の階層構造です。 -- 省略 -- チャート理解と推論 Pixtral Large はチャートやグラフを理解し、推論する能力を持っています。世界各国のオートバイ所有率の可視化データを使って Pixtral Large をテストしてみましょう。 以下のプロンプトを使用します: prompt = """Examine this visualization: 1. First, describe what this visualization represents: - What information is being shown? - How is the data displayed? - What do the different components represent? - What does the size variation indicate? 2. Analyze specific patterns: - Which region shows the highest proportion of the first category? - Which region shows the highest proportion of the second category? - Where do you observe the largest total values? - Which areas show the most balanced distribution? 3. Compare regional trends: - How do the proportions differ between continents? - What patterns emerge between different hemispheres? - Are there clear differences between different economic zones? 4. Identify interesting outliers: - Which regions stand out from their neighbors? - Can you identify any unexpected patterns? - Where do you notice significant data variations? 5. Consider geographical and demographic factors: - How might local conditions influence these patterns? - What socioeconomic factors might explain the variations? - Can you identify any correlation between size and proportions? 6. Make comparisons between: - Different geographical zones - Various population densities - Different economic development levels""" 日本語訳(翻訳者追記) prompt = """この画像を調査してください: 1. まず、この可視化されたデータが何を表しているか説明してください: - どのような情報が表示されていますか? - データはどのように表示されていますか? - 異なるコンポーネントは何を表していますか? - サイズの違いは何を示していますか? 2. 特定のパターンを分析してください: - どの地域が最初のカテゴリの最も高い割合を示していますか? - どの地域が2番目のカテゴリの最も高い割合を示していますか? - どこで最大の合計値が観察されますか? - どの地域が最もバランスの取れた分布を示していますか? 3. 地域的傾向を比較してください: - 大陸間で割合はどのように異なりますか? - 異なる半球間でどのようなパターンの違いが現れますか? - 異なる経済圏間に明確な違いはありますか? 4. 特徴的な外れ値を特定してください: - どの地域が周囲と比べて際立っていますか? - 予期しないパターンを特定できますか? - どこで重要なデータの変動に気づきますか? 5. 地理的および人口統計的要因を考慮してください: - 地域の状況がこれらのパターンにどのように影響する可能性がありますか? - これらの違いを説明する社会経済的要因は何が考えられますか? - サイズと割合の間に相関関係を特定できますか? 6. 以下の間で比較を行ってください: - 異なる地理的ゾーン - さまざまな人口密度 - 異なる経済発展レベル""" 以下の画像を入力します。 By Dennis Bratland – Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=15186498 モデルの応答は以下の通りです: Description of the Visualization: Information Shown: The visualization presents data on the population (in millions) and the proportion of vehicles (cars and motorcycles) across various regions worldwide. Display Method: The data is displayed using pie charts overlaid on a world map. The size of each pie chart corresponds to the population of the region, with larger pies indicating larger populations. Components: Pie Charts: Each pie chart is divided into two segments representing the proportion of cars (light blue) and motorcycles (dark blue). Size Variation: The size of the pie charts indicates the total population of the region, with larger pies representing higher populations. Specific Patterns: Highest Proportion of Cars: Regions like the United States and parts of Europe show a higher proportion of cars. Highest Proportion of Motorcycles: Southeast Asian countries like Indonesia and Vietnam show a higher proportion of motorcycles. Largest Total Values: Large pie charts are observed in highly populated regions like India, China, and parts of Southeast Asia. Most Balanced Distribution: Some regions in Europe and South America show a more balanced distribution of cars and motorcycles. Regional Trends: Continental Differences: North America: Predominantly cars. Europe: A mix with a slight preference for cars. Africa: Generally lower total values with varied proportions. Asia: High population with a significant proportion of motorcycles in Southeast Asia. Hemispheric Patterns: The Northern Hemisphere has more densely populated regions with varied vehicle proportions, while the Southern Hemisphere shows lower population densities and more balanced distributions. Economic Zones: Developed regions tend to have higher car proportions, while developing regions, especially in Asia, show higher motorcycle usage. Interesting Outliers: Indonesia: Stands out with a very high proportion of motorcycles compared to neighboring regions. United States: Shows a predominantly high proportion of cars, distinct from other regions. Unexpected Patterns: Some smaller African countries show unexpectedly high proportions of motorcycles despite lower populations. Geographical and Demographic Factors: Local Conditions: Urbanization and infrastructure development influence vehicle preferences. Socioeconomic Factors: Economic status and affordability play significant roles in vehicle choices. Correlation: Larger populations in developing regions often correlate with higher motorcycle usage due to affordability and convenience. Comparisons: Geographical Zones: Urban areas in developed countries show higher car usage, while rural and developing regions favor motorcycles. Population Densities: Highly populated areas in Asia show a preference for motorcycles due to traffic congestion and affordability. Economic Development: Developed economies have higher car proportions, while developing economies rely more on motorcycles. 日本語訳(翻訳者追記) 可視化されたデータの説明: 表示されている情報: この可視化されたデータは世界各地の人口(百万人単位)と車両(自動車とオートバイ)の割合に関するデータを示しています。 表示方法: データは世界地図上に円グラフでオーバーレイ表示されています。各円グラフのサイズはその地域の人口に対応し、より大きな円はより大きな人口を示しています。 構成要素: 円グラフ: 各円グラフは自動車(水色)とオートバイ(濃紺)の割合を表す2つのセグメントに分割されています。 サイズの変化: 円グラフのサイズはその地域の総人口を示し、より大きな円はより高い人口を表しています。 特定のパターン: 自動車の最高割合: アメリカ合衆国やヨーロッパの一部などの地域では自動車の割合が高くなっています。 オートバイの最高割合: インドネシアやベトナムなどの東南アジア諸国ではオートバイの割合が高くなっています。 最大の総数: インド、中国、東南アジアの一部など、人口の多い地域で大きな円グラフが観察されます。 最もバランスの取れた分布: ヨーロッパや南米の一部の地域では自動車とオートバイのより均衡のとれた分布を示しています。 地域的傾向: 大陸間の違い: 北米: 主に自動車が中心。 ヨーロッパ: 自動車をやや好む混合。 アフリカ: 一般的に総数が低く、さまざまな割合。 アジア: 高い人口で、東南アジアでは著しいオートバイの割合。 半球間のパターン: 北半球には多様な車両割合を持つ人口密度の高い地域があり、南半球では人口密度が低く、よりバランスの取れた分布を示しています。 経済圏: 先進地域では自動車の割合が高い傾向があり、特にアジアの発展途上地域ではオートバイの使用率が高くなっています。 特徴的な外れ値: インドネシア: 近隣地域と比較して非常に高いオートバイの割合が目立っています。 アメリカ合衆国: 他の地域とは異なり、圧倒的に高い自動車の割合を示しています。 予想外のパターン: 一部のアフリカの小国では、人口が少ないにもかかわらず、予想外に高いオートバイの割合を示しています。 地理的・人口統計学的要因: 地域条件: 都市化とインフラ開発が車両選択に影響します。 社会経済的要因: 経済状況と手頃な価格が車両選択において重要な役割を果たします。 相関関係: 発展途上地域の大規模な人口は、手頃な価格と利便性から、多くの場合、オートバイの高い使用率と相関しています。 比較: 地理的ゾーン: 先進国の都市部では自動車の使用率が高く、農村部や発展途上地域ではオートバイが好まれています。 人口密度: アジアの人口密集地域では、交通渋滞と手頃な価格のため、オートバイが好まれています。 経済発展: 先進経済国では自動車の割合が高く、発展途上経済国ではオートバイへの依存度が高くなっています。 まとめ この記事では、Amazon Bedrock での Pixtral Large モデルの使用開始方法を紹介しました。Pixtral Large マルチモーダルモデルを使用すると、文書理解、論理的推論、手書き認識、画像比較、エンティティ抽出、スキャンした画像から構造化データの抽出、キャプション生成など、さまざまなユースケースに対応できます。これらの機能は、eコマース(小売)、マーケティング、金融サービスなど、多数の企業アプリケーション全体の生産性を向上させることができます。 Mistral AI の Pixtral Large FM が Amazon Bedrock で利用可能になりました。Amazon Bedrock で Pixtral Large の使用を開始するには、 Amazon Bedrock コンソール にアクセスしてください。 さらに詳しく知りたい方は、 Mistral-on-AWS リポジトリ をご覧ください。Amazon Bedrock で利用可能な Mistral AI モデルについて詳しくは、 Mistral AI モデルが Amazon Bedrock で利用可能に を参照してください。 作者情報         Deepesh Dhapola は AWS インドのシニアソリューションアーキテクトで、金融サービスおよびフィンテッククライアントに対する AWS クラウド上のアプリケーションの最適化やスケーリングの支援を専門としています。生成 AI、AI エージェント、Model Context Protocol (MCP) などのトレンド AI テクノロジーに強く焦点を当て、機械学習の専門知識を活かして革新的でスケーラブルかつ安全なソリューションを設計しています。AI の変革的な可能性に情熱を持ち、AWS 顧客の効率性とイノベーションを推進するため、最先端の進歩を積極的に探求しています。仕事の外では、家族との時間を大切にし、多様な料理創作を楽しんでいます。 Andre Boaventura は AWS のプリンシパル AI/ML ソリューションアーキテクトで、生成 AI およびスケーラブルな機械学習ソリューションを専門としています。ハイテクソフトウェア業界で 25 年以上の経験があり、Amazon Bedrock、Amazon SageMaker、Amazon Q などの AWS サービスを使用した AI アプリケーションの設計と展開に深い専門知識を持っています。Andre は、ビジネス価値を推進する最先端の AI/ML ソリューションを設計および実装するため、グローバルシステムインテグレーター (GSI) や様々な業界の顧客と緊密に連携しています。 Preston Tuggle は AWS のサードパーティモデルプロバイダーチームに所属するシニアスペシャリストソリューションアーキテクトです。彼は Amazon Bedrock と Amazon SageMaker にわたるモデルプロバイダーと協力し、技術的なスケーリング施策と顧客とのエンゲージメントを通じて、市場投入戦略を加速させることに焦点を当てています。 Shane Rai は AWS ワールドワイドスペシャリスト組織 (WWSO) のプリンシパル GenAI スペシャリストです。彼はトップティアの基盤モデルプロバイダーからのモデル提供を含む、AWS の幅広いクラウドベースの AI/ML サービスを使用して、業界を超えた顧客の最も差し迫ったイノベーティブなビジネスニーズを解決するために働いています。 Ankit Agarwal は Amazon Bedrock のシニアテクニカルプロダクトマネージャーで、顧客のニーズと基盤モデルプロバイダーの交差点で活動しています。彼は Amazon Bedrock サーバーレスへの最先端モデルのオンボーディングを主導し、プラットフォームの機能を強化するコア機能の開発を推進しています。 Niithiyn Vijeaswaran は AWS のサードパーティモデルサイエンスチームに所属する生成 AI スペシャリストソリューションアーキテクトです。彼の専門分野は AWS AI アクセラレーター(AWS Neuron)です。コンピュータサイエンスとバイオインフォマティクスの学士号を持っています。 Aris Tsakpinis は Amazon Bedrock のオープンソースモデルと広範な生成 AI オープンソースエコシステムに焦点を当てた生成 AI のスペシャリストソリューションアーキテクトです。彼は専門的な役割と並行して、レーゲンスブルク大学で機械学習エンジニアリングの博士号を取得中であり、その研究は科学分野における応用自然言語処理に焦点を当てています。 本記事の翻訳はソリューションアーキテクトの伊勢田氷琴が担当しました。
アバター
4 月 14 日週は、技術リーダーや業界リーダーたちから学び、AWS エキスパートや志を同じくする人たちと出会う機会を提供する世界的な Amazon Web Services (AWS) イベントの 1 つ、 AWS Summit Amsterdam が開催されました。特に、ほとんどの AWS Summit では展示会場内に開発者ラウンジとコミュニティラウンジが用意されています。 Thembile Martis が撮影した AWS Summit Amsterdam 2025 の写真 ここでは、開発者向けの 生成 AI サービスを体験したり、AWS コミュニティが準備した開発者セッションに参加したりできます。また、 Amazon Q Developer 、 AWS Skill Builder 、 AWS re:Post 、開発者向けの AWS コミュニティ を使用するための AWS ビルダー ID にサインアップした後で特別なプレゼントを受け取ることができる賞品ルーレットを回すこともできます。 スケジュールを確認して、お近くの都市で開催される AWS Summit にご参加ください。次の AWS Summit は、 バンコク (4 月 29 日)、 ロンドン (4 月 30 日)、 ポーランド (5 月 5 日)、 バンガロール (5 月 7~8 日)、 香港 (5 月 8 日)、 ソウル (5 月 14~15 日)、 ドバイ (5 月 21 日)、 テル・アビブ (5 月 28 日)、 シンガポール (5 月 29 日)、 ストックホルム (6 月 4 日)、 シドニー (6 月 4~5 日)、 ハンブルク (6 月 5 日)、 ワシントン D.C. (6 月 10~11 日)、 マドリード (6 月 11 日)、 ミラノ (6 月 18 日)、 上海 (6 月 19~20 日)、 ムンバイ (6 月 19 日)、および 東京 (6 月 25~26 日) で開催される予定です。 4 月 14 日週のリリース 私が注目したいくつかのリリースをご紹介します。 GitLab Duo with Amazon Q – ソフトウェア開発用の高度なエージェント機能が組み込まれた GitLab Duo with Amazon Q が、Self-Managed Ultimate のお客様を対象に一般提供されました。GitLab Duo with Amazon Q は、Java モダナイゼーション、強化された品質保証、コードレビュー最適化も GitLab の エンタープライズ DevSecOps プラットフォームで直接サポートします。詳細については、 こちらの DevOps ブログ記事 をお読みいだたくか、 Amazon Q Developer 統合ページ をご覧ください。 欧州 (フランクフルト) リージョンでの Amazon Q Developer – Amazon Q Developer Pro ティアのお客様は、欧州 (フランクフルト) リージョン内にデータを保存するために AWS マネジメントコンソールと統合開発環境 (IDE) で Amazon Q Developer を使用し、設定できるようになりました。推論が欧州連合 (EU) リージョン内で実行されるため、データの保存場所と転送先の選択肢が広がります。詳細については、 こちらのブログ記事 をお読みください。 AWS Control Tower での 223 個の新規 AWS Config ルール – セキュリティ、コスト、耐久性、オペレーションなどのさまざまなユースケースのために、AWS Control Tower が Control Catalog でさらに 223 個のマネージド Config ルールをサポートするようになりました。このリリースにより、これらの追加のルールを AWS Control Tower から直接検索、検出、有効化、管理し、マルチアカウント環境向けにより多くのユースケースを管理できるようになります。詳細については、「 AWS Control Tower ユーザーガイド 」をご覧ください。 Amazon CloudFront エニーキャスト静的 IP による apex ドメインのサポート – CloudFront でルートドメイン ( example.com など) を簡単に使用できます。この新機能は、これまで 21 個あった固定 IP アドレスを 3 個にすることで DNS 管理を簡素化するため、CloudFront ディストリビューションでの apex ドメインの設定と管理が容易になります。詳細については、詳しい説明と実装ガイダンスが記載されている「 CloudFront 開発者ガイド 」をご覧ください。 AWS Lambda@Edge の高度なロギングコントロール – この機能は、Lambda 関数ログがエッジで取得、処理、使用される方法を改善します。この機能強化はロギングデータのより細かな制御を可能にするため、アプリケーション動作を簡単に監視して問題を迅速に解決できるようになります。詳細については、 こちらのコンピューティングブログ記事 、「 Lambda 開発者ガイド 」、または「 CloudFront 開発者ガイド 」を参照してください。 ダカール (セネガル) での新しい AWS Wavelength Zone – Orange の子会社である Sonatel とのパートナーシップによって実現されたサブサハラ・アフリカ地域初の Wavelength Zone により、独立系ソフトウェアベンダー (ISV)、企業、および開発者は、AWS のインフラストラクチャとサービスを使用して、データレジデンシー、低レイテンシー、およびレジリエンシー要件を伴うアプリケーションをサポートできるようになりました。AWS Wavelength は、7 社の電気通信会社とのパートナーシップにより、世界中 31 の都市で提供されています。 AWS Wavelength の詳細を確認して、 今すぐ使用を開始 しましょう。 AWS のお知らせの詳細なリストについては、「 AWS の最新情報 」ページをご覧ください。 AWS のその他のニュース 皆さんの関心を引くと思われるその他のニュースをいくつかご紹介します。 Amazon EKS Auto Mode Workshop – EKS Auto Mode Workshop は、Auto Mode を使用して Amazon EKS にワークロードをデプロイし、Auto Mode が Kubernetes アプリケーションの実行時における運用上のオーバーヘッドを合理化する方法を理解するために必要な知識を提供します。 AWS Well-Architected 生成 AI レンズ – AWS Well-Architected フレームワーク は、AWS で生成 AI ワークロードを設計して運用するためのアーキテクチャベストプラクティスを提供します。この Well-Architected フレームワークを使用する 生成 AI レンズ は、生成 AI ワークロードの Well-Architected フレームワークレビューを実行する手順を説明します。 生成 AI のための AWS Security Reference Architecture (SRA) コード例 – 生成 AI ワークロードをセキュア化するための新しい SRA コード例 には、セキュアなモデル推論と検索拡張生成 (RAG) の実装に焦点を当てた 2 つの包括的な機能が含まれており、AWS 生成 AI サービスを使用した幅広いセキュリティベストプラクティスを取り上げています。 community.aws より community.aws から、私が個人的に気に入っている記事をご紹介します。 Introducing the AWS Guidance for Multi-Provider LLM Access (著者: Todd Fortier) Architecting Secure MCP Solutions on AWS: From Threats to Mitigations (著者: Roberto Catalano) Voice-Controlled Humanoid Robots Using Amazon Nova Sonic and AWS IoT (著者: Cyrus Wong 氏) Vibe Coding in Practice: Building a Classic Platform Jumping Game with Amazon Q Developer CLI (著者: Haowen Huang) 近日開催予定の AWS イベント カレンダーを確認して、近日開催予定の AWS イベントにサインアップしましょう。 AWS re:Inforce – カレンダーの 6 月 16~18 日には、ペンシルバニア州フィラデルフィアで開催される AWS re:Inforce を書き込んでおきましょう。AWS re:Inforce は、AWS セキュリティソリューション、クラウドセキュリティ、コンプライアンス、アイデンティティに焦点を当てた学習カンファレンスです。イベントの最新情報に今すぐサブスクライブしてください! AWS パートナーイベント – クラウドジャーニーを始めたばかりであるか、新しいビジネス上の課題を解決したいと考えているかにかかわらず、誰もがインスピレーションと学びを得られるさまざまな AWS パートナーイベントを見つけましょう。 AWS Community Day – 世界中の AWS エキスパートユーザーや業界リーダーが主導するテクニカルディスカッション、ワークショップ、ハンズオンラボが行われるコミュニティ主催のカンファレンスにご参加ください。次回の Community Day は、 イスタンブール (トルコ) (4 月 25 日)、 プラハ (チェコ共和国) (4 月 25 日)、 エレバン (アルメニア) (5 月 24 日)、 チューリッヒ (スイス) (5 月 25 日)、 バンガロール (インド) (5 月 25 日) で開催される予定です。 近日開催されるすべての対面イベントと仮想イベント をご覧いただけます。 4 月 21 日週のニュースは以上です。4 月 28 日週の Weekly Roundup もお楽しみに! – Channy この記事は、 Weekly Roundup  シリーズの一部です。毎週、AWS からの興味深いニュースや発表を簡単にまとめてお知らせします! 原文は こちら です。 ニュースブログはいかがでしたか? こちらの 1 分間のアンケートにぜひご協力ください ! (この アンケート は外部企業に委託して行われます。AWS は、 AWS プライバシー通知 に記載された内容に従って、お客様の情報を取り扱います。AWS は、このアンケートを通じて収集したデータを所有し、収集した情報をアンケートの回答者と共有することはありません)
アバター
この記事は株式会社 MIERUNE の代表取締役 CEO である Yasunori Kirimoto  に寄稿頂いた「 New features and developer experience with enhanced Amazon Location Service 」をソリューションアーキテクトの稲田が翻訳したものです。 地理空間アプリケーションを構築するには、地理空間データを扱うための専門知識と、システムの設計および開発のスキルが必要です。また、大量の地理空間データを収集および管理し、アプリケーションで効果的に利用するスキルも必要とされます。このプロセスは非常に手間がかかる可能性がありますが、その複雑さは Amazon Location Service を活用することで大幅に軽減できます。 Amazon Location Service では、API から高精度の地理空間データをすばやく取得できるため、開発者はアプリケーションの構築に集中できます。さらに、Amazon Location Service が従来の機能に加えて新機能が追加されました。Amazon Location Service の新機能を紹介し、アプリケーションでその機能を活用する方法をご紹介します。 Amazon Location Service の新機能のリリース 最大の変更点は、個別のリソース作成が不要になったことです。つまり、ユーザーは個々のリソース (Place Index、Map、Route Calculator など) を作成する必要がなくなり、API キーを設定するだけで、すぐに Amazon Location Service を使い始められます。 さらに、Maps、Places、Routes API に大幅な機能強化と新機能が追加されました。Maps API は、追加のスタイルと新しい静的マップ機能で更新されました。Places API は、新しい検索と地理コーディング機能で強化されました。最後に、Routes API は、Snap to Road、Waypoint Optimization、および追加の移動モードなどの新機能で更新されました。 API キーの作成 API キー を作成するには、 AWS マネジメントコンソール または AWS Cloud Control API を利用できます。この例では、コンソールを使用します。Amazon Location Service コンソールに移動し、 Manage resources の下にある API keys を選択します。 Create API key を選択してください。 図 1 – Amazon Location Service コンソール – API キーコンソール デモのために、API キーを LasVegasMaps と名付け、以下のアクションを選択します。 GetStaticMap GetTile Geocode GetPlace SearchNearby SearchText CalculateIsolines SnapToRoads 図 2 – API キーアクションの選択 スクロールダウンすると、有効期限の設定や参照元の設定など、追加オプションがあります。これらはオプションですが、本番環境のアプリケーションには強くお勧めします。今回はこのデモのためこれらはデフォルトのままにしています。 図 3 – 追加の API キーオプション Create API Key を選択してください。 API キーを作成したので、次はアプリケーションで使用するための値を取得する必要があります。 Show API key value を選択し、値を安全な場所にコピーしてください。 図 4 – API キーコンソールで、API キーの値を表示する 新しい Maps API まず、GetStyleDescriptor と GetStaticMap について詳しく説明して紹介します。 地図アプリケーションの基盤となる GetStyleDescriptor の構築 GetStyleDescriptor を使用すると、マップスタイル情報を取得し、マップアプリケーションの基盤を迅速に構築できます。この機能は、様々な地理空間ソリューションやアプリケーション基盤に使用できます。新バージョンでは、異なるアプリケーション向けに目的に合わせて設計された拡張マップスタイルを提供しており、様々なレベルの地図詳細を持つダークモードとライトモードを提供しています。 MapLibre GL JS を使用してこれらのマップスタイルを活用する方法を紹介します。MapLibre GL JS と Amazon Location Service API キーを使用して、非常にシンプルな HTML ページを作成します。 simpleMap.html という名前の新しい HTML ファイルを作成し、以下のコードをファイルに貼り付けてください。 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Amazon Location Service Map</title> <!-- MapLibre GL CSS --> <link href="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.css" rel="stylesheet" /> <style> body { margin: 0; } #map { height: 100vh; /* Full viewport height */ } </style> </head> <body> <!-- Map container --> <div id="map"></div> <!-- JavaScript dependencies --> <script src="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.js"></script> <script> // Configuration const region = "<AWS Region>"; // Replace with your AWS region const mapApiKey = "<Your API Key>"; // Replace with your Amazon Location Service API key async function initializeMap() { // Initialize the map const map = new maplibregl.Map({ container: "map", // HTML element ID where the map will be rendered center: [-115.1473824627421, 36.17071351509272], // Initial map center coordinates (Las Vegas) zoom: 12, // Initial zoom level style: `https://maps.geo.${region}.amazonaws.com/v2/styles/Standard/descriptor?&color-scheme=Light&variant=Default&key=${mapApiKey}`, // Map style URL }); // Add navigation controls to the map map.addControl(new maplibregl.NavigationControl(), "top-left"); } // Call the function to initialize the map initializeMap(); </script> </body> </html> この HTML ページをブラウザで開いてください。ラスベガスの地図が表示されるはずです。この地図の鍵は、前のコードで設定したスタイル URL です。この URL では、明るい色のスタンダードスタイルマップを要求しています。政治的な見解など、追加のパラメータも指定できます。 図 5 – ラスベガス(ネバダ州)を中心とした地図 GetStaticMap を使用して静的地図画像を作成する GetStaticMap を使用すると、指定した座標、ズームレベル、イメージサイズに基づいて静的な地図画像を作成できます。この機能は、印刷物やメディアの投稿に地図画像を含めるのに役立ちます。この機能にはさまざまなパラメータがあり、他のデータ (ポイント、ライン、ポリゴンなど) を重ね合わせることもできます。基本的な例を示します。使用する AWS リージョンと新しく作成した API キーに合わせて URL を編集してください。指定した場所の静的な地図画像を表示するには、以下の URL を Web ブラウザのアドレスバーに貼り付けてください。 https://maps.geo.<Your AWS Region>.amazonaws.com/v2/static/map?center=-115.170,36.122&zoom=15&width=1024&height=1024&key=<Your API Key> 図 6 – ラスベガスストリップを表示する静的地図画像 新しい Places API 次に、SearchText と SearchNearby を紹介します。 SearchText による特定の POI データの検索 SearchText を使用すると、ユーザーは特定の目的地(POI)データを検索して表示することができます。この機能は、ユーザーが特定の場所や施設をすばやく検索できるように設計されています。ユーザーは指定されたパラメータで POST リクエストを送信し、候補地点データを含むレスポンスを受け取ることができます。そのデータを地図上に視覚化する例を紹介します。 searchText.html という名前の新しい HTML ファイルを作成し、以下のコードをファイルに貼り付けてください。 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Amazon Location Service – Search Text</title> <link href="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.css" rel="stylesheet" /> <style> body { margin: 0; } #map { height: 100vh; } </style> </head> <body> <!-- map container --> <div id="map"></div> <!-- JavaScript dependencies --> <script src="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.js"></script> <!-- Import the Amazon Location Client --> <script src="https://cdn.jsdelivr.net/npm/@aws/amazon-location-client@1"></script> <!-- Import the utility library --> <script src="https://cdn.jsdelivr.net/npm/@aws/amazon-location-utilities-datatypes@1"></script> <script> // Configuration // Set the AWS region for Amazon Location Service const region = "<AWS Region>"; // API key for authenticating requests const mapApiKey = "<Amazon Location Service API Key>"; async function initializeMap() { // Create an authentication helper using the API key const authHelper = await amazonLocationClient.withAPIKey(mapApiKey, region); // Initialize the Amazon Location Service Places client const client = new amazonLocationClient.places.GeoPlacesClient( authHelper.getClientConfig() ); // Define search parameters for coffee shops const SearchTextInput = { BiasPosition: [-115.170, 36.122], // Las Vegas coordinates MaxResults: 25, QueryText: "Coffee Shops" } // Perform the search using Amazon Location Service const searchResults = await client.send( new amazonLocationClient.places.SearchTextCommand(SearchTextInput) ) // Initialize the map const map = new maplibregl.Map({ container: "map", center: [-115.170, 36.122], // Las Vegas coordinates zoom: 14, style: `https://maps.geo.${region}.amazonaws.com/v2/styles/Standard/descriptor?&color-scheme=Light&variant=Default&key=${mapApiKey}`, }); // Add navigation controls to the map map.addControl(new maplibregl.NavigationControl(), "top-left"); // When the map is loaded, add search results as a layer map.on("load", () => { // Convert search results into a GeoJSON FeatureCollection const featureCollection = amazonLocationDataConverter.searchTextResponseToFeatureCollection(searchResults); // Add a data source containing GeoJSON from the search results map.addSource("place-index-results", { type: "geojson", data: featureCollection, }); // Add a new layer to visualize the points map.addLayer({ id: "place-index-results", type: "circle", source: "place-index-results", paint: { "circle-radius": 8, "circle-color": "#0080ff", }, }); // Add click event listener for the search result points map.on('click', 'place-index-results', (e) => { if (e.features.length > 0) { const feature = e.features[0]; const coordinates = feature.geometry.coordinates.slice(); // Create a formatted HTML string with the feature's properties const properties = feature.properties; let description = '<h3>' + (properties['Title'] || 'Unnamed Location') + '</h3>'; description += '<p>Address: ' + (properties['Address.Label'] || 'N/A') + '</p>'; // Create and display a popup with the location information new maplibregl.Popup() .setLngLat(coordinates) .setHTML(description) .addTo(map); } }); map.on('mouseenter', 'place-index-results', () => { map.getCanvas().style.cursor = 'pointer'; }); map.on('mouseleave', 'place-index-results', () => { map.getCanvas().style.cursor = ''; }); }); } // Call the function to initialize the map initializeMap(); </script> </body> </html> HTML ファイルをブラウザで開くと、ラスベガス(ネバダ州)のベネチアン・リゾートを中心としたコーヒーショップのマップが表示されます(図7)。 図 7 – SearchText API の結果を表示した地図 SearchNearby を使用して指定された場所の周辺の POI データを検索する SearchNearby を使用すると、指定された場所の近くにある POI データを取得できます。この機能は、ユーザーが周辺の店舗や観光スポットを検索するのに便利です。ユーザーは指定されたパラメータを含む POST リクエストを送信し、候補地点データを含むレスポンスを受け取ることができます。そのデータを地図上に可視化する例を示します。 searchNearby.html という名前の新しい HTML ファイルを作成し、以下のコードをファイルに貼り付けてください。 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Amazon Location Service – Search Nearby</title> <link href="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.css" rel="stylesheet" /> <style> body { margin: 0; } #map { height: 100vh; } </style> </head> <body> <!-- map container --> <div id="map"></div> <!-- JavaScript dependencies --> <script src="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.js"></script> <!-- Import the Amazon Location Client --> <script src="https://cdn.jsdelivr.net/npm/@aws/amazon-location-client@1"></script> <!-- Import the utility library --> <script src="https://cdn.jsdelivr.net/npm/@aws/amazon-location-utilities-datatypes@1"></script> <script> // Configuration // Set the AWS region for Amazon Location Service const region = "<AWS Region>"; // API key for authenticating map requests const mapApiKey = "<Amazon Location Service API Key>"; async function initializeMap() { // Create an authentication helper using the API key const authHelper = await amazonLocationClient.withAPIKey(mapApiKey, region); // Initialize the Amazon Location Service Places client const client = new amazonLocationClient.places.GeoPlacesClient( authHelper.getClientConfig() ); // Define search parameters for nearby casinos and hotels const SearchNearbyInput = { QueryPosition: [-115.170, 36.122], // Las Vegas coordinates MaxResults: 25, Filter: { IncludeCategories: [ "casino", "hotel" ] } } // Perform the nearby search using Amazon Location Service const searchResults = await client.send( new amazonLocationClient.places.SearchNearbyCommand(SearchNearbyInput) ) // Initialize the map const map = new maplibregl.Map({ container: "map", center: [-115.170, 36.122], // Las Vegas coordinates zoom: 15, style: `https://maps.geo.${region}.amazonaws.com/v2/styles/Standard/descriptor?&color-scheme=Light&variant=Default&key=${mapApiKey}`, }); // Add navigation controls to the map map.addControl(new maplibregl.NavigationControl(), "top-left"); // When the map is loaded, add search results as a layer map.on("load", () => { // Convert search results into a GeoJSON FeatureCollection const featureCollection = amazonLocationDataConverter.searchNearbyResponseToFeatureCollection(searchResults); // Add a data source containing GeoJSON from the search results map.addSource("place-index-results", { type: "geojson", data: featureCollection, }); // Add a new layer to visualize the points map.addLayer({ id: "place-index-results", type: "circle", source: "place-index-results", paint: { "circle-radius": 8, "circle-color": "#0080ff", }, }); // Add click event listener for the search result points map.on('click', 'place-index-results', (e) => { if (e.features.length > 0) { const feature = e.features[0]; const coordinates = feature.geometry.coordinates.slice(); // Create a formatted HTML string with the feature's properties const properties = feature.properties; let description = '<h3>' + (properties['Title'] || 'Unnamed Location') + '</h3>'; description += '<p>Address: ' + (properties['Address.Label'] || 'N/A') + '</p>'; // Create and display a popup with the location information new maplibregl.Popup() .setLngLat(coordinates) .setHTML(description) .addTo(map); } }); map.on('mouseenter', 'place-index-results', () => { map.getCanvas().style.cursor = 'pointer'; }); map.on('mouseleave', 'place-index-results', () => { map.getCanvas().style.cursor = ''; }); }); } // Call the function to initialize the map initializeMap(); </script> </body> </html> 図 8 – SearchNearby API の結果を表示した地図 新しい Routes API 最後に、新しい CalculateIsolines と SnapToRoads について説明します。 CalculateIsolines で指定した場所から到達可能な範囲を見つける CalculateIsolines は、指定したポイントから到達可能な範囲を取得できます。Isolines のユースケースには、配達可能エリアの特定や不動産の立地評価などがあります。ユーザーは指定したパラメータで POST リクエストを送信し、到達可能なエリアを示すポリゴンデータを含むレスポンスを受け取ることができます。そのデータを地図上に可視化する例を紹介します。 calculateIsolines.html という名前の新しい HTML ファイルを作成し、以下のコードをファイルに貼り付けてください <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Amazon Location Service - Isolines</title> <link href="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.css" rel="stylesheet" /> <style> body { margin: 0; } #map { height: 100vh; } </style> </head> <body> <!-- map container --> <div id="map"></div> <!-- JavaScript dependencies --> <script src="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.js"></script> <!-- Import the Amazon Location Client --> <script src="https://cdn.jsdelivr.net/npm/@aws/amazon-location-client@1"></script> <!-- Import the utility library --> <script src="https://cdn.jsdelivr.net/npm/@aws/amazon-location-utilities-datatypes@1"></script> <script> // Configuration // Set the AWS region for the Amazon Location Service const region = "<AWS Region>"; // API key for authenticating map requests const mapApiKey = "<Amazon Location Service API Key"; async function initializeMap() { // Create an authentication helper using the API key const authHelper = await amazonLocationClient.withAPIKey(mapApiKey, region); // Initialize the Amazon Location Service Routes client const client = new amazonLocationClient.routes.GeoRoutesClient( authHelper.getClientConfig() ); // Define parameters for calculating isolines const IsolinesInput = { Origin: [-115.17015436843275, 36.12122662193694], // Starting point coordinates Thresholds: { Time: [ 300, 600, 900 // Time thresholds in seconds ] }, TravelMode: "Pedestrian" // Travel mode for isoline calculation } // Calculate isolines using Amazon Location Service const routeResults = await client.send( new amazonLocationClient.routes.CalculateIsolinesCommand(IsolinesInput) ) // Initialize the map const map = new maplibregl.Map({ container: "map", center: [-115.16766776735061, 36.12177195550658], // Map center coordinates zoom: 15, style: `https://maps.geo.${region}.amazonaws.com/v2/styles/Standard/descriptor?&color-scheme=Light&variant=Default&key=${mapApiKey}`, }); // Add navigation controls to the map map.addControl(new maplibregl.NavigationControl(), "top-left"); // Add a marker at the origin point const marker = new maplibregl.Marker() .setLngLat([-115.17015436843275, 36.12122662193694]) .addTo(map) // When the map is loaded, add isolines as layers map.on("load", () => { // Convert isoline results into a GeoJSON FeatureCollection const featureCollection = amazonLocationDataConverter.calculateIsolinesResponseToFeatureCollection(routeResults); // Add a data source containing GeoJSON from the isoline results map.addSource("isolines", { type: "geojson", data: featureCollection }); // Add a fill layer to visualize the isoline areas map.addLayer({ 'id': 'isolines-fill-900', 'type': 'fill', 'source': 'isolines', 'filter': ['==', ['get', 'TimeThreshold'], 900], 'paint': { 'fill-color': '#0000ff', 'fill-opacity': 0.5 } }); // Add a layer for 600m (10) map.addLayer({ 'id': 'isolines-fill-600', 'type': 'fill', 'source': 'isolines', 'filter': ['==', ['get', 'TimeThreshold'], 600], 'paint': { 'fill-color': '#00ff00', 'fill-opacity': .5 } }); // Add a layer for 300m (5) map.addLayer({ 'id': 'isolines-fill-300', 'type': 'fill', 'source': 'isolines', 'filter': ['==', ['get', 'TimeThreshold'], 300], 'paint': { 'fill-color': '#f10000', 'fill-opacity': 0.5 } }); // Add an outline layer to highlight the isoline boundaries map.addLayer({ 'id': 'isolines-outline', 'type': 'line', 'source': 'isolines', 'paint': { 'line-color': '#000000', 'line-width': 2 } }); }); } // Call the function to initialize the map initializeMap(); </script> </body> </html> HTMLファイルをブラウザで開くと、次の地図(図9)が表示されます。この地図は、ベネチアン・リゾートからの徒歩圏内の距離を 5 分、15 分、30 分の時間枠で示しています。 HTMLファイルをブラウザで開くと、次の地図(図9)が表示されます。この地図は、ベネチアン・リゾートからの徒歩圏内の距離を 5 分、15 分、30 分の時間枠で示しています。 図 9 – ベネチアンリゾートからの徒歩距離を表示した地図 SnapToRoads による位置補正されたルートデータの取得 SnapToRoads を使用すると、GPS データやその他の位置データを最寄りの道路にスナップし、位置補正後の線データを取得することができます。この機能は、車両追跡や交通分析の精度を向上させるのに非常に役立ちます。ユーザーは指定されたパラメータを含む POST リクエストを送信し、位置補正された線データを含むレスポンスを受け取ることができます。処理前と処理後のデータを地図上で視覚化する例を示します。 snapToRoad.html という名前の新しい HTML ファイルを作成し、以下のコードをファイルに貼り付けてください。 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Amazon Location Service - Snap to Roads</title> <!-- MapLibre GL CSS --> <link href="https://unpkg.com/maplibre-gl@3.x/dist/maplibre-gl.css" rel="stylesheet" /> <style> body { margin: 0; } #map { height: 100vh; /* Full viewport height */ } </style> </head> HTML ファイルをブラウザで開くと、以下の地図(図10)が表示されます。青い線は GPS トレースを表し、赤い線は道路にスナップされたバージョンを表しています。 図 10 – GPS トレースに基づいて修正されたルートを表示した地図 クリーンアップ このデモで作成された Amazon Location Service リソースは API キーのみでした。API キーを削除するには、Amazon Location Service コンソールに移動し、作成した API キーを選択して、 Deactivate を選択します。キーの無効化を確認し、 Delete を選択します。標準の 90 日間の無効化期間を無視してキーを強制的を選択してください まとめ Amazon Location Service は新しい機能によりさらに柔軟性が向上しました。このアップデートにより、以前は必要だったリソース作成が不要になり、API キーを設定するだけで様々な API を使用できるようになりました。これにより、ユーザーは地理空間アプリケーションを迅速かつスムーズに構築できます。 注目すべき新機能には、Maps API の GetStyleDescriptor と GetStaticMap、Places API の SearchText と SearchNearby、Routes API の CalculateIsolines と SnapToRoads があります。 Maps API では、GetStyleDescriptor を使用して様々なマップスタイルを取得し、アプリケーションに適用できます。また、GetStaticMap は指定した座標とズームレベルに基づいて静的な地図画像を生成できます。Places API では SearchText を使用して POI データを検索でき、SearchNearby は特定の場所の周辺にある POI を見つけることができます。Routes API では、CalculateIsolines を使用して指定したポイントからの到達可能性を計算し、SnapToRoads は GPS データを修正して正確な経路データを取得できます。 これらの新機能により、アプリケーション開発者は地理空間データをより効果的に活用し、ユーザーエクスペリエンスを大幅に向上させることができます。ビジネスの加速化に役立つ方法の詳細については、 AWS の担当者 にお問い合わせください。 参考資料 Amazon Location Service Routes, Places, Maps の新しい API を発表 Amazon Location Service API ドキュメント AWS Geospatial – GitHub Yasunori Kirimoto Yasunori Kirimoto は、AWS DevTools Hero であり、株式会社 MIERUNE の共同創業者兼 CEO です。GIS(地理情報システム)とFOSS4G(Free and Open Source Software for Geospatial)を専門としています。20 年以上の経験と地理空間データおよびアプリケーションに関する幅広い知識を持っています。
アバター
本記事は 2025 年 4 月 17 日に AWS Machine Learning Blog で公開された Automate video insights for contextual advertising using Amazon Bedrock Data Automation を翻訳したものです。翻訳はソリューションアーキテクトの川戸渉が担当しました。 ブログ翻訳時点 (2025 年 4 月) では、Amazon Bedrock Data Automation は英語をサポートしています。他の言語は未サポートです。 コンテキスト広告とは、デジタルコンテンツの内容に関連した広告を表示する戦略です。この手法によって視聴者が見ているコンテンツと関連性の高い広告を届けられるようになり、デジタルマーケティングに革新をもたらしています。しかし、ストリーミング型のビデオ・オン・デマンドコンテンツでは、このようなコンテキスト広告の実現が難しくなります。特にビデオのどのタイミングで広告を挿入するか、また視聴内容とどう関連付けるかという点で多くの課題があります。従来の方法では、コンテンツ分析は主に人手に頼っていました。たとえば、コンテンツ分析の担当者は恋愛ドラマを何時間も視聴し、感動的な告白シーンの直後でありながら結末の前という、視聴の流れを損なわない絶妙なタイミングに広告を配置します。その後、担当者はコンテンツに「ロマンス」「感動的」「家族向け」といったメタデータを手作業でタグ付けし、適切な広告とのマッチングを検証します。このような手作業によって、ストーリーの自然な流れを保ちながら番組内容に合った広告を表示できますが、大量のコンテンツに対してこの方法を実施するのは現実的ではありません。 生成 AI、特にマルチモーダル基盤モデル (foundation model, FM) の最近の進歩により、ビデオの内容を高度に理解できるようになりました。これらのモデルは、先ほど述べた課題に対する有望な解決策となっています。以前の記事 Media2Cloud on AWS Guidance: Scene and ad-break detection and contextual understanding for advertising using generative AI では、 Amazon Bedrock の Amazon Titan Multimodal Embeddings G1 model と Anthropic Claude FM を使ったカスタムワークフローを紹介しました。今回の記事では、コンテキスト広告ソリューションをより簡単に構築する方法について解説します。 Amazon Bedrock Data Automation (BDA) は、Amazon Bedrock の FM を活用した新しいマネージド機能です。BDA は、ドキュメント、イメージ、ビデオ、オーディオなどの非構造化コンテンツから構造化されたデータを抽出することで、従来必要であった複雑なカスタムワークフローを簡略化できます。この記事では、BDA を活用して、チャプターセグメントやオーディオセグメントなどの豊富なビデオインサイトの自動抽出、シーン内のテキスト認識、Interactive Advertising Bureau (IAB) のカテゴリ分類の方法を示します。そして、これらのインサイトを使用して、ビデオを中断せずに表示される「ノンリニア広告」のソリューションを構築し、コンテキスト広告の効果を高める手法を紹介します。サンプルの Jupyter Notebook は、 GitHub リポジトリ で利用可能です。 ソリューションの概要 ノンリニア広告とは、再生を中断せずにメインのビデオコンテンツと同時に表示されるデジタルビデオ広告のことです。こうした広告は、ビデオプレーヤーの上にオーバーレイ、グラフィック、またはリッチメディア要素として表示され、多くの場合は画面の下部に表示されます。以下のスクリーンショットは、この記事で実装するノンリニア広告ソリューションの例です。 以下の図は、アーキテクチャとその主要コンポーネントの概要を示しています。 ワークフローは次の通りです: ユーザーが Amazon Simple Storage Service (Amazon S3) にビデオをアップロードします。 新しいビデオがアップロードされるたびに AWS Lambda 関数が起動し、ビデオ分析のために BDA が開始されます。ビデオ分析は非同期ジョブとして実行されます。 分析結果は出力用の S3 バケットに保存されます。 ダウンストリームシステム ( AWS Elemental MediaTailor ) は、BDA が抽出したチャプターセグメンテーション、コンテキストインサイト、メタデータ(IAB 分類など)を活用して、ビデオ内でより効果的な広告の選択と配置が行えるようになります。 サンプルノートブックでは、実装を簡略化するために、ビデオのメタデータと表示する広告ファイルの対応表を用意しています。これは、MediaTailor がコンテンツマニフェストファイルを処理し、広告決定サービスから最適な広告を取得する仕組みを模擬したものです。 前提条件 この記事の例とノートブックを実行するには、以下の前提条件が必要です: サンプルノートブックを動かすための適切な権限を持つ AWS アカウント (Amazon Bedrock、Amazon S3 へのアクセス権限を含む) と Jupyter Notebook 環境 Amazon Bedrock API にアクセスするための適切な権限を持つ Jupyter Notebook 環境。Amazon Bedrock ポリシー設定について詳しくは、 Get credentials to grant programmatic access を参照してください コードを実行する前に、FFmpeg、open-cv、webvtt-py などのサードパーティライブラリをインストールしておく必要があります Creative Commons Attribution 4.0 International Public License のもとで Netflix Open Content から提供される Meridian という短編映画 をサンプルビデオとして使用します BDA を使用したビデオ分析 BDA の導入により、ビデオ処理と分析の作業が格段に簡単になりました。全体のワークフローは 3 つの主要ステップで構成されています。プロジェクトの作成、分析の実行、結果の取得です。最初のステップであるプロジェクトの作成では、繰り返し利用できる分析設定のテンプレートを作ります。このプロジェクト内で、どのような分析を行いたいか、また結果をどのように構造化するかを定義します。プロジェクトの作成には BDA boto3 クライアントの create_data_automation_project API を使用します。この API は dataAutomationProjectArn という識別子を返し、これを各ランタイム実行時に指定する必要があります。 { 'projectArn': 'string', 'projectStage': 'DEVELOPMENT'|'LIVE', 'status': 'COMPLETED'|'IN_PROGRESS'|'FAILED' } プロジェクトが完了すると (ステータスが COMPLETED になったら) 、BDA ランタイムクライアントの invoke_data_automation_async API を使ってビデオ分析を開始できます。この API を利用する際には、入出力の S3 URI と、 cross-Region profile ARN をリクエストに含める必要があります。BDA はすべてのファイル処理タスクで、クロスリージョン推論サポート を必要とします。これにより、対象の地域内で最も適した AWS リージョンが自動選択され、計算リソースとモデルの可用性が最適化されます。この機能は標準で提供され、追加コストなしでパフォーマンスと利用者体験を向上させることができます。また、ジョブの進行状況を追跡するために、 Amazon EventBridge による通知を設定することも可能です (詳細は チュートリアル: Amazon EventBridge を使用してイベントが発生したときに E メールを送信する をご参照ください) 。分析を開始すると、処理はバックグラウンドで続行される一方、API はレスポンスとしてすぐにジョブ ID を返します。 default_profile_arn = "arn:aws:bedrock:{region}:{account_id}:data-automation-profile/us.data-automation-v1" response = bda_runtime_client.invoke_data_automation_async( inputConfiguration={ 's3Uri': f's3://{data_bucket}/{s3_key}' }, outputConfiguration={ 's3Uri': f's3://{data_bucket}/{output_prefix}' }, dataAutomationConfiguration={ 'dataAutomationProjectArn': dataAutomationProjectArn, 'stage': 'DEVELOPMENT' }, notificationConfiguration={ 'eventBridgeConfiguration': { 'eventBridgeEnabled': False } }, dataAutomationProfileArn=default_profile_arn ) ビデオ用の BDA 標準出力 ビデオ分析における BDA からの出力についてみていきましょう。これらの出力を理解することは、BDA がどのような種類のインサイトを提供するのか、そしてそれらをコンテキスト広告ソリューションの構築にどのように活用できるのかを把握するために重要です。以下の図は、ビデオの主要構成要素を示したものです。それぞれの要素がビデオコンテンツを分析するために必要な粒度レベルを定義しています。 主要構成要素は以下の通りです: フレーム – 単一の静止画像。ビデオ内で連続して高速表示させることで、動いているように見える ショット – カメラの撮影が開始してから停止するまでの一連の連続したフレームのつながり チャプター – ビデオ内でいくつかのショットがまとまって、ひとつのストーリーや話題を形成する部分。BDA はまずビデオの特性を分析し、視覚重視型 (映画やエピソードコンテンツなど) か、音声重視型 (ニュースやプレゼンテーションなど) かに分類します。その分類結果に応じて、視覚ベースのショットの流れを使うか、音声ベースの会話トピックを使うかを判断し、チャプターの区切りを決定します ビデオ – 分析対象となるビデオコンテンツ全体 ビデオの構成単位を説明しましたが、次は BDA が提供する分析機能についてみていきましょう。ビデオレベルでは、BDA はそのビデオの主要テーマと内容を簡潔にまとめた総合的な要約を生成します。また、話者識別機能も搭載されており、音声による手がかり (例:「私はジェーン・ドーです」といった自己紹介) や、可能な場合は画面に表示される視覚的な情報から、話者の名前を特定しようとします。この機能の実例として、短編映画「 Meridian 」に対して BDA が生成した全体の要約をみてみましょう: [訳注]: ブログ翻訳時点 (2025 年 4 月) では、BDA は英語の入力コンテンツを解析し、英語で出力する仕様となっています。以下の要約例は、実際には英語で表示されるものを日本語に翻訳してご紹介しています。 エル・マタドール・ビーチの上の道路沿いで発生した一連の謎の失踪事件。一見無関係な 3 人の男性が痕跡もなく姿を消しました。被害者たちは学校教師、保険セールスマン、退職者と職業も異なり、離婚経験があること以外に共通点はほとんどありませんでした。犯罪歴も犯罪組織との関わりもありませんでした… サリバン刑事 は、遺体が発見されていないことから自殺説を否定し、捜査を開始します。捜査の転機となったのは、最後の失踪事件当日に崖の上を犬と散歩していた目撃者の証言でした。その人物によると、海に突き出した巨大な岩の上に立つ男性の姿が見えたそうです。その男性は何かを、あるいは誰かを探しているように見えたその時、突如として前例のない激しい嵐が雷とともに地域を襲いました…捜査は更なる展開を見せます。ロサンゼルス市警察の フォスター警部 がエル・マタドールの現場に到着すると、サリバン刑事も行方不明になっていることが判明。失踪事件、謎の女性、そして異常気象の関連性は依然として解明されず、事件はますます複雑な様相を呈していきます。 BDA は、ビデオの要約に加えて、話者を識別した音声文字起こしも作成します。この文字起こしでは、ビデオ内の会話内容とともに、誰が話しているのかも記録されています。以下は、短編映画「Meridian」から BDA が生成した文字起こしの例です: [訳注]: 以下の文字起こしは、実際には英語で表示されるものを日本語に翻訳してご紹介しています。 [spk_0]: つまり、あの連中はただ忽然と姿を消したってわけか。 [spk_1]: ああ、エル・マタドールの真上を通るあの道路沿いでね。知ってるだろ?あの大きな岩がある場所さ。そうそう、そこだよ。 [spk_2]: あのな、ミッキー・コーエンは昔、仲間たちをあそこまで連れて行って「さよなら」してたんだぜ。 … チャプターレベルの分析 BDA はビデオ内の各チャプターを詳細に分析し、要約を生成します。この要約には、チャプターの開始時間と終了時間が正確に記録されています。また、内容に応じて BDA はチャプターを IAB カテゴリに分類します。この IAB カテゴリは、ウェブ上のコンテンツを整理・分類するための業界標準で、広告のターゲティングやインターネットセキュリティ、コンテンツのフィルタリングなど、様々な用途に活用されています。以下に、チャプター分析の具体例を示します: [訳注]: 以下のチャプターレベルの分析結果は、実際には英語で表示されるものを日本語に翻訳してご紹介しています。 [00:00:20;04 – 00:00:23;01] 自動車、自動車タイプ ビデオは20世紀中頃の古風な都市の街並みを映し出しています。映像の中心には「フロレンティーン ガーデンズ」と「グルーエン タイム」と表示された目立つ看板を掲げたフロレンティーン・ガーデンズという装飾豊かな建物があります。建物の正面は柱やアーチ型の窓などの装飾的な要素で彩られ、風格ある外観を醸し出しています。建物の前の歩道にはヤシの木が並び、南国の雰囲気を添えています。黄色いタクシーや黒いセダンなどのビンテージカーが路上に駐車しており、歩道には歩行者の姿も見られ、通りに活気を添えています。この映像は当時の賑わう都市の雰囲気を見事に捉えています。 サポートする IAB 分類カテゴリの詳細な一覧については、 Videos を参照してください。 また、チャプターレベルでは、BDA は各発言の正確な時間情報を含む詳細な音声の文字起こしも作成します。このような詳細な時間情報付きの文字起こしは、特にクローズドキャプションや通常の字幕作成に役立ちます。以下はチャプターレベルの文字起こしの例です: [訳注]: 以下の文字起こしは、実際には英語で表示されるものを日本語に翻訳してご紹介しています。 [26.85 – 29.59] つまり、あの連中はただ忽然と姿を消したってわけか。 [30.93 – 34.27] ああ、エル・マタドールの真上を通るあの道路沿いでね。 [35.099 – 35.959] 知ってるだろ? [36.49 – 39.029] あの大きな岩がある場所さ。そうそう、そこだよ。 [40.189 – 44.86] あのな、ミッキー・コーエンは昔、仲間たちをあそこまで連れて行って「さよなら」してたんだぜ。 … ショットおよびフレームレベルのインサイト より詳細なレベルでは、BDA はビデオ内の各ショットの切り替わりをフレーム単位で正確に検出し、その時間情報を記録します。また、個々のフレームに映っているテキストやロゴも自動的に検出します。検出されたテキストやロゴの周囲には 境界ボックス (検出範囲を示す枠) が表示され、それぞれの検出結果には信頼度スコアも付けられます。下の画像は、Meridian の映像から抽出されたテキストの境界ボックスの例です。 コンテキスト広告ソリューション BDA から得られた分析結果を活用して、ノンリニア広告ソリューションを構築してみましょう。従来のリニア広告は事前に決められた時間枠に広告を表示しますが、ノンリニア広告はコンテンツの文脈に基づいて動的に広告を配置できます。チャプターレベルでは、BDA がビデオを自動的に分割し、コンテンツの要約、IAB カテゴリ、正確な時間情報といった詳細な分析データを生成します。これらのデータは広告配置のための効果的な指標となり、広告主は自社の宣伝内容に合致する特定のチャプターをターゲットにできます。 実例として、様々な広告画像を用意し、それぞれを特定の IAB カテゴリに関連付けました。BDA がチャプターの IAB カテゴリを特定すると、システムは自動的にリストから最も関連性の高い広告を選び出し、そのチャプターの再生中に画面上に重ねて表示します。下の例では、BDA が田舎道を走る車のシーン (IAB カテゴリ: 自動車、旅行) を識別すると、システムは事前に関連付けられた広告データベースから空港のスーツケースの広告を選択して表示します。この自動マッチングの仕組みにより、視聴の流れを妨げずに、コンテンツに関連した適切な広告配置が可能になります。 クリーンアップ 不要な課金を防ぐため、ノートブックのクリーンアップセクションの手順に従って、作成したプロジェクトとリソースを削除してください。BDA のコストに関する詳細については、 Amazon Bedrock の料金 を参照してください。 まとめ Amazon Bedrock の基盤モデルを活用した Amazon Bedrock Data Automation は、ビデオ分析技術を大きく改善しています。BDA は、ビデオコンテンツの深い分析に必要だった複雑な処理工程を大幅に簡素化しました。これにより、従来は専門的な技術知識が必要だった作業が、誰でも扱える使いやすいソリューションへと生まれ変わりました。この画期的な技術により、メディア企業は運用の手間を減らしながら、視聴者一人ひとりの興味に合わせた、より魅力的な広告を届けられるようになります。 GitHub リポジトリ で公開されているサンプルの Jupyter Notebook を使って、ぜひ BDA を実際にお試しください。また、以下のリソースでは、テキストや画像など他の形式での BDA の活用事例もご覧いただけます: Simplify multimodal generative AI with Amazon Bedrock Data Automation Amazon Bedrock のデータオートメーションを利用してマルチモーダルコンテンツからインサイトを取得する (一般提供が開始されました) 著者について James Wu は AWS のシニア AI/ML スペシャリストソリューションアーキテクトとして、お客様の AI/ML ソリューション設計・構築をサポートしています。James は幅広い機械学習の活用事例に携わっており、特にコンピュータービジョン、ディープラーニング、企業全体での機械学習のスケーリングに力を入れています。 AWS 入社以前は、エンジニアリング分野で 6 年間、マーケティングと広告業界で 4 年間を含む 10 年以上の経験を持ち、アーキテクト、開発者、テクノロジーリーダーとしてのキャリアを積んできました。 Alex Burkleaux は AWS のシニア AI/ML スペシャリストソリューションアーキテクトを務めています。彼女は AI サービスを活用して生成 AI によるメディアソリューションの構築するお客様をサポートしています。彼女の業界経験には、オーバーザトップビデオ、データベース管理システム、信頼性エンジニアリングが含まれています。
アバター
この記事は Create a 360-degree view of your consumers using AWS Entity Resolution and Amazon Neptune (記事公開日: 2024 年 4 月 24 日) を翻訳したものです。 マーケターや広告担当者は、ウェブ、モバイル、コンタクトセンター、ソーシャルメディアなど、様々なチャネルで効果的なマーケティングや広告体験を提供するために、消費者データが統合されたビューを必要としています。例えば、消費者がブランドのウェブサイトでスニーカーを探している場合、マーケターは消費者の時間と労力を節約するために、最も関連性の高い商品を表示したいと考えます。 マッキンゼー の調査によると、71% の消費者がブランドからのパーソナライズされたやりとりを期待しており、76% の消費者がパーソナライズされていないやりとりに不満を感じているとのことです。しかし、パーソナライズされた体験を提供するためには、企業はウェブ、モバイル、メール、ソーシャルメディアなど、複数のタッチポイントにわたる消費者データを取り込み、照合し、クエリを実行して、消費者を理解するために統合されたビューを作成する必要があります。 このブログ記事では、AWS における組み合わせ可能なアーキテクチャパターンについて説明します。このパターンは、データエンジニアリングチームが顧客の 360 度ビューをマーケターに提供するために必要な、データの取り込み、マッチング、クエリのソリューションを構築する際に役立ちます。このブログでは、AWS Entity Resolution と Amazon Neptune を使用して、高精度、低コスト、かつ柔軟な設定が可能な統合顧客ビューを開発するために、関連する顧客情報をどのように接続するかを学びます。 AWS Entity Resolution は、複数のアプリケーション、チャネル、データストアにまたがって保存されている顧客、製品、取引情報、医療記録などの関連レコードを、より簡単にマッチング、リンク、拡張することができるサービスです。そして、 Amazon Neptune は、優れた拡張性と可用性を実現するように設計されたサーバーレスのグラフデータベースです。 統合された顧客ビューは、マーケターが高精度なパーソナライゼーションキャンペーンを展開することを可能にし、それにより顧客エンゲージメントとブランドへの信頼を高めることができます。現在、企業はメールでのやり取り、店舗での購入、ウェブサイトの訪問など、異なるチャネルを通じて収集された関連する顧客記録を接続するために、何ヶ月もの開発時間を費やして、データマッチングやデータクエリのソリューションを構築しています。さらに、一度構築したこれらのソリューションは、ファーストパーティデータ管理システムの最新の変更に合わせて更新し続ける必要があります。例えば、システムは新規に入ってくる匿名の顧客記録を、既知の顧客 ID と継続的に紐付けなければなりません。これらのソリューションは構築、維持、顧客データの変更への対応にコストがかかるため、結果として不正確になったり、耐久性が低下したり、運用や保守が困難になる可能性があります。 使用する AWS サービスの紹介 AWS Entity Resolution は、関連する顧客情報、製品コード、または取引情報コードをより正確にリンクするために、ルールベース、機械学習 (ML) モデル駆動、およびデータサービスプロバイダーマッチングなどの高度なマッチング技術を提供します。 Amazon Neptune は、マネージド型のグラフデータベースで、顧客行動とキャンペーンのマッピング、レコメンデーションエンジンの構築、カスタマージャーニーの表現、統合された顧客ビューの可視化など、密接に関連したデータセットを持つアプリケーションをミリ秒単位のレイテンシーでサポートします。Amazon Neptune 上の 360 度顧客グラフは、顧客の行動や関係性をたどることで、製品やコンテンツのレコメンデーション、そして世帯の識別において、より正確な結果を導き出すことができます。 例:ファーストパーティ識別子を使用した匿名顧客データと既知の顧客データの接続 デジタルコンテンツを利用するユーザーの多くは、匿名の訪問者です。彼らは名前、メールアドレス、電話番号などの識別可能な情報を共有することなく、ウェブやモバイルの様々なページを閲覧するため、匿名訪問者として分類されます。 Forbes の事例データによると、ウェブサイトトラフィックの約 90% が匿名訪問者で構成されているとのことです。匿名訪問者を特定する最初のステップは、ウェブサイトトラフィックの収集です。ウェブやモバイルからのクリックストリームイベントを通じて、識別済みユーザーと匿名訪問者のトラフィックを収集し、 Amazon Simple Storage Service (Amazon S3) などのデータレイクに保存できます。Amazon S3 は、事実上、どこからでもあらゆる量のデータを取得できるように構築されたオブジェクトストレージです。次に、これらの匿名訪問者を既知の訪問者記録とマッチングおよびリンクして、顧客の完全な、つまり統合されたビューを開発する必要があります。顧客を包括的に理解することで、マーケターは認知度とエンゲージメントを高めるためのパーソナライズされたメッセージやキャンペーンを作成することができます。 例を用いて理解しましょう。誰かが 1 日に数回あなたのページを訪問したものの、サインインせず、メールアドレスなどの個人情報を提供する操作も行わなかった場合、一連のクリックストリームデータは存在しますが、これらのイベントを特定のユーザーに紐付けるための識別記録がない状態になります。これは下図 Figure 1 の Click 1 と Click 2 で示されている状態です。しかし、ユーザーがサインインまたは購入 (Click 3) を行った時点で、そのユーザーは個人識別情報を提供することになり、それまでの全てのクリックストリームイベント履歴をそのユーザーに紐付け、アクセスパターンをより良く理解する機会が得られます。 以下の図において、MatchRule1 は、入力されるイベントをリンクし、特定のグループ (Group 1) にマッチングするために AWS Entity Resolution 内で設定されたルールを表しています。 Figure 2 でこの例をさらに発展させると、同じ世帯の複数のユーザーが共通のデバイス (Click 4) や異なるデバイス (Click 5) からあなたのページにアクセスした場合、ユーザーのクリックストリームデータから収集されたイベント記録を使用して、これらのセッションを相互にリンクすることができます。このリンケージにより、世帯単位でのカスタマージャーニーについてより多くの情報が得られます。 このようなソリューションを構築するために、以下のようなハイレベルの設計を考えてみましょう。クリックストリームイベントはウェブサイトやアプリから発生し、データレイクにストリーミングされます。これらのイベントが到着すると、AWS Entity Resolution は、サービス内で定義したルールを使用して、適切なマッチグループにイベントを振り分けます。マッチグループとは、互いに関連があると判断されたレコードのグループです。AWS Entity Resolution からの出力は、Amazon Neptune への入力として使用され、そこで顧客関係を理解するためのプロパティグラフが構築されます。以下の Figure 3 は、このようなソリューションを実装するための全体的なアーキテクチャと設計を示しています。Amazon Neptune 内のプロパティグラフは、分析を実行し、以下のような質問に答えるための基礎となります: 顧客の基礎となるメタデータ項目は何か? 顧客間で共有されているデバイスは何台あるか? 共有デバイスでつながっている複数の顧客間で共有されている、様々な識別情報 (IP アドレス、メールアドレスなど) は何か? ユーザーの操作から生成される典型的なクリックストリームイベントには、IP アドレス、イベントのタイムスタンプ、デバイス情報 (デバイスファミリー、ブラウザやオペレーティングシステムとそれらのバージョンなど) といった情報が含まれています。さらに、 login_id などの要素も含まれていますが、匿名訪問者の場合は、サインインやそれに準ずるアクションを行わない限り、空の値が入ります。以下で、クリックストリームイベントを表すスキーマとサンプルレコードを考えてみましょう。 サンプルイベントレコード event_id user_agent accept_language ip_address zip_code timestamp login_id s_cookie Click1 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 en-US 192.168.117.155 1408 8/22/2023 13:05     Click2 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 en-US 192.168.117.155 1408 8/22/2023 13:06   fb89a211-78b7-42f4-a792-9538bfb2c13f AWS Entity Resolution でこのデータスキーマを解決するためには、まず、サーバーレスのデータ統合サービスである AWS Glue でテーブルを作成する必要があります。このテーブルは、入力されるクリックストリームデータを保持する Amazon S3 バケットを指します。次に、AWS Entity Resolution 内で スキーママッピング を定義し、サービスにデータの解釈方法を指示する必要があります。クリックストリームイベントの属性の多くは個人を特定できる情報ではありませんが、解決には重要であるため、適切な MatchKey 名を持つ Custom String (カスタム文字列) としてマークします。以下の図は、クリックストリームイベント用に AWS Entity Resolution 内で定義されたスキーママッピングを示しています。 注目すべき点 : 3 つのフィールドが同じ MatchKey 「 userIdentifier 」を持っています。これは、これらのフィールドの 1 つ以上がユーザーのマッチグループを解決する上で重要だからです。以下のシナリオを考えてみましょう : 2 つ以上のイベントの IP アドレス (ip_address) が同じ場合、それらは同じマッチグループに属している可能性があります 2 つ以上のイベントのクッキー ID (s_cookie) が同じ場合、それらは同じユーザーに属します 2 つ以上のイベントのログイン ID (login_id) が同じ場合、それらは同じユーザーに属します したがって、これら 3 つのフィールドに同じ MatchKey を設定することで、解決プロセス中にサービスがこれらのフィールドの 1 つ以上を比較することが可能になります。 timestamp と page_class という2つのフィールドは、パススルーカラムとしてマークしています。これは、これらのフィールドが解決プロセスには参加しないものの、AWS Entity Resolution からの出力が Amazon Neptune などの後続のソースに取り込まれる際に必要となる可能性があるためです。 次に、AWS Entity Resolution サービス内で ルールベースのマッチングワークフロー を作成する必要があります。このワークフローは、先ほど定義したスキーママッピングとともに、クリックストリームデータ (AWS Glue テーブルとして表現) を入力ソースとして設定します。処理の頻度として「 Automatic (自動) 」を選択することで、新しいデータが到着した際に、マッチングワークフローが既に解決済みのマッチグループに対して新しいデータを継続的に解決します。このプロセスにおいて、サービスは新しいデータが既存のマッチグループに属するかどうかを識別し、属さない場合は新しいマッチグループを形成します。 自動処理のためには、入力ソースとなる Amazon S3 バケットで、サーバーレスのイベントバスである Amazon EventBridge の通知をオンにしておく必要があることにご注意ください。 上の図に示すように、AWS Entity Resolution 内で、 userIdentifier を単一のルールとするルールベースのマッチングワークフローを作成する必要があります。このルールは、入力されるクリックストリームデータを評価し、同じ特性を持つレコードを単一のマッチグループにリンク、およびマッチングします。同じマッチグループ内のすべてのレコードには、同じ MatchID が割り当てられます。MatchID は、AWS Entity Resolution によって生成される固有の ID であり、各マッチグループ内のすべてのレコードに適用されます。 AWS Entity Resolution サービスは、ワークフロー作成プロセス中に指定された Amazon S3 バケットに、マッチングワークフローの出力を書き込みます。 マッチングワークフローの出力には、(デフォルトで) すべての入力フィールドに加えて、システムによって生成された以下のフィールドが含まれます : MatchRule 、 MatchID 、 InputSourceARN 。MatchRule は、マッチが発生した場合に、そのマッチの条件となったルールの名前を表します。一方、MatchID は、AWS Entity Resolution サービスによって生成され、各レコードに割り当てられる固有の ID です。2つ以上のレコードがルールによってマッチングされた場合、それらは同じマッチグループに属し、同じ MatchID を持ちます。 結果の説明 分かりやすさのために、この例では一部の列のみを含めています。 マッチングワークフローの Run-1 では、2 つのクリックストリームイベント (Click 1、Click 2) が、IP アドレス 192.168.117.155 に基づいてグループ化されています。これは、ip_address、s_cookie、または login_id を使用してイベントを同じ MatchID でグループ化する MatchRule「 Rule 1 」によるものです。 Input (Run-1): event_id user_agent ip_address zip_code timestamp login_id s_cookie Click1 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 192.168.117.155 1408 8/22/2023 13:05     Click2 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 192.168.117.155 1408 8/22/2023 13:06   fb89a211-78b7-42f4-a792-9538bfb2c13f Output (Run-1): recordid event_id matchrule ip_address login_id s_cookie timestamp user_agent matchid Click1 Click1 Rule 1 192.168.117.155     8/22/2023 13:05 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 a3806aa4fb593e7f856fba938c24ab19 Click2 Click2 Rule 1 192.168.117.155   fb89a211-78b7-42f4-a792-9538bfb2c13f 8/22/2023 13:06 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 a3806aa4fb593e7f856fba938c24ab19 その後、新しいクリックストリームイベントが到着した際、そのイベントの 1 つが Click1・Click2 と同じ ip_address を持ち、さらに login_id を含んでいました。AWS Entity Resolution は、この新しいイベント (Click3) を前の 2 つのイベントとマッチングし、出力テーブルに示されているように、同じ MatchID を継承します。さらに出力には、そのマッチグループで以前に関連付けられたレコード (Click1 と Click2) も含まれていますが、これらは「recordid」のみが入力され、他の関連列はすべて空となっています。 Input (Run-2):   event_id user_agent ip_address timestamp login_id s_cookie Click3 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 192.168.117.155 8/23/2023 13:38 john@doe.com fb89a211-78b7-42f4-a792-9538bfb2c13f Output (Run-2): recordid event_id matchrule ip_address login_id s_cookie timestamp user_agent matchid Click1   Rule 1           a3806aa4fb593e7f856fba938c24ab19 Click2   Rule 1           a3806aa4fb593e7f856fba938c24ab19 Click3 Click3 Rule 1 192.168.117.155 john@doe.com fb89a211-78b7-42f4-a792-9538bfb2c13f 8/23/2023 13:38 Mozilla/5.0 (iPod; U; CPU iPhone OS 4_0 like Mac OS X; mai-IN) AppleWebKit/531.21.6 (KHTML, like Gecko) Version/4.0.5 Mobile/8B111 Safari/6531.21.6 a3806aa4fb593e7f856fba938c24ab19 Amazon Neptune 内でのデータ接続 AWS Entity Resolution によってデータがマッチングされ、Amazon S3 に保存された後、マーケターは統合された顧客ビューを用いて実用的なインサイトを導き出すためのダウンストリームアプリケーションを構築することができます。製品レコメンデーション、製品アクティベーション、顧客の世帯特定は、あいまいさが解消されたユーザーとその収集された行動をリンクする一般的なユースケースです。Amazon Neptune は、あいまいさが解消されたエンティティ間の追加の関係性やリンクを特定するのに役立つサービスの 1 つです。 例えば、レコメンデーション領域を考えてみましょう。一般的なレコメンデーション手法として、製品評価などのユーザー行動データの分析に基づく強調フィルタリングがあります。強調フィルタリングにおける顕著な課題は「コールドスタート」問題です。これは、履歴データが存在しないユーザーに対してレコメンデーションエンジンが提案を生成できない場合に発生します。この問題は、クリックストリームデータソースの場合のような匿名訪問者を含むシナリオで特に顕著です。このコールドスタートの課題は、あいまいさが解消された新規の匿名顧客、潜在的な世帯、およびそれらの行動を収集し、既知のユーザープロファイルに「リンク」することで対処できます。AWS Entity Resolution は既知および未知のユーザーのあいまいさを解消し、Amazon Neptune のようなグラフデータベースは履歴フットプリントを形成するための関係性を生成できます。Figure 1 は、グラフデータベースが匿名ユーザーイベントと既知のユーザーイベントを使用して顧客の単一ビューを形成する方法を示すワークフローを示しています。Amazon Neptune は、Click1 (匿名メタデータ) 、Click2 (匿名メタデータ) 、および Click3 (既知のユーザーログイン、jon@doe.com ) 間のリンクを保存できます。 AWS Entity Resolution から Amazon Neptune へのデータ移行方法を見ていきましょう。このソリューションのパートでは、あいまいさが解消されたデータを保存するための Amazon Neptune クラスターが必要になります。データの一括ロード、クエリ、およびグラフの可視化を行うために、 Amazon Neptune workbench が必要になります。これは、 Amazon SageMaker AI 上でホストされる対話型開発環境 (IDE) で、コードの実行と可視化のための Jupyter と Jupyter notebooks を提供します。Amazon SageMaker AI は、あらゆるユースケースにおける ML モデルの構築、トレーニング、デプロイに使用されます。この IDE は、クエリと Amazon Neptune 管理操作を簡素化できる「 ノートブックマジック 」も提供します。Amazon Neptune クラスターとこの workbench は、 AWS CloudFormation の クイックスタートテンプレート を使用して作成できます。AWS CloudFormation は、インフラストラクチャをコードとして扱うことで、AWS およびサードパーティのリソースのモデル化、プロビジョニング、管理を可能にします。ユーザーは、この例で使用される AWS サービスの料金に対して責任を負います。コスト見積もりについては、 AWS Pricing Calculator をご覧ください。 グラフデータモデルの選択は、私たちが答えたい質問に依存します。今回は、「何人の消費者またはグループが 1 つのデバイスを共有しているか?」という質問に答えるためにグラフモデルを使用します。これにより、4 つのノードと 2 つのエッジを持つデータモデルが作成されます。 ノード Group (グループ) : AWS Entity Resolution によって割り当てられた MatchID Device (デバイス) : クリックストリームイベントから得られる統合されたデバイスの詳細 IP : クリックストリームイベントから得られる IP アドレス Login (ログイン) : ユーザーのログイン ID エッジ HAS_IP : Group ノードから IP ノードへの関係 HAS_DEVICE : Group ノードから Device ノードへの関係 HAS_LOGIN : Group ノードから Login ノードへの関係 データモデルが作成されたら、AWS Entity Resolution の出力用 Amazon S3 バケットから Amazon Neptune workbench で定義されたデータモデルへのデータ変換を開始できます。以下のコードサンプルでは、データを Gremlin 一括ローダーフォーマット に変換し、bulkload/nodes または bulkload/edges プレフィックスの下の Amazon S3 バケットに書き出します。 # Read from AWS Entity Resolution output s3 bucket import awswrangler as wr df = wr.s3.read_csv('s3://s3_path/s3_filename') ノードとエッジを作成します。 ## Create group nodes sor = df[['MatchID']].drop_duplicates().dropna() sor['~id'] = 'Group-'+sor['MatchID'] sor['~label'] = 'Group' sor['MatchID:String'] = sor['MatchID'] wr.s3.to_csv(sor, 's3://s3_path/bulkload/nodes/groups.csv', columns = ['~id', '~label', 'MatchId:String(single)'], index = False) ## Create login nodes lg= df[['login_id', 'RecordId']].drop_duplicates().dropna(subset='login_id') lg['~id'] = 'Login-'+lg['login_id'] lg['~label'] = 'Login' lg.rename(columns= {'RecordId': 'RecordId:String', 'login_id': 'login_id:String(single'}, inplace = True) wr.s3.to_csv(lg, 's3://s3_path/bulkload/nodes/login.csv', columns = ['~id', '~label', 'Login:String(single)', 'recordId:String'], index = False) ## Create device nodes df['system_id'] = df[['user_agent_device_family','user_agent_os_version','user_agent_os_family']].astype(str).replace('nan', np.nan).sum(1, skipna = True).replace(0, np.nan) device_nodes = df[['system_id', 'RecordId']].drop_duplicates().dropna(subset='system_id') device_nodes['~id'] = "Device-" + device_nodes['system_id'] device_nodes['~label'] = "Device" device_nodes.rename(columns = ['RecordId': 'RecordId:String', 'system_id': 'system_id:String(single)', inplace = True) wr.s3.to_csv(device_nodes[['~id', '~label', 'system_id:String(single)']], 's3://s3_path/bulkload/nodes/Devices.csv',index = False ) ## Create IP nodes ip = df[['ip', 'RecordId']].drop_duplicates().dropna(subset='ip_address') ip['~id'] = 'IP-'+ip['ip'] ip['~label'] = 'IPAddress' ip.rename(columns= {'RecordId': 'RecordId:String', 'ip_address': 'ip_address:String(single)'}, inplace = True) wr.s3.to_csv(ip[['~id', '~label', 'ip_address:String(single)', 'recordId:String']], 's3://s3_path/bulkload/nodes/ips.csv',index = False) ## Group to login edges has_login= df[['MatchID', 'login_id']].drop_duplicates().dropna(subset='login_id') has_login['~to'] = "Login-"+ has_login['login_id'] has_login['~from'] = "Group-"+ has_login['MatchID'] has_login['~label'] = "HAS_LOGIN" has_login['~id'] = has_login['~label'] +'-' + has_login['~from'] + has_login['~to'] wr.s3.to_csv(has_login, 's3://s3_path/bulkload/edges/has_login.csv', columns = ['~id', '~label', '~from', '~to'], index = False) ## Group to Ip edges has_ip= df[['MatchID', 'ip_address']].drop_duplicates().dropna() has_ip['~to'] = "IP-"+ has_ip['ip_address'] has_ip['~from'] = "Group-"+ has_ip['MatchID'] has_ip['~label'] = "HAS_IP" has_ip['~id'] = has_ip['~label'] +'-' + has_ip['~from'] + has_ip['~to'] wr.s3.to_csv(has_ip, 's3://s3_path/bulkload/edges/has_ip.csv', columns = ['~id', '~label', '~from', '~to'], index = False) ## Group to Device edges in_group = df[['system_id', 'MatchID']].drop_duplicates().dropna() in_group['~to'] = "Device-"+ in_group['system_id'] in_group['~from'] = "Group-"+ in_group['MatchID'] in_group['~label'] = "HAS_DEVICE" in_group['~id'] = in_group['~label'] +'-' + in_group['~from'] + in_group['~to'] wr.s3.to_csv(in_group, 's3://s3_path/bulkload/edges/has_device.csv', columns = ['~id', '~label', '~from', '~to'], index = False) すべての変換が完了したら、ノートブックマジックを使用して一括ロードを実行します。ロードを実行するには、Amazon Neptune IAM ロールと Amazon S3 バケットの詳細が必要になります。 %load -s s3://s3_path/bulkload --store-to loadres ロードが失敗した場合、load_status ノートブックマジックを使用してロードのステータスとエラーを検証してください。 %load_status {loadres['payload']['loadid']} --errors あいまいさが解消された識別子の可視化とクエリ Amazon Neptune は、オープンソースのグラフ可視化ツールである Graph Explorer や、Amazon Neptune workbench を含む、複数の可視化オプションをサポートしています。Amazon Neptune workbench は、コードの実行に加えて、グラフクエリ言語の探索もサポートしています。このブログでは、解決された識別子間の相互接続を理解し、一般的な質問に答えるために、Amazon Neptune workbench でのクエリ例とグラフの可視化を紹介します。 「グループが与えられた場合、そのグループに関連するメタデータ項目と AWS Entity Resolution によって統合された RecordID を見つける」 %%oc Match (g:Group {`~id`:'Group-a3806aa4fb593e7f856fba938c24ab19'})-[:HAS_IP | :HAS_DEVICE | :HAS_LOGIN]->(p) return g.`~id` as MatchID, labels(p) as MetadataType, p.`~id` as ElementMap, collect(p.RecordId) 結果 : Group MetadataType ElementId RecordId a3806aa4fb593e7f856fba938c24ab19 IPAddress IP-192.168.117.155 [Click1, Click2, Click3] a3806aa4fb593e7f856fba938c24ab19 Device Device-Mobile Safari4.0.5iOS [‘670f456b-3182-41b9-8df7-99cb1a2730a4’, ‘Click1’, ‘Click2’, ‘Click3’] a3806aa4fb593e7f856fba938c24ab19 Login Login-john@doe.com [Click3] 可視化 : 「グループが与えられた場合、同じデバイスを共有する他のすべてのグループまたは消費者を見つける」 Match (g:Group {`~id`:'Group-f10509080d994778a8989142ca0891ea'})-[:HAS_DEVICE]->(d) with d Match (g2)-[i:HAS_DEVICE]->(d) return g2.`~id` as Groups, d.system_id as Device 結果 : Group Device f10509080d994778a8989142ca0891ea IE7.0Windows 16b102c92ec84f2780a9ad0e807c8370 IE7.0Windows 849f2dbd7f1b4d23ac1abc82bc84bbb5 IE7.0Windows 可視化 : 「デバイスが与えられた場合、そのデバイスを使用したすべてのグループと、そのグループに関連するすべての IP アドレスを取得する」 Match (g:Group)-[:HAS_DEVICE]->(d:Device {`~id`:'Device-Mobile Safari3.0.5iOS'}) with g, d Match (g)-[:HAS_IP]->(addr) return g.MatchID as MatchID, addr.ip_address as IPAddress, d.system_id as Device 結果 : Group IPAddress Device 638fbd290d4b37db83f5748d23512c04 192.168.234.47 Mobile Safari3.0.5iOS 1f699577718938a59c16d8259b156458 192.168.12.207 Mobile Safari3.0.5iOS 8564d3a526843115a81b72a17f2884a2 192.168.139.21 Mobile Safari3.0.5iOS 8f5374bcd3f53a3c93c2db0c53baf66e 172.23.181.226 Mobile Safari3.0.5iOS 可視化 : まとめ AWS Entity Resolution と Amazon Neptune を統合することで、匿名訪問者間のネットワークと相互接続を理解することができます。Amazon Neptune 上の 360 度顧客グラフにより、企業は特定された消費者の履歴データに基づく製品レコメンデーションの迅速化など、ほぼリアルタイムの製品レコメンデーションのための高度な分析を活用することができます。 このソリューションアーキテクチャは、重複を特定することでデータ品質を向上させ、エンティティ間の関係性を理解することで、イノベーション、分析、およびコンプライアンスを推進することができます。 開始するには、 AWS Entity Resolution と Amazon Neptune にアクセスしてください。 エンドツーエンドのデータ管理ニーズに対しては、 Amazon Connect Customer Profiles というマネージドサービスも利用できます。このサービスは、80 以上の SaaS アプリケーションのデータコネクターからのデータ取り込み、統合プロファイルの作成 (重複プロファイルを削除するためのエンティティ解決を含む) 、低レイテンシーのデータアクセスを提供し、エージェントが顧客一人ひとりに合わせたサービスを提供するために必要な顧客インサイトを提供します。関連する顧客情報の完全なビューを一箇所で得られることで、企業はよりパーソナライズされた顧客サービスの提供、より関連性の高いキャンペーンの実施、顧客満足度の向上を実現できます。AI を活用したコンタクトセンターである Amazon Connect を使用して 統合顧客プロファイルを構築する 方法についての記事や、 Choice Hotels が統合された旅行者プロファイルを構築するために Amazon Connect Customer Profiles をどのように活用したか について、動画をご覧いただけます。   Punit Shah Punit は、Amazon Web Services のシニアソリューションアーキテクトで、クラウドにおけるデータ分析戦略の構築支援に注力しています。現在の役割では、AWS Entity Resolution、Amazon Connect、Amazon Neptune などの AWS サービスを使用して、広告やマーケティングのユースケースを解決するための強固なデータ基盤の構築を顧客に支援しています。彼は大規模なデータレイクの構築において 15 年以上の業界経験を持っています。 Archna Kulkarni Archna は、金融サービスとデータ変換技術の専門知識を持つ Amazon Web Services のシニアソリューションアーキテクトです。AWS 入社前は、フォーチュン 100 の金融サービス組織でデジタルトランスフォーメーション エグゼクティブとして勤務していました。Archna は、長年の業界およびドメインの経験を活かし、顧客のデータ統合と変革のジャーニーをサポートしています。Archna は熱心なマラソンランナーで、ニューヨークシティマラソンを走った経験が最も大切なマラソンの思い出となっています。 Isaac Owusu Isaac Kwasi Owusu は、Amazon Web Services (AWS) のシニアデータアーキテクトで、企業向け大規模データソリューションの設計と実装において優れた実績を持っています。カーネギーメロン大学で情報システム管理の修士号を取得し、NoSQL データベース、特にグラフデータベースにおいて 10 年以上の経験を有しています。余暇には、旅行や写真撮影を楽しみ、リバプール FC を応援しています。 Jessica Hung Jessica Hung は、AWS プロフェッショナルサービスのシニア NoSQL データアーキテクトです。Amazon Neptune や AWS Entity Resolution などのアマゾン ウェブ サービスを活用して、高度にスケーラブルなアプリケーションの構築を顧客に支援しています。AWS での経験を通じて、金融サービス、メディア&エンターテインメント、エネルギーなど、様々な業界の顧客をサポートしてきました。グラフデータベースとエンティティ解決ワークロードを専門としています。 Shobhit Gupta Shobhit は、Amazon Web Services のプロダクトヘッドです。ヘルスケア、小売、金融サービス、公共部門などの業界にまたがる機械学習向けデータ管理サービスの構築に関する専門知識を持っています。AWS では、AWS Clean Rooms、Amazon Connect、AWS Entity Resolution、Amazon Personalize など、データと機械学習が交差するチームと協働しています。モバイルアプリケーション、ビッグデータ、IoT (モノのインターネット) 分野で企業をスケールさせた 10 年以上の経験を持つシリアルアントレプレナーです。また、公共部門、ヘルスケア、小売分野の顧客にアドバイスを提供するマネジメントコンサルティングの経験も有しています。   本稿の翻訳は、ソリューションアーキテクトの髙橋が担当しました。原文は こちら 。
アバター
この記事は 「 The New Retail Paradigm: Technology, Data, and the Human Touch 」(記事公開日: 2025 年 3 月 21 日)の翻訳記事です。 この 1 月、アマゾンウェブサービス (AWS) が、ニューヨークで開催された Future of Retail イベントに EMEA の大手小売業者およびパートナー 95 社を招いたことを今でも思い出します。Max Mara Fasion Group、ASICS、S-Group、Illum などの小売大手が参加し、それぞれのデジタルトランスフォーメーションのジャーニーと業界の将来のビジョンを共有しました。 小売業界をとりまく環境は、技術革新と消費者の期待の高まりにより大きな変貌を見せています。今日、小売業界の中でも最も成功している一群の企業は AI、クラウドコンピューティング、データ分析の融合に取り組んでいます。しかし業界が発展するにつれて、小売戦略に関する次のような大きな疑問が浮かび上がってきます。 小売業者はどのように AI とクラウドテクノロジーを活用して 、差別化された顧客体験を生み出すことができるのでしょうか ? デジタル化が進む世界において、実店舗の未来はどのようなものになるのでしょうか? 優れた小売体験に不可欠なより自然なインタラクションを提供しながら、企業がデータを効果的に活用するにはどうすればよいでしょうか? ユニファイドコマースの進化 小売業界は、従来のオムニチャネルアプローチからその先の「 ユニファイドリテールコマース 」へと向かっています。 AWS 小売・消費財業界グローバル戦略責任者 Ravi Bagal が強調したように、この進化は、テクノロジーが身近になったことで消費者が期待するものが根本的に変化したことを反映しています。Amazon Fresh の Mary Palmieri は、このことを示す実例として Amazon Fresh が現代の消費者の要求を満たす「クールで便利」な小売環境の構築にどのように注力してきたかを説明しました。 実店舗のデジタル化は、このアプローチの変革に伴って非常に重要になっています。Illum がスケーラブルで迅速に構成可能な POS システムを通じて店舗での体験をモダナイズした取り組みは、小売業者が高度なテクノロジーを個人の追跡だけでなく、オンラインで得られたインサイトを組み合わせ、消費者の行動パターンの把握にも利用している象徴的な例です。 小売業界における AI 革命 AI に投資することで、業務効率と顧客体験を向上させ、収益性を高めることができます。 McKinsey によると、小売利益の 96% は上位 20% の企業によるもので、AI に投資している小売業者の年平均成長率が平均 6.2% 増加していることから AI への投資は極めて重要だと言えます: ASICS は、初心者のランナーが適切な商品を見つけるのに役立つ会話型 AI の実装に成功し、希望する商品の発見率とコンバージョン率の向上につながりました。 S-Group は、食料品からファッションまで、さまざまなポートフォリオ上での顧客行動の把握に AI を使用しています。 イタリアの有名高級小売店が AWS パートナーと提携し、最先端の生成 AI による高度なパーソナライゼーションと検索機能を提供しました。 XGEN AI を使用して、小売業者はデジタルプラットフォーム全体で商品説明を充実させ、よりパーソナライズされたカスタマージャーニーを提供できます。XGEN AI は AWS 上で駆動する e コマースチーム向けのコンポーザブルな AI プラットフォームです。この独自の AI プラットフォームにより、小売業者は、生成 AI の力を借りて自動的に精選された形で商品の推奨を生成し、マーチャンダイジングを行うことが可能になりました。 小売業界における新しい交換価値としてのデータ 成長とイノベーションの推進を目指す小売業者や消費財企業にとって、データは最も価値のあるものとなっています。データは、生成 AI アプリケーションに成功をもたらす差別化要因です。AWS の生成 AI と 高度な分析機能 を使用することで、企業は生データを変換し、実用的なインサイトとして利用できます。こうしたインサイトを通じて、高度にパーソナライズされた体験を提供し、業務は最適化され、バリューチェーン全体で新しい機会を開拓します。 フィンランドの 290 万世帯にサービスを提供している S-Group の驚異的な成長を見ると、豊富な顧客データがいかに小売事業全体でより良い意思決定を促進できるかがわかります。データ駆動型の小売戦略の強みとして、店舗のプロファイリング、品揃えの最適化を可能にし、パーソナライズされた体験を創出する能力があげられます。高級ファッション小売業界のリーダーである Max Mara Fashion Group は、複数の販売チャネルでより統合された顧客体験を実現することで、強力なオンラインサービスをさらに強化できる機会に気づきました。Max Mara Fashion Group は、AWS のヘッドレスでコンポーザブルなアーキテクチャを実装して、包括的なデジタルトランスフォーメーションを実現するジャーニーに乗り出しました。AWS の e コマースソリューションを使用することで、同社は顧客データのセキュリティを強化しただけでなく、オムニチャネルの運用も合理化され、サービスの可用性が向上し、デプロイが自動化されました。この変革により、Max Mara Fashion Group は、デジタル時代のファッションエクセレンスの伝統を維持しながら、顧客理解とサービス向上を実現できる、より卓越した地位を確立することができました。 今後の展望 : 小売業の未来を形作る主要なトレンド 小売業者のみなさんのプレゼンテーションを見ると、重要な傾向が浮かび上がってきます。 生成 AI 統合 : ファッションブランドは、XGEN AI などの業界をリードする AWS パートナーが提供する、AWS 上に構築されていてすぐにデプロイできる生成 AI ソリューションを簡単に統合することで、顧客体験を大幅に向上させることができます。 コンポーザブルアーキテクチャ: Sitoo の提供するコンポーザブルプラットフォームへの Illum の移行は、モノリシックなシステムから脱却し、スピードとシステムの俊敏性が向上するフレキシブルソリューションを採用したいという強い指向性を引き続き示しています。 没入感のある体験:ASICS が著名な RunKeeper アプリを買収し、そのプラットフォームとレース登録プラットフォームを統合したことで、小売業者が包括的で魅力的で高度にパーソナライズされたカスタマージャーニーの創出にどのように努力しているかがわかります。 サプライチェーンインテリジェンス:「適切な商品を適切な場所に適切なタイミングで」届けるという課題に取り組んでいる Amazon Fresh は、データと AI/ML によって実現されるインテリジェントなサプライチェーン管理の重要性を強調しています。 実際の実装に関する考慮事項 小売消費財業界に対して AWS は、業界を牽引する企業が小売業の未来を切り開くのに役立つ、クラウド、分析、AI 機能の最も包括的なポートフォリオを提供しています。Max Mara Fashion Group での従来の POS からクラウドネイティブな業務への進化、ASICS のデータ駆動型の パーソナライゼーション アプローチなどの代表的な例は、変革を成功させるには、戦略、テクノロジー、人間中心のアプローチをバランスよく組み合わせる必要があることを示しています。 S-Groupと Illum はさらに、クラウドアーキテクチャがどのように差別化されたソリューションを実現し、従業員一人ひとりの力を高め、顧客体験とオペレーショナルエクセレンスのさらなる向上につながるかを実証しています。こうしたサクセスストーリーは、独自の変革のジャーニーに乗り出そうとする小売業者に説得力のあるモデルとなり、そこでは戦略を貫徹するための粘り強さ、継続的なイノベーション、ブランド価値に沿った技術的ソリューションが重要であることを強く示しています。 進むべき道 小売業の未来は、単にテクノロジーを実装するだけではなく、それを超えたところにあります。デジタル機能を活用して、より有意義で、パーソナライズされた、効率的なショッピング体験を生み出すことが未来につながります。AWS は、小売業者が競争力を維持するために必要なスケーラブルなインフラストラクチャ、 パートナーネットワーク 、 革新的なソリューション を提供することで、この変革の時代において極めて重要な役割を果たしています。AWS は、クラウドサービス、ML 機能、業界固有のソリューションの包括的なスイートを通じて、あらゆる規模の小売業者をサポートしています。小売業者は AWS を使用することで、物理インフラストラクチャという従来の障壁にとらわれることなく、事業を試行し、革新し、拡大することができます。 著者について Rajashree Rane Rajashree Rane は、アマゾンウェブサービス (AWS) で EMEA 小売および消費財の市場開拓を主導し、業界リーダーのクラウド導入とデジタルトランスフォーメーションアジェンダを推進しています。彼女は、業界のプレーヤーがクラウドトランスフォーメーションを通じて成長を促進し、顧客体験を強化し、業務を最適化できるよう支援しています。以前は、AWS のシニアプログラムマネージャーとして EMEA における小売、日用消費財、工業、旅行業向けのクラウド GTM 戦略を構築していました。AWS に入社する前は、AmazonでAlexa スマートホームの市場開拓を主導し、イタリアのハイステークス家電カテゴリーを担当していました。Unilever では、その価値が 5,000 万ドルを超える象徴的なブランドの商品とカテゴリーの計画と変革、輸入供給計画、予測、流通を主導しました。Rajashree の得意分野は、商品戦略、カテゴリー管理、市場開拓の実施、リーン・プラクティスによるオペレーショナルエクセレンスなど多岐にわたります。そうした多様な経歴により、小売/消費財企業のブランド差別化、生産性、顧客中心主義を推進する先駆的なクラウドソリューションを生み出しています。熱心なイノベーターであるRajashree は、テクノロジーと STEM 分野の女性エンジニアの成長を支援しています。彼女は IMD ビジネススクールで MBA を、ムンバイ大学で工学の学位を取得しています。 本ブログは CI PMO の村田が翻訳しました。原文は こちら 。
アバター
株式会社平和 は、1960 年設立の遊技機開発・製造・販売を行うメーカーです。「もっと楽しめる未来をつくろう」を合言葉とした総合レジャー企業を掲げており、グループとしては遊技機事業のほかゴルフ事業も手掛けています。本ブログでは、平和が開発した生成 AI 基盤の概要とその中でどのように Amazon Bedrock が活用されているかを紹介します。 課題と背景 平和では生産性向上を目指した取り組みを始めるにあたり、生成 AI の活用が社内で注目を集めることになりました。しかし生成 AI の導入に向けて、いくつかの課題が浮き彫りとなっていました。主な課題としては以下が挙げられます。 明確に使いたい人が特定できていない状況でのシステム選定 内製で検証を始めるにあたって、社内に AI 有識者の不在 利用者一人当たりにかけられる予算の上限 これらの課題に対して、より実用的で効果的な生成 AI 活用の基盤づくりが求められていました。 ソリューションの概要 そのような課題がある状況で生成 AI の活用検証にあたり、 Bedrock Claude Chat を選定いただくこととなりました。本プロジェクトの推進役となった管理本部 システムグループ システムチームの開発メンバーからは、「想像以上に簡単に始めることが出来ました」とコメントをしたように、開発自体は 1 か月で完了しました。さらに「生成 AI アプリを内製するにあたってのノウハウがあまりない中、スピード感をもって検証開始をできたことに手ごたえを感じています」とコメントがありました。また、従量課金ベースで少額の投資からスタートできるポイントも、検証を始める上での好材料でした。 なお、Bedrock Claude Chat が元々持っていた認証基盤を SAML 連携する形で自社向けにカスタマイズし、業務での活用においてもセキュアにアクセスができるように生成 AI 利用環境を整備しています。 図 1: 実際のアプリケーションの利用画面 全社展開に至るまで、事前に 3 か月のテスト導入期間を設け、まず社内のさまざまな部署から数名ずつ検証メンバーを募り、60-70 名を対象とした自身の業務に対する検証利用を行いました。その利用方法は議事録作成、社内稟議書の起案、プログラムのコード生成等多岐にわたります。社内情報が漏洩するリスクのないセキュアな環境だからこそ、気軽に利用できることが評価され、テスト導入時のアンケートでは 8 割近くの利用者が「生成 AI は業務上の活用に効果あり」と回答しています。人によっては「1 日の業務が半分近くになった」という結果がみえたのと同時に、会社全体からユースケースに対する具体的な要望が検証前後で大幅に増加しました。「こうした要望は、AWS で生成 AI を試してみなければみえてこなかった世界でした」と別の開発担当者は語ります。 以下が株式会社平和 生成 AI 基盤のアーキテクチャーの概要になります。 図 2: 株式会社平和 生成 AI 基盤のシステム構成 導入効果と今後の展開 Bedrock Claude Chat をベースとしてカスタマイズをしたことで、たった 1 か月程度で開発することができました。また、検証期間を経て 500 名を超える会社全体で使える生成 AI アプリ基盤のリリースに成功しました。しかし、利用者を拡大するための社内広報活動に時間を要した面もお話をいただきました。 「導入検証を行うにあたって各部門にアプリケーションを概要と生成 AI でできることを説明する小規模勉強の実施を半年間で 20 回以上行いました」 また、全社導入後、利用者の上位に新入社員の名前が見られたことも一つの特徴でした。「新卒社員も生成 AI を活用することで基本的な疑問点を自主的に解決しており、例年以上の速さで成長し、ポテンシャルの底上げにつながっています」と実際の利用部署からコメントがあったように、社員の育成面にも好影響が出ています。 開発をリードしたチームのマネージャーからは、「ある程度慣れ親しんでいる AWS で、しかも OSS として公開されている Bedrock Claude Chat をベースにして開発するという体験は、今までの業務から離れて世の中の動きを知るきっかけになりました」と語っています。別の開発担当者からも、「生成 AI も Amazon Bedrock を利用することで非常に簡単に実装できるということが分かりました」とビジネス投入までのリードタイムの短さを高く評価しています。 Bedrock Claude Chat は、アプリケーションのソースコードはもちろん、AWS の各種サービスがビルディングブロックで組み合わされたものを CDK のかたちで OSS として公開しています。そのままお使い頂くこともできますが、今回の事例のようにカスタマイズして使う事もできるようになっているのが特徴です。 「クラウドの良さであるスピード感とコストを生かせたと感じています。この先は、社員全員が当たり前に使いこなせるように利用率をさらに高める動きをしていきます」と、将来のさらなる社内生成 AI 推進に高い意欲をのぞかせています。 なお、同社では今後の展開として以下のようなことを検討しています。 RAG 追加による社内情報を用いた業務効率化 エージェント機能の追加 Amazon Kendra へのファイル連携機能の効率化 遊技機事業に特化したユースケースの拡大 まとめ 本ブログでは、平和で導入した AI アシスタントサービスの紹介とその中で Amazon Bedrock や Bedrock Claude Chat がどのように活用されているかを紹介しました。 Amazon Bedrock を利用することによって、みなさまの AWS 上のワークロードに生成 AI を活用した機能を容易に組み込めます。本ブログが生成 AI を活用されている皆様の参考になりましたら幸いです。 本ブログは、株式会社平和と Amazon Web Services Japan が共同で執筆しました。 株式会社平和について   株式会社平和は 1960 年設立の遊技機メーカーです。「もっと楽しめる未来をつくろう」を合言葉に、遊技機事業と子会社の PGM、アコーディア・ゴルフが展開するゴルフ事業の両輪で総合レジャー企業を目指しています。
アバター
本記事は 2025 年 3 月 16 日に公開された “ Manage and view your AWS Health notifications in AWS User Notifications service ” を翻訳したものです。Amazon Web Services (AWS) は、AWS User Notifications のデフォルト通知を一元的に管理および表示する AWS マネージド通知 を提供するようになりました。現在、AWS Health イベントのみがマネージド通知として利用可能です。この新機能により、運用やアカウントの正常性に関する重要な更新情報を常に把握できるようになります。AWS User Notifications チャネルには、通知センター、メール、Slack や Microsoft Teams のチャットチャネル ( Amazon Q Developer in chat applications: 旧 AWS Chatbot )、 AWS コンソールモバイルアプリ へのプッシュ通知が含まれます。 主な機能を見ていきましょう : 統合された通知センター : AWS User Notifications は、マネージド通知とユーザーが設定した通知の両方を AWS コンソール内の通知センターに集約します。以前は、AWS Health Dashboard とメール通知を別々に監視する必要がありました。今では、この統合されたコンソール体験で、すべての AWS アカウント、サービス、リージョンにわたる通知を表示および管理できます。この統合により、AWS リソースに影響を与える重要なイベント、更新、アラートについて、さまざまなチャネルを切り替える必要なく、簡単に通知を受けられるようになりました。AWS コンソールの上部ナビゲーションのベルアイコンからアクセスできる通知センターは、 通知設定を行い、AWS 環境の最新状況を常に把握するといった一元的な管理が可能になります。 画像 1: ナビゲーションベルメニュー 画像 2: コンソール通知センター カスタマイズ可能な配信設定 : AWS マネージド通知は、デフォルトでは設定済みの プライマリ連絡先 と 代替連絡先 (請求、セキュリティ、オペレーションの各メールアドレス) に送信されます。 マネージド通知では配信チャネルを設定することで、これらの通知の受信先と受信方法をカスタマイズできます。 AWS マネージド通知サブスクリプション では、セキュリティや オペレーションなどの異なる通知カテゴリについて、デフォルトのアカウント連絡先をサブスクライブまたはサブスクライブ解除できます。 また、メール、プッシュ通知用のモバイルデバイス、Slack や Microsoft Teams などのチャットチャネルを追加することもできます。 この柔軟性により、組織のニーズと通信チャネルの設定に合わせた通知フローを設定できます。 画像 3: AWSマネージド通知サブスクリプション – メインページ 画像 4: AWSマネージド通知サブスクリプション – 請求カテゴリー 通知ノイズの低減 : もう 1 つの大きな利点は、関連する通知イベントがまとめられ、受信するメッセージの全体量が減ることです。たとえば、複数のアカウントに影響する Health Planned Lifecycle Event (RDS 証明書の更新など) は、影響を受ける各アカウントとそのリソースに対して個別の通知が送信されるのではなく、1 つの集約された通知として送信されます。 画像 5: 集約通知の詳細 – 下部に関連イベントの概要と関連通知が表示  AWS マネージド通知の概要 AWS マネージド通知は、重要な AWS Health 通知の受信と管理方法を一元化して運用効率を高めることができます。 このガイドでは、通知体験を最適化するためのサービスの有効化と設定方法について説明します。 AWS マネージド通知の有効化 マネージド通知を有効にすると、AWS 環境に関する重要な更新情報を一元的に確認できるようになり、サービスの更新や Health イベントをトラッキングして対応しやすくなります。 AWS マネージド通知の有効化 : AWS マネジメントコンソールにサインインし、コンソール通知センターを開きます。 AWS マネージド通知サブスクリプションに移動します。 [ AWS Health 通知を有効にする ] を選択します。 有効にすると、新しい AWS Health 通知が通知センターに表示されるようになります。 主要な設定ステップとその利点 AWS Organizations の信頼できるアクセスの有効化 AWS Organizations を使用していない場合は、「通知サブスクリプションの管理」に進んでください。 なぜこれが重要か : 信頼できるアクセスを有効にすると、User Notifications は管理アカウントでイベントを集約し、重複するメール通知を減らすことができます。この機能がない場合、管理アカウントは組織内のアカウントを監視できず、組織内の各アカウントから個別のメール通知を受け取ることになります (メールアドレスが同じ場合でも)。信頼できるアクセスを有効化すると次のようなことが可能です : すべてのメンバーアカウントからのイベントは、組織 ID ごとに管理アカウントに集約されます 管理アカウントとメンバーアカウントで同じメールアドレスが使用されている場合、重複するメール通知が排除されます (この機能を利用するには、管理アカウントとメンバーアカウントの両方でマネージド通知を有効にする必要があります) 信頼できるアクセスの有効化 : AWS Organizations の管理アカウントにサインインし、コンソール通知センターを開きます。  [組織設定] に移動します。  [ 信頼されたアクセスを有効にする ] を選択します。 通知サブスクリプションの管理 ベストプラクティス : 異なる連絡先の種類に対して個別のメールアドレスを使用すると、オーナーが明確になり、通知の重複を防ぐことができます。これにより、チームは関連する通知のみを受け取ることができ、重要な通知を見落とすリスクが低減されます。 サブスクリプションの設定 : AWS マネージド通知サブスクリプションページを開きます。 [サブスクリプションを管理] を選択します。 各カテゴリのデフォルトサブスクリプションを確認します。 (オプション) 各連絡先タイプ別に別々のメールアドレスを設定します。 オペレーション セキュリティ 請求 (オプション) アカウント連絡先のサブスクライブ/サブスクライブ解除を行います。 AWS Health 通知のメールルールの更新 重要な注意点 : 送信者 ID やコンテンツ解析に基づいてメールルールを設定している場合は、通知ワークフローを維持するためにそれらを更新する必要があります。Health メールは health@aws.com から送信され、新しい形式には拡張されたメタデータと管理機能 (サブスクライブ解除リンクなど) が含まれます。 マネージド通知を有効にすると何が変わりますか? の詳細をご確認ください。 メールルールの更新 : AWS Health 通知が有効になっていることを確認してください。 既存のメールルールを更新して、health@aws.com からのメッセージを認識できるようにしてください。 メールのルーティングルールを変更して、新しいメール形式に対応してください。新しいメール形式には以下が含まれます。 追加の通知メタデータ サブスクライブ解除リンク カスタム通知設定の作成 戦略的価値 : カスタム 通知設定 は、サービスの重要度やチームの責任に基づいて通知戦略を細かく調整することで、マネージド通知を補完します。たとえば、特定のサービスやイベントタイプのカテゴリに基づいて通知をフィルタリングできます。つまり、優先度の高いアラートが優先チャネルを通じて適切なチームに確実に到達するよう設定しつつ、関連性の低い通知をフィルタリングすることができます。 通知設定の作成 : 通知設定ページに移動します。 [通知設定を作成]を選択します。 通知を受け取りたいサービスを選択します。 フィルタリングする特定のイベントタイプを選択します。 特定のサービスと イベントタイプカテゴリについての AWS Health イベントの設定例 を参照してください。 希望の通知チャネルを設定します。 AWS Health Aware (AHA) からの移行 AHA を使用していない場合は、「結論」に進んでください。 移行する理由 : User Notifications は AWS が管理するサービスのため、AHA に比べて以下のような利点があります : AWS サービスとの統合の改善 新たな配信チャネル : 通知センターと AWS コンソールモバイルアプリ フィルタリング機能の強化 管理インターフェースの簡素化 組織全体とアカウント単位の通知を設定できる柔軟性 AHA は引き続き GitHub の aws-samples で利用可能ですが、User Notifications に移行することで、これらの新機能と改善点を活用できます。 結論 このブログ記事では、User Notifications サービスの新機能であるマネージド通知について紹介しました。 マネージド通知は、重要な Health 通知を一元的に管理・表示できる機能です。 コンソール内の統合された通知センター、カスタマイズ可能な配信設定、関連イベントを集約によるノイズ低減、Organizations との統合について説明しました。 また、この機能の有効化、サブスクリプションの管理、Organizations の信頼されたアクセスの有効化、メールルールの更新、カスタム通知設定の作成、AHA からの移行手順についても解説しました。 この機能強化により、AWS 環境に影響を与える変更を効果的に監視する機能が改善したことを嬉しく思います。AWS マネージド通知をお試しいただき、フィードバックをお寄せください。詳細については、 User Notifications の製品ページをご覧ください。 翻訳は Technical Account Manager の三田が担当しました。 Shany Alon シャニー・アロンは、AWS のサービスやチャネル全体で優れたユーザーエクスペリエンス (UX) の創造に焦点を当てたプロダクトマネジメントリーダーです。統一された一貫性のあるインターフェースを推進することで、クラウド運用の複雑さを軽減し、AWS をより直感的に使いやすくすることに取り組んでいます。シャニーの情熱は、思慮深いデザインとシームレスなサービス・チャネル統合に重点を置き、あらゆるスキルレベルのユーザーにとって AWS をより親しみやすく効率的にすることで、すべての顧客がクラウドジャーニーを通じて素晴らしい体験を得られるようにすることにあります。仕事以外では、ハイキング、旅行、ヨガ、ギター演奏を楽しんでいます。
アバター
こんにちは。ソリューションアーキテクト (以下 SA) の高野です。  2025 年 4 月 16 日に「 AWS 春の Observability 祭り 2025 〜進化する Amazon CloudWatch 基礎から最新機能まで完全解説〜 」と題したイベントを開催しました。2 年前から半期に 1 回実施させていただいているイベントで今回で 4 回目になります。ご参加いただきました皆様には、改めて御礼申し上げます。今までの開催報告ブログはこちら ( 2023秋 、 2024春 、 2024秋 )。  本ブログでは、その内容を簡単にご紹介しつつ、発表資料を公開致します。今回は、AWS におけるモニタリングやオブザバビリティの実現に不可欠な Amazon CloudWatch にフォーカスを当て、メトリクス、ログ、トレースの基本的な機能、実際の現場で役立つノウハウ、最新機能をデモを交えながら紹介させていただきました。AWS 環境の運用に携わる方はもちろん、これから AWS をはじめる方も是非ご確認下さい! セッションの紹介 Amazon CloudWatch の進化 アマゾン ウェブ サービス ジャパン 合同会社 ソリューションアーキテクト 津郷 光明 資料ダウンロード  セミナー開始は、SA 津郷より、Amazon CloudWatch の進化ということで、Amazon CloudWatch の歴史や最新動向について解説しました。CloudWatch は 3 つの強みを持つ監視基盤として進化を続けています。第一の強みとして広範なカバー領域を持ち、インフラだけでなくアプリケーションまであらゆるレイヤーの監視に対応し、メトリクス、ログ、トレースといった様々なテレメトリデータを統合的に収集・分析できます。第二の強みは導入の容易さです。AWS サービスとのビルトイン統合により即座に利用を開始でき、Amazon CloudWatch Application Signals による自動収集・可視化に加え、生成 AI を活用した自然言語でのクエリ分析もサポートしています。第三の強みは柔軟な拡張性で、OpenTelemetry への対応や Amazon OpenSearch との Zero-ETL 統合など、最新テクノロジーとの連携強化に加えています。監視ツールの選定や構築をご検討の方は、ぜひご確認ください! Amazon CloudWatch 大好きなSAが語る CloudWatch キホンのキ アマゾン ウェブ サービス ジャパン 合同会社 ソリューションアーキテクト 津和崎 美希 資料ダウンロード  次に、CloudWatch が大好きな SA 津和崎より、CloudWatch の基本的な機能と使い方についてご紹介しました。オブザーバビリティの3つの重要なテレメトリデータ (メトリクス、ログ、トレース) をAWSサービスでどのように取得・活用できるのかを解説しています。メトリクスは、CloudWatch で AWS が提供する基本的なメトリクスは無料で利用できますし、自分で取得したいデータをカスタムメトリクスとして定義して取得することも可能です。ログは、CloudWatch でアプリケーションやシステムのログを収集・分析でき、最新の生成AI を活用した自然言語でのクエリ分析も可能です。トレースは AWS X-Ray を利用し、アプリケーション全体の動作を可視化し、問題箇所の特定を容易にできます。また、収集したデータを基にアラートを設定し、SNS 通知や自動アクションにつなげることができます。CloudWatch エージェントを使えば、クラウドでもオンプレミスでも統合的な監視を実現できます。システムの監視基盤の構築をご検討の方は、まずは CloudWatch や X-Ray から試してみることをお勧めします。 Amazon CloudWatch で始めるエンドユーザー体験のモニタリング アマゾン ウェブ サービス ジャパン 合同会社 テクニカルアカウントマネージャ 日平 大樹 資料ダウンロード  テクニカルアカウントマネージャの日平より、CloudWatch を活用したエンドユーザー体験のモニタリング手法について解説しました。近年、Web サイトの表示速度はユーザの購買意欲に大きく影響するため、エンドユーザー体験の監視が重要になっています。CloudWatch には、実ユーザーの行動を監視する Amazon CloudWatch RUM (Real User Monitoring) と、定期的に外部からエンドポイントの正常性をテストする Amazon CloudWatch Synthetics の 2 つの機能があります。これらを組み合わせることで、JavaScript エラーや API 応答の遅延など、ユーザー体験に影響する問題を素早く検知できます。実際のトラブルシューティング事例を交えながら、RUM と Synthetics の使い方や、X-Ray との統合による詳細な原因分析の手法を具体的に解説しています。Web アプリケーションの品質向上にご関心のある方は、ぜひご確認ください。 サーバレス、コンテナ、データベース特化型機能をご紹介。Amazon CloudWatch をもっと使いこなそう! アマゾン ウェブ サービス ジャパン 合同会社 ソリューションアーキテクト 堀 貴裕 資料ダウンロード  SA 堀より、CloudWatch の特化型監視機能について、実践的な活用方法を解説しました。今回は特に、サーバーレス (Amazon CloudWatch Lambda Insights) 、コンテナ (Amazon CloudWatch Container Insights)、データベース (Amazon CloudWatch Database Insights) という 3 つの重要な領域に焦点を当てています。これらの機能を活用することで、従来は実装が困難だったような詳細なメトリクスの収集や可視化が容易になります。例えば、AWS Lambda のコールドスタート分析、コンテナワークロードのボトルネック特定、SQL クエリの最適化など、運用上の重要な課題に対応できます。コスト最適化を始めとする具体的なユースケースを交えながら、各機能の実践的な活用方法を詳しく解説していますので、システム運用の効率化をお考えの方は、ぜひご確認ください。 Amazon CloudWatch の地味だけど強力な機能紹介! アマゾン ウェブ サービス ジャパン 合同会社 ソリューションアーキテクト 伊藤 威 資料ダウンロード  SA 伊藤より、地味だけれども、実務で非常に役立つ CloudWatch の 3 つの機能について詳しく解説しました。1 つ目は、ログ分析のコストとパフォーマンスを大幅に改善できるフィールドインデックス機能です。2 つ目は、複数アカウントのログをリアルタイムで監視できる Live Tail とクロスアカウントオブザーバビリティの組み合わせ。3 つ目は、システムの関連性を自動的に可視化できる Explore Related 機能です。これらの機能を活用することで、大規模システムの運用効率を大きく向上させることができます。実際の使用例を交えた内容となっていますので、CloudWatch をより深く使いこなしたい方は、ぜひご確認ください。 Amazon CloudWatch Application Signals ではじめるバーンレートアラート アマゾン ウェブ サービス ジャパン 合同会社 シニアデベロッパーアドボケイト 山口 能迪 資料ダウンロード  シニアデベロッパーアドボケイトの山口より、Amazon CloudWatch Application Signals を活用したバーンレートアラームの実装方法について解説しました。サービスの信頼性を測る上で重要な SLI (サービスレベル指標) と SLO (サービスレベル目標) の設定から、エラーバジェットの消費速度を監視するバーンレートアラームまで、実践的な内容を紹介しています。特に注目すべきは、これまで実装が煩雑だったバーンレートアラームが、Application Signals を使用することで簡単に設定できるようになった点です。システムの信頼性管理に課題を感じている方、より効果的なアラート設定を模索している方は、ぜひご確認ください。 Amazon CloudWatch を使ってNW監視を行うには アマゾン ウェブ サービス ジャパン 合同会社 ソリューションアーキテクト 宮崎 友貴 資料ダウンロード  最後は SA 宮崎より、CloudWatch を活用したネットワーク監視の実践的な方法について解説しました。AWS が提供する3つの CloudWatch のネットワークモニタリングサービスの使い分けを解説しています。Network Flow Monitor は AWS 内のワークロード間の通信、Network Synthetic Monitor はオンプレミスとの接続、Internet Monitor はエンドユーザーとのインターネットパフォーマンスをそれぞれ監視できます。これらのサービスを組み合わせることで、ネットワークの健全性やパフォーマンスを包括的に把握し、問題の迅速な検出と解決が可能になります。各サービスの具体的な設定方法やユースケース、料金体系まで詳しく解説していますので、ネットワーク監視の改善をお考えの方は、ぜひご確認ください。 まとめ  今回は、Amazon CloudWatch をテーマに、様々なセッションを用意させていただきました。Amazon CloudWatch は今なお進化が続いているサービスです。本イベントをきっかけに、CloudWatch を利用いただくことで、皆様のシステム運用が少しでも楽になり、幸せになることを願っております。今後も、お客様のシステム運用を少しでも効率化できるように、このようなイベントを企画し、情報発信を継続していきます。AWS のサービスを利用することをご検討いただいているお客様がいらっしゃいましたら、無料で個別相談会を開催しておりますので、 こちらのリンク からぜひお申し込みください。 アマゾン ウェブ サービス ジャパン 合同会社 ソリューションアーキテクト 高野 翔史
アバター