TECH PLAY

AWS

AWS の技術ブログ

2968

2024 年 12 月に公開された AWS Black Belt オンラインセミナーの資料及び動画についてご案内させて頂きます。 動画はオンデマンドでご視聴いただけます。 また、過去の AWS Black Belt オンラインセミナーの資料及び動画は「 AWS サービス別資料集 」に一覧がございます。 YouTube の再生リストは「 AWS Black Belt Online Seminar の Playlist 」をご覧ください。 AWS CodeConnections AWS CodeConnections は、AWS のサービスとサードパーティの Git リポジトリを統合するためのサービスです。本セミナーでは、AWS CodeConnections の概要、機能解説、ユースケースについてご紹介します。 資料( PDF )  対象者 サードパーティの Git ベースのソースプロバイダと AWS サービスを安全に統合 AWS CodePipeline, AWS CloudFormation, Amazon Q Developer などの AWS サービスが以下の機能を利用できるようにすること リポジトリイベントに関する通知の受信 ソースコードのダウンロード コードのビルド、テスト、デプロイ 本 BlackBelt で学習できること AWS CodeConnections の概要 AWS CodeConnections の機能解説と使用方法 AWS CodeConnections のユースケース スピーカー 伊原 健太 ソリューションアーキテクト AWS 本番移行に向けた準備、移行リハーサルの進め方 クラウド移行を進める際、本番移行に向けた準備が必要です。 本セッションでは、本番移行に向けた移行準備、移行リハーサルについて説明します。 資料( PDF ) | 動画( YouTube ) 対象者 AWS 本番移行に関わるプロジェクトマネージャー、移行プロジェクトリーダー、移行担当メンバー 初めて AWS 本番移行をされる方 本 BlackBelt で学習できること 本番移行に向けた移行準備、移行リハーサルについて理解できる。 スピーカー 須山 健吾 ソリューションアーキテクト AWS Identity and Access Management (IAM) Access Analyzer AWS Identity and Access Management (IAM) Access Analyzer は、AWS IAM の機能の一部であり、セキュリティベースラインを構築する上で重要なアクセス権限管理の効率化に役立ちます。本セッションでは、AWS Identity and Access Management (IAM) Access Analyzer の概要や各種機能についてご紹介します。 資料( PDF ) | 動画( YouTube ) 対象者 AWS IAM のアクセス権限の管理・運用を担当されている方 AWS IAM Access Analyzer の利用を検討されており、各種機能の理解を深めたい方 本 BlackBelt で学習できること AWS IAM Access Analyzer の各種機能に対する理解 AWS IAM Access Analyzer を用いたアクセス権限管理の効率化について スピーカー 田中 崚 クラウドサポートエンジニア Amazon Elastic Block Store(Amazon EBS) 基礎編 Amazon Elastic Block Store (Amazon EBS) は、2008 年の登場後、今も進化を続けるブロックストレージサービスです。本セミナーでは、Amazon EBS の基本的な概念や各種機能、お使いいただくメリットについて解説します。はじめてクラウドをご利用いただく方に特におすすめです。 資料( PDF ) | 動画( YouTube ) 対象者 オンプレミスのインフラ運用をされており、これから AWS を利⽤される⽅ Amazon EBS の基本を押さえたい⽅ Amazon EBS を深く知るための最初の⼀歩を踏み出したい⽅ 本 BlackBelt で学習できること 本セミナーでは、オンプレミスにおけるデータ保管、すなわちストレージの課題を、クラウドストレージでどう解決できるのかについて学べます。 スピーカー 田中 里絵 ソリューションアーキテクト 自動車業界と AWS セキュリティ すでに自動車のユーザー体験にクラウドは密接に関わっており、自動車業界でのセキュリティへの取組みについての準拠もクラウド運用もおいて求められています。本セッションでは、自動車とクラウドの関係と自動車のセキュリティがどのようにクラウドと関係するかを整理していきます。 資料( PDF ) | 動画( YouTube ) 対象者 自動車業界に関係する、 AWS リーダー、メンバー、AWS セキュリティ運用を担当としているエンジニアの方 本 BlackBelt で学習できること 自動車とクラウドの関係と自動車のセキュリティがどのようにクラウドと関係するかを整理し、AWS のセキュリティの取り組みについてご紹介いたします。 スピーカー 福嶋 拓 シニアソリューションアーキテクト 今後の Black Belt オンラインセミナー また、現時点で予定されている今後の Black Belt オンラインセミナーについては以下の通りです。 公開月 タイトル 登壇予定者 2025-01 AWS Transit Gateway Deep Dive ソリューションアーキテクト 櫻井 俊和 2025-01 AWS Database Migration Service ベストプラクティス – 計画・検討編 クラウドサポートエンジニア 菅原 照太 2025-01 AWS MGN 大規模移行の計画と実行をお手軽にする便利な機能紹介編 ソリューションアーキテクト 鈴木 槙将 2025-02 AWS Database Migration Service ベストプラクティス – 運用・監視編 クラウドサポートエンジニア 大井 基彰  
アバター
Amazon Bedrockを使用してジェネレーティブAIアプリケーションを構築する際、外部データや機能にアクセスさせることでモデルの機能を強化する必要があることがよくあります。それを行う方法は、 Tool (Function Calling と呼ばれることもあります)を使うことです。これらの Tool はブリッジの役割を果たし、モデルの学習データにはない、アプリケーション固有のリアルタイムまたは動的な情報をモデルが取得できるようにします。例えば、一般的な問い合わせに答えるだけでなく、ライブの天気予報やニュースを取得したり、最新の株価を取得したり、社内のデータベースと対話したりできる会話アシスタントを想像してみてください。 LLM Tool の仕組み Tool の説明 はじめに、LLM は使用可能な Tool について知る必要があります。適切な状況に適切なものを選択するために、名称や説明など、使用可能な Tool に関する情報が必要です。詳細な説明とわかりやすい名称を提供することで、LLM の決定を助け、より良い結果につなげることができます。また、LLM は API 仕様や関数インターフェースのように、 Tool のインプットに何があるかを知る必要があります。 Amazon Bedrock Converse API では、Tool の定義は次のようになります: { "tools": [ { "toolSpec": { "name": "get_news", "description": "Provides the latest news for a given topic.", "inputSchema": { "json": { "type": "object", "properties": { "topic": { "type": "string", "description": "The Topic we want the news about." } }, "required": [ "topic" ] } } } } ] } このオブジェクトは、Tool が何を行い、どのような入力を必要とするかを記述します。例えば、「 News API 」Tool はニュースを返すためにトピックを入力として必要とするかもしれません。 AWS Amplify AI Kit を使えば、これは大幅に簡略化されるため、このような方法でTool を定義する必要がなくなることは後ほど説明します。 Tool の呼び出し ユーザーが Amazon Bedrock と対話するとき、モデルはプロンプトを分析し、レスポンスを生成するために Tool が必要かどうかを判断します。もし必要であれば、モデルは使用する Tool を指定し、アプリケーションコードに Tool の使用を依頼しレスポンスを返します。 アプリケーションは Tool のレスポンスを受信し、リクエストを満たすためのコードを実行します。この実行の出力は会話履歴に追加され、モデルに送り返されます。モデルは会話履歴にある Tool の実行結果を用いてこのリクエストを処理し、人間が読めるレスポンスを生成することでユーザーに応答するか、必要であれば別の Tool を呼び出すことを選びます。LLM はステートレスであり、LLM への各リクエストは個別のユニークな API コールであり、会話履歴、システムプロンプト、 Tool 設定はすべて毎回 LLM に送信されます。LLM の外側にあるアプリケーションコードは、会話履歴を管理し、適切なタイミングで Tool を起動し、LLM にプロンプトを出したり再プロンプトを出したりする必要があります。何が起きているのか、簡略化した図を見てみましょう: LLM Tool の使用は非常に強力ですが、管理もかなり複雑になっています。AWS Amplify AI Kit が、リッチでインタラクティブな生成 AI アプリケーションを構築するための Tool として、どのように簡単に定義できるかを見てみましょう。 AWS Amplify で LLM Tool を利用する まず、Amplify ライブラリーがインストールされていて、Amplify アプリケーションがセットアップされていることを確認してください。 新しい Amplify AI Kit を使ってフルスタック AI アプリを構築する方法 については、こちらの記事で詳しく説明しています。 Amplify では、 amplify/data/resource.ts ファイルのスキーマで、TypeScript を用いてデータを定義します。カスタムクエリだけでなく、リレーションシップや認可ルールを持つデータモデルを定義することが可能です。データへのアクセスは生成 AI アプリケーションにとって非常に重要なので、生成 AI Tool がアクセスできるデータもこのデータスキーマで定義できます。 LLM Tool を使って、外部APIからデータをフェッチし、そのAPIの上に会話型検索を追加できるカスタムクエリを定義する方法を見てみましょう。 クエリの定義 クエリレスポンスの形を定義することから始めてみましょう。 amplify/data/resource.ts ファイルを開き、スキーマに News という customType を追加します。このカスタムタイプは、タイトル、説明、ニュース記事のソースを含めます。 const schema = a.schema({ News: a.customType({ source: a.float(), title: a.string(), description: a.string() }), //... }) 次に、カスタムクエリを定義します。そのためには、受け取る引数( API への入力)、返却する値(先ほど定義したカスタム型)、ハンドラー関数(実装)、権限(アクセスできる人)を定義する必要があります。 const schema = a.schema({ //... getNews: a .query() .arguments({ topic: a.string() }) .returns(a.ref("News").array()) .handler(a.handler.function(getNews)) .authorization((allow) => allow.authenticated()). //... }) 次にハンドラ関数を定義しましょう。 defineFunction を使って、 amplify/data/resource.ts ファイルに getNews 関数を定義します。 import { defineFunction, secret } from '@aws-amplify/backend'; export const getNews = defineFunction({ name: "getNews", entry: "./getNews.ts", environment: { NEWSAPI_API_KEY: secret("NEWSAPI_API_KEY"), }, }); API キーは、AWS Systems Manager Parameter Store に保存される Amplify secrets を使用して保存することを推奨します。サンドボックス環境にシークレットを追加するには、以下のコマンドを使用します: npx ampx sandbox secret set NEWSAPI_API_KEY あとは amplify/data/getNews.ts ファイルに getNews 関数を記述するだけです。この例では、 https://newsapi.org/ API を使用して、トピックに関する最新のニュースを取得します。 import { env } from "$amplify/env/getNews"; import type { Schema } from "./resource"; export const handler: Schema["getNews"]["functionHandler"] = async (event) => { const res = await fetch(`https://newsapi.org/v2/everything?q=${encodeURIComponent( event.arguments.topic ?? "" )}&apiKey=${env.NEWSAPI_API_KEY}`); const news = await res.json(); const result = news.articles.slice(0, 3).map((article: any) => ({ source: article.source.name, title: article.title, description: article.description, })); return result; }; これで、トピックを受け取り、最新のニュース記事を取得するカスタムクエリがデータスキーマに定義されました。あとは、このクエリを LLM Tool として使うだけです。そのためには、 a.conversation() を使用して、データスキーマに AI 会話ルートを定義します。使用したい AI モデル、システムプロンプト、アクセスできる Tool を指定します。LLM Tool を定義するには、 a.ai.dataTool を使用し、名前と説明、および先ほど定義したカスタムクエリへの参照を指定します。 const schema = a.schema({ //... chat: a.conversation({ aiModel: a.ai.model("Claude 3.5 Sonnet"), systemPrompt: ` You are a helpful assistant. `, tools: [ a.ai.dataTool({ name: "get_news", description: "Provides the latest news for a given topic.", query: a.ref("getNews"), }), ], }) .authorization((allow) => allow.owner()), }) Amplify sandbox を使用している場合、データリソースファイルを保存すると、変更が個人のクラウドサンドボックスにデプロイされるはずです。または、Amplify コンソールで、Amplify アプリケーションに接続されている git ブランチに変更をプッシュしてデプロイすることもできます。 会話型インターフェースの構築 Amplify クライアントライブラリーと React コンポーネントをインストールします: npm i aws-amplify @aws-amplify/ui-react @aws-amplify/ui-react-ai react-markdown 次に、サンドボックスを使用する際に Amplify が生成する amplify_outputs.json ファイルを使用して Amplify.configure を呼び出すか、Amplify コンソールからファイルをダウンロードして、フロントエンドのコードに Amplify ライブラリが設定されていることを確認してください。 import { Amplify } from 'aws-amplify'; import '@aws-amplify/ui-react/styles.css'; import outputs from '../amplify_outputs.json'; Amplify.configure(outputs); 次に、 useAIConversation React フックを使用して、チャット AI の会話ルートに接続し、メッセージと送信メッセージハンドラを AIConversation React コンポーネントに渡します。会話がユーザーに閲覧されてしまうため、必ず Authenticator コンポーネントでラップしてください。 import { generateClient } from "aws-amplify/api"; import { Authenticator } from '@aws-amplify/ui-react'; import { createAIHooks, AIConversation } from "@aws-amplify/ui-react-ai"; import { Schema } from "../amplify/data/resource"; export const client = generateClient<Schema>({ authMode: "userPool" }); export const { useAIConversation } = createAIHooks(client); function App() { const [ { data: { messages }, isLoading, }, handleSendMessage, ] = useAIConversation('chat'); return ( <Authenticator> <AIConversation messageRenderer={{ text: ({ text }) => <ReactMarkdown>{text}</ReactMarkdown> }} messages={messages} isLoading={isLoading} handleSendMessage={handleSendMessage} /> </Authenticator> ); } データモデルの取得 また、データスキーマで定義したデータモデルに LLM がアクセスできるようにすることもできます。例えば、メモを取るアプリケーションを作成していて、会話アシスタントにメモだけでなく現在のニュース記事にもアクセスさせたい場合、そのようにすることができます。 まず、データスキーマにデータモデルを追加します: const schema = a.schema({ //... Note: a.model({ title: a.string(), content: a.string() }) .authorization((allow) => [allow.owner()]) //... }); 次に、会話ルートの定義に新しい Tool を追加します: tools: [ //... a.ai.dataTool({ name: 'SearchNotes', description: 'Used to search for notes the user has written', model: a.ref('Note'), modelOperation: 'list' }) ] これで会話アシスタントは、ユーザーが作成したメモや最新のニュース記事を用いた応答ができるようになるでしょう。 クリーンアップ サンドボックスを実行している場合は、ターミナルで以下のコマンドを実行することで、サンドボックスと作成されたすべてのバックエンド環境を削除できます。 npx ampx sandbox delete まとめ このブログ記事では、LLM Tool とは何か、AWS Amplify で外部 API コールや AWS AppSync を使用してデータベースからデータを取得するためにどのように使い方ができるのかを学びました。もっと詳しく知りたい場合は、 AI のスタートガイド を見るか、 サンプルコード を確認してください。 本記事は、 Add a Conversational Interface to any Data Source を翻訳したものです。翻訳は Solutions Architect の 瀬高 が担当しました。
アバター
DMM.com は動画配信事業とオンラインゲーム事業、FX 等の金融サービスを主力として、オンライン英会話サービスなど 60 以上のサービスを展開している企業です。DMM.com では、オンプレミスの MySQL で稼働していたユーザーレビュー機能を、Aurora MySQL に移行しています。データの移行は AWS Database Migration Service (DMS) を使用してダウンタイムを最小限に抑えつつ、移行元への逆同期や SageMaker を使用したデータ検証の仕組みなど、様々な工夫をしながら移行を成功させることができました。本ブログでは、DMM.com でオンプレミスの MySQL から Amazon Aurora MySQL へ移行した際に直面した課題やその工夫についてご紹介いたします。 システム概要とデータベースの課題 DMM.com では、DMM TV や DMM ブックスなど様々なサービスを提供しています。そのサービスの多くはユーザーレビュー機能があり、例えば DMM TV では視聴した動画の評価を投稿する際に使われています。このユーザーレビュー機能のサーバーアプリケーションは AWS で稼働していましたが、データベースはオンプレミスの MySQL を採用していました。長年このような構成で運用されていましたが、幾つかの課題を抱えている状況でした。 1. データベースの運用負荷の増加 当該環境では冗長化のために Master High Availability Manager and tools for MySQL (MHA) というクラスタウェアを採用していました。MHA では、2 台のプライマリサーバーと 5 台のセカンダリサーバー、1 台の MHA マネージャーサーバーの合計 8 台でデータベースを冗長化していました。ユーザーレビュー機能は年々多くのシステムから利用されるようになっていて、月間 3 億リクエストを超える状況になっていました。そして、それに伴うスケールアップやスケールアウトなどが頻繁に発生していましたがこのような作業の難易度が高く、準備のために多くの作業工数が必要でした。また、データベースサーバーの障害でフェイルオーバーが発生した時に、スプリットブレインによるデータの不整合が発生するといった事象も出ており、リペア後のパフォーマンス遅延なども発生してしまうなど、エラーへの対処に多くの時間が割かれていました。 2. 旧バージョンによる不具合の発生 ユーザーレビューの機能は 20 年以上オンプレミスで稼働していました。そのため、MySQL のバージョンも 5.6 と古く、保守期限が迫っていました。さらに、テーブルのクラッシュによって読み取りエラーが発生するといった、最新版では改修されているような問題が頻繁に発生していました。 3. リアクティブな障害対応 障害が発生した際に、その障害を検知できないことも課題になっていました。上記のような問題もあり、多い日には 1 日 1 万件以上のアラートが発生していました。そのため、本当に対処が必要なアラートに気づくことができず、事業部や顧客からのクレームや問い合わせによって気づいて対処する、といったリアクティブな対応になってしまっていました。 移行先の検討 これらの課題を改善するために、2023 年 11 月から移行プロジェクトが開始されました。上記の課題が解決できるかどうかはもちろん、可用性やバックトラックなどの独自機能の多さ、DMM.com 社内での実績などを考慮した結果、移行先を Aurora MySQL に決定しました。ただ、Aurora MySQL への移行に向けては、クリアすべき課題がいくつかありました。 1. Aurora MySQL への移行による影響 Aurora MySQL への移行に伴い、MySQL のバージョンを 5.6 から 8.0 にアップグレードする必要がありました。また、MySQL のストレージエンジンを MyISAM から InnoDB に、文字コードを EUC からデフォルトの UTF8 に、タイムゾーンも JST から UTC に変更する必要がありました。 移行による変更箇所 これらの変更点について、多くの時間を使って影響を確認し対処方法を検討していきました。パフォーマンスが劣化するなど影響度が高いクエリについては、一つずつチューニングを実施して対処していきました。また、マージテーブルのような InnoDB では対応していないテーブルに対するクエリも実行されていたため、回避策を検討して修正を進めました。 2. 接続元不明なシステムへの対処 長年この機能を運用していく中で、様々なシステムがこのデータベースにアクセスしている状態でした。この為、Aurora MySQL への移行に合わせて API 化を進める方針でした。どのようなシステムからアクセスしているのかについては、サービス側に協力を依頼してアクセス元を特定していきましたが、アクセス元を全て特定できたかを確認することができず移行時にシステムに影響を与えてしまうリスクがありました。これに対処するため、本番切り替え後に数ヶ月間、 DMS でオンプレミスの MySQL に逆同期を実施することにしました。これにより、Aurora MySQL に移行した後もオンプレミスの MySQL にアクセスしているシステムへの影響を最小限に抑えつつ、アクセス元を特定するような仕組みを構築することができました。 3. データ移行の課題 オンプレミスの MySQL には 3 TB のデータがあり、ダウンタイムを抑えて Aurora MySQL に移行する必要がありました。また、移行後の切り戻しを想定した再同期の仕組みを構築する必要があり、下位互換性の問題から MySQL のレプリケーションが使えなかった為、今回の移行では DMS を採用することになりました。DMS を使って実際のデータ移行をしたところ、絵文字や常用漢字ではない文字など、一部の文字で文字化けする事象が発生したため、対処が必要でした。DMS にはデータ検証という移行元と移行先でデータに差異がないかを検知する機能がありましたが、文字化けした文字自体を修正することはできず、文字化けが発生したレコードも大量であったため、DMS のデータ検証機能の採用は現実的ではありませんでした。このような課題を解消する方法を検討した結果、Amazon SageMaker Notebook を採用しました。具体的には、オンプレミスの MySQL から新環境の Aurora MySQL へ、データを DMS のフルロード + CDC で移行していますが、この DMS フルロードタスクの停止後に SageMaker Notebook の Jupyter Notebook から両データベースのレコードを検証する仕組みを実装しました。この仕組みでは、それぞれのデータベースのレコードを pandas のデータフレームに格納して結合し、レコード単位でそれぞれのレビューテキストのハッシュ値を生成して比較します。不一致がある場合には必要に応じて移行元、もしくは移行先のレビューテキストを更新します。その際に修正の内容を差分リストとして記録し、それ以降の更新で利用します。最初に既存データで検証と修正を行い、その後 Python スクリプトに変換して SageMaker Notebook で定期実行できるようにしました。これにより、新たに発生する差異に対して継続的なチェックを実施しました。長期間運用することでほとんどの文字化けを修正することができ、実際の移行時には文字化けの問題がほとんど発生しないレベルで移行することができる状態になりました。 データベース移行とその効果 このような課題に対応しつつ、アプリケーションやデータ移行の入念なテストを実施した後、2024 年 3 月に本番移行を実施しました。DMS による差分同期により、ダウンタイムがほとんど発生しない状態で切り替えられました。移行後に SQL のパフォーマンス問題はありましたがチューニングを実施して対処し、結果として大きな問題はなく移行を完了しました。現在も安定した運用を実現できています。 そして、今回の Aurora MySQL への移行で得た効果は以下の 3 つでした。 1. データベースの運用負荷の低減 Aurora MySQL への移行後、オンプレミスで発生していたスケールアップ時の作業工数がほぼなくなり、スケールアップまでのリードタイムも大きく改善しました。また、オンプレミスで発生していたデータベースサーバーの障害も発生しなくなりました。その結果、多い日には 1 日 1 万件以上発生していた API のエラーやタイムアウトエラーによるアラートが、ほぼゼロになるまで減少しました。 2. サービス品質の向上 アラート数が激減したことにより、事業部や顧客からの指摘で気づくようなこともなくなり、エラーに対してプロアクティブに対応できるようになりました。また、老朽化したサーバーからの移行ということもあり、パフォーマンスも劇的に向上しました。API レイテンシーは全体で 50%、最も利用頻度の高い 3 つの API では最大 70% の改善が見られ、レビュー投稿が遅いといったクレームがなくなりました。 3. コスト削減 オンプレミスでは、8 台のデータベースサーバーで運用していましたが、Aurora MySQL への移行後は最終的に 3 台構成となりました。移行直後は、安定稼働を優先して Aurora MySQL を6 台で構成していましたが、Performance Insights などを使用してチューニングしたり、負荷が増加した時に Auto Scaling でスケールアウトする仕組みを採用して最適化を進めました。これにより、より少ない台数での稼働が可能になり、移行前の想定より 96% のコスト削減を実現できました (Reserved Instanceの採用も含む)。 一方で、Aurora MySQL の課題として、アップグレード時のダウンタイムをあげていました。今後、Aurora MySQL のバージョンのアップグレードに向けて、ダウンタイムを削減するアップグレード方式を検討していくとのことでした。 最後に DMM.com では、Aurora MySQL への移行によって、コスト削減とサービス品質の向上を同時に実現することができました。 今回の移行の効果について、合同会社 DMM .com プラットフォーム第一開発部ユーザーレビューグループの松井氏、室木氏は、以下のように振り返っています。 “オンプレミス時代では、1 日 1 万件のエラーが発生していて、休日に呼び出されることもあり、常に不安で心理的な負担が大きくなっていました。しかし、Aurora MySQL に移行したことでそのようなストレスがなくなりました。技術的な問題が解消されたことで、サービスの安定性が大幅に向上し、運用面での負担が軽減されました。” (松井氏) “Aurora MySQL への移行後、「レビュー投稿が遅い、できない」といった技術的な問い合わせがなくなり、UI や書き込み内容のようなサービスそのものの問い合わせが増えるという状況に変わりました。技術的な足かせがなくなったことで、サービス拡張や新しいチャレンジにリソースを向けられるようになったことが、移行による大きなメリットです。” (室木氏) 今後については、Aurora MySQL 移行でできた時間を使って、AI を活用してユーザーレビュー機能のサービス品質向上を進めていく予定とのことでした。
アバター
このブログは 2022 年 6 月 20 日に Sean Phuphanich(Principal Solutions Architect)、Adam Cerini(Principal Solutions Architect)、Henry Axelrod(Tech Lead for the Storage Partner Segment)によって執筆された内容を日本語化したものです。原文は こちら を参照してください。 金融業界特集の月刊連載における今回の投稿では、 Amazon FSx for NetApp ONTAP (FSx for ONTAP)でワークロードを実行するお客様がコンプライアンス、データ保護、コンピューティング環境の分離、API による監査、アクセス制御/セキュリティを実現するための 5 つの重要な考慮事項 に焦点を当てています。それぞれの領域において、具体的なガイダンス、推奨されるリファレンスアーキテクチャ、および FSx for ONTAP のサービス承認を効率化するための技術的なコードについて検討します。 FSx for ONTAP は、NetApp ONTAP 上に構築されたフルマネージドファイルストレージサービスで、信頼性が高く、スケーラブルで、パフォーマンスに優れた共有ストレージを提供します。また、SMB、NFS、iSCSI をサポートする AWS で利用できる最初のマルチプロトコルファイルサービスでもあります。フルマネージドサービスであるため、ファイルサーバーとストレージボリュームのセットアップとプロビジョニング、データのレプリケーション、ソフトウェアのインストールとパッチ適用、ハードウェア障害の検出と対処、フェイルオーバーとフェイルバックの管理、手動でのバックアップの実行について心配する必要がなくなります。 FSx for ONTAP は、クラウドおよびハイブリッドクラウドのシナリオで幅広いユースケースに対応し、それぞれの環境に合わせてカスタマイズすることで最適化できます。例えば、FSx for ONTAP はミリ秒未満のレイテンシが実現できる高性能 SSD ストレージを提供しており、Oracle、SAP、VMware、Microsoft SQL Server に適した高性能ストレージとして活用できます。FSx for ONTAP は、事実上無制限で低コストストレージを提供する、伸縮自在なキャパシティプール層を使用して、一般的な NAS ベースのワークロードのコストを最適化することもできます。 FSx for ONTAP は他の NetApp 製品とネイティブに連携し、ハイブリッドクラウドアーキテクチャで重要な役割を果たすことができます。インラインデータ圧縮、重複排除、コンパクション、シンプロビジョニング、レプリケーション( SnapMirror )、ポイントインタイムクローニング( FlexClone )など、データ管理をより安価かつ容易にする追加機能も用意されています。オンプレミスとクラウドで既存の技術スタックを維持したいお客様は、 VMware Cloud と FSx for ONTAP を組み合わせることで、移行、ディザスタリカバリ、クラウドバーストなどのユースケースを迅速に実装できます。FSx for ONTAP は、他の AWS サービスである AWS Identity and Access Management(IAM)、 Amazon WorkSpaces 、 Amazon Key Management Service(KMS) 、 AWS CloudTrail 、および Amazon Elastic Compute Cloud(EC2)、Amazon Elastic Container Service(ECS)、Amazon Kubernetes Service(EKS)といった一般的なコンピューティングサービスとの豊富な統合も備えています。 Amazon FSx for NetApp ONTAP によるコンプライアンスの達成 マネージドサービスである Amazon FSx シリーズの基準により、コンプライアンスの達成が容易になります。コンプライアンス基準を完全に満たすには、お客様は自身の環境を設定し維持する責任があります。セキュリティとコンプライアンスは、AWS とお客様の間で 共有される責任 です。マネージドサービスではない NetApp Cloud Volumes ONTAP を導入する場合と比較すると、コンプライアンスに準拠した安全なファイルシステムを導入するために必要なお客様の負担は少なくなります。お客様は、環境とサービスを適切に設定するために、ネットワーク接続、暗号化、アクセス制御の要件を決定する必要があります。この記事では、お客様の責任の一部であるセキュリティ設定に関する追加のガイダンスを提供します。 AWS の サービスコンプライアンスページ には、Amazon FSx が承認されているすべてのコンプライアンスプログラムが掲載されています。金融業界の読者に向けた短いリストとして、Amazon FSx のコンプライアンスには次のものが含まれます。 SOC 1,2,3 PCI ISO/IEC 27001:2013, 27017:2015, 27018:2019, and ISO/IEC 9001:2015 OSPAR FINMA IRAP データ保護 保管中の暗号化 FSx for ONTAP では、 保管中のデータの暗号化 がデフォルトで有効になっており、保管時のデータとメタデータには AES-256 暗号化アルゴリズムが使用されます。データはディスクに書き込まれる前に自動的に暗号化され、読み取られるときに自動的に復号されます。暗号化キーは、 AWS KMS を使用して管理され、FSx for ONTAP と統合されます。AWS の暗号化キー管理インフラストラクチャは、連邦情報処理標準規格(FIPS)140-2 承認の暗号化アルゴリズムを使用します。インフラストラクチャは、米国立標準技術研究所(NIST)800-57 の推奨事項に準拠しています。 図1: ファイルシステム作成時に暗号化キーを選択する 図 1 に示すように、ファイルシステムを設定するとき、保管中の暗号化に使用されるデフォルトの AWS KMS キーがあらかじめ選択されています。代わりに、 独自の AWS KMS キー を指定することもできます。オンプレミスで使用される NetApp Volume Encryption(NVE)は、クラウドで保存するときには必要ありません。 転送中の暗号化 FSx for ONTAP がどのように通信し、どのような目的で通信するかを理解することは、すべての転送プロトコルを安全に保護する上で重要です。SMB、NFS、iSCSI はファイルアクセス用にクライアントによって使用されます。HTTPS は AWS Console、AWS API、ONTAP REST API で使用されます。SSH は ONTAP CLI への管理アクセスに使用されます。 図 2: FSx for ONTAP マルチ AZ アーキテクチャ 図 2 は、ファイルシステムが AWS アベイラビリティーゾーン(AZ)にまたがる様子を示しています。高可用性とノードペア間のデータレプリケーションをサポートするために使用されるノード間通信では、TLS 1.2 が使用されます。クラスタ間通信は、TLS または IPSEC を使用して構成できます(パフォーマンスのためには TLS が推奨されます)。 エンドユーザーからのファイル共有アクセスでは、NFS は暗号化や認証はデフォルトでは有効ではありません。転送中の暗号化は SMB プロトコル 3.0 以降でサポートされていますが、SMB 共有と SMB 暗号化はデフォルトでは無効です。SMB 共有を有効にするには、「 Amazon FSx for NetApp ONTAP でマルチプロトコルワークロードを有効にする 」の記事をご覧ください。有効にすると、FSx for ONTAP は、ファイルシステムにアクセスするときに、SMB 暗号化を使用して転送中のデータを自動的に暗号化します。SMB 暗号化は、個々の共有で有効にすることも、ストレージ仮想マシン(SVM)で有効にすることもできます。SVM で有効にすると、その SVM のすべての共有で有効になります。FSx for ONTAP は 128 または 256 ビットの暗号化をサポートしていますが、使用する暗号化のレベルはクライアントによって決まります。 SMB 暗号化を有効にする詳細な手順については、 ユーザーガイド をご覧ください。 (注意: SVM 名「fsx」は、最初に自動作成された SVM のデフォルト名であり、この記事全体のコードサンプルで「-vserver」引数として使用されます。必要に応じて、「fsx」を SVM の名前に置き換えることができます。) ONTAP CLI: SVM のすべての共有に対して SMB 暗号化を有効にする vserver cifs security modify -vserver fsx -is-smb-encryption-required true ONTAP は SMB 署名を使用して、ストレージシステムとクライアント間のトラフィックが反射攻撃や中間者攻撃によって侵害されないようにすることで、データファブリックを保護します。これは、SMB メッセージに有効な署名があることを確認することで実現します。この機能はデフォルトでは有効になっていませんが、以下の ONTAP CLI コマンドを使用して有効にすることができます。 ONTAP CLI: vserver cifs security modify -vserver fsx -kerberos-clock-skew 3 - kerberos-ticket-age 8 -is-signing-required true FSx for ONTAP では、デフォルトで複数のバージョンの SMB と NFS が有効になっています(SMB 2 と 3、NFS 3 と 4)。ONTAP CLI を使用して、不要なバージョンを無効にすることができます。 ONTAP CLI: smb 1、smb 2、nfs3、nfs 4 を無効化する set -privilege advanced vserver cifs options modify -vserver fsx -smb1-enabled false vserver cifs options modify -vserver fsx -smb2-enabled false vserver nfs modify -vserver fsx -v3 disabled vserver nfs modify -vserver fsx -v4 disabled ウイルス対策 一括保護が必要なお客様のために、FSx for ONTAP は NetApp ウイルススキャン機能である Vscan をサポートしています。Symantec、Mcafee、または Trend Micro から追加購入したパートナーのウイルス対策アプリケーションと組み合わせることで、FSx for ONTAP は、ファイルシステムに書き込まれる新しいファイルを自動的にスキャンできます。Vscan に使用されるウイルス対策ソフトウェアは、別途購入して導入します。詳細については、 Vscan の NetApp ドキュメント を参照してください。 コンピューティング環境の分離 ファイルシステムは、Amazon Virtual Private Cloud(VPC)およびサブネット内にデプロイされた FSx for ONTAP(オンプレミスの ONTAP クラスタに対応)のプライマリリソースです。各ファイルシステムには、ONTAP CLI または ONTAP REST API を使用してデータを管理できる管理エンドポイントと、レプリケーションまたはキャッシュ設定用のクラスタ間エンドポイントがあります。各ファイルシステムには VM によって強制される分離境界があり、別のファイルシステムとリソースを共有しません。 図 3 に示すように、SVM は、データの管理とアクセスのための独自の管理認証情報とネットワークエンドポイントを備えた、論理的に分離されたファイルサーバーです。AWS Console を使用してファイルシステムを作成すると、「fsx」という名前のデフォルトの SVM が作成されます。各 SVM には、固有の認証情報とネットワークアクセス制御があります。SVM には最大 4 つのネットワークエンドポイント があり、3 つはデータにアクセスするためのエンドポイント(NFS、SMB、および iSCSI)、1 つは SVM を管理するためのエンドポイントです。 図3: FSx for ONTAP エンドポイントと分離境界 ネットワークアクセス制御のために、AWS セキュリティグループ と Network Access Control Lists が SVM エンドポイントとサブネットに設定されます。セキュリティグループは、FSx for ONTAP ファイルシステムの仮想ファイアウォールとして機能し、受信トラフィックと送信トラフィックを制御します。FSx for ONTAP はさまざまな機能を設定できるため、ユースケースごとに使用するポートを確認し、必要に応じて有効にする必要があります。次のリストには、基本設定に必要な一般的なポートが含まれていますが、ポートの完全なリストは こちら で確認できます。 Protocol Ports Role All ICMP All Pinging the instance SSH 22 SSH access to Management endpoint TCP 443 ONTAP REST API access to Management endpoint TCP 445 Microsoft SMB/CIFS over TCP TCP 635 NFS mount TCP 749 Kerberos TCP 2049 NFS server daemon TCP 3260 iSCSI access TCP 2049 NFS server daemon View more ピアリングネットワークからのアクセス FSx for ONTAP では SVM は、Amazon VPC 内に 4 つのエンドポイントを公開します。 シングル AZ モード を使用する場合、すべてのエンドポイント IP は、展開先のサブネットと同じ CIDR( クラスレスドメイン間ルーティング )内にあります。マルチ AZ モードを使用する場合、管理、NFS、および SMB エンドポイントは、Amazon VPC CIDR 外のフローティング IP 範囲(デフォルトでは 198.18.0.0/16)を使用します。Amazon VPC 外からこれらのエンドポイントに接続するクライアントは、推移的ルーティングをサポートする接続方法を使用する必要があります。これには、AWS Transit Gateway(TGW)と AWS VPN の両方が含まれます。これらの IP アドレスは、図 4 に示すように、SVM のコンソールビューで確認できます。 図4: SVM の固定 IP とフローティング IP エンドポイント iSCSI エンドポイントとファイルシステムのクラスタ間エンドポイントは、Amazon VPC CIDR 範囲内の IP アドレスを使用します。つまり、これらのユースケースでは、推移的ルーティングが可能な方法に加えて、Amazon VPC ピアリングなどの非推移的な接続方法も使用できます。図 5 は、Amazon FSx ファイルシステムをオンプレミスの NetApp デバイスと同期するための一般的なパターンを示しています。 図 5: FSx for ONTAP とオンプレミスの NetApp ボリュームの同期 クラスタ間エンドポイントは、クロスリージョンレプリケーション、FlexCache、または GlobalFileCache にも利用できます。 API による監査の自動化 FSx for ONTAP には、考慮すべき 3 種類の監査証跡があります: Amazon FSx の管理 API コール ONTAP CLI コマンド エンドユーザーのファイル共有アクセス Amazon FSx の管理 API コール AWS CloudTrail は、Amazon FSx への API リクエストをログに記録できるサービスです。ボリューム、SVM、またはファイル システムの削除などの管理イベントを追跡するのに役立ちます。AWS CloudTrail はファイルまたはフォルダレベルのイベントを追跡できません。 AWS CloudTrail の設定方法の詳細 をご覧ください。 監視する主要な API には、 CreateFileSystem および DeleteFileSystem があります。 以下は CreateFileSystem に関する AWS CloudTrail ログエントリの例です。異なる Amazon FSx ファイルシステムにも同じ API が使用されることに注意してください。この場合、属性「 fileSystemType 」は is ONTAP です。 { "eventVersion": "1.08", "userIdentity": { "type": "AssumedRole", "principalId": "AROAAAAABBBBAAAABBBBA:example", "arn": "arn:aws:sts::121212121212:assumed-role/example", "accountId": "327468301555", "accessKeyId": "ASIAAAAABBBBAAAABBBBA", "sessionContext": { "sessionIssuer": { "type": "Role", "principalId": "AROAAAAAABBBBAAAABBBBA", "arn": "arn:aws:iam::121212121212:role/example", "accountId": "121212121212", "userName": "example" }, "webIdFederationData": {}, "attributes": { "creationDate": "2022-03-15T13:35:49Z", "mfaAuthenticated": "true" } } }, "eventTime": "2022-03-15T14:26:58Z", "eventSource": "fsx.amazonaws.com", "eventName": "CreateFileSystem", "awsRegion": "us-east-2", "sourceIPAddress": "AWS Internal", "userAgent": "AWS Internal", "requestParameters": { "clientRequestToken": "f9c77684-0394-111d-a23e-12121212", "fileSystemType": "ONTAP", "storageCapacity": 1024, "subnetIds": [ "subnet-0101example", "subnet-0101example" ], "securityGroupIds": [ "sg-0101example", "sg-0101example" ], "kmsKeyId": "arn:aws:kms:us-east-2:121212121212:key/4ccexex-example", "ontapConfiguration": { "automaticBackupRetentionDays": 7, "deploymentType": "MULTI_AZ_1", "diskIopsConfiguration": { "mode": "AUTOMATIC" }, "preferredSubnetId": " subnet-0101example ", "routeTableIds": [ "rtb-0101example" ], "throughputCapacity": 128 } }, "responseElements": { "fileSystem": { "ownerId": "121212121212", "creationTime": "Mar 15, 2022 2:26:57 PM", "fileSystemId": "fs-1212example", "fileSystemType": "ONTAP", "lifecycle": "CREATING", "storageCapacity": 1024, "storageType": "SSD", "vpcId": "vpc-0101example", "subnetIds": [ "subnet-0101example", "subnet-0101example" ], "kmsKeyId": "arn:aws:kms:us-east-2:121212121212:key/4ccexex-example ", "resourceARN": "arn:aws:fsx:us-east-2:121212121212:file-system/ fs-1212example", "ontapConfiguration": { "automaticBackupRetentionDays": 7, "dailyAutomaticBackupStartTime": "05:00", "deploymentType": "MULTI_AZ_1", "endpointIpAddressRange": "198.19.255.0/24", "endpoints": { "intercluster": { "dNSName": "intercluster.fs-1212example.fsx.us-east-2.amazonaws.com" }, "management": { "dNSName": "management.fs-1212example.fsx.us-east-2.amazonaws.com" } }, "diskIopsConfiguration": { "mode": "AUTOMATIC", "iops": 3072 }, "preferredSubnetId": "subnet-0101example", "routeTableIds": [ "rtb-0101example" ], "throughputCapacity": 128, "weeklyMaintenanceStartTime": "4:04:00" } } }, "requestID": "d32e1da5-848e-4d44-84b4-d58b7121212", "eventID": "659358ca-1ba7-482c-8f96-40cc7121212", "readOnly": false, "eventType": "AwsApiCall", "apiVersion": "2018-03-01", "managementEvent": true, "recipientAccountId": "121212121212", "eventCategory": "Management", "sessionCredentialFromConsole": "true" } ONTAP CLI コマンド ONTAP CLI コマンドに関するログはデフォルトで有効になっています。ファイルシステムまたは SVM の管理エンドポイントに ssh でログインすると、ONTAP CLI コマンドが利用できます。ONTAP CLI コマンドに関する監査ログは SVM ごとに保存されます。履歴は、コマンド「security audit log show」を使用して表示できます。FSx for ONTAP は、セキュリティ監査ログエントリに基づいて自動的に監視および警告することはできないため、ログデータをそれらの機能を備えたシステムに転送する必要があります。ONTAP は、監査ログを syslog をサポートする任意の宛先に転送することで、既存のセキュリティ情報およびイベント管理(SIEM)システムと統合できます。ログ転送プロセスと、ログ転送中の TLS 暗号化を有効にする方法については、 NetApp のドキュメント をご覧ください。 以下のセキュリティ監査ログの例には、アクセスタスクと操作タスクの両方の監査エントリが含まれます。 エンドユーザーのファイル共有アクセス FSx for ONTAP は、ファイルやディレクトリへのエンドユーザーアクセスなどのイベントを 追跡してログに記録する機能 を備えているため、ファイルアクセス監査要件をサポートします。これはデフォルトでは有効になっていません。ログに記録できるイベントの例としては、ログインの成功または失敗、ファイルアクセスの読み取り/書き込み、権限の変更などがあります。SMB アクセスと NFS アクセスには異なるイベントがあります。SVM で 監査設定を作成 し、SVM で有効にする必要があります。イベントログは、EVTX または XML 形式でファイルシステムの特別なフォルダに保存されます。ログは、Windows イベントビューアで表示できます。 ONTAP CLI の次のコマンドは、SVM である「fsx」上にローテーションログを作成します。ローテーションログファイルはサイズが 200 MB に到達したらローテーションされます。最大 10 世代まで保存され、古いファイルから上書きされます。ログのステージングスペースは 2 GB に制限されているため、ローテーションを有効にすることが重要です。 ONTAP CLI: ログローテーションによるファイルアクセス監査ログの設定 vserver audit create -vserver fsx -destination /audit_log -rotate-limit 9 -rotate-size 200M vserver audit enable -vserver fsx これらのファイルアクセス監査ログはローカルに保存され、セキュリティ監査ログのように syslog サーバーに転送することはできません。ただし、この記事では取り扱いませんが、追加のツールを使用してログ記録ソリューションを構築することもできます。 図6: ログ記録ソリューションのシステムアーキテクチャ ブログ記事「 アプリケーションのログファイルを第三者と安全に共有する方法 」では、図 6 に示すソリューションについて説明しています。これは、ログのアーカイブ、通知、ログ管理プラットフォームへの取り込みなどの一般的なユースケースに役立ちます。 運用アクセスとセキュリティ FSx for ONTAP の認証と認可のメカニズムを理解することは、アクセスセキュリティの管理に役立ちます。 Amazon FSx サービス AWS Console –(AWS IAM) Amazon FSx API –(AWS IAM) FSx for ONTAP ファイルシステム 管理エンドポイント –(SSH) クラスタ間エンドポイント –(事前共有されたパスワード FSx for ONTAP SVM 管理エンドポイント –(SSH) ファイルアクセスエンドポイント –(Kerberos) iSCSI エンドポイント –(なし) AWS Console と Amazon FSx API は、バックアップ、ファイルシステムの作成または削除、SVM 管理者パスワードのリセットなどの管理タスクに使用されます。 FSx for ONTAP ファイルシステムのサービスアカウント(NetApp 用語ではクラスタ管理者)には、ファイル システム内のすべての SVM を管理するアクセス権があります。fsxadmin アカウントのパスワードは変更できます。 Amazon FSx ファイルシステム内の分離されたファイルサーバーである SVM には、独自の管理者権限情報があります。SVM 管理エンドポイントは、ONTAP CLI と ONTAP REST API をサポートしています。SVM 管理者は、自身の SVM 内でのみ権限を持ちます。 SMB 共有の場合、ユーザーの認証と認可には Microsoft Active Directory を使用します。詳細については、 FSx for ONTAP での Microsoft Active Directory の操作 に関するドキュメントを参照してください。 まとめ この記事では、FSx for ONTAP について、コンプライアンスの達成、データ保護、コンピューティング環境の分離、API による監査の自動化、アクセス制御/セキュリティという 5 つのカテゴリで金融業界のお客様がサービスの承認を迅速化するために役立つ情報を紹介しました。 オンプレミスの NetApp のお客様が AWS に移行するのに役立つ 移行計画および戦略ガイド があります。その他の Amazon FSx for NetApp ONTAP に関するブログはすべて こちら でご覧いただけます。 AWS Industries ブログチャンネル にアクセスして、金融業界のニュースやベストプラクティスを引き続きご覧ください。 <!-- '"` --> TAGS: Financial Services , Financial Services Industry Service Spotlight Series Sean Phuphanich Sean は、AWS の Principal Solutions Architect で、セキュアでスケーラブルなハイブリッドクラウドソリューションに取り組んでいます。Sean はソフトウェア開発と IT リーダーシップのバックグラウンドを持ち、大規模で複雑なワークロードを世界中で簡素化および最適化する支援をしています。 Adam Cerini Adam は、Amazon Web Services の Principal Solutions Architect です。公共部門のお客様がスケーラブルでセキュアかつコスト効率の高いシステムを設計できるよう支援することに重点を置いています。余暇には料理を楽しんだり、ボードゲームを熱心に楽しんだりしています。 Henry Axelrod Henry Axelrod は、AWS の Partner Solutions Architect 兼 Tech Lead for the Storage Partner Segment です。さまざまな役割を担い、さまざまなストレージおよびバックアップテクノロジーを管理してきた 20 年以上の業界経験があります。AWS に入社する直前、Henry は国際的な M&amp;E 企業でストレージチームを率い、数 PB の大規模なストレージ環境を管理していました。
アバター
このブログは “ Healthcare and Life Sciences: Top 10 announcements from AWS re:Invent 2024 ” を翻訳したものです。 技術的なブレークスルーを実現するには、目的に応じたツール、戦略的イノベーション、そして業界固有の課題に対する深い理解が、綿密に統合される必要があります。AWS re:Invent 2024 では、ヘルスケア・ライフサイエンス業界のお客様が、生成 AI と機械学習 (ML) の最新のイノベーションにより、医学研究、患者ケア、科学的発見へのアプローチ方法をどのように変えることができるかを探りました。また、re:Invent 前の数週間において、創薬研究、ヘルスケアデータ管理、患者体験に関する下記の HCLS サービスの新機能を発表しました。 AWS HealthOmics タンパク質言語モデル (pLM) オーケストレーション、コールキャッシュ、中間ファイルアクセスを発表しました。pLM 機能により、医薬品開発、酵素エンジニアリング、バイオセンサー開発などのアプリケーションにおけるタンパク質エンジニアリングの取り組みが効率化されます。コールキャッシュと中間ファイルアクセスが連携することで、反復的な開発サイクルが大幅に改善され、処理時間が短縮されます。 AWS HealthImaging ホールスライドイメージング、超音波、循環器など、非可逆圧縮の画像モダリティをサポート。これにより、HealthImaging DICOMデータストアでサポートされているX線、CT、MRI画像などのモダリティが拡張されました。この強化により、HealthImagingは、ペタバイト規模で医療画像を保存、分析、共有できる幅広いソフトウェアアプリケーションを実現できます。 AWS HealthLake 医療機関やライフサイエンス企業は患者データを規制対応しながら簡単に管理できます。HealthLake は、FHIR バージョン管理、eu-west-2 リージョンへのリージョナルサポートの拡大、そしてより多くの医療システムフレームワークのサポートなどの新機能により、ヘルスケアデータを正確かつ最新の状態に保ち、必要な人がアクセスできるように支援します。 医薬品開発の加速や治療プロトコルの個別化から、臨床ワークフロー改善や予測診断まで、その可能性は計り知れません。この可能性を実現するには、最先端のテクノロジーとヘルスケアイノベーションの厳しい要求を橋渡しする、包括的で責任あるアプローチが必要です。これを念頭に置いて、 ヘルスケア・ライフサイエンス業界のお客様にとって重要な AWS re:Invent の新発表トップ 10 をご紹介します。 Amazon Nova Amazon Nova は、 最先端のインテリジェンスと業界をリードするコストパフォーマンス を提供する最先端の 基盤モデル (FM)シリーズで、Amazon Bedrock でのみご利用いただけます。医療機関やライフサイエンス企業は Amazon Nova を使用して、複雑な研究論文、企業内文書、図表の分析など、多くの 生成 AI タスクのコストと応答時間を削減できます。ユーザーは、企業のワークロードに最適化されたさまざまなインテリジェンスクラスから高度な AI エージェントを構築できます。Nova モデルファミリーには Amazon Nova Micro、Amazon Nova Lite、および Amazon Nova Pro が含まれており、テキスト、画像、または動画の入力に対してテキスト出力を生成するモデルです。( 発表 ) Amazon Bedrock Amazon Bedrock は、生成 AI アプリケーションの構築とデプロイをさらに簡単にする新機能により、ヘルスケア・ライフサイエンス業界のお客様が AI アプリケーションを構築して重要なインサイトを引き出すのに役立ちます。 Model Distillation は、教師モデルと呼ばれる大規模な基盤モデル (FM) から応答を生成し、生成された応答を使用して生徒モデルと呼ばれる小規模な FM をファインチューニングすることで、特定のユースケースに合わせた抽出モデルを作成するプロセスを自動化します。これにより、ユースケースに合わせて、教師モデルに近い精度で、より高速で費用対効果の高いモデルが得られます。( 発表 ) Amazon Bedrock Guardrails の自動推論チェックを使用すると、大規模言語モデル (LLM) によって生成された応答の正確さを数学的に検証し、ハルシネーションを防ぐことができます。( 発表 ) Amazon Bedrockのマルチエージェントコラボレーションにより、開発者は複数の専用エージェントをシームレスに構築、デプロイ、管理して、より複雑なマルチステップのワークフローに取り組むことができます。プラットフォームはカスタムオーケストレーションをサポートし、開発者は計画と実行、思考過程、標準運用手順などの特殊な戦略を実装して、より制御された効率的なタスク実行が可能になります。( 発表 ) Amazon Bedrock Marketplace では、生成 AI 開発者が、業界をリードする Amazon Bedrock のサーバーレスモデルに加えて、100 を超える公開されている独自の基盤モデル (FM) にアクセスできます。( 発表 ) プロンプトキャッシュは、頻繁に使用されるプロンプトを複数の API 呼び出しにわたってキャッシュすることで、サポート対象モデルのコストを最大 90% 削減し、レイテンシーを最大 85% 削減できる新機能です。( 発表 ) Amazon Bedrock Data Automation (BDA) を使用すると、開発者は開発時間と労力を削減しながら、インテリジェントなドキュメント処理、メディア分析、その他のマルチモーダルデータ中心の自動化ソリューションを簡単に構築できます。BDAには、説明しやすくするための信頼スコアの可視化や、組み込みのハルシネーション緩和機能などの機能があります。( 発表 ) Amazon SageMaker Amazon SageMaker には、データ探索、準備と統合、ビッグデータ処理、高速 SQL 分析、機械学習 (ML) モデルの開発と学習、生成 AI アプリケーション開発に必要なコンポーネントがほぼすべて含まれるようになりました。新機能には以下が含まれます。 Amazon SageMaker Unified Studio (プレビュー) — データ分析と AI のためのすべてのデータとツールを単一の環境で構築 Amazon SageMaker HyperPod flexible training plans — 予測可能なモデルトレーニングのタイムラインを確保し、予算要件の範囲内でトレーニングワークロードを実行 データサイロの解消 — Amazon SageMaker Lakehouse を使用して、 Amazon Simple Storage Service (Amazon S3) データレイク、 Amazon Redshift データウェアハウス、サードパーティデータソースのデータを統合 データと AI ガバナンス — Amazon DataZone 上に構築された Amazon SageMaker Catalog を使用して、データと AI を安全に探索、管理、共有 データ処理 — Amazon Athena 、 Amazon EMR 、 AWS Glue のオープンソースフレームワークを使用して、分析と AI のためのデータを探索、準備、統合 モデル開発 — Amazon SageMaker AI でフルマネージド型のインフラストラクチャ、ツール、ワークフローを使用して ML と基盤モデル (FM) を構築、学習、デプロイ 生成 AI アプリケーション開発 — Amazon Bedrock を使用して生成 AI アプリケーションを構築、スケーリング SQL 分析 — 最もコストパフォーマンスに優れた SQL エンジンである Amazon Redshift でインサイトを獲得 Amazon Q Developer ソフトウェアを構築、運用、移行するための 最も有能な生成AI搭載アシスタント が、さらに改良され、さらに使いやすくなりました。 Amazon Q Developer Agentは、お客様の知識ベースを理解、拡張するために、アプリケーション資産を自律的に分類、整理し、統合的なコードドキュメントを作成します。( 発表 ) SageMaker Canvas 内の Amazon Q Developer は、ヘルスケア・ライフサイエンスのユーザーが ML の専門知識を持っていなくても、自然言語による対話を通じて正確で実用品質の ML モデルを構築できるよう支援します。Amazon Q Developer は、こうしたユーザーのビジネス上の問題に基づいてデータを分析し、カスタム ML モデルを構築するためのステップバイステップのガイダンスを提案します。( 発表 ) Amazon DataZone ヘルスケア・ライフサイエンスのお客様にとって有益な新機能として、 Amazon DataZone では データリネージ 機能の一般提供を開始しました。データリネージ機能では、AWS Glue と Amazon Redshift からの履歴が自動的に取得されるため、ユーザーはソースから利用までのデータ移動を可視化できます。時間の経過に伴うデータ変換を追跡し、資産の履歴全体の変化を比較できるため、包括的な監査と検証が可能になります。メタデータ適用ルールの新機能により、ヘルスケア・ライフサイエンスのお客様はメタデータ標準に準拠し、研究、臨床、パートナーなどの間で HIPAA に対応したデータ共有が可能になります。( 発表 ) AWS Security Incident Response AWS Security Incident Response は、セキュリティイベントへの準備、対応、復旧を支援する新しいサービスです。このサービスでは、日常的なタスクから要員を解放するための、セキュリティ結果の自動モニタリングと調査、対応調整を合理化するためのコミュニケーションおよびコラボレーション機能、 AWS Customer Incident Response Team (CIRT) への 24 時間の直接アクセスを提供します。( 発表 ) Amazon EC2 Trn2 Amazon Elastic Compute Cloud (Amazon EC2) Trn2 instances と AWS Trainium2 チップを搭載した Trn2 UltraServers のプレビューが GA になりました。 EC2 キャパシティブロック 経由で利用可能な Trn2 インスタンスと UltraServer は、ディープラーニングと生成 AI トレーニングおよび推論のための最も強力な EC2 コンピューティングソリューションです。ライフサイエンスおよび医療の研究機関は、Trn2 インスタンスを使用して、新しい生物学基盤モデルやヘルスケアに特化したLLMを学習およびデプロイできます。( 発表 ) Amazon Kendra GenAI Index Amazon Kendra GenAI Index は Amazon Kendra の新しいインデックスで、RAG とインテリジェント検索向けに設計されており、デジタルアシスタントとインテリジェント検索エクスペリエンスをより効率的かつ効果的に構築するのに役立ちます。このインデックスは、高度なセマンティックモデルと最新の情報検索テクノロジーを使用して高い検索精度を実現し、 Amazon Bedrock ナレッジベース や Amazon Q Business と統合できます。また、お客様はナレッジベースをガードレール、プロンプトフロー、エージェントなどの他のBedrockサービスと統合して、高度な生成AIアプリケーションを構築することもできます。( 発表 ) Amazon S3 Amazon S3 の機能強化には次のものが含まれます。 Amazon S3 Tables は、Apache Iceberg サポートが組み込まれた初めてのクラウドオブジェクトストアであり、表形式のデータを大規模に保存する最も簡単な方法です。S3 テーブルは分析ワークロード専用に最適化されているため、セルフマネージドテーブルと比較して、クエリのスループットが最大 3 倍速く、1 秒あたりのトランザクション数が最大 10 倍多くなります。これにより、データレイクが拡大および進化しても、継続的にテーブルメンテナンスを実行してクエリ効率とストレージコストを時間の経過とともに自動的に最適化することで、オペレーションオーバーヘッドが削減されます。米国東部 (バージニア北部)、米国東部 (オハイオ)、および米国西部 (オレゴン) リージョンでご利用いただけます。( 発表 ) Amazon S3 Metadata は、ほぼリアルタイムで更新される自動化され簡単にクエリできるメタデータにより、S3 データを即座に探索して理解するのに役立つ新しい方法です。S3 メタデータは、オブジェクトのサイズやソースなどのシステム定義の詳細を含むオブジェクトメタデータと、組織が品質スコア、サンプル ID、実験 ID などの情報を非構造化 R&amp;D データに付与できるカスタムメタデータをサポートしています。( 発表 ) AWS Transfer Family に、認証されたユーザーがコードなしのインターフェイスでS3バケット内のファイルを簡単に管理できるウェブアプリが含まれるようになりました。これにより、デスクトップクライアントや技術的な専門知識を必要とせずに、研究機関、CRO、そして製薬企業の研究者間でシームレスなファイル交換が可能になります。( 発表 ) Amazon DynamoDB Global Tables 現在プレビュー段階にある Amazon DynamoDB global tables は、マルチリージョンの強い一貫性をサポートしています。DynamoDB グローバルテーブルは、何万ものお客様が使用するフルマネージド型のサーバーレスマルチリージョンマルチアクティブデータベースです。この新機能により、グローバルな製薬企業は、目標復旧時点(RPO)がゼロの高可用性マルチリージョンアプリケーションを構築できるようになり、最高レベルのレジリエンスを実現できるようになります。( 発表 ) ブレイクアウトセッションのオンデマンド動画 HCLS Innovation Talk : Accelerating healthcare &amp; life sciences innovation with generative AI (feat. Genentech, Merck, Eli Lilly, Pieces Tech, and Cleveland Clinic) (生成 AI によるヘルスケアとライフサイエンスのイノベーションの加速) ヘルスケア セッション HLS208 | Accelerate healthcare innovation: TriZetto’s data-powered approach (ヘルスケアイノベーションを加速:TriZetto のデータ活用型アプローチ) HLS214 | Froedtert Health transforms patient engagement with generative AI (Froedtert Health 生成 AI で患者エンゲージメントを変革) HLS207 | Geisinger’s Epic journey: Scaling EHR operations on AWS (Geisinger の壮大な道のり:AWS での EHR オペレーションのスケーリング) HLS220 | Creating powerful member experiences: Cigna’s AWS HealthLake journey (パワフルなメンバーエクスペリエンスの創造:Cigna の AWS HealthLake ジャーニー) NTA310 | HIPAA-compliant IVD SaaS: Werfen’s global AWS solution journey (HIPAA 対応の IVD SaaS:Werfen のグローバル AWS ソリューションジャーニー) IDE104 | Inclusive wellness: Leveraging Amazon One Medical for LGBTQIA+ care (インクルーシブ・ウェルネス:アマゾン・ワン・メディカルを LGBTQIA+ のケアに活用) MKT104 | Transform healthcare outcomes with AWS Marketplace (feat. Fred Hutch Cancer Research Center ) (AWS マーケットプレイスで医療成果を変革) SEC224-S | Data security in the cloud, from Xsolis , an AI leader in healthcare (ヘルスケアの AI リーダーである Xsolis が提供する、クラウド内のデータセキュリティ) ARC212-S | How Cambia supercharged their Amazon EKS based platform (Cambia が Amazon EKS ベースのプラットフォームをどのように強化したか) CEN201-S | Cigna’s sales and client onboarding transformation journey (Cigna のセールスおよびクライアントオンボーディングの変革への道のり) ライフサイエンス セッション HLS215 | How Merck improves drug design with biological foundation models (Merck が生物学的基盤モデルを使用して医薬品設計を改善する方法) HLS206 | Scale clinical diagnostic operations: Natera’s genomic innovation (大規模な臨床診断業務:Natera のゲノムイノベーション) PRO302 | Gilead Sciences : Operational excellence for cloud, data, and AI/ML (Gilead Sciences:クラウド、データ、AI/ML のオペレーショナル・エクセレンス) MAM214 | Gilead Science s: Executing a large-scale VMware transformation on AWS (Gilead Sciences:AWS での大規模な VMware トランスフォーメーションの実行) BIZ220 | How Moderna Is building a healthier supply chain (Moderna 社がより健全なサプライチェーンを構築する方法) PRO203 | Merck advances healthcare data extraction using text-to-SQL on AWS (Merck、AWS で text-to-SQL 変換で医療データ抽出を推進) HYB201 | AWS wherever you need it: From the cloud to the edge (feat. Merck ) (AWS をどこでも必要な場所で:クラウドからエッジまで) CMP203 | Drive innovation and results with high performance computing on AWS (feat. Merck ) (AWS でのハイパフォーマンスコンピューティングによるイノベーションと成果の促進) 今年、ラスベガスで開催された re:Invent でたくさんの素晴らしい発表がありました。私たちの業界がこの新しいテクノロジーで何を構築できるかを楽しみにしています。ヘルスケア・ライフサイエンスのお客様が AWS でどのようにブレークスルーを実現しているかについて詳しくは、 https://aws.amazon.com/health をご覧ください。 <!-- '"` --> Oiendrilla Das Oiendrilla Das は、AWS のライフサイエンスおよびゲノミクスマーケティングのカスタマーアドボカシーリーダーです。彼女はライフサイエンスマーケティングのバックグラウンドを持ち、ライフサイエンスとクラウドコンピューティングを専門としています。Oiendrillaは、マーケティングのMBA学位を取得しており、MBAを取得する前にバイオテクノロジーのエンジニアリングを修了しました。 Jennifer Rouse Jennifer Rouse は AWS のヘルスケアマーケティングのワールドワイドヘッドです。IBMやCiscoなどの大企業や、2つのクラウドベースのスタートアップで指導的役割を果たしてきました。直近では、Forrester Research/Sirius Decisionsのグローバルアナリスト兼アドバイザーを務めました。Jennifer は、公共部門など、これまでサービスが行き届いていなかった業界で変化をもたらす企業でキャリアの多くを過ごしてきました。 Lee Tessler Lee Tessler, Ph.D. は AWS のヘルスケアおよびライフサイエンス業界のプリンシパルテクノロジーストラテジストです。研究開発、臨床試験、製造、患者エンゲージメントを最新化するためのクラウドアーキテクチャに重点を置いています。AWS に入社する前は、バイオインフォマティクス、創薬、診断、ラボ機器、医薬品製造の分野で製品を提供していました。Leeは、セントルイスのワシントン大学で計算生物学の博士号を、ブラウン大学で理学士号を取得しています。 このブログは、Senior Solutions Architect, HCLS の松永が翻訳しました。
アバター
こんにちは、Amazon Connect ソリューションアーキテクトの坂田です。 みなさん、 re:Invent 2024 はご参加(現地、あるいはオンライン)頂けましたでしょうか?今回も、たくさんのアップデートが発表されましたね。イベントの後にも複数のアップデートが追加されており、2024年12月はいつにも増して盛りだくさんでした。 今号も以下の内容をお届けします。皆さんのお役に立つ内容があれば幸いです! 注目のアップデートについて 2024年12月のアップデート一覧 AWS Contact Center Blog のご紹介 1. 注目のアップデートとブログについて 注目#1: Amazon Connect の Amazon Q in Connect エージェントアシスタンスで 64 言語のサポートを開始 Amazon Q in Connect で、エージェントアシスタンス機能で 日本語を含む64 の言語がサポートされるようになりました。エージェントは、Amazon Q in Connect と母国語でチャットしてアシスタンスを利用でき、Amazon Q は回答、ナレッジ記事へのリンク、推奨されるステップバイステップガイドを各国語で提供します。新たにサポートされる言語には、中国語、フランス語、フランス語 (カナダ)、イタリア語、日本語、韓国語、マレー語、ポルトガル語、スペイン語、スウェーデン語、タガログ語が含まれます。ただし、会話内容に基づくナレッジの自動推奨は英語のみのサポートです。 Amazon Q in Connect を英語以外の言語で利用するためには、あらかじめロケールを設定する必要があります。日本語ロケールの設定手順の流れは以下の通りです。 利用する Amazon Connect インスタンスで Amazon Q in Connect を有効にし、ナレッジベース(統合)を作成 しておく。 以下のコマンドで、対象となる assistant-id を取得する。 aws qconnect list-assistants ロケールを指定して、AI エージェントを作成する。 aws qconnect create-ai-agent \ --assistant-id &lt;assistant-id&gt; \ --name jp_manual_search_ai_agent \ --visibility-status PUBLISHED \ --type MANUAL_SEARCH \ --configuration '{"manualSearchAIAgentConfiguration": {"locale": "ja_JP"}}' AI エージェントバーションを作成する。(ai-agent-id は上のコマンドの出力で確認する aws qconnect create-ai-agent-version \ --assistant-id &lt;assistant-id&gt; \ --ai-agent-id &lt;ai-agent-id&gt; 作成したAI エージェントバージョンを適用する。 aws qconnect update-assistant-ai-agent \ --assistant-id &lt;assistant-id&gt; \ --ai-agent-type MANUAL_SEARCH \ --configuration '{ "aiAgentId": "&lt;ai-agent-id&gt;:1" }' 以上で Amazon Q in Connect でのマニュアル検索における日本語ロケールが設定できました。詳細な手順は 管理者ガイド をご確認ください。 注目#2: Amazon Connect が Amazon Q in Connect で生成 AI を活用したセルフサービスを開始 Amazon Connect のチャットあるいは音声チャネルにおいて、Amazon Q in Connect を利用したセルフサービスを簡単に提供できるようになりました。これにより、Amazon Q in Connect はセルフサービスシナリオにおいてそのナレッジベースに基づいて、顧客へのQA対応、ステップバイステップガイドを利用した推奨アクションの提示、スケジュールの変更などを実行することができます。 Amazon Q in Connect を利用したセルフサービスを構築するための手順は以下の通りです。 利用する Amazon Connect インスタンスで Amazon Q in Connect を有効にし、ナレッジベース(統合)を作成 しておく。 Amazon Connect の管理者ウェブサイトから Lex ボットを作成し、Amazon Q in Connect インテントを有効にする。 利用するフローで Amazon Q in Connect を有効にし、作成した Lex ボットを呼び出す。 最低限の設定は以上です。なお、2025年1月16日時点では selfServiceAIAgentConfiguration は locale の指定をサポートしていません。そのため、Amazon Q in Connect インテントで英語以外の言語を利用するには、 セルフサービスプロンプト(SELF_SERVICE_PRE_PROCESSING と SELF_SERVICE_ANSWER_GENERATION) を特定の言語で応答するようにカスタマイズ する必要があります。詳細については、管理者ガイドの Customize Amazon Q in Connect をご確認ください。 2. 2024年12月のアップデート一覧 Amazon Connect でルーティング時に特定の習熟度を除外する機能を提供 – 2024/12/24 Amazon Connect ではコンタクトをエージェントに割り当てる際のエージェントセレクション基準として、”エージェント習熟度(スキルレベル)”を利用することができます。今回のアップデートにより、特定の習熟度をもつエージェントをコンタクトルーティングの対象から除外することができるようになりました。これを利用して、数は少ないが重要な問い合わせに対応することができるエージェントを空けておくことができます。 習熟度の除外条件(NOT 条件)をルーティング基準として利用するには、 Lambda 関数を使ってルーティング基準を動的に設定 する必要があります。 関連リンク 管理者ガイド Amazon Connect で特定の範囲の習熟度を備えたエージェントへのルーティングのサポートを開始 – 2024/12/24 Amazon Connect におけるコンタクトルーティングの基準として、エージェントの習熟レベルの 範囲 をターゲットに指定できるようになりました。例えば、フランス語の「レベル 1 から 3」をターゲットにする、 などです。それぞれの問い合わせを適切なスキルレベルのエージェントに確実にマッチングできるため、コンタクトを割り当てるまでの時間を最適化できます。 関連リンク 管理者ガイド Amazon Connect がチャット内で組み込みのお客様認証機能の提供を開始 – 2024/12/21 Amazon Connect のチャットに、お客様認証の機能が組み込まれました。これにより、チャット対話においてお客様の身元確認を行い、本人情報に基づくパーソナライズされたサービスを提供することが容易になります。 「顧客を認証」フローブロック を使用することで、チャットのワークフローで簡単に認証を行うことができます。例えば、認証されていないお客様がエージェントの支援を必要とする場合には、エージェントにコンタクトする前にサインインするためのポップアップが表示されるので、エージェントはよりパーソナライズされた効率的なサポートを提供できます。 この機能の利用を開始するには、AWS コンソールから Amazon Connect &gt; [顧客認証] ページにアクセスして、 ID プロバイダーを構成してください。その後、Amazon Connect の管理者ワークスペースで、チャットで使用するコンタクトフローに「顧客を認証」ブロックを追加してください。 関連リンク 管理者ガイド Amazon Connect が管理ウェブサイトからのキューとルーティングプロファイルの削除のサポートを開始 – 2024/12/21 不要になったキューやルーティングプロファイルを、これまでサポートされていた API ベースの削除に加えて、直接 Amazon Connect の管理者ワークスペースから削除できるようになりました。 関連リンク 管理者ガイド Amazon Connect がエージェントステータスの構成のための AWS CloudTrail のサポートを開始 – 2024/12/21 Amazon Connect で、エージェントステータスのページに対して加えられたすべての変更が AWS CloudTrail のイベントとして記録されるようになりました。これにより、AWS CloudTrail を調べて、エージェントステータスの追加、更新、無効化を行った管理ウェブサイトユーザーを特定できます。 関連リンク CloudTrail イベント履歴でのイベントの表示 Amazon Connect でエージェント階層構成インターフェイスが改善され AWS CloudTrail のサポートを開始 – 2024/12/21 Amazon Connect で、管理ウェブサイトで階層を構成する UI が一新され、複雑な組織構造をすばやく正確にナビゲートできるように改善されました。階層とは、レポートを作成する目的でエージェントをチームやグループにまとめる手法です (部門別、場所別、知識や技能別など)。この改善でお客様はツリー構造を視覚化し、全文先行入力検索を使用してリソースを検索できるようになりました。 また、新しい UI での変更は、AWS CloudTrail を利用して追跡することができるようになりました。階層のグループや構造へのすべての変更を、変更者や変更方法にかかわらずログに記録したり、参照したり、監査したりできるようになります。 Amazon Connect の Amazon Q in Connect エージェントアシスタンスで 64 言語のサポートを開始 – 2024/12/20 Amazon Connect 上ですぐに使える、生成 AI を活用したアシスタント機能の Amazon Q in Connect が日本語対応しました! Amazon Q in Connect のエージェントアシスタンス機能において、日本語を含む 64 の言語が新たにサポートされるようになりました。これにより、エージェントは Amazon Q in Connect に日本語で質問し回答を得ることができます。Amazon Q in Connect は、回答、ナレッジ記事へのリンク、推奨されるステップバイステップガイドをそれぞれの言語で提供します。 新たにサポートされる言語には、中国語、フランス語、フランス語 (カナダ)、イタリア語、日本語、韓国語、マレー語、ポルトガル語、スペイン語、スウェーデン語、タガログ語が含まれます。サポートされている言語の全一覧については、 Amazon Connect 機能でサポートされている言語 をご覧ください。 Amazon Q in Connect で日本語を利用するには、CLI または API から 言語ロケールを変更 する必要があります。 なお、2025年1月16日時点では、日本語で利用できる Amazon Q in Connect の機能は”マニュアル検索”となります。会話の内容に基づくナレッジの自動推奨は英語のみのサポートとなります。 関連リンク 管理者ガイド Amazon Connect でマルチパーティチャットのサポートを開始 – 2024/12/20 Amazon Connect でマルチパーティチャットがサポートされるようになりました。これにより、最大 4 人のエージェントが進行中のチャットの会話に参加できるようになり、コラボレーションと顧客の問題の迅速な解決が容易になります。たとえば、エージェントはスーパーバイザーや対象分野の専門家にチャットに参加してもらい、顧客が正確でタイムリーなサポートを受けられるようにすることができます。 関連リンク 管理者ガイド Amazon Connect タスクが最大 30 日間の期間をサポート – 2024/12/19 Amazon Connect タスクは作成から最大 30 日で有効期限が切れるように設定できるようになりました。デフォルトは 7 日間です。 たとえば、毎月の経費通知などの緊急度の低いタスクは上司にエスカレーションされるまで最大 30 日間アクティブに保たれ、顧客エスカレーションなどの緊急タスクは 1 分後に上司に送信できるようになりました。 関連リンク 管理者ガイド Amazon Connect が分析データレイクでエージェントのスケジュールデータの提供を開始 – 2024/12/18 Amazon Connect の分析データレイクで、公開されたスケジュールデータを提供するようになりました。これにより、このデータからレポートやインサイトを簡単に生成できるようになります。 例えば、分析データレイク内のエージェントのスケジュールデータから、給与計算の有給時間と無給時間に関するレポートの生成、特定の期間で勤務がスケジュールされているエージェントの数と休暇をとるエージェントの数の概要ビューの生成など、主要な運用ユースケースを自動化できます。また、過去 2 年間ですべてのエージェントについてスケジュールされているすべてのイベントの詳細レポートの生成など、監査とコンプライアンスのユースケースにも対応できます。 これらのレポートやインサイトを生成するには、Amazon Athena と Amazon QuickSight または他の任意のビジネスインテリジェンスツールを使用できます。 関連リンク Amazon Connect エージェントのスケジューリングの詳細については、 こちら をクリックしてください。 Amazon Connect 分析データレイクの詳細については、 こちら をクリックしてください。 Amazon Connect で営業時間の休日のオーバーライドをサポート – 2024/12/13 Amazon Connect のオペレーション時間を「オーバーライド」できるようになりました。これを使用して、コンタクトセンターの特別休日やその他の営業時間を設定できるようになりました。 オーバーライドは、コンタクトセンターの標準曜日営業時間の例外です。たとえば、コンタクトセンターが午前 9 時に開店、午後 10 時に閉店するが、大晦日にはエージェントがお祝いに間に合うように午後 4 時に閉店したい場合、そのためのオーバーライドを追加できます。休暇が近づいてコンタクトセンターを早期に閉鎖すると、電話をかけてきた人は営業時間外のカスタマーエクスペリエンスを得ることができます。 関連リンク 管理者ガイド Amazon Connect がモバイルチャット用のプッシュ通知のサポートを開始 – 2024/12/12 Amazon Connect は、iOS および Android デバイスでのモバイルチャットのプッシュ通知をサポートするようになりました。これにより、カスタマーエクスペリエンスが向上し、より迅速な問題解決が可能になります。 Amazon Connect Chat SDK を使用するモバイルチャットエクスペリエンス向けに組み込みのプッシュ通知が利用可能になったため、顧客が積極的にチャットをしていない場合でも、エージェントやチャットボットから新しいメッセージを受信するとすぐにプロアクティブに通知されます。 なお、 Web チャットではブラウザ通知が利用できます 。 関連リンク 管理者ガイド Amazon Lex が新しい多言語音声認識モデルを発表 – 2024/12/11 Amazon Lex で新しい多言語ストリーミング音声認識モデル (ASR-2.0) の一般提供が開始されました。これらのモデルは、ポルトガル語、カタロニア語、フランス語、イタリア語、ドイツ語、スペイン語をサポートする欧州ベースのモデルと、中国語、韓国語、日本語をサポートするアジアパシフィックベースのモデルという 2 つの特殊なグループによって認識精度を向上させます。 これらの Amazon Lex 多言語ストリーミングモデルは、各グループで共有されている言語パターンを利用して、認識精度を向上させます。これらのモデルは特に英数字の認識に優れているため、発信者の識別や自動音声応答 (IVR) アプリケーションでのタスクの自動化にしばしば必要となる顧客の発話を正確に理解しやすくなります。たとえば、新しいモデルでは、アカウント番号、確認番号、シリアル番号、製品コードをより正確に認識できます。 これらのモデルは現在 Amazon Lex でサポートされている言語の標準となっており、お客様は既存のボットをリビルドするだけでこれらの機能強化を利用できます。新しい ASR-2.0 モデルは Amazon Lex V2 をサポートするすべてのリージョンで利用できます。 re:Invent 2024期間中のアップデートは以下の通りです。 こちら も合わせてご覧ください。 Amazon Connect が WhatsApp Business メッセージングのサポートを開始 – 2024/12/02 Amazon Connect Contact Lens がエージェントのパフォーマンス評価を生成 AI を使用して自動化 – 2024/12/02 Amazon Connect が Amazon Q in Connect で生成 AI を活用したセルフサービスを開始 – 2024/12/02 Amazon Connect では、チャット内で重要な顧客データを簡単に収集できるようになりました – 2024/12/02 Amazon Connect が外部音声の転送をサポート – 2024/12/02 Amazon Connect Contact Lens が会話型 AI ボットのパフォーマンスを分析するための組み込みダッシュボードをリリース – 2024/12/02 AWS が Amazon Connect での Salesforce Contact Center を発表 (プレビュー) – 2024/12/02 Amazon Connect が新しい日中予測ダッシュボードを発表 – 2024/12/02 Amazon Connect Contact Lens が生成 AI を使用してコンタクトを自動的に分類 – 2024/12/02 Amazon Connect が Amazon Q in Connect の AI ガードレールを発表 – 2024/12/02 Amazon Connect Contact Lens が外部音声のサポートを開始 – 2024/12/02 Amazon Connect がシンプルな会話型 AI ボットの作成を提供 – 2024/12/02 Amazon Connect が顧客セグメントとトリガーベースのキャンペーン向けの AI アシスタントをリリース – 2024/12/02 Amazon Connect で IVR およびその他の自動対話中の音声が録音可能に – 2024/12/01 3. AWS Contact Center Blog のご紹介 Revolutionise CX in your contact centre through IVR modernisation (英語記事) AWS re:Invent 2024 recap: Amazon Connect の新しいアナウンス (日本語翻訳) Elevate your contact center: AI-powered analytics with Amazon Connect (英語記事) Amazon Connect で実現する生成 AI を活用したセルフサービスの簡素化 (日本語翻訳) Amazon Connect チャットによる機密情報の収集 (日本語翻訳) Amazon Connect が生成 AI、WhatsApp、セキュアなデータ収集機能を強化 (日本語翻訳) Amazon Connect でさらにサステナブルなコンタクトセンターを実現 (日本語翻訳) 今月のお知らせは以上です。2024年もたくさんのアップデートが発表されましたが、これらは利用者の皆さんからのフィードバックに基づいています。今後も皆さんのコンタクトセンター変革に役立つ改善を続けられるよう、ぜひフィードバックやアイデアを我々に教えてください。それでは、本年もどうぞよろしくお願いいたします! シニア Amazon Connect ソリューションアーキテクト 坂田 陽一郎
アバター
2024 年 2 月、弊社はメキシコで Amazon Web Services (AWS) インフラストラクチャを拡張する計画を 発表 しました。1 月 14 日、3 つのアベイラビリティーゾーンと API コード mx-central-1 を備えた AWS メキシコ (中部) リージョンの一般提供が開始されたことをお知らせいたします。この新しい AWS リージョン は、メキシコで最初の AWS インフラストラクチャリージョンで、中南米における当社の存在感をさらに高めるものです。 メキシコの AWS リージョンは、同国のデジタルの未来に対する大きなコミットメントを示しています。AWS は、15 年間でメキシコに 50 億ドル以上を投資する予定です。この AWS リージョンは、メキシコで成長を遂げるデジタル経済を支援すると同時に、専用のプロセッサを備えた最先端の人工知能 (AI) や機械学習 (ML) 機能など、高度で安全なクラウドテクノロジーをお客様に提供します。この取り組みにより、AWS はメキシコで年間平均 7,000 件を超えるフルタイム相当の雇用をサポートし、メキシコの国内総生産 (GDP) を 100 億ドル以上増加させます。また、AWS は地域のグループ、学校、組織による新しいコミュニティプロジェクトの開始を支援するために、30 万ドルの AWS InCommunities 基金をケレタロで立ち上げました。 メキシコシティ、パラシオデベラスアルテス AWS メキシコ (中部) リージョンは、ワークロードを実行してデータをローカルに保存する新しいオプションを、メキシコの組織に提供します。データレジデンシー機能、低レイテンシーによるパフォーマンスの向上、または強固なセキュリティ標準を必要とする組織は、メキシコにあるインフラストラクチャを利用できるようになりました。 メキシコの AWS AWS は 2020 年以降、メキシコでインフラストラクチャを運用してきました。インフラストラクチャには、7 つの Amazon CloudFront エッジロケーション、 AWS Outposts 、 ケレタロの AWS Local Zones や AWS Direct Connect などの戦略的サービスが含まれています。これらのインフラストラクチャサービスは、お客様が安全な接続を維持しながら低レイテンシのアプリケーションを実行するのに役立ちます。 パフォーマンスとイノベーション AWS メキシコ (中部) リージョンは、AWS のインフラストラクチャとサービスを地域のお客様に近づけます。この新しいリージョンにより、メキシコのお客様は、他の AWS リージョンを使用する場合と比較して、レイテンシーを削減することができます。また、さまざまなワークロードで、x86 ベースの Amazon EC2 インスタンスと比較して最大 40% 優れた価格パフォーマンスを実現する AWS Graviton をはじめとする当社の革新的な専用プロセッサも利用できるようになります。 この技術的優位性は、次のような当社の最先端の AI および ML 機能にも及びます。 AWS Trainium と AWS Inferentia を備えた高度な ML インフラストラクチャによる、スケーラブルな生成 AI デプロイ。 クラウドワークロード向けに最適化された専用プロセッサが実現する、最高のコストパフォーマンス。 セキュリティとコンプライアンス AWS は PCI-DSS 、 HIPAA / HITECH 、 FedRAMP 、 GDPR 、 FIPS 140-2 、 NIST 800-171 を含む 143 のセキュリティ標準とコンプライアンス認証をサポートする、 包括的なセキュリティ機能 を提供しています。AWS のすべてのお客様はデータを所有し、保存場所を選択して、データを移動するかどうか、またはいつ移動するかを決定します。つまり、AWS メキシコ (中部) リージョンにコンテンツを保存しているお客様は、移行を選択しない限り、コンテンツがメキシコから流出しないという保証を受けることができます。 メキシコの AWS のお客様 メキシコの主要な組織は、すでに AWS で大きな成果を上げています。 Aeroméxico 、 Banco Santander Mexico 、 Cinépolis 、 Grupo Salinas 、 Kavak 、 Palace Resorts 、 Vector Casa de Bolsa などの企業が、AWS でミッションクリティカルなワークロードを実行しています。主な例を次に示します。 大手多国籍金融サービス企業である BBVA は、AWS を使用してデータ主導型の変革を加速しています。BBVA は Amazon SageMaker と Amazon Bedrock を使用して、1,000 人以上のデータサイエンティストが機械学習モデルを効率的に構築、トレーニング、デプロイできるよう支援しています。このテクノロジーは、BBVA による高度なテクノロジーの探求と、革新的な金融ソリューションの構築を実現し、真のデータおよび AI 主導のデジタル組織になるという同社の目標を支援しています。 メキシコの大手メディアグループである Grupo Multimedios は、自社の メディアアセットマネージャー (MAM) に Amazon Bedrock を導入して、コンテンツ調査時間を 88% を削減し、ニュース生成時間を 40% 短縮し、コンテンツ制作を 70% 増加 (1 日あたりニュース記事が 250 件増加) させることで、生成 AI の活用をいち早く進めています。テクノロジー面でのリーダーシップを活用し、急成長を遂げているメディアグループである同社の AI 導入は、業務を合理化しながらイノベーションに取り組む姿勢を示しています。 デジタルヘルスケア企業の Bowhead Health は、Amazon Bedrock を使用して研究パイプラインを加速することで、がん研究に革命を起こしています。同社は、従来の採用の障壁なしに、すぐに分析できる匿名化された膨大なデータセットを構築しました。Bowhead Health は、オンコロジー医薬品開発におけるブレークスルーを早めるための確固たる現実世界の知見も提供しています。 SkyAlert は、地震が発生しやすい地域の何百万もの地域を保護する革新的なテクノロジー企業で、2018 年に AWS に移行して警報システムを変革しました。AWS を採用する前、同社のシステムには 20 台の仮想マシンが必要で、重大な瞬間に大幅な遅延が発生していました。 AWS Lambda 、 AWS Fargate 、 Amazon Pinpoint を使用することで、自動的にスケーリングし、ユーザーにすばやくメッセージを配信できるようになりました。AWS メキシコ (中部) リージョンの開設により、SkyAlert はローカル AWS インフラストラクチャを使用したサービスのさらなる改善を見込んでいます。 SkyAlert の Co-Founder である Santiago Cantú 氏 は次のように説明しています。「メキシコでの AWS リージョンの開設は、SkyAlert にとっても、私たちを信頼してくださるお客様の安全にとっても非常に重要な出来事です。ローカルの AWS インフラストラクチャを持つことで、命を救う可能性のある重要なアラートを配信する能力が向上し、さらに迅速かつ確実に配信を行えるようになります。これは、最も堅牢で高度な地震速報システムを提供するという私たちの使命と完全に一致しています。新しいリージョンにより、AWS のサービスをさらに活用できるようになり、災害対策におけるイノベーションの最前線に立ち続けることが保証されます」 ともにスキルを構築 AWS はメキシコでのスキルアップの取り組みに、多額の投資を行ってきました。これには次が含まれます。 2017 年以降、500,000 人以上にクラウドテクノロジーに関するトレーニングを実施。 経済省 と協力し、2024 年までに 138,000 人にデジタルテクノロジーのトレーニングを実施。 パンアメリカーナ大学 や モンテレイ工科大学 などの大学と提携してデジタルスキルを教える。 2 万人の中堅・中小企業 (SMB) リーダーを対象とした Canacintra のトレーニングプログラム。 持続可能性に向けた AWS の取り組み Amazon は、2040 年までに事業全体で正味ゼロ炭素を達成することを約束しています。 Accenture による最近の調査 では、AWS でワークロードを実行すると、オンプレミス環境と比較してエネルギー効率が最大 4.1 倍向上することが示されています。AWS でワークロードを最適化すると、関連する二酸化炭素排出量を最大 99% 削減できます。AWS メキシコ (中部) リージョンでは、空冷技術を使用して持続可能な設計手法を採用しているため、運用時に冷却水を使用する必要がありません。この新しいリージョンにより、お客様はインフラストラクチャ全体にわたる AWS の持続可能性への取り組みからも恩恵を受けることができます。AWS の持続可能性の詳細については、 AWS クラウドの持続可能性ページ をご覧ください。 知っておくべきこと メキシコの AWS コミュニティ – メキシコの AWS コミュニティはラテンアメリカで最も活気のあるコミュニティの 1 つで、 26 人以上の AWS コミュニティビルダー が存在し、15 の AWS ユーザーグループ があります。これらのグループは、 ハリスコ 、プエブラ、 モンテレイ 、メリダ、 メキシコシティ 、メヒカリ、カンクン、レオン、 ケレタロ 、サンルイスポトシ、 エンセナーダ 、 サルティーヨ 、ティファナ、 ビヤエルモサ にあります。さらに、女性のプロフェッショナル育成に焦点を当てた Embajadoras cloud (クラウドアンバサダー) と呼ばれる専門ユーザーグループもあります。これらのグループを合わせると、メンバーは合計 9,000 人以上となります。 AWS のグローバルフットプリント – この立ち上げに伴い、AWS の事業活動の場は、世界各地の 36 の地理的リージョンにおける 114 のアベイラビリティーゾーンに広がりました。 今すぐ利用可能 – 新しい AWS メキシコ (中部) リージョンでは、お客様のビジネスをサポートする準備が整いました。このリージョンで利用できるサービスの詳細なリストは、「 リージョン別の AWS サービス 」ページに記載されています。 mx-central-1 での構築を開始するには、「 AWS グローバルインフラストラクチャ 」ページをご覧ください。 AWS コミュニティメキシコ 2024 の写真を提供してくださった David Victoria 氏に感謝します。 – Eli 原文は こちら です。
アバター
AWS ジャパンでは、お客様の生成 AI 活用促進のため様々な支援を提供しています。有志により開発されているオープンソースのサンプルアセット generative-ai-use-cases-jp (GenU) もその一つです。GenU は、すぐに業務活用できる生成 AI ユースケース集として 2023 年に誕生し、今日まで Amazon Bedrock の新機能追従や新たなユースケースの拡充など、精力的なアップデートを継続しています。本記事では、2024 年 11 月に GenU の新たな機能としてリリースされた、ノーコードの生成 AI アプリ開発環境「ユースケースビルダー」についてご紹介します。 GenU とは generative-ai-use-cases-jp (GenU) は aws-samples で公開されている生成 AI アプリケーションのサンプル実装です。オープンソースライセンスで提供されており、お客様はアプリケーションを無料で迅速に AWS アカウント上に構築いただけます※1。AWS や IT の知識不要で、 簡単に展開できる方法 が用意されており、すぐに利用開始することが可能です。アプリケーションは AWS のサーバーレスサービスを中心に構築されており、使った分だけの従量課金で小さく始め、数千人規模の全社展開にも設定変更なく対応可能です。提供開始から 1 年あまりで、多数の日本のお客様にプライベートな生成 AI 活用基盤としてご利用いただいています。GenU についての詳細は github リポジトリ をご参照ください。 ※1 ご利用状況に応じた AWS 利用料が別途発生いたします。詳細は 料金試算 をご参照ください。 ユースケースビルダーとは GenU には一般的な AI チャットのみならず、要約、翻訳、校正などの基本的な生成 AI のユースケースが標準で用意されています。一方、お客様からは自社の業務に特化したユースケースの追加を望まれる声をいただいていました。GenU はオープンソースライセンスで提供されており、お客様により自由な改造を行うことができます。しかし、改造のためにはフロントエンドフレームワーク React の知識等が必要であり、敷居が高いという課題がありました。そこで、シンプルなプロンプトのみでのカスタムユースケース構築機能を「ユースケースビルダー」として新たに提供開始しました。 ユースケースビルダーでは、プロンプト内に 2 つの中括弧 {{}} によるプレースホルダを使って、ノーコードで利用者向けのインプットフォームを作成することができます。現状では、自由記述のテキストフォームとファイル添付に対応しており、Kendra や Knowledge Base など、GenU で対応しているデータソースと連携することも可能です。また、今後のアップデートで利用できる入力フォームの種類は拡張される予定です。ユースケースビルダーには豊富なサンプルユースケースも用意されています。まずはサンプルを見るだけでも、生成 AI を活用した独自アプリのイメージが湧くのではないかと思います。 ユースケースビルダーの利用例 実際にユースケースビルダーで独自ユースケースの作成を行ってみましょう。(1) まず、GenU の初期ページから「ビルダーモード」のスイッチを有効化してユースケースビルダーを利用開始し、(2) 新規作成ボタンをクリックします。 ユースケース新規作成画面にて、「タイトル」「概要」「プロンプトテンプレート」を設定します。「タイトル」と「概要」は生成には影響しません。利用者が内容をイメージしやすいものをご自由に入力してください。「プロンプトテンプレート」に記載した内容が、実行時に生成 AI に入力されます。テンプレート内に {{text:入力}} のようにプレースホルダを記載すると、右側のプレビュー画面に対応するテキストボックスが出現します。アプリ実行時、利用者がテキストボックスに記載した内容がプレースホルダを置き換えます。プロンプトテンプレートの作成時には、用意されているサンプルプロンプトや、AWS ドキュメントの プロンプトエンジニアリングの概念 などを参照し、モデルのパフォーマンスを最適化するプロンプトの作成を心がけましょう。 図の通り、初めてのアプリとして、テキスト中の表形式データをcsvに変換して抽出するユースケースを作成できました。作成したユースケースは、画面右側のプレビュー欄ですぐに試すことができます。動作確認のため、Wikipedia から 国民の祝日 の一節を入力し、祝日一覧を csv 形式で出力してみます。すると、意図通り説明文が省略され、表部分のデータのみを csv 形式で抜き出すことができました。 アプリが狙い通りに動作したら、詳細設定を行いましょう。入力例を追加してユーザーに利用方法を伝えたり、利用する大規模言語モデルを固定してコストや応答速度を最適化し、生成 AI に不慣れなユーザーにも使いやすいアプリにすることができます。また、一部モデルでは添付ファイルのアップロードに対応しており、画像や動画を入力するマルチモーダル推論や、PDF などの読み込みを行うことも可能です。 設定が終わったら、ユースケースの作成ボタンをクリックし、設定内容を保存しましょう。作成したカスタムユースケースは同じ GenU にログインできる利用者間で共有できます。便利なユースケースが作成できたら社内で共有することで、部門や会社全体での生成 AI 活用促進に役立てることができます。 さいごに 本記事では、オープンソースの生成 AI サンプルアセット GenU に新たに追加された「ユースケースビルダー」について紹介しました。生成 AI チャットだけではなく、自社の業務内容に沿った生成 AI アプリを簡単に作成し、社内で共有する手段として、GenU を活用いただけます。ぜひお試しください。GenU は AWS ジャパン有志を中心に、オープンソースプロジェクトとして開発が行われています。利用者の皆様からの貢献も歓迎しております。こんな機能がほしい、というアイディアがありましたら、ぜひ github リポジトリ の Issues や Pull Request の投稿をいただけますと幸いです。 著者について 岡本 晋太朗 (Shintaro Okamoto) アマゾン ウェブ サービス ジャパン合同会社 ソリューションアーキテクト 石化プラントの計装制御設計エンジニアを経て、プラントデジタルツインソリューションの構築に従事。現在は AWS Japan で製造業のお客様を中心に技術支援を行っています。特技は美味しいご飯を炊くことです。 &nbsp;
アバター
本記事は、2024年11月7日に公開された Build a multi-tenant generative AI environment for your enterprise on AWS を翻訳したものです。 企業が 生成 AI の有用なアプリケーションを開発し続けている一方で、チームのサイロ化やワークフローのカスタム化によって展開が遅れることも少なくありません。より迅速に展開するには、企業はしっかりとした運用形態や生成 AI のライフサイクルをシンプルにする包括的なアプローチを必要とします。本シリーズの 第1部 では、さまざまな事業部門が Amazon Bedrock 上の基盤モデルにアクセスできるように、AI の管理者が生成 AI の SaaS (Software as a Service) のゲートウェイを構築する方法を紹介しました。第2部となる今回は、ソリューションを拡張し、共通の生成 AI のコンポーネントを集約することでイノベーションを加速する方法を紹介します。また、アクセスパターン、ガバナンス、責任ある AI、オブザーバビリティ、Retrieval Augmented Generation (RAG) のような一般的なソリューションの構成についても掘り下げていきます。 このソリューションは、 Amazon Bedrock というマネージドサービスを使用し、AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI、Amazon といった主要な AI 企業が提供する高性能な基盤モデルを、単一の API から選択することができます。また、セキュリティ、プライバシー、責任あるAIを重視した生成 AI のアプリケーションを構築するための幅広い機能も備えています。そして、 Amazon API Gateway 、 AWS Lambda 、 Amazon SageMaker など、多数の AWS サービスも使用しています。 マルチテナント型の生成 AI 環境を AWS で構築 企業が求めるマルチテナント型の生成 AI ソリューションでは、企業ポリシーの遵守、テナントおよびデータの分離、アクセスやコストの管理といったことを担保しながら、生成 AI ワークロードの固有の要件や責任ある AI といったガバナンスに対応していく必要があります。そのため、このようなソリューションの構築は、IT チームにとって負担の大きい取組となることが往々にしてあります。 本記事では、主な設計上の考慮事項について説明し、リファレンスアーキテクチャを紹介します。 素早い試行、統一されたモデルへのアクセス、共通の生成 AI コンポーネントの再利用を可能にすることで、生成 AI の展開を加速します。 テナント毎にユースケースに応じた適切な設計や実装を柔軟に選択できるようにします。 一元化されたガバナンス、ガードレール、そして制御を実装します。 テナント、事業部門、または基盤モデルのプロバイダー毎にモデルの利用やコストの追跡や監査ができるようにします。 ソリューションの概要 ソリューションは2つの部分から構成されています。 生成 AI ゲートウェイ(下図の左側) 事業部門毎等のテナント(下図の右側) 次の図はソリューションの概要を示しています。 生成 AI ゲートウェイ 共有コンポーネントは、生成 AI ゲートウェイの領域に配置されます。共有コンポーネントとは、すべてのテナントで共有される機能のことです。上図の各コンポーネントは、マイクロサービスとして実装され、基本はマルチテナントで、テナント毎の詳細情報は一意のテナント ID で保持されます。一部のコンポーネントは、その機能の種類に基づいてグループに分類されます。 独立したコンポーネントは以下の通りです。 HTTPS エンドポイント (HTTPS endpoint) はゲートウェイへのエントリーポイントです。この HTTPS エンドポイントを介して共有サービスとのやりとりが行われます。ソリューションにおける唯一のエントリーポイントとなります。 オーケストレーター (Orchestrator) は、HTTPS エンドポイントからのリクエストを受け、実行中のタスクに基づいて対応するマイクロサービスを呼び出す役割を担います。これ自体がマイクロサービスであり、マイクロサービスにおける Saga オーケストレーションパターン に由来したものです。 生成 AI プレイグラウンド (Generative AI Playgroud) は、一時的な試行、複数の基盤モデルとのチャット、ガードレールやモデル評価のような機能の探索的な検証のために、テナントに提供されるUIです。 コンポーネントグループは以下の通りです。 コアサービス (Core services) は環境の管理者を主に対象にしたものです。環境の導入、管理、運用に使用されるサービスが含まれています。例えば、テナント、ユーザー、モデルのオンボードとオフボード、各テナントへのクォータの割当、そして認証や認可のマイクロサービスなどです。また、コストや予算の管理、監査、ログ記録などのための監視のコンポーネントも含まれます。 生成 AI モデルコンポーネント (Generative AI model components) には、基礎モデルやカスタムモデルの実行操作のマイクロサービスが含まれます。これらのマイクロサービスは、Amazon Bedrock、Amazon SageMaker、またはサードパーティのモデルプロバイダーを通じて提供される基盤モデルとのやりとりを汎用化します。 生成 AI コンポーネント (Generative AI components) は、生成 AI アプリケーションの構築に必要な機能を提供します。プロンプトのキャッシュ、プロンプトチェーン、エージェント、またはハイブリッド検索などの機能は、これらのマイクロサービスに含まれます。 責任ある AI コンポーネント (Responsible AI components) は、テナント全体にわたって AI の安全かつ責任ある開発を可能にします。ガードレール、レッドチーミング、モデル評価などの機能が含まれます。 テナント ここでは AI ゲートウェイの機能を使用するテナントについて述べます。各テナントには異なる要件やニーズがあり、そして独自のアプリケーションスタックがあります。生成 AI ゲートウェイにアプリケーションを連携することで、生成 AI 機能をアプリケーションに実装することができます。環境の 管理者 は生成 AI ゲートウェイにアクセスして、コアサービスと連携します。 ソリューションの概要 このセクションでは、ソリューションの各部についてより詳しく説明します。 HTTPS エンドポイント これは生成 AI ゲートウェイのエントリーポイントとして機能します。ゲートウェイへの要求は、このポイントを通過します。エンドポイントを設計する際には、さまざまなアプローチがあります。 REST API エンドポイント – すべての認証、認可、そしてスロットリングの処理のために API Gateway などのサービスを使用して、REST API エンドポイントを設定します。API Gateway はサーバーレスであるため、トラフィックに応じて自動的にスケールします。 WebSocket – 長時間の接続には、REST インターフェースの代わりに WebSocket を使用します。この方法により、同期的な REST リクエストのタイムアウト制限が解消されます。WebSocket の採用により、複数回または長時間のやりとりでも接続が維持されます。 API Gateway は、WebSocket APIも提供しています。 ロードバランサー – もう一つの選択肢は、HTTPS エンドポイントを公開し、リクエストをオーケストレーターにルーティングするロードバランサーを使用することです。このアプローチを実装するには、 Application Load Balancer などの AWS サービスを使用できます。Application Load Balancer を使用する利点は、実質的にあらゆるマネージド型、サーバーレス型、またはセルフホスト型のコンポーネントにシームレスにリクエストをルーティングでき、スケールも容易なことです。 テナントとアクセスパターン 事業部門やチームなどのテナントは、共有サービスを利用して API にアクセスし、生成 AI の機能をアプリケーションに導入します。また、本格的なアプリケーションの開発に着手する前に、特定のユースケースに対する生成 AI の適合性を評価するために、プレイグラウンドを適宜使用することもできます。 また、データソース、処理のパイプライン、ベクトルストア、データガバナンスといった機能により、テナントはそれぞれのユースケースで必要となるデータを安全に識別してアクセスすることができます。この段階ではユースケースとデータの分離要件について考慮する必要があります。個人識別情報 (PII) を含むデータへのアクセスが必要になるアプリケーションもある一方、クリティカルでないデータだけを必要とするアプリケーションもあるでしょう。また、運用上の特性や ノイジーネイバー のリスクについても考慮する必要があります。 RAG (Retrieval Augmented Generation) を例に取ります。ユースケースやデータの分離要件に応じて、テナントは共有型もしくは個別型のナレッジベースを構築し、データに対してアイテムレベルもしくはリソースレベルでの分離を実装できます。テナントは、アクセス可能なデータソースからデータを選択します。そしてアプリケーションに適したチャンキング手法を選択し、共有されている生成 AI の基盤モデルをデータのエンベッディングに使用して、ベクトルストアにエンベッディングを保存できます。 ユーザーの質問にリアルタイムで回答するために、テナントはキャッシュ機能を実装して、頻繁なクエリに対する待ち時間とコストを削減することができます。さらに、カスタムロジックを実装して、以前のセッション、インタラクションの状態、エンドユーザー固有の情報を取得することもできます。最終的な応答を生成するために、ゲートウェイを通じて、利用可能なモデルやリランキングの機能にアクセスすることができます。 次の図は、このアプローチでのチャットベースのエージェントアプリケーションの実装例を示しています。テナントのアプリケーションは、生成 AI ゲートウェイ経由で、利用可能な基盤モデルや独自のベクトルストアを使用し、エンドユーザーにパーソナライズされた関連性の高いレスポンスを提示します。 共有サービス このセクションでは、共有サービスグループについて説明します。 モデルコンポーネント このコンポーネントグループの役割は、テナントがホストされている場所に関係なく、基盤モデルにアクセスするための統一された API をテナントに提供することです。呼び出しの仕様を汎用化し、アプリケーション開発を加速します。基盤モデルのプロバイダー数や、使用するカスタムモデルの数や種類に応じて、1つまたは複数のコンポーネントで構成されます。以下の図に示します。 テナントが基盤モデルを利用する方法について、AWSではいくつかの選択肢があります。 Amazon Bedrockは、AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI、Amazonといった AI 企業が提供する基盤モデルを、単一の API を通じて選択できるフルマネージドなサービスです。サーバーレスなので、インフラストラクチャを管理する必要はありません。また、カスタマイズしたモデルを Amazon Bedrock に持ち込み、 サポートされているモデルアーキテクチャに対応するもの としてデプロイすることもできます。 SageMaker JumpStart は、AI21 Labs、Cohere、Hugging Face、Meta、Stability AI などのプロバイダーが提供する、公開されている独自仕様の幅広い基盤モデルを提供する機械学習 (ML) のハブです。これらの基盤モデルは、お客さまの AWS アカウントの SageMaker エンドポイントにデプロイできます。 SageMaker では、 SageMaker のエンドポイントでの推論 が可能で、HuggingFace などの公開モデルや独自モデルをデプロイできます。 また、 Amazon Elastic Kubernetes Service (Amazon EKS) などのコンテナサービスや、セルフマネージドのアプローチで、モデルをAWSのコンピューティングにデプロイすることもできます。 AWS PrivateLink を使用すると、仮想プライベートクラウド (VPC) と Amazon Bedrock および SageMakerのエンドポイント間のプライベート接続を確立できます。 生成 AI アプリケーションコンポーネント このグループには、生成 AI アプリケーションの固有要件に関連するコンポーネントが含まれています。以下の図に示します。 プロンプトカタログ (Prompt catalog)&nbsp;– 効果的なプロンプトを作成することは、大規模言語モデル (LLM) に適切な出力を生成させる上で重要です。プロンプトエンジニアリングは通常反復的なプロセスであり、チームは目標とする結果が得られるまで、さまざまなテクニックやプロンプトの構文を試行します。プロンプトの保存、バージョン管理、追跡、共有のためには、プロンプトカタログを一元管理することが不可欠です。また、本番の手前の環境で評価プロセスを自動化することもできます。新しいプロンプトがカタログに追加されると、評価のパイプラインが起動します。パフォーマンスが向上した場合は、アプリケーションの既存のデフォルトプロンプトは新しいプロンプトに置換されます。Amazon Bedrock を使用すると、 Amazon Bedrock Prompt Management で独自のプロンプトを作成して保存できるため、同じプロンプトを異なるワークフローに適用することができ、時間を節約できます。また、サーバーレスのフルマネージド型の NoSQL データベースである Amazon DynamoDB を使用してプロンプトを保存することもできます。 プロンプトチェーン (Prompt chaining) – 生成 AI の開発者は、LLM に送信する前に複雑なタスクをサブタスクに分割するために、プロンプトチェーンのテクニックをよく使用します。 共通的なプロンプトチェーンのアーキテクチャの API をテナントに公開する集約型のサービスを利用すると、開発を加速できます。 AWS Step Functions を使用してチェーンのワークフローを構成し、タスクの完了イベントを Amazon EventBridge を使用して監視し、次ステップのトリガーとすることができます。 詳細は、「 AI プロンプトチェーンを Amazon Bedrock で実行する 」を参照してください。 エージェント (Agent) – テナントは複雑なタスクを処理するために自律型エージェントを採用することもあります。 このようなエージェントは、モデル、データソース、API、およびアプリケーション間のやりとりを統合します。 エージェントコンポーネントにより、エージェントの作成、管理、アクセス、および共有が可能になります。 AWSでは、フルマネジードの Amazon Bedrock Agents や、LangChain や LlamaIndex のエージェントなどの任意のツールを使用できます。 リランク (Re-ranker) – RAGの設計では、企業内のデータ検索で複数の候補が返されることがよくあります。Cohere の Rerank 2 モデル などのリランク機能は、事前に定義された基準に基づいて最適な候補を判別するのに役立ちます。テナントが Amazon OpenSearch Service や Amazon Kendra などのマネージドサービスの機能を使用することを選択する場合は、このコンポーネントは必要ありません。 ハイブリッド検索 (Hybrid search) – RAGでは、必要に応じて、抽出されるドキュメントの品質を向上すべくハイブリッド検索を実行するために、複数のテンプレートを実装したり公開することもできます。このロジックは、ハイブリッド検索コンポーネントに組み込まれます。Amazon OpenSearch Service などのマネージドサービスを使用する場合は、このコンポーネントは必要ありません。 責任ある AI コンポーネント このグループには、以下の図に示す責任ある AIの主要コンポーネントが含まれます。 ガードレール (Guardrails) – ガードレールは、基盤モデルに組み込まれた保護に加えて、安全対策を実施するのに役立ちます。組織のユーザーに対して汎用的なデフォルトとして適用することも、各ユースケースに特化して適用することもできます。 Amazon Bedrock Guardrails を使用すると、アプリケーションの要件と責任ある AI のポリシーに基づいて、このような保護策を実装することができます。Amazon Bedrock Guardrails により、望ましくないトピックをブロックしたり、有害なコンテンツをフィルタリングしたり、PII やカスタム正規表現などの機密情報を削除またはブロックしてプライバシーを保護することができます。さらに、コンテクストに基づくグラウンドチェックにより、参照ソースとユーザークエリに基づいて、モデルのレスポンスにおけるハルシネーションを検出することができます。ApplyGuardrail API は、Amazon Bedrock 上 の基盤モデル、カスタムの基盤モデル、サードパーティの基盤モデルに対する入力プロンプトとモデルのレスポンスを評価することができ、生成 AI アプリケーションの全体に渡る統合的なガバナンスを実現します。 レッドチーミング (Red teaming) – レッドチーミングは、ユーザー経験の低下や悪意ある行為につながりうるモデルの制約を特定するのに役立ちます。LLM は、バックドア攻撃、ポイズニング攻撃、プロンプトインジェクション、ジェイルブレイク、PII 漏洩攻撃、メンバーシップ推論攻撃、勾配漏洩攻撃などのセキュリティおよびプライバシー攻撃に対して脆弱性を持つ可能性があります。テスト用のアプリケーションや自社の従業員で構成するレッドチームを立ち上げることや、既知の脆弱性に対して自動化したりするといった対応ができます。例えば、既知のジェイルブレイクのデータセットを用いてアプリケーションをテストするといったことです。 テスト結果を用いて、Amazon Bedrock Guardrails を調整し、望ましくないトピックをブロックしたり、有害なコンテンツをフィルタリングしたり、機密情報を削除またはブロックしたりすることができます。 ヒューマン・イン・ザ・ループ (Human in the loop) – ヒューマン・イン・ザ・ループのアプローチは、モデルの精度や関連性を向上させるために、ML のライフサイクル全体を通じて人間のインプットを収集するプロセスです。人間は、データの作成や注釈付けから、モデルのレビュー、カスタマイズ、評価まで、さまざまなタスクを行えます。 SageMaker Ground Truth では、セルフサービスと AWS マネージドサービスが用意されています。セルフサービスでは、データの注釈付の担当者、コンテンツの作成者、そしてプロンプトエンジニア(社内人材、ベンダー人材、またはパブリック人材)が、ローコードの UI を用いてヒューマン・イン・ザ・ループのタスクを迅速化できます。AWS マネージドサービス ( SageMaker Ground Truth Plus ) は、エンドツーエンドのワークフローのデザインやカスタマイズをし、特定のタスクのトレーニングを受けた専門知識のある AWS マネージドチームを提供し、お客さまのデータ品質、セキュリティ、およびコンプライアンスに関する要件を満たします。 Amazon Bedrock のモデル評価 を用いて、人間の作業者が複数のモデルからのレスポンスをGround Truthのレスポンスと比較して評価するといった、基盤モデルの評価のジョブを設定できます。評価方法として、サムズアップまたはサムズダウン、5段階評価、2択ボタン、順序付けなどを設定できます。 モデルの評価 (Model evaluation) – モデルの評価では、モデルの出力を比較し、下流の生成 AI アプリケーションに最適なモデルを選択できます。自動的な評価、ヒューマン・イン・ザ・ループでの評価、またはその両方を使用できます。Amazon Bedrock でのモデルの評価は、自動的な評価のジョブとヒューマン・イン・ザ・ループでの評価のジョブを設定できます。既存のデータセットを選択するか、独自のカスタムプロンプトのデータセットを投入できます。 Amazon SageMaker Clarify を使用すると、 Amazon SageMaker JumpStart の 評価用基盤モデル を評価できます。 テキスト生成、要約、分類、質問応答など、さまざまなタスクに対して、プロンプトのステレオタイプ化、毒性、事実に関する知識、セマンティック堅牢性、正確性など、さまざまな側面からのモデルの評価を設定することができます。そして独自の評価パイプラインを構築したり、 fmeval などのツールを使用することができます。 モデルの監視 (Model monitoring) – モデルの監視サービスでは、テナントが事前に定義したメトリクスに対するモデルのパフォーマンスを評価できます。モデル監視ソリューションは、リクエストとレスポンスのデータを収集し、評価ジョブを実行し、事前に設定のベースラインに対するパフォーマンスメトリクスを計算し、その結果を保存し、問題が発生した場合はアラートを送信します。 Amazon Bedrock を使用している場合は、 モデル呼び出しのログ を有効にして入力と出力のデータを収集し、Amazon Bedrock 評価を使用してモデル評価ジョブを実行できます。あるいは AWS Lambda を使用して独自のロジックを実装したり、 fmeval などのオープンソースツールを使用することもできます。SageMaker では、SageMaker のリアルタイムエンドポイントで データキャプチャ を有効にして、 SageMaker Clarify を使用してモデルの評価ジョブを実行したり、独自の評価ロジックを実装することができます。Amazon Bedrock と SageMaker はどちらも SageMaker Ground Truth と統合されており、グランドトゥルースのデータ(トレーニングやテストに使用される実際のデータ)や、モデルのレスポンスに対するヒューマンフィードバックの収集に役立ちます。そして AWS Step Functions は、エンドツーエンドのモニタリングワークフローのオーケストレーションに役立ちます。 コアサービス コアサービスは、管理や運用のコンポーネントやモジュールの集合体です。これらのコンポーネントは、システム運用、リソース管理、ユーザーおよびテナント管理、モデル管理など、さまざまな側面を監視、制御、管理できるように設計されています。これらは次の図に示されています。これらのコンポーネントは、システムの運用、リソース管理、ユーザーおよびテナント管理、モデル管理のさまざまな側面を監視、制御、および管理できるように設計されています。以下の図に示します。 テナントの管理と認証 (Tenant management and identity) テナント管理は、マルチテナントシステムにおいて重要な要素です。マルチテナントシステムでは、アプリケーションや環境のシングルインスタンスが複数のテナントや顧客に提供され、それぞれが独立した安全な環境で利用されます。テナント管理のコンポーネントは、システム内のテナントの管理や運用を担います。 テナントのオンボーディングとプロビジョニング – 新規テナント向けのオンボーディングの再利用可能なプロセスの作成を担います。これには、テナント固有の環境の作成、リソースの割り当て、テナントの要件に基づくアクセス制御の設定が含まれます。 テナントの構成とカスタマイズ – 多くのマルチテナントシステムでは、テナント毎に特定のニーズに合わせてアプリケーションや環境を部分的に変更することができます。テナント管理のコンポーネントは、テナントが分離された環境で設定、ブランディング、ワークフロー、その他の設定を変更するためのインターフェースやツールを提供できます。 テナントの監視とレポーティング – このコンポーネントは、監視や計測のコンポーネントとリンクしており、テナント固有の使用状況、パフォーマンス、およびリソース消費に関するレポートを作成します。テナントのアクティビティに関するインサイトを提供し、潜在的な問題を特定し、各テナントのキャパシティプランニングやリソース割り当てを容易にします。 テナントの料金請求とサブスクリプション管理 – 複数の価格モデルやサブスクリプションプランが存在するソリューションでは、テナント管理のコンポーネントが、各テナントの利用状況、リソース消費量、もしくは契約サービスレベルに基づいて、テナント毎の料金請求やサブスクリプション管理を処理することができます。 提案のソリューションでは、リクエストを行うユーザーの認証フローも必要となります。 AWS IAM Identity Center を使用すると、作業ユーザーを作成または連携し、AWS アカウントとアプリケーションに渡ってアクセスを一元管理できます。 Amazon Cognito を使用すると、ビルトインのユーザーディレクトリ、お客さまのエンタープライズディレクトリ、およびその他のコンシューマーアイデンティティプロバイダーから、ユーザーを認証および認可することができます。 AWS Identity and Access Management (IAM) は、細粒度のアクセス制御を可能にします。IAM を使用して、どのユーザーがどの基盤モデルやリソースにアクセスできるかを指定し、最小権限でのアクセス許可を保つことができます。 例えば、Cognito でよくあるシナリオの1つとして、 ユーザープールを用いて API Gateway と Lambda でリソースにアクセスする といったものがあります。次の図では、ユーザーが Amazon Cognito ユーザープールにサインインすると、アプリケーションが JSON Web トークン (JWT) を受け取ります。ユーザープールのグループを使用して、グループの権限を IAM ロールにマッピングすることで、API Gateway での権限を制御することができます。ユーザープールのトークンを API Gateway へのリクエストに含めて送信し、Amazon Cognito のオーソライザーとしての Lambda ファンクションで検証することができます。詳細は、「 Amazon Cognito ユーザープールをオーソライザーとして使用してREST API へのアクセスを制御する 」を参照してください。 APIへのアクセスの制御で、認証や認可に API キーを使用しないことをお勧めします。代わりに、IAM ロール、 Lambda オーソライザー 、または Amazon Cognito ユーザープール を使用してください。 モデルのオンボーディング (Model onboarding) 生成 AI ゲートウェイの重要な点は、基礎モデルやカスタムモデルへの統制されたアクセスをテナント全体で可能にすることです。Amazon Bedrock で利用可能な基盤モデルの場合、テナントがアクセスできる承認済みのモデルの許可リストを、モデルのオンボーディングコンポーネントが保持します。 Amazon DynamoDB などのサービスを使用して、許可リストに登録されたモデルを追跡することができます。同様に、Amazon SageMaker にデプロイされたカスタムモデルの場合、コンポーネントは、DynamoDB のレジストリテーブルのエントリから、どのテナントがどのモデルバージョンにアクセスしているかを追跡します。 アクセス制御を強化するために、Amazon API Gateway と AWS Lambda オーソライザーを併用することができます。テナントのアプリケーションがモデルを呼び出す API をコールすると、Lambda オーソライザーがテナントの ID を確認し、DynamoDB レジストリテーブルに照らして要求されたモデルへのアクセス権限があるかどうかをチェックします。アクセスが許可された場合、一時的なクレデンシャルが発行され、テナントの権限が許可されたモデルのみに適用されます。これにより、テナントがアクセス権限のないモデルにアクセスするのを防ぎます。認可のロジックは、組織のモデルへのアクセスのポリシーやガバナンスの要件に基づいてカスタマイズできます。このアプローチは、モデルの運用終了をサポートします。DynamoDB のレジストリテーブルの許可リストから、すべてのテナントもしくは特定のテナントのモデルを管理することで、コードを変更することなく、リストに含まれていないモデルが自動的に使用できなくなります。 モデルのレジストリ (Model registry) モデルのレジストリは、カスタムモデルのさまざまなバージョンの管理や追跡に役立ちます。 Amazon SageMaker Model Registry や Amazon DynamoDB などのサービスは、利用可能なモデル、関連するモデルのアーティファクト、そしてリネージ(系統)の追跡に役立ちます。モデルのレジストリは、以下の機能を提供します。 バージョンの管理 – 生成AIのモデルのさまざまなバージョンを追跡します。 モデルのリネージや来歴 – トレーニングデータ、ハイパーパラメータ、モデルアーキテクチャ、モデルの来歴や特性を記述する関連するメタデータなどの情報を含め、各モデルのバージョンのリネージや来歴を追跡します。 モデルのデプロイとロールバック – 新しいモデルのバージョンを本番環境にデプロイして利用可能にし、また必要に応じて以前のバージョンへのロールバックを可能にします。これにより、システムの運用を中断することなく、モデルをシームレスに更新または復元することができます。 モデルのガバナンスとコンプライアンス – モデルのバージョンが適切に文書化され、監査され、関連するポリシーやレグレーショ制に準拠していることを確認します。これは、規制産業やコンプライアンス要件が厳しい環境で特に有用です。 オブザーバビリティ オブザーバビリティは、アプリケーションの健全性の監視、問題のトラブルシューティング、基盤モデルの使用、パフォーマンスやコストの最適化には不可欠です。 ログの取得と監視 (Logging and monitoring) Amazon CloudWatch は強力なモニタリングとオブザーバビリティのサービスであり、API Gateway、Amazon Bedrock、Amazon SageMaker、カスタムサービスなどのアプリケーションコンポーネントからのログを収集・分析できます。CloudWatch でスタック全体にわたるログからテナント ID を特定することで、生成 AI ゲートウェイのパフォーマンスや健全性に関するインサイトをテナントレベルで得ることができ、問題が深刻化する前に、問題を特定して解決することができます。予期しない挙動が発生した場合に通知を受け取るよう、アラームを設定することもできます。Amazon SageMaker と Amazon Bedrock は、AWS CloudTrail と統合されています。 計測 (Metering) 計測は、ソリューションのさまざまな部分から運用や使用のデータやパフォーマンスメトリクスを収集、集約、分析するのに役立ちます。従量課金制やサブスクリプションベースのモデルを提供するシステムでは、テナント毎に正確に請求するためにリソース消費を測定して報告するといった計測が重要となります。 このソリューションでは、コストを効果的に管理し、リソースの使用率を最適化するために、基盤モデルの使用状況を追跡する必要があります。 使用したモデル、入力されたトークン数、出力として生成されたトークン数、使用された AWS リージョン 、チームに関連するタグの適用など、関連する情報を収集することで、コスト配分や請求処理を合理化することができます。基盤モデルとのやりとりを構造化データとして記録し、利用情報を収集することができます。次の図は、Lambda 関数がテナント毎の情報を Amazon CloudWatch に記録しながら、Amazon Bedrock を呼び出す実装を示しています。Amazon Bedrock の呼び出しにより、AWS CloudTrail のイベントが生成されます。 監査 (Auditing) AWS Lambda 関数を使用して Amazon CloudWatch からのデータを集約し、S3 バケットに保存して長期保存やさらなる分析を行うことができます。Amazon S3 は、耐久性、拡張性、コスト効率に優れたオブジェクトストレージソリューションであり、大量のデータを保存するのに最適です。実装の詳細については、このシリーズの第1部の「 Amazon Bedrock での基盤モデルのコストと使用状況の追跡を備えた社内 SaaS サービスの構築 」を参照してください。 Amazon S3 にデータが保存された後、Amazon Athena、 AWS Glue Data Catalog 、 Amazon QuickSight などの AWS のアナリティクスサービスを使用して、コストや使用のパターンを明らかにし、レポートを生成し、傾向を可視化します。そしてリソースの割り当て、予算の予測、コスト最適化戦略といったことに基づいて意思決定を行うことができます。AWS Glue Data Catalog(一元的なメタデータリポジトリ)と Amazon Athena(インタラクティブなクエリサービス)を使用すると、Amazon S3 に保存されたデータに対して、SQL クエリを直接実行することができます。以下の例では、Athena での各テナントのモデル毎の使用とコストについて示します。 企業全体への展開 以下は、組織内の多くの事業部門やチームにこのソリューションをスケールさせる場合の設計上の考慮事項です。 アカウントの制限 – これまで単一の AWS アカウントでゲートウェイソリューションを展開する方法について説明してきました。チームがゲートウェイに次々と参加し、LLM の利用を拡大していくと、さまざまなコンポーネントがAWSアカウントの制限に達し、ボトルネックとなっていく可能性があります。生成 AI ゲートウェイは、1つの AWS アカウントが1つの事業部門に対応するようにして、複数の AWS アカウントを展開していくことをお勧めします。その理由は、一般的には大企業の各事業部門は自律的であり、そして数十から数百のチームを抱えている可能性があるからです。さらに各事業部門は、他の事業部門とのデータの共有を制限する厳格なデータプライバシーポリシーを定めている場合もあります。本番環境のアカウントに加えて、各事業部門はテスト環境やインテグレーション環境のAWSアカウントも保有する可能性もあります。 本番および非本番のワークロード – ほとんどの場合、事業部門等のテナント側のチームは、開発、テスト、本番の各環境でこのゲートウェイを使用したいと考えるでしょう。組織の運用モデルに大きく依るものですが、本番環境のゲートウェイに負荷をかけたり、非本番環境のデータを混在したりすることなく、チームが自由に実験を行えるよう、ゲートウェイにも専用の開発、テスト、本番環境を用意することを推奨しています。これにより、非本番環境のゲートウェイの制限値を本番環境よりも低く設定できるというメリットも得られます。 RAG のデータコンポーネントの取り扱い – RAG ソリューションを実装する際には、すべてのデータ関連のコンポーネントをテナント側で管理することをお勧めします。各テナントには、独自のデータ制約、更新サイクル、フォーマット、用語、および権限グループがあります。データソースの管理責任をゲートウェイに割り当てると、スケーラビリティが妨げられる可能性があります。ゲートウェイは各テナントのデータソースの固有の要件に対応できないため、おそらくは最低限の共通項目を処理することになるでしょう。したがって、データソースおよび関連コンポーネントはテナント側で管理することをお勧めします。 車輪の再発明の回避 – このソリューションは、モデル評価、ガードレール、プロンプトカタログ、監視など、独自のコンポーネントを構築および管理できます。Amazon Bedrock などのサービスは、セキュリティ、プライバシー、責任ある AI を最初から備えた生成 AI アプリケーションを構築するために必要な機能を提供しています。バランスの取れたアプローチを取り、極力 AWS ネイティブの機能を使用して運用コストを削減することをお勧めします。 スリムな生成 AI ゲートウェイの維持 – ビジネスロジックの保持という観点で、このゲートウェイをスリムに保つことを提案します。ゲートウェイに、特定のテナントに対するビジネスルールを追加すべきではなく、既に取り上げたような運用データ以外のテナント固有のデータを保持することは避けるべきです。 おわりに 生成 AI のマルチテナントのアーキテクチャは、複数のユースケースやチームに渡って生成 AI の利用を拡大しながら、セキュリティ、ガバナンス、コスト管理を維持するのに役立ちます。本記事では、生成 AI の導入を加速させるための参考となるマルチテナントのアーキテクチャを紹介しました。共通的な生成 AI コンポーネントの標準化と、それらを共有サービスとして公開する方法について説明しました。また、提案のアーキテクチャでは、ガバナンス、セキュリティ、オブザーバビリティ、責任ある AI といった主要な観点についても取り上げました。最後に、このアーキテクチャを多くのチームに拡張していく際の主な考慮事項について説明しました。 このトピックについてさらに詳しくお知りになりたい方は、以下もご覧ください。 AI/ML CoE (Center of Excellence) の設立 基盤モデルを安全かつコンプライアンスに準拠して利用するための生成 AI ゲートウェイの構築 著者について Anastasia Tzeveleka は、AWSのシニア生成 AI/ML スペシャリストソリューションアーキテクトです。EMEA 全域のお客さまが AWS サービスを使用して基盤モデルを構築し、スケーラブルな生成 AI および機械学習のソリューションを構築できるよう支援しています。 . . . . Hasan Poonawala は、AWS のシニア AI/ML スペシャリストソリューションアーキテクトとして、ヘルスケアおよびライフサイエンス業界のお客さまを担当しています。AWS での生成 AI および機械学習アプリケーションの設計、デプロイ、およびスケールを支援しています。クラウド上での機械学習、ソフトウェア開発、およびデータサイエンスで、合計15年以上の業務経験があります。余暇は自然探索や友人や家族との時間を大切にしています。 . . Bruno Pistone は、ミラノを拠点とする AWS のシニア生成 AI および ML スペシャリストソリューションアーキテクトです。 お客さまと共同し、お客さまの技術的なニーズを深く理解し、AWS クラウドと Amazon Machine Learning スタックを最大限に活用する AI および機械学習ソリューションの設計を支援しています。 専門分野は、機械学習全般、機械学習の商用化、生成 AI です。 友人と過ごす時間や新しい場所を探索することを楽しんでおり、新しい場所への旅行も好んでいます。 . . Vikesh Pandey は、金融サービスを専門とするプリンシパル生成 AI/ML ソリューションアーキテクトで、お客さまが生成 AI/ML プラットフォームやソリューションを構築し、数百人から数千人のユーザーに拡張することを支援しています。余暇には、さまざまなブログフォーラムに投稿したり、子供と一緒にレゴを組み立てたりするのが好きです。 . . . Antonio Rodriguez は、Amazon Web Servicesのプリンシパル生成 AI スペシャリストソリューションアーキテクトです。あらゆる規模の企業が抱える課題の解決、イノベーションの導入、Amazon Bedrock による新たなビジネスオポチュニティの創出を支援しています。仕事以外では、家族と過ごしたり、友人とスポーツを楽しんだりしています。 . . . 翻訳者について 川口賢太郎 (Kentaro Kawaguchi) は、プロフェッショナルサービスのシニア CS&amp;O アドバイザリーコンサルタントで、デジタル戦略立案とそれに即した組織の変革に注力しています。 CCoE や AI CoE などの xCoE の組成支援などに従事しています。
アバター
2025 年の第 2 週を迎えるにあたり、中国では旧正月の準備の始まりを意味する、伝統的な祝日である臘八節 (ろうはちせつ) をお祝いしています。この日、中国の人々は、さまざまな穀物やドライフルーツ、木の実を組み合わせた特別なお粥、 臘八粥 (ろうはちがゆ) を用意します。この 栄養価の高い料理は、調和、繁栄、幸運を象徴し、それぞれの成分は生命の多様性と豊かさを表します。伝統的なこの慣習は、ブッダが乳粥を食べて悟りを開いたときにまでさかのぼり、物質的栄養と精神的栄養の両方の象徴となっています。旧暦の 12 月 8 日に開催されるこの祭りは、中国で最も重要な伝統的な祝日であり、家族の再会と再生を祝う春節までのカウントダウンの始まりです。 グローバルなテクノロジーコミュニティが成長を遂げる中、このような文化的なお祝いは、包括的なイノベーションと進歩の共有の重要性を私たちに思い出させてくれます。 1 月 6 日週のリリース Amazon Web Services (AWS) が 1 月 13 日週にリリースした内容をご紹介します。 新しい AWS アジアパシフィック (タイ) リージョン – AWS は、3 つのアベイラビリティーゾーンを備えた新しいアジアパシフィック (タイ) AWS リージョン の立ち上げにより、グローバルインフラストラクチャを拡大しました。この追加によって、タイおよび東南アジア全域のお客様は、タイ国内のデータレジデンシーを維持しながら、より少ないレイテンシーで顧客にサービスを提供できるようになります。新しく立ち上げられたリージョンは、AWS サービスの全範囲をサポートし、急速に成長している ASEAN 市場での当社の存在感を強化します。 バンコクの新しい AWS Direct Connect 拠点 – タイリージョンの立ち上げに伴い、AWS ではバンコクに新しい AWS Direct Connect 拠点を設立し、既存のインフラストラクチャを拡張しました。この追加により、タイのお客様が AWS サービスにアクセスする際の接続オプションが改善され、ネットワークレイテンシーが短縮されます。 データベースと分析 Amazon DynamoDB 用の設定可能なポイントインタイムリカバリ期間 – Amazon DynamoDB では、ポイントインタイムリカバリ (PITR) 期間をカスタマイズできるようになりました。つまり、お客様はテーブルごとに 1~35 日の範囲のリカバリ期間を指定できます。この強化によって、組織はコスト効率を最大化しながら、正確なコンプライアンス要件を満たすことができるようになります。この機能は、AWS GovCloud (米国西部) および中国リージョンを含むすべての AWS リージョンでご利用いただけます。柔軟にデータのリカバリ期間を設定できるため、お客様はビジネス要件や規制上の義務を正確に遵守するバックアップポリシーを作成できます。 Amazon MSK Connect API と AWS PrivateLink – Amazon Managed Streaming for Apache Kafka Connect (Amazon MSK Connect) API は AWS PrivateLink のサポートを開始しました。これにより、お客様は仮想プライベートクラウド (VPC) 内のプライベートエンドポイントを介して MSK Connect API にアクセスできるようになります。この強化によって、トラフィックが AWS ネットワーク内に留まるため、セキュリティが強化され、データ漏洩が軽減されます。 生成 AI と機械学習 SageMaker コードエディタの Amazon Q Developer – Amazon Q Developer が Amazon SageMaker コードエディタの統合開発環境 (IDE) に統合され、AI を活用したコード支援を通じて、開発者のエクスペリエンスが向上しました。インテリジェントなコード提案、ドキュメント支援、コンテキストに基づく推奨事項を SageMaker 開発環境内で直接利用できるようになりました。 管理とガバナンス AWS Chatbot の AWS Systems Manager Automation – AWS Chatbot では、 AWS Systems Manager Automation ランブックの推奨事項が 20 件追加され、自動運用管理の機能が拡張されました。これらの新しい推奨事項は、お客様がチャットベースの対話を通じて業務タスクを合理化し、ベストプラクティスをより効率的に実装するのに役立ちます。 AWS Transit Gateway コスト分析の強化 – コストアロケーションタグを使用して、Transit Gateway のデータ処理料金を分析する新機能をリリースしました。この機能により、ネットワークコストの可視性と管理性が向上し、組織は AWS Transit Gateway の使用状況を効率的に追跡および最適化できるようになります。強化されたコスト分析ツールにより、ネットワークトラフィックパターンと関連コストに関する詳細な洞察を得ることができます。 その他の AWS ニュースとハイライト 2024 年に最も人気のあった DevOps ブログ記事&lt;/t1&gt; – 回顧的なブログ記事「2024 年に最も多くアクセスされた DevOps とデベロッパーの生産性に関するブログ記事」が、今週の AWS で最も注目された記事となりました。このまとめでは、2024 年に最も影響力があった DevOps コンテンツを紹介し、注目のトピックとベストプラクティスに関する洞察を提供しています。この記事では、継続的インテグレーションと継続的開発 (CI/CD)、Infrastructure as Code (IaC)、自動化の実践に関する主要な開発について考察しています。 生成 AI の新しいセキュリティコース – AWS Skill Builder は、AWS での 生成 AI アプリケーションの保護に焦点を当てた新しいコースをリリースしました。この包括的なトレーニングでは、 人工知能と機械学習 (AI/ML) ワークロードのセキュリティのベストプラクティスを実装し、データ保護、モデルセキュリティ、コンプライアンス要件に対処する方法を学ぶことができます。このコースは、急速に発展する生成 AI の分野における専門的なセキュリティ知識に対する需要の高まりに応えます。 Amazon Connect Contact Lens の無料トライアル – Amazon Connect Contact Lens の会話分析とパフォーマンス評価を初めて使用するユーザー向けに、無料トライアルをご紹介します。新規のお客様は、2 か月間、毎月最大 100,000 音声分まで無料で処理できます。また、初めてパフォーマンス評価を行うユーザーには、最初の評価から 30 日間の無料トライアルが提供されます。このイニシアチブにより、お客様は追加費用なしで Contact Lens の機能を普段の環境で体験できます。無料トライアルは、Contact Lens がサポートされているすべての AWS リージョン でご利用いただけます。 AWS のお知らせの詳細なリストについては、「 AWS の最新情報 」ページをご覧ください。 2025 年は、開発者、アーキテクト、ビジネスリーダー、クラウドジャーニー初心者などのあらゆる方に、また 2024 年に何が起こったかに関わらず、新しい機会をもたらします。 この記事は、 Weekly Roundup シリーズ の一部です。毎週、AWS からの興味深いニュースや発表を簡単にまとめてお知らせします! – Betty 原文は こちら です。
アバター
本記事は 2024/9/13 に投稿された&nbsp; Happy Sad app leverages AWS generative AI to improve student well-being &nbsp;を翻訳した記事です。パブリックセクターソリューションアーキテクトの山本が担当しました。 新型コロナウイルスのパンデミックは、学生のメンタルヘルスと幸福度に大きな影響を与えました。実際、2021 年から 2022 年の学年度中、 公立学校の 87 % &nbsp;が、パンデミックが学生の社会的・感情的発達に悪影響を及ぼしたと報告しています。これらの影響はパンデミック後も長く続き、学生の社会的・感情的幸福は依然として管理者、教師、そして親の主な関心事となっています。この継続的な危機に対処するため、 The Happy Sad Company が設立されました。 元 Instagram のデータサイエンティストで、同社の創設者である Hannah Oldknow は下記のように述べています。「私たちは、親として、教師として、そして長年のテック起業家としての経験に基づいて、Happy Sad アプリを設計しました。」「私たちのプラットフォームの目標は、『我が子はどうしているか?』という問いに答えることです。」 Oldknow は、教師、親、そして児童が、児童の社会的・感情的幸福をより良く理解するのに役立つアプリを構想しました。 アプリの戦略的計画、スケーリング、そして立ち上げにおいて、 アマゾン ウェブ サービス(AWS) との協力は明確な選択肢でした、と Oldknow は述べています。The Happy Sad Company は、 Amazon GuardDuty 、 AWS Lambda 、 Amazon CodeGuru などの AWS の高度なツールを活用することで、アプリ開発を大幅に加速させました。そして、チームは、 Metis や&nbsp; Gaggle などの他の 教育技術(EdTech) 企業と AWS が行った取り組みに感銘を受けました。 人工知能(AI)を活用して児童の利用を促進 、教師をサポートする Happy Sad アプリには 2 つの目的があります。K6(幼稚園から 6 年生)の児童がアプリにアクセスすると、雲の形をした絵文字や、児童個々にパーソナライズされたアクセサリーで彩られたゲーム化された体験に入ります。この目的は、よく知られている CASEL フレームワーク に基づいた社会的・感情的戦略の適用を通じて、児童の感情的な自己認識を向上させることです。 アプリのもう 1 つの目的は、教育者に個々の児童の「メンタルヘルスレポートカード」を提供することです。これはアプリ内での児童の活動と反応に基づき生成されます。教師はこのデータを閲覧し、個々の児童や教室全体の感情状態のパターンや傾向を識別できます。データから導き出された AI の洞察は、保護者とも共有できるようエクスポートすることができます。 最終的には、創設者たちは、このアプリが児童の社会的・感情的幸福の早期通知システムとして機能し、児童の感情的健康が低下し始めた場合に、教師や保護者に警告を発することを構想しています。 「現在、私たちは独自の AI をトレーニングをしており、児童のベースラインの低下を予測できるようにしています。これにより、保護者や教師が児童の潜在的な問題に先手を打った対策を取るができるようになります。」と Oldknow は述べています。 AWS の専門知識がアプリ開発を加速 AWS からの各段階における強力なサポートにより、The Happy Sad Company はアプリ開発を迅速に進めることができました。同社は、AWS が他の EdTech 企業と持つ幅広い経験を活用し、プロトタイプ開発プロセスの指針とすることができました。 「AWS と提携した理由の一つは、特にコンプライアンスに関して、課題がどこにあるかをガイドしてくれることを知っていたからです」と Oldknow は述べています。 戦略的計画からスケーリング、そして立ち上げまで、AWS の複数部門のチームが Happy Sad のアプリ開発プロセス全体を通じて深い専門知識とサポートを提供しました。 「私たちは Happy Sad チームと多くのワークショップを開催し、アプリを構築する際にどの AWS サービスを使用するのが最も適切かを、より良く理解できるよう支援しました。」と、AWS のソリューションアーキテクトである Daniel Wells&nbsp;は述べています。 ソリューションアーキテクトに加えて、 スタートアップ Activate チーム 、アカウント管理チーム、go-to-market チーム、そしてワールドワイドパブリックセクターチームなど、様々な AWS チームが各段階で専門知識を共有しました。 AWS のガイダンスは、アプリ開発プロセスを改善するために利用可能な AI 駆動ツールをナビゲートする上で特に有益であることが証明されました。2 つの特許出願中のネイティブ AI プログラムを持つ The Happy Sad Company の経験豊富な AI チームは、AWS テクノロジーを採用する価値をすぐに認識しました。チームは、AI を使用してアプリのコードを最適化する方法を提案するツールである Amazon&nbsp; CodeGuru Reviewer &nbsp;の使用を決定し、また、セキュリティを監督し、アプリ内の悪意のある行動を監視するために Amazon GuardDuty &nbsp;を使用することを決めました。 コンプライアンスを優先しつつ、コストを削減 学生の幸福に対するケアは教育の中心です。教育テクノロジーの成長に伴い、そのケアは現在、児童のデータプライバシーにまで及んでいます。学生オンラインプライバシー保護法(COPPA)は、13 歳未満の子どもたちのプライバシーを保護するために、ウェブサイトやオンラインサービス(アプリを含む)に要件を課しています。これは The Happy Sad Company にも当てはまる優先事項です。 「 Happy Sad チームは、アプリを安全でコンプライアンスに準拠したものにすることに焦点を当てていました」と、AWS の教育担当チーフテクノロジストの Leo Zhadanovsky は述べています。「私たちのチームでは、必要に応じてコンプライアンス要件を満たすための詳細なガイダンスを提供しました。」 COPPA に準拠したアプリ開発を優先することで、AWS は The Happy Sad Comoany との密接なパートナーシップをさらに強化しました。 「 Leo のチームは、データプライバシーを維持するためのガードレールを設定する素晴らしい仕事をしてくれました。これは、ユーザーの信頼を維持するために必要なものです」と Oldknow は述べています。 Happy Sad アプリには、需要の急増に管理オーバーヘッドを大きく増やすことなくシームレスに適応できる、柔軟でスケーラブルなインフラストラクチャが必要でした。それと同時に、AWS のサーバーレスコンピューティングサービスが理想的なソリューションであることが証明されました。サーバーレスコンピューティングプラットフォームである AWS Lambda &nbsp;を使用することで、チームは固定ハードウェアへの高額な資本支出投資を回避しました。代わりに、AWS が提供する事実上無制限のセキュアなコンピューティングリソースのプールに即座にアクセスし、実際に使用したキャパシティに対してのみ支払うことができました。Zhadanovsky が説明するように、このようなサーバーレスアプローチは「過剰なプロビジョニングがないことを保証し、自動スケーリングは、必要なときに必要なキャパシティ・リソースにアクセスできること」を意味します。 Happy Sad アプリの市場投入 Happy Sad アプリは、K6(幼稚園から 6 年生)の児童のメンタルヘルスのための強力な教室リソースとして、急速に採用が広がっています。アプリの使用は、アメリカ全土の教師の間で急速に広がっており、ロサンゼルス統一学区、ヒューストン独立学区、コロンバス(オハイオ州)市学区など、より大規模な学区でも採用されています。教師の間でのリソース利用率は 50 〜 70 % の間で変動し、一方、児童ユーザーの利用率は現在、月平均約 80 % になっています。 「保護者の方々は、このアプリが進む方向性に興奮しています」と Oldknow は述べています。「多くの保護者が、子どもたちのメンタルヘルスについてより深い認識を提供できるツールを求めていました。私たちはそれを提供できることに胸を躍らせています。」 AWS公共部門ブログの関連記事: Introducing ‘Get started with generative AI on AWS: A guide for public sector organizations’ How Gaggle’s ReachOut program uses AWS to ease the K12 mental health crisis Metis adds real-time collaboration to classroom live streams with Amazon IVS BriBooks improves children’s creative writing with generative AI, powered by AWS &nbsp; &nbsp; AWS Public Sector Blog Team AWS パブリックセクターブログチームは、世界中の政府、教育、非営利セクター向けに記事を執筆しています。パブリックセクター向け AWS について詳しく知るには、ウェブサイト( https://aws.amazon.com/government-education/ )をご覧いただくか、Twitter(@AWS_gov, @AWS_edu, and @AWS_Nonprofits)でフォローしてください。
アバター
2024 年 12 月 1 日、テストの合理化と 生成 AI アプリケーションの改善に役立つ Amazon Bedrock の 2 つの新しい評価機能を発表しました。 Amazon Bedrock ナレッジベースで RAG 評価 (プレビュー) のサポートを開始 – Amazon Bedrock ナレッジベース を使用して、自動ナレッジベース評価を実行して、 検索拡張生成 (RAG) アプリケーションを評価および最適化できるようになりました。評価プロセスでは、 大規模言語モデル (LLM) を使用して評価のメトリクスを計算します。RAG 評価では、さまざまな設定を比較し、設定を調整して、ユースケースに必要な結果を得ることができます。 Amazon Bedrock Model Evaluation に LLM-as-a-Judge (プレビュー) を追加 – 人間による評価を行う場合と比べて、わずかなコストと時間で、人間並みの品質でテストや他のモデルを評価できるようになりました。 これらの新機能により、AI を活用したアプリケーションの評価を迅速かつ自動的に行い、フィードバックループを短縮し、改善をスピードアップすることで、本番環境への移行が容易になります。これらの評価では、正確性や有用性、および回答拒否や有害性などの責任ある AI 基準を含む、品質に関する複数の側面を評価します。 簡単かつ直感的に理解できるように、評価結果は各スコアの自然言語による説明を出力とコンソールに表示し、スコアは解釈しやすいように 0 から 1 に正規化されています。ルーブリックはすべてジャッジプロンプトとともに文書に公開されているため、サイエンティストでなくてもスコアの導出方法を理解できます。 実際にどのように機能するか見てみましょう。 Amazon Bedrock ナレッジベースで RAG 評価を使用する Amazon Bedrock コンソールの [Inference and Assessment] (推論と評価) セクションで [Evaluations] (評価) を選択します。そこに、新しい [Knowledge Bases] (ナレッジベース) タブが表示されます。 [Create] (作成) を選択し、評価の名前と説明を入力して、メトリクスを計算する [Evaluator model] (評価者モデル) を選択します。今回は、Anthropic の Claude 3.5 Sonnet を使います。 評価するナレッジベースを選択します。以前、 AWS Lambda デベロッパーガイド PDF ファイル のみを含むナレッジベースを作成しました。このようにすることで、評価のために AWS Lambda サービスについて質問することができます。 検索機能だけを評価することも、検索して生成するワークフロー全体を評価することもできます。この選択は、次のステップで利用できるメトリクスに影響します。検索と応答生成の両方を評価することにし、使用するモデルを選択します。今回は Anthropic の Claude 3 Haiku を使います。 Amazon Bedrock Guardrails を使用したり、応答生成モデルの後に [configurations] (設定) リンクを選択してランタイム推論設定を調整したりすることもできます。 これで、評価するメトリクスを選択できます。 [Quality] (品質) セクションで [Helpfulness] (有用性) と [Correctness] (正確性) を選択し、 [Responsible AI metrics] (責任ある AI メトリクス) セクションで [Harmfulness] (有害性) を選択します。 次に、評価に使用するデータセットを選択します。これは、この評価用に準備して Amazon Simple Storage Service (Amazon S3) にアップロードした JSONL ファイルです。各行には会話が含まれ、その中のメッセージごとに参照応答があります。 {"conversationTurns":[{"referenceResponses":[{"content":[{"text":"A trigger is a resource or configuration that invokes a Lambda function such as an AWS service."}]}],"prompt":{"content":[{"text":"What is an AWS Lambda trigger?"}]}}]} {"conversationTurns":[{"referenceResponses":[{"content":[{"text":"An event is a JSON document defined by the AWS service or the application invoking a Lambda function that is provided in input to the Lambda function."}]}],"prompt":{"content":[{"text":"What is an AWS Lambda event?"}]}}]} 評価の結果を保存する S3 の場所を指定します。評価ジョブでは、S3 バケットが Amazon Bedrock ユーザーガイドに記載されているクロスオリジンリソース共有 (CORS) 許可で設定 されている必要があります。 サービスにアクセスするには、Amazon Bedrock が引き受けることができる AWS Identity and Access Management (IAM) サービスロールを作成または提供する必要があります。これにより、評価で使用される Amazon Bedrock および Amazon S3 リソースへのアクセスが可能になります。 数分後に評価が完了したので、結果を閲覧します。評価の実際の所要時間は、プロンプトデータセットのサイズ、使用したジェネレータおよび評価者モデルによって異なります。 一番上の メトリクスサマリー では、すべての会話の平均スコアを使用して全体的なパフォーマンスを評価します。 その後、 生成メトリクスの内訳 に、選択した各評価メトリクスの詳細が表示されます。私の評価データセットは小さかった (2 行) ので、大きな分布を見る必要はありません。 ここから、会話例とその評価も確認できます。すべての会話を見るには、S3 バケットの全出力を確認することができます。 なぜ 有用性 が 1 を少し下回っているのかに興味があります。 有用性 が見れるように、 会話例 の拡大とズームを行います。そこには、生成された出力、評価データセットと共に提供したグラウンドトゥルース、およびスコアが表示されます。モデルの推論を見るためにスコアを選びます。モデルによると、より詳細な情報があれば役立ったようです。モデルは本当に厳しい審査員です。 RAG 評価の比較 ナレッジベースの評価の結果は、それ自体では解釈が難しい場合があります。このため、コンソールでは複数の評価の結果を比較して違いを理解できます。これにより、関心のあるメトリクスが改善されているかどうかがわかります。 例えば、以前、他に 2 つのナレッジベースの評価を実行しました。これらは、同じデータソースを持つナレッジベースに関連していますが、チャンクと解析の設定が異なり、埋め込みモデルも異なります。 2 つの評価を選択し、 [Compare] (比較) を選択します。コンソールで比較できるようにするには、評価が同じメトリクスを対象とする必要があります。 [At a Glance] (概要) タブでは、スパイダーチャートを使用してメトリクスを視覚的に比較しています。この場合、結果はそれほど変わりません。主な違いがあるのは 忠実度 スコアです。 [Evaluation details] (評価の詳細) タブには、スコアの違いなど、各メトリクスの結果の詳細な比較が表示されます。 Amazon Bedrock Model Evaluation で LLM-as-a-judge (プレビュー) を使用する Amazon Bedrock コンソールでは、ナビゲーションペインの [Inference and Assessment] (推論と評価) セクションで [Evaluations] (評価) を選択します。 [Create] (作成) を選択した後、 Automatic: Model as a judge (自動: Model as a judge) オプションを選択します。 評価の名前と説明を入力し、評価メトリクスの生成に使用される 評価モデル を選択します。ここでは Anthropic の Claude 3.5 Sonnet を使います。 次に、評価したいモデルである [Generator model] (ジェネレータモデル) を選択します。モデル評価は、より小さく、より費用対効果の高いモデルがこのユースケースのニーズを満たしているかどうかを把握するのに役立ちます。ここでは Anthropic の Claude 3 Haiku を使います。 次のセクションでは、評価する メトリクス を選択します。 [Quality] (品質) セクションで [Helpfulness] (有用性) と [Correctness] (正確性) を選択し、 [Responsible AI metrics] (責任ある AI メトリクス) セクションで [Harmfulness] (有害性) を選択します。 [Datasets] (データセット) セクションでは、評価データセットが保存される Amazon S3 の場所と、モデル評価ジョブの結果が保存される S3 バケット内のフォルダを指定します。 評価データセット用に、別の JSONL ファイルを用意しました。各行には、プロンプトと参考用の回答が記載されています。形式はナレッジベースの評価とは異なることに注意してください。 {"prompt":"Write a 15 words summary of this text:\n\nAWS Fargate is a technology that you can use to run containers without having to manage servers or clusters.With AWS Fargate, you no longer have to provision, configure, or scale clusters of virtual machines to run containers.This removes the need to choose server types, decide when to scale your clusters, or optimize cluster packing.","referenceResponse":"AWS Fargate allows running containers without managing servers or clusters, simplifying container deployment and scaling."} {"prompt":"Give me a list of the top 3 benefits from this text:\n\nAWS Fargate is a technology that you can use to run containers without having to manage servers or clusters.With AWS Fargate, you no longer have to provision, configure, or scale clusters of virtual machines to run containers.This removes the need to choose server types, decide when to scale your clusters, or optimize cluster packing.","referenceResponse":"- No need to manage servers or clusters.\n- Simplified infrastructure management.\n- Improved focus on application development."} 最後に、Amazon Bedrock にこの評価ジョブで使用されるリソースへのアクセスを許可する IAM サービスロールを選択できます。 評価の作成が完了しました。数分後、評価が完了します。ナレッジベースの評価と同様に、結果は メトリクスの概要 から始まります。 生成メトリクスの内訳 には各メトリクスの詳細が記載されています。いくつかのサンプルプロンプトの詳細も見ることができます。評価スコアをよりよく理解するために、 有用性 を確認します。 評価のプロンプトはモデルによって正しく処理されており、その結果を自分のユースケースに適用できます。この評価で使用したものと同様のプロンプトをアプリケーションで管理する必要がある場合は、評価モデルが良い選択肢です。 知っておくべきこと これらの新しい評価機能は、次の AWS リージョン でプレビュー版として利用できます。 米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ、シドニー、東京)、カナダ (中部)、欧州 (フランクフルト、アイルランド、ロンドン、パリ)、南米 (サンパウロ) での RAG 評価 米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ、ソウル、シドニー、東京)、カナダ (中部)、欧州 (フランクフルト、アイルランド、ロンドン、パリ、チューリッヒ)、南米 (サンパウロ) での LLM-as-a-Judge 利用可能な評価者モデルはリージョンによって異なることに注意してください。 料金は、モデル推論用の標準的な Amazon Bedrock の料金 に基づいています。評価ジョブ自体に追加料金はかかりません。評価者モデルと評価対象モデルの請求は、通常のオンデマンド料金またはプロビジョニング料金に従って行われます。ジャッジプロンプトテンプレートは入力トークンの一部であり、透明性を高めるため、このようなジャッジプロンプトは AWS のドキュメントに記載されています。 評価サービスはリリース時点では英語コンテンツ向けに最適化されていますが、基盤となるモデルではサポート対象の他の言語のコンテンツも処理できます。 使用を開始するには、 Amazon Bedrock コンソール にアクセスしてください。詳細については、 Amazon Bedrock のドキュメント をご覧になり、 AWS re:Post for Amazon Bedrock にフィードバックを送信してください。 community.aws では、詳しい技術コンテンツを検索し、ビルダーコミュニティが Amazon Bedrock を使用する方法を見出すことができます。これらの新機能で何を構築するのか教えてくださいね! – Danilo 原文は こちら です。
アバター
本記事は 2024年11月27日に公開された ” Export AWS Migration Hub data for Import into AWS Application Migration Service ” を翻訳したものです。 AWS Application Discovery Service (ADS) は、AWS への移行準備としてサーバーを検出します。ADS は、 既存のソース からデータをインポートするか、サーバーのパフォーマンスとネットワーク通信データを収集する 検出エージェント 、または、 エージェントレスコレクター を展開することで、検出を実行します。収集されたデータは、 AWS Migration Hub に送られ、そこでサーバーをアプリケーショングループに分類することが可能です。移行の 準備フェーズ の重要な部分は、サーバーを 移行ウェーブ に分けること、および ADS によって観測されたパフォーマンスメトリクスに基づいて Amazon Elastic Compute Cloud (Amazon EC2) インスタンスのレコメンデーションを取得することです。移行ウェーブは Migration Hub 内で構成可能です。 この投稿では、移行ウェーブを含む移行計画の構築方法、EC2 インスタンスのレコメンデーション取得、および Migration Hub からのデータのエクスポート方法を説明します。その後、 AWS Application Migration Service (AWS MGN) にデータをインポートする方法を紹介します。 ADS で収集されたデータは Migration Hub 内で整理され、AWS MGN で使用できるようエクスポートできます。AWS MGN は、AWS に移行するためのサービスです。移行元サーバーのデータを AWS にレプリケートし、移行元サーバーを Amazon EC2 インスタンスと Amazon Elastic Block Store ボリュームで AWS ネイティブに実行するように自動的に変換します。Migration Hub のデータを AWS MGN にインポートすると、指定されたアプリケーションとウェーブに従って移行を実行できます。AWS MGN が起動する Amazon EC2 インスタンスは、ADS のパフォーマンスメトリクスの情報を元に生成された Amazon EC2 インスタンスのレコメンデーションと一致します。 この投稿では、Migration Hub に収集されたデータがすでに存在することを前提としています。 サーバーを移行ウェーブごとにグループ化 移行ウェーブは、技術的および非技術的な依存関係を持つアプリケーションとインフラストラクチャの集まりで、同時にグループとして移行する必要があります。Migration Hub を使用すると、サーバーをアプリケーションにグループ化し、アプリケーションの集合体である移行ウェーブを定義できます。 以下の手順に従って移行ウェーブを作成してください。 Migration Hub 内の アプリケーション メニューから、ウェーブに割り当てたいアプリケーションを選択します 図 1 – Migration Hub のアプリケーションメニューのスクリーンショット、アプリケーションの選択を表示 選択したアプリケーションの鉛筆アイコンをクリックすると、Wave ID を入力できます。同じ Wave ID のすべてのアプリケーションは、AWS MGN 内の ウェーブ にまとめられます 図2 – Wave ID の編集画面のスクリーンショット Migration Hub からデータをエクスポートし、EC2 インスタンスのレコメンデーションを取得する Amazon EC2 インスタンスのレコメンデーション は、既存のパフォーマンス要件を処理できる最も安価な Amazon EC2 インスタンスタイプを選択するために使用されます。これらの推奨事項を生成するために使用されるデータは、ADS によって収集された実際の使用率メトリックス、または Migration Hub に手動でインポートされた詳細なパフォーマンス情報です。 以下の手順に従って Amazon EC2 インスタンスの推奨事項をエクスポートしてください。 Migration Hub 内の アプリケーション メニューから、EC2 インスタンスのレコメンデーションを生成したいアプリケーションを選択してください 図3 – Amazon EC2 インスタンスのレコメンデーションでアプリケーションを選択するスクリーンショット アクション メニューから「 EC2のレコメンデーションを取得 」を選択してください サイジングの設定 を選択してください。Discovery エージェント、またはエージェントレス コネクタを使用した場合は、時系列の利用率データに基づく 利用率のパーセンタイル を使用できます。 リージョン 、 テナンシー 、 料金モデル を選択してください 図4 – インスタンスのレコメンデーションの設定を選択するスクリーンショット エクスポートに含まれるサーバーやアプリケーションを追加したり削除したりすることができます エクスポートのレコメンデーション を選択して、エクスポートします zipファイルをダウンロードします。zipファイル内には2つのCSVファイルが含まれています。 EC2InstanceRecommendations-#### – EC2インスタンスのレコメンデーションが含まれています MgnInventory-#### – AWS MGN にインポートできるデータが含まれています AWS MGN にサーバー情報をインポート MgnInventory-#### CSVファイルは、AWS MGN にインポートできます。 アプリケーションの情報は AWS MGN 上のアプリケーションリソースに変換され、そのアプリケーションに属するすべてのサーバーがグループ化されます。ウェーブの情報は AWS MGN 上のウェーブリソースに変換され、そのウェーブに属するすべてのアプリケーションがグループ化されます。ウェーブとアプリケーションの両方で、AWS MGN を使うユーザーは複数のサーバーに対する一括操作を実行したり、移行の状況を集約して監視することができます。 残りの情報は EC2 起動テンプレートを設定するために使用され、テストとカットオーバーの目的で起動される Amazon EC2 インスタンスに適用されます。これにはインスタンスタイプとサブネットが含まれます。 VMware 固有の属性 ( vmname や vmmoref など) を移行した Amazon EC2 インスタンスにタグとして追加できるよう、「 サーバータグを転送 」を有効にすることができます。 次の CSV 内のフィールドに注意してください。 mgn:server:user-provided-id – 重複を避けるため、このフィールドの初期値は、Migration Hub 内の ホスト名 と サーバーID の連結になっています。この値は任意の値に変更できます。この ID は、AWS Replication Agent をインストールする際に使用する user-provided-id と 一致する必要 があります。 エージェントのインストール中、デフォルトの ID はソースサーバーのホスト名になります。インストールパラメーター –user-provided-id を使用すると、デフォルトの ID を上書きできます。インストールパラメーターの使用方法については、 Linux および Windows のインストール手順をご覧ください。 mgn:wave:name – このフィールドの値には、Migration Hub で構成したウェーブが含まれています。 mgn:launch:instance-type – このフィールドの値には、レコメンデーションされたインスタンスタイプが含まれています。 mgn:launch:nic:0:private-ip:0 – このフィールドの値は、移行されるサーバーの IP アドレスを設定するために使用されます。Migration Hub からのエクスポートでは、この値が AWS で同じ IP アドレスを使用するように移行元ソースサーバーの現在の IP アドレスに設定されます。移行されるサーバーが異なる IP 範囲の Amazon Virtual Private Cloud (Amazon VPC) に入る場合は、このフィールドを空白にする必要があります。 AWS MGN にデータをインポートするには、次の手順に従ってください。 AWS MGN の インポート メニューから ファイルを選択 をクリックし、Migration Hub からダウンロードした CSV ファイルをインポートします 図5 – AWS MGN のインポートメニューでファイルを選択するスクリーンショット Migration Hub からダウンロードした CSVファイルを選択します インポート を選択します インポート履歴 を使用して、インポート操作の状況を追跡できます Migration Hub のサーバーと ウェーブ構成、Amazon EC2 インスタンスタイプのレコメンデーションが AWS MGN に追加されました。 図6 – AWS MGN 内の Migration Hub からインポートされた「ウェーブ」のスクリーンショット まとめ AWS Migration Hub と AWS Application Discovery Service (ADS) は、AWS への移行の調査、計画、実行に利用できます。ADS は、Amazon EC2 インスタンスタイプのレコメンデーションに重要なパフォーマンスメトリクスを収集するために使用できます。Migration Hub は、サーバーをアプリケーションとウェーブにグループ化することができ、一緒に移行する必要があるアプリケーションを定義します。調査・計画時に収集したデータに基づいて生成された Amazon EC2 インスタンスのレコメンデーションをエクスポートすることで、移行の実行フェーズに反映させることができます。エクスポートされたデータは、移行サービスの AWS Application Migration Service (AWS MGN) に直接インポートできる形式になっています。AWS MGN は、Migration Hub からのエクスポートに従って、アプリケーション、移行ウェーブ、インスタンスタイプの設定を行います。 Migration Hub と AWS Application Migration Service の機能についてさらに詳しく知りたい方は、ぜひ公式ドキュメントを確認してみてください。 著者について Peter Giuliano Peter Giuliano は、AWSのシニア・マイグレーション・ソリューション・アーキテクトで、オンプレミスおよびクラウドインフラストラクチャで20年以上の経験を持っています。AWSでは、お客様がクラウドへの大規模な移行を計画し実行するのを支援し、お客様の経験と教訓が共有されるよう努めています。仕事以外では、ランニングが趣味で、新しい場所を旅行するのが好きです。 この記事の翻訳はソリューションアーキテクトの須山健吾が担当しました。原文は こちら です。
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。 あけましておめでとうございます。本年も週刊生成 AI with AWS と、週刊 AWS をよろしくお願いいたします。 1 月に入り AWS 公式ウェブマガジン、builders.flash の記事が公開されていますので生成 AI に関係するものをピックアップしてみます。精度評価・信頼性・セキュリティ・高度な RAG 構築などの実用的なテクニックが記載されていますので興味に合わせてご覧ください。 Amazon Bedrockを用いた掲示板投稿監視システムの実現~株式会社ゲームエイトによる生成AI実装解説 (株式会社ゲームエイト様) AI技術で高校生の未来を支援する『AI-m(エイム)』~面接練習の革新 (株式会社マイナビ様) 生成AIセキュリティの歩き方 Amazon Bedrock Knowledge Basesでもサポート開始(preview)した噂のGraphRAGとは一体なんなのか?! それでは、1 月 6 日週の生成AI with AWS界隈のニュースを見ていきましょう。 さまざまなニュース AWS生成AI国内事例ブログ: 三協立山株式会社様、生成 AI アシスタントを1か月でリリースし議事録作成時間を 75% 削減 三協立山株式会社様 は、生成 AI 活用による生産性向上を目的とした社内向けサービス 「AI ふたば」を展開していました。プログラミングなどの一部の業務で活用されていた一方で、業務での活用シーンが不明確であることや、RAG が導入されていないことなどの理由から、会社全体での活用が進まないという課題を抱えていました。そこで、上記の課題解決に向けて Generative AI Use cases JP (以下、GenU) の導入を検討しました。GenU をカスタマイズし、業務での活用シーンに即した 50 パターンほどのプロンプトテンプレートを導入したことで社内の利用者が 1.5 ~ 2 倍程度拡大したそうです。さらに当初から要望の多かった議事録作成機能をリリースしたことで、年間で 1 万 5000 時間の業務時間削減効果が見込まれています。 ブログ記事「Amazon Nova のご紹介: フロンティアインテリジェンスと業界をリードする料金パフォーマンス」を公開 昨年の 12 月 3 日に、 Amazon Bedrock で利用可能な基盤モデル (FM) である Amazon Nova を発表しました。Amazon Nova は最先端のインテリジェンスと業界トップクラスの価格パフォーマンスを実現します。この記事では、Amazon Nova のそれぞれのモデルの特徴・プロンプト例・呼び出し方例を紹介しています。 サービスアップデート Amazon Q Developer が Amazon SageMaker Code Editor IDE で利用可能に Amazon SageMaker Studio をご利用のお客様は、Code Editor(Visual Studio Code)IDE 内で Amazon Q Developer による生成AI アシスタンスを利用できるようになりました。Q Developer を使用することで、トラブルシューティングに関するガイダンスを得たり、コード生成を行ったりすることが可能になり、機械学習開発プロセスの効率化が期待できます。この機能は、SageMaker Studio が利用可能なすべての AWS リージョンでご利用いただけます。 著者について 木村 直登(Naoto Kimura) AWS Japan のソリューションアーキテクトとして、製造業のお客様に対しクラウド活用の技術支援を行なっています。最近は生成 AI と毎日戯れており、特にコード生成と LLM エージェントに注目しています。好きなうどんは’かけ’です。
アバター
本ブログは 2025 年 1 月 8 日に公開された「 New AWS Skill Builder course available: Securing Generative AI on AWS 」を翻訳したものとなります。 Amazon Web Services(AWS) 上での生成 AI ワークロードをセキュアにするためにお客様をサポートする、新しい AWS Skill Builder コース「 Securing Generative AI on AWS 」の提供開始をお知らせします。 この包括的なコースは、セキュリティの専門家、アーキテクト、人工知能および機械学習(AI/ML)エンジニアが AWS クラウド上の生成 AI アプリケーションおよびモデルのセキュリティのベストプラクティスを理解し、実装するための助けとなるを目的としています。 AWS Skill Builder は、AWS のお客様およびパートナーがデジタルトレーニング、セルフペースラボ、その他のコースタイプを通じてクラウドスキルを構築するための学習センターです。AWS Skill Builder には、お客様が AWS セキュリティの概念を理解し、実践的な経験を得るための様々な AWS セキュリティコンテンツがあります。 コースのハイライトは以下の通りです(訳者注:コンテンツは英語となります)。 生成 AI セキュリティスコープマトリックスの紹介 – この革新的なフレームワークを使用して、異なる AI 実装を分類し、保護する方法を学びます。 主要な AI セキュリティフレームワークのカバレッジ – OWASP Top 10 for Large Language Models (LLMs) と MITRE ATLAS フレームワークについての洞察を得ます。 実践的なセキュリティ戦略 – 様々な AI のスコープにおけるガバナンス、法律、リスク、コントロール、レジリエンスの分野にわたる包括的なセキュリティを実装するスキルを開発します。 実世界での応用 – コンシューマアプリケーション、エンタープライズソリューション、事前学習済みのモデル、ファインチューニングされたモデル、自身で学習したモデルをカバーするケーススタディにセキュリティのコンセプトを適用します。 コースを受講するには 無料の AWS Skill Builder アカウントにサインアップします。 コースカタログで「Securing Generative AI on AWS」を検索します。 コースに登録して学習を始めましょう! 補足情報 生成 AI セキュリティに関するさらなる情報については、以下のブログシリーズをご確認いただくことをお勧めします。 生成 AI をセキュアにする: 生成 AI セキュリティスコーピングマトリックスの紹介(日本語) 生成 AI をセキュアにする: 関連するセキュリティコントロールの適用(日本語) 生成 AI をセキュアにする: データ、コンプライアンス、プライバシーに関する考慮点(日本語) 私たちは皆さまのフィードバックや貢献を大切にしています。コースを完了した後にご意見や洞察があれば、コースのフィードバックから、または AWS サポート にお問い合わせください。 Anna McAbee Anna は、AWS で金融サービス、生成AI、インシデント対応にフォーカスしたセキュリティスペシャリストソリューションアーキテクトです。仕事以外では、テイラー・スウィフトを楽しみ、フロリダ・ゲイターズ・フットボールチームを応援し、NFL を観戦し、世界中を旅することを楽しんでいます。 Pablo Roesch Pablo は、AWS のテクニカルシニアプロダクトマネージャーで、セキュリティおよびクラウド運用トレーニングポートフォリオを管理しています。彼は生成 AI を活用してコース開発と市場投入戦略を革新し、技術的専門知識とイノベーティブなアプローチを組み合わせています。Pablo は、パッケージ化された仮想マシンアプリケーションとの外部通信(US 11,7973,26 B2)の特許を保有しており、クラウドおよび仮想化技術における彼の専門知識を反映しています。 Meg Peddada Meg は 10 年以上の経験を持つシニアセキュリティソリューションアーキテクトで、セキュリティ、リスク、コンプライアンスを専門としています。彼女の専門知識はガバナンス、セキュリティ自動化、脅威管理、アーキテクチャに及びます。余暇には、バレーボール、アートとクラフト、新しいブランチ体験を見つけることを楽しんでいます。 翻訳はプロフェッショナルサービス本部の藤浦 雄大が担当しました。
アバター
みなさん、こんにちは。ソリューションアーキテクトの戸塚です。今週も 週刊AWS をお届けします。 私は年初に趣味のパデルの大会に出て、リフレッシュしてきました。みなさんはどんな年末年始を過ごされましたか? 今年も新たな機能が追加されていってますね。それでは、先週の主なアップデートについて振り返っていきましょう。 2025年1月6日週の主要なアップデート 1/7(火) Amazon DynamoDB now supports configurable point-in-time-recovery periods Amazon DynamoDB では、ポイントインタイムリカバリ (PITR) の期間を設定できるようになりました。PITR を使用したデータリカバリの期間をテーブル単位で 1~35 日の範囲で指定できます。PITR は、DynamoDB のデータを偶発的な書き込みや削除から保護し、リカバリ期間内の任意の秒数までデータをリストアすることができます。 これにより、バックアップのリカバリ期間を設定することで、データリカバリ期間を短縮する必要があるコンプライアンスや規制要件を満たすことができます。 Announcing 20 additional AWS Systems Manager Automation runbook recommendations in AWS Chatbot AWS は、AWS Chatbot のイベント通知のコンテキストアクションボタンとして、AWS Systems Manager Automation で20 個の推奨ランブックの一般提供を発表しました。 このリリースにより、お客様は Microsoft Teams や Slack チャネルから AWS Systems Manager オートメーションを実行し、AWS Security Hub や Amazon ECS 関連のイベントに対処できるようになります。詳細は、AWS Chatbot の ドキュメント または AWS Chatbot の製品ページ を参照してください。 1/8(水) Amazon Q Developer is now available in Amazon SageMaker Code Editor IDE Amazon SageMaker は、SageMaker Studio コードエディタにおける Amazon Q Developer の一般提供を発表しました。 SageMaker Studio の顧客は、コードエディター (Visual Studio Code – オープンソース) IDE 内で、Q Developer によるジェネレーティブ AI アシスタンスを利用できるようになりました。 Q Developer を使用することで、データサイエンティストと ML エンジニアは、SageMaker の機能、コード生成、トラブルシューティングに関する専門家のガイダンスにアクセスできます。 これにより、退屈なオンライン検索やドキュメントレビューの必要性がなくなり、差別化されたビジネス価値を提供する時間を確保できるため、生産性が向上します。 Amazon Connect Contact Lens now provides free trials for conversational analytics and performance evaluations Amazon Connect Contact Lens は、会話分析とパフォーマンス評価を初めて利用するユーザー向けに無料トライアルを提供するようになりました。 音声用会話アナリティクスを初めてご利用になるお客様には、最初の 2 ヶ月間、月間 10 万分の音声通話を無料でお試しいただけます。 さらに、初めて Contact Lens のパフォーマンス評価を使用する顧客には、最初のパフォーマンス評価を提出した日から 30 日間の無料トライアルが提供されます。 1/9(木) AWS Compute Optimizer now expands idle and rightsizing recommendations for Amazon EC2 Auto Scaling groups AWS Compute Optimizer は、スケーリングポリシーと複数のインスタンスタイプを持つAmazon EC2 Auto Scaling グループに、アイドル状態と適切なサイズ調整の推奨事項を追加しました。 新しい推奨事項により、スケーリングポリシーや複数のインスタンスタイプを使用している Auto Scaling グループのコストとパフォーマンスを最適化するためのアクションを、専門的な知識やエンジニアリングリソースを必要とせずに実行できるようになります。 1/10(金) AWS CodeBuild now supports batch builds with reserved capacity and Lambda compute AWS CodeBuild は、バッチビルド機能を拡張し、リザーブドキャパシティフリートおよび Lambda コンピューティングのサポートを追加しました。この機能拡張により、ビルドバッチに対してオンデマンドインスタンス、リザーブドキャパシティフリート、Lambda コンピューティングリソースを組み合わせて選択できるようになります。バッチビルドでは、1 つのプロジェクト内で複数のビルドを同時に実行し、それらを調整することが可能です。この機能は、マルチプラットフォームプロジェクトや相互依存するビルドプロセスを持つ開発者に特に有用です。ビルドシーケンスは、ビルドリスト、ビルドマトリックス、または依存関係グラフを使用して定義できます。CodeBuild はこれらのビルドのオーケストレーションを管理し、開発と統合プロセス全体を効率化します。 Amazon Connect Contact Lens launches agent performance evaluations for email contacts Amazon Connect Contact Lens は、メールコンタクトに対するエージェントのパフォーマンス評価機能をリリースしました。この新機能により、マネージャーは Amazon Connect 内でメールを含むすべてのコンタクトチャネル(音声、チャット、メール、タスク)におけるエージェントのパフォーマンスを、使いやすい単一のウェブインターフェースで評価できるようになりました。また、エージェントグループ全体のパフォーマンスを時系列で集約した洞察も得られます。 インフルエンザも流行っているので、みなさんも体調には気をつけてください。 それでは、また来週お会いしましょう! 著者について 戸塚 智哉(Tomoya Tozuka) / @tottu22 飲食やフィットネス、ホテル業界全般のお客様をご支援しているソリューション アーキテクトで、AI/ML、IoT を得意としています。最近では AWS を活用したサステナビリティについてお客様に訴求することが多いです。 趣味は、パデルというスペイン発祥のスポーツで、休日は仲間とよく大会に出ています。
アバター
本ブログは 2024 年 12 月 17 日に公開された「 How DeNA Co., Ltd. accelerated anonymized data quality tests up to 100 times faster using Amazon Redshift Serverless and dbt 」を翻訳したものです。 本ブログは 株式会社ディー・エヌ・エー(以下 DeNA ) と Amazon Web Services Japan が共同で執筆しました。 DeNA は「一人ひとりに想像を超える Delight を」というミッションのもと、ゲーム、ライブコミュニティ、ヘルスケア・メディカル、スポーツ・スマートシティ、モビリティなど多岐にわたる事業を展開しています。中でもヘルスケア・メディカル事業では、機密性の高いデータを扱っており、同社のデータポリシーに準拠するためにデータ処理に関して以下の要件を設定しています: データポリシーに準拠したデータ処理 – 必要に応じて機密性の高いデータをマスキングや削除を行い、匿名化データに変換します。加えて区分値に無効な値が含まれないようにするなど、的確且つ損失なくデータの処理を行います。 データポリシーに準拠した匿名化データの品質テスト – 加工後のデータ品質問題を迅速に特定し対処するため、データ品質テストを実施して高品質なデータを常に維持します。 本ブログでは、DeNA が Amazon Redshift Serverless と dbt ( dbt Core ) を組み合わせて、匿名化データの品質テストを高速化した事例をご紹介します。なお、本取り組みについては DeNA Engineer Blog にも記載があります。そちらも併せて参考いただけると幸いです。 解決したい課題 データ品質テストは、毎月 10 TB のデータに対して 1,300 件のテストを実施する必要があります。今までデータ品質テストは AWS 上の Amazon Elastic Compute Cloud (Amazon EC2) で Python で実装されたバッチジョブを実行して行ってきました。しかし、事業とデータ量の拡大に伴い、以下の課題に直面しました。 パフォーマンス – エンジニアがビッグデータ処理を想定してバッチを設計していなかったため、データ品質テストの完了に数日から数週間を要していました。 コスト – 特に大規模なデータセットに対して、バッチの設計によりコストが増加しました。実装上、データをメモリにロードして処理する必要があり、大規模なテーブルのデータを扱う際には、メモリ容量が大きな EC2 インスタンスを利用する必要がありました。 保守性 – バッチの実装がエンジニアごとに大きく異なり、保守に必要な知識が属人化していたため、保守のコストが増大していました。 Redshift Serverless と dbt への移行 これらの課題を解決するため、DeNA は以下の理由から Redshift Serverless と dbt (オープンソースのデータ変換ツール) を採用しました。主な理由は以下の通りです: &nbsp;Redshift Serverless によりスケーラブルでコスト効率の高い処理が可能 &nbsp;dbt により利用技術を標準化して運用がしやすいデータ品質テストの実装が可能 この決定は様々なソリューションを比較検討した結果なされました。当初 DeNA は既存の Python バッチジョブを並列化することを検討しました。しかし、現時点で保守負荷が高く改修が難しい Python バッチに手を入れるのは工数が多くかかり、また属人化による高い保守負荷を解決することにはつながらないため、採用を見送りました。代わりに、ヘルスケア・メディカル事業で利用している dbt を採用し、大規模な分散処理が可能な AWS のサービスと組み合わせて利用することを決定しました。dbt は SQL 中心のテンプレートエンジンで、反復的で拡張可能なデータ変換を SQL と Python で記述することができます。dbt には data tests という、SQL を利用してデータモデルやテーブルが期待されるルールや条件に従っているかを検証するテスト機能があり、データの整合性や制約違反を検出してデータ品質を高めることができます。この機能を利用することで、事業における利用技術を統一化することができ、運用性や汎用性の高い SQL を利用してデータ品質テストを実装することができます。また dbt を大規模分散処理が得意なマネージドサービスに接続することで、コスト効率を向上させながら処理を高速化できると考えました。 AWS は dbt を接続してデータを処理できるサービスとして、 Amazon Redshift や&nbsp; AWS Glue などを提供しています。今回 DeNA は Redshift Serverless を採用しました。主な採用理由は、サーバーレスによる低い運用負荷と高いコストパフォーマンスに加え、データウェアハウスサービス特有の構造化されたデータへの優れた処理パフォーマンスです。 ソリューションの概要 DeNA は以下のアーキテクチャを設計しました。コスト効率や運用性の観点で、すべてのコンポーネントをサーバーレスで構築しました。 設計のポイント データ品質テストの対象となるデータは Amazon Simple Storage Service (Amazon S3) に配置されるため、配置をトリガーに Amazon EventBridge 経由で AWS Step Functions の ステートマシン (ワークフロー) を起動しました。1種のデータで複数のファイルが提供されるため、すべてのファイルの配置が完了したことを確認できるように、提供元のシステムから完了を示すファイルを Amazon S3 に配置するようにしました。 dbt は AWS のサーバーレスコンテナサービスである AWS Fargate を利用して Amazon Elastic Container Service (Amazon ECS) 上で実行するようにしました。Amazon ECS を採用した理由は、サーバーレス且つ従量課金で dbt を実行でき、過去 DeNA で Amazon ECS を利用したアプリケーションの開発・運用経験があったためです。また dbt が実行されるコンテナ上から Redshift Serverless に安全にアクセスできるようにするため、DeNA は コンテナに機密データを渡す Amazon ECS の機能 を使用し、AWS Secrets Manager に保存された接続のためのクレデンシャルを ECS タスク実行 IAM ロール を使用してコンテナに渡しました。 アクセス制御のため Redshift Serverless を制御の境目で別々の ワークグループ に分離しました。ワークグループはコンピューティングリソースの集合で、アクセス制御などのセキュリティ設定も含まれます。データ品質テストでは、データ品質の問題を調査するなどの運用の観点から運用者が実際に Query Editor V2 を利用して Redshift Serverless 上のデータベースにアクセスすることがあります。しかし扱っているデータの機密性が高いため、限定された人のみアクセスできるようにする必要があります。Redshift Serverless は データベースセキュリティ機能 を利用することで、データベース製品と同じように GRANT コマンド を利用して細かくデータへのアクセス制御を行うことが可能です。しかし今回は AWS Identity and Access Management (IAM) の機能を利用して、ワークグループへの 接続を IAM レベルで制御しました 。これにより、特定の IAM ロールを持つ人は特定の Redshift Serverless ワークグループへのアクセスに制限することができるようになり、IAM で認可の管理が統一的にできるようになりました。またワークグループを分離したことによって、処理で必要とする計算リソースである RPU (Redshift Processing Unit) を個別に調整することができ、コスト最適化にも寄与しました。 Amazon ECS 上で実行される dbt のログは Amazon CloudWatch Logs に送信されます。DeNA は メトリクスフィルター を利用してログを CloudWatch メトリクス に変換し、これらのメトリクスに基づいてアラームを作成しました。トリガーされたアラームは、 Amazon Simple Notification Service (Amazon SNS) を使用して AWS Lambda の関数を呼び出します。この Lambda 関数は、dbt の実行とデータ品質テストの結果レポートを作成し、DeNA 内部のチャットアプリケーションに送信します。DeNA はデータ品質テストの結果を elementary CLI を利用して可視化しました。elementary CLI は dbt ネイティブなデータオブザーバビリティソリューションで、dbt と連携してデータの状態を可視化することが可能です。これにより、エンジニア以外のユーザーでもデータ品質テストの状況を効率的に確認できるようになりました。 導入効果 DeNA はソリューションを設計して新しいプラットフォームに移行することで、直面していたすべての課題を解決することができました: パフォーマンス – 数日または数週間掛かっていた処理時間を 1~2 時間に短縮し、最大 100 倍の高速化を実現しました。以前は 877 分かかっていた特定のデータ品質テストが、Redshift Serverless の大規模分散処理機能により、現在では 1 分で完了できるようになりました。 コスト – 90% のコスト削減を実現できました。サーバーレスサービスで構築したため、データ品質テスト実行中のみのコスト発生となり、コスト圧縮を実現することができました。 保守性 – dbt による利用技術の標準化により、実装の属人化を無くすことができました。dbt の data tests 機能により、データ品質テストの実装が簡素化されました。elementary CLI により、エンジニア以外のユーザーにもデータ品質テストのオブザーバビリティが向上しました。AWS のサーバーレスサービスにより、ワークロードのインフラを管理するための運用コストがほぼゼロになりました。 まとめ 本ブログでは、DeNA が Redshift Serverless と dbt を組み合わせることで、データ品質テストを安全かつ効率的に加速できた事例をご紹介しました。この組み合わせは、DeNA のユースケースだけでなく、さまざまな業界における多様なビジネスユースケースにも適用可能です。 Redshift Serverless と dbt の組み合わせについて詳しくは、以下のリンクを参照ください。 dbt CLI and Amazon Redshift Manage data transformations with dbt in Amazon Redshift Implement data warehousing solution using dbt on Amazon Redshift Best Practices for Leveraging Amazon Redshift and dbt 著者について Momota Sasaki は、DeNA の主要子会社である DeSC ヘルスケア株式会社のエンジニアリングマネージャーです。彼は 2021 年に DeNA に入社し、DeSC ヘルスケア株式会社に出向しました。それ以来、一貫してヘルスケア事業に携わり、データプラットフォームの開発と運用をリードし、推進しています。 Kaito Tawara は、DeNA の主要子会社である DeSC ヘルスケア株式会社のデータエンジニアで、ヘルスケア事業のデータプラットフォームの改善に注力しています。ウェブシステムのバックエンド開発とデータサイエンスの経験を積んだ後、データエンジニアリングに転向しました。2023 年に DeNA に入社し、 DeSC ヘルスケア株式会社に出向しました。現在は名古屋市からリモートで勤務し、ヘデータプラットフォームの強化に貢献しています。 Shota Sato は、AWS Japan のアナリティクススペシャリストソリューションアーキテクトです。デジタルネイティブビジネスを行う顧客向けに AWS を活用したデータ分析ソリューションの提案を行っています。 このブログの翻訳はソリューションアーキテクトの佐藤 祥多が担当しました。
アバター
1 月 7 日、3 つのアベイラビリティーゾーンと API 名 ap-southeast-7 で、AWS アジアパシフィック (タイ) リージョンの一般提供を開始したことをお知らせいたします。 AWS アジアパシフィック (タイ) リージョンは、タイ初のインフラストラクチャリージョンであり、香港、ハイデラバード、ジャカルタ、マレーシア、メルボルン、ムンバイ、大阪、ソウル、シンガポール、シドニー、および東京の既存のリージョン、ならびに中国の北京および寧夏リージョンに加わり、アジアパシフィックで 14 番目のリージョンとなります。 ルンピニ公園は、バンコク中心部にある 142 エーカーに及ぶ最大の緑地の 1 つです。 タイでは、進化するビジネスニーズと Thailand 4.0 などの政府のイニシアティブにより、クラウドコンピューティングの導入が急速に進んでいます。これらのイニシアティブは、新興テクノロジーを利用して、生産性を高め、競争力を強化し、持続可能な成長を推し進めることで、タイをイノベーションドリブンの経済に変革することを目指しています。 この新しい AWS リージョンは、スタートアップ、企業、政府機関、教育機関、非営利団体が、タイ国内にデータレジデンシーを維持しながら、アプリケーションを実行し、エンドユーザーにサービスを提供できるようサポートします。これは、タイのデジタルトランスフォーメーションの目標およびクラウドサービスの需要の高まりに資するものです。今後 15 年間で、Amazon Web Services (AWS) が計画しているタイにおける投資は、タイの国内総生産 (GDP) に 100 億 THB 貢献し、タイの現地企業で年間平均 11,000 人のフルタイム当量 (FTE) の雇用を支えると推定されています。 タイでの AWS の存在感の高まり タイでの当社の取り組みは、2013 年にバンコクに最初の AWS オフィスを開設したことから始まりました。それ以来、AWS はタイ国内でインフラストラクチャとサービスを継続的に拡大してきました。 Amazon CloudFront – 2020 年以降、AWS はタイ全土に 6 つの Amazon CloudFront エッジロケーションを設けました。これらのエッジロケーションは、非常に安全でプログラム可能な AWS コンテンツ配信ネットワーク (CDN) の一部であり、低レイテンシーと高速転送で、世界中のユーザーに対するデータ、動画、アプリケーション、API の配信を加速するように設計されています。 AWS Outposts – 同じ 2020 年に、AWS はタイ市場に AWS Outposts を導入しました。フルマネージドソリューションである AWS Outposts は、AWS インフラストラクチャとサービスをほぼすべてのオンプレミスまたはエッジロケーションで利用できるようにし、真に一貫したハイブリッドエクスペリエンスを実現します。このサービスは、低レイテンシー、ローカルデータ処理、またはローカルデータストレージを必要とするワークロードに特に役立ちます。 AWS Local Zones – 2022 年、AWS はバンコクでの AWS Local Zones の立ち上げを通じて、タイへの取り組みを強化しました。このインフラストラクチャデプロイにより、コンピューティング、ストレージ、データベース、および他の厳選されたサービスが、人口の多い場所、産業、IT センターのより近くで提供されるようになります。その結果、お客様は 1 桁ミリ秒のレイテンシーを必要とするアプリケーションをエンドユーザーに提供できます。 AWS Direct Connect – AWS は、接続オプションを強化するために 2023 年にバンコクに AWS Direct Connect ロケーションを設け、AWS アジアパシフィック (タイ) リージョンの立ち上げに合わせて新しい AWS Direct Connect ロケーションを追加しました。お客様は AWS Direct Connect を利用して、AWS リソースへの安全な専用ネットワーク接続を確立し、ネットワークパフォーマンスを改善するとともに、帯域幅コストを削減できます。 タイにおける AWS のお客様の成功事例 タイの組織は、イノベーションと変革を推進するために弊社のサービスを利用しています。例をいくつかご紹介します。 2C2P タイを拠点とする大手 FinTech スタートアップである 2C2P は、堅牢なセキュリティ機能を理由として AWS を選択しました。東南アジアのオムニチャネル決済サービスプロバイダーである同社は、暗号キー管理のために AWS CloudHSM、分散型サービス拒否 (DDoS) からの保護のために AWS Shield、機密性の高い認証情報を保護するために AWS Secrets Manager を利用して、世界中で何百万もの顧客決済を処理しています。 「AWS を通じて、安全かつ動的に、コンプライアンスに準拠してスケールし、決済取引量の急増に対応できるようになりました。AWS CloudHSM は、コンプライアンス要件を満たし、ビジネスの拡大を加速させる上で重要な役割を果たしています」と 2C2P の Chief Technology Officer である Myo Zaw 氏は述べています。 aCommerce 東南アジア最大級の e コマースイネーブラーである aCommerce は、AWS で生成 AI を活用した機能である AskIQ をリリースし、マーケットインテリジェンスに革命をもたらしました。この Software as a Service (SaaS) プラットフォームは、東南アジア最大級の e コマースサイト全体で、競合他社およびカテゴリについての包括的なパフォーマンス追跡機能を世界有数のブランドに提供します。 aCommerce Group の VP of Data Products である Leena Chanvirach 氏は、AWS とのコラボレーションの戦略的価値を強調しています。「AWS とのコラボレーションにより、クライアントはコアコンピテンシーとビジネス上の優先事項に注力できます。この両方の長所を兼ね備えたアプローチにより、ブランドは社内で高度なデータインフラストラクチャを構築および維持する負担なしに、競争上の優位性を獲得できます」。 Ascend Money 東南アジアの先駆的な FinTech 企業である Ascend Money は、特定のワークロードでアプリケーションパフォーマンスを最大 40% 改善しながら、コンピューティングコストを 70% 削減できました。Ascend Money は、Amazon EC2 インスタンスを使用して高度なコンピューティング戦略を実装し、運用を大幅に改善しました。 「AWS によって当社のパフォーマンスが大幅に改善され、より革新的なサービスをお客様に提供できるようになりました」と Ascend Money の Head of Technical Operations である Peerawit Phuangkaeo 氏は述べています。 ともにクラウドスキルを構築 AWS は、タイでクラウド教育とスキル開発のための包括的なプログラムを構築し、2017 年以降、50,000 人を超える個人にクラウドスキルのトレーニングを提供してきました。プログラムの一部は次のとおりです。 AWS Skill Builder AWS Skill Builder は、AWS のエキスパートから学び、クラウドスキルをオンラインで構築できるオンライン学習センターです。AWS は、600 を超えるコース (タイ語で提供されるコースは 106 あります) を提供することで、タイの学習者がクラウド教育をより利用しやすくしました。最近立ち上げられた Amazon AI Ready イニシアティブにより、特に成長している AI 分野での学習機会がさらに拡大しました。 AWS Educate 2016 年に提供が開始されてから、AWS Educate はタイの教育に変革をもたらしてきました。このプログラムは、タイ全土の教育カリキュラムにクラウドコンピューティングをうまく統合し、AWS リソースへの直接アクセスとハンズオンエクスペリエンスを学生に提供しています。その影響は大きく、20,000 人を超えるタイの学生がこのプログラムに登録しています。学生の教育を超えて、AWS Educate はタイの教育者のトレーニングに投資し、学生がデジタル経済の需要に対応できるようにするための、魅力的かつ実用的なクラウドコンピューティングコースを、これらの教育者が提供できるようにサポートしています。 AWS Academy 2017 年にタイで提供が開始されてから、AWS Academy は、学術的な学習と業界のニーズを結び付ける上で重要な役割を果たしてきました。国内の 30 を超える先駆的な大学やカレッジとの戦略的パートナーシップを通じて、AWS Academy は、クラウドスキルを備えたプロフェッショナルの強力なパイプラインを構築しました。このプログラムは、業界のニーズに合わせた包括的なクラウドコンピューティングカリキュラムを教育機関に提供し、すぐに仕事で用いることのできる実践的なスキルを学生が身につけて卒業できるようにします。 これらのさまざまなイニシアティブとプログラムを通じて、AWS は教育リソースを提供するだけでなく、クラウドテクノロジーを効果的に利用するために必要なスキルをワークフォースに身につけさせるのをサポートすることで、タイのデジタルの未来の基盤を構築しています。 タイにおける持続可能なイノベーションのサポート AWS の持続可能性への取り組みは、環境イニシアティブを推進しているタイの革新的な企業のサポートにも及びます。 BODA Technology &amp; Consultancy AWS を活用した持続可能性のスタートアップである BODA は、エネルギー効率の最適化を実現するために、AWS IoT Core を利用して AI を活用したソリューションを開発しています。同社は、タイ全土の 100,000 を超える建物や工場の運用を成功裏に改善し、コストや環境への影響を抑えながら、これらの施設が効率を最大限に高められるようにしました。 GSPC Group タイの持続可能かつ先駆的な電力会社である GSPC Group を見れば、AWS がエネルギー部門のデジタルトランスフォーメーションをどのようにサポートしているのかを知ることができます。Global Power Synergy Public Company と Glow Energy の合併後、同グループは、太陽光発電所の運用を移行するために AWS クラウドを選びました。AWS および AWS パートナーである Dailitech と連携して、GSPC Group は、クラウドに移行してから、ハードウェア、ソフトウェア、ライセンスのコストを 20~25% 削減できました。 知っておくべきこと タイの AWS コミュニティ – タイには、2 人の AWS ヒーロー、7 人の AWS コミュニティビルダー、17,000 人を超える AWS User Group のメンバーがいます。AWS User Group Thailand への参加にご興味がある場合は、同グループの Facebook ページにアクセスしてください。 AWS のグローバル展開 – AWS は現在、世界中の 35 の地理的地域内の 111 のアベイラビリティーゾーンでサービスを提供しています。当社は、ドイツ、台湾、メキシコ、サウジアラビア王国、ニュージーランドにおいて、さらに 15 のアベイラビリティーゾーンと 5 つの AWS リージョンを追加する計画を発表しました。 新しいアジアパシフィック (タイ) リージョンは、お客様のビジネスをサポートする準備ができています。詳細については、「 AWS グローバルインフラストラクチャ 」のページにアクセスしてください。そして、 ap-southeast-7 で構築を開始しましょう。 構築がうまくいきますように。 –&nbsp; Donnie 原文は こちら です。
アバター
明けましておめでとうございます! 私たちは、テクノロジーがインスピレーションに富む方法で人間の創意工夫を強化するのを目の当たりにしています。今後数年間、好ましい影響をもたらすためにテクノロジーを利用することで、成功についての考え方が再定義されるでしょう。Amazon の CTO であるワーナー ヴォゲルス博士は、2025 年以降について、将来を見据えたテクノロジーに関する 5 つの予測を提示しています: 明日のワークフォースはミッションドリブンである エネルギー効率の新しい時代がイノベーションを推進する テクノロジーが真実の発見に大きな役割を果たす オープンデータが分散型災害対策を推進する 意図駆動型の消費者向けテクノロジーが定着する ワーナー ヴォゲルスの 「Tech Predictions for 2025 and Beyond」eBook をダウンロードするか、またはワーナーの All Things Distributed ブログ を読み、これらのテクノロジーのトレンドが世界をどのように形作り、より革新的かつ効率的で目的のある未来への道を切り拓いているかについて詳しく学んでください。 AWS re:Invent 2025 の動画と re:Caps re:Invent での発表を知りたい場合や、最新の AWS イノベーションについてさらに詳しく知りたい場合は、次のようないくつかのオプションをご利用いただけます: 基調講演、イノベーショントーク、ブレイクアウトセッション をオンデマンドで視聴する。 主要な AWS re:Invent の発表の概要をダウンロードする。 世界中の AWS ユーザーグループ のボランティアが主催する、 実地で開催される無料コミュニティである re:Cap のセッション に参加する。 過去数週間のリリース 2024 年 12 月 16 日の 前回の Weekly Roundup 以降の、年末そして先週からのリリースをいくつか取り上げたいと思います。 Amazon SageMaker JumpStart と Amazon Bedrock で Llama 3.3 70B が利用可能に – Meta の Llama 3.3 70B は、モデルの効率性とパフォーマンスの最適化における大きな進歩を体現しています。Llama 3.3 70B は、テキストのみのアプリケーションのために使用される場合、 Llama 3.1 70B および Llama 3.2 90B と比較してより優れたパフォーマンスを発揮する、テキストのみのインストラクションチューニングモデルです。 Amazon SageMaker JumpStart と Amazon Bedrock の両方でこのモデルを使用できるようになりました。 Amazon Bedrock で Stable Diffusion 3.5 Large が利用可能に – Stability AI が提供する Stable Diffusion 3.5 Large は、 Amazon SageMaker HyperPod でトレーニングされた 81 億のパラメータを備えた、Stable Diffusion ファミリーで最も強力なモデルです。 Amazon Bedrock で Stable Diffusion 3.5 Large を使用して、テキストの説明から質の高い画像を生成できるようになりました。 Apache Flink 用の新しい Amazon Kinesis ソースコネクタ – Apache Flink コミュニティは、AWS オープンソースコントリビューションである AWS サービスコネクタのバージョン 5.0.0 をリリースしました。このリリースでは、以前の Kinesis Consumer に代わる、 Amazon Kinesis Data Streams からデータを読み取るための新しいコネクタである Kinesis Streams Source が導入されています。 Amazon WorkSpaces Personal での AWS Global Accelerator のサポート – Amazon WorkSpaces Personal は、 AWS Global Network とエッジロケーション を通じてストリーミングトラフィックを最適化することで WorkSpaces 接続パフォーマンスを強化するために、 AWS Global Accelerator (AGA) と統合するようになりました。この機能は、WorkSpaces に遠距離で接続するエンドユーザーを抱えるお客様に特に役立ちます。AGA 機能は、WorkSpaces ディレクトリレベルで有効にすることも、 Amazon DCV プロトコル を実行する個々の WorkSpaces のために有効にすることもできます。 AWS Resource Explorer の新しいリソースインサイト – 強化された Resource Explorer エクスペリエンスにより、 サポートされているリソースタイプ のために、複数の AWS サービスからの関連データとインサイトが一元化されます。新しい機能を使用すると、タグの管理、アプリケーションへのリソースの追加、 Amazon Q を使用した、リソースに関する追加情報の取得など、Resource Explorer コンソールから直接リソースに対するアクションを実行できます。 AWS Billing and Cost Management でのカスタム請求ビューの一般提供の開始 – カスタム請求ビュー を使用すると、 AWS 管理アカウント へのアクセスを付与することなく、 AWS Cost Explorer の単一のビューを使用して、複数の AWS アカウントにわたる関連コスト管理データへのアクセスを、アプリケーションおよびビジネスユニットの所有者に提供できます。コスト配分タグまたは特定の AWS アカウントに基づいて、コスト管理データのフィルタリングされたビューを作成できます。 AWS のお知らせの詳細なリストについては、「AWS の最新情報」ページを定期的にご確認ください。 今後の AWS イベント カレンダーを確認して、これらの AWS イベントにサインアップしましょう。 AWS at CES 2025 (1 月 7~10 日) – AWS は、自動車、モビリティ、輸送、製造の各業界向けに特別に構築された最新のクラウドサービスおよびソリューションのいくつかをご紹介します。 Amazon Experience Area に参加して、生成 AI、ソフトウェア定義車両、プロダクトエンジニアリング、サステナビリティ、新たなデジタルカスタマーエクスペリエンス、コネクテッドモビリティ、自動運転などの分野における最新のクラウド機能について学びましょう。 AWS at NRF 2025 (1 月 12~14 日) – Retail’s Big Show で AWS に参加して、生成 AI と最先端のテクノロジーが実際に役立っている様子をご覧ください。革新的なビッグアイデアセッションや厳選された TechTalks を聴き、小売業界の最新のトレンドやテクノロジーなどをご体験ください。 Amazon QuickSight 学習シリーズ – データスキルを強化することで 2025 年をスタートしましょう。1 月のオンライン学習シリーズに参加して、 re:Invent 2024 で発表された Amazon QuickSight の最先端の機能 について学びましょう。 近日開催予定の実地イベントやバーチャルイベントをすべてご覧いただけます。 1 月 6 日週はここまでです。1 月 13 日週の Weekly Roundup もお楽しみに! – Prasad この記事は、 Weekly Roundup シリーズ の一部です。毎週、AWS からの興味深いニュースや発表を簡単にまとめてお知らせします! 原文は こちら です。
アバター
12 月 3 日、最先端インテリジェンスと業界トップクラスの価格パフォーマンスを実現する新世代の最先端 基盤モデル (FM) である Amazon Nova を発表できたことを嬉しく思います。このモデルは Amazon Bedrock でのみご利用いただけます。 Amazon Nova を使用すると、ほとんどすべての 生成 AI タスクのコストとレイテンシーを削減できます。Amazon Nova をベースに構築することで、企業のワークロードに最適化されたさまざまなインテリジェンスクラスから、複雑なドキュメントやビデオの分析、チャートや図の理解、魅力的なビデオコンテンツの生成、高度な AI エージェントの構築を行うことができます。 画像やテキストを処理する必要があるドキュメント処理アプリケーションを開発する場合でも、大規模なマーケティングコンテンツを作成する場合でも、視覚情報を理解して処理できる AI アシスタントを構築する場合でも、Amazon Nova は、理解とクリエイティブコンテンツ生成という 2 つのカテゴリのモデルで必要なインテリジェンスと柔軟性を提供します。 Amazon Nova 理解モデルでは、テキスト、画像、またはビデオの入力を受け付けてテキスト出力を生成します。Amazon クリエイティブコンテンツ生成モデルでは、テキストと画像の入力を受け付けて画像またはビデオ出力を生成します。 理解モデル: テキストとビジュアルインテリジェンス Amazon Nova モデルには、さまざまなニーズを満たすように設計された 3 つの理解モデルが含まれています(4 つ目は近日公開予定)。 Amazon Nova Micro – Amazon Nova シリーズのモデルで最もレイテンシーの低いレスポンスを非常に低コストで提供するテキストのみのモデルです。Amazon Nova Micro は、コンテキストの長さが 128,000 トークンで、速度とコストを重視して最適化されているため、テキストの要約、翻訳、コンテンツの分類、インタラクティブなチャットとブレーンストーミング、単純な数学的推論とコーディングなどのタスクに優れています。Amazon Nova Micro では、精度を向上させるための微調整とモデル蒸留による独自データのカスタマイズもサポートしています。 Amazon Nova Lite – 画像、ビデオ、テキスト入力を高速に処理してテキスト出力を生成する、非常に低コストのマルチモーダルモデルです。Amazon Nova Lite は、お客様とのリアルタイムのやり取り、ドキュメント分析、および視覚的な質問応答タスクを高精度で処理できます。このモデルは、最大 30 万トークンの長さの入力を処理し、1 回のリクエストで複数の画像または最大 30 分のビデオを分析できます。Amazon Nova Lite は、テキストとマルチモーダルの微調整もサポートしており、モデル蒸留などの手法を使用して、ユースケースに最適な品質とコストを実現するように最適化できます。 Amazon Nova Pro – 精度、スピード、コストの最適な組み合わせで、幅広いタスクに対応する高性能マルチモーダルモデルです。Amazon Nova Pro は最大 30 万個の入力トークンを処理でき、複雑なワークフローを完了するために呼び出す API とツールを必要とするマルチモーダルインテリジェンスとエージェントワークフローに新しい標準を打ち立てます。視覚的な質問応答( TextVQA )やビデオ理解( VATEX )などの主要なベンチマークで最先端のパフォーマンスを実現しています。Amazon Nova Pro は、視覚情報とテキスト情報の両方を処理する強力な機能を発揮し、財務書類の分析にも優れています。30 万トークンの入力コンテキストで、15,000 行を超えるコードを含むコードベースを処理できます。Amazon Nova Pro は、Amazon Nova Micro と Lite のカスタムバリアントを抽出するための教師モデルとしても機能します。 Amazon Nova Premier – 複雑な推論タスクや、カスタムモデルの抽出に最適な教師として使用できる、当社の最も高性能なマルチモーダルモデルです。Amazon Nova Premier はまだトレーニング中です。2025 年初頭に発売を開始することを目標としています。 Amazon Nova 理解モデルは、 Retrieval-Augmented Generation (RAG) 、関数呼び出し、およびエージェントアプリケーションに優れています。これは、 Comprehensive RAG Benchmark (CRAG) 評価、 Berkeley Function Calling Leaderboard (BFCL) 、 VisualWebBench 、 Mind2Web の Amazon Nova モデルスコアに反映されています。 Amazon Nova を企業にとって特に強力なものにしているのは、そのカスタマイズ機能です。スーツを仕立てるようなものだと考えてください。高品質のファンデーションから始めて、ニーズに合わせて調整します。テキスト、画像、ビデオを使用してモデルをファインチューニングすることで、業界の用語を理解し、ブランドボイスを理解し、特定のユースケースに合わせて最適化できます。たとえば、法律事務所では、法律用語やドキュメント構造をよりよく理解するために Amazon Nova をカスタマイズする場合があります。 これらのモデルの最新のベンチマークスコアは、 Amazon Nova 製品ページ で確認できます。 クリエイティブなコンテンツ生成: コンセプトに命を吹き込む Amazon Nova モデルには、次の 2 つのクリエイティブコンテンツ生成モデルも含まれています。 Amazon Nova Canvas – インペイント、アウトペイント、背景削除などの豊富な編集機能を含む、スタイルとコンテンツを正確に制御しながらスタジオ品質の画像を生成する最先端の画像生成モデルです。Amazon Nova Canvas は、人間による評価だけでなく、 質問回答によるテキストと画像の忠実度評価 (TIFA) や ImageReward などの主要なベンチマークにも優れています。 Amazon Nova Reel – 最先端のビデオ生成モデルです。Amazon Nova Reel を使用すると、テキストプロンプトや画像を使用して短いビデオを制作したり、視覚スタイルやペースを制御したり、マーケティング、広告、エンターテイメント向けのプロ品質のビデオコンテンツを生成したりできます。Amazon Nova Reel は、ビデオの品質とビデオの一貫性に関する人間による評価において、既存のモデルよりも優れています。 Amazon Nova のすべてのモデルには安全制御が組み込まれており、クリエイティブコンテンツ生成モデルには責任ある AI の使用を促進するためのウォーターマーク機能が含まれています。 いくつかのユースケースで、これらのモデルが実際にどのように機能するかを見てみましょう。 ドキュメント分析に Amazon Nova Pro を使用する ドキュメント分析の機能を実証するために、AWS のドキュメントから PDF 形式の「 生成 AI サービスの選択 」決定ガイドをダウンロードしました。 まず、 Amazon Bedrock コンソール のナビゲーションペインで [ モデルアクセス ] を選択し、新しい Amazon Nova モデルへのアクセスをリクエストします。次に、ナビゲーションペインの [ プレイグラウンド ] セクションで [ チャット/テキスト ] を選択し、 mazon Nova Pro モデルを選択します。チャットでは、意思決定ガイドの PDF をアップロードして、次のことを尋ねます。 このドキュメントの要約を 100 字で書いてください。次に、デシジョンツリーを作成します。 出力は私の指示に従い、読む前にドキュメントを垣間見ることができる構造化されたデシジョンツリーを生成します。 ビデオ分析に Amazon Nova Pro を使用する ビデオ分析を示すために、2つの短いクリップを結合してビデオを作成しました(これについては次のセクションで詳しく説明します)。 今回は、 AWS SDK for Python (Boto3) を使用して Amazon Bedrock Converse API を使用して Amazon Nova Pro モデルを呼び出し、ビデオを分析します。 import boto3 AWS_REGION = "us-east-1" MODEL_ID = "amazon.nova-pro-v1:0" VIDEO_FILE = "the-sea.mp4" bedrock_runtime = boto3.client("bedrock-runtime", region_name=AWS_REGION) with open(VIDEO_FILE, "rb") as f: video = f.read() user_message = "このビデオについて説明します。" messages = [ { "role": "user", "content": [ {"video": {"format": "mp4", "source": {"bytes": video}}}, {"text": user_message} ] } ] response = bedrock_runtime.converse( modelId=MODEL_ID, messages=messages, inferenceConfig={"temperature": 0.0} &nbsp;) response_text = response["output"]["message"]["content"][0]["text"] print(response_text) Amazon Nova Pro は、API を使用してアップロードされたビデオ (前のコードと同様) や、 Amazon Simple Storage Service (Amazon S3) バケットに保存されたビデオを分析できます。 スクリプトでは、ビデオの説明をお願いしています。コマンドラインからスクリプトを実行します。結果は次のとおりです。 ビデオは海の岩だらけの海岸の眺めから始まり、次に砂浜で休んでいる大きな貝殻のクローズアップに移ります。 より詳細なプロンプトを使用して、オブジェクトやテキストなどの特定の情報をビデオから抽出できます。Amazon Nova は現在、ビデオのオーディオを処理していないことに注意してください。 ビデオ作成に Amazon Nova を使用する それでは、Amazon Nova Reel を使用してビデオを作成しましょう。テキストのみのプロンプトから始めて、参照画像を指定します。 ビデオの生成には数分かかるため、Amazon Bedrock API では次の 3 つの新しいオペレーションが導入されました。 StartAsyncInvoke – 非同期呼び出しを開始する GetAsyncInvoke – 特定の非同期呼び出しの現在のステータスを取得する ListAsyncInvokes – ステータスや日付などのオプションフィルタを使用して、すべての非同期呼び出しのステータスを一覧表示する Amazon Nova Reel は、カメラのズームや移動などのカメラコントロールアクションをサポートしています。この Python スクリプトは、次のテキストプロンプトからビデオを作成します。 砂の中の大きな貝殻のクローズアップ。シェルの周りには穏やかな波が流れています。サンセットライト。カメラのズームインが非常に近いです。 最初の呼び出し後、スクリプトはビデオの作成が完了するまで定期的にステータスをチェックします。ランダムシードを渡すと、コードが実行されるたびに異なる結果が得られます。 import random import time import boto3 AWS_REGION = "us-east-1" MODEL_ID = "amazon.nova-reel-v1:0" SLEEP_TIME = 30 S3_DESTINATION_BUCKET = "&lt;BUCKET&gt;" video_prompt = "砂の中の大きな貝殻のクローズアップ。シェルの周りには穏やかな波が流れています。サンセットライト。カメラのズームインが非常に近いです。" bedrock_runtime = boto3.client("bedrock-runtime", region_name=AWS_REGION) model_input = { "taskType": "TEXT_VIDEO", "textToVideoParams": {"text": video_prompt}, "videoGenerationConfig": { "durationSeconds": 6, "fps": 24, "dimension": "1280x720", "seed": random.randint(0, 2147483648) } } invocation = bedrock_runtime.start_async_invoke( modelId=MODEL_ID, modelInput=model_input, outputDataConfig={"s3OutputDataConfig": {"s3Uri": f"s3://{S3_DESTINATION_BUCKET}"}} ) invocation_arn = invocation["invocationArn"] s3_prefix = invocation_arn.split('/')[-1] s3_location = f"s3://{S3_DESTINATION_BUCKET}/{s3_prefix}" print(f"\nS3 URI: {s3_location}") while True: response = bedrock_runtime.get_async_invoke( invocationArn=invocation_arn ) status = response["status"] print(f"Status: {status}") if status != "InProgress": break time.sleep(SLEEP_TIME) if status == "Completed": print(f"\nVideo is ready at {s3_location}/output.mp4") else: print(f"\nVideo generation status: {status}") スクリプトを実行します。 ステータス: 進行中 . . . ステータス: 完了 s3://BUCKET/PREFIX/output.mp4 でビデオの準備ができました 数分後、スクリプトが完了し、 Amazon Simple Storage Service (Amazon S3) の出力場所が出力されます。 AWS コマンドラインインターフェイス (AWS CLI) を使用して出力ビデオをダウンロードします。 aws s3 cp s3://BUCKET/PREFIX/output.mp4 ./output-from-text.mp4 これが出来上がったビデオです。要求に応じて、カメラは被写体を拡大します。 Amazon Nova Reel を参考画像と共に使用する ビデオの作成をより適切に制御できるように、Amazon Nova Reel に次のような参照画像を提供できます。 このスクリプトは、参照画像とテキストプロンプトとカメラアクション( 海岸の風景の上空を飛行するドローンビュー )を使用してビデオを作成します。 import base64 import random import time import boto3 S3_DESTINATION_BUCKET = "&lt;BUCKET&gt;" AWS_REGION = "us-east-1" MODEL_ID = "amazon.nova-reel-v1:0" SLEEP_TIME = 30 input_image_path = "seascape.png" video_prompt = "海岸沿いの風景の上空を飛行するドローンビュー" bedrock_runtime = boto3.client("bedrock-runtime", region_name=AWS_REGION) # 入力画像を Base64 文字列としてロードします。 with open(input_image_path, "rb") as f: input_image_bytes = f.read() input_image_base64 = base64.b64encode(input_image_bytes).decode("utf-8") model_input = { "taskType": "TEXT_VIDEO", "textToVideoParams": { "text": video_prompt, "images": [{ "format": "png", "source": { "bytes": input_image_base64 } }] }, "videoGenerationConfig": { "durationSeconds": 6, "fps": 24, "dimension": "1280x720", "seed": random.randint(0, 2147483648) } } invocation = bedrock_runtime.start_async_invoke( modelId=MODEL_ID, modelInput=model_input, outputDataConfig={"s3OutputDataConfig": {"s3Uri": f"s3://{S3_DESTINATION_BUCKET}"}} ) invocation_arn = invocation["invocationArn"] s3_prefix = invocation_arn.split('/')[-1] s3_location = f"s3://{S3_DESTINATION_BUCKET}/{s3_prefix}" print(f"\nS3 URI: {s3_location}") while True: response = bedrock_runtime.get_async_invoke( invocationArn=invocation_arn ) status = response["status"] print(f"Status: {status}") if status != "InProgress": break time.sleep(SLEEP_TIME) if status == "Completed": print(f"\nVideo is ready at {s3_location}/output.mp4") else: print(f"\nVideo generation status: {status}") 繰り返しますが、AWS CLI を使用して出力をダウンロードします。 aws s3 cp s3://BUCKET/PREFIX/output.mp4 ./output-from-image.mp4 これが出来上がったビデオです。カメラは参照画像から開始し、前方に移動します。 責任ある AI の構築 Amazon Nova モデルは、モデル開発段階を通じてお客様の安全、セキュリティ、信頼に重点を置いて構築されています。これにより、お客様独自のユースケースを実現するための安心感と適切なレベルの制御が可能になります。 包括的な安全機能とコンテンツ管理機能が組み込まれているため、責任を持って AI を使用するために必要な制御が可能になります。生成されたすべての画像およびビデオには、デジタル透かしが含まれています。 Amazon Nova 基盤モデルは、その強化された機能に見合った保護機能を搭載して構築されています。Amazon Nova は、誤った情報、児童の性的虐待資料 (CSAM)、化学的、生物学的、放射線的、または原子力 (CBRN) のリスクの拡散に対抗するために安全対策を拡大しています。 知っておくべきこと Amazon Nova モデルは、米国東部 (バージニア北部) AWS リージョン の Amazon Bedrock でご利用いただけます。Amazon Nova Micro、Lite、Pro は、 クロスリージョン推論 により米国西部 (オレゴン) および米国東部 (オハイオ) リージョンでもご利用いただけます。 Amazon Bedrock では通常どおり、価格設定は従量課金制です。詳細については、 Amazon Bedrock の料金 をご覧ください。 新世代の Amazon Nova 理解モデルはあなたの言語を話します。これらのモデルは 200 以上の言語でコンテンツを理解して生成し、特に英語、ドイツ語、スペイン語、フランス語、イタリア語、日本語、韓国語、アラビア語、簡体字中国語、ロシア語、ヒンディー語、ポルトガル語、オランダ語、トルコ語、ヘブライ語で強力な機能を備えています。つまり、言語の壁を気にしたり、地域ごとに別々のモデルを維持したりすることなく、真にグローバルなアプリケーションを構築できるということです。クリエイティブコンテンツ生成用の Amazon Nova モデルは英語のプロンプトをサポートします。 Amazon Nova を試してみると、ますます複雑になるタスクを処理できることに気付くでしょう。これらのモデルを使用すると、最大 30 万トークンの長いドキュメントを処理したり、1 回のリクエストで複数の画像を分析したり、最大 30 分分のビデオコンテンツを理解したり、自然言語から大規模な画像やビデオを生成したりできます。そのため、これらのモデルは、迅速なカスタマーサービスインタラクションから、企業ドキュメントの詳細な分析や広告、e コマース、ソーシャルメディアアプリケーション用のアセット作成まで、さまざまなビジネスユースケースに適しています。 Amazon Bedrock との統合により、デプロイとスケーリングが簡単になります。 Amazon Bedrock ナレッジベース などの機能を活用して、独自の情報でモデルを強化したり、 Amazon Bedrock エージェント を使用して複雑なワークフローを自動化したり、 Amazon Bedrock Guardrails を実装して責任ある AI の使用を促進したりできます。このプラットフォームは、インタラクティブアプリケーションのリアルタイムストリーミング、大量のワークロードのバッチ処理、およびパフォーマンスの最適化に役立つ詳細な監視をサポートしています。 Amazon Nova で構築を開始する準備はできていますか? 今すぐ Amazon Bedrock コンソール で新しいモデルを試してみて、 Amazon Bedrock ドキュメント の Amazon Nova モデルセクションにアクセスして、 AWS re:Post for Amazon Bedrock にフィードバックを送ってください。 community.aws では、詳しい技術コンテンツを検索し、ビルダーコミュニティが Amazon Bedrock を使用する方法を見出すことができます。これらの新モデルで何を構築するのか教えてください! – Danilo 原文は こちら です。
アバター