TECH PLAY

AWS

AWS の技術ブログ

2973

本稿は、2021 年 12 月 2 日に AWS Developer Tools Blog で公開された “ Increasing development speed with CDK Watch ” を翻訳したものです。 AWS Cloud Development Kit (CDK) の CLI に導入されている操作モード cdk watch 、および cdk deploy のフラグ --hotswap と --no-rollback を紹介します。 cdk watch はコードとアセットの変更を監視し、ファイル変更が検出されるたびに最適な形式のデプロイを自動的に実行することで、開発を効率化できます。これにより、CDK アプリケーションに変更を加えるたびに cdk deploy を実行する必要がなくなります。 cdk watch では --hotswap フラグが使用できる変更の場合は使用され、 AWS CloudFormation でのフルデプロイを行わずにインプレースで更新されます。 AWS Lambda ハンドラーコード、 Amazon ECS コンテナイメージ、 AWS Step Functions ステートマシンなどの CDK アセットでは、CDK CLI が各 AWS サービスの API を使用して直接更新します。それ以外のアセットでは、CloudFormation のフルデプロイが実行されます。また、 --no-rollback フラグを使用することで CloudFormation の更新失敗時にロールバックが行われないようになるため、デプロイ失敗時に再実行するまでの時間を短縮できます。 以下の手順を実行することで、 cdk watch および --hotswap 、 --no-rollback フラグの動きを確認できます。この記事では TypeScript で CDK を使用しますが、 watch は CDK でサポートされているすべての言語で機能します。最初に空の CDK アプリケーションを作成し、TypeScript と Express を使用したシンプルなコンテナアプリケーションを追加します。次に、アプリケーションをデプロイするために必要なインフラストラクチャを作成する CDK スタックを記述します。最後に、 cdk watch を使用してアプリケーションコードに繰り返し変更を加えていきます。 前提条件 AWS アカウントを持っていること ローカルに CDK がインストールされていること セットアップ CDK CLI V2 がインストールされていることを確認してください ( cdk watch は V1 でも動作しますが、この記事ではすべて V2 を使用しています)。まだインストールしていない場合は、 AWS CDK 開発者ガイド の手順を参照してインストールしてください。インストールが正しく行われたことを確認するには、ターミナルで cdk --version コマンドを実行します。次のように出力されれば問題ありません。 ※ 本ブログ記事では、CDK CLI バージョン 2.141.0 で動作確認しています。他のバージョンでは挙動が異なる可能性があるので、ご注意ください。 cdk --version 2.X.X (build XXXXXXX) 最初に、ターミナルで次のコマンドを実行し、TypeScript の CDK アプリケーションを作成します。 mkdir cdk-watch cd cdk-watch cdk init --language=typescript アプリケーションコード cdk-watch ディレクトリ上で、Docker イメージをビルドするために必要なディレクトリとファイルを作成します。 mkdir docker-app 次に、アプリケーションの依存関係を宣言する package.json を作成する必要があります。記載する必要がある依存関係は Express のみです。TypeScript はアプリケーションデプロイ前に JavaScript にコンパイルされるため、依存関係として宣言する必要はありません。 docker-app/package.json のファイルを作成し、次の内容を追加してください。 { "name": "simple-webpage", "version": "1.0.0", "description": "Demo web app running on Amazon ECS", "license": "MIT-0", "dependencies": { "express": "^4.17.1" }, "devDependencies": { "@types/express": "^4.17.13" } } 次に、ウェブページとして表示させるための HTML ファイルを作成する必要があります。 docker-app/index.html のファイルを作成し、次の内容を追加してください。 <!DOCTYPE html> <html lang="en" dir="ltr"> <head> <meta charset="utf-8"> <title>Simple Webpage </title> </head> <body> <div align="center"> <h2>Hello World</h2> <hr width="25%"> </div> </body> </html> 作成した HTML ファイルが、サイトにアクセスした際に表示されるようにするための Express コードを作成します。 docker-app/webpage.ts のファイルを作成し、次のコードを追加してください。 import * as express from 'express'; const app = express(); app.get("/", (req, res) => { res.sendFile(__dirname + "/index.html"); }); app.listen(80, function () { console.log("server started on port 80"); }); 最後に、アプリケーションを起動する Dockerfile を作成します。 docker-app/Dockerfile のファイルを作成し、次のコードを追加してください。 FROM node:alpine RUN mkdir -p /usr/src/www WORKDIR /usr/src/www COPY . . RUN npm install --production-only CMD ["node", "webpage.js"] インフラストラクチャコード 次に、Web ページをホストするインフラストラクチャを定義する CDK スタックを作成します。 aws_ecs_patterns モジュールの ApplicationLoadBalancedFargateService コンストラクトを使用することで、スタックを大幅に単純化できます。 lib/cdk-watch-stack.ts を次の例のように修正してください。 import { Stack, StackProps, aws_ec2 as ec2, aws_ecs as ecs, aws_ecs_patterns as ecs_patterns, } from 'aws-cdk-lib'; import { Construct } from 'constructs'; export class CdkWatchStack extends Stack { constructor(scope: Construct, id: string, props?: StackProps) { super(scope, id, props); const vpc = new ec2.Vpc(this, 'Vpc', { maxAzs: 2, natGateways: 1, }); new ecs_patterns.ApplicationLoadBalancedFargateService(this, 'EcsService', { vpc, taskImageOptions: { image: ecs.ContainerImage.fromAsset('docker-app'), containerPort: 80, }, }); } } cdk.json の build キーで指定されたコマンドは、 cdk watch 実行時を含むすべてのデプロイ時に、synthesis ステップの前に実行されます。今回作成した TypeScript アプリケーションは JavaScript にコンパイルする必要があるので、 cdk.json の "app" キーと同じ階層に以下のコードを追加してください。 "build": "cd docker-app && npm install && tsc", これにより、完全にサーバーレスな Docker アプリケーションが作成されます。これらの変更を行ったら、次のコマンドを実行してください。 yarn install # お好みで "npm install" をお使いください cdk deploy デプロイが完了すると、以下のように出力されるはずです。 Bash ✅ CdkWatchStack Outputs: CdkWatchStack.EcsServiceLoadBalancerDNS6D595ACE = CdkWa-EcsSe-18QPSCKV5G8XP-xxxxxxxxxx.us-east-2.elb.amazonaws.com CdkWatchStack.EcsServiceServiceURLE56F060F = http://CdkWa-EcsSe-18QPSCKV5G8XP-xxxxxxxxxx.us-east-2.elb.amazonaws.com Stack ARN: arn:aws:cloudformation:us-east-2:xxxxxxxxxxxx:stack/CdkWatchStack/1b15db20-428a-11ec-b96f-xxxxxxxxxxxx Outputs セクションの 2 行目に記載されているリンクを開いてください。「Hello World」と書かれたページが表示されるはずです。 アプリケーションコードの変更 アプリケーションをデプロイしたら、 cdk watch を使用して変更を加えていくことができます。ターミナルで cdk watch を実行すると、以下のような出力が表示されます。 'watch' is observing directory '' for changes 'watch' is observing the file 'cdk.context.json' for changes 'watch' is observing directory 'bin' for changes 'watch' is observing directory 'docker-app' for changes 'watch' is observing directory 'lib' for changes 'watch' is observing the file 'bin/cdk-watch.ts' for changes 'watch' is observing the file 'lib/cdk-watch-stack.ts' for changes 'watch' is observing the file 'docker-app/Dockerfile' for changes 'watch' is observing the file 'docker-app/index.html' for changes 'watch' is observing the file 'docker-app/package.json' for changes 'watch' is observing the file 'docker-app/webpage.ts' for changes アプリケーションコードを変更する場合、 cdk watch を使用することでデプロイを高速化できます。以下の変更を index.html に加え、動作を確認してみましょう。 <!DOCTYPE html> <html lang="en" dir="ltr"> <head> <meta charset="utf-8"> <title> Simple Webpage </title> </head> <body> <div align="center"> <h2>Hello World</h2> <hr width="25%"> <p>A paragraph</p> </div> </body> </html> ターミナルを見ると、 cdk watch が変更を検知してデプロイする様子が確認できます。 Detected change to 'docker-app/index.html' (type: change). Triggering 'cdk deploy' ⚠ The --hotswap flag deliberately introduces CloudFormation drift to speed up deployments ⚠ It should only be used for development - never use it for your production Stacks! この警告メッセージは、今回の変更がホットスワップでデプロイされることを意味しています。つまり、このデプロイは更新対象のリソースが提供しているサービス API を直接実行することで行われ、CloudFormation がバイパスされます。このため、CloudFormation テンプレートとデプロイされたアプリケーションコードの間にドリフトが発生します。このようなドリフト発生を回避するため、本番環境では絶対にホットスワップを使用してはいけません。ホットスワップにより高速なデプロイができますが、CloudFormation のように安全にデプロイできる機能ではないため、ホットスワップは高速なコーディング・コンパイル・テストのループを回す必要がある開発環境での使用に最適です。 watch 実行中にホットスワップを無効にしたい場合は、 watch 実行時に --no-hotswap フラグを指定してください。CloudFormation とアプリケーション間のドリフトを完全に取り除く必要がある場合は、 cdk deploy を実行することで CloudFormation フルデプロイが行われます。 cdk watch を実行せずにホットスワップデプロイを行いたい場合は、 cdk deploy --hotswap を実行してください。 デプロイが完了したら、ページを更新してください。Hello World のページが以下のように更新されているはずです。 インフラストラクチャコードの変更 すべてのリソース変更がホットスワップできるわけではありません。Lambda 関数のコード変更、ECS サービスのコンテナ定義変更、Step Functions のステーマシン定義変更などがホットスワップに対応しています。他のリソースに変更が入った場合は、ホットスワップデプロイではなく CloudFormation フルデプロイを行う必要があります。この動作を確認するために、 lib/cdk-watch-stack.ts のコードを以下のように変更してください。 import { Stack, StackProps, aws_ec2 as ec2, aws_ecs as ecs, aws_ecs_patterns as ecs_patterns, } from 'aws-cdk-lib'; import { Construct } from 'constructs'; export class CdkWatchStack extends Stack { constructor(scope: Construct, id: string, props?: StackProps) { super(scope, id, props); // Fargate does not work with default VPCs const vpc = new ec2.Vpc(this, 'Vpc', { maxAzs: 2, // ALB requires 2 AZs natGateways: 2, //changing this property does not trigger a hotswap, and a full deployment occurs instead }); new ecs_patterns.ApplicationLoadBalancedFargateService(this, 'EcsService', { vpc, taskImageOptions: { image: ecs.ContainerImage.fromAsset('docker-app'), containerPort: 80, }, }); } } ターミナルウィンドウを確認してください。アセットの公開が完了すると、次のメッセージが出力されます。 ⚠ The following non-hotswappable changes were found. To reconcile these using CloudFormation, specify --hotswap-fallback logicalID: VpcPrivateSubnet2DefaultRoute060D2087, type: AWS::EC2::Route, rejected changes: NatGatewayId, reason: This resource type is not supported for hotswap deployments これは、ホットスワップデプロイができない変更が含まれていたことを意味しています。通常、アプリケーションのインフラストラクチャに対する変更はホットスワップできませんが、アプリケーションで使用されるアセットに対する変更はホットスワップ可能です。今回行った変更は vpc で使用されている natGateways の数を増やすもので、インフラストラクチャの変更に該当するためホットスワップができません。デフォルトでは、ホットスワップに対応していない変更が入った場合には、 watch はデプロイを行いません。 --hotswap-fallback のフラグを付けることで、ホットスワップに対応していない変更が入った場合に CloudFormation フルデプロイを実行するようフォールバックする動作となります。 ロールバックの無効化 デフォルトでは、 cdk watch は --no-rollback を使用しません。ロールバックを無効化する前に、 cdk watch を実行しているターミナルウィンドウで ^C ( Ctrl + C ) を入力し、その後ターミナルで cdk deploy コマンドを実行してください。 cdk deploy まずは CloudFormation フルデプロイを実行し、前の手順で行った変更を反映させます。これらの変更は CloudFormation によって「置き換えが必要な変更」とみなされ、 --no-rollback フラグがサポートされません。なぜなら、 ApplicationLoadBalancedFargateService を構成するリソースの 1 つに対する削除と作成を必要とするためです。デプロイが完了したら、次のコマンドを実行します。 cdk watch --no-rollback --hotswap-fallback 最初に cdk watch を実行したときと同じ内容が出力されるはずです。実行したら、 lib/cdk-watch-stack.ts を以下のように変更してください。 import { Stack, StackProps, aws_ec2 as ec2, aws_ecs as ecs, aws_ecs_patterns as ecs_patterns, } from 'aws-cdk-lib'; import { Construct } from 'constructs'; export class CdkWatchStack extends Stack { constructor(scope: Construct, id: string, props?: StackProps) { super(scope, id, props); // Fargate does not work with default VPCs const vpc = new ec2.Vpc(this, 'Vpc', { maxAzs: 2, // ALB requires 2 AZs natGateways: 2, }); new ec2.CfnVPC(this, 'mycfnvpc', { cidrBlock: '10.0.0/16', //intentionally incorrect code }); new ecs_patterns.ApplicationLoadBalancedFargateService(this, 'EcsService', { vpc, taskImageOptions: { image: ecs.ContainerImage.fromAsset('docker-app'), containerPort: 80, }, }); } } この変更では、無効な cidrBlock を指定していることに注意してください。今回はインフラストラクチャの変更なのでホットスワップができず、CloudFormation フルデプロイになることが予想されます。 cdk watch が実行されているため、以下のようなエラーメッセージが表示されます。 Could not perform a hotswap deployment, as the stack CdkWatchStack contains non-Asset changes Falling back to doing a full deployment CdkWatchStack: creating CloudFormation changeset... 3:17:02 PM | CREATE_FAILED | AWS::EC2::VPC | mycfnvpc Value (10.0.0/16) for parameter cidrBlock is invalid. This is not a valid CIDR block. (Service: AmazonEC2; Status Code: 400; Error Code: InvalidParameterValue; Request ID: 4b670ce5-32bd-46dd-88de-33765f18d479; Proxy: null) ❌ CdkWatchStack failed: Error: The stack named CdkWatchStack failed to deploy: UPDATE_FAILED (The following resource(s) failed to create: [mycfnvpc]. ) at Object.waitForStackDeploy (/usr/local/lib/node_modules/aws-cdk/lib/api/util/cloudformation.ts:309:11) at processTicksAndRejections (internal/process/task_queues.js:95:5) at prepareAndExecuteChangeSet (/usr/local/lib/node_modules/aws-cdk/lib/api/deploy-stack.ts:337:26) at CdkToolkit.deploy (/usr/local/lib/node_modules/aws-cdk/lib/cdk-toolkit.ts:194:24) at CdkToolkit.invokeDeployFromWatch (/usr/local/lib/node_modules/aws-cdk/lib/cdk-toolkit.ts:594:7) at FSWatcher.<anonymous>(/usr/local/lib/node_modules/aws-cdk/lib/cdk-toolkit.ts:310:9) --no-rollback を指定したことで、CloudFormation によるロールバックは行われませんでした。では以下のように変更し、 cidrBlock を有効な値にしてみましょう。 import { Stack, StackProps, aws_ec2 as ec2, aws_ecs as ecs, aws_ecs_patterns as ecs_patterns, } from 'aws-cdk-lib'; import { Construct } from 'constructs'; export class CdkWatchStack extends Stack { constructor(scope: Construct, id: string, props?: StackProps) { super(scope, id, props); // Fargate does not work with default VPCs const vpc = new ec2.Vpc(this, 'Vpc', { maxAzs: 2, // ALB requires 2 AZs natGateways: 2, }); new ec2.CfnVPC(this, 'mycfnvpc', { cidrBlock: '10.0.0.0/16', //corrected code }); new ecs_patterns.ApplicationLoadBalancedFargateService(this, 'EcsService', { vpc, taskImageOptions: { image: ecs.ContainerImage.fromAsset('docker-app'), containerPort: 80, }, }); } } cdk watch が変更を検知し、以下のようなメッセージを出力して自動的にデプロイが成功するはずです。 Could not perform a hotswap deployment, as the stack CdkWatchStack contains non-Asset changes Falling back to doing a full deployment CdkWatchStack: creating CloudFormation changeset... ✅ CdkWatchStack Outputs: CdkWatchStack.EcsServiceLoadBalancerDNS6D595ACE = CdkWa-EcsSe-T2ZOAGRO8LGP-xxxxxxxxx.us-east-2.elb.amazonaws.com CdkWatchStack.EcsServiceServiceURLE56F060F = http://CdkWa-EcsSe-T2ZOAGRO8LGP-xxxxxxxxx.us-east-2.elb.amazonaws.com Stack ARN: arn:aws:cloudformation:us-east-2:xxxxxxxxxxxx:stack/CdkWatchStack/95d784f0-4d73-11ec-a8b8-xxxxxxxxxxxx クリーンアップ デプロイしたスタックとアプリケーションを削除するには、CDK プロジェクトのルートディレクトリで cdk destroy コマンドを実行してください。 cdk destroy まとめ cdk watch を使用することで、可能な場合はホットスワップにより CloudFormation がバイパスされ、より迅速にスタックの更新を行うことができます。すべてのリソースの変更がホットスワップ可能なわけではありません。ホットスワップデプロイが実行できない場合は、 watch が CloudFormation フルデプロイにフォールバックするフラグ --hotswap-fallback を追加することもできます。ホットスワップによって意図的なドリフトが発生するため、本番環境では使用しないでください。必要に応じて --no-hotswap フラグを追加することで、ホットスワップを無効にすることもできます。 --no-rollback フラグを追加して cdk watch を実行すると、更新失敗時のロールバックが無効になります。ただし、置換タイプの更新では --no-rollback フラグがサポートされておらず、フラグを追加した状態でデプロイしようとするとエラーになるので、ご注意ください。
アバター
Amazon Monitron は産業設備の予知保全を行うためのデバイス、アプリケーションが一体となったエンドトゥエンドのサービスです。このブログでは産業設備予知保全の課題と Amazon Monitron によるソリューション、2024年現在のアップデート、利用方法の学び方、大規模設備への適用方法などをこれまでに公開された資料をもとに紹介します。 この記事を読んでいただきたい読者 生産工場、物流拠点、プラントを操業する企業の方、モーター・ベアリング・ポンプ・ファンなど多くのコンポーネントを持つ設備を稼働し、その保守・点検を改善することに課題を持つ生産部門の方、あるいは自社製の設備や製品の予知保全に関心を持つ方を想定しています。 産業における設備保全の課題 製造工場やプラント、物流倉庫など、産業の現場には、膨大な数の機器が存在します。そして、機器の故障は、生産活動の停止を意味します。これらの産業現場において計画外のダウンタイムはメンテナンスにコストがかかり、生産効率の低下による機会ロスにもつながります。 定期的に交換する消耗品などは、余裕を見て交換のサイクルを短縮すれば良いという考えもあると思います。設備保全において、故障後に交換する事後型、寿命に応じて交換時期を決め、計画的に交換する計画型のアプローチが一般的です。一方で、コストの観点から、可能な限り壊れる直前まで寿命一杯使いたいものです。ただ、使い方によっては想定よりも早く摩耗し、結果として機器の故障に繋がるので交換タイミングを適切に予想する必要があります。これは予測型のアプローチ(予知保全)と言えます。 予測型アプローチでは、継続的なモニタリング、データ分析による予測、必要なタイミングでのアクションが組み合わされています。これにより、設備保全のチームは、実際の機器の状態に基づいて、必要なときにだけ機器を修理することができます。予知保全は主に大規模・高価な装置や工場・プラント全体の監視に多く導入されています。しかしながら、モーター、ファン、ベアリング、ポンプといったコンポーネントには高価なセンサーや複雑な検知システムを導入することが難しく、多くの機器が事後保全や計画保全を中心に運用されている現状があります。 (図: 産業メンテナンス戦略) 産業設備の予知保全サービス Amazon Monitron とは Amazon Monitron は、産業設備の予知保全ソリューションで、アプリケーションからセンサーデバイスまでを一貫して提供します。Amazon Monitron には、振動や温度データを取得するセンサーデバイス、データを AWS クラウドに転送するゲートウェイデバイス、データを ML で異常解析する Amazon Monitron サービス、設備の潜在的な故障を確認するための専用モバイルアプリが含まれています。お客様の保全者は、このアプリを使用して、産業設備の診断や保全計画を立てることができます。 (図: Amazon Monitron による設備予知保全) Amazon Monitron は安価なセンサーと統合されたアプリケーションを組み合わせたサービスで、これまで保全ソリューションの導入が困難だったモーター、ギアボックス、ベアリング、ポンプ、ファン、コンプレッサといった回転部分を有するコンポーネントに予知保全を導入することを目的としています。これらのコンポーネントは単純ですが、工場などの現場には大量に存在し、計画外の稼働停止が発生すると時には工場・プラント全体の操業に影響を与え大きなビジネス損失を生む可能性があります。 Amazon Monitron は小型の Amazon Monitron センサーを対象設備へ貼り付けることで予知保全を実現します。センサーは3軸の振動センサーと温度センサーを持ち、またバッテリーを内蔵することで5年間バッテリー交換や充電の手間なく稼働することが可能です。センサーは電源や通信ケーブルを必要とせずに機器に取り付けることができます。これにより、長年稼働している古い設備やセンサーとの接続手段をもたない機器へ「後付で予知保全」を実現することが可能です。 (図: Amazon Monitron センサー ) Amazon Monitron は Web アプリケーションとスマートフォン用のモバイルアプリケーション( Monitron アプリ)を提供します。 Monitron アプリは利用ユーザー管理、設備(アセット)とMonitron センサーの関連付け、設備毎の状態表示、不具合の通知といった機能を持ち、は AWS の知識がなくても Monitron アプリだけで完結して保全を行うことが可能です。 Monitron アプリでは取り付けたセンサーから送られたデータをグラフ表示し、不具合の可能性を検知した場合にスマートフォンアプリから保守員へ通知します。保守員はアプリの「確認」ボタンをおして設備を「メンテナンス」状態に設定します。「メンテナンス」状態では Monitron アプリは予知保全による通知を一時停止します。 (図: ML と ISOをベースにした分析) 不具合の予兆を知った保守員は現場へ赴き設備の調査を行います。結果、問題があれば交換や調整などの適切な対応を行います。ユーザーは Monitron アプリに「障害モード」「障害の原因」「保守員が実行したアクション」の3項目を入力し対策したことをMonitronへ送信します。その後、Monitron はその設備が正常になったことを認識して予兆検知を再開します。 (図: Amazon Monitron アプリ上での問題の解決) Amazon Monitron デバイスの 日本発売と2023〜2024年の機能アップデート Amazon Monitron デバイス (センサー、ゲートウェイ)は各国の法規に基づき、認定を取得し動作可能な国・地域で販売されています。日本では 2023年8月にAmazon Monitron デバイスが販売開始されました。その後も様々な機能のアップデートが行われています。2023年から2024年までの Amazon Monitron サービスアップデートは AWS ブログ 「 Amazon Monitron (産業設備の異常予兆検知) 2023-2024年アップデートのまとめ 」を御覧ください。 多拠点・大規模な設備群における保全の効率化の課題と取り組み 前述したように Amazon Monitron は産業設備の予知保全に必要な機能を備えていますが、多拠点・大規模な産業設備群の保全には多数の機器状態の効率的な把握や作業員との連携、設備構成管理システムと協調した機器交換計画の管理が必要になる場合があります。例えば、拠点ごとに現在保全が必要な機器数を知り、保全要員のスケジュールを決定したり、過去の保全履歴から不良の原因を分析し、保全マニュアルを改善したり機器交換のタイミングを計画することができます。 現場の保守員の観点では、保全が必要なタイミングで保全の必要性を通知し、作業員のスケジュールを確保し、作業にかかる時間を短縮する仕組みが必要で、これらを実現するには既存の保全管理システムとの連携が必要です。 これらを実現する手段として、Amazon Web Services ブログ「 Amazon Monitron と Amazon Kinesis により予知保全のためのアクションにつながる洞察を得る方法 」 で Amazon Monitron のデータを他サービスと連携する機能「データエクスポート」を使用して、Infor EAM 、 SAP Asset Management 、 IBM Maximo などの Enterprise Asset Management (EAM: エンタープライズ設備管理) システムと連携できること、その実例として、収集したデータを Amazon S3 に蓄積し、 AWS Glue や Amazon Athena といった分析サービスを使うことで大規模運用計画を支援するダッシュボードを構築できることをご紹介していますので御覧ください。 より詳しく知るには この記事では Amazon Monitron の概要を説明し、大規模・多拠点の設備を有する産業に向けた、設備群の不良予兆検知ダッシュボードとその実装構成について、 Amazon Monitron によるソリューションとその活用を紹介しました。 製造業を始めとする産業での AWS 利用について、実際の事例やリファレンスアーキテクチャを知りたい方は、 AWS の製造業に対する取り組み を御覧ください。 今回のデモで用いた各 AWS サービスの詳細はサービスの紹介ページをごらんください。 Amazon Monitron (産業設備の不良予知保全) AWS サービスについてより詳しく学びたい方は、 AWS Black Belt Online セミナーにてサービス毎のオンデマンドセミナー を公開しています。Amazon Monitron は基本編、設定編、サービス連携編の3つのオンデマンドセミナーを提供しています。 Amazon Monitron Part 1 (基本編) Amazon Monitron Part 2 (設定編) Amazon Monitron Part 3 (サービス連携編) 今回のソリューションについて、自社の現場への導入にご興味のある方は、「 AWS に問い合わせする 」からお問い合わせください。 このブログについて このブログの内容は AWS Japan のソリューションアーキテクト 吉川晃平 が執筆しました。
アバター
はじめに このシリーズの前回の記事で、私たちは「 生成 AI のマーケティング戦略への適用: 入門編 」でマーケティング戦略に対する 生成 AI の変革的な影響を検討し、「 From Prompt Engineering to Auto Prompt Optimisation 」で Amazon Bedrock などのサービスを使用してマーケティングコンテンツの作成を強化するプロンプトエンジニアリングの複雑さを掘り下げました。 また、大規模言語モデル (LLMs) を利用して顧客との効果的なエンゲージメントのためのプロンプトを改善する可能性についても探りました。 この記事では更に掘り下げて、 Amazon Bedrock 、 Amazon Personalize 、 Amazon Pinpoint を活用した AI 主導のコンテンツ生成と、コンテンツをパーソナライズして効果的に配信するマーケターポータルを構築する方法を説明します。 目的は、マーケティングコンテンツを効率的に作成、パーソナライズ、配信するシステムを展開するための明確なブループリントを提供することです。 このブログでは、このようなサービスの実用的な活用方法を紹介しながら、展開プロセスを説明します。 ユースケースとデモを通して、AI ドリブンのソリューションでマーケティングにおけるパイプラインを強化する具体例を見ていきます。 マーケティングにおけるコンテンツ生成の課題 多くの企業は、マーケティング業務を効率的に合理化することに難しさを感じています。マーケティング業務の各段階で障害に直面するためです。以下では、パイプラインの主要な 3 つの段階 (コンテンツ生成、コンテンツパーソナライゼーション、コンテンツ配信) における課題を列挙します。 コンテンツ生成 高品質で魅力的なコンテンツを作成することは、現実的に実現することが難しいことがよくあります。企業は、製品だけでなくターゲット層も理解したスキルのある編集者やコンテンツクリエイターに投資する必要があります。適切な人材がいても、そのプロセスは時間がかかり、コストがかかります。さらに、品質を維持し、業界規制に準拠しながら大規模にコンテンツを生成することが、本番環境で生成 AI 技術を採用することを検討している多くの企業の主な障壁となっています。 コンテンツのパーソナライズ コンテンツを作成したら、次の課題はパーソナライゼーションです。デジタル時代の今日、一般的なコンテンツではめったに注目されることはありません。 顧客は、自分のニーズや好み、行動に合わせたコンテンツを期待しています。 しかし、コンテンツをパーソナライズすることは簡単ではありません。 顧客データを深く理解する必要があり、そのようなデータは分散したデータベースに存在することが多いため、顧客の全体像を描くのが難しくなります。 コンテンツの配信 最後に、たとえ魅力的で個人に最適化されたコンテンツでも、適切なユーザーに適切なタイミングで届かなければ効果がありません。 企業は、E メールや SNS、モバイルプッシュ通知など、コンテンツの配信チャネルの選択で苦労することがよくあります。 さらに、コンテンツがさまざまな規制に準拠し、迷惑フォルダに入らないよう配慮する必要もあり、配布フェーズはより複雑になります。 大規模な配信では、到達可能性、セキュリティ、信頼性に注意を払う必要があり、マーケターにとって大きな課題となることがよくあります。 これらの課題に対処することで、企業はマーケティングの運用を大幅に改善し、マーケティング担当者がより効果的に活動できるようになります。しかし、どうすればこれを効率的かつ大規模に実現できるでしょうか? 次のソリューションで説明するように、Amazon Bedrock、Amazon Personalize、Amazon Pinpoint を活用することがその答えとなります。 ソリューションのアプローチ 詳細な実装に入る前に、リンクされた デモ動画 で、最終的な結果を確認しましょう。 ユースケース1: 銀行/金融サービス業界におけるユースケース あなたが架空の企業 AnyCompany Bank の消費者金融部門で勤務するリレーションシップマネージャーと仮定します。特定のグループの顧客が割り当てられており、そのグループのすべてのメンバーに対して、希望のチャネルで個人に合わせたターゲティングされたコミュニケーションメッセージを送信したいと考えています。 この裏の仕組みとして、マーケターは Amazon Pinpoint を利用してターゲットにしたい顧客層のセグメントを作成しています。その顧客情報とマーケターの指示は、 Amazon Bedrock に送られ、マーケティングコンテンツが生成されます。そのコンテンツは Amazon Pinpoint を使って SMS とE メールで顧客に送信されます。 Prompt Iterator  ページでは、「プロンプトエンジニアリング」と呼ばれるプロセスを利用して、プロンプトを最適化し、マーケティングキャンペーンの効果を最大化することができます。プロンプトエンジニアリングの手順と、自動プロンプト生成に別の LLM モデルを適用する方法については、 こちらのブログ を参照してください。はじめに、このページでプロンプトエンジニアリングプロセスを経たサンプルの銀行業向けプロンプトをコピーしてみてください。 次に、.csv ファイルをアップロードして顧客グループをインポートする方法 (セグメントのインポート) か、Amazon Pinpoint を使って事前に定義された条件に基づいて現在の顧客データベースから顧客グループを指定する方法のいずれかを選択できます。 例: スクリーンショットには ManagementOrRetired という名前の、管理職または退職者のみを対象とするフィルターされたセグメントのサンプルが表示されています。 作業が完了したら、マーケターポータルにログインして、Amazon Pinpoint コンソール内で作成した関連セグメントを選択できます。 次に、Amazon Pinpoint のカスタマーデータベースに保管されているお客様情報をプレビューで確認きます。内容を確認できたら、お客様向けのコンテンツを生成する準備が整います。 1:1 Content Generator タブをクリックすると、最初のお客様向けのコンテンツが自動的に生成されます。ここでは、お客様を 1 人ずつサイクルさせ、そのお客様の希望言語とチャネルに応じて、希望言語のメールまたは SMS が自動的に生成されます。 例: 英語で生成された SMS 例: プロンプトエンジニアリングが適切に機能して、否定的なコンテンツを生成していることを示す例です。マーケティングコンテンツジェネレーターが出力するのに適さないデータを挿入しようとした場合、こういった状況になります。この例では、分割払い方式の融資の広告を 6 歳児に対して出力することを拒否しています。 最後に、「Send with Amazon Pinpoint」をクリックすると、生成したコンテンツが Amazon Pinpoint で送信されます。バックエンドでは、Amazon Pinpoint が適切なチャネルを通じてメール / SMS の送信を調整します。 もし自動生成されたコンテンツがまだ要件を満たさない場合は、 再試行 することができます。 ユースケース2: 旅行と宿泊業でのユースケース ある航空会社のオンライン航空券代理店の営業マネージャーとして仕事をしていると仮定します。シンガポールから香港までのフライトを、プロモーションする課題を任されました。まずこの区間のフライトに適した顧客を特定し、ハイパーパーソナライズされたメッセージを送る必要があります。 この裏の仕組みとして、 Amazon Pinpoint を使って手動でセグメントを定義するのではなく、今回のマーケティング担当者は Amazon Personalize の AI/ML 機能を活用して、特定の航空便を推奨するための最適な顧客グループを定義しています。上記のユースケースと同様に、顧客情報と LLM プロンプトが Amazon Bedrock に入力され、最終的に Amazon Pinpoint を通じて送信されるマーケティングコンテンツが生成されます。 上記のユースケースと同様に、LLM モデルが生成するコンテンツが関連性があり、使用する上で安全であることを確認するため、プロンプトエンジニアリングのプロセスを経る必要があります。すばやく始めるには、 Prompt Iterator ページに移動し、 サンプルの航空会社のプロンプト を使って、それをベースに試行錯誤することができます。 あなたの会社は多くの異なる航空便を、さまざまな航空会社から集約して提供しています。まず、左側の フィルター を使って、推奨したい航空便を絞り込みます。この例では、シンガポール (SRCCity) を出発地とし、香港 (DSTCity) を目的地とする、AnyCompany が運航する便をフィルタリングしています。 次に、生成したいお客様の数を選択し、バッチセグメント化のジョブを開始するよう選択します。 バックグラウンドで、Amazon Personalize は過去の同様の航空券の予約履歴から、この便に関心が高そうなお客様のグループを生成します。 セグメント化ジョブが完了したら、推奨されたお客様グループを取得し、最初のユースケースと同様にすぐにコンテンツ生成を開始できます。 セットアップの手順 セットアップ手順とデプロイの詳細は、リンクの GitHub で確認できます。 まとめ このブログでは、Amazon Bedrock、Amazon Personalize、Amazon Pinpoint を統合することで、マーケティング運用における一般的な課題に対処できる可能性を見ていきました。 Amazon Bedrock でコンテンツ生成を自動化し、Amazon Personalize でパーソナライズをスケールし、Amazon Pinpoint で正確なコンテンツ配布を確実にすることで、企業はマーケティングプロセスを効率化するだけでなく、顧客体験も向上できます。 明確なメリット: 自動化による時間の節約、オペレーション効率の向上、パーソナライズされた顧客体験による顧客満足度の向上です。この統合ソリューションにより、マーケターは戦略と創造性に集中できるようになり、手間がかかる部分は AWS の堅牢な AI と ML サービスに任せられます。 次のステップに進む準備ができた方に、このソリューションを実装するための包括的なガイドとリソースを用意しています。 セットアップ手順に従い、提供されたプロンプトを起点として活用することで、このソリューションをデプロイし、マーケターポータルをビジネスのニーズに合わせてカスタマイズし始めることができます。 今後の展開 コンテンツの生成、パーソナライゼーション、配信の課題にとらわれるのではなく、マーケティングの可能性を最大化してください。今すぐ Generative AI Marketer Portal をデプロイし、ニーズに合わせてカスタマイズした上で、マーケティング業務の変革を体験しましょう。ハンズオンで始めるには、詳しい手順を確認できる GitHub リポジトリ をご覧ください。 著者について Tristan (Tri) Nguyen Tristan (Tri) Nguyen は、AWS のシニア・スペシャリスト・ソリューション・アーキテクトです。データサイエンス、マーテック、カスタマーデータプラットフォームの深い専門知識を持ち、機械学習と生成 AIの活用を専門とし、アジア太平洋地域の顧客のためにスケーラブルな顧客エンゲージメント戦略とアーキテクチャソリューションを構築している。ジョージア工科大学でコンピュータサイエンスの修士号を取得し、AWS テクノロジーに関する豊富な実務経験を有し、12 の AWS 認定資格をすべて取得している。余暇にはトライアスロン、大きな山でのハイキング、大きな岩でのクライミングを楽しんでいます。 Philipp Kaindl Philipp Kaindl は AWSのシニア人工知能・機械学習ソリューションアーキテクトでデータサイエンスと機械工学のバックグラウンドを持ちます。 データサイエンスと機械工学のバックグラウンドを持つ彼は、AI の助けを借りて顧客が永続的なビジネスインパクトを生み出せるようにすることにフォーカスしています。仕事以外では、3D プリンターいじり、セーリング、ハイキングを楽しんでいます。 Bruno Giorgini Bruno Giorgini は、Pinpointと SES を専門とするシニア・ソリューション・アーキテクトです。IT 業界で20年以上の経験を持つブルーノは、あらゆる規模の顧客の目標達成を支援することに専念してきました。顧客のために革新的なソリューションを構築していないときは、妻と息子と一緒にSFベイエリア周辺の風光明媚なハイキングコースを散策し、充実した時間を過ごしています。 この記事は、 Building a generative AI marketing portal on AWS を翻訳したものです。 翻訳は Solution Architect の 中村 達也 が担当しました。
アバター
このブログは一連のブログ記事の一部です。以下もご覧ください。 AWS のサービスとマイクロサービスアーキテクチャを使用して 生成 AI マーケティングポータルを構築する方法の実践的な解説については、以下のリンクを参照してください。   AWSで構築する生成 AI マーケティングポータル はじめに 人工知能 (AI) は疑いなく多くの業界を形作り、21 世紀における最も変革的な技術の 1 つになると期待されています。その中には、マーケティングの分野があり、生成 AI の適用は新しいマーケティング手法をもたらすと期待されています。このブログ記事では、生成 AI がマーケティング戦略をどのように革新できるかを探り、革新的なソリューションと活用機会を提示します。 Harvard Business Review  によると、顧客ニーズの理解、製品やサービスとのマッチング、購買への説得など、マーケティングの中核的な活動は AI によって飛躍的に向上できるとされています。 2018 年のマッキンセー社による 400 以上の高度な利用事例の分析 では、マーケティングが AI によって最も大きな価値をもたらす分野であることが示されました。 AI を活用するメリットは、プロセスの自動化や効率化だけでなく、顧客に合わせてパーソナライズ化されたコンテンツを提供することです。マーケターの対象を適切な消費者層に絞り込み、消費者の行動を予測し、パーソナライズされた顧客体験を提供する能力を高めることができます。 AI を使うことで、マーケターは大量のデータを処理・解釈して実践的な洞察や戦略に変換することができ、企業と顧客のインタラクション方法を再定義することができます。 また、コンテンツを生成することはあくまでも一部でしかありません。AI が生成した最適なコンテンツだとしでも、適切なタイミングで対象の顧客に届かなければ役に立ちません。顧客に意図した行動を起こしてもらうために、適切なタイミングでコミュニケーションをし、自動化されたパイプラインに統合していくことも重要です。 Amazon Web Services (AWS) は、マーケティング戦略に生成 AI を実装するための強力なプラットフォームを提供します。AWS は、コンテンツ作成からカスタマーセグメンテーション、パーソナライズされたレコメンデーションまで、さまざまなマーケティングユースケースに適用できる AI と機械学習サービスを提供しています。カスタマーコンテンツを提供し、他のジェネレーティブ AI サービスと簡単に統合できる 2 つのサービスが  Amazon Pinpoint  と  Amazon Simple Email Service です。マーケターは、生成 AI を Amazon Pinpoint と Amazon SES に統合することで、顧客向けのパーソナライズされたメッセージを自動作成でき、キャンペーンの効果を高められます。この組み合わせにより、AI 駆動のコンテンツ生成と、ターゲットを絞ったデータ主導の顧客エンゲージメントを効果的に統合させることができます。 この記事をさらに見ていくと、生成 AI の仕組み、メリット、およびマーケティングコミュニケーションへの生成 AI 統合を AWS サービスがどのように促進できるかを確認できます。 生成 AI とは 生成 AI は、機械学習の手法を利用して、トレーニングデータに類似した新しいデータインスタンスを生成する、人工知能のサブセットです。入力データの基本的なパターンと構造を学習し、その理解を活かして、新しい類似のデータを生成します。この処理は、 Generative Adversarial Networks (GANs) や  Variational Autoencoders (VAEs) 、 Transformer models などのモデルを使用して実現されます。 バズワードである生成 AI の意味 AI の世界ではバズワードがよく出てきます。 「ディープラーニング」「ニューラルネットワーク」「機械学習」「生成 AI」「大規模言語モデル」などの用語は、しばしば入り混じって使われていますが、それぞれに明確な意味があります。 これらの用語を理解することは、さまざまな AI 技術の能力と限界を理解する上で重要です。 機械学習 (ML)   : AI のサブセットで、コンピュータがデータから学習し、データに基づいて意思決定や予測を行うアルゴリズムの開発を含みます。 これらのアルゴリズムは、データセットで「学習」させた後、新しいデータを予測したり分類したりするために使用できます。 機械学習モデルは、教師あり学習、教師なし学習、半教師あり学習、強化学習に大別できます。 ディープラーニング:  多層 (「ディープ」の意味) の神経回路網を用いて複雑なパターンをモデル化して理解する機械学習の一種です。 これらのニューロン層が異なる特徴を処理し、その出力を組み合わせて最終結果が生成されます。 ディープラーニングモデルは大量のデータを扱うことができ、特に画像、音声、テキストの処理に優れています。 生成 AI:  ソフトウェアが学習したデータを真似た新しいデータを生成できる AI モデルを指します。Generative Adversarial Networks (GAN) や Variational Autoencoders (VAE) などのモデルを使うことで、このような機能が実現されます。生成 AI は、文章、視覚的なデザイン、音楽などあらゆるコンテンツを生成できるため、マーケターにとって力強い武器となります。 大規模言語モデル (LLM): 大量のテキストデータで学習した生成 AI の一種で、人間に近い文章を生成できます。 これらのモデルは、文章内で使用された以前の単語を基に次の単語の出現確率を予測します。 文章の補完、翻訳、要約などのアプリケーションで特に役立ちます。 LLM は生成 AI の一種ですが、特にテキストデータを扱うために設計されています。簡単に言えば、大規模言語モデル (Large Language Model) は生成 AI (Generative AI) のサブセットであり、機械学習のさらにサブセットに当たります。そして、最終的には人工知能 (Artificial Intelligence) という包括的な用語に含まれるということです。 生成 AI とマーケティングの問題点 生成 AI はマーケティング戦略を大きく変革する可能性を秘めていますが、コンテンツ生成やカスタマーエンゲージメントに関しては、その制限と潜在的な落とし穴に気を付ける必要があります。 マーケターが認識すべき一般的な課題は以下のとおりです。 生成 AI におけるバイアス:  生成 AI モデルは、学習させたデータから出力します。学習データにバイアスがあれば、AI モデルはその 出力 にバイアスを再現する可能性があります。 例えば、モデルが特定の人口統計的グループのデータを中心に学習していた場合、他の人口統計を正確に表現できず、マーケティングキャンペーンが効果的でないか、不快なものになる可能性があります。 女性をターゲットにしたキャンペーン用の画像を生成しようとしても、生成 AI モデルが医師や弁護士、裁判官といった職業の女性を生成できない場合、そのキャンペーンにはバイアスとインクルーシブさが欠けてしまう可能性があります。 文化的ニュアンスの鈍感さ:  生成 AI モデルは、文化的ニュアンスや繊細なトピックを完全に理解できない可能性があり、それが不適切または有害な内容につながる恐れがあります。たとえば、グローバルブランドの社会メディア投稿を作成する際に利用された生成 AI モデルが、 特定の文化や地域コミュニティから見て配慮に欠けた内容または攻撃的な内容 を誤って生成してしまう可能性があります。 不適切または攻撃的なコンテンツが生成される可能性:  生成 AI モデルは時折、不適切または攻撃的なコンテンツを生成することがあります。 これは、モデルがある単語やフレーズを使うべきコンテキストを完全に理解できていないためです。 コンテンツを公開する前に レビューおよび承認を行う セーフガードを設ける必要があります。 大規模言語モデル (LLM) の一般的な問題として、 ハルシネーション (幻視) があります。つまり、正確であるかのように虚構の知識を語るというものです。例えば、マーケティングチームが、承認されていない 20 % 割引 のプロモーションコンテンツを誤って公開してしまう可能性があります。 セーフガードがなければ、顧客からの信頼を損なうような深刻な影響を与える可能性もあります。 知的財産と法的問題:  生成 AI モデルは画像、音楽、動画、テキストなどの新しいコンテンツを生成できますが、これにより所有権や 潜在的な著作権侵害 の問題が生じます。 比較的新しい分野であるため、生成 AI の利用にまつわる法的な影響について、生成されたコンテンツの所有権や著作権侵害などをめぐって議論が行われています。 人間の創造性に取って代わるものではない:  最後に、生成型 AI はマーケティングキャンペーンの一部を自動化できるものの、マーケターが魅力的なキャンペーンを作る際に用いる創造性や感情的なつながりに取って代わるものではありません。 最も成功したマーケティングキャンペーンは、顧客の心に訴えかけますが、生成 AI は人が作成したコンテンツを模倣する能力は非常に高いものの、その「人間らしさ」を完全に再現するところまでは至っていません。 結論として、生成 AI はマーケティングに魅力的な可能性を提供しますが、その限界と潜在的な落とし穴を明確に理解した上で利用することが重要です。そうすることで、マーケターは生成 AI の利点を活用しつつ、リスクを軽減できます。 マーケティングコミュニケーションにおける生成 AI の活用方法 Amazon Web Services (AWS) は、マーケティングでの生成 AI の利用を促進するための包括的なサービス群を提供しています。 これらのサービスは、データ処理、ストレージ、機械学習、分析といった様々な作業を処理できるよう設計されており、マーケターが生成 AI 技術の導入と利活用を容易にします。 関連する AWS サービスの概要 AWS には、マーケティングにおける生成 AI に特に関連する複数のサービスがあります。 Amazon Bedrock : このサービスでは、API 経由で 基盤モデル(FM) にアクセスできます。Bedrock は、Amazon の Titan FM を含むテキストと画像の強力な FM の範囲にアクセスする機能があります。Bedrock のサーバーレス体験により、顧客は行おうとしていることに適した正しいモデルを簡単に見つけ、すばやく開始し、独自のデータで FM をプライベートにカスタマイズし、馴染みのある AWS ツールと機能を使って簡単に統合およびデプロイできます。 Amazon Titan Models:  これらは、AWS が発表する 2 つの新しい大規模言語モデル (LLM) です。1 つ目は、要約、テキスト生成、分類、オープンエンドの Q&A、情報抽出などのタスクに使用される生成 LLM です。2 つ目は、テキスト入力をテキストの意味的な意味を含む数値表現 (埋め込み) に変換する埋め込み LLM です。上記で述べた生成 AI のハルシネーションと不正確な情報の問題に対処するため、 AWS は Titan モデルの精度を改善し、高品質の応答を生成することに積極的に取り組んでいる と、AWS バイスプレジデントの Bratin Saha は述べています。 Amazon SageMaker : フルマネージドサービスとして、データサイエンティストと開発者は機械学習モデルを迅速に構築、トレーニング、デプロイできます。SageMaker には、Generative Adversarial Networks (GAN) やVariational Autoencoders (VAE) など、生成 AI に使用できるモジュールが含まれています。 Amazon Pinpoint :  柔軟でスケーラブルなインバウンド・アウトバウンドのマーケティングコミュニケーションサービスとして、企業は複数のメッセージングチャネルを介して顧客に関与できます。Amazon Pinpoint は、ビジネスに合わせてスケーリングできるよう設計されており、短時間で大量のユーザーにメッセージを送信できます。AWS の生成 AI サービスと統合されており、パーソナライズされた AI 主導のマーケティングキャンペーンを実現できます。 Amazon Simple Email Service (SES) :  コスト効率の高い柔軟でスケーラブルな電子メールサービスとして、マーケターは取引メール、マーケティングメッセージ、その他の高品質コンテンツを顧客に送信できます。SES は他の AWS サービスと統合されているため、Amazon EC2 などのサービスでホストされているアプリケーションから電子メールを簡単に送信できます。SES は Amazon Pinpoint とも完全に連携しており、ユーザーアクティビティとエンゲージメントを促進する顧客エンゲージメントコミュニケーションを作成できます。 マーケティングコミュニケーションにおける生成 AI の構築方法 ダイナミックなオーディエンスのターゲティングとセグメント化:  生成 AI は、マーケターがオーディエンスをダイナミックにターゲティングしてセグメント化することをサポートできます。顧客データと行動を分析すれば、パターンやトレンドを特定でき、それを使ってよりターゲットを絞ったマーケティングキャンペーンを作成できます。Amazon SageMaker や Amazon Bedrock、Amazon Titan Models を使えば、生成 AI は非構造化データに基づいて顧客にラベルを付けることができます。 McKinsey によると、生成 AI はデータを分析して消費者の行動パターンを特定し、マーケターによる訴求力のあるコンテンツの作成を支援できます。 パーソナライズされたマーケティング: 生成 AI は、マーケティングコンテンツの作成を自動化する際に使えます。ブログ、ソーシャルメディアの投稿、メールのためのテキストを生成したり、画像やビデオを作成することができます。これによりマーケターの時間と労力を大幅に節約でき、マーケティング戦略の他の側面に集中することができます。非常に優れている点は、マーケティングコンテンツの制作を実用化できる能力であり、異なる顧客セグメントに合わせて複数のコピーを作成する必要性を、マーケターが減らすことができます。以前は、マーケターはそれぞれの顧客の特性ごとに多数のコンテンツを生成する必要がありました (25~34 歳で食べ物が好きなロイヤリティの低い顧客、など)。生成 AI はこのプロセスを自動化し、これらのコンテンツをプログラムで動的に作成し、Amazon Pinpoint や Amazon SES を通じて最も関連性の高いセグメントに自動的に送信する機会を提供します。 マーケティングの自動化:  生成 AI は、E メールマーケティング、ソーシャルメディアマーケティング、検索エンジンマーケティングなど、さまざまなマーケティングを自動化できます。これは、マーケティングコンテンツの作成と配布の自動化、およびマーケティングキャンペーンのパフォーマンスの分析が含まれます。Amazon Pinpoint は現在、カスタマイズされた多段階の体験である「ジャーニー」を使用してカスタマーコミュニケーションを自動化しています。生成 AI は、顧客の参加データ、参加パラメータ、プロンプトに基づいて Pinpoint ジャーニーを作成できます。これにより、生成 AI がコンテンツをパーソナライズするだけでなく、一定期間にわたってオムニチャネル体験をパーソナライズできるようになります。そうすれば、生成 AI によってジャーニーを動的に作成し、その場で A/B テストを行って最適化し、事前定義された主要業績評価指標(KPI)を実現することが可能になります。 マーケティングコミュニケーションにおける生成 AI の利用例 AWS のサービス同士は連携しやすく設計されているので、マーケティング戦略に生成 AI を実装することが簡単に実現できます。 たとえば、Amazon SageMaker を使えばマーケティングコンテンツの自動作成をサポートする生成 AI モデルを構築して学習できます。 そして、Amazon Pinpoint や Amazon SES を使えば、そのコンテンツを顧客に配信できます。 AWS を利用している企業は、理論上、既存のワークロードに生成 AI 機能を追加できるため、マイグレーションの必要はありません。次のリファレンスアーキテクチャは、サンプルのユースケースとして AWS クラウドで構築したカスタマージャーニーに生成 AI を統合する方法を示しています。例えば、E コマース企業は、毎日多くの苦情メールを受け取る可能性があるとします。その場合、企業は顧客を獲得するために多額の費用をかけているため、そのネガティブな状態をプラスの体験に変える方法を考えることが重要です。 Amazon SES で受信したメールのコンテンツを、GAN を使って生成 AI モデルに渡すことで、 感情分析に役立てられます。 Amazon Science が発表した論文  では、データ不足が問題となる場合に、GAN を用いて感情分析を実行しています。 あるいは、この段階で Amazon Comprehend を使用し、2 つのモデルの A/B テストを実行することもできます。Amazon Comprehend では、ビジネスニーズに合わせてモデルをカスタマイズする機能は限定されています。 メールの感情判定が完了すると、感情イベントが Pinpoint にログに記録されます 自動的な離反防止のジャーニーがトリガーされます。 生成 AI (たとえば HuggingFace の Bloom テキスト生成モデル ) は、マーケターの入力を待つ必要なく動的にコンテンツを作成できるため、ここでもう一度利用できます。マーケターは顧客の細かい属性 (例: 食べ物が好きで年齢が 25 〜 34 歳の離反しつつある顧客など) ごとに多数のコピーを作成する必要がありますが、生成 AI はこれらの入力データに基づいて、その場で動的にコンテンツを作成することができます。  キャンペーンコンテンツが生成されると、モデルはテンプレートを Amazon Pinpoint に送ります。 カスタマイズされたコンテンツがお客様に送信されます。 この結果、別の顧客の離脱を防ぐことができます。 まとめ 生成 AI の領域は非常に広範囲で絶えず進化を続けており、マーケターがよりパーソナライズされた魅力的なコンテンツを提供し、戦略を強化する機会を豊富に提供しています。 AWS はこの領域で中心的な役割を果たし、マーケティングにおける生成 AI の実装を容易にするサービスを包括的に提供しています。 Amazon SageMaker を使った AI モデルを構築・トレーニングから、Amazon Pinpoint や Amazon SES を使ったパーソナライズされたメッセージの配信まで、AWS は生成 AI の力を活用するために必要なツールとインフラストラクチャを提供しています。 マーケターとの関係における生成 AI の可能性は計り知れません。生成 AI により、コンテンツ作成の自動化、顧客のインタラクションからのパーソナライズ、データからの貴重な洞察を得るなどが可能になります。 しかし、生成 AI がマーケティングの特定の側面を自動化できる一方で、人間の創造力と直観に代わるものではないことを忘れないことが重要です。 生成 AI は、人間の能力を補助し、マーケターが戦略と創造的方向性に専念するための時間を確保するツールとして捉えるべきです。 マーケティングコミュニケーションにおける生成 AI の利用を開始しましょう 生成 AI とマーケティングにおける活用方法の検討を終えるにあたり、次のことをお勧めします。 自社のビジネスにおける生成 AI の潜在的な利用事例を検討してみましょう。 生成 AI を活用してマーケティング戦略を強化する方法を考えてみてください。これには、コンテンツ作成の自動化、顧客とのやり取りのパーソナライズ、またはデータからの洞察の導出が含まれる可能性があります。 今日からAWSで生成 AI をマーケティング戦略に活用し始めましょう。 AWS は、マーケティング戦略に生成 AI を簡単に実装できる包括的なサービスセットを提供しています。これらのサービスをワークフローに統合することで、パーソナライズを強化し、顧客エンゲージメントを改善し、キャンペーンからより良い結果を得ることができます。 このシリーズの 2 つ目のブログをチェックしてください 。マーケティングアプリケーションに生成 AI を組み込むためのAmazon Bedrock の実践的な使用例については、2つ目のブログ「 AWSで構築する生成 AI マーケティングポータル 」をご覧ください。 生成 AI の世界へのジャーニーは、これからが始まりです。技術が進化し続けるにつれ、マーケターが AI を活用して戦略を強化し、よりパーソナライズされたエンゲージングなコンテンツを提供する機会も進化し続けるでしょう。この興味深い領域をさらに探求することを楽しみにしています。 著者について Tristan (Tri) Nguyen Tristan (Tri) Nguyen は、AWS のシニア・スペシャリスト・ソリューション・アーキテクトです。データサイエンス、マーテック、カスタマーデータプラットフォームの深い専門知識を持ち、機械学習と生成AIの活用を専門とし、アジア太平洋地域の顧客のためにスケーラブルな顧客エンゲージメント戦略とアーキテクチャソリューションを構築してます。ジョージア工科大学でコンピュータサイエンスの修士号を取得し、AWS テクノロジーに関する豊富な実務経験を有し、12 の AWS 認定資格をすべて取得しています。余暇にはトライアスロン、大きな山でのハイキング、大きな岩でのクライミングを楽しんでいます。 この記事は、 Building Generative AI into Marketing Strategies: A Primer を翻訳したものです。 翻訳は Solution Architect の 中村 達也 が担当しました。
アバター
6月3日週の AWS Weekly Roundup で、 Channy は、人生には浮き沈みがあることを私たちに思い出させてくれました。人生とはそういうものです。しかし、だからといって一人で頑張らなければならないというわけではありません。AWS コミュニティビルダーである Farouq Mousa 氏 は 脳腫瘍と闘っています 。また、AWS サーバーレスヒーローである Allen Helton 氏 の娘は 白血病と闘っています 。 お時間があれば、ぜひふたりのキャンペーンページにアクセスして、サポートをお願いいたします。 一方、私たちは インド 、 韓国 、そして タイ でいくつかの AWS Summit を終えたところです。いつものように、Developer Lounge で AWS ヒーロー、AWS コミュニティビルダー、AWS ユーザーグループのリーダーたちと一緒に仕事をするのはとても楽しかったです。共有してもらった写真をご紹介します。 6月3日週のリリース 6月3日週のリリースのうち、私が注目したいくつかのリリースをご紹介します。 新しい AWS ヒーローの皆さん、ようこそ! – 6月3日週、知識を共有し、コミュニティを強化するために全力を尽くす世界中の AWS エキスパートのグループである新しい AWS ヒーロー の方々をご紹介しました。 Amazon API Gateway の統合タイムアウト制限の引き上げ – Amazon API Gateway でリージョンレベルの REST API とプライベート REST API を使用しているお客様は、統合タイムアウト制限を 29 秒よりも長くできるようになりました。これにより、より長いタイムアウトを必要とするさまざまなワークロードを実行できます。 Amazon Q がコマンドラインでインライン補完を提供 – ユーザーがコマンドラインに入力すると、Amazon Q Developer はリアルタイムで AI 生成のコード候補を提供します。コマンドラインインターフェイス (CLI) を頻繁に使用するユーザーとして、これは本当にうれしいことです。 AWS Audit Manager の新しい共通コントロールライブラリ – この発表により、エンタープライズコントロールを AWS Audit Manager にマッピングする際の時間を節約できます。Danilo の記事では、新しい共通コントロールライブラリを使用してリスクとコンプライアンスの評価を簡素化する方法が詳しく記載されています。 Amazon CodeCatalyst および GitHub アクション用の Amazon Inspector コンテナイメージスキャン – CI/CD をソフトウェアの脆弱性チェックと統合する必要がある場合は、Amazon Inspector を利用できます。現在では、GitHub アクションと Amazon CodeCatalyst のこのネイティブ統合により、開発パイプラインのプロセスを合理化できます。 Amazon OpenSearch Ingestion と Amazon Managed Streaming for Apache Kafka によるストリーミングデータの取り込み – この新しい機能により、複雑な分析ユースケース向けに、より効率的なデータパイプラインを構築できるようになりました。現在では、Amazon OpenSearch Service で Amazon MSK Serverless クラスターのデータをシームレスにインデックスできます。 Amazon Bedrock Knowledge Base で Amazon Titan Text Embeddings V2 が使用可能に – Amazon Titan Text Embeddings V2 を使用して、データをベクトルデータベースに埋め込むことができるようになりました。これは、さまざまなタスクに関連する情報を取得するのに役立ちます。 最大トークン 8,192 言語 事前トレーニングで 100 以上 微調整をサポート いいえ 正規化をサポート はい ベクトルサイズ 256、512、1,024 (デフォルト) community.aws より community.aws から、私が個人的に気に入っている 3 つの記事をご紹介します。 From sitting-at-home mom to Data Scientist (著者: Darya Petrashka 氏 ) A developer’s guide to Bedrock’s new Converse API (著者: Dennis Traub ) Getting started with Amazon Q Developer in Visual Studio Code (著者: Rohini Gaonkar ) 近日開催予定の AWS イベント カレンダーを確認して、これらの AWS および AWS コミュニティのイベントにサインアップしましょう。 AWS Summits – クラウドコンピューティングコミュニティがつながり、コラボレートし、AWS について学ぶために一堂に会する無料のオンラインおよび対面イベントに参加しましょう。最寄りの都市でご登録ください: 日本 (6 月 20 日)、 ワシントン DC (6 月 26~27 日)、 ニューヨーク (7 月 10 日)。 AWS re:Inforce – ペンシルバニア州フィラデルフィアで開催される AWS re:Inforce (6 月 10~12 日) にご参加ください。AWS re:Inforce は、AWS セキュリティソリューション、クラウドセキュリティ、コンプライアンス、アイデンティティに焦点を当てた学習カンファレンスです。セキュリティツールを構築している AWS チームとつながるとともに、AWS のお客様と交流して、それぞれのセキュリティジャーニーについて学びましょう。 AWS Community Day – エキスパートである世界中の AWS ユーザーと業界リーダーがリードするテクニカルディスカッション、ワークショップ、ハンズオンラボを特徴とするコミュニティ主導のカンファレンスにぜひご参加ください。日程は、 中西部 | コロンバス (6 月 13 日)、 スリランカ (6 月 27 日)、 カメルーン (7 月 13 日)、 ニュージーランド (8 月 15 日)、 ナイジェリア (8 月 24 日)、 ニューヨーク (8 月 28 日) です。 近日開催されるすべての 対面イベント と 仮想イベント を閲覧できます。 6月10日週のニュースは以上です。6月17日週に再びアクセスして、新たな Weekly Roundup をぜひお読みください! –  Donnie この記事は、 Weekly Roundup  シリーズの一部です。毎週、AWS からの興味深いニュースや発表を簡単にまとめてお知らせします! 原文は こちら です。
アバター
本ブログは、KDDIアジャイル開発センター株式会社 テックエバンジェリスト 御田稔氏、同ソフトウェアエンジニア 末光一貴氏、アマゾン ウェブ サービス ジャパン合同会社 ソリューションアーキテクト 新谷 が共同で執筆しました。 はじめに KDDIアジャイル開発センター株式会社 (以下、KAG)は、サービスデザインとアジャイル開発手法によりビジネス創出からプロダクト開発を一貫してサポートするプロフェッショナル集団です。日頃から積極的な情報収集やアウトプットを通じて、自身のスキルアップと社内外のビジネス課題解決のために技術力を研鑽しています。昨今飛躍的に進化を続ける生成 AI に対しては、社内で KAG Generative AI Lab という専門チームを創設し、急速なスピードで発展する生成 AI のキャッチアップとプロトタイプ開発を行うとともに、生成 AI を活用するための開発環境整備、セキュリティ等の周辺情報に関する知識獲得を目標として活動しています。 本ブログでは、KAG の寄稿により、 Amazon Bedrock 統合の生成 AI チャットボット「かぐたん」について、導入背景、実現方法、導入効果について解説します。 導入背景 生成 AI の登場以降、KAG 内においても日常業務への積極活用が推進され、非エンジニア含む全ての社員が当たり前に生成 AI を利用する状況が求められています。また、サービス開発通じた持続的な価値提供のため、エンジニアの生成 AI の実践知獲得は全社課題といえる状況です。一方で、生成 AI をオープンに利用してしまうことで、セキュリティガバナンスやシャドー IT 等のコンプライアンス懸念も社内で指摘されていました。そこで、KAG は社内で標準採用されている Slack をインターフェースとして、セキュアで安全に利用できる生成 AI 環境を Amazon Bedrock により開発しました。 Slack 統合の生成 AI チャットボット「かぐたん」 KAG は、生成 AI を日常的なコミュニケーションの延長線上で利用できるよう、Slack 統合のチャットボット「かぐたん」を開発しました。「かぐたん」は、全ての社員の日常業務に溶け込む形で自然に利用可能です。社員の様々な質問やタスク依頼に対して、フレンドリーで親しみやすい回答を生成します。 「かぐたん」の特徴はセキュアに利用できる点です。全ての会話履歴とログを保存すると共に、生成 AI へのリクエストを受け取るサーバー側はパブリックなエンドポイントを公開しない安全な通信方式を採用しました。これにより、社内のセキュリティ監査をパスし、業務情報の送信も可能となっています。また、ユーザーからのフィードバックフォームを設け、プロンプトチューニングによる精度改善や機能追加へ活用できるよう工夫しています。更に、KAG の所属する KDDI Digital Divergence Holdings グループ各社へ展開していく事も見越し、簡単にマルチテナント展開できる拡張性も備えています。 導入効果 「かぐたん」公開開始から徐々に需要の高まりを確認し、現在では KAG だけでなく KDDI Digital Divergence Holdings グループ 4 社の約 1, 200 名に展開するに至り、毎月約 2,000 リクエスト程度の利用を確認しています。Slack 統合により日常的なコミュニケーションツールとして活用できるようにしたことで、法務やコーポレート部門など非エンジニアにも生成 AI 活用が広がっています。以下は社員からのフィードバックの一例です。 用途:法令の概要をまとめてもらう、知らない概念について解説してもらう、など 感想:すごい!まるで人と話しているようです。回答の内容も大いに参考になるのですが、私の話の要点を正確に把握して、まずは共感してからアドバイスし始める様などは、コミュニケーションの参考になるなあと思いながら眺めています笑 用途:翻訳、技術的な用語の簡単な説明、など 感想:Slackで気軽に呼び出せるので使い勝手がとても良いです Claude の特徴である高い日本語性能も、チャットボットのユーザー体験向上に大きく寄与することがわかりました。 アーキテクチャ 「かぐたん」は AWS のマネージドサービスをフル活用して構成しています。Slack 上で「かぐたん」をメンションすると、バックエンドの AWS Fargate 上のアプリケーションがメッセージを受信し、質問内容にプロンプトを付与して Amazon Bedrock の Claude 3 を呼び出します。Websocket を活用する Slack ソケットモード を採用し、AWS Fargate アプリケーションは HTTP エンドポイントを公開しないセキュア通信を実現しています。また、Amazon DynamoDB に会話履歴を保存することで、不適切な利用の有無を管理できるようにしています。 所感と今後の展望 「かぐたん」を組織の Slack ワークスペースに導入したことで、大規模言語モデルを一部エンジニアのみの利用に留めず、全社員が利用できる環境を提供することができました。これにより、非エンジニアのメンバーにおいても、大規模言語モデルとは何か、業務にどのように適応できるかを考えるきっかけになったと感じています。 Amazon Bedrock を使用したアプリケーション開発を行う上で、情報の取り扱いに関する AWS の思想やポリシーが明瞭であることは利用する側にとって大きな信頼感がありました。言語モデルも日本語対応した複数のモデルから選択することができ、最新モデルへの切り替えもわずかな実装変更で済むなど、開発者にとっても使いやすい環境であると感じました。 今後は、 Knowledge bases や Agents など Amazon Bedrock の機能を使用して自社およびグループ会社へのさらなる価値提供に向けた高度化を目指すことに加え、本プロダクト開発で得られた知見を基に、お客様の課題解決を実現する新たなプロダクトの創出にも積極的に取り組んでいきたいと考えています。 まとめ 本ブログでは、KDDIアジャイル開発センター株式会社による、 Amazon Bedrock を活用した生成 AI チャットボットのグループ会社展開事例をご紹介しました。生成 AI の社内展開に際しては、セキュリティ、社員への浸透、継続的な改善を課題視されるお客様もいらっしゃると思います。本事例では、日常利用する Slack をインタフェースとしながら、安全な通信と自社 AWS 環境内での各種ログ保存により社内監査をパスし、使いやすさとセキュリティを両立しています。皆様の生成 AI 活用の参考になれば幸いです。 著者 御田 稔 KDDIアジャイル開発センター株式会社 開発5部 テックエバンジェリスト 末光 一貴 KDDIアジャイル開発センター株式会社 開発5部 ソフトウェアエンジニア 新谷 歩生 アマゾン ウェブ サービス ジャパン合同会社 技術統括本部 ストラテジックインダストリー技術本部 通信グループ シニアソリューションアーキテクト
アバター
AWS Audit Manager を利用すると、コンプライアンス要件を AWS の利用状況に関するデータにマッピングし、リスクとコンプライアンスの評価の一環として AWS の利用状況を継続的に監査できます。6月6日、Audit Manager は、事前定義されたマッピング済みの AWS データソースを備えた共通コントロールを提供する 共通コントロールライブラリ を導入しました。 共通コントロールライブラリは、AWS 認定監査人によって実施された広範なマッピングとレビューに基づいており、証拠収集のために適切なデータソースが特定されていることを検証します。ガバナンス、リスク、コンプライアンス (GRC) チームは、共通コントロールライブラリを使用して、証拠収集のためにエンタープライズコントロールを Audit Manager にマッピングする際の時間を短縮し、情報技術 (IT) チームへの依存を軽減できます。 共通コントロールライブラリを使用すると、同じ共通コントロールに関連付けられた複数のフレームワーク ( PCI や HIPAA など) の コンプライアンス 要件を 1 か所で表示できるため、複数のフレームワークにわたる監査準備状況を同時に把握しやすくなります。これにより、異なるコンプライアンス標準要件を個別に実装し、異なるコンプライアンス体制のために結果データを複数回確認する必要がなくなります。 さらに、このライブラリのコントロールを使用すると、Audit Manager が追加の AWS CloudTrail イベント、AWS API コール、 AWS Config ルールなどの新しいデータソースを更新または追加したり、追加のコンプライアンスフレームワークを共通コントロールにマッピングしたりすると、自動的に改善が継承されます。これにより、GRC チームと IT チームが証拠ソースを継続的に更新および管理するために必要な労力が削減され、Audit Manager がライブラリに追加するさらなるコンプライアンスフレームワークの恩恵をより簡単に享受できるようになります。 例を使用して、これが実際にどのように機能するかを見てみましょう。 AWS Audit Manager 共通コントロールライブラリの使用 航空会社の一般的なシナリオの 1 つとして、機内食やインターネットアクセスなどの顧客の支払いをクレジットカードでのみ受け付けるようにポリシーを実装することが挙げられます。このポリシーを実装するために、航空会社は、IT 運用のために、「customer transactions data is always available」(顧客取引データが常に利用可能) というエンタープライズコントロールを開発します。 AWS 上のアプリケーションがこの新しいコントロールを満たしているかどうかをどのようにモニタリングできるでしょうか? 私はコンプライアンスオフィサーとして、 Audit Manager コンソール を開き、ナビゲーションバーから [コントロールライブラリ] を選択します。コントロールライブラリには、新しい [共通] カテゴリが含まれるようになりました。各共通コントロールは、AWS マネージドのデータソースから証拠を収集するコアコントロールのグループにマッピングされ、さまざまな重複する規制や標準へのコンプライアンスの実証をより容易にします。共通コントロールライブラリで「availability」(可用性) と検索します。 ここで、航空会社の期待される要件がライブラリ内の「 High availability architecture 」(高可用性アーキテクチャ) という共通コントロールにマッピングされていることがわかります。 「 High availability architecture 」(高可用性アーキテクチャ) という共通コントロールを展開すると、基盤となるコアコントロールを確認できます。ここで、このコントロールは会社のニーズをすべて十分に満たしていないことに気付きました。これは、 Amazon DynamoDB がこのリストに含まれていないためです。DynamoDB はフルマネージドデータベースですが、アプリケーションアーキテクチャで DynamoDB が広く利用されていることを考えると、ワークロードが増減したときに DynamoDB テーブルが利用可能になっていることが間違いなく望ましいです。DynamoDB テーブルに固定スループットを設定した場合には、このような状況を実現できない場合があります。 共通コントロールライブラリで、今度は「redundancy」(冗長性) と検索します。 「 Fault tolerance and redundancy 」(耐障害性と冗長性) という共通コントロールを展開すると、コアコントロールにどのようにマッピングするかを確認できます。そこには、「 Enable Auto Scaling for Amazon DynamoDB tables 」(Amazon DynamoDB テーブルのために Auto Scaling を有効にする) というコアコントロールがあります。このコアコントロールは、航空会社が実装したアーキテクチャに関連していますが、共通コントロール全体は必要ありません。 さらに、「 High availability architecture 」(高可用性アーキテクチャ) という共通コントロールには、 Amazon Relational Database Service (RDS) の マルチ AZ レプリケーション が有効になっていることをチェックするいくつかのコアコントロールが既に含まれていますが、これらのコアコントロールは AWS Config ルールに依拠しています。航空会社は AWS Config を利用していないため、このユースケースではこのルールは機能しません。また、これらの 2 つのコアコントロールの 1 つは CloudTrail イベントも使用しますが、そのイベントはすべてのシナリオをカバーしているわけではありません。 私はコンプライアンスオフィサーとして、実際のリソース設定を収集したいと思います。この証拠を収集するために、IT パートナーと簡単に相談し、 カスタマーマネージドソース を使用してカスタムコントロールを作成します。コストを最適化するために、 api-rds_describedbinstances API コールを選択し、収集頻度を毎週に設定します。 カスタムコントロールの実装は、IT チームの関与を最小限に抑えつつ、コンプライアンスチームが処理できます。コンプライアンスチームが IT 部門への依存を軽減する必要がある場合は、DynamoDB に関連するコアコントロールのみを選択するのではなく、2 つ目の共通コントロール (「 Fault tolerance and redundancy 」(耐障害性と冗長性)) 全体を実装できます。アーキテクチャによっては必要以上のものになるかもしれませんが、コンプライアンスチームと IT チームの両方にとって、加速と、時間および労力の削減は、既存のコントロールを最適化するよりも大きな利点をもたらすことがよくあります。 ここで、ナビゲーションペインで [フレームワークライブラリ] を選択し、これらのコントロールを含むカスタムフレームワークを作成します。その後、ナビゲーションペインで [評価] を選択し、カスタムフレームワークを含む評価を作成します。評価を作成すると、Audit Manager は選択した AWS アカウントとその AWS の利用状況に関する証拠の収集を開始します。 これらのステップに従うことで、コンプライアンスチームは、システム設計と既存の AWS サービスに整合的な実装を使用して、「customer transactions data is always available」(顧客取引データが常に利用可能) というエンタープライズコントロールに基づいて正確にレポートできます。 知っておくべきこと 共通コントロールライブラリは、 AWS Audit Manager が提供されているすべての AWS リージョン で現在利用可能です。共通コントロールライブラリの使用に追加コストはかかりません。詳細については、「 AWS Audit Manager の料金 」をご覧ください。 この新しい機能により、コンプライアンスとリスク評価のプロセスが合理化され、GRC チームのワークロードが軽減されるとともに、証拠収集のためにエンタープライズコントロールを Audit Manager にマッピングする方法が簡素化されます。詳細については、「 AWS Audit Manager ユーザーガイド 」をご覧ください。 – Danilo 原文は こちら です。
アバター
活気に満ちた AWS コミュニティは、世界中の何百万ものビルダーで構成されています。このグローバルなオーディエンスには、問題を解決するために全力を尽くし、学んだことやベストプラクティスを惜しみなく共有して他者をサポートする、技術を心から愛する人々が含まれています。それが AWS ヒーロー です。インスピレーションをもたらすこれらのリーダーは大きな貢献を果たしており、AWS ヒーロープログラムは、これらのリーダーの影響力のある取り組みを高く評価し、注目してもらうための当社なりの方法です。 最新の AWS ヒーローたちに向けて、ともに祝意を表しましょう! Arshad Zackeriya 氏 – ニュージーランド、ウェリントン コミュニティヒーローである Arshad Zackeriya 氏は、Xero の Senior Engineer であり、組織がソフトウェアを高速に提供できるようにサポートすることに専門性を発揮しています。Zackeriya 氏は、コミュニティでは「Zack」の名で広く知られており、主に Amazon EKS とデベロッパーツールに関する専門知識を備えています。また、Zack は講演も行っており、AWS User Group Aotearoa New Zealand のウェリントン支部の共同主催者およびリーダーの 1 人としての役割を果たしています。さらに、AWS New Voices Coach を務めたことがあるほか、5 年連続で AWS コミュニティビルダーを務め、APJ 地域で 2022 年と 2023 年の AWS Community Builder of the Year にノミネートされました。 Julia Furst Morgado 氏 – 米国、ニューヨーク コンテナヒーローである Julia Furst Morgado 氏は、Veeam Software の Office of the CTO の Product Strategy チームで Global Technologist として働いています。Morgado 氏はダイバーシティとインクルージョンに注力しており、知識を共有することでクラウドネイティブテクノロジーと DevOps のベストプラクティスを理解しやすくすることに情熱を注いでいます。Morgado 氏は、Amazon EKS に焦点を当てた魅力的なコンテンツの普及と作成に秀でており、Amazon EKS ブループリントと Amazon EKS セキュリティに関する主要なイベントで講演を行っています。さらに、AWS Community Day New York、Kubernetes Community Day、AWS User Group Lisbon – Women in Tech 支部を共同主催し、活発なコラボレーションと学習の機会を促進しています。 Paloma Lataliza 氏 – ブラジル、ベロオリゾンテ コミュニティヒーローである Paloma Lataliza 氏は、6 年を超える経験を持つクラウドエンジニアです。クラウドコンピューティングを専門として、コンピュータサイエンスの学士号を取得しており、コンテナテクノロジーに熱意を傾け、テクノロジーと知識の共有に情熱を注いでいます。Lataliza 氏は AWS User Group Minas Gerais のリーダーであり、サポートネットワークを提供し、テクノロジーをより利用しやすくするための無料クラスを提供することで、女性にメンタリングを提供することに尽力しています。Lataliza 氏がどれほど力を注いでいるかについては、AWSome Women Community Summit Brazil の主催者であり、Mulheres na Nuvem Minas Gerais (Women in the Cloud Minas Gerais) プロジェクトの創設者でもあることからも見て取れるでしょう。以前は AWS コミュニティビルダーとして、技術コンテンツの制作、クラウドおよび DevOps イベントでの講演、技術スキルを深めたいと考えている人々のメンタリングを行っていました。 Shaoyi Li 氏 – 中国、深圳 コミュニティヒーローである Shaoyi Li 氏は、サイバーセキュリティと生成 AI に重点的に取り組んでいる Lead Cloud Engineer であり、コミュニティが安全でコンプライアンスに準拠した責任ある生成 AI アプリケーションを構築するのに役立つよう、クラウド生成 AI セキュリティおよびガバナンスソリューションを支持しています。Li 氏は、AWS Summits、AWS Community Day、AWS User Group Meetups などの AWS のイベントで定期的に講演しています。また、AWS の導入事例、AWS ブログ、AWS WeChat チャネル、community.aws、自らのソーシャルネットワークなど、さまざまなチャネルを通じて AWS のテクノロジーに関するインサイトを共有しています。 Vishal Alhat 氏 – インド、プネ コミュニティヒーローである Vishal Alhat 氏は、大手サイバーセキュリティ企業である Forcepoint の Senior Software Engineer であり、9 年以上の経験を活かしてクラウドベースのデプロイで重要な役割を果たしています。Alhat 氏は、AWS を利用したクラウドセキュリティと DevOps に重点的に取り組んでおり、DevOps ツール、AWS サービス、ベストプラクティスを実装して、デプロイを自動化し、Forcepoint のクラウドインフラストラクチャ全体で一貫性を実現しています。Alhat 氏は知識の共有に熱心で、APJ 地域の AWS Community Builder of the Year に選出されました。このことは、同氏がいかに献身的に取り組んでいるのかを示しています。さらに、AWS User Group Pune のリーダーであり、世界中のカンファレンス、ミートアップ、AWS Community Day、AWS Summit で定期的に講演しています。 詳細をご覧ください AWS ヒーロープログラムの詳細を知りたい、またはお近くのヒーローとつながりたい場合は、 AWS ヒーローウェブサイト をご覧ください。 — Taylor 原文は こちら です。
アバター
本ブログはファーストトレード株式会社様と Amazon Web Services Japan が共同で執筆いたしました。 みなさん、こんにちは。AWS ソリューションアーキテクトの山澤です。 最近お客様から、生成系 AI 活用のご相談を頂くなど、生成系 AI の活用が進んでいることを身を持って感じています。 その一方で、「生成系 AI どのように活用すればいいのかよくわからない」という方も多いのではないでしょうか? 生成系 AI のユースケースとして、チャット、文章生成/要約、翻訳、画像生成などがありますが、その中で今回、文章生成/要約に関する事例をご紹介します。是非、皆さまの生成系 AI 活用のご参考にしていただければ幸いです。 今回ご紹介する事例は、ファーストトレード株式会社様で取り組んでいただいた Amazon Bedrock をはじめとしたマネージドサービスを活用し、人手作業を生成系 AI を用いて自動化することで、文書化にかかるコストを 80 %削減した事例です。 お客様の状況と検証に至る経緯 ファーストトレード株式会社は、波情報アプリ「 なみある? 」を提供しており、利用者は LINE 公式アカウントに友達追加していただくと、サーフィンに必要な詳しい波情報をすぐに手に入れることができます。 (出展: ファーストトレード株式会社) 「なみある?」ではこれまで、サーフィンを行う方に必要な海況観測は、サーフポイントにいらっしゃる現地の方のレポートを元に手作業で文書化をされていましたが、以下のような課題感がありました。 手作業による非効率性 海況を人が目視しするタイミングや頻度が統一されていなかったため、ユーザーへ提供している情報の品質のばらつき 人件費高騰もあり、サーフポイントごとの情報入手コストの高止まり (出展: ファーストトレード株式会社) そこで、基盤モデルの変更が容易な Amazon Bedrock を利用し、 生成系 AI による文書の自動作成を行うことで、上記の課題解決に向けて、検証することになりました。 ソリューション/構成内容 「なみある?」は、インフラストラクチャの管理、運用が少ないサーバーレスサービスで構成されています。海洋情報 API から波情報に必要なデータを収集し、その情報をもとに Amazon Bedrock でフォーマット化されたレポートの出力を行っています。基盤モデルは、 Claude 3 を採用し、 人気ポイントには高性能な Claude3 Sonnet 、小規模ポイントには安価でコストパフォーマンスの良い Claude3 Haiku を使用することで、ユーザーの利用状況に応じたモデル選択を行なっています。 (出展: ファーストトレード株式会社) 導入効果 システムをリリースした結果、以下 3 つの効果を得ることができました。 人手作業を無人化。以前は最大 1 日 3 回の更新だったが、任意のタイミングと頻度で生成可能になり、リアルタイムな波情報をユーザに届けることが可能になった。 AI 判断による常に高品質な波情報を提供 サーフポイントの規模やユーザーの利用状況に応じたコスト最適化を実現。文書化にかかるコストを80%削減 このお客様の導入効果は、「何らかの情報を基に、手作業で特定のフォーマットに沿って文書化する作業があり手間である」といった課題をお持ちのお客様にも横展開いただけると思います。 ご感心のあるお客様は、ぜひ AWS までお問い合わせいただければと思います。 まとめ 今回は、 API として公開されている海洋情報データと Amazon Bedrock を組み合わせことで、手作業で行っていた業務を自動化したお客様の挑戦についてご紹介いたしました。 特に、Claude 3 が登場したことで、最近お客様から「Claude 3はとても自然な日本語の文章を生成してくれるため、精度に満足している。」という声をよく伺うことがあり、今回のような文章生成/要約に関するユースケースが増えてくるのではないかと期待しています! また、AWS では、6 月 20 日(木)、 21 日(金)に開催される AWS Summit や、 7 月 18 日(木)に開催される AWS Builders Online など様々なイベントを定期的に開催しております。セッションを通じて技術を把握したり、ハンズオンを通じて技術に触れることができますので、是非お越しください。 https://aws.amazon.com/jp/events/ つい先日、ファーストトレード株式会社福原様が AWS の生成系 AI イベントにお越しいただき、一緒に写真を撮らせていただきました↓↓ ファーストトレード株式会社 : CTO 福原 玄様(中央) Amazon Web Services Japan : アカウントマネージャー 古府 克章(左)、ソリューションアーキテクト 山澤 良介(右) ソリューションアーキテクト 山澤 良介 (X – @ymzw230 )
アバター
※ 本ブログは、株式会社レアジョブテクノロジーズとAmazon Web Service Japan が共同で執筆いたしました。 ここ数年は生成 AI を活用したサービスや機能が EdTech 業界で多く登場しています。オンライン英会話をはじめとした様々な EdTech プロダクトを提供しているレアジョブグループにおいて、プロダクトの企画・開発を担当している株式会社レアジョブテクノロジーズでも例外ではなく、ベータ版としての機能提供や社内での生成 AI 活用を実施しています。 レアジョブグループが提供しているオンライン英会話サービス「レアジョブ英会話」では PC やスマホで様々な講師と英会話レッスンを受けることができます。会話レッスンは毎月 2 万件ほど実施されており、従来は人間の英会話講師が自身でメモを取り受講者に対して自身でフィードバックを作成していたため、講師側の負担になることが多くまた時間が取れない場合などに十分なフィードバックを作れない課題がありました。 この課題を解決するためにフィードバックの一部を生成 AI によって置き換えができないか試しています。(記事の執筆段階時点では、一部のお客様のみに展開中です)。 この記事ではプロダクトの中でどの機能を生成 AI に任せることがユーザー体験やコストの観点から適しているのか、要件と照らし合わせて Amazon Bedrock をなぜ選択したのかを解説しながら Amazon Bedrock が活用されている「AIレッスンレポートβ」を紹介します。 AIレッスンレポートβ 機能の紹介 レアジョブで提供している「レアジョブ英会話」では PC やスマホで様々な講師と英会話レッスンを受けることができます。その中で試験提供している機能の一つが「AIレッスンレポートβ」です。従来は人間の英会話講師が自身でメモを取り受講者に対して自身でフィードバックを作成しており、講師側の負担になることが多くまた時間が取れない場合などに十分なフィードバックを作れない課題がありました。 この課題を解決するためにフィードバックの一部を生成 AI によって置き換えできないか試しています。(記事の執筆段階時点では、一部のお客様のみに展開中)。 これまでのレッスンレポートは上図左のように講師が自身で作成したメモをもとに一から作成していました。人間がレッスンと並行してレポートを作成する以上はレポートでの指摘は 1~3 件程度が限界でした。一方で AI レッスンレポートでは録音された音声から発話速度や発話単語数などの各種スコアを自動で算出し、文字起こしされたレッスン内容に対して平均 10 件ほどの指摘が可能になりました(AI による添削は指摘の数に上限がありませんがユーザー体験を考えて指摘の数を設定しています)。また講師のレポート作成作業を減らして、より講師のスキルや経験が活きるレッスンに集中できるようになりました。 開発における注意や工夫 起案・要件定義 => 設計・開発 => 評価のように開発プロセスが進むことが多く、一般のプロダクト開発とあまり変わりませんが、生成 AI であるが故の各ステップでの注意や工夫がありました。 起案・要件定義においては、そもそも生成 AI を使うのか、使うとしてどの生成 AI のサービス、あるいは、どのモデルを活用すべきなのかを本格的に作り込む前に検討をしていました。これによって原価としてのシステムコストの試算も大きく変わってくるので、事業・機能として実現可能かを検討しました。生成 AI は精度やコストを無視すれば多様なタスクを実行することができます。顧客からの問い合わせの文章を読み取って返答文を生成したり、テキストや画像コンテンツを一から自動で生成したり、文章やスライドの内容を要約したりと、生成 AI が実行できるタスクは多種多様です。実際にそれは実現できるのですが、多くの生成 AI 系のサービスは入出力されるデータ量(トークン)の量に応じてコストがかかってきます。機械的に処理できる内容であれば生成 AI を使わずとも古典的な手法を使ってより低価格でタスクを実行できます。また生成 AI が 100% 正しい答えを返すとは限りません。 要件定義で生成 AI を使うかどうかを考えるには生成 AI の出力クオリティも気になるところです。レアジョブでは aws-samples/bedrock-claude-chat を社内イントラ内で構築し社員で触れる状態を作りました。このサンプルは生成系 AI を提供する Amazon Bedrock の基盤モデルの一つである、Anthropic 社の大規模言語モデル( LLM) Claude を利用したチャットボットのサンプルです。チャットボットの画面を簡単に展開することができるので最速で価値を体験できる手段の一つだと思います。プロダクトはエンジニアだけが作るものではないので事業開発のメンバーがより手軽に試せる場を作ることが重要でした。 設計・開発においては上述の通り、生成 AI に何をやらせるかを議論し、それ以外の部分の実装や構築方法、アーキテクチャを関係者で議論をして決めました。例えばレアジョブ AI レッスンレポートでは関係者の議論の結果、発話文の文章校正や校正理由文の作成など、ユースケースにおける本当に生成 AI が実施すべきことに集中させることが重要だと考えて、いくつかの処理は生成 AI を使わずに実現しています。「話したユニークな単語数」なども出力していますが、こういった処理は生成 AI にまかせるのではなく別で実装しています。またNGワードの検知やそれが発生した時の対応なども生成 AI は使っていません。 評価においては、レアジョブテクノロジーズの本ケースではすでに人が実施しているケースの AI への置き換えなので実際の人が作成しているフィードバックを整理し、生成 AI に同様の質問をして遜色ないレベルでの返答ができるかの検証を実施しました。過去に講師が作成したレポートから一部をサンプリングし、生成 AI が生成したレポートと比較して問題がないこと、一部のケースでは人間の講師以上の指摘がなされていることを確認しました Amazon Bedrock の採択理由 レアジョブ AI レッスンレポートを実現するには、2 つの課題を解決する必要がありました。「多くのトークンを処理でき、高精度に結果を出力できる」「セキュリティ・ガバナンスレベルを下げずに自社顧客に提供できる」です。 前者においては扱われるテキスト量が多く(1 回の処理あたり、2 万から4 万 token を見込んでいた)、また生成結果が間違えて誤った校正をしてしまうリスクも避けるため、多くのトークンを扱える、高性能なモデルが必要でした。 Claude は日本語に対応しており、言語・推論・分析・コーディングなどを含む幅広いタスクで優れた性能を発揮する LLM です。Amazon Bedrock ならこの Claude を使うことができます。 後者においてはレアジョブ英会話はすでに多くの顧客がおり、個人だけでなく法人のお客様にも多く利用いただいております。また企業としても情報セキュリティ管理システム ISMS の取得やセキュリティ・個人情報の取り扱いには明確なガイドラインがあり、生成 AI のサービスの導入には細心の注意が必要でした。これに対して Amazon Bedrock によりフルマネージドな 生成AI サービスを AWS で完結して提供でき、この課題を解決できました。 Amazon Bedrockのよくある質問 で、入力・出力はAmazon Titanやサードパーティのモデルのトレーニングに利用しないことが明記されています。 利用者からのフィードバック 記事公開時点ではまだβ版ですが AI レッスンレポートを利用したユーザーからは好意的な声が多く寄せられています。以下は寄せられたユーザーからの反応のほんの一部です。「AI はより端的にシンプルにフィードバックをくれるので、講師と AI 双方のフィードバックによるインプットを活用する意義を感じられ、それにより表現の幅が広げられると感じた」「発話スコアはモチベーションが上がりそう」「AI がフィードバックの手数を増やしてくれることで、より適切な表現が文字で明確になり、それを発話し直すことで表現の幅や正確性が増していくと感じました」 まとめ Amazon Bedrock による英会話レッスンのレポート作成が英会話講師の負担軽減とユーザーの満足度向上につながることを確認できました。AI によるフィードバックの指摘の多さを評価するユーザーの声はまさに AI レッスンレポートを開発した狙いそのものでした。レジョブテクノロジーズは今後、パフォーマンス改善などを行いながらより多くのユーザーに AI レッスンレポートを活用してもらおうと考えています。
アバター
本記事は 2023 年 5 月 22 日に Naim Mucaj (Senior Solutions Architect) 、Ramam Kallakuri (Solutions Architect)、Saadelden Abdelkreem (Solutions Architect) によって執筆された内容を日本語化したものです。原文は こちら を参照してください。 企業は本番環境と同様の最新データセットのコピー上で開発、テスト、QA をするため、データベース環境のリフレッシュを実行します。さらに、IT チームは可用性、回復性、パフォーマンスの高いレベルを維持しながら、増大するデータフットプリントを管理することが課題となっています。多くの顧客の開発サイクルは、DTAP (開発 (Development)、テスト (Test)、受け入れ (Acceptance)、本番 (Production))のデータ環境を保持しており、これらすべてにインフラとリソースが必要です。より多くのバージョンとリフレッシュが必要になるにつれ、より多くのストレージが必要になります。 Amazon Elastic Compute Cloud (Amazon EC2) と Amazon FSx for NetApp ONTAP (FSx for ONTAP) を使用することで、数秒で大規模なデータベースをクローンできます。追加のストレージ容量を消費することなく、リフレッシュ時間を短縮し、テスト環境全体のリソース消費を削減できます。データベース環境(本番環境から開発環境へ)のリフレッシュを高速化するために、FSx for ONTAP の 3 つの主要なデータ管理機能である スナップショット 、 Flexclone 、 SnapMirror レプリケーションを利用できます。 この記事では、FSx for ONTAP とそのネイティブ機能を使用して、本番環境から開発環境にデータベース環境をリフレッシュするプロセスを説明します。FSx for ONTAP を使用することで、複数の環境間でデータベースとアプリケーションのデータセットのスナップショットを取得し、クローンを分けることで、運用の複雑さを軽減し、アジリティを向上させ、コストを削減することができます。この記事では、 Oracle Database Server 19c を使用したエンドツーエンドの更新プロセスを紹介します。 ソリューション概要 この例では、Amazon EC2 上で稼働する Oracle データベースサーバーと FSx for ONTAP を利用して、データ環境のリフレッシュを高速化し、データベース / アプリケーションのデータセットのコスト最適化されたデータレイヤーを提供する方法を紹介します。同じ考え方が、MySQL、PostgreSQL、MariaDB、Oracle、SAP HANA などの他のデータベースや、複数のデータセットが必要なアプリケーションにも適用できます。 FSx for ONTAP は、ONTAP の一般的なデータアクセスと管理機能とともに、AWS クラウドでフルマネージドな共有ストレージを提供しています。 FSx for ONTAP のスナップショット、FlexClone、SnapMirror の機能を組み合わせることで、迅速かつコスト効率よく環境のリフレッシュを実行できます。たとえば、データベースワークロードを実行していて、本番環境のデータベースに対して操作を実行する前にテストしたい場合は、データベースのクローンを作成し、さまざまなテスト環境で利用可能にすることで操作をテストできます。 Oracle データベースのデプロイにおいて、 Amazon FSx ファイルシステムを利用する方法はいくつかあります。今回のシナリオでは、NFS 共有をデータ、ログ、および Oracle のホームドライブとして、Amazon EC2 上で動作する Oracle Database 19c インスタンスにマッピングします。 これらの NFS 共有で表示されるドライブは、 データセットの対象となり、スナップショット、ミラー、クローン、および開発環境の Oracle データベースサーバーへ連携のプロセスのベースとなります。このアーキテクチャには、本番用 FSx for ONTAP ファイルシステムと開発用 FSx for ONTAP ファイルシステムが含まれます。本番用環境と開発環境の隔離を想定していますが、同じファイルシステム上で同じプロセスを実行できます(別のファイルシステムに SnapMirror する必要はありません)。 図 1: FSx for ONTAP ファイルシステムがセカンダリ FSx for ONTAP ファイルシステムにレプリケートされている様子 前提条件 この記事では、Oracle データベース、NFS 共有の Linux マウントを理解し、 FSx for ONTAP の基本的な知識を持っていることを前提としています。同様の環境をお客様環境で作成するには、 次の前提条件 を満たす必要があります。 Amazon EC2 と FSx for ONTAP を利用できる AWS アカウント Oracle データベース(または他のデータベースアプリケーション)がインストールされ、 図のようにデータとログのボリュームが表示された EC2 インスタンス クラスタがピアリングされ、 Oracle ボリューム用に SnapMirror が設定された FSx for ONTAP (シングルもしくは複数アベイラビリティーゾーン (AZ)) (開発環境ではミラーリングせず、本番環境のファイルシステム上にローカルでクローンを作成することもできます。) 図のように、FSx for ONTAP ボリュームを作成し、NFS 共有として Oracle データベースサーバーに表示 本番環境と開発環境の両方において、 AWS Command Line Interface (AWS CLI) を使用して Oracle データベースサーバーと FSx for ONTAP ファイルシステムの両方にアクセス可能 SYSDBA としての中級レベルの Oracle スキル ウォークスルー : 本番環境から開発環境へのデータベースのリフレッシュ 次は、前述のアーキテクチャ図にある Oracle 19c データベース環境をクローンするために必要なプロセスの詳細な手順です。このプロセスに沿って進めることで、Oracle データベースボリュームのアプリケーション整合性のあるスナップショットを取り、開発環境にレプリケートしてクローンを作成し、読み書き可能なボリュームを開発用の Oracle データベースサーバーにマウントできます。その後、必要に応じてテストや品質保証を実行できます。その後、要件に応じてテストと QA を実行できます。また、1. 削除、2. クローンを独立したデータセットに分割するオプションの手順も含まれています。 図 2: レプリケートされたボリュームから作成され、Oracle 開発サーバーにマウントされた FSx for ONTAP クローン この例では、データベースを開発環境にリフレッシュするプロセスを説明します。クローンされたデータベースを削除したり、独立して保守したりする後工程とともに、開発環境への完全なリフレッシュ工程をカバーします。 概要として、プロセスは次のとおりです: Oracle データベースをバックアップモードにする。(アプリケーション整合性のあるスナップショットを確実に取得するため) FSx for ONTAP の Oracle データベースのボリュームのスナップショットを取得する。 Oracle データベースのバックアップモードを解除する。 SnapMirror update を実行し、取得したスナップショットを同期し、開発環境の FSx for ONTAP ファイルシステムにクローン作成する。 クローンしたボリュームを開発用 Oracle サーバーにマウントする データベースを起動し、すぐにシャットダウンする。 最後に Oralce にて操作する。開発用 Oracle データベースサーバーの設定ファイルを更新し、クローンしたデータベースを開発用サーバーにマウントして、データベースが稼働し、読み取り書き込み操作が可能であることを確認する。 実装 Oracle データベースをバックアップモードにする。(アプリケーション整合性のあるスナップショットを確実に取得するため) SQL Plus で、データベースをバックアップモードに設定します。 SQLPLUS&gt; ALTER DATABASE BEGIN BACKUP; FSx for ONTAP の Oracle データベースのボリュームのスナップショットを取得する。 FSx for ONTAP ファイルシステム CLI で、データベースファイルが存在するボリュームのスナップショットを取得します。(スナップショットに適切な名前のラベルを付けます。) FsxId01234567890abc:&gt; vol snapshot create -vserver fsx -volume prddb_orahome -snapshot prddb_orahome_snapshot_28March2023 FsxId01234567890abc:&gt; vol snapshot create -vserver fsx -volume prddb_oradb -snapshot prddb_oradb_snapshot_28March2023 FsxId01234567890abc:&gt; vol snapshot create -vserver fsx -volume prddb_oraarch -snapshot prddb_oraarch_snapshot_28March2023 Oracle データベースのバックアップモードを解除し、データベース制御ファイルをトレースファイルにバックアップして、後で開発環境で再利用できるようにする。 SQLPLUS&gt; ALTER DATABASE END BACKUP; SQLPLUS&gt; alter database backup controlfile to trace as '/home/oraebs/controfilescript.sql'; アプリケーション整合性のあるスナップショットが利用可能になったので、これらを開発環境にミラーリングすることができます。(クローニングとローカルでのマウントも可能です。) SnapMirror update を実行し、取得したスナップショットを同期する。 開発用の FSx for ONTAP ファイルシステム CLI で SnapMirror 関係を更新し、スナップショットが転送されたことを確認します。(開発環境を使用せず、ローカルでクローンを使用する場合は、この手順を省略できます。) FsxId01234567890abc:&gt; snapmirror update -destination-path &lt;SVM name&gt;:devdb_orahome_DP -source-snapshot prddb_orahome_snapshot_28April2023 FsxId01234567890abc:&gt; snapmirror update -destination-path &lt;SVM name&gt;:devdb_oradb_DP -source-snapshot prddb_oradb_snapshot_28April2023 FsxId01234567890abc:&gt; snapmirror update -destination-path &lt;SVM name&gt;:devdb_oraarch_DP -source-snapshot prddb_oraarch_snapshot_28April2023 更新後、利用可能なスナップショットが表示されます。次のコマンドを実行し、ステップ 2 でリストしたスナップショット名を確認します。 FsxId01234567890abc:&gt; snap list devdb_orahome_DP FsxId01234567890abc:&gt; snap list devdb_oradb_DP FsxId01234567890abc:&gt; snap list devdb_oraarch_DP 開発環境の FSx for ONTAP ファイルシステムのスナップショットからクローンを作成する。 開発用の FSx for ONTAP ファイルシステム CLI で、ミラーリングされたスナップショットを参照するボリュームクローンを作成します。 FsxId01234567890abc:&gt; vol clone create -vserver fsx_dev -flexclone devdb_orahome_clone_28March2023 -type RW -parent-volume devdb_orahome_DP -parent-snapshot prddb_orahome_snapshot_28March2023 -junction-path /devdb_orahome -junction-active true FsxId01234567890abc:&gt; vol clone create -vserver fsx_dev -flexclone devdb_oradb_clone_28March2023 -type RW -parent-volume devdb_oradb_DP -parent-snapshot prddb_oradb_snapshot_28March2023 -junction-path /devdb_oradb -junction-active true FsxId01234567890abc:&gt; vol clone create -vserver fsx_dev -flexclone devdb_oraarch_clone_28March2023 -type RW -parent-volume devdb_oraarch_DP -parent-snapshot prddb_oraarch_snapshot_28March2023 -junction-path /devdb_oraarch -junction-active true クローンボリュームを開発用 Oracle サーバーにマウントする。 Oracle 開発サーバーにマウントポイント用のディレクトリを作成します。(開発サーバーにすでにマウントポイントが作成されている場合は、このポイントをスキップしてください。) # mkdir -p /devdb_orahome # mkdir -p /devdb_oradb # mkdir -p /devdb_oraarch 作成したボリュームクローンを必要なマウントポイントにマウントします。 # mount -t nfs -o nconnect=16 &lt;SVM NFS DNS name or IP address&gt;/devdb_orahome_clone_28March2023 /devdb_orahome # mount -t nfs -o nconnect=16 &lt;SVM NFS DNS name or IP address&gt;/devdb_oradb_clone_28March2023 /devdb_oradb # mount -t nfs -o nconnect=16 &lt;SVM NFS DNS name or IP address&gt;/devdb_oraarch_clone_28March2023 /devdb_oraarch データベースを起動し、すぐにシャットダウンする。 SQLPLUS&gt; startup; SQLPLUS&gt; shut immediate; 開発用 Oracle データベースサーバーの設定ファイルを更新する。 開発用 Oracle データベースサーバー上で、前述の手順でバックアップしたコントロールファイルトレース SQL スクリプト(controlfilescript.sql)を更新します。 # vi controlfilescript.sql 新しい DB 名、ログファイルディレクトリ、データファイルディレクトリの場所に合わせて、ファイルの内容を更新してください。 クローンしたデータベースを開発用サーバーにマウントします。SQL Plus でコントロールファイルの SQL スクリプトを使用してデータベースをマウントし、データベースログをリセットします。 SQLPLUS&gt; @controlfilescript.sql; SQLPLUS&gt; ALTER DATABASE OPEN RESETLOGS; Oracle で、データベースが操作可能であることを検証します。 SQLPLUS&gt; SELECT STATUS FROM V$INSTANCE; SQLPLUS&gt; SELECT NAME FROM V$DATABASE; 上記のプロセスが完了すると、本番環境のデータベースが開発環境にリフレッシュされました。これにより、データベースの読み書きテストが可能になります。このプロセスは高速かつ効率的で、追加のストレージを必要とせず、変更されたブロックのストレージのみを消費します。 次のコマンドを使用してボリュームクローンの使用状況を検証し、最後の列に表示されるボリュームの物理ストレージの使用量の割合を確認してください。 FsxId01234567890abc:&gt; vol show -vserver &lt;vserver name&gt; -volume &lt;volume clone name&gt; -fields size,used,available,percent-used,physical-used,physical-used-percent DB のクリーンアップまたは新しいコピーのメンテナンス手順 ここまでの手順で、ボリュームクローンと開発用データベースは、テスト、QA、その他の処理のために、読み取り書き込み状態になりました。このプロセスが完了したら、今度はテストデータセットを削除するか、独立したデータセットに分割するかを決定する必要があります。 次では、クローンデータベースの削除もしくは分割の手順を説明します。 開発データベースの削除 データベースのマウントを解除し、クローンを削除します。 Oracle でデータベースのマウントを解除し、Oracle 開発サーバーから NFS マウントポイントのマウントを解除します。 次のコマンドを使用して、開発用 FSx for ONTAP ファイルシステムからボリューム クローンをオフラインにして削除します。 FsxId01234567890abc:&gt; volume offline -vserver &lt;vserver name&gt; -volume &lt;volume clone name&gt; FsxId01234567890abc:&gt; volume delete -vserver &lt;vserver name&gt; -volume &lt;volume clone name&gt; 開発データベースのメンテナンス クローンを分割し、通常の開発作業を継続します。 このプロセスは、現在の FSx for ONTAP ファイルシステム上に独立したボリュームセットを構築し、データセットの全ストレージ使用量を消費します。 ボリュームのクローンを独立したボリュームに分割する。 FsxId01234567890abc:&gt; volume clone split start -vserver &lt;vserver name&gt; -volume &lt;volume clone name&gt; 2. (オプション)ボリュームは元のクローン名を保持しているので、適切なボリューム名に変更する。 FsxId01234567890abc:&gt; volume rename -vserver &lt;vserver name&gt; -volume &lt;volume&gt; -newname &lt;new name of volume&gt; まとめ この記事では、FSx for ONTAP のスナップショット、FlexClone、SnapMirror の機能や特徴を使用して、データベース環境を本番環境から開発環境にリフレッシュするプロセスを説明しました。これらの機能を活用することで、効率的かつ迅速にリフレッシュを実行しながら、ストレージ消費を最適化できます。これにより、開発、テスト、QA を、本番環境と同様の最新データセットのコピーで実行できることが確認できます。 この記事では、Oracle 19c データベースのリフレッシュの例として取り上げましたが、同じデータリフレッシュの原則を他のデータベース(SAP HANA、MySQL、PostGres、Microsoft SQL など)や、同じデータセットの複数の読み取り/書き込みコピーを管理することで得られるメリットをアプリケーションにも適用できます。 FSx for ONTAP の詳細については、 製品ページ をご覧ください。 AWS での Oracle の詳細については、AWS の Oracle FAQ ページをご覧ください。 <!-- '"` --> Naim Mucaj Naim Mucaj は、AWS のデータおよびストレージ管理サービスを専門としたシニア・ソリューション・アーキテクトです。Naim は、データおよびインフラストラクチャソリューションの設計と構築において 20 年以上の経験を持ち、常に顧客中心の成果を追求しています。お客様を支援することはもちろん、AWS の他には旅行や新しい文化を学ぶことも楽しんでいます。 Ramam Kallakuri Ramam Kallakuri は、AWS の Oracle E-Business Suite、Oracle Hyperion を専門としているソリューションアーキテクトです。さまざまな E-Business Suite と Hyperion の移行に関するガイダンスと技術支援を提供し、AWS を使用する際のソリューション価値の向上を支援しています。 Saadelden Abdelkreem Saadelden Abdelkreem は、Amazon Web Services(AWS) のオーストラリア公共部門チームのソリューションアーキテクトです。彼は、公共部門の顧客が変革、自動化、ビジネス目標を達成するのを支援しています。Saadelden は大手通信会社でデータベースとソリューションアーキテクチャの支援に携わってきました。趣味は、新しいアクティビティに挑戦することと読書です。
アバター
みなさんこんにちは!製造業のお客様(主に関西のお客様)を中心に技術支援をしているソリューションアーキテクトの河井です。 間もなく AWS Summit が開催されます!これまで AWS Summit Tokyo という名前でしたが 2024 年度から AWS Summit Japan という名前に変わりました。製造業向けの展示もたくさん出ていますのでご紹介いたします。 AWS Summit とは AWS Summit は、クラウドコンピューティングコミュニティが一堂に会して、アマゾン ウェブ サービス (AWS) に関して学習し、ベストプラクティスの共有や情報交換ができる、 クラウドでイノベーションを起こすことに興味があるすべての皆様のためのイベント です。基調講演、150 を超えるセッション、250 を超える EXPO コンテンツを体験し、皆様の学習にお役立てください。ニーズに合わせてさまざまなコンテンツを自由に組み合わせて楽しむことができます。開催期間は 6 月 20 日 (木) と 21 日 (金) の 2 日間で会場は幕張メッセです。 本ブログでは数ある展示とセッションの中から製造業に関する展示とセッションをご紹介いたします。まだ登録してない方は以下のリンクからご登録ください。 登録はこちら 製造ブースは HALL 3 会場、AWS Village の Industry Zone の中にあります。AWS Village は、AWS のサービスやインダストリーソリューションを扱う 90 以上の AWS 展示と、50 以上のお客様事例展示が一堂に会した展示エリアです。生成 AI など、テーマごとに 4 つのエリアに分かれており、基本的な機能から選定や組み合わせまで、実際に動くデモを見ながら学ぶことができます。各エリアには、テーマに特化したセッションやデベロッパー向けの Deep なテクニカルセッションなどが用意されたミニステージがあります。ぜひ、場内マップでご確認の上お立ち寄りください (会場全体図と AWS Village) 製造業向け展示ブース全体 2024 年度の製造ブースでは「お客様と一緒にデータとクラウドで製造業の未来を変えていく」というコンセプトをもとに「製品設計」「スマート工場」「サプライチェーン」「スマートプロダクト」の 4 分野から 9 つのデモを展示します (以下の図では 8 つのデモと記載していますが、ブース横断のデモ展示があるため実質 9 つです)。展示は製造業におけるエンジニアリングチェーンを意識した配置となっており、1 から順番に見ていただくことで設計から保守までの工程でどのように AWS のテクノロジーが活用できるかを体験できます。 ではさっそく展示ブースの概要を説明していきます! 展示ブースの内容 製品設計エリア 製品設計エリアでは「環境最適化と開発スピード向上」をテーマにデータとクラウドの力で製品設計開発の更なる効率化、高速化、品質向上のためのアプローチをご紹介します。 1. CAD/CAE 端末の柔軟な管理機能 (Research and Engineering Studio on AWS ) CAD/CAE 端末環境において、従来はワークステーション端末のライフサイクルをはじめとする運用管理の観点から、必ずしも設計者が求める最適なコンピュータ環境が提供/利用されていないケースがあります。それにより設計業務の業務効率が低下する課題があります。このような課題に対処する為に、ユーザーフレンドリーな Web ポータルによって設計者自身がセルフサービスで求めるスペックのコンピュータ端末を起動、管理できるソリューション Research and Engineering Studio on AWS (RES) のデモを展示します。また、シミュレーションの機械学習モデルであるサロゲートモデルを用いることで、瞬時にシミュレーション結果を予測し、シミュレーションにかかる時間とコンピュータリソースの負荷を軽減するアプローチをご紹介します。 (サンプルアーキテクチャ) (仮想デスクトップの管理画面) スマート工場エリア スマート工場エリアでは「小さく早く始める効率化」と「AI によるプラント保守」の 2 つをテーマに製造現場から収集されるデータを活用して継続的に改善する方法やクラウドと生成 AI を活用して作業者をサポートして現場力および QCD の向上につながる活用をご紹介します。 2. Software Defined Factory Software Defined Factory では仮想的な工場を使って、アクセスせずに擬似的に工場をシンプルに再現することで可視化のメリットを活かし、工場業務の改革にむけた第一歩を踏み出すために AWS の基盤を活用する方法を紹介します。 (デモ展示の構成) 3. 製造現場のIoTデータをパートナーとともに小さく早く製造DXを実現 このブースではミニチュア組立工場を展示します。ミニチュア組立工場では、製造現場からのデータ取得とクラウドへの送信、可視化や生成 AI 活用を中心としたスマート工場を紹介します。さらにパートナーソリューションも含めて AWS を「早く小さく始める」ことを紹介します。デモでは PLC からデータを送信し、 AWS IoT Core や AWS IoT SiteWise などのサービスを活用してクラウド上でのデータ処理・ニアリアルタイムの可視化、生成 AI の活用による 4M (人「Man」、機械「Machine」、材料「Material」、方法「Method」) 変化点の調査を具体的に見ることができます。さらに、パトライトや Salesforce Field Service など、パートナー製品との連携デモもご覧いただけます (サンプルアーキテクチャ) (サンプルアーキテクチャ) (ミニチュア組み立て工場) 4. 製造業の課題に挑む AI ソリューション 工場設備の外観検査とリアルタイムデータ収集における生成 AI の活用をご紹介します。機械学習による外観検査の際に、モデル学習用の良品/不良品画像が必要となりますが、必要量の画像が用意できないことも多々あります。これを生成 AI を用いて画像を生成することで高精度な検査モデルを作成し、実際に外観検査に取り込んで検査する様子を実演します。また、リアルタイムで収集される大量の機器データを生成 AI 経由で迅速かつ柔軟に目的のデータを参照し、RAG (Retrieval-Augmented Generation:検索拡張生成) と組み合わせることで、効率的な運用とメンテナンスを実現する様子をご覧いただきます。 (サンプルアーキテクチャ) (ダッシュボードイメージ) 5. 生成 AI・映像・音声と外付けセンサーによるプラント保守支援 プロセス製造業においては熟練の技術者の引退後も、後継の技術者がその知見を継承して安定した品質を保つことが求められています。生成 AI のユースケースとして過去の作業報告書などをもとに原因や修復方法を支援してもらう方法が考えられますが、過去のレポートや文献に明示されておらず、ベテランエンジニアが五感で培った現場のノウハウが必要な場合もあります。本デモでは、ミニチュアプラントに障害を疑似的に発生させ、生成 AI と映像や音声によるベテランエンジニアの支援を組み合わせた「Human in the Loop」による事象解決をご覧いただけます。こちらの ブログ でも詳細を説明していますのでぜひご覧ください。 (ミニチュアプラント) (生成 AI への障害内容問い合わせ) (組み込み型 Amazon Chime “Chime SDK“を使った音声・映像によるコミュニケーション) 6. Amazon Monitron による工場群設備の不良予知保全ダッシュボード 複数の拠点に工場やプラントを持つ企業では、何千もあるモーターやポンプなど設備保全タイミング管理は品質とコストに影響する重要な課題です。この展示では 、産業設備の不良を予知し、工場やプラントの計画外のダウンタイムを減らす予知保全ソリューション Amazon Monitron と、産業設備のデータを収集・管理するためのサービスである AWS IoT SiteWise を統合し、多拠点にある工場設備群の不良予知状況を可視化・スコア化するダッシュボードを表示します。一元的に設備の健全性を把握し、適切なタイミングで設備の保全作業を推奨するためのソリューションを展示します。デモでは Amazon Monitron が検知した設備不良予兆に基づいて信号灯やチャットサービスに通知を送り、現場作業員の保全作業と連携する仕組みをご覧いただけます。 (不良予知保全ソリューション全体の概念図) (サンプルアーキテクチャ) (予知保全ダッシュボード) サプライチェーンエリア サプライチェーンエリアでは「全体の可視性と予測的オペレーションの実現」をテーマに企業間をまたぐサプライチェーン全体の可視性を高め、予測的オペレーションを実現する AWS Supply Chain と自動車業界における Catena-X への取組みをご紹介します。 7. AWS Supply Chain/Catena-X AWS Supply Chain では在庫だけでなくサステナビリティなどさまざまなデータを収集し、機械学習を使って異種データを統合データレイクに簡単に保管できます。Amazon Bedrock を用いた自然言語インターフェイスを備えた生成 AI アシスタント ( Amazon Q ) によりデータレイク内のデータに対して自然言語で問い合わせができます。また、Catena-X の主要ユースケースの 1 つである PCF (Product Carbon Footprint) のデモを題材に、Data Space (Catena-X で用いられるデータ連携の仕組み) のアーキテクチャ、実装例について解説します。 (Catena-X を AWS 上で実現する為のサンプルアーキテクチャ) (Amazon Q in AWS Supply Chain:生成 AI アシスタント) スマートプロダクトエリア スマートプロダクトエリアでは「顧客価値の追求と継続的改善」をテーマに顧客の要望をとらえ、製品リリースのスピードを速加速し、AI を使った新しい製品のリリースや顧客の声に基づく改善を、組み込み ソフト 開発も含むループで実現する仕組みをご紹介します。 8. 仮想化で組み込みソフト開発・改善の高速化 AWS 上でハードレスな開発環境を構築することで製品のリリースを加速し、データドリブンな継続改善で顧客価値の最大化を実現するアーキテクチャをご紹介します。製品/サービス双方の開発環境を 1 つのプラットフォームで構成することにより、組み込みソフトウェア開発・サービス開発といったクロスドメイン間の壁を無くし、両チームが顧客の声を聞きながら高速にお客様に価値を届けることができます。 (サンプルアーキテクチャ) (デモシナリオ) 9. スマートプロダクト: 生成 AI によるカメラ映像からの危険判別 監視カメラ映像をと生成 AI を組み合わせて作業員の安全確保を予防・対応両面から支援する 2 つのシナリオをご紹介します。1 つはカメラ映像と生成 AI を使用して従業員の危険な状況を生成 AI が記述し、状況に応じて警告を出します。もう 1 つは作業員の安全装具の装着状況をカメラ映像から分析してレポートします。AI を活用したスマートな映像活用製品をすばやくリリースし、改善する仕組みとして参考ください。日本で開発し、re:Invent 2023 と Hannover Messe 2024 でも展示されたデモです。 (サンプルアーキテクチャ) (従業員の危険な状況を生成AIで説明) 基調講演 AWS と創る次の時代 スピーカー: Anthropic (アンソロピック) 共同創設者 兼 チーフサイエンティスト ジャレッド カプラン氏 ソニーグループ株式会社常務 CDO 兼 CIO 小寺剛 氏 株式会社 ispace Director of Information Security and Global IT ウッドハム ジュニア ダン ラマー 氏 Amazon.com, Inc. 最高技術責任者 (CTO) 兼バイスプレジデント ヴァーナー ボーガス (博士) Amazon Web Services Inc. APJ バイスプレジデント &amp; マネージングディレクター 兼 日本マネージングディレクター ハイミ バレス アマゾン ウェブ サービス ジャパン合同会社 執行役員 恒松 幹彦 日時:6 月 20 日 10:00-11:30 概要:AWS はお客様視点および長期的視野に立ち、お客様のイノベーションに向けた包括的な支援を続けてきました。「生成 AI」は次の時代を創り出すキーテクノロジーであり、既に多くのお客様が AWS を活用し新たな価値を生み出しています。AWS はこれまでと変わりなく自社のイノベーションを加速し、お客様と共にイノベーターとして社会、地球環境をより良くし、次の時代を創り出します。 ビルダーとテクノロジーが加速する次のイノベーション スピーカー: 東海旅客鉄道株式会社中央新幹線推進本部リニア開発本部副本部長 水津亨 氏 株式会社電通デジタル執行役員データ&AI 部門長山本覚 氏 Amazon Web Services Inc. リレーショナルデータベース エンジン担当 バイスプレジデント ラフ―ル パサック アマゾン ウェブ サービス ジャパン合同会社 執行役員 技術統括本部長 巨勢泰宏 日時:6 月 21 日 10:00-11:30 概要:最新のテクノロジー活用により、ビルダーにとってこれまでにないイノベーションの機会が到来し、迅速にアプリケーションを構築するだけでなく、可用性、弾力性、持続可能性、コスト、パフォーマンスも実現します。さらに生成 AI により、企業はデータをより戦略的かつ簡単に活用でき差別化やイノベーションを加速します。テクノロジーが創り出す新しい時代を、それらの実現に向けての AWS の戦略や支援を、これまで日本のお客様と創出してきたイノベーション事例とともにご紹介します。 AWS セッション たゆまぬ改善と革新を支える製造データ戦略 スピーカー:アマゾン ウェブ サービス ジャパン合同会社 黒田 雄大 日時:6 月 20 日 16:50-17:30 概要:製造業では、人材の不足や育成、品質向上やコスト削減に関する課題が旧来から叫ばれています。さらに、市場の要求はより複雑で変化に富んでいく中で、その変化に追従するためにはデータの活用をあらゆる業務に取り入れいくことが必要不可欠となってきています。本セッションでは、企画構想から設計、製造、更には市場に出た後のたゆまぬ改善にデータとクラウドをどう活用するかについて、現場から出発し、全社にスケールしていくためのデータ活用における思想設計や、ユースケース設定に立ち戻って現場と経営層の視点をあわせたデータ活用を推進するための組織・プロセス・ソリューションについて説明します。 お客様事例セッション プライベート LLM 開発の実践事例 スピーカー:株式会社リコー デジタル戦略部 デジタル技術開発センター 所長 梅津 良昭 氏 日時:6 月 20 日 12:40-13:10 概要:OSS の LLM の性能が向上してきた事で、企業でもプライベート LLM の開発・保有に向けた検討が始まっている。リコーでは AWS の最新 AI チップを使った開発を行い、プライベート LLM 開発に対しての高い技術とノウハウを持っており、本講演でご紹介します。また併せて、企業内データを活用するための RAG やプライベート LLM の紹介や実践例をご紹介します。 生成 AI を活用したソフトウェア開発の効率化 スピーカー: 三菱電機株式会社 AI 戦略プロジェクトグループ 兼 DX イノベーションセンター プロジェクトマネージャー兼 副センター長 博士(工学) 田中 昭二 氏 三菱電機株式会社 生産システム本部 生産システム企画・技術部 ソフトウェア生産力強化グループ グループマネージャー 博士(情報科学) 長峯 基 氏 日時:6 月 20 日 13:30-14:00 概要:日本の製造業は深刻な人材不足や開発の属人化が問題になってきており、ソフトウェア開発規模増大への対応が困難となってきています。そこで、三菱電機は AWS と共に生成 AI を活用した組み込みソフトウェア開発の効率化にチャレンジしました。 プラント建設の最前線! ~データ活用による JFE流 DX ~ スピーカー:JFEエンジニアリング株式会社 DX 本部 常務執行役員/本部長 小山 建樹 氏 日時:6 月 21 日 12:40-13:10 概要:JFE エンジニアリングでは、プラント操業における膨大なセンサーデータを収集・分析し運転状況の可視化や異常予兆検知を可能にしました。さらに AI による運転最適化で操業効率の飛躍的改善を実現。当社建設プラントのみならず、外部への展開も視野に入れております。センサーと AI の力で、お客様のプラント運用を革新し、産業の DX を加速させます。本セッションでは、当社が現在に至るまで組織として取り組んできた DX 推進のポイントと、インダストリアルデータプラット―フォーム「Pla’cello®」の開発及び、活用事例について紹介します。 各セッションのご登録は こちら おわりに 今回は、製造エリアの展示をダイジェストでお届けしました。お伝えしたいことはもっとたくさんありますが、このブログだけでは紹介しきれません。ぜひ AWS Summit Japan にお越しいただき、ソリューションアーキテクトが作った実物の展示を見てください!他にもたくさんのセッションと展示がありますので AWS Summit Japan の 登録ページ からご確認ください。会場でみなさんにお会いできる事を楽しみにしています! 著者紹介 &nbsp;河井信彦(Nobuhiko Kawai) アマゾン ウェブ サービス ジャパン合同会社 ソリューションアーキテクト セキュリティベンダーを経て AWS Japan に入社し、エンタープライズ技術本部でソリュー ションアーキテクトとして活動中。関西の製造業のお客様を中心担当している。趣味はサ ッカーとフットサル &nbsp;
アバター
こんにちは!テクニカルインストラクターの室橋です。さて皆様、AWS クラウドの学習を、ゲームベースで行うことができる学習コンテンツの「AWS Cloud Quest(以下 CQ )」、ご利用いただいておりますでしょうか? CQ は、ゲーム内で、ストーリーに沿って出題されるソリューション構築に関する課題を、実際の AWS のアカウントを使用しながら解いていく、RPG テイストのコンテンツです。 ゲーム内で使用する AWS アカウントは、ゲームの中のみで一時的に作成されるアカウントとなるため、サービスの使用料金などは気にせず、学習に集中してご利用いただけます。「まだ知らないな」という方は、 こちらのブログ にて詳しくご案内しておりますので、是非ご確認ください。 AWS Summit Japan にて AWS Cloud Quest のトーナメントを開催します さて、CQ の中には、街の住人から出題される課題やクイズ、アーキテクチャパズル等、個人でプレイすることが可能な色々な要素が含まれているのですが、 他のプレイヤーとスコアを競うことのできる「トーナメントモード」という要素も用意されています(トーナメントの開催、参加には Skill Builder のサブスクリプション登録は不要です)。 トーナメントモードを使用することにより、個人や組織の単位で、時間制限のあるコンテスト(トーナメント)を開催できます。 トーナメントが開始されると、CQ 内の学習アクティビティ(課題のクリアやクイズ、アーキテクチャパズルへの回答など)で獲得したポイントが、トーナメント内のスコアとして集計され、トーナメント期間中、ほぼリアルタイムで集計、発表されます。トーナメントモードでは、個人個人のプレイヤーでスコアを競ったり、チーム単位でスコアを競ったりすることが可能となっています。 この度、 2024 年 6 月 20、21 日に開催される AWS Summit Japan に合わせ、CQ のトーナメントを開催いたします ので、他の方とスコアを競い合いながら CQ を楽しんでみたい方は是非チャレンジしてみてください。開催期間は 6 月 20日 12:00 から 6 月 30 日まで、トーナメントの成績上位 5 名様には参加記念品を進呈させていただく予定です。詳細は後日、本ページもアップデートいたしますので、そちらの情報をお待ちください! ご自身でトーナメントを開催する方法についてご案内します さて、上記期間中の AWS 主催のトーナメントには、是非是非ご参加いただきたいのですが、その他にも、皆様が 「ご自身でトーナメントを開催されたい」 というケースもあるかもしれません。トーナメント機能を利用することにより、様々な規模のコンテストを簡単に開催できるので、新規に入社された方のオンボーディングやチームビルディング活動の促進、AWS のサービスについての勉強会など、色々な目的でご活用いただけると考えております。ここでは、トーナメントの開催について、簡単に手順をご紹介していきたいと思います。 1.トーナメント開催者の方の Skill Builder のアカウントで CQ にログイン(サブスクリプション登録していない無料のアカウントでもトーナメントの開催は可能です) 2.右下の XR デバイスから「トーナメント」を選択 3.画面左側の「イベント作成」をクリック 4.トーナメント名、説明、トーナメント期間、チーム数などを登録して「イベントを保存」 5.表示されるコードを、トーナメント参加者にシェア 6.参加者は左側の「イベントに参加」より、シェアされたコードを入力することにより、トーナメントに参加可能 以上で、設定したトーナメント期間中に獲得したポイントがスコアとして集計され、発表されるようになります。 ここで、参加にあたっての注意点を数点ご案内いたします。 トーナメントに参加すると、参加者のゲーム内の ID や、ゲームの進捗状況が他参加者からも確認可能になります。 トーナメント参加前から課題をクリアしたり、バッジを取得していた場合でも、トーナメント参加時にはそのポイントは加算されません(0 ポイントからのスタートとなります)。 トーナメントでのポイント獲得については、すべてのロールの課題がポイント獲得の対象アクティビティとなります。つまり、無償の CP ロールのみでトーナメントに参加するよりも、サブスクリプション登録を行っている方がポイント獲得のためのアクティビティ選択肢が多くなります。 トーナメント開始時、終了時に特別なアナウンスや表示は行われません。 上述の通り、トーナメントモードはプレイヤー単位でポイントを競うことも可能ですし、チーム単位でランクを競うことも可能です。ご自身で目標を決めてみたり、同僚、ご友人の方と一緒に参加して楽しんだりと、様々な楽しみ方が考えられます。今年からチームに新しいメンバーが増えた方、そろそろAWSの学習を始めてみようかな?と考えておられる方、この機会に CQ のトーナメントモードで仲間と共に学習を進めてみるのはいかがでしょうか?一人で学習をするのも良いですが、他の方と一緒に学習をすると、また違った楽しみが見つけられるかもしれませんよ! AWS Cloud Quest の Machine Learning(機械学習)ロールが日本語対応しました さて、ここまでは CQ のトーナメントについてご案内してきましたが、最近のアップデートもあわせてご案内させてください。CQ では、今までに「Cloud Practitioner(以下 CP)」「Solution Architect」の 2 ロールが日本語化されてきましたが、2024 年 6 月から新たに「Machine Learning(機械学習:以下 ML)」ロールが日本語対応となりました!ML ロールは他ロールと重複する課題もありますが、今回新たに日本語版に対応した課題と、主な利用サービスを以下に掲載します。 ML ロールをプレイするには、Skill Builder のサブスクリプション登録が必要となります。まずは無料でプレイ可能な CP ロールをお試しいただき、「もっと色々な課題に挑戦してみたい」と思われた際は、サブスクリプション登録の上、チャレンジしてみてください。サブスクリプション登録いただくと、CQ のすべてのロールがプレイ可能なことはもちろん、1,000 以上のラボ環境や強化された試験準備コースなどもご利用いただけます。詳細は こちらのページ からご確認ください。 ということで、ご自身でトーナメントを開催していただくも良し、AWS Summit Japan にて開催されるトーナメントに参加いただいて雰囲気を味わっていただくのも良し、新規に追加された ML ロールの日本語版を楽しんでいただくのも良し!是非、雨の多くなるこれからの季節に、AWS Cloud Quest を使ってクラウドの学習を楽しんでいただければと思います。
アバター
みなさん、こんにちは。ソリューションアーキテクトの根本です。 今週も 週刊AWS をお届けします。 いよいよ AWS Summit Japan が来週に迫ってきました。2024年6月20日、21日、会場は幕張メッセになります。ご都合つく方は是非会場にいらしてください。 私も会場に行く予定なので、見かけたら遠慮なくお声がけください! それでは、先週の主なアップデートについて振り返っていきましょう。 2024年6月3日週の主要なアップデート 6/3(月) AWS Batch introduces the Job Queue Snapshot to view jobs at the front of the job queues AWS BatchにJob Queue Snapshot機能が追加されました。この機能によりキューの最前線にあるジョブを可視化することで、AWS Batch フェアシェアスケジューリング機能を補完し、ワークロードの進行に影響する可能性のある問題を迅速に特定して解決、迅速な対処ができます。この機能は、AWS Batchが提供されているすべてのリージョンでコンソールまたはCLI経由でご利用いただけます。詳細は ドキュメント をご確認ください。 Amazon CloudWatch Logs announces Live Tail streaming CLI support Amazon CloudWatch LogsのLive Tail streaming CLIが発表されました。AWS CLIでログをインタラクティブに表示したり、AWS内外問わず独自のダッシュボードでプログラムでログを表示するなど、表示・検索・フィルタリングが容易になります。詳細は AWS CLIのドキュメント をご確認ください。Amazon CloudWatch LogsのLive Tail streaming CLIはAmazon CloudWatch Logsが利用できるすべてのAWSコマーシャルリージョンでご利用いただけます。 AWS Elastic Beanstalk now supports .NET 8 on AL2023 AWS Elastic BeanstalkでAmazon Linux 2023環境の.NET 8.0がサポートされました。Elastic Beanstalkが利用可能な全てのリージョンで利用いただけます。詳細は ドキュメント をご確認ください。 6/4(火) Amazon API Gateway integration timeout limit increase beyond 29 seconds Amazon API Gatewayのタイムアウトが29秒の制限を超えて設定できるようになりました。大規模言語モデル(LLM)を利用した生成AIのユースケースなどより長い時間が必要なワークロードでも利用することができます。この設定はリージョン REST APIとプライベート REST APIで対応しますが、延長にあたりアカウントレベルのスロットルクォータを減らす必要がある点にはご注意ください。詳細は ドキュメント をご確認ください。 Amazon Q offers inline completions in the command line Amazon Q Developerがコマンドラインでのインラインコンプリートをサポートしました。例えば「git」と入力すると「push origin main」というようにコマンドラインを入力するとQ Developerがコードをリアルタイムで提案します。右矢印を押すだけで提案されたコマンドを利用できます。正確な提案のためにQ Developerは現在のシェルコンテキストと最近のシェル履歴を元にします。コマンドライン用のAmazon Q Developerは こちら からダウンロード可能です。現時点ではmacOSのみ対象の点ご注意ください。 Introducing Amazon EMR Serverless Streaming jobs for continuous processing on streaming data Amazon EMR Serverlessにストリーミングジョブモードが追加されました。これによりIoT デバイス、Web ログなどのデータソースからストリーミングデータを継続的に分析および処理できるようになります。AZの自動フェイルオーバーやAmazon MSKのほかAmazon Kinesis Data ともConnectorを介して統合されるため、ストリーミングパイプラインを簡単に構築可能です。詳細は ドキュメント をご確認ください。この機能は東京を含む14のリージョンでご利用いただけます。 AWS DMS now supports Babelfish for Aurora PostgreSQL as a source AWS Database Migration ServiceがBabelfish for Aurora PostgreSQLをソースとして利用できるようになりました。Babelfish は Amazon Aurora PostgreSQL 互換エディションの機能で、Microsoft SQL Server用に作成されたアプリケーションからのコマンドをAuroraで利用できるようにするものです。詳細は ドキュメント をご確認ください。 Amazon Titan Text Embeddings V2 now available for use with Bedrock Knowledge Bases Amazon Titan Text Embeddings V2 が、Amazon Bedrock Knowledge Basesを使用できるようになりました。Titan Text Embeddings V2を使用すると、利用者はデータをベクトルデータベースに埋め込み、そのデータを使用して、質問と回答、分類、またはパーソナライズされた推奨事項などのタスクに関連する情報を取得できます。このアップデートは米国東部 (バージニア北部) および米国西部 (オレゴン) の 2つのリージョンで利用可能です。詳細については こちらのブログ もご確認ください。 6/5(水) Amazon OpenSearch Serverless slashes entry cost in half for all collection types Amazon OpenSearch Serverlessにfractional 0.5 OCUの選択肢が増え、より小さい規模な目的でもご利用いただけるようになりました。OpenSearch Serverlessは可用性の高い本番環境へのデプロイには、アベイラビリティーゾーンの停止やインフラストラクチャの障害の保護のために、冗長性を備えた最低 4 つの OCU が必要でした。今回のアップデートにより合計2 OCUから冗長性を備えることができます。また、高い可用性を必要としない場合1OCUで導入が可能です。このアップデートは東京を含む12のリージョンで利用可能です。 Amazon Aurora MySQL 3.07 (compatible with MySQL 8.0.36) is generally available Amazon Aurora MySQL 3.07(MySQL 8.0.36互換)が一般公開されました。今回のアップデートにはセキュリティの強化とバグ修正などが含まれています。アップグレードを適用するには手動、もしくは自動マイナーバーションのアップグレードを有効にしてください。 6/6(木) Announcing the common control library in AWS Audit Manager AWS Audit Managerに新しいcommon control libraryが導入されました。このライブラリでは事前定義および事前にマッピングされたAWS データソースが提供されるため、評価対象のAWS リソースを特定する必要がなくなります。また、エビデンス収集に関しても強化され、140のAPI呼び出しが新たに追加されました。これらの機能追加はAWS Audit Manager が利用可能なすべてのリージョンで利用可能です。詳細については こちらのブログ をご確認ください。 Amazon Inspector container image scanning is now available for Amazon CodeCatalyst and GitHub actions Amazon InspectorのコンテナイメージスキャンがCodeCatalystとGitHubとのネイティブに統合できるようになりました。これによりコンテナイメージの評価をCI/CDにより組み込みやすくなります。この統合はAmazon Inspectorが利用できる全てのリージョンでご利用いただけます。 Amazon SageMaker Model Registry now supports machine learning (ML) governance information Amazon SageMakerはモデルカードをモデルレジストリに統合しました。今回のリリースにより、重要なビジネス詳細や技術メタデータを含む ML モデルのバージョンを開発ライフサイクルの早い段階で登録できるようになりました。これにより、顧客は1か所からライフサイクル全体にわたっての管理ができ、モデルガバナンス情報の発見が容易になります。この新機能はGovCloud リージョンを除くすべてのAWS リージョンで利用できます。詳細については ドキュメント をご確認ください。 Amazon EC2 instance type finder capability is generally available in AWS Console Amazon EC2 instance type finderの提供が発表されました。AWS マネジメントコンソール経由でワークロードに最適な、費用対効果の高いインスタンスタイプを選択できます。また、Amazon Qと統合されているため、自然言語を使用した要求の指定や提案を受けることも可能です。EC2 instance type finderは、すべての商用 AWS リージョンで利用できます。詳細は こちらのドキュメント をご確認ください。 6/7(金) Amazon API Gateway customers can easily secure APIs using Amazon Verified Permissions Amazon Amazon Verified Permissionsが機能拡張され、Amazon API Gatewayの保護にOIDC準拠のアイデンティティブロバイダを使う際のきめ細やかなアクセス制御が可能になりました。承認されたユーザー属性とグループがアクセスできるように承認モデルとCedarポリシーを自動的に生成することで、コードを書かずにメンバーシップに基くアクセスを制御を行います。この機能はVerified Permissionsが利用可能な全てのリージョンでご利用いただけます。 Amazon Data Firehose now supports integration with AWS Secrets Manager Amazon Data Firehoseが、AWS Secrets Managerと統合され、Amazon Redshift、Snowflake、Splunk、HTTP エンドポイントなどに接続するためのデータベース認証情報やキーなどのシークレットをSecrets Managerで管理できます。これによりシークレットの自動ローテーションやプレーンテキストで表示されない等、より簡易にセキュアに管理可能になります。対象の接続先等、詳細は ドキュメント をご確認ください。 Centrally manage member account root email addresses across your AWS Organization AWS Organizationsで、CLI, SDK, コンソール経由で組織全体のメンバーアカウントのルート Eメールアドレスを簡単に一元管理できるようになりました。以前からSDKを通じて組織のお客様は、主要連絡先情報と代替連絡先情報の両方、およびアカウントで有効になっているAWSリージョンを一元的に管理することが可能です。ただし、メンバーアカウントのルートメールアドレスを管理するためにはrootとしてログインする必要がありました。今回のアップデートでこのSDK経由で変更作業ができるようになります。この機能は、すべての商用 AWS リージョンおよび中国のAWS リージョンで追加料金なしで利用できます。詳細については、 ドキュメント をご確認ください。 Amazon FSx for Lustre increases maximum metadata IOPS by up to 15x Amazon FSx for Lustreで実行できるIOPSが最大15倍に引き上げられ、ファイルシステムのストレージ容量と紐づかずにIOPSをプロビジョニングできるようになりました。これまでデフォルトでは、FSx for LustreのIOPS はストレージ容量に応じてスケーリングされました。これにより機械学習研究やハイパフォーマンスコンピューティング(HPC)ワークロードでさらに高いレベルのパフォーマンスとコスト最適化を実現できます。 この機能はPersistent_2 デプロイタイプが利用可能なすべての商用 AWS リージョンでご利用いただけます。詳細については ドキュメント をご確認ください。 それでは、また来週! 著者について 根本 裕規(Yuki Nemoto) AWS Japan のソリューションアーキテクトとして、金融機関のお客様の AWS 活用や個別案件の技術支援を担当しています。過去には公共部門やモダナイゼーションのスペシャリストもしていました。好きなサービスは AWS CodeBuild です。趣味はサンデーエンデューロライダーとしてバイクレースをしています!
アバター
みなさん、こんにちは。AWS ソリューションアーキテクトの小林です。 6月になりました。ちょっとまえの週刊生成AI with AWSでご紹介した、AWS公式ウェブマガジン “builders.flash” で新しい記事が公開されています。生成AIに関係しない記事もいろいろ公開されているのですが、このブログポストは「週刊生成AI with AWS」ですので、生成AIに関係するところをピックアップしてみましょう。 誰でも使えるノーコード生成 AI アプリ ! Amazon Q Business と Amazon Q Apps とは ?! Amazon Titan Text Embeddings の埋め込み表現で、レコメンド機能やタグ付けを実装 (note株式会社様) 生成 AI で AWS アップデートを効率的にキャッチアップ ! ひとつめの記事はAmazon Qの概要をお伝えするものですね。Amazon Qは一般利用開始になって以来、様々なお客様に興味を持って頂いています。この記事をご覧頂くと、Amazon Qがどういった機能を備えており、何ができるのか、概要を把握することができます。が、あくまで現時点の機能です!Amazon Qは活発に開発が行われているので、最新情報はWebをチェックするようにしてくださいね。 ふたつめのnote株式会社様にご寄稿いただいた記事は、Amazon Titan Text Embeddingsモデルに関するものですね。文書や画像検索や類似性判定ではEmbeddings(埋め込み形式)を扱うモデルが利用されます。noteでの実例に基づいてEmbeddingsを利用すると何ができるのかが解説されていますので、これまで今ひとつイメージがわかなかった、という方にとってわかりやすくまとまった記事になっています。 最後の記事は、AWSの様々なアップデートを日本語で要約して、SlackやTeamsに投稿する仕組みを作る方法を解説するものですね。実は私自身がブログ記事を書くときに、生成AIを使う場合もあったりします。その経験からすると、この仕組みは便利に使って頂けるだろうな、と半ば確信めいた思いを抱いています。 それでは、6 月 3 日週の生成AI with AWS界隈のニュースを見ていきましょう。 さまざまなニュース AWS生成AI国内事例ブログ: 株式会社システムインテグレータ様、プログラミングスキル判定サービスにAIによる解析機能を追加 株式会社システムインテグレータ 様は、プログラミングスキル判定サービス「 TOPSIC(トップシック) 」を提供していらっしゃいます。TOPSICでは、提出されたソースコードを受験者同士で共有し、他者の解答を参照することで自分自身のスキルアップに繋げることを推奨していますが、参照すべきソースコードや解答を探すための効率的な方法が提供できていないことが課題でした。その解決のために、ソースコードをタグ付けし、学習に適したソースコードを探しやすくする必要があり、そのために生成AIを活用することにしました。約1ヶ月という短期間でAmazon BedrockとAnthropic Claude 1.2によるプロトタイプ開発を完了し、課題に対する解法のカテゴライズや、プログラミング言語ごとの傾向把握が可能になったそうです。次のステップとして、Claude 2やClaude 3 Haikuへのモデル変更を検討しており、コスト最適化とレスポンス時間の短縮を見込んでいるとのことです。 AWS生成AI国内事例ブログ: 株式会社エクサウィザーズ様、RAGに用いる業務データをよりセキュアに連携可能な仕組みを開発 生成AIを組み込んだアプリケーションを開発するためのサービスも増えてきています。今回は 株式会社エクサウィザーズ 様の事例をご紹介します。エクサウィザーズ様はAIアプリケーションの開発環境として「 exaBase Studio 」を提供しています。exaBase Studio上で利用できるテンプレートとして、Amazon Bedrockを利用した検索拡張生成(RAG)によるアプリケーションを容易に開発できる「RAGOps」テンプレートが公開されました。これは業務データを安全に生成AIアプリケーションと連携し、RAGによる業務データに基づく回答を提供することが容易に実現できるようになったそうです。 Amazon Q Businessのお客様の声にソニー・ミュージックエンタテインメント様のコメントが掲載 Amazon Q BusinessのWebページでは、お客様からの声を掲載させて頂いています。まだ和訳が追いついていませんが、ソニー・ミュージックエンタテインメント様のコメントが掲載されました。課題管理ツールのJiraと組み合わせてご利用頂いていますので、ぜひご覧ください(社名のアルファベット順で並んでいます)。 ブログ記事「【開催報告】生成AIの価値を最大限に引き出すためのデータ基盤」(日本語)を公開 AWSでは様々なセミナーを通じて最新情報の発信を行っていますが、5/16に実施した生成AIとデータ基盤に関するセミナーの開催報告ブログが公開されています。実現したい価値や解決したい課題に応じて、生成AIの応答をカスタマイズする必要が生じることは多く、そのためには自組織のビジネスに関係したデータが必要不可欠です。このセミナーでは生成AIでデータを活用するためのデータ基盤の構築や、データアーキテクチャについて解説しています。資料と動画へのリンクがありますので、ぜひ一度ごらんください。 ブログ記事「【開催報告&amp;資料公開】 流通・小売・消費財業界向け:クラウドと生成 AI による顧客接点改革」(日本語)を公開 こちらもイベントレポートのブログ記事です。5/9に流通・小売・消費財業界の方を主な対象として、クラウドと生成AIによるお客様接点におけるイノベーションをテーマにしたセミナーを開催しました。生成AIは、それ自体を試してみるフェーズから、実業務への適用を検討し、実行に移すフェーズに入りつつあります。このセミナーではコンタクトセンターの対応品質向上や、物体検出の仕組みの実現、マルチモーダルなモデルによるお客様エクスペリエンスの向上などをテーマに様々なコンテンツを公開しています。動画へのアクセスと、一部を除き資料のダウンロードができるようになっていますのでこちらもぜひ。 ブログ記事「AWSとSAPの生成AIサービスを活用しセキュアでスケーラブルなビジネス環境に」(日本語)を公開 先週ご紹介したAWSとSAPの協業拡大について、具体的に解説するブログをご紹介しました。この協業はAmazon Bedrockとの連携をはじめとして、生成AI分野で両社がさらに協力関係を強めるというものです。その和訳が公開されましたので、ぜひご覧ください。 サービスアップデート Amazon Q Developerでコマンドラインのインライン補完が可能に Amazon Q Developerで、シェルで入力されたコマンドラインに基づいた、リアルタイムでのインライン補完が可能になりました。たとえば、コマンドラインで”git”と入力すると、Q Developerが次を予測して”push origin main”と補完候補を提示します。OKならそれを採用し、NGであれば意図したコマンドを入力するイメージです。この機能はQ DeveloperとQ Proの双方でご利用いただけますが、現時点ではmacOSのみの対応となっています。 Knowledge Bases for Amazon BedrockでAmazon Titan Text Embeddings V2が利用可能に Amazon Titan Text Embeddings V2は検索拡張生成(RAG)で利用することに最適化された埋め込みモデルです。今回のアップデートで、Knowledge Bases for Amazon BedrockでAmazon Titan Text Embeddings V2をご利用頂けるようになり、より効率的なデータセットを構築することができるようになりました。このモデルは100以上の言語データで事前学習が行われており、多言語に対応しているのもポイントです。 著者について 小林 正人(Masato Kobayashi) 2013年からAWS Japanのソリューションアーキテクト(SA)として、お客様のクラウド活用を技術的な側面・ビジネス的な側面の双方から支援してきました。2024年からは特定のお客様を担当するチームを離れ、技術領域やサービスを担当するスペシャリストSAチームをリードする役割に変わりました。好きな温泉の泉質は、酸性-カルシウム-硫酸塩泉です。
アバター
本ブログは、株式会社エクサウィザーズ と Amazon Web Services Japan が共同で執筆しました。 エクサウィザーズ は、AI アプリケーションの開発環境「 exaBase Studio 」を提供しています。exaBase Studio は、社内外の AI モデルやサービス、データを組み合わせて、AI ソフトウェアを構築できる開発環境です。キャンバスと呼ばれる直感的にわかりやすい設計・開発用の UI(ユーザーインターフェース)を活用して、アプリケーションの処理を可視化し、すぐにデプロイすることが可能となっています。また、テンプレートと呼ばれる同社の知見に基づいてあらかじめ設計された機能が用意されているため、それを活用しすぐにキャンバス上に展開することができます。 図1. exaBase Studio のキャンバスの画面例 課題 生成 AI の活用が本格化しつつある中で、事実と異なる回答をしてしまうハルシネーションを緩和するために、 検索拡張生成 (RAG, Retrieval Augmented Generation) と呼ばれる手法が活用されています。RAG を使用するアプリケーションは、ユーザーのリクエストに最も関連する情報を企業のデータなどから取得し、それをプロンプトとしてユーザーのリクエストとともにコンテキストとして束ね、生成 AI に送信してレスポンスを取得します。 しかし、RAG の導入を推進しているお客様のお悩みの中で、期待した結果が得られないことや生成 AI への企業データを連携することに不安を感じていることがわかりました。 ソリューション このような課題を解決するために、エクサウィザーズでは、exaBase Studio 上で利用できる Amazon Bedrock を活用した「RAGOps」テンプレートを開発しました。RAGOps テンプレートからすぐに、Bedrock とセキュアにデータ連携ができる RAG アプリケーションが構築でき、あらかじめ期待した結果を得るために改善する仕組みが実装されています。 図2. RAGOps テンプレートのシステム構成 Bedrock は、単一の API を介して AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI、および Amazon といった大手 AI 企業からの高性能な基盤モデル を選択できるフルマネージドサービスです。セキュリティ、プライバシー、責任ある AI を備えた生成 AI アプリケーションを構築するために必要な幅広い機能を提供します。 RAGOps の Bedrock への対応によって、高性能な基盤モデルからお客様のユースケースに適した選択ができるので、RAG の回答品質の改善に向けてすぐに試すことができます。他にも、RAGOps テンプレートの機能として、過去の質問と回答の活用やデータを活用する文脈ごとにデータセットを管理する仕組みなどが備わっています。 また、 Bedrock はセキュアな生成 AI アプリケーション を構築するのに役立ちます。 データ保護の面では、転送中および保管時には、全てのデータが暗号化されます。さらに、 AWS PrivateLink を活用することで、 Amazon Virtual Private Cloud(VPC) 上にあるアプリケーションから Bedrock に安全なプライベート接続を確立し、インターネット経由でのデータ流出リスクを回避することができます。 次にコンプライアンスの側面でも、Bedrock は一般的なコンプライアンス基準である ISO、SOC、CSA STAR レベル2など に準拠しているほか、医療分野での HIPAA 、 EU の一般データ保護規則(GDPR) への準拠もしております。 RAGOps は、プラットフォームとなる exaBase Studio と Bedrock 間に PrivateLink を利用しているため、プライベートなネットワークに閉じてセキュアにデータ通信することができ、セキュアな RAG アプリケーションの構築が可能となっています。 まとめ Bedrock を利用した RAGOps テンプレートにより、セキュリティの向上と RAG の回答品質向上の仕組みを実現しました。 エクサウィザーズでは、今後も AWS の先進的なテクノロジーを活用し、AI アプリケーションを展開しようとされているお客様により価値のあるサービス提供を目指します。
アバター
この記事は Tom McDonald によって執筆された内容を日本語化したものです。原文は こちら を参照して下さい。 アップストリーム・エネルギー事業における地質学および地球物理学 ( G&amp;G ) のワークロードでは、貯留層シミュレーション、地下構造解析、坑井の掘削・仕上げなどのさまざまなワークフローがあります。これらのワークフローには多様なパフォーマンスとクライアントの要件があるため、企業はさまざまなプロトコルに対応する複数のソリューションにデータをコピーするという運用上の大きな負担に直面することがよくあります。彼らは最近まで、Windows と Linux のどちらからでも同じファイルに同時にアクセスできるマルチプロトコルアクセスを実現するために、独自のソリューションを開発するという課題に直面していました。このプロセスには時間がかかるだけでなく、複雑さとメンテナンスのオーバーヘッドも増えていました。 現在、企業は Amazon FSx for NetApp ONTAP ( FSx for ONTAP ) を利用することができるようになりました。このフルマネージドサービスは、マルチプロトコルアクセスのためのシームレスなソリューションを提供します。これにより企業は複雑なインフラストラクチャを管理する代わりに、コアビジネスの活動に集中することができます。 この記事ではフルマネージドサービスとしての FSx for ONTAP を検証し、さらに利用可能な機能について説明します。その中には高度なパフォーマンス技術やアクティブ・モニタリング手法も含まれます。これらの側面を探ることで、読者は FSx for ONTAP の潜在能力を最大限に活用するための深い知見を得ることができるでしょう。 ソリューション概要 図 1 に示すように、 Amazon Elastic Compute Cloud ( Amazon EC2 ) のネットワーク接続型ストレージ ( NAS ) インスタンスは、企業が AWS への移行を開始する際に定番な構成で利用されています。 AWS Well Architected Framework には「運用上の優秀性」と「信頼性」の 2 つの柱があります。EC2 を NAS インスタンスとして構成する場合、インスタンスにパッチを適用し、フェイルオーバーが必要な場合に回復力を持つように複数のインスタンスを構築し、サービスを自己管理しなければなりません。これらすべてが運用上のオーバーヘッドとなります。 図 1 : EC2 を NAS インスタンスとして実行する際の構成 図 2 に示すように、FSx for ONTAP はマルチプロトコルアクセスを実現するフルマネージドなファイルシステムを提供します。個々のインスタンスのプロビジョニング、フェイルオーバー出来るような設計、アップグレードの管理などは不要です。NetApp ONTAP は、数十年にわたりアップストリーム・エネルギー事業で利用されてきました。データは FSx for ONTAP ファイルシステム内のアクティブファイルサーバとスタンバイファイルサーバ間で、自動的にミラーリングされます。このソリューションはシングルアベイラビリティーゾーン ( Single-AZ ) 構成で、2 台のファイルサーバをアクティブ – スタンバイ構成にすることで、データアクセスの可用性を高めます。 図 2 : シングルアベイラビリティーゾーンの設計 Single-AZ ソリューションの配置だけではなく、図 3 に示すようなマルチアベイラビリティーゾーン ( Multi-AZ ) ファイルシステムも利用でき、AZ を跨いだ耐障害性を実現できます。SnapMirror やSnapVault などの従来の ONTAP テクノロジは、さらに災害復旧要件や事業継続要件に利用できます。監視用の Amazon CloudWatch や Amazon CloudTrail に加え、 BlueXP や NAbox など、NetApp エコシステムのツールも利用でき、FSx for ONTAP ファイルシステムの優れた運用性とテレメトリーデータを活用できます。 FSx for ONTAP のサービスは、 さまざまなスループットと IOPS 構成 で利用できます。FSx for ONTAP は個々のプロジェクトに使用することも可能で、企業は必要な分だけ料金を支払うこともできますし、永続的なファイルシステムとして利用することもできます。 図 3 : マルチアベイラビリティーゾーンの設計 FSx for ONTAP をアップストリームのワークロードに最適化する アップストリームのワークロードの I/O パターンは多くの場合、同時実行処理は少なくシーケンシャルな読み取りで構成されます。このようなワークロードのために、FSx for ONTAP ソリューションには読み取りを高速化する NVMe リードキャッシュが用意されています。NVMe リードキャッシュに加えて、利用者は FlexGroup を作成することができます。 FlexGroup の作成 FlexGroup は、コンスティチュエントボリュームから構成されるボリュームです。ONTAP 側で自動負荷分散とスケーラビリティが提供され、いくつかのワークロードに効果をもたらします。FlexGroup の利点の 1 つは、通常の FlexVol よりもはるかに大きく拡張し、より多くのファイルを格納できることです。 標準の FlexVol には 100 TB の制限がありますが、FlexGroup には実質的に制限がありません ( NetApp は最大 20 PB を推奨しています ): FSxId0::&gt; vol create -vserver svm0 -volume flexg -aggr-list aggr1 -size 400T Notice: The FlexGroup volume "flexg" will be created with the following number of constituents of size 100TB: 4. Do you want to continue? {y|n}: y 上記の例では、ONTAP は 4 つの 100 TB コンスティチュエントボリュームから FlexGroup を作成します。4 つのコンスティチュエントボリュームは ONTAP のデフォルトで、ワークロード要件に基づいて調整することができます。 Flexible IO Tester ( FIO ) は、ストレージ・ソリューションを検証し定義するための一般的なツールです。Linux と Windows オペレーティングシステム用のクライアントがあります。FlexGroup の利点を調べるために、筆者はスループットが 512 MB/s のファイルシステムを作成しました。次の図では 1 行につき 8 回 FIO を実行して平均しています。FG/VOL および NFS バージョンの列は、それぞれさまざまなボリュームタイプとプロトコルのバージョンを示しています。 G&amp;G のワークロードでは、アプリケーションは様々なブロックサイズと多数のクライアントを持つことになります。さらにほとんどの ISV アプリケーションは、NFS の nconnect のような新しい機能を制限する古いオペレーティングシステムを今でも使用しています。どのワークロードにも微妙な違いがあり、アプリケーションとそれをサポートするオペレーティングシステムに基づいてバリエーションを特定する必要があります。図 4 では、64 KB ブロックの一般的なワークロードサイズで、単一クライアントからランダム I/O とシーケンシャル I/O の両方を実行し、これらの違いを示しています。混合ワークロードの場合、読み取りの割合は 70 %、同時書き込みの割合は 30 % であると想定します。次の表は、FlexGroup の影響、nconnect が助けになるか、プロトコルのバージョンによってさまざまなオーバーヘッドが発生する、などを示しています。 図 4 : FlexGroup の比較表 FSx のバックアップ機能や AWS Backup だけではなく、 SnapMirror などの他の技術を使用することでもバックアップとディザスタリカバリのソリューションを実現できます。 解釈アプリケーションのパフォーマンスのための SMB 専用最適化 Windows 上の多くの地下探査アプリケーションは、 解釈、分析、可視化のために大量のデータを読み書きします。いくつかのチューニングを検討するために、2 GB/sec のスループットとデフォルトの SSD IOPS を持つ FSx for ONTAP から g4ad.4xlarge インスタンスへ、 SEGY データを Robocopy で読み取ることから始めます。g4ad.4xlarge は最大 10 Gb のネットワーキングを提供し、以下のチャートに見られるようなバースト機能があります。その後、I/O の方向に意味があるかを検証するために SEGY と Robocopy での書き込みを続けました。 ここで筆者が検討した 2 つのオプションは、FSx for ONTAP 側の SMB Maximum Transition Unit ( MTU ) 設定 ( デフォルトでは Large MTU が有効 )、そしてクライアント側の帯域幅制限 ( デフォルトではクライアントの観点からも有効 ) です。図 5 に示すように、クライアント側の帯域幅制限が有効でも無効でも、目に見えるパフォーマンス向上はこれらのプロファイルにはありませんでした。 これは特定のデータ型の単純な移動ですが、SMB の MTU サイズの影響についてさらに深掘りするには十分なパフォーマンスの違いが確認されました。 図 5 : SMB 帯域制限の性能比較表 Large MTU は SMB ブロックを最大 1 MB まで転送できるようにする機能で、無効にするとブロックサイズが 64 KB と小さくなります。これはアプリケーション固有の要件であり、組織のニーズに基づいて評価されなければなりません。解釈アプリケーションでは、ファイルサイズが小さいものと大きいものが混在していることが多いですが、データの同時実行性はそれほど高くはありません。SMB の MTU が大きいと、ファイルサイズに関係なくパフォーマンスに影響を与える可能性があります。これらのブロックサイズを調べるために、筆者は 64 KB をブロックサイズとし、I/O 深度が 16、70 % が読み取りで 30 % が書き込みの FIO プロファイルと、それに対応する 1 MB の大きな MTU ブロックサイズのプロファイルを選びました。これはファイルシステムに対して複数のプロセスを実行させるためです。ファイルシステムに負荷が増えると、ブロックサイズに関係なく、シーケンシャルな処理負荷に対しては、Large MTU を無効にする方が有利な結果となりました。ランダム I/O については結果はまちまちでした。結果を図 6 に示します。 結果を視覚化するために大きなファイルをメモリにストリーミングするこれらのアプリケーションでは、SMB の Large MTU を無効にした場合のパフォーマンス結果をアプリケーションと環境で検証して、さらなるパフォーマンス向上を目指す価値があります。 図 6 : SMB の Large MTU 性能比較表 SMB の Large MTU を無効にするコマンド Large MTU を無効にするには以下の手順に従ってください : 1. アドバンスモードに入る : FSxId::&gt; set -privilege advanced Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel. Do you want to continue? {y|n}: y 2. 既定値が true に設定されていることを確認する : FSxId::*&gt; cifs options show -vserver svm0 -fields is-large-mtu-enabled vserver is-large-mtu-enabled ------- -------------------- svm0 true 3. Large MTU を false に設定する : FSxId::*&gt; cifs options modify -vserver svm0 -is-large-mtu-enabled false 4. Large MTU が false に設定されていることを確認する : FSxId::*&gt; cifs options show -vserver svm0 -fields is-large-mtu-enabled vserver is-large-mtu-enabled ------- -------------------- svm0 false 変更を有効にするには、Windows ホスト上の SMB 共有を切断し再接続する必要があります。 アクティブ監視 アクティブ監視とは、ワークロードを実行し、ワークロードのリアルタイム統計を監視することです。これはファイルシステムで何が発生しているかをすぐに把握するためによく使用されます。quality of service (QoS) はストレージオブジェクトを制限する技術ですが、FSx for ONTAP の qos statistics コマンド にはボリュームのパフォーマンス監視も含んでいます。以下の QoS コマンドは、vsadmin SVM アカウントではなく fsxadmin ファイルシステム管理者アカウントでのみ利用可能になっています。これはファイルシステムレベルで実行されますので注意してください。 FSxId::&gt; qos statistics workload latency show statistics コマンドはアクティブなベンチマークやレイテンシーの確認に非常に有効で、ネットワーク、データ、ディスクなどの情報が表示されます ( 図 7 の例の様に見えます )。これはレイテンシーの問題を特定するのに役立ちます。さらに、そのデータを時系列データベースに送ってグラフ化することも可能です。 図 7 : qos statics workload latency コマンドの出力例 リフレッシュ表示を有効化 : FSxId::&gt; qos statistics workload latency show -refresh-display true スループットとアグリゲートのレイテンシーについては、以下のコマンドで図 8 のような結果が得られる : FSxId::&gt; qos statistics workload performance show 図 8 : qos statistics workload performance コマンドの出力例 IOPS、スループット、およびレイテンシーはすべて、全体的なパフォーマンスを把握するために必要です。IOPS は 1 秒あたりの入出力操作で、アプリケーションによって同時に処理されたものです。スループットは 1 秒間に転送されるバイト数のことで、IOPS にブロックサイズをかけたものです。レイテンシーはリクエストを処理するのにかかる時間のことで、サービスに関連するキャッシュやインフラストラクチャの影響を受け、IOPS の数に直接影響します。パフォーマンスのボトルネックを調査する際には、これらすべてを深く掘り下げることが重要なポイントです。 SVM レベルの権限は、自由に使えるコマンドの数がより制限されます ( SVM は分離された仮想ファイルサーバーであるため、これは各 SVM がファイルシステム全体にアクセスを制限するために行われます )。利用可能なコマンドには statistics コマンドがあります。SVM 管理者アカウントから計測できるパフォーマンス統計は以下のように記録されています。このコマンドでは、 -iterations ( 報告させたい統計の回数 ) と -interval ( 報告が表示されるまでの時間 ) を指定します。 svm0::&gt; statistics volume show -iterations 10 -interval 5 svm0 : 10/25/2022 14:52:35 *Total Read Write Other&nbsp;&nbsp;&nbsp;&nbsp; Read Write Latency Volume Vserver&nbsp;&nbsp;&nbsp; Ops&nbsp; Ops&nbsp;&nbsp; Ops&nbsp;&nbsp; Ops&nbsp;&nbsp;&nbsp; (Bps) (Bps)&nbsp;&nbsp;&nbsp; (us) ------ ------- ------ ---- ----- ----- -------- ----- ------- vol5&nbsp;&nbsp;&nbsp; svm0&nbsp;&nbsp; 1575 1575&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 95835136&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 524 vol7&nbsp; &nbsp;&nbsp;svm0&nbsp;&nbsp; 1545 1545&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 93981696&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 518 vol8&nbsp;&nbsp;&nbsp; svm0&nbsp;&nbsp; 1516 1516&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 92125184&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 543 vol1&nbsp;&nbsp;&nbsp; svm0&nbsp;&nbsp; 1506 1506&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 91600896&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 548 vol6&nbsp;&nbsp;&nbsp; svm0&nbsp;&nbsp; 1487 1487&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 90232832&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 485 vol4&nbsp;&nbsp;&nbsp; svm0&nbsp; &nbsp;1435 1435&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 87359488&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 546 vol2&nbsp;&nbsp;&nbsp; svm0&nbsp;&nbsp; 1412 1412&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 85709824&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 512 vol3&nbsp;&nbsp;&nbsp; svm0&nbsp;&nbsp; 1353 1353&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0 82245632&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 514 svm0_root svm0&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0 NetApp Harvest CloudWatch は高レベルのメトリクスを提供しますが、ONTAP Command Line Interface で示した、より深いパフォーマンスのメトリクスは CloudWatch では提供されません。しかし、NetApp Harvest や Grafana、NetApp Cloud Insights のようなツールは、より多くのメトリクスを提供することができます。詳細については、FSx for ONTAP ユーザーガイドの ファイルシステムのモニタリング のセクションを参照してください。 Harvest と Grafana を使用した FSx for ONTAP ファイルシステムのモニタリング NetApp Harvest Github クリーンアップ 必要以上の AWS コストが発生しないよう、上記の手順を実行した後、Amazon EC2 インスタンスや FSx for ONTAP リソースなど、作成された AWS リソースをすべて削除してください。 まとめ この記事では、FSx for ONTAP の高度な機能を活用し、既存の Amazon EC2 を NAS として実装するのに対して Amazon FSx for NetApp ONTAP の耐久性と回復力のメリットを紹介しました。FSx for ONTAP のマルチプロトコル機能、豊富なツールセット、マネージドサービスの簡素化とともに、FSx for ONTAP は既存のアプリケーションとワークロードを AWS で問題なく実行できるようになります。 アップストリーム、ミッドストリーム、ダウンストリームのワークロードにはマルチプロトコルの要件があり ( フルマネージドサービスならなお良い )、AWS と FSx for ONTAP ではこの機能をすぐに利用できます。特定の SMB ワークロードのための FlexGroup と SMB チューニングを使用するテクニックも紹介しました。Command Line Interface と NetApp エコシステムによるモニタリング手法により、信頼性の高いテレメトリーデータを得ることができます。FSx for ONTAP は、ワークロードに最適なパフォーマンスを提供するように高度なチューニングが可能です。 Amazon FSx for NetApp ONTAP は、ほとんどの AWS リージョンでご利用いただけます。コメントや質問がありましたら、お気軽にコメント欄にご記入ください。 翻訳はネットアップ合同会社の方様、監修はソリューションアーキテクトの長田が担当しました。 Tom McDonald Tom McDonald は AWS のシニア・ワークロード・ストレージ・スペシャリストです。Tom は Atari 400 とテープの再プログラミングからスタートして、あらゆるストレージサービスのパフォーマンスを向上させることに長い興味を持つようになりました。アップストリーム・エネルギー事業、ファイルシステム、ハイパフォーマンス・コンピューティングの分野で 20 年の経験を持つ Tom は、コミュニティとガイダンスを通じて他者を支援することに情熱を注いでいます。
アバター
本ブログは、株式会社システムインテグレータ様と Amazon Web Services Japan が共同で執筆しました。 株式会社システムインテグレータ は、「時間を与えるソフトウェアを創り続ける」というミッションを掲げる IT 企業です。パッケージ・ソフトウェアやクラウドサービス(SaaS)の企画開発・販売、コンサルティングなどを幅広く手掛けています。 同社では、エンジニアの採用や教育に役立つ、プログラミングスキル判定サービス「 TOPSIC(トップシック) 」を提供しています。 「 TOPSIC 」は、プログラミングおよび SQL のコーディングテスト問題と受験プラットフォームを提供するクラウドサービスです。オンライン受験、リアルタイム採点が可能となっており、「いつ」「誰に」「どんなテスト」を受験させるかを設定するだけで、簡単にプログラミングスキル判定が可能なサービスとなっています。「TOPSIC」 は、プログラミング「力」ならびにアルゴリズム「力」を問う TOPSIC-PG と、SQL スキルチェックだけでなく業務知識の習得にも役立つ TOPSIC-SQL から構成されています。 TOPSIC では提出されたソースコードを受験者同士で共有する機能が用意されています。同じ問題に対して提出されたソースコードでも、使われているアルゴリズムやデータ構造などは受験者やプログラミング言語によって様々です。他者の解答から自分とは異なる解法や実装方法などを学ぶことで、自身のアプローチの幅を広げていくことを推奨しています。しかし、これまでは参考とすべき解答を探すための具体的な方法がなく、データ長や実行時間を見ながら、数ある解答を逐一確認していく必要がありました。 検証内容 このような課題を解決するために、生成 AI の機能を用いてソースコードをタグ付けし、参考にしたいソースコードを簡単に検索できないかと考えました。この仮説検証のため、システムインテグレータでは AWS のサービスを活用した以下の検証を実施しました。 提出されたソースコードを Amazon Simple Storage Service (Amazon S3) にアップロードする。 Amazon Bedrock の Claude 1.2 を用いて提出されたソースコードを解析し、アルゴリズムやデータ構造ごとにカテゴライズする。 受験者が提出したソースコードを安全に管理することが絶対条件でしたが、Amazon Bedrock を活用することで、セキュリティの懸念もなく、 AWS 内のサービスのみでAI解析を行うことが可能となりました。 Amazon Bedrock を利用するのは今回が初の試みでしたが、AWS のマネージドサービスを活用することで、約 1ヶ月という短期間でプロトタイピングを終えることができました。 検証結果 Amazon Bedrock を用いて受験者のソースコードを解析し、解答へのアプローチ方法を自動でカテゴライズすることが可能となりました。これにより、受験者の提出履歴の検索性能が向上し、参考とすべき解答へ辿り着きやすくなりました。解法は利用言語毎に集計され、言語ごとの解法の傾向なども把握可能となりました。 今後の展望 Amazon Bedrock に関する検証を続けています。現在、本機能は Claude 1.2 で稼働していますが、Claude 2、 Claude 3 Haiku の導入も検討中です。特にClaude 3 Haiku を利用することで、コストの大幅カットとレスポンス時間の短縮を見込んでいます。 まとめ 「 TOPSIC(トップシック) 」は、コーディングテスト問題と受験プラットフォームを提供するクラウドサービスです。本サービスには、提出されたソースコードを受験者同士で共有する機能が用意されており、他者のソースから解答へのアプローチや実装方法を学ぶことを推奨しています。 Amazon Bedrock を活用して、各受験者の解答を解析することで、その解答で利用されているアルゴリズムやデータ構造などの情報でカテゴライズすることが可能になりました。これにより、提出履歴の検索性能が向上し、自己学習のプロセスが効率化されました。 今回の検証を通して、Amazon Bedrock を利用することで、安全かつ高速に生成 AI を用いた機能実装が実現できることを確認できました。システムインテグレータでは、今後も AWS の先進な技術を用いてソフトウェア開発に注力していく考えです。
アバター
本記事は、「 O2 Telefonica Moves its 5G core network to the Cloud with AWS and Nokia 」(2024年5月7日公開)を翻訳したものです。 O2 Telefónica は新しい「5Gクラウドコア」を発表しました。この5Gクラウドコアはヨーロッパのネットワーク機器プロバイダーである Nokia とアマゾンウェブサービス(AWS)の技術を使用して、完全にクラウド上で構築されます。 より多くの通信事業者が、ネットワークワークロードをクラウドに移行する価値を認識しています。今年前半、日本の主要なモバイルオペレーターである NTTドコモ が、AWS と協力して全国規模の 5G オープン無線アクセスネットワーク(RAN)を日本で商業展開することを発表しました。また、2021 年には DISH との協力で、米国国内の5Gネットワークを迅速的に構築・拡大することを発表しました。 一方で、本日の発表も重要です。通信事業者が既存のネットワークと加入者を、AWS 上で稼働する新しい 5G クラウドネットワークに移行する初めての事例です。 5G クラウドネットワークは、モバイル加入者をインターネット、音声、およびその他のネットワークに接続する「パケットコア」の進化形です。これは、加入者が 5G スタンドアローンネットワークを利用する際に、モバイルデータストリームが集約される場所です。新しい 5G クラウドコアは、加入者がプロバイダーの 5G スタンドアロンネットワーク(「5G Plus」)を利用する際に、より良いネットワーク体験を提供します。このアプローチで、コアネットワーク機能はクラウドネイティブアプリケーションとして設計され、より迅速かつコスト効率よく更新できるため、O2 Telefónica に運用上の利点ももたらします。これは、新機能が常に必要とされる 5G 時代において、特に重要です。ハードウェアを購入したり、専用のプライベートクラウドをデプロイ・管理する代わりに、ソフトウェアを更新し、クラウドでの容量を柔軟に予約またはキャンセルできます。これにより、O2 Telefónica は加入者に新しい 5G サービスを展開しやすくなり、加入者への最適なサポートと新たな収益化の機会を提供します。 O2 Telefónica の Director Mobile Access Network である Matthias Sauder 氏はそのメリットについて以下のようにコメントしました。「私たちは、データセキュリティと主権能力の向上、および優れたパフォーマンス、効率性、弾力性により、AWSをを選びました。これにより、我々のお客様に優れた5G体験と新しいデジタルアプリケーションを提供できます。」 次に、O2 Telefónica および Nokia と協力して、最も安全なクラウドである AWS を使用して、ネットワーク品質の向上と高いセキュリティ基準を実現する方法について詳しく見ていきます。 O2 Telefónica のネットワークアーキテクチャは、クラウドでの高可用性とスケーラビリティを念頭に設計されています。O2 Telefónica は、AWSリージョンとアベイラビリティゾーンを活用して、Nokia 5G コアを大規模に運用するための回復力、高い耐障害性のアーキテクチャを構築しました。例えば、計画作業もしくは計画外イベントが発生した際に、トラフィックは自動的に他のサーバーにルーティングされ、サービスのレジリエンスを実現します。結果として、サービスの中断なくメンテナンスを行うことができ、ネットワークの可用性が向上します。これは、モダンな 5G アプリケーションにとって特に重要です。このアーキテクチャで O2 Telefónica は Nokia のコンテナ化されたクラウドネイティブネットワーク機能(NFs)のオーケストレーションのために、 Amazon Elastic Kubernetes Service(EKS) を使用しています。これは、AWS リージョンや AWS Outposts におけるコンピューティング重視型からスループット重視型まで、さまざまなタイプのワークロードに対応する、 Amazon Elastic Cloud Compute(EC2) をノードとして使用しています。 政府や規制が厳しい業界から小規模企業やスタートアップまで、世界中のお客様が Amazon Web Services (AWS) を信頼して下さり、最も機密性の高いデータやアプリケーションをAWS上で構築しています。これは O2 Telefónica が AWS を選んだ主な要因の一つです。O2 Telefónica のデータコアネットワークは、モバイルネットワークの中心部分であり、すべてのアプリケーションとデータが集約される場所です。すべてのデータは、O2 Telefónica のオンプレミスまたはヨーロッパ内の AWS インフラストラクチャに保存され、完全にエンドツーエンドで暗号化されています。O2 Telefónica は、AWS とオンプレミスの様々な Nokia NFs 間の IP ネットワーキングに Amazon Virtual Private Cloud(VPC) を使用しており、無線アクセスネットワーク(RAN)サイトなどのオンプレミスサイトへの高性能、安全、レジリエントな接続には AWS Direct Connect を使用しています。O2 Telefónica は、セキュリティ、品質、およびデータ保護の高基準を包括するクラウドセキュリティフレームワークを開発しました。加入者データを保護するために、データ暗号化キーの管理に Amazon Key Management Service(KMS) と AWS CloudHSM を使用しています。これらサービスには専用の改ざん防止ハードウェアデバイスがフルマネージドで提供されます。さらにこのアーキテクチャは、すべてのAWSコンピュートインスタンスの基盤となる AWS Nitro System を活用して、データの分離、暗号化、コストパフォーマンス最適化、および速いイノベーションなど、O2 Telefónica の要件を実現し、ネットワーク運用者を加入者データにアクセスできないように制限します。そして、AWS Nitro System により、AWS は通信事業者ネットワークのトポロジ全体にクラウド連続体を提供し、EC2、ネットワーキング、およびEKSサービスをクラウドネイティブアーキテクチャの基本的な構成要素とします。耐障害性、パフォーマンス、拡張性に優れたブロックおよびネットワークアタッチドストレージには、Amazon Elastic Block Storage(EBS)とAmazon Elastic File Storage(EFS)をそれぞれ使用しています。AWS アカウントおよび組織のポリシーの一貫性のあるスケーラブルなガバナンスには、O2 Telefónica は AWS Control Tower を使用しています。様々な AWS リソースの自動展開および管理には、Continuous Integration/Continuous Deployment(CI/CD)サービスのスイートを使用しています。これらの CI/CD およびオブザーバビリティツールセットには、 AWS CloudFormation 、 AWS CodePipeline 、 AWS CodeBuild 、Amazon Elastic Container Service(ECR)、および Amazon CloudWatch が含まれます。 O2 Telefónica は、AWS が Amazon EKS 内で Multus Container Network Interface(CNI)プラグイン をサポートしていることからトラフィック分離も可能になり、また、高速パケット処理を含む様々なネットワーク機能要件に従って個別の CNI プラグインを使用できます。さらに、異なる種類のトラフィック(例えば、制御プレーンとユーザープレーン)を分離して、VPC 間および VPC-to-オンプレミス接続に異なるルーティングおよびセキュリティポリシーを適用するために、O2 Telefónica は Multi-VPC Elastic Network Interface (ENI) アタッチメントを使用しています。 Amazon EKS での Kubernetes 更新の頻度を最小限に抑えるために、O2 Telefónica は Amazon EKS 延長サポートを使用しています。Kubernetes のマイナーバージョンを Amazon EKS が一般提供された時点から最大26か月間使用できます。 「O2 Telefónica の5Gクラウドコアネットワークに選ばれたことを非常に誇りに思います。AWS の経験、成熟度、信頼性、セキュリティ、およびパフォーマンスが、O2 Telefónica の 5G クラウドコアネットワークの構築を支援し、彼らの未来のネットワークビジョンを実現するのに役立っています。」と、AWS EC2 VP の Jan Holfmeyr は述べています。 テレコム向けの AWS クラウドソリューションについて詳しくは、 AWS for Telecom をご覧ください。 著者について Amir Rao Amir Raoは、AWS の EC2 エッジサービスのテレコプロダクトマネジメントディレクターです。彼のグローバルチームは、テレコのお客様向けの AWS EC2 エッジサービスの構築に焦点を当てており、OSS/BSS、5Gコアおよび IMS、5G RAN(CU/DU)、および他の固定/モバイルネットワークアプリケーションドメインのための AWS サービスとインフラストラクチャを含みます。彼のチームは、Wavelength や Integrated Private Wireless (IPW) などの AWS 製品を管理することによって、企業のデジタルトランスフォーメーションにつながる 5G ネットワークの収益化にも焦点を当てています。現在の役職に就く前は、通信業界ビジネスユニットの AWS ソリューションポートフォリオの GM でした。彼のリードで、テレコお客様による AWS クラウドの採用が進み、テレコビジネスのバリューチェーンとテレコネットワークのトポロジー全体にわたる複数のソリューションが提供されました。Amir は、AWS、Motorola Solutions, Huawei, Nokia, Microsoft などの Tier 1 テクノロジープロバイダーで20年以上のグローバルな業務経験を持っています。キャリアを通じて、彼は2005年の CDMA、2006年の WIMAX、2012年の LTE、2019年の 5G MEC(Wavelength Zones)、2019年の AWS Outposts as NFVi、2021年には Dish と AWS クラウド上で5Gネットワークの構築、Swisscom と AWS クラウド上で 5Gコアの構築を経験しました。彼はスタンフォード大学経営大学院とロンドンビジネススクールの卒業生です。 Fabio Cerone Fabio は現在、AWS のマネージングディレクターであり、2019年に EMEA 地域向けのテレコビジネスユニットを設立しました。AWS に入社する前は、大規模なビジネス(10億ドル超)をスケールするセールス経験を持ち、通信業界でソフトウェアソリューションとサービスのビジネス開発を行いました。彼は Ericsson や Telecom Italia などの大手通信会社で働いてきました。Ericsson では、テレコクラウドビジネスラインのグローバルヘッドとして、サービスプロバイダーのクラウド導入への変革を推進しました。Fabio は、グローバル視点(コーポレートのグローバルエグゼクティブ役職)とローカル視点(顧客セールスエグゼクティブ)の両方でセールス成長とビジネス変革を推進し、成功を収めたダイナミックなエグゼクティブです。テックセクターで24年の経験を持ち、彼のキャリアは、セールス、デリバリー、ビジネス開発の様々な顧客対応役職から、会社全体の変革プログラムを推進し、新しい分野でのセールスを促進するジェネラルマネージャー役職まで成長しました。彼の専門知識は、通信業界、通信システムとアーキテクチャ、通信ソフトウェア、クラウドインフラとサービス、管理ソフトウェアとプラットフォーム、モビリティ(5Gへの進化を含む)、システムインテグレーションビジネスに焦点を当てています。Fabio のリーダーシップと管理経験は、高パフォーマンスな組織の開発、コラボレーション、所有権、アカウンタビリティ、および顧客重視の文化の確立において重要な貢献をしました。 翻訳はソリューションアーキテクトの陳誠が担当しました。
アバター
日本最大の “AWS を学ぶイベント” AWS Summit Japan が 6月 20 日(木)、21 日(金)の二日間に渡り幕張メッセで開催されます。クラウドコンピューティングコミュニティが一堂に会して、アマゾン ウェブ サービス (AWS) に関して学習し、ベストプラクティスの共有や情報交換ができる、クラウドでイノベーションを起こすことに興味がある全ての皆様のためのイベントです。基調講演・150 を超えるセッション、250 を超える EXPO コンテンツがあり、今回はその中からサステナビリティに関する展示ブースとセッションをご紹介します。 【 EXPO ブース AWS 展示 】 AWS for Sustainability (AWS for Every Application Zone) AWS は IT と企業全体の持続可能性を支援します。本展示では、クラウドワークロードの最適化による環境負荷低減と、炭素会計などのクラウドベースのソリューションで企業のサステナビリティに関する取り組みを加速する方法をいくつかご紹介します。 Sustainability Insights Framework (SIF) を活用した迅速な炭素会計システムの開発 企業や組織において、炭素排出量の測定と開示の透明性の確保を求められる機会が増えていますが、既存のシステムとの統合やデータ所有権の懸念などから、炭素会計のソリューションを購入するよりも自社で構築することを選択することも多くなっています。しかし、異なる炭素会計のフレームワークや方法論のサポート、排出係数の管理、データパイプラインの構築、認証およびセキュリティ管理、監査証跡の提供といった、全てを実現するプラットフォームの設計・構築は困難です。 Sustainability Insights Framework (SIF) は、こうした機能の多くをすぐに利用できるオープンソースのアクセラレータです。SIF を活用して、より迅速に充実した機能を備えた炭素会計システムを構築する方法をご紹介します。 生成 AI を活用してサステナビリティ報告書や基準から迅速に洞察を得る方法 様々なサステナビリティの枠組み (CSRD, GRI, SASB, TCDF, CDP など)、方法論、規制基準、報告実務の情報量は膨大です。サステナビリティの専門家やアナリストは、大量の情報を迅速かつ正確に分析し、規制から持続可能性報告要件や、持続可能性指標、報告されたデータなどの洞察を要約し導き出す必要がありますが、手作業で行うことは困難です。 公開されているサステナビリティ報告書の大多数は PDF ドキュメントとして公開されているため、効果的な情報検索のために構造化された機械可読形式 (JSON など) での文書解析が有効です。Amazon Bedrock を活用したサステナビリティ関連文書の自動分析をチャットボット形式で実現する方法をご紹介します。 上記のデモの他にも先日日本語で公開された AWS Well-Architected Sustainability Workshop のご紹介などもあり、AWS とサステナビリティについて幅広く会話できるスタッフが常駐していますので、是非お気軽にお立ち寄りください。 スマート x サステナブルビル管理デモ (Developer Zone) AWS IoT を活用し、持続可能性のソリューションライブラリの一つである 「Guidance for Smart and Sustainable Buildings on AWS」 を参考に、可視化したデータから省エネルギー化の洞察を得て、電力、費用及び温室効果ガス (GHG) 排出量の削減を実現するソリューションの実装例をご紹介します。 「サステナビリティを意識したミニチュア倉庫のデモを作ってみた !」 でご紹介している、Amazon の倉庫を模したミニチュアモデルおいて、室温や空気の質をデータに基づいて適切に管理することで省エネルギーにつながる過程をご覧いただけます。 【 EXPO ブース 事例展示 】 日本通運株式会社 (Industry Zone) 日本通運のエコトランス・ナビは、2050 年の温室効果ガス排出量実質ゼロに向け、お客様の ESG 経営に貢献する CO2 排出量算定・可視化サービスです。AWS QuickSight と Redshift を活用し、見やすい UI で大容量の情報をスピーディーにグラフィカルに表現。他社にはない CO2 削減のシミュレーション機能や公的機関への書類作成機能もあり、環境貢献と事務作業の軽減をサポートします。 株式会社アイ・グリッド・ソリューションズ (AWS Village) アイ・グリッドは Amazon Timestream などの AWS 機能を最大限に活用して開発した再エネ活用の最適化を実現する「R.E.A.L. New Energy Platform®」をご紹介します。ぜひお立ち寄りください! 【 AWS セッション 】 AWS-04 AI を利用した ESG レポーティングとデータ主導の意思決定 日時:6 月 20 日 (木) 14:50 – 15:30 スピーカー:アマゾン ウェブ サービス ジャパン合同会社 技術統括本部 ソリューションアーキテクト 佐藤 賢太 多くの組織は、サステナビリティに取り組むコミットメントを掲げていますが、目標を達成する上で必要なデータの測定と分析において課題を抱えています。組織が直面する主な課題の1つは、さまざまなソースからデータセットを抽出する能力です。このセッションでは、AWS の生成 AI サービスが FlexZero プラットフォームをどのように支え、既存の業界標準の炭素排出係数と計算を用いて、炭素データを取り込み、処理する方法を提供しているかを学びます。また、サプライチェーンソリューションのリーダー企業である Rehrig Pacific の事例では、AWS と FlexZero との協業により、自社のカーボンフットプリントを正確に測定し報告する方法についての洞察を共有します。 AWS-49 物流業におけるデジタルツイン構築における勘所 日時:6 月 21 日 (金) 14:50 – 15:30 スピーカー:アマゾン ウェブ サービス ジャパン合同会社 技術統括本部 ソリューションアーキテクト 戸塚 智哉 デジタルツインへの関心が近年高まっていると同時に、AWS でどのように構築していくべきか悩まれているお客様も増えています。デジタルツインは現実世界をデジタル空間に再現し、リアルタイムな監視やシミュレーションを可能にする技術ですが、現実世界のデータをどのようにクラウドで扱うのか、物流倉庫などの利用シーンをベースに、AWS IoT サービスを使ったデザインパターンをご紹介します。生成 AI と合わせることでより効果的なデジタルツインの実現についても勘所をご紹介します。 デジタルツインは、組織が物理的なシステムの性能を定量化し、環境への影響を削減するのを支援することで、持続可能な取り組みにおいて重要な役割を果たしています。デジタルツインは製造業で使われる印象を持たれている方も多いかもしれませんが、物流倉庫においてもコンベアなどの設備や、無人搬送車 (AGV)・無人搬送フォークリフト (AGF) の稼働に伴うエネルギー消費量の可視化と削減を効果的に行うことで組織の持続可能性の取り組みを支える可能性に言及したセッションになっています。デジタルツイン構築の勘所は製造業の方にも役立つ内容となっています。 【 事例セッション 】 CUS-13 進化し続ける Honda を実現するデジタル基盤 日時:6 月 20 日 (木) 16:00 – 16:30 スピーカー:本田技研工業株式会社 執行職 デジタル統括部長 河合 泰郎 氏 Honda では、今後も続く事業進化を実現していくデジタル戦略とデータを最大限に活用するデジタル基盤の整備を進めています。 この機会では、バリューチェーンを横断する基幹システムのデータと、コネクテッドカーに代表されるデジタルサービスのデータを掛け合わせて活用できることを可能にし、生成 AI など最新のデジタル技術の活用も含めて事業価値を生み出す構想の概要や、実現にむけた AWS サービスの位置づけについてご紹介いたします。 また、 6 月 20 日 (木) 17:10 – 17:25 に セキュリティ &amp; One-AWS Zone で AWS for Sustainability に関するミニステージを予定しています。こちらにも是非お立ち寄りください。 AWS Summit Japan は下記からご登録できます。今回ご紹介させて頂いたセッション以外にも数多くのセッションがあり、セッション内容の確認・受講登録が出来ます。皆様のご登録・ご来場をお待ちしています! https://aws.amazon.com/jp/summits/japan/ この記事はテクニカルアカウントマネージャーの石渡 嘉之が担当しました。
アバター