こんにちは。SCSKの磯野です。 Google Cloudにおける監視は、ログ監視とメトリクス監視の2種類に分けることができます。 今回は、それぞれの監視方法についてご説明します。 ログ監視 – Cloud Logging Google Cloudにおけるログの収集・保管・管理はCloud Loggingで行います。 Cloud Loggingとは 各 Google Cloud サービスが出力するログは自動的に Cloud Logging に集約されます。主な機能は以下の通りです。 ログバケット (GCSとは別物。Cloud Logging専用のストレージ)にログが保管される。 以下2つのバケットがデフォルトで存在。 _Required Google Cloud が必須で取得する監査系のログが投入される、無料。 _Default _Required以外のすべてのログが格納される。デフォルトでは保持期間が30日。 30日までなら保持期間無料。$0.50 / GiB の取り込み(保存)料金は発生する ログエクスプローラー :ログバケットに格納されているログを閲覧可能 Log Analytics:ログバケットに格納されているログをSQLでクエリ可能 料金 | Google Cloud Observability Google Cloud Observability の料金を確認する cloud.google.com ログ監視 Cloud Monitoring でアラートポリシーの条件を設定します。アラートポリシーの作成方法には3種類あります。 ログベースの指標(メトリクス) 「ログで Error という文字列を5分間で3個以上検知したらメール通知する」というような、指標をモニタリングするアラートポリシーを作成するイメージ。 昔はこちらしかなかった。ログベースのアラートと異なり、複数のログを集約して検知することが可能。 ログベースのアラート 検知対象の文字列を指定してログベースのアラートを設定する。 SQLベースのアラート Terraformサンプル # CloudRunのエラーログが発生したことを検知するアラートポリシー resource "google_monitoring_alert_policy" "cloud_run_warn" { display_name = "Cloud Run - Error Detected" combiner = "OR" conditions { display_name = "Log match - Cloud Run Error" condition_matched_log { filter = <<EOT (resource.type="cloud_function" OR resource.type="cloud_run_revision" OR (resource.type="cloud_run_job" AND protoPayload.serviceName="run.googleapis.com")) AND severity="ERROR" AND ( resource.labels.project_id="xxx" ) EOT label_extractors = { error_message = "EXTRACT(protoPayload.status.message)" } } } enabled = true alert_strategy { notification_prompts = ["OPENED"] notification_rate_limit { period = "300s" # 5分毎の集計 } auto_close = "1800s" # 下部に補足あり } notification_channels = "xxx(通知先のslackなど)" documentation { content = <<EOT project: $${resource.labels.project_id} job name: $${resource.labels.job_name} error_message: $${log.extracted_label.error_message} EOT mime_type = "text/markdown" } } auto_closeとは? アラート条件を満たすデータが 途絶えてから 指定期間が経過した際にインシデントを閉じるための期間 auto_close期間内に、再度アラート条件を満たすイベントが発生した場合、インシデントはオープンのままとなる メトリクス監視 – Cloud Monitoring Google Cloudにおけるメトリクスの収集・管理はCloud Monitoringで行います。 Cloud Monitoringとは 各種 Google Cloud サービスからパフォーマンスデータ等を収集して保存・閲覧可能にするサービス。取得できる指標には以下のような種類がある。 Google Cloud の指標 :デフォルトで収集される指標 Google Cloud metrics | Cloud Monitoring エージェントの指標 :Opsエージェントをインストールすると、メモリ使用率 , ディスク使用率 , スワップ利用率 などを取得できる Ops Agent metrics | Cloud Monitoring | Google Cloud カスタム指標 ユーザー定義の指標の概要 | Cloud Monitoring | Google Cloud メトリクスエクスプローラー :グラフの作成が可能 Metrics Explorer でグラフを作成する | Cloud Monitoring | Google Cloud アラートのdocumentation・ラベルを活用することで、通知メッセージをカスタマイズすることが可能 Cloud Monitoring におけるアラート通知をカスタマイズする Cloud Monitoringでアラートの通知内容をカスタマイズする方法とTerraformでの記載例についてご紹介します。ログ監視・メトリクス監視共に、アラートのdocumentation・ラベルを活用することで通知内容をカスタマイズ可能です。カスタムラベルの作成方法もご紹介します。 blog.usize-tech.com 2025.06.09 メトリクス監視 Cloud Monitoring で設定する 指標ベースのアラート 指標しきい値のアラート ポリシーを作成する | Cloud Monitoring | Google Cloud 指標なしのアラート ポリシーを作成する | Cloud Monitoring | Google Cloud 予測指標値のアラート ポリシーを作成する | Cloud Monitoring | Google Cloud クエリ言語の種類 MQL:非推奨 Monitoring Query Language overview | Google Cloud PromQL:推奨 Cloud Monitoring の PromQL | Google Cloud Cloud Monitoringのアラートポリシー作成画面にて、メトリクスのプレビューが可能 Builderで作成した場合でも、Metrics Explore経由であればPromQLへの変換が可能 ※ただし、__intervalなど一部正確に変換できないケースがあります。ご留意ください Cloud Monitoring の指標と PromQL のマッピング | Google Cloud クエリナレッジ $__interval :ダッシュボード UI 内で選択される、時刻範囲に基づく間隔を表します。 例えば、この変数を使用して、経時的な比率や平均などのさまざまな操作の時刻範囲を調整することもできます。 PromQL の使用 | IBM Cloud 資料 Terraformサンプル # VMが停止したことを検知するアラートポリシー。メトリクスが欠損したら発報 resource "google_monitoring_alert_policy" "vm_stoped" { display_name = "VM Instance - Uptime Absent(API VM Stopped)" combiner = "OR" conditions { display_name = "VM Instance - Uptime" condition_prometheus_query_language { query = <<EOT absent(avg by (instance_name, project_id)( increase(compute_googleapis_com:instance_uptime{ monitored_resource="gce_instance", project_id="xxx", instance_name="xxx"}[5m])) ) == 1 EOT duration = "240s" # 最大 240 秒間はデータは表示されないため } } notification_channels = "xxx(通知先のslackなど)" alert_strategy { notification_prompts = ["OPENED"] } documentation { content = <<EOT Project: "xxx" instance_name: "xxx" EOT } } 参考資料 Terraformドキュメント: Terraform Registry
こんにちは。SCSKの磯野です。 Google CloudではCloud Monitoringで監視を行うことができます。 監視をする際、Slack等に通知されるアラートのメッセージをカスタマイズしたいというケースがあると思います。 例)CloudRunのエラーログ監視において、Slackの通知にVM名やエラーメッセージを含めたい。 今回は、アラートの通知内容をカスタマイズする方法とTerraformでの記載例についてご紹介します。 アラートの通知内容をカスタマイズする方法 アラートのdocumentation・ラベルを活用することで、通知メッセージをカスタマイズすることが可能です。 詳細は以下公式ドキュメントに記載されています。 ユーザー定義のドキュメントで通知にアノテーションを付ける | Cloud Monitoring | Google Cloud cloud.google.com 変数として、ラベルを定義することが可能です。 リソースラベル 一覧 Monitored resource types | Cloud Monitoring | Google Cloud メトリクスラベル 一覧 Google Cloud metrics | Cloud Monitoring 上記ドキュメントは最新ではないことも。Google API Explorerで確認するとよい。 Method: projects.metricDescriptors.get | Cloud Monitoring | Google Cloud カスタムラベル カスタムラベルについて、ログ・メトリクスで扱い方が異なります。詳しく見ていきましょう。 Google Cloud における監視方法について- モニタリングとロギング Google Cloudにおける監視はログ監視とメトリクス監視の2種類に分けることができます。Cloud Loggingの使い方、Cloud Monitoringにおけるクエリの書き方、Terraformでアラート実装方法等をご紹介します。 blog.usize-tech.com 2025.06.09 ログ監視におけるカスタムラベル リソースラベル に加えて、 ログベースのアラートポリシー では、 log.extracted_label. KEY という形でカスタムラベルを付与することが可能です。 Terraformでの記載例は以下の通り。 # CloudRunのエラーログが発生したことを検知するアラートポリシー resource "google_monitoring_alert_policy" "cloud_run_warn" { display_name = "Cloud Run - Error Detected" combiner = "OR" conditions { display_name = "Log match - Cloud Run Error" condition_matched_log { filter = <<EOT (resource. type = "cloud_function" OR resource. type = "cloud_run_revision" OR (resource. type = "cloud_run_job" AND protoPayload. serviceName = "run.googleapis.com" )) AND severity = "ERROR" AND ( resource.labels. project_id = "xxx" ) EOT label_extractors = { error_message = "EXTRACT(protoPayload.status.message)" } } } enabled = true alert_strategy { notification_prompts = [ "OPENED" ] notification_rate_limit { period = "300s" } auto_close = "1800s" } notification_channels = "xxx(通知先のslackなど)" documentation { content = <<EOT project: $ ${resource.labels.project_id} job name: $ ${resource.labels.job_name} error_message: $ ${log.extracted_label.error_message} EOT mime_type = "text/markdown" } } メトリクス監視におけるカスタムラベル リソースラベル や メトリクスラベル に加えて、Monitoring は、モニタリング対象リソースに関する追加情報を内部で収集し、システム メタデータ ラベルに保存します。これらのシステム メタデータ ラベルは、読み取り専用の値として使用できます。一部のリソースでは、Google Cloud コンソールで VM インスタンスなどのリソースを構成するときに、独自のリソース メタデータ ラベルを作成することもできます。 指標モデルのコンポーネント | Cloud Monitoring | Google Cloud cloud.google.com Terraformでの記載例は以下の通り。 本コードでは、 リソースラベル ・ メトリクスラベル を使用して、通知内容のカスタマイズを行っています。 # CloudRunジョブのCPU使用率が90%を超えたことを検知するアラートポリシー resource "google_monitoring_alert_policy" "cloud_run_memory_utilization_common" { display_name = "Cloud Run Job - Container Memory Utilization > 0.9" combiner = "OR" conditions { display_name = "Cloud Run Job - Container Memory Utilization" condition_prometheus_query_language { query = <<EOT histogram_quantile(0.99,sum by (job_name,project_id,le)( run_googleapis_com:container_memory_utilizations_bucket{ monitored_resource="cloud_run_job", project_id="xxx"})) > 0.9 EOT } } enabled = true notification_channels = "xxx(通知先のslackなど)" alert_strategy { notification_prompts = ["OPENED"] } documentation { content = <<EOT Project: $${resource.label.project_id} JobName : $${metric.label.job_name} EOT } } まとめ いかがだったでしょうか。 今回は、Cloud Monitoringでアラートの通知内容をカスタマイズする方法とTerraformでの記載例についてご紹介しました。 本記事が皆様のお役に立てれば幸いです。
みなさん、こんにちは。SCSKのMasedatiです! 最近の私、週2でラーメン屋に通っています。E.A.Kって最高ですね! さてさて、今年で新卒3年目を迎える私ですが、昨年度は新人指導員としてOJTに携わっていました。 その中で改めて感じたのは、 新人の皆さんは日々覚えることが多く、なかなかアウトプットにまで手が回らない という課題です。 私が1年目だった頃、アウトプットの機会を提供する取り組みとして、 月1回のブログ発信を支援する「 新人ブログマラソン 」が実験的に始まりました。 当時は新人としてブログ発信に挑戦する立場でしたが、 技術を言語化し発信する経験は、非常に良い刺激 となったのを覚えています。 この経験を踏まえ、2024年度も新人の皆さんが自らテックブログを書き、楽しみながらアウトプットに取り組める場として、 「 新人ブログマラソン 」を継続開催することにしました。 企画概要 新人と指導員がペアを組み、新人がブログ記事を執筆 ※ペアは月ごとに交代 指導員は記事に対してフィードバックを行い、その後、ブログを公開 実施期間は 2024年12月〜2025年3月 で、 月1本の投稿 を目安 技術に関連する内容、またはそれに準ずる内容であればテーマは自由 前回開催の「新人ブログマラソン」の活動報告 は↓こちら。 新入社員がブログを書き始めるきっかけとは!? 当社新人たちがテックブログを書いてみたよ。 blog.usize-tech.com 2024.05.07 そもそもなんでブログを書くのか?(再掲) 人に伝えようとすることで自分の理解になる。 昔の人は言いました「100回の購読より、1回の寄稿」だと。 新人はインプットする機会は多いですがアウトプットすることで知識定着に寄与できます。 「テックブログを書く」という道の最初の一歩を作る。 テックブログなんて社外に発信できるなんてすごいエンジニアだけなんだ。という畏怖の取り除きを解消することができます。 新人育成の中で先輩社員がリードしてあげることで新人様の最初の一歩を促すことができます。 社内外に顔を売るチャンスを作る。 社外発信することにより人目につき、名前や顔が売れていきます。 パブリックな活動を評価するような仕組みも社外にはあるので、そこに取り上げてもらうことで当社としても個人としても対外的な評価を受けれるのは素晴らしいことです。また社内向けには報告会を行うこと新人様と役職者をつなげるような活動にも発展できます。 取り組み紹介 ということで今期取り組んだ新人様6名の記事を紹介したいと思います。 本イベントを通して発信されたブログ一覧は↓こちら! 新人ブログマラソン 2024 【2024/12月~2024/3月開催】SCSKの新人たちが自由なテーマで毎月クラウド技術やテクノロジーに関する記事をお届けします。 blog.usize-tech.com 2024.11.27 ササキさん ◆主な業務内容 ・DWH基盤構築(Snowflake) ・DB構築(Oracle) ◆趣味 ドライブ・神社仏閣めぐり ◆投稿記事 ササキさんの記事 Snowflakeの最新機能を、新米エンジニアの視点から徹底的に解剖する、Snowflake入門ブログ となっています。 Snowflakeに興味はあるけれど、何から始めれば良いか分からない…最新機能って難しそう…そんな悩みを抱える方にこそ、ぜひ読んでいただきたい内容です。 特に、Cortex AIを使い、ドキュメント検索アシスタントを実際に構築していく過程を、基礎から応用まで、一つ一つ丁寧に解説していただきました。 ✨感想ダイジェスト✨ 知識整理および新情報キャッチアップ 🔍 調査や検証の仕方に慣れることができた ✍️ 習慣的な投稿が大切だと感じた 初学者にも伝わるように執筆することは難しい・・・ 💡 客観的な視点を持つことの大切さに気付いた 今後について 🚀 所属組織のプレゼンス向上につながるため、 より PV 数を意識して投稿していきたい コウさん ◆主な業務内容 ・ USiZE に関連する保守運用/機能開発 ◆趣味 エクストリームスポーツ・スキー ◆投稿記事 コウさんの記事 Rubrikの様々な側面を深く理解していただけるようなコンテンツ を寄稿いただきました! Rubrikそのものの概要、提供される機能、そしてバックアップ管理の全体像について詳しく解説されています。 また、Rubrikが備えるランサムウェア対策機能の仕組みと検証や機密データの可視化と管理を容易にするSensitive Data Discoveryについても掘り下げていただきました。 さらには、RubrikとAWSとの連携に注目し、EC2のバックアップを自動化するための設定手順から、アーカイブに至るまでの具体的な流れを検証されています。 ✨感想ダイジェスト✨ Rubrikに対する理解の促進 💪実際に手を動かして検証する中で、知識が定着することができた アウトプットの効果 🤝自部署以外との交流が増えた 🤔伝わりやすい言葉選びや構成の工夫の習得 今後について 🎨より多くの人に届くよう、タイトルや見せ方も工夫したい 🔥実務で得た知見をわかりやすく発信し続けていきたい オダさん ◆主な業務内容 ・ USiZE に関連する運用 ◆投稿記事 オダさんの記事 実務経験に基づいたIT技術情報 を寄稿いただきました! PowerShell、ITIL、vCLS、Vagrant/VirtualBoxの技術での課題解決から学習内容の共有まで広く情報発信されていますが、 特に vSphereのvCLS仮想マシンについてのブログ が必見です。そもそもvCLSとは何なのか、vCLSが有効であるとどんないいことがあるのか、無効にするとどのような影響があるのかを中心に調べてまとめていただきました。 ✨感想ダイジェスト✨ 発信活動に対する心理的ハードルの低下 😓これまで何かを発信した経験がほとんどなかったので、かなり苦戦 💪イベントを通して、自分の中で何となく書き方のようなものがわかるように 📝情報のまとめ方、ブログの書き方への理解度向上 情報調査の深化 マガリフチさん ◆主な業務内容 ・コンテナ構築 ・IaaSクラウド移行作業 ◆趣味 料理・スポーツ観戦 ◆投稿記事 マガリフチさんの記事 AWS Fargateコンテナへのログイン方法やAWS Cloud9の代替サービス比較といった、 AWSを利用する中で多くの方が抱える課題 を中心に記事執筆いただきました。 コンソール画面のスクリーンショットを豊富に掲載し、各操作の意味を丁寧に解説しています。読者の皆様が実際に手を動かしながら理解を深められるように工夫されているのが伝わります。 ✨感想ダイジェスト✨ 曖昧だった知識を整理 ✍️文字に書き起こすことで自分の中の考えを整理しなおし、人に説明できるレベルまでもっていくことができた! アウトプットでスキルアップ 👂自分以外の読み手が何を求めているのかを知ることができた。 🎨サービスの理解だけでなく、相手に読んでもらうブログとしてデザイン力も鍛えることができた。 🗣️指導員フィードバックから、新たな知見を得ることができた。 他部署との交流 👨🏫イベント参加者のブログを読むことで、自然に業務以外のサービスの知識を知ることができた。 ワタナベさん ◆主な業務内容 ・ S-Cred + プラットフォーム 運用 ◆趣味 吹奏楽(クラリネット)・油そばをすすること ◆投稿記事 ワタナベさんの記事 Amazon Bedrockの最新機能やDatadogハンズオン について寄稿いただきました。 特に、re:Invent 2024で発表された 「Amazon Bedrock Multi-Agent Collaboration」を最速で検証したブログ はおすすめです。 教材がない中の独力でのハンズオンのため、エラーを繰り返した苦労も含めていただいたことで、AWS公式記事を見て触ってみる人にとって有用なものになったと思います。 ✨感想ダイジェスト✨ ブログ発信の壁突破 ✍️最初の投稿で先輩からのアシストを受けることで、読みやすいブログ執筆のための作法を知ることができた 🎉イベントとして一定回数の投稿を行うことで投稿の仕方が分かる & 習慣化 指導員レビューからの学び 👀読み手の求めていることを意識した記述(例:ハンズオン所要時間の記載) 🎨視覚的な分かりやすさを意識した記述(図や改行の活用/内容の明瞭性/表現の統一) ノガミさん ◆主な業務内容 ・DB構築(MySQL) ◆趣味 スノーボード・お笑い芸人のYouTubeを見ること ◆投稿記事 ノガミさんの記事 MySQLレプリケーション中心に、業務で得た知識のアウトプット としてブログを作成いただきました。 レプリケーション初学者による初学者向けの解説となっています。MySQLレプリケーション方式の比較検討から、実際の案件における考慮のポイント、さらには、Amazon QuickSightでの集計関数利用時のエラーの共有と対処法まで、実践的なノウハウを発信いただいています。 ✨感想ダイジェスト✨ ブログ発信の壁突破 🤓技術ブログは敷居が高いように感じていたが、自分でも書くことができるという自信につながった アウトプットの場として最適 🧠業務で一度学んだ知識を振り返ることができ、知識が整理された 今後について 🌟知見を広げるための業務知識以外のブログ執筆にもチャレンジしたい! 完走した感想 イベントは、「 アウトプット習慣の育成 」「 組織コミュニケーションの活性化 」「 社外からの評価獲得のきっかけ作り 」という3つの点で、期待以上の成果を上げることができました。 昨年に比べて、新人の皆さんからは多種多様な技術発信をしていただきました。 私自身も、知らなかった技術や知識に触れることができ、大変勉強になりました。 イベントを通じて、参加者同士が互いに刺激を受け、新たな学びを得られた濃密な期間 だったのではないでしょうか。 積極的に参加の声をあげてくださった新人の皆さんに、心から敬意を表します。 また、本イベントの運営にご協力いただいた皆さまにも、この場を借りて感謝申し上げます。ありがとうございました。 本ブログを閲覧された社内の皆様へ 2025年度も「 新人ブログマラソン 」の開催を予定しています。 「参加してみたい」「興味がある」という指導員/新人の方は、私までぜひお気軽にご連絡ください!何卒何卒。
以前、AWS CDK で Application Load Balancer (ALB) の作成時にアクセスログを Amazon S3 バケットに出力する設定で躓いたので、設定方法を備忘として執筆します。 モジュールはこちらを利用しています。 aws-cdk-lib.aws_elasticloadbalancingv2 module · AWS CDK やってみよう スタックファイルにてALB の作成を定義した後に、以下のように logAccessLogs メソッドを使用して ALB のアクセスログを有効化できます。 第一引数に S3 バケットオブジェクト、第二引数にログを保存する S3 バケット内のプレフィックス(フォルダパス)を指定します。 ALBのアクセスログ配信はAWS管理のELBログ配信アカウントから配信されるので、S3バケットには適切なバケットポリシーを事前に付与してください。 設定は以下のリンクを参照してください。 Application Load Balancer のアクセスログを有効にする – エラスティックロードバランシング // ALBの作成 const alb = new elasticloadbalancingv2.ApplicationLoadBalancer(this, 'ALB', { vpc: tokyoVpc, // ALBを配置するVPCを指定 internetFacing: true, // インターネット向けALBとして設定 securityGroup: albSg, // ALB用のセキュリティグループを指定 vpcSubnets: { subnets: vpcPublicSubnets }, // ALBをパブリックサブネットに配置 loadBalancerName: 'tokyo-alb', // ALBの名前を指定 }); // アクセスログをS3バケットに保存する設定 alb.logAccessLogs(albAccessLogsBucket, 'alb-accesslogs'); bin配下のappは以下のように定義してデプロイしてみます。 const app = new cdk.App(); new AlbStack(app, 'AlbStack', { }); そうすると、以下のリージョン指定が不足しているというエラーが発生してデプロイが失敗します。 ValidationError: Region is required to enable ELBv2 access logging at path [AlbStack/ALB] in aws-cdk-lib.aws_elasticloadbalancingv2.ApplicationLoadBalancer logAccessLogsメソッドを確認していきましょう。 確認するとリージョンを明示的に指定する旨の説明文と実装方法が記載されたURLがありました。 class ApplicationLoadBalancer (construct) · AWS CDK logAccessLogs(bucket: s3.IBucket, prefix?: string): void; /** * Enable connection logging for this load balancer. * * A region must be specified on the stack containing the load balancer; you cannot enable logging on * environment-agnostic stacks. * * @see https://docs.aws.amazon.com/cdk/latest/guide/environments.html */ 解決方法 解決方法として一例ですが、appファイルにenvとしてリージョン名を明示的に指定することでデプロイが可能になります。 const app = new cdk.App(); new AlbStack(app, 'AlbStack', { env: { region: 'ap-northeast-1' } // 東京リージョンを指定する例 }); 設定を追加するとデプロイが成功し、ALBにアクセスログが設定されました。 以上となります、CDKでの実装の参考になれば幸いです。
皆さんこんにちは!SCSKの鳴島です! 今日はBasecampフロアに出展しているパートナーブースを周ってきました🚶♀️ 日本国内に展開されていないプロダクトを含め、デモやお話を伺ってきましたので、レポートしていきます! 注目パートナーブース atlan 現代のデータチーム向けのアクティブメタデータプラットフォームを提供しており、データカタログ領域にて、業界リードする存在です ※現時点では日本国内にパートナーは無し ブースでは、簡単にデータリネージのデモを見せていただきました。 オリジナルデータソースがPostgresDBからSnowflakeにデータ投入し、LookerやTableauなどのBIツールで可視化しているデータパイプラインについて、カラムレベルでリネージします。 機能も充実しており、価格もそれなりということで、大規模でデータ活用を行っているかつ、予算をかけられるユーザー向け、といったところのようです。 Column-Level Lineage | Atlan Why settle for table-level lineage when you can have column-level confidence? atlan.com hightouch 主にリテールのマーケティングやカスタマーエンゲージメント向けに開発されているプロダクトです。 Snowflakeなどに貯めたデータの分析結果から、SQL不要でメールの送付やアプリケーションへのバウチャー配布など、顧客への販促施策を打つところまで、自動でできる仕組みを持っています(リバースETL)。 個人的には、恥ずかしながリバースETLという言葉を、今回のイベント参加で初めて耳にしました。。。😅 マーケティングなどの意思決定の迅速化にとても魅力的なプロダクトであると思います。 Hightouch Reverse ETL | Sync data in minutes Get data into more hands throughout your organization.
No messy scripts or CSV uploads — just SQL. hightouch.com sigma Basecampフロアに入ると、必ず目に入るのがsingmaブース。 今回出展しているパートナーの中でもHELI-SKI Tierという、前例のない最高Tierで出展をしています。 ソリューションとしては、クラウドネイティブのBI・データ分析ツールを提供しており、スプレッドシートライクなインターフェースでデータ分析ができるのが1番の特徴です! BIツールを使う人の中で、分析結果をExcelベースでダウンロードし、そこから独自でデータ操作して。。。ということをする方も少なくないのでしょうか。 sigmaが提供するツールは、ExcelやGoogle Sheetsのような使い慣れているかつ、Snowflakeとも接続し、分析したデータをクラウド上でデータ操作ができることが魅力のようです。 ※現時点で日本国内にコンサルティングパートナーは無し Spreadsheets | Sigma Data analysis in spreadsheets. The way you already know how to. You don’t need coding skills to analyze massive datasets... www.sigmacomputing.com 感想 それぞれのブースで展示されている製品の画面を見ると、どの製品も見分けが全くつかないほど同じようなUIで、行き着く先はここなんだなーと思いました笑 日本未上陸の企業も数多く出展しており、初めて聞く企業の方と「SCSKという日本のIT企業から来ました」という自己紹介から始まり、プロダクトのヒアリングや質問をするのは、海外カンファレンスだからこそ経験できることと思います。 ときどき技術関係なく、ブースにいる方とメイクやファッションの話で盛り上がったりもしました笑 おまけ ~ イベント中のランチ🍙 ~ イベント2日目は会場で提供されるランチをいただきました。 世界中から、Snowflakeユーザー/パートナーが集結するため、こちらのビーガンやベジタリアンにも対応するランチボックスが提供されていました。 私はオレンジのハムサンドイッチをチョイス。ポテトチップス🥔とチョコチップクッキー🍪はご飯扱いのようです。 丸ごと一個、雑多に入っているプラムに、とてつもないUS味を感じました🇺🇸 3日目の今日は元シリコンバレートレイニーのBobさんから教えてもらったハンバーガー屋さんに行ってきました。 お店の名前が入っている定番のスーパーバーガーとおすすめのガーリックフライをオーダー。 フライドポテトにチーズがかかっているという、ハイカロリー必至の組み合わせですが、カロリーは熱に弱いし、海外出張中なので0キロカロリーです。 このイベントも明日がラスト!!楽しみたいと思います!! Have a good one:D [速報] Opening Keynote K1(Mon, June 03, 05:00 PM PDT) 概要 [現地写真] Keynote HALL会場の様子 セッションサマリー おまけ:現地会場(Moscone Center)の様子 最後に
こんにちは。SCSK株式会社 中村です。 5/13(火)に当社でAWSのカードゲームイベントが開催されましたので参加してきました。 当記事は AWSの業務に携わることになったけど、サービスの種類とかあんまり知らないなあ とか 色々なAWSサービスの組み合わせを知りたいけど今の現場だと決まったパターンしか触れないからいい方法ないかなあ と考えている AWS業務従事初心者 にはとても有意義な記事かと思いますので是非ご一読いただければ幸いです! 参加したきっかけ 当方AWSサービス業務には関わったことがないのですが、将来的にクラウド案件に携わってみたいという思いがありました。 そんな中今回のイベントは”初心者でも問題なし!”ということでしたのでその触れ込みに惹かれて恐る恐る応募しました。 なお、資格として「AWS Certified Solutions Architect – Associate(AWS SA-A)」は2年ほど前に取得している状態です。 そんなAWS初心者でも実際楽しめたのか?ゲームを通して知見を深めることができたのかレポートしたいと思います! AWS Builder Cardsとは AWS BuilderCards は、Amazon Web Services が提供するクラウドサービスや、サービスを組み合わせたアーキテクチャを学べるカードゲームです。 実際にゲームを経験してみて自分でも購入してみたいなあと考えたのですが、なんと現状BuilderCardsは一般販売されていないとのこと、、!手に入れるにはAWSのイベントに参加することで配布されることがあるのでそこで入手するしかないという意外とレアな代物となっております。 英語版と日本語版があるのですが、日本語版は人気ですぐに無くなってしまうようです。。 ゲームアイテム紹介 ※注意 今回私が参加したグループはおそらく自由度が高く、マニュアルは用意されていたものの英語表記なのでちゃんと読める人もそんなにおらず、「この場合どうするんだっけ?」「よく分かんないけどこの場合はこうしよう!」みたいなノリで実施されました。ですので、 本来のルールと異なることを記載している場合がございます のでご了承ください。 ~カードの種類~ ・ Starter Card(スターターカード) 最初にプレイヤーが手にするカードです。(10枚配られる) オンプレ環境にあるサービスや機器群という解釈で、このスターターカードは基本的には何も効果を持たないゴミ的なカード。(一部AWSカードと組み合わせて使用するということもできる) これらのカードを最終的にAWSサービスのカードに置き換えていき、様々なAWSサービスを作り上げていくのがこのゲームの主となる考え方となります。 ・ Builder Card(ビルダーカード) マーケットプレイスというフィールドから取得できる様々なAWSサービスのカードです。 無料で取得できるものと、コストを支払って取得できるものの2種類があります。 オレンジの丸で記載されているのがコスト ・真ん中に記載されているコスト=そのカードが持つコスト ・右上に記載されているコスト=そのカードを取得するために必要なコスト ・ Well-Architected Card(ウェルアーキテクテッドカード) 勝利点となるカード。 BuilderCardsは最終的にこのカードの総点数が多い人の勝ちです。 このカードもマーケットプレイスからでしか取得できません。 コストを支払ってビルダーカードを充実させて高いコストを作れる環境を整えるか、早期にWell-Architectedカードを集めて点数を稼ぐかがプレイヤーの色が出るところであり醍醐味となります。 ~プレイマット~ ・Market Place(マーケットプレイス) 山札(場に積んでおくカード)やWell-Architectedカードがおかれるフィールド的な場所です。以下用途ごとに説明を記載します。 ①取得コストなしのビルダーカードの山札置き場 ②Well-Architectedカード置き場 ③取得コスト有のビルダーカードの山札置き場 ④取得コストなしのビルダーカードの展開場所 ⑤取得コスト有のビルダーカードの展開場所 ・Player Mat(プレイヤーマット) 各プレイヤーが手札からカードを展開していく場所です。人数分用意されますが、最悪なくてもプレイはできます ①Well-Architectedカード置き場 ②リソースパネル →プレイヤーが自分のターンを始めるまでカードを置いておく場所です。裏向きで置きます。 ③プレイヤーエリア →手札のカードを展開する場所です。 ④捨て札パネル →そのターンで使用済みのカードを置く場所です。表向きで置きます。 基本ルール ~初期準備~ 最初はスターターカードを色ごとにわけて各プレイヤーに10枚づつ配ります。 ビルダーカードをコストなしとコスト有で分けて、それぞれよくシャッフルしたらマーケットプレイスに配置します。 Well-Architectedカードもマーケットプレイスに配置します。 プレイヤーは自分のスターターカードをシャッフルしてリソースパネルに配置します。 プレイヤー間でプレイする順番を決めます。 ~ゲームスタート~ 自分のターンになったらリソースパネルの山札から5枚引いて場に展開します。 展開したカードでAWSサービスをデプロイ(サービスの起動/実行)できるのであれば、 どのようにサービスをデプロイするか他のプレイヤーに説明しながらデプロイを実行します。(これ重要です) この時、場に展開したカードは何枚使っても大丈夫です。 ※デプロイできない場合は、マーケットプレイスにあるコストなしのビルダーカードを1枚選んで取得してターンを終えます。 上記のデプロイが有効だと他のプレイヤーから了承を得ると、デプロイに使用したビルダーカードが持つコストを得ることができます。 プレイヤーはコストを使って、ビルダーカードを取得したりWell-Architectedカードを取得します。 ※ビルダーカード、Well-Architectedカードはそれぞれ1ターンに1枚のみ取得できます。 カードの取得が完了したら次のプレイヤーにターンが移ります。 各プレイヤーのターンが1周して終了したら2周目です。取得したビルダーカードとスターターカードを混ぜてカードをシャッフルし、再度リソースパネルに配置します。 これ以降は6~10の繰り返しで、最終的にマーケットプレイスにあるWell-Architectedカードが全てなくなった時点でゲーム終了。 ゲーム終了時点でWell-Architectedカードの総点数が一番多い人が勝者となります。 とりあえずやってみる! つらつらアイテムの紹介やルールを書きましたが、とりあえずやってみないことにはなんのことやらという感じなのでやってみましょう! ↑上記はプレイ中盤で撮った写真です。(見返すと捨て札パネルにカードを裏向きで置いたり、細かいとこ間違えちゃってますね。。) 順番を決めて一人ずつターンを消化していくんですが、最初はスターターカードしかないのでひたすらマーケットプレイスからビルダーカードを拾っていく作業が続きます。これは誰がやってもだいたいそうで最初の3~5ターンくらいはビルダーカードを集める作業だと思います 戦いの狼煙は突然に、、 そんな感じで4周ほどカード集めが続いてる時に私の対面に座る方のターン じゃあ私はこのVPCを使ってEC2をデプロイしますね。VPCが1コスト、EC2が2コストなので計3コストかな 私の心の声:(おぉ、なんか宣言が始まった、、!) ※これ以降、現場で感じた私の心の声はかっこ書きでお届けします うんうん、ベーシックなパターンですね。問題ないと思います 宣言に対して他のプレイヤーの方が了承する。 (へぇ、ベーシックなパターンなんだ、、)ド初心者の私は心の中でそう思う Well-Architectedカードも取れるけど、、まだ手札充実させたいからとりあえずEFSもらおうかな (ふむふむ、たしかにビルダーカードは各々3~4枚は取得しているけど、スターターカード10枚に対してビルダーカードの数が心許ないしな ただ、、、 デプロイする時に説明しなきゃいけないのはド初心者には無理ではないか!!! これはAWSを実際に触ってたり、ある程度知識がある人じゃないと機能なんて分からないし何もできないんじゃないのか?) とんだ場違いな場所に来てしまったかもしれない。そう私は心の中で途方に暮れていた。 途方にくれていた時の光明 そんな私が勝手に途方にくれている中、ターンが次の方に移る うーん、じゃあ私もEC2を単体デプロイするんですけど、それに対して”OpenSearch”でログ解析するってやり方は問題なさそうですか? うん、いいんじゃないですかね。問題ないと思いますよ へえ、そういう組み合わせもいけるんですねえ。いいと思います! (おぉ、なるほど、別に 完全にサービスの組み合わせを把握してなくても相談ベースで進めることもできる のか) ありがとうございます!じゃあ、これで私もコストが計3使えるのでWell-Architectedカードもらっちゃおうかな Well-Architectedカード早めに取らないと点数稼げないですからねえ、私も次のターンで何か作れないかなあ (ふむふむ、確かに。どんなに良いビルダーカードを揃えてすごいサービスをデプロイしても最終的にWell-Architectedカードを持ってないと勝つことはできないからなあ。ビルダーカードとWell-Architectedカードの取得の兼ね合いがゲームの肝だなあ) 見様見真似でデプロイだ! 幸い、私以外のお三方はみなBuilderCardsの経験者だったので上記で書いたようなやり取りを見たり、ゲームの手順を教えてもらったりしながら自分のなかの理解を深めていきました。 そして、ゲームの中盤では自分でも他の人が使ったデプロイの真似などを駆使してサービスの組み合わせができるようになってきました! えーとー、じゃあVPC使ってEC2をデプロイしてWebサービスを立ち上げて、そのデータをEFSを使って格納するって感じでいけそうでしょうか、、? いいすね ありだと思います 問題ないです! (おぉ、認められた、、!この時点では既に何回も出たようなパターンのデプロイだし なんとなくみんな淡泊な返事だが、いざ自分が宣言して認められると嬉しい、、!) 2年前にAWS Certified Solutions Architect – Associateを取得してそれっきりクラウド業務に携われなかった自分のようなド初心者でも1時間ほどでBuilderCardsを楽しめている、、! しかもプレイしながら様々なAWSサービスの組み合わせを覚えることができるから、遊びながら学習しているような気持ちになる! まとめ 結果的に今回のBuilderCardsは3時間ほどの時間がありましたが、終わってみればあっという間に時間が過ぎるほど楽しめていました。 通常のカードゲームと違うところはやはり 自分でAWSサービスを組み立てて、それを他者に説明してポイントを得る ということですね また、今回のイベントにはAWSアンバサダーの方が2名ほどいらっしゃっており、デプロイに悩んでいるプレイヤーがいると「このサービスってこういう使い方できるんですよね」などとアドバイスをくれて、それによってさらに知識をつけることもできました。 さて、イベント参加前に心配していたド初心者でも楽しめるのか?というお題については 正直に言うとAWS業務に携わっていなかったり、私のようにAWS Certified Solutions Architect – Associateを取得してからある程度時間が経っている方には難しいです 多分ほんとにAWSの知識が何もない方がプレイしたとしたら終始意味が分からないまま終わってしまうのではないでしょうか。 単純なカードゲームではなく、あくまで AWSサービスを楽しく学習するためのツール という捉え方が良いと思います。 ただ、絶賛AWSを勉強中だったり業務に携わりだした初心者の方にとっては非常に有効な学習方法になる と感じました。 自分の知らないAWSサービスの組み合わせを知る機会 にもなりますし、ゲームの中で知った組み合わせを自分でも真似して作って宣言することで、 即座にインプット&アウトプットを行うことができ知識としてとても身に付きやすい と感じました。 あとこれは想像ですが、自分の現場と似たような環境が作られたときに、BuilderCardsで作られた構成がヒントとなり自分の現場にも反映できるのでは?という気づきにもなりそうな気がしました。 私自身も今回の経験でまたAWSへの興味が上がってきましたので、自分自身もAWS業務に携われるように資格取得などの勉強頑張っていきたいと思います!ぜひみなさんも機会があればBuilderCardsイベントに参加してみてください!
サンフランシスコからこんにちは🌉 SCSKの松岡です。 サンフランシスコで開催されている、Snowflake Summit 25速報記事の第二弾です。 今回は、6/3のPlatform Keynoteで紹介された最新のサービスアップデート情報を中心にお届けしたいと思います。 6/2のOpening Keynoteに関する記事はこちら↓ 【現地レポート:Day1】Snowflake Summit 25開幕!(Opening Keynoteまとめ) Snowflake の最大のイベント、Snowflake Summit 25が San Francisco🦀 にて開幕しました!! 本記事では、4日間に及ぶSnowflake Summit 25 の「Day1開幕」として、現地の情報を皆さんにお届けしていきます!! blog.usize-tech.com 2025.06.03 Platform Keynote K2 (Tuesday, Jun 03, 09:00 PDT)概要 Snowflake | Summit 25 Snowflake | Summit 25 reg.summit.snowflake.com 🎪会場の様子 会場はOpening Keynoteと同じホールでした。 昨日と変わらない盛り上がりの中、盛大な音楽とともに始まりました! 📝主なアップデート(セッションメモ) セッション中に発表された主なアップデートを一気にご紹介します! 生成AI OpenAI、Anthropic、Meta、Mistralのような、主要なAIモデルが利用可能 コスト管理 組織全体のコスト管理を1つのビューで可能に アンバランスなコスト消費を通知でお知らせ ADAPTIVE COMPUTE ウェアハウス管理の複雑さを解消するための機能 ポリシーを指定することで、Snowflakeが自動で最適なコンピュートリソースの選定やスケーリングを実施 Snowflake Unveils Next Wave of Compute Innovations For Faster, More Efficient Warehouses and AI-Driven Data Governance SAN FRANCISCO – June 3, 2025 – Snowflake (NYSE: SNOW), the AI Data Cloud company, today announced at its annual user con... www.snowflake.com SNOWPIPE 価格体系の簡素化 データ量に基づくシンプルな価格体系に変更 最大50%のコスト削減も可能に HORIZON CATALOG データの自動分類、追跡、AIモデルのRBAC制御などが可能に Copilot for Horizon Catalogにより、操作や管理がより簡単に Power BIやTableauなど外部サービスもデータソースとして可視化可能に https://x.com/Snowflake/status/1929940350396953005 x.com SNOWFLAKE OPENFLOW 数百種類のコネクタが用意されており、構造化/非構造化データのパイプライン構築が容易に Oracleとの提携により、スケーラブルでコスト効率の高いCDCソリューション提供を実現 Snowflake Openflow Unlocks Full Data Interoperability, Accelerating Data Movement for AI Innovation SAN FRANCISCO – June 3, 2025 – Snowflake (NYSE: SNOW), the AI Data Cloud company, today announced at its annual user con... www.snowflake.com SNOWPIPE STREAMING レイテンシの低減とスループットの向上を実現 DBT PROJECTS DBTプロジェクトがSnowflake上でネイティブに実行可能に WORKSPACESのUIを刷新。ソース管理やDBT編集がブラウザ上で完結 ※近日プレビュー公開予定 ZERO-ETL DATA SHARING ETLに伴う煩わしさを解消し、データアクセスの制御を維持しながら、安全なデータ共有を実現 SNOWFLAKE POSTGRES PostgreSQL互換のマネージドサービス Crunchy Dataの買収により開発が加速 Snowflake Acquires Crunchy Data to Bring Enterprise Ready Postgres Offering to the AI Data Cloud Empowering enterprises across industries to build and deploy secure, compliant AI agents and applications with Snowflake... www.snowflake.com GEN2 WAREHOUSES 分析、データエンジニアリングワークロードのパフォーマンス向上に重点を置いた次世代の標準ウェアハウス Snowflake generation 2 standard warehouses | Snowflake Documentation docs.snowflake.com DATA SCIENCE AGENT データサイエンティストがMLモデルの開発から運用までのプロセスを迅速かつ効率的に進めるための支援を行うエージェント機能 ※近日公開予定 Snowflake Intelligence and Data Science Agent Deliver The Next Frontier of Data Agents for Enterprise AI and ML SAN FRANCISCO – June 3, 2025 – Snowflake (NYSE: SNOW), the AI Data Cloud company, today announced at its annual user con... www.snowflake.com CORTEX AISQL 生成AIをクエリに組み込んで利用できる機能 画像や音声をインプットにできる独自関数を使用したマルチモーダルな分析 新しいデータタイプを用いた非構造化データの参照 条件を自然言語で指定したジョイン処理 AI集計関数による可視化 Snowflake Introduces Cortex AISQL and SnowConvert AI: Analytics Rebuilt for the AI Era SAN FRANCISCO – June 3, 2025 – Snowflake (NYSE: SNOW), the AI Data Cloud company, today announced at its annual user con... www.snowflake.com SNOWFLAKE INTELLIGENCE ノーコードでAIが使える新しい会話型データエージェント Snowflake Intelligence and Data Science Agent Deliver The Next Frontier of Data Agents for Enterprise AI and ML SAN FRANCISCO – June 3, 2025 – Snowflake (NYSE: SNOW), the AI Data Cloud company, today announced at its annual user con... www.snowflake.com ✉メッセージ Keynoteの最後に、Snowflakeによって以下のようなことが実現できるとありました。 YOU CAN GET BETTER ECONOMICS → より優れた経済性(コスト効率)を実現できる YOU CAN GOVERN ALL DATA → すべてのデータをガバナンス(管理・統制)できる YOU CAN INTEGRATE ALL TYPES OF DATA → あらゆる種類のデータを統合できる YOU CAN DELIVER MORE BUSINESS IMPACT → より大きなビジネスインパクトを生み出せる YOU CAN GET FASTER INSIGHTS → より迅速にインサイト(洞察)を得られる YOU CAN LEVERAGE AI WITH YOUR DATA → 自社のデータを活用してAIを利用できる YOU CAN ACCELERATE BUSINESS GROWTH WITH AI AGENTS → AIエージェントによってビジネス成長を加速できる 「データのすべてのライフサイクルをを包括的にサポートする」という意思が強く伝わってくる最後のメッセージでした。 最後に(感想) 初日、二日目のKeynoteともに、 「Simplify(シンプル化)」 というワードが繰り返し使用されていたのが印象的でした。 今回のSnowflake Summitでは、AIを高度な分析ツールとしてではなく、 誰もが自然に使える機能として組み込む という方向性が明確に示されていたように感じました。 「シンプルさを中核価値とする」という発言の通り、発表されたアップデートは、操作性やユーザー体験を洗練させるものが多く、特にAIについては、専門家だけでなく、日常業務に自然に組み込んで活用できるレベルに進化していることが伝わってきました。 昨年のサミットでは、AIに関する内容が中心的に掲げられながらも、なかなか実用には至らなかった方もいたのではないかと思います。しかし今回のアップデートによって、AIによるデータ利活用がより身近に、より実務で活用できるようになるのではないかと感じました。 発表された多くの新機能の中について、気になるものから調査や検証してみたいと思います!
こんにちは。SCSKの北川です。 今回はServiceNowとElasticを連携させる方法をご紹介します。 この連携によって、Elasticで検知したアラートをServiceNowに送信し、インシデントとして記録・管理することが可能になります。 本記事は執筆時点(2025年5月)の情報です。最新の情報は製品ドキュメントを参考にしてください。 連携手順 事前準備(Elastic) Elasticで新規ルールを作成します。 作成手順の詳細は Create and manage rules | Elastic Docs を参照してください。 Elastic for ITSMを取得 Elastic for ITSM – ServiceNow Store より ServiceNow Storeにサインイン後、[Get]を押下します。 「Ready to install」になっていることを確認します。 アプリケーションのインストール ServiceNowの環境にログインし、System Definition>Plugins を選択します。 Application Managerから「Elastic for ITSM」を選択後、[Install]を押下します。 ServiceNow Storeから取得後、Application Managerに反映されるまで時間がかかる場合があります。 [Install]ボタンが表示されなくなったことを確認します。 クロススコープ権限の割り当て アプリケーションスコープを「Elastic for ITSM」に変更します。 Cross scope privileges[sys_scope_privilege]テーブルを開きます。 6つのクロススコープ権限のステータスが「Allowed」になっていることを確認します。 ユーザーの作成 System Security>Users and Groups>Users よりElasticと接続するためのユーザーを作成します。 ユーザーIDおよびユーザー名には、任意の値を設定してください。 作成後、以下4つのロールを付与してください。 x_elas2_inc_int.integration_user personalize_choices import_transformer import_set_loader Password needs resetにチェックが付いている状態では正常に接続できないため、チェックが外れていることを確認してください。 CORSルールの作成 アプリケーションスコープが「Elastic for ITSM」になっていることを確認します。 System Web Services>REST>CORS Rules を選択後、CORSルールを作成します。 以下の項目を設定後、[Submit]を押下します。 Name:任意の文字列 REST API:Elastic ITSM API[x_elas2_inc_int/elastic_api] Domain:KibanaのURL HTTP Methods:「GET」を選択 以上でServiceNow側の作業は完了です。 接続確認 最後に接続確認を行います。 Elasticで作成したルールを開き、[Edit rule]を押下します。 Select a connector typeから「ServiceNow ITSM」を選択してください。 次に[Create a connector]を押下します。 必要な項目を入力後、[Save]を押下します。 Connector name:任意の値 ServiceNow instance URL:ServiceNowのURL(https://〇〇〇〇〇.service-now.com) Username:「ユーザの作成」で設定したもの Password:「ユーザの作成」で設定したもの 接続確認のため、Ruleが「Enabled」になっていることを確認してください。 Elasticからアラートを発生・検知後、ServiceNowのインシデントテーブルを開き、 インシデントが作成されていることを確認します。 以上がServiceNowとElasticの連携手順です。 レコードを開き、Elasticで設定した内容と一致することをご確認ください。 まとめ 今回はServiceNowとElasticの連携方法についてご紹介しました。 今後の業務の中で、少しでも参考になれば嬉しいです。
皆さんこんにちは!SCSKの鳴島です。 Snowflake の最大のイベント、Snowflake Summit 25が San Francisco🦀 にて開幕しました!! 今年のSnowflake summitのテーマは “Build the future together with AI and APPs” “AI・アプリと共に未来を築く” です✨ 現地時間6月2日(月)-5日(木) の4日間にわたり、 基調講演や、先進事例セッション、テーマ別のブレイクアウトセッションなどなど、 最新の技術動向や事例などなど170を超える Snowflake のあらゆることに関するセッション が用意されております。 本記事では、4日間に及ぶSnowflake Summit 25 の「 Day1 開幕 」として、現地の情報を皆さんにお届けしていきます!! [会場の様子]Moscone Center 現地に到着🚶 雪山、ゲレンデをイメージしたとても可愛らしいテーマの装飾で会場が盛り上がっています❄️ ↓Moscone Center ↓BadgeをGET!! ↓展示会場マップ ↓Data Superheroesのみなさん🦸💃 Opening Keynote(Mon, June 02, 05:00 PM PDT) 概要 Keynote Hall🎪 現地時間5PMから開始となる、本イベントのOpening Keynote。 開始の約一時間前から新しい発表を待ち望む長蛇の列が。。。 Keynote Hallに入ると、音楽のLive会場かのようなワクワク感を掻き立てられる雰囲気に包まれていました。 オープニングトーク はじめに、CEOのRamaswamy氏からの歓迎・感謝の言葉とともに、Snowflake社CEOに就任した昨年からこの一年間で以下の2つを大切にしてきたと、冒頭挨拶がありました。 顧客やパートナーの声を聞き、その言葉を大切にすること Innovation また、以下の点について言及がありました。 データの価値と共に、データによりすべての企業が変化し続けるべきであること また、アストラゼネカ社の事例を元に、データが生命科学分野にも応用し、人々の生命へ価値創出など社会貢献にもつながる存在であること Crunchy dataの買収 対談 以下の3セッションにて、事例やテクノロジーのハイライトがありました。 NYSE Group – President Lynn Martin氏(ニューヨーク証券取引所) 1日1兆を超える金融データのトランザクションにSnowflakeが使用されていることの事例。 金融データというクリティカルかつ、膨大なデータにも対応できるSnowflakeの高性能・信頼性 (US国防省 Impact Level 5)について強調。 Open AI – Founder & CEO Sam Altman氏 企業リーダーへのAI活用の助言として、とにかく始める、やってみてほしいとのこと。 また、AGI(人工汎用知能)について、強く言及。 LA2028オリンピック・パラリンピック パートナーシップ – Chairperson Casey Wasserman氏 – US Olympic & Paralympic Properties John Slusher氏 世界的イベントでのパートナーシップを発表。 開催17日間で1200万枚のチケットの販売等にSnowflakeを活用。 世界最大のスポーツイベントにて、データ活用による最高の体験を提供したい。 Opening Keynoteを聴いて テーマとなっている、 “Build the future together with AI and APPs” について、 多くの仕事や活動は突き詰めると社会のため、人のためということになると思いますが、データによりそれを実現したい、データがそれを実現できるというメッセージ性をCEOのRamaswamy氏の言葉からも強調されるKeynoteだったと感じます。 普段、データを扱う業務を行う中で、目の前の課題に気を取られ本質を見失いがちです。 CEOのRamaswamy氏もCEOとして顧客やパートナーの声を聞くことに注力した一年だったと述べていましたが、技術の先の社会貢献であり、それは人の声に耳を傾けるからこそ本質を捉え、実現できることであると思います。 私もデータエンジニアの端くれとして、データの価値を高めると共に、その先に本質として社会貢献があることを忘れず、技術のアップデートはもちろん、サービス・ソリューションの提供をしていきたいと改めて感じました。 ❄️ Day1は主にCEOからのキーメッセージを中心としたKeynoteでした。 明日はいよいよ技術アップデートのKeynote・セッションとなります!! どんなニュースが発表されるのでしょうか!? おまけ 現地入りまでに、資格取得しました! 今回のSnowflake summit参加にあたり、Snowpro Core資格を取得しました!!(2025/5/30取得←ギリギリすぎるだろ!!!) Snowflake Universityブースで資格取得を証明すると、以下のグッズを貰えました! 資格の受験記は帰国後にゆっくり、こちらのブログに投稿したいと思います! 今日はこの辺で!また明日もSnowflakeの世界にDeep Diveしたいと思います! Have a good day:) [速報] Opening Keynote K1(Mon, June 03, 05:00 PM PDT) 概要 [現地写真] Keynote HALL会場の様子 セッションサマリー おまけ:現地会場(Moscone Center)の様子 最後に
こんにちは、SCSKの佐藤優音です! 先日5月13日(火)、当社オフィスでAWS BuilderCardsを使ったイベントを開催してみました。 当社としては初めてのAWS BuilderCardsを用いた勉強会でしたが、当日はAWSのビギナーから猛者まで幅広い方々に参加いただき、想像以上に盛り上がりました! 今回はその体験レポートと、実際に参加した方の率直な声をシェアしたいと思います。 そもそもAWS BuilderCardsって? AWS BuilderCardsは、AWSのサービスやアーキテクチャをカード形式で学べるツールです。 オンプレミス環境のスターターカード、AWSサービスのビルダーカードを駆使してアーキテクチャを構築し、Well-Architectedカードを競って勝負する対戦型のゲームとなっています。 詳しいルールなどは過去にブログにてまとめておりますので、興味のある方はぜひご覧ください! AWS BuilderCards のルールをわかりやすく解説してみた AWS BuilderCardsの遊び方を初心者にもわかりやすく解説。カードの種類、ゲームのセットアップ、ターンの進め方から勝利条件まで、丁寧に紹介します。 blog.usize-tech.com 2025.03.31 イベント企画のきっかけ 最近、IT以外のニュースでも「クラウド」という言葉を耳にする機会が格段に増えました。 それに伴いAWSに関する話題を耳にする機会も徐々に増えてきたように感じます。 でも、いざ「AWS学習を始めよう!」と思っても、どこから手をつけていいかわからないのが本音だと思います。 特にAWSに触れる機会のない人にとってはとんでもないハードルの高さではないでしょうか? 従来の資格勉強や公式ドキュメントの読み込みなどもどうしても「お勉強感」が強くて、初心者向けの勉強会を開催してもなかなか参加率がよくないのが正直なところです。 そこで、ゲーム感覚で自然にAWSサービスに触れることができ、みんなでワイワイ楽しみながら学習の第一歩を踏み出せそうなAWS BuilderCardsに着目をしてイベントを企画いたしました。 実際のイベント内容 参加者とセットアップ 参加者:17名(社外からも4名参加いただきました!) 時間:2時間半を予定(長めにとったのですが、意外と時間ギリギリでした…!) 場所:当社会議室(定員100名程度) AWS BuilderCards経験者率:25% 事前準備として、BuilderCardsのプレイマットや簡易的なルールシートを印刷しておきました! まだ日本語版のドキュメントがないのが残念ですが、このおかげでゲームが進めやすくなったのではないかと感じています! ゲームの進行 BuilderCardsはゲームルールが意外と多くため、イベント冒頭にはざっくりとした説明をして、あとは実践していく中で適宜説明を加えていきました。 最初は探り探り進めていた参加者の方々も、30分も経つとベテランの方がビギナーの方にアーキテクチャ構築のアドバイスをしたり、気になった点を共有しあう場面が見られました! 「わからないを認め、積極的に共有する」 ことをグランドルールとして冒頭に提示したこともあり、白熱したバトルが繰り広げられました! 参加した方々からもご好評いただけました! 参加いただいた方に実施したアンケートから、率直な感想を抜粋して掲載いたします! AWSの各種サービスの機能やサービス同士のつながりについて、うろ覚え・曖昧だった部分を再確認するきっかけになった。 BuilderCardsでは幅広いサービスが登場するので、普段触らないサービスは意外と「なんだっけ…」となりがち。 アーキテクチャを構築する際にメンバーからのアドバイスを経て理解を深められるのもBuilderCardsのいいところなのかもしれません! 初心者からベテランまで分け隔てなく楽しむことができた。ベテランと初学者の交流を深めるとても良いイベントだった。 カードゲームかつ経験者が少ないという性質上、AWSの知識量のかかわらずコミュニケーションをとりながら楽しむことができたという声も多くありました。 AWSの学習となると一人で黙々とハンズオン…というイメージがあるかもしれませんが、コミュニケーションをとりながら学べる点gなカードゲームならではですね! AWSを活用している他部署の方々と知り合うことが出来た。普段は案件業務関係者以外と関わる機会に乏しい為、他部署でAWSを活用している方々と知り合うことが出来たのが嬉しい。 今回のイベントは社内外から幅広い所属の参加者が集まっての開催となりました。そのおかげもあり初心者からベテランまでの縦のつながりだけでなく、部署・会社をまたいだ横のつながりを持つことができたという声もいただきました。 イベントを振り返って 本イベントを振り返って、コミュニケーションをとりつつAWS学習の促進ができる AWS BuilderCardsのポテンシャルを強く感じることができました。 AWS学習というと、どうしても堅いイメージがありますが、こういうカジュアルなアプローチも有効だと実感しています。 ですが、ゲームのルール理解に時間がかかる点や、イベント全体の進行など今後の課題も見つかったため、次回は多くの方によりスムーズな進行で楽しんでもらえるように改善をしていきたいです! 次回の開催日程が決まりましたら、こちらのブログにも追記という形で告知いたしますのでお楽しみに!
Palo Alto Networks社が2025年2月13日、クラウドネイティブアプリケーション保護プラットフォーム(CNAPP)であるPrisma Cloudの次世代版として、 Cortex Cloud を発表 しました。Cortex Cloudは2025年度第3四半期後半に一般提供される予定とのことで、まだ利用はできません。 本記事では、 Cortex Cloudに関する記事 を読んで理解したことを前世代となるPrisma Cloudと比較しながら、違いを説明し、Cortex Cloudについて解説していきます。 なお、本記事ではCNAPP、CSPM、CDR自体の詳細な説明は行いません。必要に応じて、これらの用語の意味を確認ください。 Cortex CloudとPrisma Cloudの違い Cortex CloudではPrisma CloudのCNAPPに加えて、同社のCortex XSIAMで提供しているクラウド検知・対応(CDR)機能が利用できるようになります。具体的には、AI駆動型の優先順位付け機能、自動修復機能などが利用できるようになります。 Cortex CloudのAIと自動化を活用したCDRによってSOCチームが効率化され、リアルタイムのクラウドセキュリティ実現を目指せることがPrisma Cloudとの違いなのだと思いました。 項目 Prisma Cloud Cortex Cloud 位置付け CNAPP 左記に加え、 CDRを統合したプラットフォーム 主な機能 クラウドセキュリティ態勢管理(CSPM) クラウドインフラストラクチャ権限管理(CIEM) データセキュリティ態勢管理(DSPM) AIセキュリティ態勢管理(AI-SPM) Kubernetesセキュリティ態勢管理(KSPM) アプリケーションセキュリティ態勢管理(ASPM) クラウドワークロード保護(CWP) 脆弱性管理 左記に加え、 AI駆動型の優先順位付け機能 自動修復機能など 特徴 コードからクラウドまでのセキュリティをカバー マルチクラウド環境に対応 左記に加え、 AIと自動化を活用したCDR 対象ユーザー クラウドネイティブアプリケーションにおける セキュリティを強化したい企業 左記に加え、 SOCの運用効率を向上したい企業 Cortex Cloudの概要 Cortex Cloudは、リアルタイムでのクラウドセキュリティを実現するために設計された先進的なCNAPPです。このソリューションは、AI主導の自動化機能と統合されたデータを活用し、コードからクラウド、SOCまで包括的な保護を提供します。 主な特徴 : リアルタイムセキュリティ : 脆弱性や設定ミス、漏洩したIDなど、攻撃の可能性がある要素をリアルタイムで検出し、迅速な対策を実行します。 AIと自動化の活用 : 7000以上の検出機能と2400以上の機械学習モデルを駆使して高リスクの脅威を特定。これにより、迅速かつ正確な対応策を提供します。 統合データ管理 : 各種ソリューションの検出結果をCortex Cloudに統合。手作業を省き、意思決定に役立つリアルタイムのコンテキストデータを提供します。 Cortex Cloudは、脅威の検出や対策を効率化し、SOCチームがリスクを迅速かつ効果的に管理できる環境を整えます。また、Cortex XSIAMと連携し、クラウド特有の脅威をリアルタイムで検出するだけでなく、その対策を自動化することで、SOCチームの負担を軽減し、より積極的なクラウド防御を可能にします。 まとめ Prisma Cloudは、クラウドネイティブアプリケーションのセキュリティを提供するプラットフォームであり、コードからクラウドまでのセキュリティをカバーし、マルチクラウド環境にも対応しています。 Cortex Cloudは、上記Prisma Cloudの機能を強化し、Prisma CloudではできなかったリアルタイムのCDR、セキュリティ運用の自動化・統合を実現した次世代のクラウドセキュリティプラットフォームです。 さいごに 当社ではPrisma Cloud利用して、複数クラウド環境の設定状況を自動でチェックし、 設定ミスやコンプライアンス違反、異常行動などのリスクを診断するCSPMソリューションを販売しております。 興味のある方は是非、お気軽にお問い合わせください。 マルチクラウド設定診断サービス with CSPM| SCSK株式会社
こんにちは! SCSK株式会社 小鴨です。 皆さん、今年のゴールデンウィークはいかがお過ごしでしたか? 私は日本を遠く離れ、アメリカのラスベガスへ行って参りました。 目的はただ一つ… ServiceNow最大級のイベント Knowledge 25 への参加です!! Access Denied www.servicenow.com 業界の最前線が一堂に会し、技術の未来を語り合う様子はまるで大きな科学博覧会。 私もそのワクワクする雰囲気の中で多くを学び、たくさんの刺激を受けました。 その経験をここで皆さんと共有したいと思います。 長くなるので複数本立ての予定ですが、気楽にのんびりと読んでもらえればと思います。 概要 「Knowledge」 とは、ServiceNowが主催する年次イベントで 企業や専門家が集まり、最新のServiceNowプラットフォームの機能や革新について学ぶ場です。 …それだけ聞くと ふーん、まあよくある技術者の集いみたいなものか と思われるでしょう しかしことKnowledgeについては桁外れのスケールで開催されます。 まず全体参加者が 約20000人! 実施されるセッション数は 1000以上!! こうなってくると逆にイメージが付きにくい数字かもしれませんね。 そして今年のテーマは「Where AI gets to work」 なぜAIを使う必要があるのか なぜServiceNowなのか 我々は何をする必要があるのか こうした情報をこれでもかと詰め込まれる3日間でした! Knowledge25参加への道のり 申し込み イベントに参加するには当然申し込みが必要!! ということで公式サイトより申し込みへ! 2195円!うーん非常にリーズナブル♪ さすが外国の企業は太っ腹ですね! …なわけないです2195$です。安く見積もっても30万円こえてます… 気を取り直して 宿も同じサイトから予約できるので早速確認! いや、こんなお城みたいなとこじゃなくていいですよ本当に… カプセルホテルに毛布だけおいといてくれれば十分なので… 正直なところ、開催一か月前ですが早速プレッシャーを感じ始めてました。 しょうもない成果しか持って帰らなかったらどんな目に合うのだろうと。。。 セッション予約 申し込みが終わったら参加するセッションの予約から始めます。 学生時代の時間割を組むような気分で、興味のある公演を片っ端から予約しました! 我ながら計画性の無さすぎる時間組…移動時間を考えなさい… やる気の表れということでご愛嬌です ポイントは2つ 1つはキーワードでセッションを絞ること! 私は実業務では「ITSM」,「ITOM」を使用しているので それらと「AI」タグが盛り込まれているものを重点的に選択しました。 2つ目は同時通訳に対応していること! 英語に自信がある方は問題ないですが、そうでない方はこれを積極的に選びましょう。 私は英語のみのセッションにもいくつか参加してみましたが 終盤は何を言っているのか分からな過ぎて、もう笑うしかないみたいな状態でした。 いよいよ出国 飛行機にすごい時間揺られていたこと、乗り換えの時間はとにかく眠かったこと 入国審査が怖かったことなど… 思い出はいくつもありますが、そんなミクロな思い出には皆さん興味ないでしょう! アメリカじゃなくても起こりうることなので、その辺はぐっと飲みこみ割愛させていただきます! さてついに到着したラスベガス! あれ?カジノって空港にもあるの? いろんなものが目につきながらもタクシーに乗り市街地へ 第一印象は騒がしい街だなぁといったところです。 街中には常に音楽が鳴り響き、ネオンが所狭しと輝いており、誰もが常に楽しそうです。 しかし同時に、どこか上品さを感じるような雰囲気もありました。 白が目立つからなのか、道路が広いからなのか、閉塞感のようなものがなく 同じ騒がしい街でも、新宿や池袋とは違うなあという印象でした! さて、いよいよ予約したホテルが近づいてきました。 正直「実物は予約サイトより数段しょぼいだろうな」と思っていましたね。 日本では何度も騙された手口だし今更驚きはしないぞと。 おぉ…あぁ… 実物の方がすごいパターンは初めてでしたね。 なんていうか身の丈に合わない世界というか、夢の中のような景色に終始圧倒されました。 この日は色々と新たな世界に触れてみたい欲求はあったものの 時差ボケや環境変化のストレスに負けないよう早々に就寝し、ウェルカムレセプションの待つ明日に備えました。 次回予告 次回はKnowledgeが始まる前の前夜祭的なポジションの「JAPAN welcome reception」からお話しします。 ◆日本人交流の場なので英語は不要と油断していたら、英語より難しい言語で話す人たち ◆ServiceNowマイノリティであることを突き付けられた弊社 ◆400人中5位になった私 あたりを語るに始まり Knowledge初日の様子なんかも一気に話せればと思います。 その2からも是非、のんびりとお付き合いいただければと思います。
こんにちは。SCSKの山口です。 今回はBigQuery の外部テーブル機能についてのブログです。 BigQuery の外部テーブルとは? 概要 外部テーブル機能は、簡単に言うと、Google Cloud Storage (GCS) や Google ドライブなどの 外部データソースに保存されているデータを、BigQuery のテーブルであるかのように直接クエリできる機能 です。 実際のデータは BigQuery の管理下に置かず、外部のストレージサービス上のデータを参照します。これにより、データを BigQuery にロードする手間なくデータ分析が可能といったメリットがあります。 サポートされているデータ形式 BigQuery の外部テーブルは、以下の主要なデータ形式をサポートしています。 CSV (Comma Separated Values) JSON (Newline-delimited JSON) Avro Parquet ORC Cloud Datastore のエクスポート Cloud Firestore のエクスポート 本記事のデモでは CSV 形式を使用します。 外部テーブルを作成する 今回は、Cloud Storage上のCSV形式のファイルを外部テーブルとして作成します。 あらかじめ、Cloud StorageのバケットにCSVファイルを配置しておきます。 BigQuery 画面で外部テーブルを作成 実際に外部テーブルを作成します。 対象のデータセットを選択し、「テーブルを作成」をクリックします。 下記を入力し、「テーブルを作成」をクリックします テーブルの作成元:Google Cloud Storage ファイルの形式:CSV プロジェクト:(プロジェクト名) テーブル:(テーブル名) テーブルタイプ: 外部テーブル これで作成完了です。 詳細を見ると、ソースのURIなどの詳細情報が表示されます。 外部テーブルのクエリ実行 ここから、外部テーブルに対して様々なクエリを実行してみます。 全データを取得してみる SELECT * FROM `yamaguchi_test_exttable.ext_table_GCS`; 問題なくデータが閲覧できました。 フィルタリングしてみる SELECT id, name, value FROM `yamaguchi_test_exttable.ext_table_GCS` WHERE value > 20 AND name LIKE '%e'; 数値型、文字型ともにフィルタリングできました。 集計関数を使ってみる SELECT AVG(value) AS average_value, MAX(value) AS max_value, MIN(value) AS min_value, COUNT(*) AS total_records FROM `yamaguchi_test_exttable.ext_table_GCS`; 集計関数も問題なく使用できました。 外部テーブルでできない事 ここまで外部テーブルでできることを列挙してきましたが、ここからはできない事を書きます。 外部テーブルは読み取り専用であり、BigQuery を介して直接的にデータを変更することはできません。 具体的には、以下のデータ操作言語 (DML) ステートメントは外部テーブルに対して実行できません。 INSERT (データの挿入) UPDATE (データの更新) DELETE (データの削除) MERGE (データの結合と更新/挿入) TRUNCATE TABLE (テーブル内のすべての行を削除) 外部テーブルのデータに対する変更は、元の外部データソースに対して行う必要があります。例えば、GCS 上の CSV ファイルの内容を変更したい場合は、BigQuery ではなく GCS のファイルを直接編集する必要があります。 外部テーブルの主な用途は、 外部に存在するデータを BigQuery の強力なクエリエンジンを活用して分析すること です。データの永続的な保存や頻繁な更新を伴う用途には、BigQuery のマネージドストレージ(通常のテーブル)の利用が推奨されます。 実際に外部テーブルに対してDMLステートメントを実行しようとすると、 エラーではじかれます。 まとめ BigQuery の外部テーブル機能は、GCS 上のデータを BigQuery にロードすることなく、手軽に分析できる非常に強力なツールです。データの柔軟性、迅速な分析開始、コスト効率などのメリットがあり、データレイクとの連携や ETL パイプラインの一部としても有効に活用できます。 今回のデモを通じて、外部テーブルの作成からクエリ実行までの基本的な流れをご理解いただけたかと思います。ぜひ、BigQuery の外部テーブル機能を活用して、より効率的なデータ分析を試してみてください。
こんにちは。SCSKの山口です。 BigQueryのビュー機能、皆さん使いこなせていますか??? BigQueryは優れた処理能力と柔軟性を持ち、大量のデータ分析を効率的に使用できるDWHサービスです。 そんな BigQuery をさらに便利にする機能の一つが 「ビュー (View)」 です。ビューは、データベースに存在する仮想的なテーブルのように振る舞いますが、 実際にはデータを物理的に保存しません 。このことによってさまざまなメリットを生み出します。 この記事では、BigQuery のビュー機能の基本的な概念から、具体的な活用例、そして知っておくべき重要なポイントまでを徹底解説します。今回ご紹介するビュー機能を使いこなすことで、 複雑なクエリをシンプルにする 特定のデータだけを安全に共有する データ分析のワークフローを効率化する 事ができます。 使用データ 今回検証で使用するデータです。 データセット名:yamaguchi_test_views テーブル名:source_table ①標準ビュー ビュー作成方法 下記クエリを実行し、作成します。 -- ビュー作成クエリ CREATE OR REPLACE VIEW `yamaguchi_test_views.name_value_sum_view` AS SELECT name, SUM(value) AS total_value FROM `yamaguchi_test_views.source_table` GROUP BY name; 重要なところを一般化します。 -- ビュー作成クエリ構文 CREATE OR REPLACE VIEW `[プロジェクトID].[データセット名].[ビュー名]` AS SELECT column1, column2, ... FROM `[プロジェクトID].[データセット名].[テーブル名]` WHERE condition; CREATE OR REPLACE VIEW:ビューを新規作成もしくは置き換えます AS:以降にビューの定義を開始します SELECT colmun…:ビューに含める列を指定します FROM:ビューの元となるテーブルを指定します WHERE(省略可):ビューに含める行をフィルタリングするための条件を指定します ビュー作成クエリで出来上がったビューが下記です。 データ確認 ビューは、物理的にデータを保持するテーブルとは異なり、仮想テーブル的な振る舞いをするので、 「プレビュー」タブからデータを確認できません 。なので、データを確認するにはSELECTクエリを発行する必要があります。 ※仮想テーブルとはいえ、しっかりクエリ量は発生するのでご注意ください。 メリット 標準ビューを使うことによるメリットを書きます。 複雑なクエリを簡略化 今回は簡単なSQLで試しましたが、複数テーブルを結合したり、複雑な条件でフィルタリングしたりといった、 複雑なクエリ が実業務には登場します。 この 複雑なクエリ をあらかじめ標準ビューとして定義しておくことで、ユーザはビューに 単純なSELECT文を発行するだけ でデータアクセスできます。 今回の例でいうと、 上記データを見るために必要になるクエリが、事前のビュー定義の有無で変わってきます。 ビュー無 ビュー有 SELECT name, SUM(value) AS total_value FROM `yamaguchi_test_views.source_table` GROUP BY name; SELECT * FROM `yamaguchi_test_views.name_value_sum_view` どちらが楽か、、、一目瞭然ですね。 データアクセスを論理的に分離 特定のビジネスロジックに基づいたデータのまとまりをビューとして提供することが可能なので、 元となるテーブルを意識することなく データを利用可能になります。 大切な元テーブルのデータに 直接アクセスされることなくデータを共有 できるので、セキュリティの観点からもメリットが大きいです。 レポート作成の効率化 レポートを作成する際、必要なデータをあらかじめ整形済みのビューとして作成しておくことで、 レポート作成ツールからのクエリを簡潔にする ことができます。 例えば、Looker等でダッシュボードを作る際に、 開発効率を向上 させることができます。 ➁承認済みビュー ビュー作成方法 今回はソーステーブルと同じデータセット(yamaguchi_test_views)に承認済みビューを作成します。 まずは、標準ビューと同じクエリ構文でビューを作成します。 CREATE VIEW `yamaguchi_test_views.name_value_view` AS SELECT id, name, value FROM `yamaguchi_test_views.source_table`; 次に「ビューの承認設定」を行います。 対象のビューが含まれるデータセット の「共有」タブから「ビューを承認」をクリックします。 ※対象ビューではなく「データセット」からの作業であることに注意してください。 「ビューを承認」に対象のビューを入力し、「承認を追加」をクリックします。 権限設定 ここまでの作業で作成したテーブル、ビューの状況を整理します。 source_table:個人情報あり(見せたくないデータがある元テーブル) name_value_view:個人情報なし(見せていいデータのみを抽出したビュー) 上記のデータセットに対して、下記アクセス制限をかけたいです。 管理ユーザ:どちらのにもアクセス可能 開発ユーザ:個人情報なし(name_value_view)の情報のみアクセス可能 では、ここから実際に権限設定していきます。 ※注意:開発ユーザはプロジェクト内に何も権限を持っていないところからスタートとします。 まず、開発ユーザに見立てたアカウントに「name_value_view」に対する「 BigQuery データ閲覧者」を付与します。 対象のビューのメニューから「共有」-「権限の管理」をクリックします。 「プリンシパルを追加」をクリックし、開発ユーザに「BigQuery 閲覧者」のルールを付与します。 以上で権限設定は完了です。 開発ユーザからのクエリ実行 開発ユーザからクエリを実行してみます。 ソーステーブルに対するクエリ ソーステーブルに対する権限は付与されていない のでデータが見れませんでした。 承認済みビューに対するクエリ 承認済みビューからはデータを見ることができました。 このように、承認済みビューを使用することで、 ソーステーブルに対する権限がないユーザでもビュー経由でのデータ取得が可能 になりました。これこそが承認済みビューの最大のメリットです。 ソーステーブル内の見せたくない情報は絞りつつ、開発ユーザへのデータ共有が実現できました。 ③マテリアライズドビュー ビュー作成方法 マテリアライズドビューは下記クエリで作成します。 CREATE MATERIALIZED VIEW `yamaguchi_test_views.name_value_sum_mv` AS SELECT name, SUM(value) AS total_value FROM `yamaguchi_test_views.source_table` GROUP BY name; 今回は、氏名(name)ごとに値(value)を合計した値の情報をマテリアライズドビュー化しました。 パフォーマンス比較 マテリアライズドビュー化した集計処理を、ソーステーブルに対して実行し、マテリアライズドビューの有無でのパフォーマンスを比較します。 ソーステーブルで集計処理 ソーステーブルに対して下記集計クエリを実行します。 SELECT name, SUM(value) AS total_value FROM `yamaguchi_test_views.source_table` GROUP BY name; クエリ結果から、「実行の詳細」をクリックします。 実行にかかった時間、バイト数などを確認することができます。 マテリアライズドビューで集計処理 マテリアライズドビューに対して同様の集計クエリを実行します。 SELECT * FROM `yamaguchi_test_views.name_value_sum_mv`; 比較 両者を比較してみましょう 実テーブル マテリアライズドビュー 経過時間 220 ms 188 ms 消費したスロット時間 22 ms 15 ms 読み取り時間 21 ms 4 ms 比較的顕著な差が出た項目をピックアップしました。 マテリアライズドビューを使用した場合、特に、 「読み取り時間」 で顕著な差が出ています。 今回は小規模なデータでの検証ですが、数十億行を超えるような大規模なデータセットに対して、 頻繁に実行される集計クエリ(SUM, AVG, COUNTなど)の結果 をマテリアライズドビューとして事前に計算しておくことで、 大規模なクエリの実行時間を大幅な短縮 が期待できます。 ソーステーブルの変更を反映 マテリアライズドビューを作成した後、ソーステーブルのデータに変更があった場合も、 マテリアルビューは自動更新される仕組み になっています。 試しにソーステーブルにデータを追加してみましょう。 データ追加前の集計クエリ結果を確認しておきます。 ソーステーブルにデータを追加します。 INSERT INTO `yamaguchi_test_views.source_table` (id, name, value, sensitive_info) VALUES (6, 'Charlie', 35, 'PII_Charlie_2'); マテリアルビューで集計結果を確認します。 Charlieさんの値が変わっていることが確認できました。 ソーステーブルにデータを追加して数秒後にはデータが更新されていました。 まとめ 今回ピックアップしたそれぞれのビューの特徴、ユースケースをまとめます。 標準ビューのユースケース 複雑なクエリの簡略化: 複数のテーブルを結合したり、複雑な条件でフィルタリングしたりするクエリをビューとして定義することで、ユーザーは単純なSELECT文で必要なデータにアクセスできます。 データアクセスの論理的な分離: 特定のビジネスロジックに基づいたデータのまとまりをビューとして提供することで、基となるテーブル構造を意識せずにデータを利用できます。 レポート作成の効率化: レポートに必要なデータ整形済みのビューを作成しておくことで、レポート作成ツールからのクエリを簡潔にし、開発効率を向上させます。 承認済みビューのユースケース 機密性の高いデータの保護と共有: 個人情報や機密情報を含むテーブルから、特定のカラムを除外したビューを作成し、承認されたユーザーにのみアクセスを許可することで、安全にデータを共有できます。 特定のユーザーへのデータサブセットの安全な提供: 全てのデータへのアクセス権限を与えることなく、特定の条件でフィルタリングされたデータのみをビューとして提供できます。 データガバナンスの強化: どのユーザーがどのデータにアクセスできるかを明確に管理し、意図しないデータ漏洩のリスクを低減します。 マテリアライズドビューのユースケース 大量データに対する高速な集計クエリ: 数十億行を超えるような大規模なデータセットに対して、頻繁に実行される集計クエリ(SUM, AVG, COUNTなど)の結果をマテリアライズドビューとして事前に計算しておくことで、クエリの実行時間を大幅に短縮できます。 ダッシュボードやBIツールのパフォーマンス改善: リアルタイムに近いデータ表示が求められるダッシュボードやBIツールで、集計済みのマテリアライズドビューを参照することで、レスポンスタイムを向上させ、ユーザーエクスペリエンスを改善します。 頻繁に実行される集計処理の最適化: 定期的に実行されるETL/ELT処理の中で、集計結果をマテリアライズドビューとして保存しておくことで、ダウンストリームの処理を効率化できます。 検証を通して、それぞれのビューが持つ特性と、どのような場面でその特性が活かせるのかをご理解いただけたかと思います。ご自身のデータ分析の課題や要件に合わせて、最適なビューを選択し、BigQueryをより深く活用してみてください。
AWS CDK CLI v2.1017.0でドリフト検知コマンドが追加になりました! 詳細はこちらをご確認ください。 https://github.com/aws/aws-cdk-cli/pull/442 今までAWS CDKではcdk diffというコマンドで手元のソースコードとAWS CloudFormationのスタックとの差分は検出できましたが、 実リソースとの差分(ドリフト)の確認ができないので苦労する場面がありました。 ですが、5/29のアップデートでcdk driftというコマンドが追加になりAWS CloudFormationのスタックと実リソースの差分をチェックすることが出来るようになりました。 cdk diff と cdk drift の棲み分けは以下の図のような形です。 使ってみた! <バージョン確認> 事前に以下コマンドでアップデートしています。 npm update -g aws-cdk <CDKリソースに手動設定> CDKでデプロイしたS3バケットに以下のタグを手動で設定しました! <ドリフト検出> 以下コマンドで確認したところ、ドリフトを検知することが出来ました! cdk drift スタック名 ソースコードは変更していないのでcdk diffコマンドでは差分検知はありませんでした。 また、オプションとして以下も追加されており、ドリフト検知時はデプロイを失敗させることもできそうです! --fail Fail with exit code 1 if drift is detected [boolean] CDKで運用をやっていくとなると結構良いアップデートではないでしょうか? 以上最新のアップデート情報でした!
こんにちは、SCSK株式会社の伊藤です。 いよいよ日本最大の “AWS を学ぶイベント” AWS Summit Japan 2025 が近づいてきました! SCSKはプラチナスポンサー として、スポンサーセッションでの事例紹介とブースの出展を行います。 今回は、特にブースの詳細をご紹介します! 概要とスポンサーセッションの情報については、以前発信した記事に掲載していますので、ご確認ください。 AWS Summit Japan 2025に出展します! SCSKは 2025/6/25(水)~6/26(木)開催の日本最大の AWS を学ぶイベント「AWS Summit Japan」に出展します。 SCSKセッションでは、”AIで振り込め詐欺を防止しろ!四国銀行の6ヶ月の挑戦”というテーマで、株式会社四国銀行様の開発事例をご紹介いたします。 blog.usize-tech.com 2025.05.12 まだご登録がお済みでない方はぜひご登録ください↓↓ 「AWSで、夢ある未来を共に創る。SCSK 」 ブースのご紹介 SCSKブース(013P)では「AWSで、夢ある未来を共に創る。SCSK」をテーマに、お客様のAWS利活用ステージに合わせて貢献できる各種ソリューションを出展します。 SCSK独自ソリューションの4商材を展示 、 ミニシアターでは6つのAWS関連ソリューションから発表いたします。 展示商材のご紹介 各商材のブースでは、実際のデモンストレーションを交えてご用意しております。 実際の操作画面や使用シナリオを通じて、各ソリューションの具体的な機能や利便性を直接体験いただけます。各ソリューションがどのようにお客様のビジネス課題を解決するのか、より深く理解していただけることと思います。 展示商材 紹介 内製化支援 (テクニカルエスコート) クラウドサービスを活用したシステムを構築したいが、ノウハウがない。AWSの有識者がおらず、設計・構築に不安がある。クラウド利用におけるセキュリティ面に課題を感じている。このような課題を抱えている企業様も多いのではないでしょうか? 「テクニカルエスコート」は、お客様のチームに寄り添い、クラウド技術活用人材を育成する、AWS専門家による伴走型内製化支援サービスです。 お客様のプロジェクトにAWS技術者がアドバイザーとして参画し、技術的な指導や課題解決のアドバイスを提供することで、クラウド案件をスムーズに遂行できる体制を支援いたします。 そんな「テクニカルエスコート」が、AWS Summitにて「なんでも相談コーナー」として皆様のお悩みを出張解決します! どんな些細なお悩みでもお気軽にご相談ください。AWSのスペシャリストがその場でサポートいたします。 AIソリューション (エージェント) InfoWeaveブースでは、AIエージェント プロトタイプのデモを体験していただけます。 このAIエージェントは、マルチエージェント環境で複数のエージェントが相互に連携することによって、自律的にタスクを実行することができます。これにより、ユーザーの目的を達成するための計画を自動的に策定し、必要なエージェントを組み合わせて複雑な業務を効率的に進めることが可能になります。 例えば、以下のようなことができます。 ・ログイン、フォームの入力、ボタンクリックなど、Webシステム操作の自動化 ・複雑な数値計算やデータの可視化などによる分析業務の効率化 ・複数のエージェントが連携して目的を達成 ぜひ、InfoWeaveブースにお立ち寄り頂き、AIエージェントの驚きの能力をご体験ください クラウドネイティブ (NebulaShift) NebulaShift(ネビュラシフト)は、持続可能な事業戦略を支えるクラウドネイティブ・オファリングとして、コンテナ技術を中核としたクラウドネイティブ基盤の構築、アプリケーションのモダナイズ、アジャイル開発の定着など企業のクラウドネイティブ化をトータルで支援します。 お客様のビジョンや事業構造に合わせたシステムのモダナイズ、マイグレーション、基盤設計・運用を提供し、豊富な実績を活かして最適なソリューションを提案します。 アジャイル支援やコンテナ化を通じて、お客様が本来注力すべき領域に専念できるよう、きめ細やかな支援をするNebulaShiftをご紹介いたします! データ活用 (SCSKクラウドデータ用サービス) 「企業全体のデータ活用を加速させたい! 部門間のデータサイロを解消し、ガバナンスもしっかり確保したい!」そんなお悩みをSnowflakeで素早く解決します。 Snowflakeのデータクラウド基盤とAWSを組み合わせた環境で、お客様のデータ価値がどのように最大化されるのかをご紹介します。さらに、SCSKのノウハウを集約したナレコレBIによる経営課題の可視化・分析、TROCCOを活用したノーコードでのデータ自動連携、Amazon DataZoneによるデータカタログ管理やコラボレーションが体験できます! ミニシアターのご紹介 6つのAWS関連ソリューションについて、1日に各3回ずつ講演を行います。 最新の技術トレンドを交えながら、 SCSKの豊富なソリューションの特長やAWS活用について専門スタッフがご紹介します。 当日表彰される Japan AWS Top Engineerも多く登壇予定です! ぜひお見逃しなく! 商材名 紹介 AI駆動開発 【SIを再定義する ~若手エンジニアが語るAI駆動開発基盤の舞台裏~】 従来のシステム開発(SI)の概念を根本から変革する、AI駆動型の開発アプローチが登場しています。本セッションでは、AI駆動開発を組織に定着させるための仕組みであるAWSネイティブサービスを活用した「AI駆動開発基盤」の技術的知見や成功のポイントを解説します。システム開発に携わっている事業部門のマネージャー・SIプロジェクトリーダー・アプリケーション開発者まで、幅広い方々におすすめです。 本セッションの見どころ 従来型SIとAI駆動開発の違い AI駆動開発を組織に根付かせるために必要なこと 技術的課題と乗り越えるための実践的なアプローチ さらに実際のデモやユースケースを交えながら、AI駆動開発の効果を体験いただけます。 AIエージェント(InfoWeave) 【InfoWeaveで始めるAIエージェント – 新しい形の業務効率化】 AIエージェントとは、人が設定した目標を達成するために必要なタスクを自律的に生成し、計画的に実行するAIシステムです。ユーザが最終目標を提示するだけで、AIエージェントが「目的達成に必要なタスクの洗い出しと実行計画策定」と「計画に基づいたタスクの順次実行とエラー時の再試行」を自動で遂行することができます。 従来のチャットボット型の生成AIは単にユーザとの対話に応じるものですが、AIエージェントはあたかも数名の専門家やスタッフが協力してタスクを効率よく進めるように動作します。 生成AIを活用した効率的な開発、データ分析を考えているお客様 是非AIソリューション紹介ブースへお立ち寄りください! クラウド移行 (ITX リフト版+CN版+USiZE) 【あるぞ クラウド移行のソリューション ITX for SCSKのススメ】 AWS移行を漏れなく、網羅的に促進する為のソリューションパッケージです。 クラウドへの移行や有効活用に向け様々な課題をお持ちの皆様、是非当社のクラウド移行ソリューション(ITX for SCSK) 紹介ブースへお立ち寄りください! 当社の特色であるハイブリッドクラウドを実現する為のソリューション群と事例、クラウドネイティブ化を支援する内製化支援サービスを中心にご紹介させて頂きます。 クラウドデータベースマイグレーションサービス 【~SCSKのDB移行の技術とノウハウを集約!~ ITX for MCP SCSK版 クラウドデータベースマイグレーション対応 の全貌】 データベースのAWS移行について、課題はありませんか? SCSKは、2025年3月にITX for MCP SCSK版 クラウドデータベースマイグレーション対応版を発表しました。本サービスは、総合的なデータベースの移行アセスメントにより、データベースの最適な移行を選定・実施し、移行後の最適化、変革、データ活用まで対応したサービスを、お客様の個々の要望に合わせ提供するサービスです。 これまでDB移行サービスで培ってきたDB移行の実績に加え、AI活用を含めた新しい取り組み、移行後の更なる活用を取り込んだ幅広いDBサービスになっております。 AWS環境へのDB移行に少しでも興味のある方、是非ご参加ください。 SCSKクラウドデータ活用サービス 【SCSKクラウドデータ活用サービス データ活用の壁はこうして打ち破る!~SnowflakeとAWSで実現するデータドリブン経営~】 本セッションでは、企業が全社データ活用を推進する際に直面する課題を踏まえ、部門間のデータサイロを解消しながらガバナンスを確保するSnowflake中心の解決策をご提案します! 基盤構築から高度なデータ活用までをご支援するSCSKクラウドデータ活用サービスを利用しながら、Snowflakeのデータクラウド基盤とAWSを組み合わせた環境で、TROCCOによるノーコードでのデータ連携やAmazon DataZoneによるデータカタログ管理を組み合わせることで、システム部門の運用負荷を軽減しながらデータガバナンスを強化し、お客様のデータ価値を最大化する方法をご紹介します。 SuccessChain for DataPlatform 【製造業向け 業務データプラットフォーム データから得たインサイトを活用し業務改革と効率化を推進 可視化を定着しサプライチェーン最適化】 データドリブン経営への第一歩を、SCSKと共に! 本セッションでは、SCSKが提供する製造業向け業務データプラットフォーム「SuccessChain for DataPlatform」をご紹介します。 このサービスは、サプライチェーンに分散する業務データを集約し、業務課題を可視化することで、経営の高度化と業務効率化に貢献します。 こんな課題をお持ちの方におすすめです データを活用できる人材が社内に増えない データの使い方が分からない 最適なサプライチェーンや在庫管理の真の課題が見えない 必要データが集まらず、分析が進まない データ活用の仕組みや基盤が整っていない データ活用による課題解決・経営変革を、SCSKと共に実現しませんか? ぜひ本セッションで、お待ちしております 当日は、【013P】ブースでお待ちしております! こちらのユニフォームを着たスタッフがお待ちしております。 それでは、皆様の来場を心よりお待ちしております!
こんにちは。SCSKの松渕です。 Google Cloud Data & AI Summit ’25 Springに参加してきたので、イベントの内容と感想を投稿します。 セッションはピックアップしてお届けいたします! Google Cloud Data & AI Summit ’25 Springとは このイベントは、Google Cloudが主催するデータ分析と人工知能に関するイベントです。最新のGoogle CloudのデータおよびAIテクノロジーの発表、成功事例の共有、専門家によるセッション、そして参加者間のネットワーキング(懇親会)が提供されます。 会場は渋谷ストリームにあるGoogleオフィスで、活気に満ち溢れ、最新技術への期待感と熱気が充満していました。 イベントレポート Opening セッション タイトル:生成 AI はデータドリブン経営の救世主か? ~ Google Cloud が考える Data x AI、ビジネス プロセスの融合 発表者:GoogleCloud 内容 日本のデータドリブン経営は64か国中64位というショッキングな数字のスライドから発表スタート。 LLMがコモディティ化する中で、鍵となるのは強固なデータ基盤であり、各企業のデータがビジネスの源泉となることが強調されました。生成AIを個人の業務効率化に留まらず、抜本的な業務プロセス改善に繋げるためには、以下の3つの要素が重要であると提言されました。 ① Real-Time (リアルタイム性): VUCA(変動性、不確実性、複雑性、曖昧性)の時代において、最新データに基づいたタイムリーな判断が必要不可欠であり、Googleはそのため多数のツール/サービスを提供していることが紹介されました。 ② MultiModal (マルチモーダル対応): 企業活動において生成されるデータの約80%が非構造化データであるという現状が示され、そのためマルチモーダルに最初期から対応しているGeminiと、それとシームレスに連結できるGoogle Cloudに大きなメリットがあることが説明されました。 ③ Agentic (エージェント性): 多数のインプット箇所からのデータ統合、データのクレンジングや複雑なデータ分析、将来のデータ予測などをAI Agentを活用して自然言語で実施できる体験がデモを通じて紹介されました。 セッションの感想 80%を占める非構造化データをビジネス活用するとき、GoogleCloudのBigQuery及びGeminiを筆頭とする関連サービス群が非常に強力だと感じた。 セッション1: 生成 AI が拓くデータ活用の新境地:Google Cloud の「データ エージェント」とは? 発表者:GoogleCloud 内容 Openingセッションの内容を技術的かつ具体的に踏み込んだ内容でした。AIエージェントは以下の3つから成り立っているとのこと。 Model(基盤モデル) Tools(他APIやサービスとの連携) Orchestration(フロント部分。Toolsとモデルの橋渡しや、プロンプトの理解と応答) また、エージェントは複数が組み合わさってタスクが実行されるようになっていくとのことです。その中で、GoogleCloudはデータ関連エージェントとして以下の4つのエージェントを発表済もしくは今後発表予定であることが示されました。 DataEngineeringAgent: データパイプラインの作成、データキュレーション、データクレンジングなどを自動化します。 DataGovernanceAgent: 信頼できる唯一の情報源を作成し、メタデータの自動作成、自動異常値検出、データリネージ追跡などを可能にします。 DataScienceAgent: ノートブック上でデータラングリングやデータ探索、モデル作成などを支援します。 ConversationalAnalyticsAgent: Looker Studio Proで利用可能で、対話型でのデータ分析および可視化を実現します(APIでの提供も予定)。 独自Agentを構築する場合、Agent部分はADKというフレームワークを、MCP部分はOSSであるMCP Toolbox for Databaseというフレームワークを使うと効率的な開発が可能であると紹介されました。 アーキテクチャへの影響とビジネスへの変革については、各種データエージェントは、いわゆるメダリオンアーキテクチャを大きく変えることはなく、全ての階層で効率化がなされるだけのため、現状のアーキテクチャは利用可能であると説明されました。これにより、データ発生から価値を出すまでの期間が圧倒的に短くなるとのことでした セッション感想 自然言語でここまでデータ分析が可能になる未来が楽しみになりました。 特に、DataGovernanceAgentのメタデータの自動作成は非常に魅力的でした。メタデータをしっかり作っていくのはデータ活用において非常に重要と理解しつつも、手間がかかることや、ルール統一・周知徹底が難しく現実的ではないケースがあると考えていました。それをAIが補完してくれることで、効率的なデータ分析に大きく寄与すると感じました。 セッション2:データが拓く、新たなロッテ:BigQuery を中心としたデータドリブン変革 発表者: 株式会社ロッテ 内容 内製化によるデータ分析の実績とその課題、今後の展望について詳細に語られました。 特に、DX寺子屋を定義して人材育成に力を入れ一定の成果を収めたものの、それがゆえにプロジェクトが増加。また、管理面のスキル不足による人材不足に陥ったとのことでした。 それらの課題解決のため、管理コスト削減やCI/CD環境構築といったアーキテクチャの改修を行ったとのことです。 興味深かったのは、DWHはBigQueryに統一しつつも、BIツールはあえてロックインされないよう乱立状態を維持しているという点でした。 内製化の例として、食堂の喫食数予測。このシステムはなんと1年目の社員の方が内製で作ったそうです!素晴らしいです。 今後は非構造化データをビジネス活用するため、AI Agent時代を見据えて非構造化データの収集の仕組みを構築しているようです。 セッション感想 内製化推進に成功した結果、プロジェクトが増加し、逆に人材不足に陥り外部ベンダーへの委託も増えたという話は、非常にリアルで考えさせられました。 ビジネス部門から「業務を理解し、考えて仮説立ててから話もってこい」というお叱りを受けたというエピソードは、自身の仕事を振り返る上で心に刺さるものがありました。 懇親会の様子 イベント終了後の懇親会では、ビールやチューハイなどのドリンク、そして美味しい食事が提供され、参加者間の交流を深める良い機会となりました。 「Ask the Speaker」コーナーやGoogle Cloud社のエキスパートと直接会話できるコーナーも設けられており、セッションでは聞けなかった疑問を解消したり、より深い議論を交わしたりすることができました。 開始30分ほどで徐々に人が減り始めたため、最初は難しかったエキスパートとの会話も、食事をしながら時間を置くことでじっくりと話すことができ、貴重な情報交換の場となりました。 まとめ 今イベントを通して感じた Google Cloud の展望について Google Cloudとしては、非構造化データのビジネス活用を強力に推進していく意思を強く感じました。 マルチモーダル対応かつ自社開発でBigQueryとのシームレスな連携が可能なGeminiとGoogle Cloudの組み合わせは、非構造化データの利活用という意味では強力な武器であり、GoogleCloudは推していくと感じました。 また、Geminiの優位性は、コストとマルチモーダルという点も再認識しました。 LLMの進化は日進月歩であり、他LLMとの性能比較は日々変化すると思いますが、Geminiはコストパフォーマンスという点とマルチモーダルという観点では一貫して優位性があるという印象を受けました。マルチモーダルは多くのLLMでも対応していますが、200万トークンという入力トークンサイズによりマルチモーダルなデータインプットへ幅広く対応できると感じました。 最後に データエージェントはまだロードマップ段階のものが多いですが、リリースされた際にはすぐにでも使ってみたい機能ばかりでした。特に自然言語でデータパイプラインを構築できる機能は非常に魅力的であり、実務への導入を積極的に検討していきたいと考えています。 また、今回のイベントを通じて、非構造化データのビジネス活用が今後ますます重要になってくると強く感じました。今後も学習とアウトプットを続けていきたいと思います!
こんにちは SCSKの庄司です。 今回は、ServiceNowの注文ガイド機能の基本を紹介していきます。 本記事は執筆時点(2025年5月)の情報になります。最新の内容は製品ドキュメントを参考にしてください。 注文ガイドとは? 注文ガイドとは、複数のアイテムを生成する1つのサービスカタログ要求を送信するための機能です。 これを使うと「新入社員の受け入れのための一連の申請」としてPC、モニター、社用携帯、メールアカウント作成等といった複数のサービスカタログアイテムを一連の流れで選択・同時注文できるようになります。 また、ユーザー側としても一つのシナリオに際してあれこれ必要な申請を1つの画面で一度に送信できるため手間が省けるほか、申請漏れのリスクなども軽減することが可能です。 注文ガイドの基本動作 では、さっそく注文ガイドには具体的にどのような動作をするのか見ていきましょう。 今回は、New HireというPDI環境に搭載されている注文ガイドを使います。 ※一部英語のままだった個所を私の判断で日本語に翻訳しました。皆さんのPDIとは異なる場合があります。 こちらが注文ガイド画面になります。 基本的に注文ガイドは3ステップで構成されています。 ①「ニーズを説明」画面 「ニーズを説明」画面には説明が記載されています。 また、必要なカタログアイテムを特定するための変数を用意することもできます。 必須の項目を入力すると、画面右下[次へ]ボタンが活性化され、押下すると「オプションを選択」画面に遷移します。 ②「オプションを選択」画面 ここで個別のアイテムに対して項目を入力したり、右側のボタンのオン/オフに応じて必要のないアイテムを申請から外すことも可能です。 ここで自動選択されるアイテムは「ニーズを説明」画面の項目の入力内容に応じて変更することも可能です。 例えば、今回「リモート勤務の社員ですか?」という項目で「はい」を選択すると、「オプションを選択」画面の「Desk Set Up」というアイテムが表示されなくなっています。 今回は「リモート勤務の社員ですか?」という項目で「はい」を選択した状態から、「Standard 27″ Monitor」を外した状態で[次へ]を選択します。 ③「サマリー」画面 注文ガイド送信前の内容確認画面です。 申請対象として選択したアイテムを確認できます。 先ほどオプションから外した「Standard 27″ Monitor」には「含まれていません」の表示がされています。 内容が問題なかったら[今すぐ注文]を押下し、注文を実施します。 要求サマリー画面に遷移しましたが「Standard 27″ Monitor」は含まれておらず、他の3つのアイテムの要求が送信されていることがわかります。 ここまでが注文ガイドの大まかな動きになります。 注文ガイドの設定 ここからは注文ガイドの機能について紹介していきます。 ただし、通常のカタログアイテムと共通している部分も多くあるため、今回は注文ガイド独自の部分に限りお話ししていきます。 1. ルールベース ルールベース関連リストでは、注文ガイド内に含める個別のアイテムを定義するためのレコードを作成します。 事前に作成してある個別のカタログアイテムを、注文ガイドと紐づけるイメージです。 先ほど注文ガイドの基本動作の説明に使用した「New Hire(新規雇用)」のルールベース関連リストは上記のようになっています。 「Standard Laptop」、「Standard 27″ Monitor」、「Desk Set Up」など、見たことのあるアイテムが並んでいますね。 また、ルールベースには「この条件が true の場合」という項目で、そのルールベースに対応するアイテムが選択されるための条件を設定することができます。 先ほど「リモート勤務の社員ですか?」で「はい」を選択した際に「Desk Set Up」が注文ガイド内から外されていたのは、「Desk Set Up」の条件が「「リモート勤務の社員ですか?」が「いいえ」の場合に表示する」になっているためです。 「Desk Set Up」のように「ニーズを説明」画面の変数とルールベースの「この条件が true の場合」を利用して、要求するアイテムを柔軟に変更させることで様々な顧客のニーズに対応した注文ガイドを作成することが可能になります。 2. アイテム変数のアサイン ルールベースレコードの関連リストとしてアイテム変数のアサインがあります。 アイテム変数のアサインには、割り当てタイプが「注文ガイド変数」の場合と「値」の場合の2通りの使い方があります。 割り当てタイプ:注文ガイド変数 割り当てタイプで注文ガイド変数を選択している場合は、注文ガイドの変数の値をルールベースのカタログアイテム内変数にすることができます。 アイテム変数にはルールベースのカタログアイテム内変数を、注文ガイド変数には注文ガイド内の変数を選択します。 上記レコードを送信した後、指定した注文ガイド変数に「アサイン変数のテスト」と入力します。 「オプションを選択」画面に遷移後、指定したアイテム変数を確認すると先ほど入力した文字列が自動入力されています。 この機能を使うことで、注文ガイド変数とアイテム変数とで同じ内容を入力させる際に一回の入力で複数項目に入力させることができるため、冗長な作業をなくして作業を効率化したり、自動入力にすることで入力ミスの可能性も低減させることができます。 非常に有用な機能です。 ただし、この機能の注意点として参照タイプの変数と1行テキストの変数のように変数タイプ違いだと対応できない場合があります。 割り当てタイプ:値 割り当てタイプで値を選択している場合は、固定の値をアイテム変数に自動入力することができます。 試しに、先ほどと同様のアイテム変数に対して「アサイン変数のテスト2」という値を設定します。 ポータルの注文ガイド画面を確認しに行くと、指定したアイテム変数に「アサイン変数のテスト2」という値が自動入力されています。 割り当てタイプが値の場合は、指定したアイテム変数のタイプに応じた値を設定することが可能です。 以下はsys_userテーブルを参照している変数の場合の画面です。 この注文ガイド経由で申請する場合、このアイテムのこの変数はこの値で固定、という場合に役立てることができそうです。 3. カスケード変数 この値がTRUEの場合、同じ変数名の変数間で入力値を共有することが出来ます。 カスケード変数をTRUEにしたのでカタログアイテム「New Email Account」に用意されている変数「Preferred Email address(変数名:new_email)」と同じ変数名の変数を注文ガイド側にも用意し、適当な値を入力します。 [次へ]を押下し「オプションを選択」画面に遷移すると、「New Email Account」の変数「Preferred Email address(変数名:new_email)」に同様の値が自動で入力されています。 イメージは上で紹介した割り当てタイプ:注文ガイド変数のアイテム変数のアサインとかなり似ています。 相違点としては、アイテム変数のアサインは変数名が異なっていても使用できるが、カスケード変数は変数名が同一の変数間でのみ入力値の共有が可能という点があります。 一方で、カスケード変数はチェックボックスをTRUEにするだけで複数のカタログアイテムに跨って入力値を共有することができます。 アイテム変数のアサインはルールベースごとに設定が必要になるので、複数のカタログアイテム間で共通の変数を所持している場合はカスケード変数を利用し、その他の変数間で値の共有をスポット利用したい際はアイテム変数のアサインを利用するという使い方がベストに思います。 4. 含めるかどうかの切り替えを表示 この値のTRUE/FALSEに応じて、注文ガイドの基本動作でも紹介した「オプションを選択」画面のアイテム右側にあるボタンの表示/非表示を設定できます。 TRUEの場合 FALSEの場合 この値をFALSEにすることで本来必要なアイテムが外されてしまうことを防ぐことが可能です。 ただし、その場合はオプションのアイテムの要否を「ニーズを説明」画面で詳細に確認しておく必要があります。 5. 2ステップ この値がTRUEの場合、注文ガイドの要求送信までのステップをデフォルトの3ステップから2ステップに短縮します。 まずは3ステップの場合から見ていきます。 先ほど紹介したポータルでの動き同様「ニーズの説明」画面から始まり、「オプションを選択」画面に遷移します。 「オプションを選択」画面で必要項目へ入力を実施し、[チェックアウト]ボタンを押下します。 チェックアウト画面に遷移しますが送信前に最終確認が入り、ここで再度[チェックアウト]を押下すると要求が送信されます。 このように、3ステップの注文ガイドではサービスポータル同様、以下の流れで要求が送信されます。 ①ニーズを説明 ⇒ ②オプションを選択 ⇒ ③最終確認 ⇒ ④要求の送信(注文ステータス画面) 一方、2ステップの場合は以下のようになります。 3ステップ同様、「ニーズの説明」画面から「オプションを選択」画面に遷移します。 ここで、[チェックアウト]を押下すると最終確認の画面が飛ばされ、要求が送信されて注文ステータス画面にまで遷移します。 このように、「2ステップ」の注文ガイドは以下の流れなります。 ①ニーズを説明 ⇒ ②オプションを選択 ⇒ ③要求の送信(注文ステータス画面) 注文を速度重視にするか、安全性重視にするかで2ステップと3ステップを使い分けることができそうですね。 ただし、この2ステップ機能については現状だとサービスポータルには反映されないようなので注意が必要です。 6. すべての質問のヘルプを展開 この値をTRUEにすると、各種変数に存在するヘルプテキストを、変数上での「常に展開する」項目のTRUE/FALSEに関わらず該当の注文ガイド上では展開させた状態にさせます。 FALSEの場合 TRUEの場合 ただし、個別のアイテム内のヘルプテキストは対象にならない点には留意が必要です。 あくまで「注文ガイド」内の変数、変数セットに対してのみ効力を持つようです。 まとめ 以上が注文ガイドの基本になります。 注文ガイドは、ユーザーが1つのシナリオに対して複数の申請を一括で行える、非常に便利な機能です。 今回ご紹介した基本機能に加え、スクリプトなどを活用することで、さらに柔軟で効率的な申請フォームを構築することも可能です。 また、詳細は別途ご紹介予定ですが、特定のプラグインを追加することで、注文ガイド内で申請内容に順序をつけることもできます。 新入社員の受け入れや異動対応など、複数のリクエストが発生しやすい業務においては、特に効果を発揮します。 業務効率化の一手段として、ぜひ導入を検討してみてください。
皆さま、こんにちわ。社内でOCIプリセールスを担当しております、越水と申します。 2025年度はOracle Cloud Infrastructure(以後、OCI)に関するブログ記事を定期的に発信していこうと思い、 この度、キーボードとマウスを取りました。どうぞよろしくお願い致します。 記念すべき一つ目の記事ですが、2024年12月に当課内のOCI技術担当者が行った、オラクルの生成AI戦略における重要ピースである「OCI Generative AI(RAG Agent)」「Oracle 23ai(Vector Search)」「Autonomous Database(ADB)」の3つの要素を組み合わせた検証を行いましたので、その概要について触れたいと思います。 本記事では、OCIのAI関連技術の最前線と、その業務適用の可能性について、実際の構築と検証を踏まえてご紹介します。 検証の背景と目的 私たちは主にOracle Database、Oracle H/W、OCIを取り扱っており、以下のミッションを持って日々、業務を行っています。 OCIやOracle Databaseの新機能を深く理解すること OCIの機能をキャッチアップし、社内外への提案力を強化すること 最近はOCIの検証環境を使った技術検証やサービス開発に取り組んでおります。 今回は、流行りの生成AI系のサービスについて検証を行ってみることとして、当課で持つOCI環境上で以下の3つのサービスを統合した実環境を構築し、技術検証を行うことにしました。 OCI Generative AI RAG Agent (生成AIによるエージェントサービス) Oracle 23ai Vector Search機能 (Embedding × 高速検索) Autonomous Database(ADB) 上に構築したナレッジベース 検証内容と構成 今回の検証で構築した全体構成は以下の図となります。 ステップ①:RAG Agent の環境構築 OCI上に生成AIエージェントを構築。 ステップ②:ADBとの統合 Vector Searchのインデックス対象となるベクトルデータは、ADB上に格納。 Object Storageからデータを取り込み、ベクトル化し、検索用インデックスとして利用。 ステップ③:Vector Search連携 RAGのナレッジソースとして、23aiの Vector Search機能 を使う構成を検証。 独自ナレッジをEmbeddingし、類似検索の結果をもとに生成AIが回答する設計です。 システム全体像(構成のポイント) データ格納 :Object Storage → ベクトル化 → Vector Store(ADB内) 検索&生成 :RAG AgentがVector Search結果をもとに自然文生成 オーケストレーション機能 :Agent間の連携も可能(今後拡張予定) 実際の業務適用を見据えて 本検証では、以下のようなユースケースを想定しました。 我々が日々行うOracle保守業務における「問い合わせ履歴」をナレッジ化し、RAGで問い合わせへの回答の支援ができるか? この仕組みを実用化できれば、 社内ヘルプデスク・FAQ対応の効率化 や、 技術ナレッジ共有の自動化 の前進が期待できます。 まとめ 今回は、「OCI Generative AI(RAG Agent)」「Oracle 23ai(Vector Search)」「Autonomous Database(ADB)」の3つの要素を組み合わせた検証環境の概要を説明しました。 次回は、23ai ベクトルデータ取り込みからVectorSearchを実施するまでの流れについてのブログ記事をアップロードしたいと思います。
Catoクラウドのイベント・セミナー関連の情報です。 はじめに SCSK では、 Cato クラウドのデモセミナーとハンズオンセミナーを実施しています。 デモセミナー(ウェビナー /2 時間)では、 Cato クラウドの完全に統合された管理画面をご覧いただくとともに、ユースケースを交えたデモをご覧いただいています。 ハンズオンセミナー(オンサイト / 半日間)では、実際に Cato クラウドを操作いただき、圧倒的な使いやすさを体感いただきます。 各セミナーの解説をした過去ブログがございますので、ご興味ある方はこちらもご覧ください。 【12/5開催】 Catoクラウドデモセミナー~Catoクラウドの主要機能を2時間で網羅~ 開催レポート – TechHarmony Catoクラウド 1Dayハンズオンセミナー潜入レポ! – TechHarmony 本日は、これまで実施してきた Cato クラウドデモセミナーについてご紹介します。 Cato クラウドデモセミナーとは Cato クラウドデモセミナー(以下、デモセミナー)は、タイトル通り、2時間のデモンストレーションで主要機能を網羅いただくコンテンツです。 ある回のアジェンダは以下の通りです。 。 ほぼ全ての回でライブ QA 対応をしています。多いときは、2時間のセミナー中に40件ほどのご質問をいただき、複数名の Cato 担当エンジニアが リアルタイム回答を実施させていただいています。 データ集計結果の一部をお見せします デモセミナーのデータ集計結果を用いて、宣伝を兼ねたコメントをあれこれしていきます。 Cato クラウドをご存じですか? 以下、結果です。 概要を知っているという方が6割近くいらっしゃいます。 前提として、デモを求めてご参加される方が多いため、このような結果になっていると思いますが、 実はデモセミナーは Cato クラウドをまだあまりご存じない方もご参加しやすい内容となっていますので、 残りの4割の方も十分にご満足いただけるセミナーです。 デモセミナーの感想を教えてください 以下、結果です。 デモだけで2時間といった長丁場のセミナーで、「良かった」以上のご評価が95%を占めているのは、本当に嬉しい結果です。 「あまり良くなかった」以下の 5 %の主な原因は、ユーザー様のコメントを読ませていただくと、 ウェビナーの音質(サウンド設定)によるものがいくつかありました。都度、コメントを読んで改善させていただいています。 今後はより多くの方に「大変良かった」を選んでもらえるよう、デモセミナーの改修も進めています。 デモセミナーで、特にご関心をお持ちいただいた項目を教えてください 以下、結果です(項目はアジェンダ順となります)。 項目間にあまり差がありませんが、中でも最も票が多い「 Cato 管理ポータルの概要」は、デモセミナーで特にご覧いただきたい部分です。 Cato クラウドの完全に統合されたシンプルでユーザービリティに優れた管理ポータルは、これから始めて SASE および Cato クラウドを ご検討される方にもご評価いただけるポイントだと思っています。 また、次に票が多いのが「 CASB の設定と利用例」で、当社としては納得の結果となっています。 Cato クラウドのご提案やご契約の中で、セキュリティオプションの CASB は、他のオプションと比較して特にニーズがあります。 これまで CASB 未導入の方も、 Cato クラウド導入を機にまとめてご検討いただいている印象です。 お申込み / ご参加の方の都道府県別割合 以下、結果です ( 1% 未満は記載を割愛させていただいています)。 *SCSK Cato 担当調べ ウェビナーにもかかわらず、東京都の方が圧倒的に多いようです。これは、 Cato クラウドに限らず、 SASE や IT 全般に言えることではないかと思います。 Cato クラウドをもっと知っていただきたい! ご紹介させていただいたようなご評価や改善ポイントをふまえ、より多くの方にデモセミナーをお届けしたいと思います。 ということで、今期( 2025 年4月~ 2026 年3月)も開催します! デモセミナーにつきましては、6月以降、ほぼ毎月開催いたします。ご興味をお持ちになったタイミングでいつでもご参加ください。 \\ 新着公開 // 2025年 6 月2 5 日 (水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2025/20250625.html 2025年 7 月 30 日 (水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2025/20250730.html 2025年 8 月 27 日 (水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2025/20250827.html 2025年 9 月 24 日 (水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2025/20250924.html 2025年 10 月 29 日(水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2025/20251029.html 2025年 11 月 26 日(水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2025/20251126.html 202 6 年 1 月 28 日 (水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2026/20260128.html 202 6 年 2 月 25 日 (水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2026/20260225.html 202 6 年 3 月 25 日 (水)1 5 :00-1 7 :00 https://www.scsk.jp/event/2026/20260325.html Cato クラウドも日々進化し、管理画面もアップデートがございますので、 SCSK もなるべく最新の環境でデモをお見せしたく考えています。 これまでも改修を加えており( ver.1 から ver.2 )、7月回は ver.3 のリリース予定です。初めての方も、お久しぶりの方も、奮ってご参加ください。 おまけ ハンズオンセミナーももちろん開催します。 前述のデモセミナー参加者都道府県別割合をふまえ、東京・大阪・北海道(札幌)・福岡(博多)を開催地としてご設定させていただきました。 毎回満席となる東京・大阪につきましては、 2 回ずつの開催となっています。 全ての都道府県に出向けず申し訳ありませんが、ぜひ最寄りの会場へお越しいただけますと幸いです。 \\ 新着公開 // 2025年7月24日 (木)13:00-18:00 東京① https://www.scsk.jp/event/2025/20250724_2.html 2025年7月31日 (木)13:00-18:00 大阪① https://www.scsk.jp/event/2025/20250731.html \\ 先行公開 //ご希望の方、申し込みサイトオープンをお待ちください。 2025年9月11日 (木) 13:00-18:00 博多 2025年10月*企画中 13:00-18:00 札幌 2025年11月6日 (木) 13:00-18:00 東京② 2025年11月20日(木) 13:00-18:00 大阪② 各地で皆様と直接お会いし、 Cato クラウドの素晴らしさを体感いただければと張り切っていますので、ぜひご期待ください。