TECH PLAY

Power BI

イベント

マガジン

技術ブログ

「DX人材育成」と聞いて、まず思い浮かべる施策は何でしょうか。多くの企業が、SQLやPythonのプログラミング研修、統計学の基礎講座といった「分析スキルの習得」に多大なリソースを割いています。 しかし、いざ育成した人材を現場に投入しても、思うような成果が出ないという声をよく耳にします。「きれいなレポートは出てくるが、ビジネスの意思決定には使えない」「高精度な予測モデルはできたが検証で終わってしまった」こうした状況はなぜ生まれるのでしょうか。 dotDataでは、 データ活用推進のための人材と組織変革 において、データ活用は特定の専門家だけでなく、組織全体で取り組むべき課題であると述べました。この「組織全体での取り組み」を具体化するためには、分析作業そのものだけでなく、その前後にあるプロセスや、それを支える多様な専門人材の存在を理解する必要があります。 本連載の最終回となる今回は、データ活用プロジェクトを成功させるための「企画・分析・活用」の3フェーズと、それを推進するチーム編成、そして華やかな分析の裏側を支えるエンジニア群の役割について、全体像を解説します。 1. データ活用プロジェクトの3フェーズ:分析の前後にこそ鍵がある データ活用は、データセットをツールに投入して終わりではありません。ビジネス成果を生むためには、以下の3つのフェーズを循環させる必要があります。特に日本企業では、真ん中の「分析」に注力しすぎて、入り口の「企画」と出口の「活用」が疎かになる傾向があります。 Phase 1:企画フェーズ(Planning) ゴール:目的とゴールを明確化し、プロジェクト全体を設計する 最も重要なフェーズです。ここでは「何のためにやるのか(課題設定)」と「どう業務を変えるか(アクション仮説)」を定義します。 課題設定 : ビジネスアナリティクス でも強調した通り、データ活用は「何が起きているか」「なぜ起きているか」というビジネスの問いから始まります。経営課題からトップダウンで降りてくる場合もあれば、現場データからボトムアップで発想する場合もありますが、「ビジネスのどの数字(KPI)を動かしたいか」を明確にすることが不可欠です。 「完璧なデータ」の罠 : 企画段階でよくある失敗は、「完璧なデータが揃ってから始めよう」とすることです。これではいつまで経ってもプロジェクトは始まりません。「最低限必要なスキル」を見極め、走り出すことが重要です。 Phase 2:分析フェーズ(Analysis) ゴール:データを検証し、素早いPDCAで示唆を得る ここでは、 BI・BA・PA の手法を用いて実際にデータを分析します。重要なのは、一度の分析で正解を出そうとせず、アジャイルにPDCAを回すことです。 フィードバックループ : 分析結果を素早く業務部門(ユーザー)に見せ、「これなら使えそうか?」「現場の肌感覚と合っているか?」というフィードバックを得ます。この対話プロセスこそが、分析の精度を高めると同時に、現場の「自分ごと化」を促します。 Phase 3:活用フェーズ(Execution / Utilization) ゴール:業務に組み込み、継続的な成果を生み出す 分析結果やモデルを実際の業務プロセスに統合します。ここがDXのラストワンマイルであり、最もハードルが高いフェーズです。 パイロット運用 : 最初から全社展開するのではなく、特定の支店や部門で限定的に運用し、効果と課題を検証します。 業務システムへの組み込み : レポートを見るだけでは業務は変わりません。需要予測を発注システムに連携させて自動発注するなど、業務フローそのものを変更して初めて大きな成果が生まれます。 効果モニタリングと文化醸成 : 導入後もKPIをモニタリングし、成功事例を社内に広めることで、データ活用文化を根付かせます。 2. 成果を生み出す「三位一体」のチーム連携 前述の3つのプロセスを回すためには、どのようなチームが必要でしょうか。 本連載の第1回 では「データアナリティクスを推進する3つの機能」として、個人の役割定義(分析者、企画者、活用者)を行いました。実務プロジェクトにおいては、これらの人材がバラバラに動くのではなく、「三位一体」となって連携することが成功の条件となります。 企画者・推進者:翻訳と調整のハブ 第1回で定義した通り、ビジネスとデータの「バイリンガル(ハイブリッド型人材)」です。 実務プロセスにおいては、業務部門が抱える漠然とした悩みを「分析可能な課題(問い)」に翻訳し、プロジェクト全体の進行管理を担います。IT部門、分析部門、業務部門の間に立ち、利害調整を行うプロデューサー的な立ち回りが求められます。 分析者(アナリスト):インサイトの提供 データからインサイトやモデルを生み出す実務担当者です。 プロジェクトの中では、企画者が設定した問いに対し、SQLやBIツール、統計解析を駆使して答えを導き出します。単に数字を出すだけでなく、そこから言える「示唆」をビジネス部門にわかりやすく伝え、次のアクションを促す役割を果たします。 理解者・活用者:現場判断への適用 日本のDX推進において最も不足しがちなのが、この層の関与です。 主に業務部門の現場担当者を指します。分析結果を鵜呑みにするのではなく、その意味を理解し、自らの業務判断に取り入れる役割です。 プロジェクト成功の鍵は、この活用者が分析者に対して「現場の実感と違う」「こういう視点のデータも欲しい」とフィードバックを行い、対話型で分析をブラッシュアップできる関係性を築けるかにかかっています。 3. 分析の裏側を支えるエンジニア群の重要性 「データ分析」という華やかな成果物の裏側には、データを安定供給し、システムとして稼働させるための膨大なエンジニアリングが存在します。DX人材の育成を考える際は、アナリストだけでなく、以下のエンジニア職の確保・育成もセットで検討する必要があります。 データエンジニア:全ての分析の元となるデータに責任を持つ どんなに優秀なアナリストも、データがなければ何もできません。 データエンジニアは、社内外に散らばるデータを収集・蓄積し、分析しやすい形に加工(クレンジング・構造化)して提供する役割を担います。データ活用の生産性は、彼らが構築するデータ基盤の品質に依存します。 BIエンジニア:可視化の専門家 ビジネス要件に基づき、BIツール(Tableau, Power BI等)を用いて、直感的に状況を把握できるダッシュボードを設計・構築します。アナリストがインサイト抽出に集中するのに対し、BIエンジニアは可視化システムの安定運用とUI/UXを追求します。 MLエンジニア / MLOps:AIを運用に乗せる データサイエンティストが作った機械学習モデルは、作って終わりではありません。 MLエンジニアは、モデルを本番システムにデプロイし、精度の劣化(ドリフト)を監視し、継続的に再学習させる仕組み(MLOps)を構築・運用します。 セキュリティ / インフラエンジニア クラウドベースの分析基盤の設計や、機密データのアクセス制御・ガバナンスを技術面から担保し、安全なデータ活用環境を提供します。 4. 全体設計図の完成:組織・人材・プロセスの統合 これまで3回にわたり、人材定義、組織モデル、プロセスについて解説してきました。これら全てを統合したものが、以下の「データドリブン組織の全体設計図」です。 リーダーシップ(CDAO) : 攻めと守りの戦略を描く。 組織(Hub & Spoke) : 中央(Hub)が高度な技術とガバナンスを提供し、事業部門(Spoke)が現場課題起点の分析と活用を推進する。 人材(Professional) : アナリスト、サイエンティスト、エンジニアが適材適所で連携する。 プロセス(Cycle) : 企画・分析・活用のサイクルを回し、業務を変革する。 5. 結論:「大きな戦略」を描き、「小さな成功」から始める 本連載では、データドリブン組織に必要な「全体設計図(ブループリント)」を提示してきました。 CDOの設置、ハブ&スポーク型の組織構築、専門人材の定義、これらは企業が中長期的に競争力を維持するために不可欠な「大きな戦略」です。この土台なくして、持続的なDXは実現しません。しかし、立派な組織図や完璧なデータ基盤が完成するのを待っていては、ビジネスの機会を逃してしまいます。 重要なのは、「大きな戦略(全体設計)」を頭に置きつつ、足元では「小さな成功(Quick Win)」から始めることです。目的(解決したい業務課題)を明確にし、そこに熱意を持った「企画者」「分析者」「活用者」の小さなチームを作る。そして、不完全なデータでも構わないので、まずは分析し、業務に使ってみる。 この「小さな成功」の積み重ねこそが、組織全体の意識を変え、描いた「大きな戦略」を絵に描いた餅で終わらせないための唯一の駆動力となります。本連載が、皆様の組織における「戦略的な全体設計」と「実践的な第一歩」の一助となれば幸いです。 The post データドリブン組織の設計図|DX人材育成は「分析スキル」だけでは失敗する? 企画から運用を成功させる「三位一体」モデル(連載 第3回) appeared first on dotData .
本記事は 2026 年 1 月 22 日 に公開された「 Power up your analytics with Amazon SageMaker Unified Studio integration with Tableau, Power BI, and more 」を翻訳したものです。 by Narendra Gupta, Durga Mishra, Nishchai JM, and Ramesh H Singhon 22 JAN 2026in Advanced (300) , Amazon SageMaker Unified Studio , Technical How-to Permalink Comments Share 複数のデータソースにまたがるガバナンスされたデータに、セキュリティとガバナンスを維持しながら、使い慣れたビジネスインテリジェンス (BI) や分析ツールでアクセスして分析する際、組織は新たな課題に直面します。Tableau、Power BI、Excel などの使い慣れたツールを Amazon SageMaker のデータアセットに、データガバナンスとセキュリティ機能を損なうことなくシームレスに接続する必要があります。Amazon SageMaker は Amazon Athena JDBC ドライバーによる認証をサポートしており、データユーザーは Tableau、Power BI、Excel、SQL Workbench、DBeaver などの一般的な BI および分析ツールを使い、サブスクライブしたデータレイクアセットにクエリできます。データユーザーは使い慣れたツールで Amazon SageMaker の管理化にあるデータにアクセスして分析でき、生産性と柔軟性が向上します。 Amazon SageMaker Unified Studio では、データユーザーが単一のプロジェクト内で複数のソースからデータを検索してサブスクライブでき、データアクセスとガバナンスが効率化されます。Amazon SageMaker Unified Studio は Amazon Athena 、 Amazon Redshift 、 Amazon SageMaker AI などの Amazon 固有のオプションとネイティブに統合されており、ユーザーはプロジェクトのガバナンスされたデータを分析できます。これらに加え、今回の JDBC 接続のリリースにより、Amazon SageMaker Unified Studio はアナリストやサイエンティストを含むデータユーザーへのサポートを拡大し、SQL Workbench、Domino、 Amazon Athena などの Amazon ネイティブソリューションなど、好みのツールで作業しながら、Amazon SageMaker Unified Studio 内で安全でガバナンスされたアクセスを確保できます。 はじめに まず、使用するツール向けの最新の Athena JDBC ドライバー をダウンロードしてインストールします。インストール後、Amazon SageMaker Unified Studio ポータルから JDBC 接続文字列をコピーして JDBC 接続設定に貼り付け、ツールからの接続を確立します。企業の認証情報を使ったシングルサインオン (SSO) で認証するよう指示されます。接続後、Amazon SageMaker Unified Studio でガバナンスされたデータを、既に使い慣れた信頼できるツール内でクエリ、可視化、共有できます。 本記事では、Athena JDBC ドライバーで各種分析ツールを Amazon SageMaker Unified Studio に接続し、Amazon SageMaker Unified Studio プロジェクト内でサブスクライブしたデータにシームレスにアクセスする手順を説明します。 ソリューション概要 マーケティングチーム(Marketing Team)が店舗別および営業担当者別の売上パターンを理解するために売上データを分析したいというユースケースで、これらの機能を実証します。マーケティングチームは営業チーム(Sales Team)が所有する sales_performance_by_store と sales_performance_by_rep のデータにアクセスする必要があります。データプロデューサーとして機能する営業チームは、 必要なデータアセットを公開 して Amazon SageMaker Unified Studio に登録し、コンシューマーであるマーケティングチームがこれらのアセットを 検索してサブスクライブ できるようにします。 サブスクリプションが承認されると、データアセットは Amazon SageMaker Unified Studio のマーケティングチームのプロジェクト環境内で利用可能になります。マーケティングチームは好みのツールでデータ探索を実行できます。DBeaver を使ったアーキテクチャ例を次の図に示します。 前提条件 本記事の手順を実行するには、次の前提条件が必要です。 AWS アカウント – アクティブな AWS アカウントをお持ちでない場合は、 新しい AWS アカウントを作成してアクティブ化する方法 を参照してください。 Amazon SageMaker リソース – Amazon SageMaker の ドメイン と 2 つの Amazon SageMaker プロジェクト が必要です。(訳注:マーケティングチームと、営業チームがそれぞれ別のプロジェクトに所属するため) データアセットの公開 – 営業チームのデータプロデューサーとして、個々のデータアセットを Amazon SageMaker Unified Studio に取り込めます。本ユースケースでは、 データソースを作成 し、 AWS Glue Data Catalog から sales_performance_by_store と sales_performance_by_rep という 2 つのデータアセットの技術メタデータをインポートします。データアセットにビジネス説明を追加してカタログに公開してください。 注: ここでは Glue カタログ内のテーブルを使用していますが、SageMaker Lakehouse では他のソースからアセットを取り込むオプションもあります。 データアセットのサブスクライブ – マーケティングチームのデータアナリストとして、データアセットを検索してサブスクライブできます。営業チームのデータプロデューサーがサブスクリプションをレビューして承認します。正常に完了すると、データアセットが SageMaker プロジェクトに追加されます。 公開とサブスクライブの詳細な手順については、 Amazon SageMaker Unified Studio ユーザーガイド を参照してください。 次の図は、マーケティングプロジェクトにあるカタログのサブスクライブ済みアセットセクションを示しています。 次のセクションでは、Amazon SageMaker Unified Studio からサブスクライブ済みアセットを利用するための DBeaver の設定手順を説明します。 サブスクライブ済みデータアセットにアクセスするための DBeaver の設定 本セクションでは、 Marketing プロジェクトからサブスクライブ済みアセットにアクセスするための DBeaver の設定を行います。 DBeaver を設定する方法: JDBC で接続: Amazon SageMaker Unified Studio で、(1) Marketing プロジェクトを開き、(2) Project overview 画面で、(3) JDBC connection details タブを選択します。 JDBC 接続 URL をテキストエディタにコピーします。URL には、DBeaver でデータベース接続を設定するために必要な次のパラメータが含まれています – Domain ID、Environment ID、Region、IDC Issuer URL。 最新の Athena ドライバーをダウンロードしてインストールします。 DBeaver に Athena ドライバーがプリインストールされている場合、古い (v2) バージョンの可能性があります。Amazon SageMaker Unified Studio との互換性を確保するには、必要な認証機能を含む最新のドライバー (v3) が必要です。 最新の JDBC ドライバー—バージョン 3.x をダウンロードします。 最新のドライバーをインストールするには: DBeaver で Database から Driver Manager に移動します。 Athena ドライバーを選択して Edit を選択します。 Libraries タブを開きます。 Download/Update を選択して最新のドライバーバージョンを取得します。 プロンプトが表示されたら、適切なバージョンを選択してダウンロードを確認します。 DBeaver SQL クライアントで、新しいデータベース接続を作成し、Athena ドライバーを選択します。 Driver Properties タブに切り替え、Amazon SageMaker Unified Studio からコピーした JDBC 接続 URL に含まれる次のプロパティの値を入力します。これらのプロパティがまだ存在しない場合は、追加してそれぞれの値を指定できます。 CredentialsProvider : AWS へのリクエストを認証するための認証情報プロバイダー DataZoneDomainId : Amazon DataZone ドメインの ID DataZoneDomainRegion : ドメインがホストされている AWS リージョン DataZoneEnvironmentId : DefaultDataLake 環境の ID IdentityCenterIssuerUrl : トークン発行のために AWS Identity and Access Management (IAM) Identity Center が使用する発行者 URL OutputLocation : クエリ結果を保存するための Amazon S3 パス Region : 環境が作成されたリージョン Workgroup : 環境の Amazon Athena ワークグループ ListenPort : 任意の 4 桁のポート番号を選択します。これは IAM Identity Center レスポンスをリッスンするポート番号です Test Connection… を選択します。 IAM Identity Center サインインポータルにリダイレクトされます。Marketing ユーザーの認証情報でサインインします。シングルサインオン (SSO) で既にサインインしている場合、この手順はスキップできます。 サインイン後、 DataZoneAuthPlugin の承認を求められた場合は、 Allow access を選択して DBeaver から Amazon DataZone へのアクセスを承認します。 サインインが完了すると、次のメッセージが表示されます。ウィンドウを閉じて DBeaver に戻ります。 接続が確立されると、次の成功メッセージが表示されます。 これで、DBeaver 内でサブスクライブ済みアセットをすべて表示してクエリできます。 これらの手順は、JDBC 接続をサポートする他の分析ツールやクライアントにも適用できます。別のツールを使用している場合は、Amazon SageMaker Unified Studio データアセットへの適切な設定とアクセスを確保するために、これらの手順を適宜調整して利用してください。 他のアプリケーションとの統合 標準的なデータベース接続をサポートする他の BI および分析ツールでも同様の手順を使用できます。 Tableau Desktop への接続 Athena JDBC ドライバーを使用して Tableau を Amazon SageMaker Unified Studio に接続し、サブスクライブ済みデータを可視化します。 Tableau Desktop に接続する方法: 最新の Athena JDBC 3.x ドライバー を使用していることを確認します。 JDBC ドライバーファイルをコピーして、オペレーティングシステムに応じた適切なフォルダに配置します。 Mac OS の場合: ~/Library/Tableau/Drivers Windows の場合: C:\Program Files\Tableau\Drivers Tableau Desktop を開きます。 To a Server 接続メニューから Other Databases (JDBC) を選択して Amazon SageMaker Unified Studio に接続します。 SageMaker Unified Studio ポータルからコピーした JDBC 接続 URL を URL に貼り付けます。 Dialect 、 Username 、 Password などの他のフィールドは空白のままにして、 Sign in を選択します。 ポートが占有されているというエラーが表示された場合は、URL に “;ListenPort=8055” を追加してポートを変更します。任意のポート番号を使用できます。 IAM Identity Center で認証するようリダイレクトされます。SageMaker Unified Studio ポータルへのサインインに使用した Identity Center ユーザーの認証情報を入力します。 DataZoneAuthPlugin が Tableau から Amazon DataZone にアクセスすることを承認します。接続が成功メッセージとともに確立されると、プロジェクトのサブスクライブ済みデータを Tableau 内で直接表示してダッシュボードを構築できます。 Microsoft Power BI への接続 次に、Windows 上で Amazon SageMaker Unified Studio を Microsoft Power BI に接続する方法を説明します。Amazon Athena は Microsoft Power BI などの ODBC 互換ツールに接続するためのネイティブ ODBC ドライバーを提供していますが、現在 Amazon SageMaker Unified Studio 認証をサポートしていません。そのため、本記事では ODBC-JDBC ブリッジを使用して、SageMaker Unified Studio 認証をサポートする Athena JDBC ドライバーで Amazon SageMaker Unified Studio を Microsoft Power BI に接続します。 本記事では、ODBC-JDBC ブリッジとして ZappySys ドライバーを使用しています。別途ライセンス料が必要なサードパーティソリューションであり、AWS ソリューションには含まれていません。ODBC-JDBC ブリッジには他のソリューションを選択することもできます。Power BI に接続するには: ODBC Data Source Administrator を実行するためには、管理者権限が必要です。 Windows のスタートメニューから、 管理者として実行 を使用して ODBC Data Source Administrator (64 ビット版) を実行します。 ZappySys JDBC Bridge Driver で 新しいデータソース を作成します。接続の詳細を入力するよう求められます。 SageMaker Unified Studio ポータルからコピーした JDBC URL を、ドライバークラスと JDBC ドライバーファイルとともに Connection String に貼り付けます。最新の Athena JDBC 3.x ドライバー を使用していることを確認します。 Test Connection を選択します。接続が成功すると、新しいダイアログウィンドウがポップアップ表示されます。 IAM Identity Center で認証するようリダイレクトされます。SageMaker Unified Studio ポータルへのサインインに使用した Identity Center ユーザーの認証情報を入力します。 DataZoneAuthPlugin を承認します。 ZappySys JDBC Bridge Driver ウィンドウで Preview タブを選択し、サブスクライブ済みテーブルの 1 つを選択してデータにアクセスします。 データソースの設定後、Power BI を起動します。空白のレポートを作成するか、既存のレポートを使用して新しいビジュアルを統合します。 Get Data を選択し、作成したデータソースの名前を選択します。新しいブラウザウィンドウが開き、認証情報を認証します。DataZone Auth プラグインを承認するためにアクセスを許可します。承認が完了すると、サブスクライブ済みデータアセットを使って Microsoft Power BI でレポートを作成できます。 SQL Workbench への接続 SQL インターフェイスで Amazon SageMaker Unified Studio のプロジェクトを通じてサブスクライブしたデータレイクテーブルとビューをクエリしたいユーザー向けに、SQL Workbench を Amazon SageMaker Unified Studio に接続する方法を説明します。 SQL Workbench に接続するには: 最新の Athena JDBC 3.x ドライバー を使用していることを確認します。 SQL Workbench/J を開き、 Manage Drivers を選択します。 新しいドライバーを追加するオプションを選択します。SMUSAthenaJDBC などの名前を入力し、前の手順でダウンロードしたドライバーをインポートします。 新しい接続プロファイルを作成し、smus-profile などの名前を付けます。 Driver ドロップダウンで、設定したドライバーを選択します。 URL には、jdbc:athena://region=us-east-1; という文字列を入力します (この例では、バージニアリージョンを使用しています)。 Extended Properties を選択します。 Extended Properties で、SageMaker Unified Studio ポータルからコピーした次のパラメータを追加します。これらのパラメータは JDBC (URL) 接続文字列に含めることもできます。 OK を選択します。 Workgroup OutputLocation DataZoneDomainId IdentityCenterIssuerURL CredentialsProvider DatazoneEnvironmentId DataZoneDomainRegain また、任意のポート番号で “ListenPort” を追加します。 IAM Identity Center で認証するようリダイレクトされます。SageMaker Unified Studio ポータルへのサインインに使用した Identity Center ユーザーの認証情報を入力します。 DataZoneAuthPlugin を承認します。 接続が成功したら、SQL Workbench/J の Database Explorer で、SageMaker unified studio のマーケティングプロジェクトからデータベースを選択します。サブスクライブ済みテーブルを選択します。 Data タブを選択して、テーブル内のデータを表示します。 クリーンアップ テスト後に追加料金が発生しないようにするには、Amazon SageMaker Unified Studio ドメインを削除してください。手順については、 ドメインの削除 を参照してください。 まとめ Amazon SageMaker Unified Studio は機能を増やし続けており、サブスクライブ済みデータへのアクセス、分析、可視化においてより高い柔軟性を提供します。Athena JDBC ドライバーのサポートにより、幅広い一般的な BI および分析ツールを使用できるようになり、Amazon SageMaker Unified Studio を通じてアクセスするデータがこれまで以上に利用しやすくなりました。Tableau、Power BI、その他の使い慣れたツールのいずれを使用する場合でも、Amazon SageMaker Unified Studio との統合により、データは安全に保たれ、承認されたユーザーがアクセスできます。 本機能は、Amazon SageMaker Unified Studio が現在利用可能な すべての AWS 商用リージョン でサポートされています。技術 ドキュメント の確認から始めましょう。 著者について Narendra Gupta Narendra は、AWS の Specialist Solutions Architect で、AWS 分析サービスに重点を置いてお客様のクラウドジャーニーを支援しています。仕事以外では、新しいテクノロジーの学習、映画鑑賞、新しい場所への訪問を楽しんでいます。 Durga Mishra Durga は、AWS の Solutions Architect です。仕事以外では、家族と過ごす時間を楽しみ、アパラチアントレイルでのハイキングや自然の中で過ごすことを愛しています。 Ramesh Singh Ramesh は、ワシントン州シアトルの AWS で Senior Product Manager Technical (External Services) を務めており、現在は Amazon SageMaker チームに所属しています。最先端テクノロジーを使用してエンタープライズのお客様が重要な目標を達成できるよう支援する、高性能な ML/AI および分析製品の構築に情熱を注いでいます。 Nishchai JM Nishchai は、Amazon Web Services の Analytics Specialist Solutions Architect です。ビッグデータアプリケーションの構築を専門とし、お客様のクラウド上でのアプリケーションモダナイゼーションを支援しています。データは新しい石油であると考えており、データから洞察を引き出すことに時間の大半を費やしています。 この記事は Kiro が翻訳を担当し、Solutions Architect の 下佐粉 昭 (Akira Shimosako) がレビューしました。
こんにちは、SCSK小澤です。 生成AIを利用して自然言語によるデータ検索や要約を可能にしてくれる、Snowflake Intelligenceが一般提供(GA)になりました。 前回のブログでは、Snowflake Intelligenceの概要紹介や、伴走支援のご案内していました。 → SCSKはSnowflake Intelligenceのローンチパートナーとなりました! Snowflake Intelligenceで始める生成AI活用 ― SCSKが伴走します Snowflakeが最近GAしたSnowflake Intelligenceについての記事です。利用する為の過程・SCSKならではの支援について案内します! blog.usize-tech.com 2025.12.08 SCSKでは、社内のデータ活用基盤としてもSnowflakeを採用しており、Snowflake Intelligenceの利用についても取り組んでいます。 今回はSnowflake Intelligenceの活用PoCを始める流れについてご紹介いたします! SCSKの社内データ活用 データ活用のアーキテクチャ SCSKでは、以下のようなメダリオンアーキテクチャをSnowflake上に構築してデータを管理しています。 ブロンズ層: ファイルやシステムのデータベースなど、データソースのデータをそのまま保持する シルバー層: 分析しやすいように整形した、汎用的に利用可能なテーブルがある層 ゴールド層: BIで可視化するために、ダッシュボードごとに作成するテーブルがある層 ゴールド層に作成したテーブルをBIツール(Power BI)でインポートして、ダッシュボードを作成しています。 定型ダッシュボード作成によるデータ活用の課題 定型ダッシュボード作成に基づくデータ活用には以下のような課題があります。 ダッシュボード公開までのリードタイムが長い ニーズの把握からダッシュボードの公開まで、レイアウト検討・データモデリング・ストアドプロシージャ作成・BIツールでの実装など、ダッシュボード開発には必要な工程が多くあります。簡単な集計値の可視化であっても、実際に見たいデータが見れるようになるまでには、リードタイムが発生します。 限定的な分析軸での分析しかできない ダッシュボードでは、組織別や年度別など、あらかじめ決められた分析軸での集計値しか確認することができません。たとえば、売上が伸びた要因を分析したくても、ダッシュボードで表示されている以上の情報を得ることはできず、発生事象の理由を分析することが難しいです。 そもそもダッシュボードで情報を探すことが面倒 私たちはプライベートでも業務でも、なにかを知りたいときにはまず生成AIに問い合わせるようなりました。チャットベースでの検索に慣れすぎてしまいました。ダッシュボードを量産しても、ユーザは自分が欲しい情報があるダッシュボードがすぐに見つけられないとストレスを感じ、データ活用のモチベーションが下がってしまいます。 このように、定形ダッシュボード作成によるデータの可視化だけでは課題があります。 「必要な情報にすぐにアクセスできること」「多角的な分析が容易にできること」が、今後のデータ活用に求められています。   Snowflake Intelligenceの導入 Snowflake Intelligenceは、そんな課題を解決してくれるサービスです。 SCSKの社内データ活用においてもダッシュボードの作成と並行して、Snowflake Intelligenceの活用検討を行いPoCを開始しました。 Snowflake Intelligenceは、以下のような全体像になります。 一番下のDataから辿って、Snowflake Intelligenceに表示するまでの流れをご紹介します! Data:分析対象とするデータの選定 メダリオンアーキテクチャにおけるシルバー層は、汎用的に利用できるテーブルを保持する層でした。 ダッシュボード開発では、このシルバー層のテーブルをもとにダッシュボード用のテーブルをゴールド層に作成しますが、当プロジェクトではSnowflake Intelligenceからこのシルバー層のテーブルにそのままアクセスできるようしました。 これにより、ユーザーが自由に問い合わせても幅広い分析軸での返答を得ることができます。 ディメンショナルモデリングに基づき、すでに約100以上のファクト/ディメンションのテーブルを用意していましたが、PoCとしてはそのうちの、PLデータ・引合データ・予算データなど主要なテーブルを対象に絞ることとしました。 データ準備:Semantic Viewの作成 先ほど選定したテーブルを対象に、Semantic Viewを作成します。 Semantic Viewの作成はファクトテーブルだけでなく、関連するマスタテーブルの作成も必要になります。 そのため、今回PoCとして選定したファクトテーブルは5テーブル程でしたが、それぞれのファクトテーブルに関連するマスタテーブルも含めると、約15テーブルのSemantic Viewの作成が必要になります。 それぞれのテーブルのカラムには数十のカラムがあり、Semantic Viewの作成を愚直に行っていると、PoCがなかなか始められません。 そこで、Snowflake 菅野様が公開されている Snowflake のセマンティックビューを AI で自動生成しよう のストアドプロシージャで、Semantic Viewを自動作成することとしました。 将来的には、公式機能としてSemantic Viewの自動作成機能もリリースされるようです。 2026/1現在は未リリースのようですが、最新のリリース状況をご確認ください。 各テーブルのSemantic Viewを作成した後、それぞれのSemantic View間(ファクトテーブル – マスタテーブル間)のリレーションの設定が必要になります。 リレーションの設定には、同じSemantic Viewの定義内にリレーションの設定先のマスタテーブルの定義も含めておく必要があります。複数のファクトテーブル(PL、引合)から同一のマスタテーブル(組織マスタ、企業マスタ)を参照する場合もありますが、それぞれのファクトテーブルの定義ごとに、マスタテーブルの定義を含めておく必要があります。 そのため、以下のように作成されたマスタテーブルのYAML定義をコピーして、ファクトテーブルのYAML定義内にマージさせていく必要があります。その後、マスタテーブルへのリレーション設定を行います。   オーケストレーション:Cortex Agentsの作成 作成したSemantic Viewを元に、Cortex Agentを作成します。 Snowflake Intelligenceの回答精度を上げるためには、関連のないデータのSemantic Viewを1つのCortex Agentに詰め込むべきではありません。 そのため、今回はPLエージェント、引合エージェントなど、Semantic ViewのそれぞれでCortex Agentを作成しています。 ユーザには、Snowflake Intelligenceの画面上から問い合わせたい内容に合ったエージェントを選択してもらいます。 ただし、それぞれのCortex Agentに対して1つのSemantic Viewsを作成していると、汎用的に回答できるはずのエージェントとしての有用性が薄れてしまう部分もあるので、どのようにCortex Agentにまとめていくかは考察の余地があります。 Cortex Agentsの設定では、「オーケストレーション手順」の設定も重要になります。 たとえば、”年度単位で売上を集計して下さい”と問い合わせた場合、1~12月で集計されてしまうため、4~翌3月で集計してもらいたい場合には以下のような「オーケストレーション手順」の設定を行います。 “年度”単位での集計・可視化の依頼が来た場合には、4月から3月の12カ月を集計期間として、分析をお願いいたします。例えば、2024年度の売上分析をしてください。という質問に対しては2024年4月から2025年3月までの集計期間で売上を分析するようにしてください。   Snowflake Intelligenceの利用デモ Snowflake Intelligenceを実際に利用してみます。 PLに関する問い合わせを行いたいため、エージェントは「PL」を指定しておきます。 まずは、利益率の経年推移をみてみます。 すると、2023/3に利益率が大きく下がっていることが確認できました。 ここまでは定型ダッシュボードでも確認できますが、ここから”なぜそうなっているのか?”を深堀して分析していくようなことは、Snowflake Intelligenceでないとできません。 次に、2023/3に利益がワースト3の案件を取得してみます。 特定の案件が抽出できました。 このワースト1位の案件について、月別の利益の傾向を見てみます。 Snowflake Intelligenceで、グラフでの可視化に加え、トレンドの分析やなぜそのようになったかの推察まで行ってくれています。 このSnowflake Intelligenceの分析結果を踏まえて、 AIによる考察を案件担当者に事実確認 案件悪化パターンを分析 悪化の変調をとらえるKPI設定し、ダッシュボードに追加 悪化案件が多い組織の特徴抽出 など、実際にビジネスへのアクションにつなげていくことが考えられます!   精度向上のためのポイント Snowflake Intelligenceを実際に業務で利用していくには、回答速度や精度を向上させていく必要があります。 回答速度 現状は回答までに30秒以上かかっています。モニタリングから内訳を確認してみると、「SQL実行」は5秒程度ですが、それ以外の「LLMの計画」「LLM応答生成」の時間が多く占めています。 このような場合、ウェアハウスの性能を上げても大きな改善は見られず、LLMの回答速度を向上させていく必要があります。LLMの回答速度を向上させるためには、想定される質問をあらかじめ「検証済みクエリ」として登録しておくことが重要です。 回答精度 AI機能を使って自動生成したSemantic Viewをそのまま使っているため、まだまだ回答された数値の精度が出ていません。 回答の精度を向上させるには、実行されたクエリを確認して正しいものは「検証済みクエリ」として登録したり、間違っている場合は同義語を見直すなど、地道な調整が必要になります。 Semantic View精度向上のために、主に以下の設定を見直す必要があります。   まとめ Snowflake Intelligenceを実際に利用するまでの手順についてご紹介しました。 社内のデータ活用における現状としてはまだまだ回答の精度が得られず、Semantic Viewの設定見直しなどを行っています。 回答精度を向上させるための具体的な手順についても検証ができたら、また共有させていただきたいと思います!

動画

書籍