CIEMとは CIEM(Cloud Infrastructure Entitlement Management)とは、日本語でクラウドインフラストラクチャ権限管理を意味し、クラウド環境のIDと権限を管理するプロセスを指します。CIEMの目的はクラウド環境とマルチクラウド環境に存在するアクセス権限を把握し、 必要以上の権限がもたらすリスクを特定・軽減すること です。 例えば、クラウド環境にて検証目的でリソースを構築するときに、検証を早く完了させたいがために、リソースやユーザへ付与する権限を最小権限とせずに、ベンダー提供権限や管理者権限など、必要以上の権限を付与するケースを想定してみてください。検証完了後にその権限を削除すれば良いのですが、権限を外さずに放置してしまうとその権限を不正利用されてしまうリスクがあります。 CIEMをクラウドに適用することで、そういった必要以上に権限が付与されているリソースを特定し、リスクを軽減することでクラウドのインフラとリソースに最小権限の原則を適用できます。 本記事ではCIEMとPrisma CloudのCIEM機能であるIAMセキュリティについて解説します。 IAMセキュリティを利用することで、パブリッククラウドのインフラとリソースに最小権限の原則を適用できるようになります。 IAMセキュリティとは IAMセキュリティはPrisma CloudのCIEM機能になります。IAMセキュリティは以下3つの主要な特徴を持っています。 権限の可視性向上 :クラウドアカウント内のリソースで利用できる権限の可視性を向上させます。 すぐに利用できるベストプラクティスポリシー :すぐに使用できるベストプラクティスポリシーを利用して、過剰な権限や未使用の権限といった権限周りのリスク発生を監視できます。 リスクを対処するアクションの提示 :特定した権限のリスクに対して、その権限を調整するためのアクションを提示してくれるので、リスクへ対応しやすくなります。 IAMセキュリティでは、権限の可視性向上・ベストプラクティスポリシーによる監視によって権限周りのリスクを特定し、提示されたアクションを実行することで権限を調整し、リスクを軽減していくのが大まかな使い方となります。 IAMセキュリティを有効化した後に、上記3つの特徴を実際の画面をお見せしながら説明します。 Prisma CloudでのIAMセキュリティの有効化 まず、IAMセキュリティを有効化する手順を説明します。 IAMセキュリティを有効化すると全体の消費クレジット数は1.25倍になります。 有効化に伴い、現状の購入クレジット数を超過しないようにご注意ください。 消費クレジット数の最新情報は以下でご確認ください。 Prisma Cloud Enterprise Edition Credit Guide – Palo Alto Networks Prisma Cloudログイン後のコンソール画面にて、右上の顔画像をクリックし、「View Subscriptions」をクリックします。 以下画面にて、IAM Securityの「Subscribe」をクリックします。 以下画面が表示されますので、「Agree and Submit」をクリックするとIAMセキュリティが有効化されます。 IAMセキュリティの3つの特徴について これでIAMセキュリティが有効化されたので、IAMセキュリティの3つの特徴について実際の画面をお見せしながら説明します。 権限の可視性向上 IAMセキュリティがクラウドアカウント内のリソースで利用できる権限の可視性を向上することで、必要以上に権限が付与されているリソースを 特定しやすくなります 。 それでは実際に、AWS管理ポリシーの”AdministratorAccess”(管理者権限相当)を持つリソースを可視化し、過剰な権限を持つリソースを特定してみます。 Prisma Cloudへログインし、「Investigate」をクリック、RQLというPrisma Cloud独自言語で”AdministratorAccess”を持つリソースを検索します。本記事では、以下RQL文で検索を行っています。 config from iam where source.cloud.type = ‘AWS’ and grantedby.cloud.policy.name = ‘AdministratorAccess’ 検索すると、上記のような図が表示されます。各列を左列から説明すると、以下の通りです。 Sources:「Granters」列のリソースによってアクセス許可が付与されたAWSサービス名が表示 Granters:”AdministratorAccess”のポリシーが付与されたリソースのグループ Destination:「Sources」列のリソースがアクションを起こせるAWSサービス名が表示 図を見ると、「Sources」列のEC2とLambdaが”AdministratorAccess”のポリシーを利用して、「Destination」列の392種類のAWSサービスに対して何かしら、アクションできることが分かります。EC2、Lambdaに過剰な権限が付与されてることが分かったので、このうちのLambdaをさらに分析します。 まず、「View Mode」を「Graph」から「Table」に変更し、図だった表示形式を表形式に変更します。 「Source」列がLambda functionである行を探します。 このLambdaが”AdministratorAccess”のポリシーを利用できることを意味します。さらにその行の「Granted By Entity」列に記載されているロールが”AdministratorAccess”のポリシーを持った、このLambdaに付与されているロールとなります。このロールをさらに詳しく調査するため、ロールをクリックします。 クリックすると、上記のようにロールに関する情報が表示されます。 さらに詳細な情報を調べるため、右上の「View JSON」をクリックします。 クリックすると、このロールにアタッチされているポリシーを確認することができ、実際に”AdministratorAccess”のポリシーが付与されていることが分かります。 権限の可視性向上によって、過剰な権限が付与されているリソースやロールを特定することができました。 すぐに利用できるベストプラクティスポリシー Prisma CloudのIAMセキュリティ機能では、過剰な権限や未使用の権限を監視するために、すぐに使用できるデフォルトのベストプラクティスポリシーを提供してくれます。IAMセキュリティで提供されるポリシーは2025年4月現在、約254ポリシーあります。 Prisma Cloudでは特定のポリシーを選択して、パブリッククラウドを監視し、ポリシー違反リソースがあればアラートを発砲して、メール通知を行う機能が標準で提供されています。IAMセキュリティで提供されるポリシーでパブリッククラウドを監視することで過剰な権限や未使用の権限が発生したことをスピーディーに気づくことができます。 リスクを対処するアクションの提示 Prisma CloudのIAMセキュリティ機能では、可視性やガバナンスによって特定した過剰な権限や未使用の権限に対して、権限を調整するようなアクションが提示され、そのアクションを実行することで リスクを軽減できます 。どのように権限を調整するかというと、CLIコマンドが発行されるため、そのコマンドをパブリッククラウドで手動実行して、過剰な権限を調整します。 実際に、権限を調整するためのCLIコマンドを発行してみます。 「Alerts」>「Overview」をクリックして、アラートを表示させます。 フィルタは「Policy Type:IAM」、「Remediate:Yes」を指定して、IAMセキュリティのポリシーで検知したアラートの内、CLIコマンドを発行できるアラートを表示します。 今回は「IAM書き込み権限が付与されたLambda関数」というポリシーを例に、本ポリシーで検知しているリソースを選択し、「Remediate」をクリックします。 そうすると以下画面が表示され、CLIコマンドが提示されます。 コマンドをコピーいただき、パブリッククラウドで実行すれば書き込み権限を持ったロールのIAMポリシーを調整することができます。 コマンド実行前に、意図して過剰な権限が付与されていないこと、コマンド実行による影響が無いことを確認の上、コマンドを実行ください。 まとめ 今回はCIEMとPrisma CloudのCIEM機能であるIAMセキュリティについて解説しました。 IAMセキュリティを利用することで、必要以上に権限が付与されているリソースを特定し、リスクを軽減することができ、クラウドのインフラとリソースに最小権限の原則を適用できるようになります。 本記事でPrisma CloudのIAMセキュリティを利用することのメリットが伝わりましたら幸いです。 当社ではPrisma Cloud利用して、複数クラウド環境の設定状況を自動でチェックし、 設定ミスやコンプライアンス違反、異常行動などのリスクを診断するCSPMソリューションを販売しております。 本記事で解説させていただいたIAMセキュリティも利用いただけます。 興味のある方は是非、お気軽にお問い合わせください。
こんにちは!SCSKの八巻です。 Google Cloud にて利用できる『Google Agentspace』についてご存知でしょうか?? Agentspaceを利用することで、 組織全体のコンテンツを連携させ、根拠に基づいたパーソナライズされた回答を生成する。 ワークフローアクションと連携してタスクを実行することで、従業員が必要な情報を適切なタイミングで入手する。 ことが可能となります。 Google Cloud 公式サイト: Google Agentspace | Google Cloud Google Agentspace の利用に際しては 『 早期アクセス(Early Access)の申請が必要』 となります。 (執筆時 2025.4.9時点) 詳細については、以下の応募フォームをご確認ください。 Google Agentspace early access また、本ブログに添付しているコンソール画面についても執筆時時点のものとなります。 更新されている内容については、公式のドキュメントをご確認ください。 本記事では、 『 Google Agentspace 』について色々と調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 また、 Agentspace について「もっと知りたい!!!」方は、 他サービスとのデータ連携やAgent関連について記載している以下「あわせて読みたい」もぜひご覧ください。 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?⑤「ブレンドRAG編」 今回はブレンドRAGの機能を活用し、複数のデータソースを精査した上で回答を生成させるデモを紹介します。対象のデータソースを一か所に集約させることなく、データソースを複数選択することができるので、現状の業務環境にフィットさせる形で利用を開始することが可能です。 blog.usize-tech.com 2025.04.14 この記事に書いてあること 本記事では、Agentspaceの付加機能である『NoteBookLM』について紹介します。 NoteBookLMとは NoteBookLMの利用方法 NoteBookLMとは NotebookLMは、一言でいえば 資料やデータをもとに会話できるAI搭載のノートブック です。 大規模言語モデルを活用し、アップロードしたドキュメントを理解し、その内容に基づいて質問に答えたり、要約を作成したり、アイデア出しをサポートしたりできます。 研究、学習、執筆など、さまざまな知的作業を効率化するツールとして利用できます。 NotebookLMの基本機能 NotebookLMは、主に以下の機能を提供します。 NoteBook作成: 用途別に資料の保存場所を分割できます。 ソースの追加: 学習させるデータやファイルをアップロードします。 ソースの選択: 要約や回答をするためのソースを選択することができます。 チャット: 質問や要約の指示を行い、アップロードしたソースをもとに回答を生成させます。 音声概要: アップロードしたソースをもとに、2人のディスカッション形式の音声を生成します。(英語音声のみ) 文章を読むことなく、聞き流すことでアップロードしたソースの要点を理解する機能です。 メモ :チャットにて会話した内容を保存することができます。 共有 :NoteBookにアクセスできるユーザーを追加し、共有範囲を決定できます。 NotebookLMを利用するメリット NotebookLMを活用することで、以下のメリットがあります。 効率的な情報整理: アップロードしたテキストの要点を要約できるため、情報整理の時間を削減できます。 共同作業の促進: 共有可能なノートブックとして、チームメンバーとの共同作業を円滑に進めることができます。 履歴・メモ機能: 検索結果をメモとして残すことができ、過去の情報を参照するのに役立ちます。 NoteBookLMのEnterprise版と無料版との比較 Agentspaceでは、NoteBookLMのEnterprise版を利用することができます。 Enterprise版と無料版の大きな違いは、セキュリティ強化やアクセス権制御の有無です。 無料版は個人利用を主としており、 VPC-SCに準拠していないため、サポートするデータが少なくなっています。 一方、Enterprise版は、コンプライアンスと企業に必要な管理機能を有しているため、無料版では利用できない Microsoft WordやPowerPointなどのデータを活用することができます。 NotebookLM for Enterprise NotebookLM 無料版 概要 大規模言語モデル (LLM) を活用し、ド キュメントの理解、情報の抽出、コン テンツ作成を支援する。 エンタープライズ向けにセキュリティ とプライバシーを強化。 機能は NotebookLM for Enterprise と同様。 Google アカウントを持つユーザーが利 用できる個人利用ツール。 機能 ドキュメントの要約、質問応答、アイ デア生成、 FAQ 作成、ナレッジベース 構築など。 ドキュメントの要約、質問応答、アイ デア生成など。 インポートデータ Google ドキュメント、テキスト、 URL 、 Youtube 、 PDF 、 M365 ( Word 、 PPT 、 Excel )、音声 (mp3) ・・・ Google ドキュメント、テキスト、 URL 、 Youtube 、 PDF 共有方法 アクセス権限を設定して、組織内の特 定のユーザーまたはグループと共有可 能。 共有リンクを発行して、他のユーザー と共有可能。 データの所在 Google Cloud Platform 上で管理。 企業は データの所在地を制御可能。 Google Cloud Platform 上で管理。 料金 1 ライセンス 月額 $9 (約 1400 円) 基本無料 NoteBookLMの利用方法 前述したNoteBookLMの基本機能をもとに、NoteBookLMの利用方法を説明します。 NoteBook作成 ①画面左にある、NoteBookLMのタブをクリックします。 ②NoteBookLMの初期画面で、新規作成をクリックします。 ソースの追加 ①NoteBookLM後にソースを追加する画面が表示されます。 読み込ませたい資料を選択し、アップロードします。 ②画面左にアップロードされた資料が表示されているか確認します。 ③追加でアップロードする場合は、画面左側の「ソースを追加」をクリックし、①と同様の手順でアップロードします。 ソースの選択 ①画面左側のソースから、読み込ませたい資料のチェックボックスにチェックを付けます。 チャット ①画面中央のチャット欄に、質問や指示を入力し、青い送信ボタンをクリックします。 ②回答を確認します。 音声概要 ①画面右上の音声概要の欄で、生成をクリックします。 ②画面右側のStudio欄に音声が生成されたことを確認し、再生ボタンをクリックして音声を聞きます。 メモ ①チャットで返ってきた回答の最後尾にある、「メモに保存」をクリックします。 ②画面左側のメモ欄にメモが保存されたことを確認します。 共有 ①画面右上の「共有」ボタンをクリックします。 ②「ユーザーを追加」の欄に、Agentspaceを利用可能なユーザーのメールアドレスを入力します。 最後に 今回は『 Google Cloud のAgentspace 』のNoteBookLMについてご紹介させていただきました。 NoteBookLMを使ってみての所感として、アップロードした資料を要約する機能を保有しているので、 資料すべてに目を通す必要がなくなり、情報収集の時間を短縮できると感じました。また、共有機能があるため、チームで共有することができ、チーム内のナレッジ共有ツールとしても非常に有用だと感じました。 本記事を見てAgentspaceに興味を持った方は、そのほかの記事を是非ご覧ください!! 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?②「検索(Cloud Storage)編」 本記事では、Agentspaceのアシスタント機能(検索機能)を紹介します。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?④「BigQuery編」 AgentspaceのデータソースとしてBigQueryテーブルを接続し、テーブル内の情報から回答を生成させるデモをご紹介します。 blog.usize-tech.com 2025.04.14 今後とも、Agentspaceのアップデート情報を掲載していきたいと思います。 最後まで読んでいただき、ありがとうございました!!! [共同執筆者紹介] 島村裕哉 SCSK株式会社のクラウド専門部隊に所属 Google Cloudの ・AI MLサービス選定/導入コンサルティング/導入サポート/AI 基盤・運用構築 まで多く案件を担当 Google Cloud Partner Top Engineer 2024・2025 受賞 カテゴリ:Cloud AI/ML Google Cloud Next Tokyo 出展 Google Cloud Day ’23 Tour 登壇 「AI は選んで組み込んで実装!最新 AI を道具として有効利用するためには!?」 ■好きな Google Cloud サービス:Vertex AI / Dialogflow CX / Visual Inspection AI / Cloud Run 山口翔平 Google Cloud歴3年目(社会人4年目)です。 日々捌ききれないほどのインプットを浴びているので、本ブログをアウトプットの場として活用しています。 ----- 好きな(よく触っている)サービス:BigQuery、Cloud Functions、Data Fusion 保有資格:応用情報技術者、Google Cloud 認定資格全冠(12冠) 受賞歴:Google Cloud Partner Top Engineer 2025(カテゴリ:General)受賞
こんにちは、SCSKの坂木です。 5月末に、Zabbix Japanが主催する Zabbix セミナー in 東京 2025 が開催されます! このイベントでは、Zabbixを知らない方から既にご利用いただいている方、そしてZabbix導入を検討されている方まで、広範なユーザを対象とした オンサイト限定のイベント となっております。 イベント概要 Zabbix セミナー in 東京 2025では、 Zabbix Japan及びZabbixパートナー企業によるセミナー が行われます。(もちろん弊社も登壇します!) Zabbixを用いた監視方法やパートナー企業のZabbixソリューション、Zabbixの最新情報について知ることができます。 開催日程 2025年5月20日(火) 13:00-17:50 開催場所 東京都港区港南2丁目3−13 品川フロントビル B1階 スケジュール 12:00-13:00 受付 13:00-13:10 開会のあいさつ 13:10-17:30 Zabbix Japan及びZabbixパートナー企業によるセミナー(講演内容の詳細は こちら ) 17:30-17:50 質疑応答、クロージング SCSKのセミナーについて 弊社は Zabbix入門 監視システム構築の第一歩 と題して、Zabbixの基本機能、実践的な監視設定について講演します。 監視対象の設定から、監視項目設定、障害検知、運用担当者への通知まで、監視の基礎設定について網羅的に説明します。 そして、ここまで本ブログをご覧いただいた皆様にはセミナー資料の一部を先行公開しちゃいます! セミナーの申し込み さてさて、ここまで読んでくださった方は本セミナーに参加したくなったのではないでしょうか? そんなことないですかね。 筆者としては、10人に1人くらいは「参加したい」と思ってくれることを願っています。 そんな選ばれた1人へ、セミナー参加の申し込みは こちら からお願いします。 さいごに 最後まで読んでいただきありがとうございます。 ちなみにですが、ここまでZabbix セミナー in 東京 2025について熱く語ってきましたが、筆者は講演どころか参加もしません。(行きたくても行けないのです。筆者は忙しいのです。) 本ページ見てイベントに参加しようと思った方は、筆者の分も楽しんできてくださいね! 本当のさいごのさいごに、弊社のYoutubeチャンネルを紹介させてください。 今後、Zabbixに関する有益な動画が続々と投稿しますので、今のうちにチャンネル登録してやってください。 SCSK Zabbixチャンネル 本チャンネルでは、SCSK株式会社でのZabbixに関するトレンド/事例紹介などを動画にまとめて取り上げております。最新のトピックについては、以下の弊社HPもしくはツイッターアカウントをぜひ参照ください。ツイッターアカウント: www.youtube.com
こんにちは。SCSKの坂木です。 さっそくですが、某人気アニメを捩ったタイトルにつられてこのページをクリックしてくれた方へ、本ブログは一切地球の運動を感じられないバチバチの技術ブログとなっております。 ただ、せっかく開いたことですし、このまま最後までお付き合いいただけると嬉しいです。 元々、Patch Manager目的で開いた方は目的どおりの記事となっておりますので、ご安心ください! 本ブログでは、AWS System Managerのツールである Patch Manager を用いたEC2インスタンスのスキャン及びパッチ適用の方法について説明します。 Patch Managerとは AWS Systems Manager(SSM) の Patch Manager は、Amazon EC2 インスタンスやオンプレミスサーバーを含む、SSMで管理されるインスタンスの パッチ適用を自動化するサービス です。OS の脆弱性を修正するためのセキュリティパッチ適用や、その他のソフトウェア更新を効率的に実施できます。 事前設定について 本記事では、以下の環境にてPatch Managerでスキャンおよびパッチ適用するための基本的な設定を行います。 Patch Managerの実施にあたり、いくつか押さえておきたい設定がありますので、確認していきましょう! パッチ適用するインスタンスのOS Patch Managerでは利用できるOSに制限がありますので、対象のインスタンスがサポートされているか、 こちら よりご確認ください。 SSM Agent のバージョン 対象インスタンスのSSM Agentのバージョンが2.0.834.0以降(2025/4時点)であることを確認します。 System Manager/フリートマネージャーより対象のインスタンスを選択することで、バージョンを確認できます。本環境では3.3.1611.0でした。 パッチソースへの接続 インスタンスがインターネットへ接続して、対象OSのレポジトリが保存されているサーバへアクセスできる必要があります。 セキュリティグループやネットワークACLの設定を確認し、インターネットへのアクセスが問題ないかご確認ください。 穴あけをしていない状態でPatch Managerを実行すると、XXXX.comへのアクセスができませんという旨のエラーが返されます。その情報から、穴あけが必要な最小限のIPを特定できるため、全開放ではなく最小限の開放のみで済みます。また、ポートはアウトバウンド通信で80か443、インバウンド通信でエフェメラルポートを開ける必要があります。 ちなみにですが、AWS Network ManagerのReachable Analyzerを用いることで、対象インスタンスからIGWや外部サーバへの通信が許可されているか確認できます。パッチソースへの接続に不安のある方は利用してみてください。 S3への接続 パッチ適用オペレーションの実施にあたっては、対象インスタンスからS3への接続を確保する必要があります。 前提条件 より、S3へのアクセスにはエンドポイントを用いる必要がありそうなので、エンドポイントでの接続を設定します。 エンドポイントにはインタフェース型とゲートウェイ型がありますが、どちらのタイプでも問題はありません。本記事では無料で利用できるゲートウェイ型のインタフェースを利用します。 インスタンスのステータス Patch Managerは起動しているインスタンスに対してのみ実行できるため、スキャンまたはパッチ適用時に対象のインスタンスの状態が、「実行中」であることを確認してください。 定期実行時に、EC2の状態が停止中になっており、スキャンやパッチ適用が行われない事象。あると思います。 手動実行 AWS System manager/Patch Manager/今すぐパッチ適用から、手動実行できます。 本記事では、インストールはせずにスキャンのみ実施したいと思います。 ターゲットの選択から、対象のインスタンスを選択します。今回はインスタンス名でターゲットを選択しましたが、タグやリソースグループ単位で選択することもできます。 実行結果はAWS System manager/Patch Manager/コンプライアンスレポートより確認できます。今回の結果ではセキュリティの非準拠数は0でコンプライアンスに準拠していましたが、非準拠の場合は「欠如している数」から欠如しているパッケージを確認することができます。 「スキャンとインストール」を選択した場合、欠如しているパッケージは自動的にインストールされますが、 スキャンのみの場合はdnfコマンド等を使って手動でインストールする必要 があります。 ちなみにですが、非準拠となった場合は以下の画像のように、非準拠数と欠如したパッケージが表示されます。(Ubuntuで試してみました) 定期実行 AWS System manager/Patch Manager/パッチポリシーを作成から、定期的な実行スケジュールを作成できます。 スキャンとインストール/カスタムスケジュールより、実行時刻を設定できます。 実行頻度は、日単位(毎日hh:mmに実行)またはcron形式で指定することができます。 パッチベースラインとは、承認されたパッチの集合を定義するものです。どのパッチをインスタンスに適用するかを制御するために使用されます。今回はAWS推奨の事前定義されたパッチベースラインを利用します。パッチベースについては こちら をご確認ください。 さいごに 本記事では、AWS初心者に向けてPatch Managerの設定方法を説明しました。 Patch Managerは、 大規模な環境で効率的かつ安全にパッチを適用するための強力なツール です。手動操作の負担を軽減し、コンプライアンスを維持するのに役立ちますので、是非使ってみてください。 他の記事も読んでもらえると、著者が小躍りして喜びます。 【Amazon Bedrock】ナレッジベースを用いた社内資料管理ーめざせ生産性向上ー 社内資料の管理、効率的ですか?様々な形式の文書が散在し、必要な情報を探すのに時間を取られていませんか? ファイルサーバーの奥底に埋もれどこにあるか分からない、バージョン管理が混乱する、などといった課題を抱えていませんか?これらの非効率は、業務の生産性低下に直結します。 今こそ、社内資料の一元管理体制を見直しましょう!ということで、AWS Bedrockのナレッジベースを用いた資料の一括管理およびその検索方法をご紹介します! blog.usize-tech.com 2025.02.14
こんにちは!SCSKの八巻です。 Google Cloud にて利用できる『Google Agentspace』についてご存知でしょうか?? Agentspaceを利用することで、 組織全体のコンテンツを連携させ、根拠に基づいたパーソナライズされた回答を生成する。 ワークフローアクションと連携してタスクを実行することで、従業員が必要な情報を適切なタイミングで入手する。 ことが可能となります。 Google Cloud 公式サイト: Google Agentspace | Google Cloud Google Agentspace の利用に際しては 『 早期アクセス(Early Access)の申請が必要』 となります。 (執筆時 2025.4.9時点) 詳細については、以下の応募フォームをご確認ください。 Google Agentspace early access また、本ブログに添付しているコンソール画面についても執筆時時点のものとなります。 更新されている内容については、公式のドキュメントをご確認ください。 本記事では、 『 Google Agentspace 』について色々と調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 また、 Agentspace について「もっと知りたい!!!」方は、 他サービスとのデータ連携やAgent関連について記載している以下「あわせて読みたい」もぜひご覧ください。 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 https://blog.usize-tech.com/agentspace-search-gcs/ 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 この記事に書いてあること 本記事では、Agentspaceの付加機能である『Deep Research』について紹介します。 Deep Researchとは Deep Researchの利用方法 Deep Researchとは Deep Researchは、 AIが自動で調査計画を立案し、必要な情報を収集してレポートを作成するツール です。 質問に対して、インターネット上の膨大な情報源から関連情報を収集し、分析、要約することで、ユーザーが効率的に深い洞察を得られるように設計されています。 Agentspaceのアシスタント画面に、Deep Researchが付随しており、AgentspaceのWeb画面から利用することができます。 従来の検索エンジンと比較して優れている点 従来の検索エンジンとは異なり、Deep Researchは以下の点で優れています。 文脈理解: 自然言語処理 (NLP) 技術を用いて、ユーザーの質問や意図を正確に理解できる 情報源の多様性: ウェブページ、ニュース記事、学術論文、ブログ、ソーシャルメディアなど、多様な情報源を網羅的に検索する 情報の関連性評価: 収集した情報の中から、質問やトピックとの関連性が高い情報を優先的に抽出する 情報の分析と要約: 抽出した情報を分析し、重要なポイントを抽出し、構造化された形式で要約する 継続的な学習: ユーザーのフィードバックや新しい情報に基づいて、検索精度と分析能力を継続的に向上させる Deep Researchを利用するメリット Deep Researchを活用することで、以下のメリットがあります。 時間と労力の削減: 時間と労力がかかるリサーチタスクを自動化し、効率的な情報収集と分析を実現する 深い検索結果の取得: 情報を多角的に分析し、構造化された形式で提示することで、深い検索結果を得ることを支援する 意思決定の迅速化: 迅速かつ正確な情報に基づいて、より迅速な意思決定を支援する 競争力の強化: 市場動向、競合企業の戦略、顧客ニーズなどを把握し、競争優位性を確立するための戦略を策定する Deep Researchの利用方法 Deep Researchは、Agentspaceのアシスタント画面(Webアプリケーション画面)から簡単に利用することができます。 Deep Researchの検索方法 ①画面左にある、エージェント配下のDeep Researchタブをクリックします。 ②画面下の検索欄に、調査したい質問を入力します。 今回は、「最近話題のAI技術について詳しく教えてください。」と聞いてみます。 ③リサーチプランが作成されますので、内容を確認し『リサーチを開始』をクリックします。 ④リサーチが開始されると、Deep Researchはウェブ検索によりレポート作成を始めます。 数分後に詳細なレポートが生成されます。 ↑(2025/4/14時点)検索結果は日本語で表示されず英語で返ってきます。 ⑤Deep Researchの検索結果は、AgentspaceのWeb画面に残ります。 画面左側の『最近』のタブから確認することができます。 リサーチプランの変更方法 Deep Researchが提示したリサーチプランが、検索したい内容と異なることもあるかと思いますので、 リサーチプランに変更を加えたい場合の手順を紹介します。 ①リサーチプランの提示後に、『リサーチプランを変更したい』と指示を与えます。 ②変更したい内容の指示を追加し、新たに提示されたリサーチプランを確認します。 最後に 今回は『 Google Cloud のAgentspace 』のDeep Researchをご紹介させていただきました。 Deep Researchを使ってみての所感としては、Webサイトの情報だけでなく、SNSや動画サイト・論文などさまざまな情報をもとにリサーチするため、情報収集の時間を大幅に短縮できると感じました。 また、今回は最新AI情報の収集をターゲットにしましたが、市場/顧客分析などのマーケットの領域にも活用できると思います。 リサーチプランを修正/改善することで、こちらが求めている情報を取得できることも便利だと感じました。 本記事を見てAgentspaceに興味を持った方は、そのほかの記事を是非ご覧ください!! 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?②「検索(Cloud Storage)編」 本記事では、Agentspaceのアシスタント機能(検索機能)を紹介します。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 今後とも、Agentspaceのアップデート情報を掲載していきたいと思います。 最後まで読んでいただき、ありがとうございました!!! [共同執筆者紹介] 島村裕哉 SCSK株式会社のクラウド専門部隊に所属 Google Cloudの ・AI MLサービス選定/導入コンサルティング/導入サポート/AI 基盤・運用構築 まで多く案件を担当 Google Cloud Partner Top Engineer 2024・2025 受賞 カテゴリ:Cloud AI/ML Google Cloud Next Tokyo 出展 Google Cloud Day ’23 Tour 登壇 「AI は選んで組み込んで実装!最新 AI を道具として有効利用するためには!?」 ■好きな Google Cloud サービス:Vertex AI / Dialogflow CX / Visual Inspection AI / Cloud Run 山口翔平 Google Cloud歴3年目(社会人4年目)です。 日々捌ききれないほどのインプットを浴びているので、本ブログをアウトプットの場として活用しています。 ----- 好きな(よく触っている)サービス:BigQuery、Cloud Functions、Data Fusion 保有資格:応用情報技術者、Google Cloud 認定資格全冠(12冠) 受賞歴:Google Cloud Partner Top Engineer 2025(カテゴリ:General)受賞
こんにちは。SCSKの山口です。 Google Cloud にて利用できる『Google Agentspace』についてご存知でしょうか?? Agentspaceを利用することで、 組織全体のコンテンツを連携させ、根拠に基づいたパーソナライズされた回答を生成する。 ワークフローアクションと連携してタスクを実行することで、従業員が必要な情報を適切なタイミングで入手する。 ことが可能となります。 Google Cloud 公式サイト: Google Agentspace | Google Cloud Google Agentspace の利用に際しては 『 早期アクセス(Early Access)の申請が必要』 となります。 (執筆時 2025.4.9時点) 詳細については、以下の応募フォームをご確認ください。 Google Agentspace early access また、本ブログに添付しているコンソール画面についても執筆時時点のものとなります。 更新されている内容については、公式のドキュメントをご確認ください。 本記事では、 『 Google Agentspace 』について色々と調査し、実際に触ってみましたので、その魅力について少しだけご紹介させていただければと思います。 また、「Agentspaceについてもっと知りたい!!!」という方はあわせて以下もご覧ください。 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 この記事に書いてあること 今回は、そんなAgentSpaceを実際に触ってみたブログになるのですが、下記について書きます。 ブレンドRAG ブレンドRAGとは、 Agentspace Enterpriseの主要な7つの柱 のうちの一つとされている機能です。 ブレンドRAGを活用することで、 複数の形式やプラットフォームに分散されたエンタープライズデータ に基づく、AI生成ユースケースを強化することができます。 普段の業務において、一つの資料だけで完結する作業は限りなく少なく、複数のソースからの情報の収集が必要になることがほとんどだと思います。 今回ご紹介するブレンドRAGは、そういった 「複数のデータソースから情報を収集し、精査する」 際にかなり強力な機能になります。 Google Agentspace Enterprise overview | Google Cloud cloud.google.com とりあえず触ってみる 今回は、 BigQueryテーブル(構造化データ) Cloud Storage上のテキストファイル(非構造化データ) の二つをデータソース(データストア)として接続し、ブレンドRAGを構成します。 使用データ BigQueryテーブル 過去のブログで使用した下記テーブルを流用します。 従業員の氏名、業種、誕生日、居住国が入っています。 Cloud Storage テキストファイル もう一つのデータストアとして、Cloud Storageを指定し、下記テキストファイルを入れておきます。 とある従業員の業種が変更になっており、とある従業員がアメリカへ引っ越した とある従業員が4月いっぱいで退職する という内容の議事メモが含まれています。 しかし、このメモの内容は まだBigQueryの従業員情報のテーブルには反映がされていません 。 この状態で二つのデータストアを接続し、最新の情報を返してくれるのか?を試します。 データストア接続 ここでは詳細な手順の説明を省きます。手順については下記ブログをご参照ください。 【Google Cloud】Agentspaceについてご存じですか?②「検索(Cloud Storage)編」 本記事では、Agentspaceのアシスタント機能(検索機能)を紹介します。 blog.usize-tech.com 2025.04.10 アプリを使ってみる 接続されているデータストアを確認します。アプリ画面右上の「ソースを管理」から確認できます。 議事録(Minutes)と従業員情報(User Datastore)の二つが接続されていることがわかります。 まずは、 議事録(Minutes)の接続を切った状態で 質問を投げてみます。 「エンジニアだ」という答えが返ってきました。こちらはBigQueryテーブルの内容と一致していますね。 次に、 議事録(Minutes)を含んだ状態 で同じ質問を投げてみます。(※ソースの変更は反映に時間がかかる場合があります。) 「以前はエンジニアだったが、セールスに変更になった」という答えが返ってきました。 BigQueryテーブルとCloud Storage上のファイルの内容を収集 し、回答を出力していることがわかります。 もう一つ、従業員が転居した情報も、 変更履歴をふまえて 回答してくれています。 2025年5月以降の情報を聞いてみると、 決定している将来の変更についても情報を回答してくれました。 最後に 今回は『 Google Cloud のAgentspace 』について実際のデモともにご紹介させていただきました。 複数のデータソース(データストア)を接続し、精査した上で回答を生成させる 。そんなデモを実感いただけたと思います。 実務においては、 いろんな場所にある いろんなフォーマットの いろんな人が書いた 情報を精査する必要がある場面が多くあると思います。 それは大抵、今回のデモのような小規模なデータではなく、膨大な量のデータになると思われます。 そんな時、今回紹介した「ブレンドRAG」を活用することで、 情報の収集、精査が瞬時に可能になり、業務の大幅な効率化 が見込めます。 また、Agentspaceは様々なデータソースの横断検索に対応しています。(※2025年4月時点) そのため、導入にあたって 「データソースを一か所に集約させる」 という作業を行うことなく、 現状の業務環境にフィットさせる形 で利用を開始することが可能です。 デモを通して、皆さんにもこの恩恵をぜひ味わっていただきたいなと強く感じました。 今後とも、AIMLに関する情報やGoogle CloudのAIMLサービスのアップデート情報を掲載していきたいと思います。 最後まで読んでいただき、ありがとうございました。 [共同執筆者紹介] 八巻綾太 クラウド(主に生成AI)の専門部隊に所属し、 ボイスボット導入やVOC分析など、生成AIを絡めた業務効率化の案件を担当しています。 Google Cloudを触り始めて2年目です。 ブログを通じて技術をインプットしたり、案件や自己研鑽で培ったノウハウを積極的にアウトプットしていきたいと思います。 島村裕哉 SCSK株式会社のクラウド専門部隊に所属 Google Cloudの ・AI MLサービス選定/導入コンサルティング/導入サポート/AI 基盤・運用構築 まで多く案件を担当 Google Cloud Partner Top Engineer 2024・2025 受賞 カテゴリ:Cloud AI/ML Google Cloud Next Tokyo 出展 Google Cloud Day ’23 Tour 登壇 「AI は選んで組み込んで実装!最新 AI を道具として有効利用するためには!?」 ■好きな Google Cloud サービス:Vertex AI / Dialogflow CX / Visual Inspection AI / Cloud Run
こんにちは。SCSKの山口です。 Google Cloud にて利用できる『Google Agentspace』についてご存知でしょうか?? Agentspaceを利用することで、 組織全体のコンテンツを連携させ、根拠に基づいたパーソナライズされた回答を生成する。 ワークフローアクションと連携してタスクを実行することで、従業員が必要な情報を適切なタイミングで入手する。 ことが可能となります。 Google Cloud 公式サイト: Google Agentspace | Google Cloud Google Agentspace の利用に際しては 『 早期アクセス(Early Access)の申請が必要』 となります。 (執筆時 2025.4.9時点) 詳細については、以下の応募フォームをご確認ください。 Google Agentspace early access また、本ブログに添付しているコンソール画面についても執筆時時点のものとなります。 更新されている内容については、公式のドキュメントをご確認ください。 本記事では、 『 Google Agentspace 』について色々と調査し、実際に触ってみましたので、その魅力について少しだけご紹介させていただければと思います。 また、「Agentspaceについてもっと知りたい!!!」という方はあわせて以下もご覧ください。 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 この記事に書いてあること 今回は、そんなAgentSpaceを実際に触ってみたブログになるのですが、下記について書きます。 データストア接続(BigQuery) 情報の検索元(データストア)として「BigQuery」を接続し、様々な質問をチャット形式で投げて実際にデータを探索してみたいと思います。 実際にエージェントを使う際、 「どこまで回答してくれるの???」 が一番気になるポイントになると思うので、今回は下記の質問を試します。 レベル①:テーブル内のデータに対するシンプルな質問 レベル➁:テーブル内に直接回答となるデータはないが、一目で回答がわかるレベルの質問 レベル③:テーブル内にない情報(今回は今日の日付)をふまえた上で回答が必要になる質問 レベル④:テーブル内にない情報(今回は今日の日付)をふまえた上で、計算が必要になる質問 レベル⑤:テーブル内にないデータに対する質問 とりあえず触ってみる データストア接続:BigQuery まずは、データストアとしてBigQueryテーブルを接続し、検索をやってみます。 下記のテーブルを接続します。 アプリを作成 Google Cloudコンソールから「AI Applications」ページへ遷移します。 画面上部の「アプリを作成する」をクリックし、アプリ作成画面へ遷移します。 「エンタープライズ検索とアシスタント」の「作成」をクリックし、構成画面に遷移します。 各種情報を入力後、「続行」をクリックします。今回の構成は下記です。 アプリ名:bigquery-app 会社名:SCSK アプリのロケーション:global 階層の選択:検索+アシスタント 「データストア」画面で「データストアを作成」をクリックします。 今回は新規でデータストアを作成します。 「データソースを選択」の画面で、「BigQuery」の「SELECT」をクリックします。 「BigQueryからデータをインポート」の画面で、情報を入力後、「続行」をクリックします。 What kind of data are you importing?:Structured – BigQuery table with your own schema 同期の頻度:1回限り BigQueryのパス:scsksdv-dev-agentspace.agent_space.user 「スキーマの確認とキープロパティの割り当て」で各種情報を入力し、「続行」をクリックします。 アプリケーション側に「データを理解させるため」に重要な項目となりそうなので、選択が可能な項目について説明します。 項目名 概要 キープロパティ ドキュメントの意味を理解するために使用される重要な情報を示します。 取得可能 このフィールドが検索レスポンスに含まれるかどうかが決まります インデックスを作成可能 このフィールドをファセット(検索結果を絞り込むための属性)として使用できるかどうかが決まります 動的ファセット可能 動的ファセットとしてこのフィールドを使用できるかどうかを決定します 検索可能 このフィールドを検索で使用できるかどうかが決まります 完了可能 今回は下記設定で進めます。 「データストアの構成」画面で、下記情報を入力し「作成」クリックします。 アプリ作成の画面に再度遷移するので、画面下部の「作成」をクリックします。 作成が正常に完了すると、作成したアプリの画面に遷移します。 作成したアプリを使ってみる では、作成したアプリを使ってみます。 作成したアプリ画面の左ペイン内「統合」タブの「ウェブアプリへのリンク」に、作成したアプリのURLが記載されています。この右側の「開く」をクリックします。 →この画面(使用可能)になるまで数分かかりました。 作成したアプリでいろいろ聞いてみましょう。 レベル①:テーブル内のデータに対するシンプルな質問 お~、正しい情報がちゃんと情報が返ってきましたね。 レベル➁:テーブル内に直接回答となるデータはないが、一目で回答がわかるレベルの質問 テーブルの情報だけじゃ回答できない、ちょっと複雑な質問を投げてみましょう。 凄い、、正しい人数がちゃんと返ってきました。裏で「SELECT COUNT(*) WHERE role=…」みたいな SQLクエリが必要になりそうな情報 も回答してくれています。 レベル③:テーブル内にない情報(今回は今日の日付)をふまえた上で回答が必要になる質問 もう少し砕けた質問を(砕けた聞き方で)聞いてみましょう。 凄いですね、、今日の日付をふまえた上で情報精査し、回答してくれました。 レベル④:テーブル内にない情報(今回は今日の日付)をふまえた上で、計算が必要になる質問 もう少し難しくしましょう。今日の日付情報をふまえた上で、簡単な計算が必要になる(クエリ発行が必要な)質問を投げます。 これもちゃんと回答してくれます。さらに、 「回答の下書き」 を展開すると、 なんと、回答のために 裏で発行されたコード(Python) を見ることができます。 最後に、データストア上に存在しない情報を聞いてみましょう。 思いがけず、 ドラ●もん を描いていそうな名前になりましたが、 デ ータストア上に情報がないので、その旨回答 してくれています。 「ロールは漫画家です。」とか返ってこなくてよかったです。 最後に 今回は『 Google Cloud のAgentspace 』について実際のデモともにご紹介させていただきました。 データソースとして実際に BigQuery を接続し、回答を生成させる 。そんなデモを実感いただけたと思います。 今回は小規模のデータでのデモとなりましたが、実務で膨大なデータ量を扱うケースで、Agentspaceを活用するメリットは計り知れません。 まだまだ掘り下げられていない機能もありますので、今後さらに発信していければと思います。 (ちなみに、サンプルデータに”5歳”の天才エンジニア少女(US)が紛れ込んでいたの気づきましたか、、、?) [共同執筆者紹介] 八巻綾太 クラウド(主に生成AI)の専門部隊に所属し、 ボイスボット導入やVOC分析など、生成AIを絡めた業務効率化の案件を担当しています。 Google Cloudを触り始めて2年目です。 ブログを通じて技術をインプットしたり、案件や自己研鑽で培ったノウハウを積極的にアウトプットしていきたいと思います。 島村裕哉 SCSK株式会社のクラウド専門部隊に所属 Google Cloudの ・AI MLサービス選定/導入コンサルティング/導入サポート/AI 基盤・運用構築 まで多く案件を担当 Google Cloud Partner Top Engineer 2024・2025 受賞 カテゴリ:Cloud AI/ML Google Cloud Next Tokyo 出展 Google Cloud Day ’23 Tour 登壇 「AI は選んで組み込んで実装!最新 AI を道具として有効利用するためには!?」 ■好きな Google Cloud サービス:Vertex AI / Dialogflow CX / Visual Inspection AI / Cloud Run
LifeKeeperの販売元となるサイオステクノロジー株式会社が2024年10月31日より、LifeKeeper技術者認定制度の提供を開始しました。 今回は新たに提供が始まった LifeKeeper認定資格について概要と受験した流れと結果について紹介していきます。 技術者認定試験について LifeKeeper技術認定制度とは、LifeKeeperに携わるエンジニアのスキルをサイオステクノロジーが正式に認定する制度となり、LifeKeeperに関する技術力の証明と向上を支援していただける制度となっております。 内容としては、eラーニングによる学習とオンラインでの認定試験を通じて資格を取得できるセットで提供されています。 LifeKeeperの基本的な利用方法や用語を学習でき、製品理解を深めることができるプログラムとなっております。 種類 現在、提供されている技術者認定資格としては、以下2つの内容となります。 LifeKeeper for Linux 技術者認定資格(BASIC) LifeKeeper for Windows 技術者認定資格(BASIC) LinuxとWindowsの2種類のBASIC(入門編)の内容となっております。 認定資格取得の流れ 認定資格を取得いただくまでの大まかな流れは以下の通りとなります。 受講申し込み 技術コース受講 認定試験受験 認定証発行 1. 受講申し込み 以下URLよりアカウント作成のため、メールアドレスの新規登録を行います。 新規登録ページ lifekeeper.share-wis.com 登録を行いアカウント作成が完了しましたら、認定資格のサイトにログインできます。 ログイン後、表示されているコースを受講することができます。 まずはトレーニングを受講いただき、その後試験を受験するといった流れとなります。 コースの最後のセクションが試験になっていますが、トレーニングは任意となるため、試験だけ受験しても問題ありません。 2. 技術コース受講 動画と各セクションの最後にまとめとなる資料(PDF)があります。 Linuxコースは以下セクションに分かれており、各セクションの動画をみて講座を受けていく流れとなります。 動画の総合計は3時間程度となります。 No. セクション名 項目数 合計時間 1 基礎編 第1章 LifeKeeper for Linux概要 10 33分20秒 2 基礎編 第2章 LifeKeeperforLinuxのインストール 10 26分41秒 3 基礎編 第3章 アプリケーションの冗長化 9 26分21秒 4 基礎編 第4章 共有領域の保護 5 10分17秒 5 応用編 第1章 DataKeeperの利用 9 23分28秒 6 応用編 第2章 汎用アプリケーションの保護 9 19分52秒 7 応用編 第3章 LifeKeeperアーキテクチャ 5 23分45秒 8 応用編 第4章 メンテナンスとトラブルシューティング 5 15分48秒 Windowsは以下の内容となります。Windowsコースでの動画総合計時間は2時間30分程度となります。 No. セクション名 項目数 合計時間 1 第1章 LifeKeeper/DataKeeper 概要 7 36分29秒 2 第2章 LifeKeeper および DataKeeper のインストールと基本設定 9 46分16秒 3 第3章 リソース作成の基本 10 38分12秒 4 第4章 汎用アプリケーションの保護とコマンドの利用 9 38分21秒 3. 認定試験受験(BASIC) 各セクションの内容から抜粋されて出題されます。 制限時間は60分、設問数は40問となります。 正答率80%以上で合格となり、認定証が発行されます。 また、受験可能回数は制限があり、10回までとなりますのでご注意ください。 試験結果についてはメールで送信されます。メールにあるリンクから確認する事が可能です。 ※サイトから試験結果の確認はできない仕様となります。 4.認定証発行 試験に合格すると、サイトの「認定証一覧」のページに認定証が表示されます。 以上が認定資格取得までの大まかな流れとなります。 詳細なシステムの利用方法や手順については、 LifeKeeperユーザーポータルの以下の資料に掲載されておりますので、そちらからご覧ください。 LifeKeeper 技術者認定試験受講手順 費用について 現在の受講・受験費用は無償となっております。 ただ、将来的には有償に変更する可能性もあるとのことなので、今のうちに動画の受講と受験をしておいた方がよさそうですね。 受験してみて、、 受験をしてみた所感ですが、動画に関してはLifeKeeperに関する動作/機能説明が順序よく構成されており、 また図やグラフが頻繁に用いられており、当時LifeKeeperに触って3か月そこらの初心者の私でも分かりやすく、丁寧に説明がされている内容だなと感じました。 また、私の場合は先に一度試験を受けて(一発合格なりませんでした、、)要点を掴んでから動画を1.5倍速でみて理解を深め、 再度試験を受けて合格したという流れで本資格を取得しました。 試験については、動画の内容がそのまま出てきたりと動画を視聴すれば難なく解ける難易度でしたので、一度落ちても再度解答を見直せば合格できるかと感じました。 最後に 今回は、サイオステクノロジーが新たに提供を開始したLifeKeeper認定資格制度についてご紹介しました。 現在は入門者向けのみのコースを提供しておりますが、 今後は、中級者/上級者向けのコースもでてくるとの噂もあるので引き続き注目していきたいです。 イベント告知 このたび、LifeKeeper製品に関するウェビナーを4/16に開催いたします。 HULFTの最新バージョンであるHULFT10のサポートをLifeKeeperが開始いたしました。 これに際し、「HULFT×LifeKeeper」ウェビナーを開催いたします。 お申し込みは下記サイトよりお待ちしております。 HULFT7 Limitedサポート終了間近!HULFT10新機能および高可用性ソリューションのご紹介
こんにちは。SCSKの島村です。 Google Cloud にて利用できる生成AIサービス『Google Agentspace』についてご存知でしょうか?? Agentspaceを利用することで、 組織全体のコンテンツを連携させ、根拠に基づいたパーソナライズされた回答を生成する。 ワークフローアクションと連携してタスクを実行することで、従業員が必要な情報を適切なタイミングで入手する。 ことが可能となります。 Google Cloud 公式サイト: Google Agentspace | Google Cloud Google Agentspace の利用に際しては 『 早期アクセス(Early Access)の申請が必要』 となります。 (執筆時 2025.4.9時点) 詳細については、以下の応募フォームをご確認ください。 Google Agentspace early access また、本ブログに添付しているコンソール画面についても執筆時時点のものとなります。 更新されている内容については、公式のドキュメントをご確認ください。 本記事では、 『 Google Agentspace 』について色々と調査し、実際に触ってみましたので、その魅力について少しだけご紹介させていただければと思います。 また、「Agentspaceについてもっと知りたい!!!」という方はあわせて以下もご覧ください。 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?②「検索(Cloud Storage)編」 本記事では、Agentspaceのアシスタント機能(検索機能)を紹介します。 blog.usize-tech.com 2025.04.10 この記事に書いてあること 本記事を通して、最終的に以下を実現できるようになると思います。 Dialogflow(DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする。 構成は以下です。 「やってみた」の概要 使用するGoogle Cloudのサービスについて 実際に作ってみる Agentspace アプリからAgentを呼び出してみる。 本記事でご紹介させていただく内容は、 「Google Cloudのトレーニングサービス「Google Cloud Skills Boost」」を参考にしております。 コース名: Accelerate Knowledge Exchange with Agentspace (執筆時 2025.4.9時点では英語のみのコースとなります。) Google Cloud Skills Boost についてもっと知りたい方は以下をご覧下さい。 【GCP】【AIML】 Google Cloud Skills Boostで「生成AI」を学んでみた。 – TechHarmony 「やってみた」の概要 今回作成するデモはコース内の1つのラボを参考にしております。 ラボ名:『Extend Agentspace assistant capabilities with Conversational Agents』 作りたいもの 従業員の出張リクエストを処理するためのAssistantを作成する。 DFCX(Dialogflow)エージェントが Cloud Run 関数とやり取りできるようにし、 バックエンドで出張リクエストを BigQuery に直接書き込む。 ▽ Agentの呼び出しイメージ Agentの呼び出し部分について最小限の機能のみ紹介させていただきます。 Instructionのチューニング並びに詳細な設計については本ブログでは割愛いたします。 作成手順 Google Cloud にて『AgentspaceからのAgent呼び出し機能』を作成する手順は以下となります。 リクエスト記録用BigQueryテーブルを作成し、Cloud Run 関数(アシスタント機能)をデプロイする。 DFCXエージェントが Cloud Run 関数を呼び出せるように、OpenAPI ツールを作成する。 BigQueryデータストアを作成して、Agentspace アプリをデプロイする。 Playbook を使用して、シンプルな生成AI会話エージェントを作成する。 DFCXエージェントを Agentspace アプリに統合する。 使用するGoogle Cloudのサービスについて Cloud Run 関数 コンテナ化されたアプリケーションをサーバーレスで実行できるフルマネージドプラットフォーム 本デモでは、出張リクエストを記録するためのBigQueryへの書き込みを行うための関数としてデプロイします。 Cloud Run フルマネージドのプラットフォームであらゆる言語(Go、Python、Java、Node.js、.NET、Ruby)で記述されたスケーラブルなコンテナ型アプリを構築してデプロイできます。 cloud.google.com 会話エージェント(Dialogflow) ウェブサイト、モバイルアプリ、メッセージングプラットフォーム、IoT デバイスなど、さまざまなチャネルでユーザーと自然な会話ができる会話型インターフェース(チャットボット、音声アシスタントなど)を構築するためのプラットフォームです。 本デモでは、記録用関数(Cloud Run)を呼び出すための設定(Tool)並びにユーザとのやり取りを実現する シンプルな生成会話エージェントを作成するために利用します。 会話エージェント(Dialogflow CX)のドキュメント | Google Cloud Dialogflow CX 仮想エージェント cloud.google.com BigQuery スケーラブルで費用対効果の高いサーバーレスのデータウェアハウス(DWH)です。 本デモでは、出張リクエストを記録するためのDBとして利用します。 BigQuery エンタープライズ向けデータ ウェアハウス BigQuery は、ビッグデータから価値あるビジネス分析情報を得るために設計された、サーバーレスで費用対効果に優れたマルチクラウド データ ウェアハウスです。ぜひ、無料トライアルをお試しください。 cloud.google.com 実際に作ってみる 作成手順に沿って実際に作成してみました。 リクエスト記録用BigQueryテーブルを作成し、Cloud Run 関数(アシスタント機能)をデプロイする。 DFCXエージェントが Cloud Run 関数を呼び出せるように、OpenAPI ツールを作成する。 BigQueryデータストアを作成して、Agentspace アプリをデプロイする。 Playbook を使用して、シンプルな生成AI会話エージェントを作成する。 DFCXエージェントを Agentspace アプリに統合する。 1.リクエスト記録用BigQueryテーブルを作成し、 Run 関数(アシスタント機能)をデプロイする。 BigQueyテーブルを以下のスキーマで作成する。 *リクエストから記録した内容に合わせてスキーマは適宜修正ください。 [ { "name" : "user" , "type" : "STRING" , "mode" : "REQUIRED" }, { "name" : "travel_purpose" , "type" : "STRING" , "mode" : "REQUIRED" }, { "name" : "departure_city" , "type" : "STRING" , "mode" : "NULLABLE" }, { "name" : "destination_city" , "type" : "STRING" , "mode" : "NULLABLE" }, { "name" : "departure_date" , "type" : "STRING" , "mode" : "NULLABLE" }, { "name" : "return_date" , "type" : "STRING" , "mode" : "NULLABLE" } ] Cloud Run関数はリクエストをBigQueryに記録するための関数としてデプロイします。 JSON として送信されたリクエストを受け取り、BigQueryの記録用テーブルに書き込むための処理(関数)を作成する。 ▽requirements.txt functions-framework==3.* google-cloud-bigquery ▽ main.py POST リクエストに提供された旅行リクエストの詳細を JSON として取得し、それらの値を、BigQuery テーブルの新しい行に書き込みむ。 import functions_framework from google.cloud import bigquery @functions_framework.http def record_travel_request(request): request_json = request.get_json(silent=True) request_args = request.args print("JSON:" + str(request_json)) print("args:" + str(request_args)) bq_client = bigquery.Client() table_id = "Project_ID.Bigquery_Dataset.Bigquery_Table" row_to_insert = [ {"user": request_json["user"], "travel_purpose": request_json["travel_purpose"], "departure_city": request_json.get("departure_city",""), "destination_city": request_json.get("destination_city",""), "departure_date": request_json.get("departure_date",""), "return_date": request_json.get("return_date",""), }, ] errors = bq_client.insert_rows_json(table_id, row_to_insert) # Make an API request. if errors == []: return {"message": "New row has been added."} else: return {"message": "Encountered errors while inserting rows: {}".format(errors)} 上記の関数をデプロイする。 2. DFCXエージェントが Cloud Run 関数を呼び出せるように、OpenAPI ツールを作成する。 Cloud Run 関数を呼び出すためのエージェントをDialogflow Conversational agents を使って 作成する。 ▽ [会話エージェントの使用を開始する] ペインで、[独自のエージェントを作成する] を選択します。 ▽ 左側のナビゲーション メニューから [ツール] を選択します。 ▽「Create Tool」から OpenAPI ツールを作成する。 *タイプは OpenAPIのままにする。 ▽ Schema参考 openapi: 3.0.0 info: title: Travel Requests API version: 1.0.0 servers: - url: 'YOUR_CLOUD_RUN_FUNCTION_URL' paths: /: post: summary: Record a new travel request operationId: recordTravelRequest requestBody: description: Travel request to add required: true content: application/json: schema: $ref: '#/components/schemas/TravelRequest' responses: '200': description: Success content: application/json: schema: type: object properties: message: type: string example: "Favorite flavor recorded successfully!" components: schemas: TravelRequest: type: object required: - user - travel_purpose properties: user: type: string travel_purpose: type: string departure_city: type: string destination_city: type: string departure_date: type: string return_date: type: string 上記の仕様の YOUR_CLOUD_RUN_FUNCTION_URL を、Cloud Run 関数の URL に置き換える。 ツールが Cloud Run 関数を呼び出せるようにするには 「Dialogflow Service Agent に対して Cloud Run Invoker(起動元)ロール 」を付与する必要があります。 https://cloud.google.com/dialogflow/cx/docs/concept/playbook/tool?hl=ja#openapi エージェントは、 OpenAPI スキーマを提供することで、OpenAPI ツールを使用して外部 API(Cloud Run関数) に接続可能となります。 記載方法は以下を参考ください。 https://cloud.google.com/dialogflow/cx/docs/concept/playbook/tool?hl=ja#openapi 3. BigQueryデータストアを作成して、Agentspace アプリをデプロイする。 BigQueryデータストアを作成する。 先程作成したBigQueryテーブルをデータストアとしてAgentspaceアプリに登録します。 左側のナビゲーション パネルから [データ ストア] を選択します。 [+ データ ストアを作成] をクリックします。 BigQuery を検索して BigQuery カードを見つけ、[選択] をクリックします。 データの種類については、デフォルトの選択である [構造化 – BigQuery テーブルと独自のスキーマ] をそのままにします。 BigQuery パスについては、[参照] を選択します。 データセット Bigquery Dataset を検索します。 テーブル Bigquery Table を選択します。 [選択] をクリックします。 [続行] をクリックします。 スキーマはそのままにして、[続行] をクリックできます。 ▽ 作成すると以下一覧からも確認可能です。 Agentspace アプリをデプロイする [AI アプリケーション] > [アプリ] > [+ アプリの作成] に移動します。 Agentspace カードを見つけて [作成] をクリックし、Agentspace アプリを作成します。 アプリ名には、「Agentspace アプリ名」と入力します。 会社名には、「Agentspace 会社名」と入力します。 場所はグローバルに設定したままにします。 [階層の選択] で、[検索 + アシスタント] を選択します。 [続行] をクリックします。 ID プロバイダの場合は、Google ID プロバイダ カードの [選択] をクリックします。 [データ] ペインで、上で作成した Travel Requests データ ストアを選択します。 [作成] をクリックします。 4. Playbook を使用して、シンプルな生成AI会話エージェントを作成する。 自然言語でリクエストを受け取り、ツールを使用して Cloud Run 関数を介して BigQuery テーブルに書き込むことができる会話エージェントを作成する。 会話エージェント コンソールのブラウザ タブで、左側のナビゲーション メニューを使用してプレイブックを選択します。 すでに作成されているデフォルトの生成プレイブックを選択します。 プレイブックの名前を「旅行データの確認」に変更します。 目標には、「ユーザーが旅行を予約できるように支援する」と入力します。 手順については、テキスト フィールドに次の内容を貼り付けます。 – Ask the user to provide for user name, travelpurpose, departure city, destination city, and a range of dates. Assume a year of 2025 for dates without a year: – Use ${TOOL:Record Travel Request} – Let the user know that they should receive a list of flights to choose from in their email within 24 hours. これらのプレイブックの手順は Agentspace で使用するために設計されています。後後で、このプレイブックを呼び出す前に関連情報を収集する機能を Agentspace エージェントに付与します。 プレイブック ペインの上部にある [保存] をクリックします。 5. DFCXエージェントを Agentspace アプリに統合する。 Agentspace アシスタントに、会話エージェントにメッセージを送信し、その応答を受信する権限を付与する。 AI アプリケーション > アプリに移動し、Agentspace アプリ名 アプリを選択します。 左側のナビゲーションから、[構成]を選択します。 アシスタント タブを選択します。 エージェント ヘッダーの下で、アイテムの追加を選択します。新しいエージェントを接続するためのカードが表示されます。 会話エージェントコンソールの上部にあるエージェント ドロップダウンから、[すべてのエージェントを表示] を選択します。 Corporate Travel Bot エージェントの行の最後にあるオプション アイコン (縦に並んだ 3 つのドット) を選択し、[名前をコピー] を選択します。 AI アプリケーション タブに戻り、新しいエージェント カードのエージェント フィールドにコピーした値を貼り付けます。 エージェントの表示名には、Corporate Travel Bot を使用します。 手順には次のように入力します。 Use for booking travel by providing a user, travel purpose, departure city, destination city, and a date range. [完了] をクリックします。 Agentspace アプリからAgentを呼び出してみる。 Agentspace アシスタントは会話(DFCX)エージェントと通信できるようになり、会話エージェントはツールを使用して出張リクエストを記録できるようになりました。実際に呼び出してみましょう。 Agentspace アプリの Agentspace アプリ名を選択します。左側のナビゲーション メニューから [統合] タブに移動します。 Web アプリ ヘッダーへのリンクの下で、[開く] をクリックします。 * Agentspace アプリの作成には最大 10 分かかる場合があります。 メインバーの検索バーに出張リクエスト入力してみます。 正しく、回答できてそうです!!! きちんと出張リクエストが書き込まれているかBigQueryテーブルを見てみましょう。 リクエストが記録されていることを確認するには、BigQuery Bigquery テーブルが表示されているブラウザ タブに戻ります。[プレビュー] タブで、[更新] アイコン BigQuery 更新アイコン をクリックして、最新のデータを表示します。 [診断情報]から、作成したAgentがきちんと呼び出されていることが分かります。 今回のデモはここまでです。Agentspaceから作成したAgentを呼び出すところを確認できたかなと思います。 最後に 今回は『 Google Cloud のAgentspace 』について簡単なデモをご紹介させていただきました。 AgentspaceアプリからAgentを実行し、実行結果を確認する。 そんなデモを実感頂けたと思います。 外部データに対してAPIを経由してアクセスすることもでき、純粋なRAG基盤を超えたAgentとしての使い方も広がるそんな機能ではないでしょうか。 色んな関数(tools)を定義し、Agentとしての機能を広げていくことができるデモのご紹介でした。 また、Agentspaceには本ブログにてご紹介できなかった機能がたくさんあります!!!続報をぜひお待ちいただけますと幸いです。 今後とも、AIMLに関する情報やGoogle CloudのAIMLサービスのアップデート情報を掲載していきたいと思います。 最後まで読んでいただき、ありがとうございました!!! [共同執筆者紹介] 八巻綾太 クラウド(主に生成AI)の専門部隊に所属し、 ボイスボット導入やVOC分析など、生成AIを絡めた業務効率化の案件を担当しています。 Google Cloudを触り始めて2年目です。 ブログを通じて技術をインプットしたり、案件や自己研鑽で培ったノウハウを積極的にアウトプットしていきたいと思います。 山口翔平 Google Cloud歴2年目です。 日々捌ききれないほどのインプットを浴びているので、本ブログをアウトプットの場として活用しています。 ----- 好きな(よく触っている)サービス:BigQuery、Cloud Functions、Data Fusion 保有資格:応用情報技術者、Google Cloud 認定資格全冠(11冠) 受賞歴:Google Cloud Partner Top Engineer 2025(カテゴリ:General)受賞
こんにちは!SCSKの八巻です。 Google Cloud にて利用できる『Google Agentspace』についてご存知でしょうか?? Agentspaceを利用することで、 組織全体のコンテンツを連携させ、根拠に基づいたパーソナライズされた回答を生成する。 ワークフローアクションと連携してタスクを実行することで、従業員が必要な情報を適切なタイミングで入手する。 ことが可能となります。 Google Cloud 公式サイト: Google Agentspace | Google Cloud Google Agentspace の利用に際しては 『 早期アクセス(Early Access)の申請が必要』 となります。 (執筆時 2025.4.9時点) 詳細については、以下の応募フォームをご確認ください。 Google Agentspace early access また、本ブログに添付しているコンソール画面についても執筆時時点のものとなります。 更新されている内容については、公式のドキュメントをご確認ください。 本記事では、 『 Google Agentspace 』について色々と調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 また、 Agentspace について「もっと知りたい!!!」方は、 他サービスとのデータ連携やAgent関連について記載している以下「あわせて読みたい」もぜひご覧ください。 【Google Cloud】Agentspaceについてご存じですか?①「概要編」 Google Agentspace について調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 blog.usize-tech.com 2025.04.10 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 この記事に書いてあること 本記事では、Agentspaceのアシスタント機能(検索機能)を紹介します。 アシスタント機能について アシスタントの作成方法 検索結果 アシスタント機能について アシスタント機能は一言でいえば、ドキュメント検索機能です。 ユーザーが知りたい内容に対して、接続したデータソースからドキュメントの横断検索(様々なデータから参照/検索)を行い、 要約された回答を返します。 PDF、画像、ビデオなど、アップロードしたファイルの分析や、自然言語の指示に基づいて画像を生成させるなど、 生成 AI チャットアプリと似たようなタスクも実行可能です。 連携できるデータストア Agentspaceは、多くのGoogleサービスやサードパーティと連携させることができます。 以下の画像は連携可能なサービスの一覧です。 アシスタントの作成方法 今回は、Google Cloud Storageとデータ連携させた、新規アシスタントを作成します。 ①Google Cloudコンソールから、『AI Applications』を開き、『アプリを作成する』をクリックします。 ②『エンタープライズ検索とアシスタント』の作成をクリックします。 ③『アプリ名』『会社名』『ロケーション』を入力し、『検索+アシスタント』を選択します。 ④『データストアを作成』をクリックします。 ⑤Cloud Storage配下のSELECTをクリックします。 ⑥Cloud Storageに保存されているフォルダ/ファイルを選択します。 ⑦作成をクリックし、完了です。 検索結果 先ほど作成したアシスタントには、Cloud Storageに保存していたSCSK株式会社の概要資料(ホームページ抜粋)を連携しています。 早速、作成したアシスタントに質問してみましょう! 『SCSKについて教えて』と質問すると、連携していたデータソースから検索し、代表者や売上高などを端的に回答してくれました! 画面右の検索結果に、参考にしたデータが表示されています。 最後に 今回は『 Google Cloud のAgentspace 』のアシスタント機能をご紹介させていただきました。 本記事を見てAgentspaceに興味を持った方は、次の記事を是非ご覧ください!! 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 今後とも、Agentspaceのアップデート情報を掲載していきたいと思います。 最後まで読んでいただき、ありがとうございました!!! [共同執筆者紹介] 島村裕哉 SCSK株式会社のクラウド専門部隊に所属 Google Cloudの ・AI MLサービス選定/導入コンサルティング/導入サポート/AI 基盤・運用構築 まで多く案件を担当 Google Cloud Partner Top Engineer 2024・2025 受賞 カテゴリ:Cloud AI/ML Google Cloud Next Tokyo 出展 Google Cloud Day ’23 Tour 登壇 「AI は選んで組み込んで実装!最新 AI を道具として有効利用するためには!?」 ■好きな Google Cloud サービス:Vertex AI / Dialogflow CX / Visual Inspection AI / Cloud Run 山口翔平 Google Cloud歴2年目です。 日々捌ききれないほどのインプットを浴びているので、本ブログをアウトプットの場として活用しています。 ----- 好きな(よく触っている)サービス:BigQuery、Cloud Functions、Data Fusion 保有資格:応用情報技術者、Google Cloud 認定資格全冠(11冠) 受賞歴:Google Cloud Partner Top Engineer 2025(カテゴリ:General)受賞
こんにちは!SCSKの八巻です。 Google Cloud にて利用できる『Google Agentspace』についてご存知でしょうか?? Agentspaceを利用することで、 組織全体のコンテンツを連携させ、根拠に基づいたパーソナライズされた回答を生成する。 ワークフローアクションと連携してタスクを実行することで、従業員が必要な情報を適切なタイミングで入手する。 ことが可能となります。 Google Cloud 公式サイト: Google Agentspace | Google Clou d Google Agentspace の利用に際しては 『 早期アクセス(Early Access)の申請が必要』 となります。 (執筆時 2025.4.9時点) 詳細については、以下の応募フォームをご確認ください。 Google Agentspace early access また、本ブログに添付しているコンソール画面についても執筆時時点のものとなります。 更新されている内容については、公式のドキュメントをご確認ください。 本記事では、 『 Google Agentspace 』について色々と調査し、実際に触ってみましたので、その魅力についてご紹介させていただければと思います。 また、 Agentspace について「もっと知りたい!!!」方は、 他サービスとのデータ連携やAgent関連について記載している以下「あわせて読みたい」もぜひご覧ください。 https://blog.usize-tech.com/agentspace-search-gcs/ blog.usize-tech.com 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 この記事に書いてあること 本記事を通して、Agentspaceはどんなことができるのかを理解することができると思います。 Agentspaceの主要機能を中心にお伝えします。 Google Agentspaceとは アシスタント機能 エージェント機能 Deep Research Notebook LM Google Agentspaceとは?? 『 Google Agentspace 』とは、Google(Google Cloud)が提供する生成AIサービスの1つです。 組織内に分散しているドキュメント、メール、チャット履歴などのデータを横断検索し、情報の発見を手助けすることができます。 また AI エージェント機能により、カレンダーの登録などのタスクなどを人間の代わりに行うことも可能です。 Agentspaceの画面 Agentspaceの特徴 Agentspaceは以下のような特徴があります。 ・私たちが知りたいことを、保存された情報/データから検索して、回答を返してくれる ・複数の情報/データを横断的に検索し、適切に回答してくれる ・セマンティック検索(意味論検索)により、あいまいな言葉や自然言語でも検索ができる ・Googleサービス以外にも、Teams、Outlook、Box、Slackなど多くのサードパーティに対応 詳細については、以下、Google Cloud公式ドキュメントからご確認ください。 Google Agentspace 公式サイト アシスタント機能 アシスタント機能は一言でいえば、ドキュメント検索機能です。 ユーザーが知りたい内容に対して、接続したデータソースからドキュメントの横断検索(様々なデータから参照/検索)を行い、 要約された回答を返します。 PDF、画像、ビデオなど、アップロードしたファイルの分析や、自然言語の指示に基づいて画像を生成させるなど、 生成 AI チャットアプリと似たようなタスクも実行可能です。 Google Agentspace の横断検索は、以下のGoogleサービスやサードパーティのデータソースとも連携できます。 エージェント機能 アシスタント画面で入力されたユーザーからの自然言語による指示に基づき、Google Agentspace が代わりに作業を行う機能です。 例として Gmail や Outlook でのメール作成、Google カレンダーや Outlook カレンダーで予定を作成するなどが挙げられます。 また、Dialogflow(Google Cloud のフルマネージドサービス)と統合することで、ユーザーとの会話に基づき、タスクの実行が可能です。Google Agentspace がネイティブにサポートしていないアクションも実現できます。 エージェント機能については、以下の記事に詳細を記載しています。 【Google Cloud】Agentspaceについてご存じですか?③「Agent呼び出し編」 Dialogflow (DFCX) エージェントをアシスタント機能としてAgentspaceから呼び出してで利用できるようにする構成を紹介します。 blog.usize-tech.com 2025.04.10 Deep Reserch インターネット上の複数のデータソースに基づいて深い調査を行い、レポートにまとめてくれる機能です。 通常の生成 AI チャットアプリとは異なり、多段で詳細な調査と生成を行うため、回答の生成には数分間を要しますが、 提案されたリサーチ機能に基づき、詳細なレポートが返ってきます。 NotebookLM 生成 AI ウェブサービスであり、アップロードしたファイルに基づいて、生成 AI が分析/要約、新たな文章の生成を行うことができます。 生成した回答をメモとして残したり、アクセス権限を設定して、組織内の特定のユーザーまたはグループと共有が可能です。 最後に 今回は『 Google Cloud のAgentspace 』について概要をご紹介させていただきました。 『Agentspace ってこんなことができるんだ!』という概念的な理解はしていただけたかと思います。 今回紹介できていませんが、データストアと連携した検索機能や、他サービスとの接続、Agent活用など、 Agentspaceには多くの機能が備わっています。 Agentspaceは、業務効率化を行うための可能性を秘めたサービスだと思います! 本記事を見てAgentspaceに興味を持った方は、次の記事を是非ご覧ください!! https://blog.usize-tech.com/agentspace-search-gcs/ blog.usize-tech.com 今後とも、Agentspaceのアップデート情報を掲載していきたいと思います。 最後まで読んでいただき、ありがとうございました!!! [共同執筆者紹介] 島村裕哉 SCSK株式会社のクラウド専門部隊に所属 Google Cloudの ・AI MLサービス選定/導入コンサルティング/導入サポート/AI 基盤・運用構築 まで多く案件を担当 Google Cloud Partner Top Engineer 2024・2025 受賞 カテゴリ:Cloud AI/ML Google Cloud Next Tokyo 出展 Google Cloud Day ’23 Tour 登壇 「AI は選んで組み込んで実装!最新 AI を道具として有効利用するためには!?」 ■好きな Google Cloud サービス:Vertex AI / Dialogflow CX / Visual Inspection AI / Cloud Run 山口翔平 Google Cloud歴2年目です。 日々捌ききれないほどのインプットを浴びているので、本ブログをアウトプットの場として活用しています。 ----- 好きな(よく触っている)サービス:BigQuery、Cloud Functions、Data Fusion 保有資格:応用情報技術者、Google Cloud 認定資格全冠(11冠) 受賞歴:Google Cloud Partner Top Engineer 2025(カテゴリ:General)受賞
この記事では、Catoクラウドにおけるユーザー識別について記載します。 特に拠点のSocket配下のユーザーについて、ユーザー識別が可能かどうか?といったお問い合わせに対する内容となっておりますので、ご参考にしていただければ幸いです。 ユーザー識別とは? 接続環境による違い Cato Clientを使用して モバイル接続 した場合、Cato Management Application(以下CMA)ではZTNAユーザー名(旧SDPユーザー名)で管理されます。なのでユーザー単位もしくは複数ユーザーをグルーピングしてFirewallの送信元オブジェクトに設定したり、Eventsでログ確認を行う場合は、ユーザー名で通信ログが確認できます。 一方、Socketによる サイト接続 の場合、Socket配下のユーザーはZTNAユーザーとして登録はされないので、CMA上では そのデバイスのIPアドレスでしか識別されません 。仮にCato ClientをインストールしたデバイスをSocket配下のLANに接続してもオフィス・モードになるので、同じ事になります。 例えば、オフィスのPCが固定IPなら、IPアドレスから「誰」かが判別できるかもしれませんが、DHCPを使用している場合は「この危険なサイトにアクセスしているのは〇〇拠点からだとは分かるけれど誰なのか?」の特定ができないので、かなり致命的な状態と言えます。 このような場合は、 Identity Agent機能 を活用し、Socket配下のユーザーも名前での識別が可能となります。 <Identity Agent機能のイメージ図> Identity Agentのクライアント条件 Identity Agentの条件や仕様は、Catoのナレッジに記載がありますのここでは簡単に記載します。 サポートされるクライアントOSは、Windows、macOS、Linux サポートしているIdp環境は、オンプレAD、EntraID、Oktaなどのその他Idp Cato Clientのインストールは必要 WindowsにはZTNAライセンスの付与は不要だが、macOSとLinuxはZTNAライセンスの付与が必要(※1 参照) Cato Clientでの1回の初回認証が必要 ログイン後は30秒毎にチェックされ、IPアドレスが変わるとすぐに検出される Just a moment... support.catonetworks.com ※CatoクライアントのバージョンやIdpの条件は、Catoのナレッジを参考にして下さい。 なお、Identity Agentの仕組みは、定期的なユーザ認証とそのIPアドレスをPoP側で紐づけて保持することで実現されているものと推測していますので、プロキシ経由でCatoに接続する環境などでは識別ができないと思われます。 Identity Agentの設定と確認ポイント Identity Agentによるユーザー識別を利用する前提として、CMAの[Access] > [Directory Services] にて、オンプレADもしくはIdpと連携させユーザーをプロビジョニングします。プロビジョニング手順はここでは省略します。 また公式サイトによると、CMAに手動でユーザーを作成した場合でもユーザー識別はできるようです。 その後、Identity Agentを有効にする手順です。 [Access] > [User Awareness]を選択します。 Identity Agentを選択します。 Enable Identity Agentのトグルスイッチをスライドして有効にします。 [Save]をクリックします。 Identity Agentが動作しているかを確認するには、Cato Clientの「Stats」画面で「Identity Agent Status」をご確認ください。ここがONになっていればIdentity Agentが正常に動作しています。(下図のサンプル画像はOFFになってます) また、Identity Agentがうまく動作しない場合は、 Catoの提供するDNSサーバ「10.254.254.1」となっていない 可能性があります。 Cato以外のDNSを参照している場合はIdentity Agentは動作しませんので、CatoのDNSを参照するよう設定を見直す必要があります。 ZTNAライセンスの付与(※1) Cato Clientは、契約中のZTNAユーザーライセンス数に関係なくインストールが可能です。そのため、Windows PCでは、ZTNAライセンスを付与しなくてもCato Clientがインストールされているだけでユーザー識別が可能です。ただし、macOSやLinuxを識別するには、ライセンスが付与されている必要があります。 ユーザーライセンスの付与は、CMAにて以下の2つが選択できます。 全てのZTNAユーザーに付与する「Assign SDP license to all users」 特定ユーザーに付与する「Assign SDP license to selected users or groups」 ライセンス付与は、CMAの[Access] > [License Assignment]で行います。 特定ユーザーにライセンスを付与するには、「Assign SDP license to selected users or groups」を選択して、 [User]若しくは[User Group]を選び、特定のユーザーやユーザーグループを登録して[Save]をクリックします。 例えば、ライセンスを付与するユーザーには、別途ユーザーグループを作成し、グループへの追加や削除によってユーザー管理を行う方法も有効かもしれません。 [付録] Device Postreにおけるユーザー識別 Identity Agentに関係する話で、時折問い合わせをいただくのが「Socket配下の識別されたユーザーもDevice Postureによるデバイス制御が可能か」というものです。 2024年4月のアップデートで、この制御が可能と発表がありましたが紛らわしいところがあるので整理しておく必要があります。 Socket配下でのDevice Posture機能は、あくまでもモバイルユーザーとしての機能となっており、モバイルユーザーとして、Device PostureでBlockをされたとしても、その後Socket配下の環境に移動するとオフィス・モードになるので、デバイス制御は効かずCatoクラウド接続が可能となります。 一方、Internet FirewallやWAN Firewallのルール設定の項目「Device」の中に「Device Posture Plofile」があります。これを使用すればデバイス制御条件に合致したユーザーを、宛先のシステムやアプリケーションへのアクセスを許可したりブロックするといった設定が可能となります。 つまり、 Socket配下のデバイスをCatoに接続させる/させないの制御はできないが、デバイス制御の条件を満たしたユーザーは、Internet FirewallやWAN Firewallで特定宛先へのアクセス制御はできる 、という事です。 これも一応Identity Agentによりユーザー識別ができる事によるメリットではありますが、その他の設定方法でも対応可能な気はします。 最後に 今回は、Identity Agentによるユーザー識別を整理する目的で本記事を作成しましたが、細かい仕様や条件は、Catoのナレッジ(中段にリンクを貼り付けてます)に記載されていますので、ご一読される事をお勧めします。
社会人2年目になりました。 上司のサポートをいただきながら案件に取り組んでおり、その過程で得られた知見を記事にまとめて共有しようと思います。 はじめに 案件にて、Azure VM に SSMS (SQL Server Management Studio) を追加インストールするようにと依頼がありました。 Download SQL Server Management Studio (SSMS) | Microsoft Learn 既に 2 台の VM にはインストール済みだったのですが、今回の依頼で担当している全てのVMに入れる必要が出てきました。 途中から案件に入った私にとっては、 この作業経験が初めてだったので苦労しました。今回の作業で遭遇した問題点と解決策をまとめて記事にしてみようと思います。 今回の作業で使う SSMS のインストーラーですが、以前インストールした時と同じバージョンのもの(ローカルに保存済み)を使うことになりました。 ローカル PC にある SSMS-Setup-JPN.exe を Azure VM へコピー&ペーストを試したところ、まさかのエラーが発生。 File transfer is either not supported or not enabled. Please contact support. えーなんでだろ、何かの設定してないのかな?と迷っていると公式リファレンスでこんな記述見つけました。 現在、テキストのコピー/貼り付けのみがサポートされています。 Windows 仮想マシンとの間のコピーと貼り付け: Azure – Azure Bastion | Microsoft Learn なんと、ファイル転送はサポートされていないことが判明しました。 今回は気を取り直して、別の方法を試すことにしました。 Azure Storage 経由で SSMS インストーラーを VM に転送しインストール作業を完了できましたので、その手順について解説します。 前提条件 次の項目を事前に作成する。 Azure Bastionがデプロイされた仮想ネットワーク 仮想ネットワークにデプロイされたAzure VM 作成できたらBastion経由で接続できることを確認。 ちなみにローカルからコピペしようとすると右下に表示されます。 ローカルからのファイル転送 VMにAzure CLIをインストール “https://azcliprod.blob.core.windows.net/msi/azure-cli-2.58.0-x64.msi” VMのブラウザにこのurlをコピペしてインストールします。(テキストはコピペ可能) その後PowerShellでazコマンド打つと確認できます。 ※注意 Windows 用 Azure CLI をインストールする | Microsoft Learn 公式ドキュメント参考にwingetを実行した場合、wingetがインストールされてなければ成功しません。 なのでブラウザを使いました 。 適当なストレージアカウントを作成しファイルをアップロード まずストレージアカウントを作成します。 サイドバーにあるデータストレージ/コンテナーからコンテナー作成し、ファイルをアップロードでき完了。 VMにストレージアカウントに対する権限を付与(ストレージBLOB共同作成者) ストレージアカウントに対する権限付与は、以下記事を参考にさせていただきました。 AzureシステムマネージドIDを使ったVM→Blobへのアップロード #Azure – Qiita Azure VM上でポータルログインできないように認証の設定がされているので、マネージドID利用する方法を選びました。 VM上でコマンド実行 Powershell ではなくコマンドプロンプトを使用します。 <認証> az login --identity <ダウンロード実行> az storage blob | Microsoft Learn az storage blob download --container-name コンテナ名 --name ファイル名 --file ダウンロード先パス\ファイル名 --account-name ストレージアカウント名 --auth-mode login こちらを利用して、 az storage blob download --container-name ssmsexefile --name SSMS-Setup-JPN.exe --file C:\Users\tomioka-test01\Downloads\SSMS-Setup-JPN.exe --account-name tomiokasqlserver20250325 --auth-mode login –container-name VMのダウンロードフォルダに転送完了しました。 これでやっとSSMSをインストールできます。あとはexeファイル実行するだけです。 感想 そもそもなぜファイルのコピペはサポートされていないのでしょうか? セキュリティの問題なのか、ビジネス的に採算とれないからなのか…。 様々な推察はできますが、なかなか確定したことは分からないです。 社会人2年目は、こういった疑問を自分で解決することを目標に頑張ろうと思います。
こんにちは、SCSK の松山です。 Amazon Aurora DSQL (以下 DSQL と略す) について、従来の PostgreSQL との差異に焦点をあてて調べてみたシリーズ、前回(第二弾)は、従来の PostgreSQL と比較した場合の機能制限についてお伝えしました。 Amazon Aurora DSQL について調べてみた (機能制限編) Amazon Aurora DSQL について従来の PostgreSQL との差異に焦点をあてて調べてみたシリーズ第二弾。第二弾は機能制限編です。 blog.usize-tech.com 2025.03.19 制限されている機能の内容から、従来の PostgreSQL と比較して、単純 かつ 短時間で完了するクエリが大量に同時実行されるようなシステム( OLTP系の処理 )に向いた機構になっていることがわかりました。 第三弾として、本件では DSQL が採用している 楽観的同時実行制御 に焦点をあててまとめていきます。 ※本件は 2025/2 時点の検証結果をもとに記載しています。 今後動作が変更される可能性がある旨、ご注意ください。 同時実行制御とは 実際に実機検証を行う前に、まずは同時実行制御について簡単に説明します。 同時実行制御とは、データベースが複数のトランザクション処理を同時実行する際、データの整合性を保つための制御方法です。 データベースは同時に複数のトランザクション要求を受け付けることができます。 しかし同じデータに対して複数のトランザクションから異なる更新を同時に行ってしまうと、データに矛盾が発生してしまいます。 【在庫が100個存在する商品を AさんとBさんが同時に取り出せてしまった場合】 上記のような矛盾が発生しない様に管理するのが同時実行制御です。 この際、DSQL では 主なデータベース製品 ORACLE、MySQL、PostgreSQL などとは異なる制御方法として楽観的同時接続制御が採用されています。 同時実行制御の種類 悲観的同時実行制御 (PCC) 主なデータベース製品 ORACLE、MySQL、PostgreSQL などでは悲観的同時実行制御 ( PCC : Pessimistic Concurrency Control) を採用しています。「同時実行制御」とだけ記載されている場合には、主に悲観的同時実行制御を指していることが多いでしょう。 「同時にトランザクションが実行されている可能性がある」という悲観的な考え方で制御を行うため、このような名称になっています。 悲観的同時実行制御の場合は、内部的に処理に順番を割り振ります。 順番が先に割り当てられた処理が対象をロックし、後に割り当てられた処理はロックが解放されるまで待機します。ロック獲得側が処理を確定する COMMIT を行ったタイミングで更新の反映とロックの解除が行われるため、後に割り当てられた処理との整合性が保たれます。 楽観的同時実行制御 (OCC) DSQL では楽観的同時実行制御 (OCC:Optimistic concurrency control) を採用しています。 「同時に実行しているトランザクションは存在しない」という楽観的な考え方で制御を行うため、このような名称になっています。 楽観的同時実行制御の場合は、処理実行中に矛盾が発生する更新が行われても待ちは発生しません。 かわりに処理を確定する COMMIT を行ったタイミングで、矛盾する操作が行われたかがチェックされます。 先に COMMIT した処理の更新内容に対して、後から行った処理の更新内容が矛盾している場合、エラーを返して処理の再実行を要求することで処理の整合性が保たれます。 実機検証 検証内容 DSQL_1 Versinia 環境と DSQL_2 Ohio 環境から、同時に同一表の競合する行へ更新を行う DSQL_1 Versinia 環境を先に COMMIT し、DSQL_2 Ohio を COMMIT した場合の動作と表の更新状況を確認する まとめ 楽観的同時実行制御では処理を確定する COMMIT を行ったタイミングで整合性のチェックが行われることがわかりました。 悲観的同時実行制御では何らかの理由でロックが長期間解放されない場合、後続の処理が待たされますが、楽観的同時実行制御では先に COMMIT した処理が優先されるため、待ちが発生しません。 ただし COMMIT 時に先に実行していた処理と矛盾が発生した場合には、エラーを受け処理の再実行が必要です。そのため、悲観的同時実行制御で動作していたシステムを DSQL へ移行する場合には、リトライ処理の仕組みを作りこむことが重要と言えるでしょう。 DSQL の利用ケースを検討する際に、今回の内容がお役に立てば幸いです。 Amazon Aurora DSQL について調べてみた (構築編) Amazon Aurora DSQL について従来の PostgreSQL との差異に焦点をあてて調べてみたシリーズ第一弾。第一弾は DSQL の簡単な概要と構築編です。 blog.usize-tech.com 2025.03.17 Amazon Aurora DSQL について調べてみた (機能制限編) Amazon Aurora DSQL について従来の PostgreSQL との差異に焦点をあてて調べてみたシリーズ第二弾。第二弾は機能制限編です。 blog.usize-tech.com 2025.03.19
こんにちは、SCSK 野口です。 『 第6回 HAクラスター構成の敵「スプリットブレイン対策」はこれだ! 』 では、 LifeKeeper の Quorum/Witnessについて少し触れましたが、Quorum/Witness は クラスターシステムにおいて重要な役割(スプリットブレイン対策)です。 今回は、もう少し深堀をし、Quorum/Witnessの種類とパラメータについてお伝えします。 Quorum/Witnessとは おさらい 『 第6回 』 でも Quorum/Witness の機能について説明しましたが、 改めて「Quorum Check」( Quorum機能) と 「Witness Check」( Witness機能) を下記に記します。 Quorum Check⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅クラスター全体で合意(多数決)するための機能 「リソースを起動する権利はあるのか」クラスター全体で合意するための仕組みです。 Witness Check⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅第三者ノードに問い合わせて再確認する機能 (セカンドオピニオン) 「相手ノードは本当にダウンしたのか」第三者ノード(デバイス)に問い合わせる仕組みです。 Quorum/Witnessは、「Quorum Check」と「Witness Check」が合わさった機能なんだね! Quorumの種類(Majorityモード、Storageモード) おさらいで、Quorum/Witnessの機能についてざっくりと説明しましたが、 次は、実際にどのような構成があるか具体的な例を2つご紹介いたします。 Storage構成図では、Node1がQWKオブジェクト1にデータを書き込み、そのデータをNode2が監視しています。 同時に、Node2はQWKオブジェクト2にデータを書き込み、そのデータをNode1が監視しています。 つまり、両方のノードが互いにデータを書き込み、監視し合っている状態です。 Majority構成は多数決だから、ノードを奇数台用意しなきゃなんだね! Storage構成はお互いに書き込みと監視してるんだ⁉ Quorumの種類によって設定可能なWitnessモード majorityモードで使用可能なWitnessモード storageモードで使用可能なWitnessモード ・remote_verify ・storage(他は選択できません。) ・none または off 選択したQuorumモードで、設定できるWitnessモードは決まっています。 QuorumとWitnessの構成が正しくないと、 リソース作成 & 拡張時に サーバーが誤って停止する可能性 があるわよ! パラメータの設定値 続いては、実際にどのようなパラメータの設定値があるのかをご紹介いたします。 今回、ご紹介するパラメータの設定値は 「Quorum/Witness共通のパラメーター」 と 「選択したモードによって有効なパラメーター」 です。 Quorum/Witness共通のパラメータ ※ 青文字はデフォルト値となります。 QUORUM_MODE ・majority……… ハートビート通信で疎通確認をし、Quorum チェックを行う ・tcp_remote …… ハートビート通信で独立したホストに対して、 指定されたポート上の TCP/IP サービスに接続確認をし、Quorum チェックを行う ・storage ……… 共有ストレージを Witness デバイスとして用いて、Quorum チェックを行う ・none/off ……… Quorumチェックを無効にする。 WITNESS_MODE ・remote_verify …… クラスター内で他のすべてのノードに対して 障害が疑われるノードのステータスに関する意見を求める ・storage ……… 共有ストレージに書き込まれた情報を定期的に確認する ・none/off ……… Witnessチェックを無効にする QUORUM_LOSS_ACTION ・fastkill …… Quorumの喪失が検出されると、システムを直ちに再起動する ・fastboot …… Quorumの喪失が検出されると、システムを直ちに停止する (手動で起動する必要があります) ・osu …… ……… Quorumの喪失が検出されると、システム上のリソースをサービス休止状態にする ALLOW_EXTEND_WITH_QUORUM_ERROR ・true …… Quorumシステムの障害/エラーが発生した場合拡張する ・false …… Quorumシステムの障害/エラーが発生した場合拡張しない 選択したモードによって有効なパラメーター ※ 青文字はデフォルト値となります。 QUORUM_HOSTS ・”host:port” 形式 ……複数指定の場合はカンマ区切り (設定例)QUORUM_HOSTS=myhost:80,router1:443,router2:22 QUORUM_TIMEOUT_SECS ・整数値 を指定 ※ 青文字はデフォルト値となります。 QWK_STORAGE_TYPE ・block ……… 共有ストレージに物理ストレージやRDM(物理互換)、iSCSI(VM 内イニシエーター)を使用する場合 ・file ………… 共有ストレージにNFS (または Amazon EFS) を使用する場合 ・aws_s3 …… 共有ストレージに AmazonのS3 、または Amazon S3互換のオブジェクトストレージを使用する場合 QWK_STORAGE_HBEATTIME ・5以上10以下 …… QWKオブジェクトへ読み書きする間隔を秒単位で設定 QWK_STORAGE_NUMHBEATS ・3以上 …… QWKオブジェクトの読み込みにおいて、設定した回数以上更新が停止していると障害と判断 QWK_STORAGE_OBJECT_<ホスト名> ・ホスト名に”-”または”.”を含む場合、アンダースコア“_”に置き換える HTTP_PROXY, HTTPS_PROXY , NO_PROXY ・ AWS CLIの通信をプロキシ経由で行う場合に設定 (設定した値がそのまま AWS CLI へ渡される) これらのパラメータは etc/default/LifeKeeper 設定ファイルで編集や追記できるわよ! まとめ 今回は、Quorum/Witness の種類 と パラメータ についてご紹介しましたがいかがでしたか。 ・ Quorum/Witnessは「 Quorum Check 」と「 Witness Check 」という 2つの機能がある ・Quorumの種類には「 Majorityモード 」と「 Storageモード 」という種類がある ・パラメータは 「共通のパラメーター 」と「 選択したモードによって有効なパラメーター 」がある この記事で、上記3点をご認識いただけたら幸いです。 詳細情報をご希望の方は、以下のバナーからSCSK Lifekeeper公式サイトまで
こんにちは。SCSKの山口です。 Google Cloud認定資格の全冠を目指す際、避けて通れないのが「英語版のみの試験」です。今回は、英語が(まだそこまで)堪能でない私が編み出した、「英語版試験突破のコツ」を書き留めたいと思います。 2025.03現在 英語版のみの認定資格 これを書いている2025.03時点では、下記がまだ英語のみとなっているようです。 ・Associate Data Practitioner ・Associate Google Workspace Administrator ・Professional Cloud Database Engineer ・Professional Machine Learning Engineer 早く日本語化してほしいところですが、いつまで経っても日本語化されず、いつまで経っても受験に踏み切れない。みたいなことになりかねないので、ある程度覚悟を決めて受験することも必要です。 今回はそんなときに使えるTipsをお伝えできればと思います。 英語の試験で当たった壁 私はよくUdemyなどで模擬試験を購入し。英語の問題に慣れる練習をしていたのですが、 問題呼んでも目が滑って内容が全然頭に入ってこない、、、 これに陥りました。 問題文をはじめから読み始めて、わからない単語に何度も当たり、そうするうちに「あれ、これ何を聞かれてるんだっけ??」となってもう一度頭から読み直す。を繰り返して、日本語の試験の数倍の体力を使っていました。 もちろん、50問解き終わるのに日本語試験とは比にならないくらいの時間を要し、試験本番でも見直す時間と体力がない。みたいなことになっていました。 このブログでは、英語の問題文を効率的に読み、正解の回答にアプローチする私流のコツを書きたいと思います。 解き方のコツ 今回は、問題の形式ごとに私が使っている解き方を書きます。 もちろん試験に登場する全パターンを網羅できているわけではないので、予めご了承ください。 (※また、もちろんある程度の英語を読めるスキルは当然必要です。) シナリオが描かれているパターン ほとんどの問題がこのパターンなんじゃないかと個人的に思っています。例題を書きます。 You are a data administrator for a company that stores and manages critical business data in cloud storage. You have been asked by management to ensure high availability with minimal downtime in the event of a region failure. Data redundancy needs to be provided in multiple geographic locations, while at the same time requiring low-latency access for users in certain regions. Which configuration best meets these requirements? Dual-Region Storage Multi-Region Storage Regional Storage with Object Versioning Standard Storage in a Single Region はい。自分で書きながらもう頭が痛くなってきました。 上の問題は、アソシエイトレベルでよく聞かれそうな問題を、あえて冗長な文を含ませて作っています。 まず最後の文を見る 正直、このブログで言いたいことの半分はこれです。 Which configuration best meets these requirements? まず、 「最後の一文」だけ を見ます。 上の例でいうと、 「 どの構成がもっとも要求に合っていますか?」ですね。これくらいならすぐ訳せそうです。 「何かの構成を選ぶんだな。」 ということがここでわかります。 これをつかんだ状態で他を読むと、この後読み進める段階で 情報を取捨選択 できます。 次に選択肢を見る Dual-Region Storage Multi-Region Storage Regional Storage with Object Versioning Standard Storage in a Single Region 次に選択肢を見ると、「Cloud Storageに関する問題っぽい。」と分かります。 最後の文と合わせると、 「最適なCloud Storageの構成」 を選ぶ問題だということがわかります。 怪しい単語を探す 最適なCloud Storageの構成を聞かれている問題だということがわかりました。選択肢を見ると「冗長化・高可用性」や、「データ保持」に関する用語が登場しているので、 その要件となりそうな単語を探しに行きます 。 ・to ensure high availability ( 高可用性 ) ・minimal downtime in the event of a region ( リージョン障害発生時 のダウンタイム最小に) ・Data redundancy needs to be provided in multiple geographic locations ( 複数の地理的ロケーション が必要) ・requiring low-latency access for users in certain regions ( 特定のリージョンのユーザ の低遅延を保証) この太字辺りが怪しいですね。 選択肢を削る 今回、大きく四つの要求が経営層から出されていますが、大前提となる要件として 「高可用性」 があります。なので、 3. Regional Storage with Object Versioning 4. Standard Storage in a Single Region シングルリージョン構成のこの二つの選択肢がまず最初に消えます。 残る二つの選択肢は高可用性が確保されているように見えますが、そのほかの要件として、 「特定リージョンのユーザの低遅延を確保」 する要件があります。 Cloud Storageのマルチリージョンでは ユーザがリージョンを選択することができません 。 なので、2番の選択肢も消え、 Dual-Region Storage これが正しい答えだとわかります。 最終的に、”Cloud Storageのマルチリージョンでは ユーザがリージョンを選択することができません 。”これを知識として持っておく必要がありますが、要件と選択肢を見るだけで選択肢を2/4に減らすことができます。 複数選択するパターン こちらも例文を書きます。 ETL (Extract, Transform, Load) and ELT (Extract, Load, Transform) are two methods for processing data in the Google Cloud environment. Which two statements accurately describe these processes? (Choose two) ETL is converted before the data is loaded. This minimizes storage requirements. ETL is preferred in Google Cloud environments where BigQuery is the primary processing tool. ETL is more compatible with unstructured data sources than ELT. ELT requires a powerful data warehouse or processing engine in the data warehouse that holds the data to handle transformations after the data is loaded. ELT is generally not suitable for scenarios involving large data sets. 前のパターンと違って、よく内容を見る必要がありそうですね。 何について聞かれているか整理する 今回の例題ではわかりやすいですが、 ETLとELTについて 聞かれています。 5つの選択肢から正しいものを二つ選ぶ問題です。 選択肢を整理する 選択肢が5つもあるので整理します。 ETLについての説明:1,2,3番 ELTについての説明:4,5番 こういう場合は、 ETL、ELTの説明からひとつずつ選ぶパターン が圧倒的に多いです。 闇雲にすべての選択肢をじっくり見るのではなく、ある程度のあたりをつけて読むことをオススメします。 選択肢を読む まず、ETLの説明から順に読んでいくことにします。 1. ETL is converted before the data is loaded. This minimizes storage requirements. いきなり当たりを読んだ気がします。(実はこれが正解です。) このように、ETLの選択肢から正解を一つ見つけたら、 他のETLの選択肢は飛ばして、ELTの問題を見ます 。 4. ELT requires a powerful data warehouse or processing engine in the data warehouse that holds the data to handle transformations after the data is loaded. これが正解です。 正解を選ぶための知識を持って入れば、5つすべての選択肢に目を通すことなく解くことができます。 今回の例でいうと、まず1の選択肢(ETLの説明)が正解とわかれば、あとは「 ELTの適切な説明どれだろう。 」の目線で選択肢を探しに行きます。なので、他のETLの説明の2,3の選択肢は後回し(もしくは読まない)です。 私は英語の試験だと試験時間がぎりぎりになることが多いので、1周目はこの解き方で選択肢を選び、時間が余ったときのみ選ばなかった選択肢を念のため確認しています。 また、一つは確実に分かったけどもう一つが選べない。ということも多くあると思います。そういうときは今回の例でいうと 「ETLの選択肢は絶対コレが正解だから、残り1つの正解はELTの選択肢にあるはず。」 という当たりをつけて選択肢を選んでいます。 タイムアップが近づき、どうしても考える時間が足りないときは、当てずっぽうでそれぞれの説明から一つずつ選択します。
こんにちは。SCSK 阿部です。 Cato クラウドを用いたモバイル接続を行う場合、ユーザの作成が必要となります。 ユーザは手動で作成することも可能ですが、既存のディレクトリサービスと連携させる形で管理することも可能です。 今回は、SCIMプロビジョニングによるユーザ作成・管理について、注意点も含めて記事といたします。 はじめに:SCIMプロビジョニングでできること SCIMは「System for Cross-domain Identity Management」の略で、Entra IDをはじめとするドメインサービスや システムの間でID(ユーザやグループ)情報のやり取りを行うための標準規格です。 Catoは、ディレクトリサービスからのSCIMによるユーザプロビジョニングに対応しています。 2025年4月現在、対応しているサービスは下記のとおりです。 Microsoft Entra ID Okta OneLogin OneWelcome SCIMプロビジョニングを用いることで、プロビジョニング元にあたるサービスにおける ユーザの追加、削除、変更といった操作をCato側に自動で反映する ことが可能です。運用の手間を省けるほか、ユーザの削除し忘れによるセキュリティリスクも低減することが可能です。 「他のIDとの連携」としてSSO(Single Sign On)もよく用いられますが、SCIMはこれとは別の概念です。 SCIM:ユーザやグループの連携が目的 SSO:認証の連携が目的 Catoにおいて、SCIMプロビジョニングでユーザを作成・管理するのみの設定とする場合、ログインには通常のユーザと同様に別途設定のパスワードを使用します。SSO認証を併用する場合、後述の通り追加の設定が必要です。 SCIMプロビジョニングを設定してみる 実際に、Entra IDを一例としてSCIMプロビジョニングを設定してみます。 今回は、以下のイメージ図の通り、Entra IDの特定のグループ「Test-group1」に属するユーザ 「テスト 太郎」のみをCatoへプロビジョニングします。 Entra管理センター上でアプリケーション「Cato Networks Provisioning」を作成 連携予定のEntra管理センターにて、 「エンタープライズ アプリケーション」から新しいアプリケーションを作成します。 「Cato Networks Provisioning」を選択し、「作成」をクリックします。「Cato」で検索すれば簡単に見つかります。 アプリケーションが無事に作成されました。自動で詳細画面が開きます。 この画面はすぐ後に参照するので、開いたままにしておきます。 CatoテナントとCato Networks Provisioningを紐づけ 作成したアプリケーションを、プロビジョニング先のCatoテナントと連携させます。 CMAにログインし、[Access > Access Configuration > IDENTITY > Directory Services]へ移動します。 [SCIM]タブにて、「New」を選択します。 Directory Nameとして任意の名前をつけて、「Generate Token」をクリックします。 出力されたトークンと「Base URL」をメモ帳等に控えてから、「Save」をクリックします。 SCIMの連携は、複数のIdPと同時に実施可能 です。 (二つ以上のEntra IDテナントとOktaアカウント等) ただし、 「LDAP連携」を実施しているCatoテナントでは、複数IdPとのSCIM連携を実施できません 。 複数IdPとのSCIM連携が必要な場合は、事前にLDAP連携を削除する必要があります。 なお、SCIMプロビジョニングの結果、LDAP連携のユーザと同名のユーザが存在した場合は、 SCIMが優先され、LDAP連携のユーザを上書きします。 参考リンク: Provisioning Users with SCIM and LDAP – Cato Learning Center Entraのアプリケーション画面に戻り、[3.ユーザー アカウントのプロビジョニング > 作業の開始]をクリックします。 表示される画面で、改めて「作業の開始」をクリックします。 プロビジョニングモードとして「自動」を選択し、管理者資格情報を入力します。 テナントのURL: CMA画面で控えた「Base URL」 シークレット トークン: CMA画面で控えた「Bearer Token」 「テスト接続」をクリックし、結果に問題が無いことを確認したら「保存」をクリックします。 プロビジョニング対象を指定 プロビジョニングの対象を指定します。 Cato Networks Provisioningの概要画面より、「ユーザーとグループの割り当て」をクリックします。 アプリケーションの割り当て一覧画面にて、「ユーザーまたはグループの追加」をクリックします。 プロビジョニングの対象とするユーザやグループを選択したうえで、「割り当て」をクリックします。 Entra ID P1以上を契約しているEntra IDテナントでは、割り当て対象としてグループの指定が可能です。 グループに直接所属しているユーザだけを対象とする(子グループの中身は参照しない) ので、 グループに必要なユーザが所属していることを確認してから設定しましょう。 参考リンク: アプリケーションへのユーザーとグループの割り当てを管理する – Microsoft Entra ID | Microsoft Learn プロビジョニングのマッピング設定を変更(オプション) Entra IDのユーザ情報をCatoに連携するうえで、Entra IDのプロパティのどの項目をCatoのどのプロパティ向けに連携するかを決定しているのがマッピング設定です。 デフォルトで設定が行われているため、基本的に変更する必要はありませんが、必要に応じ調整が可能です。 以下は、「Cato側のEメール(およびユーザID)の参照元を、Entra IDのEmailからUPNに変更する」 という変更を行う場合の例です。 Cato Networks Provisioning詳細画面左の[管理 – プロビジョニング]を選択します。 [マッピング > Provision Microsoft Entra ID Users]をクリックします。 プロビジョニングのマッピング設定画面が表示されます。 「属性マッピング」の項目に、Cato上のプロパティとEntra IDのプロパティの対応関係が一覧化されています。 今回は、CatoNetworks属性の「emails[type eq “work”].value」へEntra IDの「mail」をマッピングする設定について 「編集」をクリックします。 編集対象の詳細が表示されます。 ソースはEntra IDの特定のプロパティを直接代入するのみではなく、固定値や式を用いることも可能です。 今回は、「userPrincipalName」をソース属性に指定し、「OK」を押下します。 「保存」を押下することで、設定変更が反映されます。 プロビジョニングを有効化 Cato Networks Provisioning詳細画面左の[管理 – プロビジョニング]を選択します。 以下の設定となっていることを確認のうえ、「保存」をクリックします。 設定 > 範囲:割り当てられたユーザーとグループのみを同期する プロビジョニング状態:オン 設定の保存後、自動でプロビジョニングが開始されます。 Catoの[Access > Users]にて[Users Directory]タブを確認すると、ユーザが追加されていることを確認できます。 プロビジョニングされたユーザにライセンスを割り当てる (オプション) プロビジョニングされたユーザは、デフォルト設定では自動的にSDP licenseの未使用分が割り当てられます。 ライセンス割り当て対象を明確に指定するオプション(Assign SDP license to selected users or groups)を 利用している場合は、下記のようにSDP licenseの割り当てを行う必要があります。 CMAコンソールの[Access > License Assignment]にて追加されたユーザーを選択し、「Save」を実行します。 数分で設定が反映され、無事にリモートアクセスできるようになりました。 Cato Clientを用いたリモートアクセスの方法については、 こちら の記事もご参照ください。 プロビジョニングされたユーザの管理 プロビジョニングによって作成したユーザは、手動作成とは異なる管理方法が求められます。 プロパティの変更 SCIMプロビジョニングで作成されたユーザは、CMA画面上ではプロパティを変更できないようになっています。 変更が必要な場合は、同期元のIdPで値を変更します。 今回は、Entra ID側のプロパティにて、氏名を「テスト 次郎」に変更します。 自動プロビジョニングを有効にしていれば、 40分毎に自動で更新 されます。 CMAのプロパティ画面を見てみると、変更が反映されていることを確認できます。 パスワードの変更(SSO認証非設定時) SSO認証を用いずにパスワードの個別設定を行っている場合、パスワードリセットはCMA上で実施します。 CMAの[Access > Users]に移動し、[Users Directory]タブで対象ユーザを選択します。 [Actions > Reset Password]を実行しましょう。 SSO認証を使用している場合は、連携元のログイン処理を用いることとなるため、 パスワードリセット等の処理も連携元にて行います。 ユーザの削除 SCIMプロビジョニングにより作成されたユーザを削除する場合は、 必ず先に連携元で操作を実施する必要があります 。 Entra IDテナントのアプリケーションにて、プロビジョニング対象から削除したいユーザを外します。 具体的には、下記のような方法をとることができます。 対象のユーザを削除する 対象のユーザを、プロビジョニング割り当て対象から外す 今回は、アプリケーションの「ユーザーとグループ」から直接割り当てを削除します。 グループ単位での割り当てを行っている場合は、対象ユーザを当該グループから外すことで 他のユーザに影響を与えずに割り当て対象から外すことが可能です。 プロビジョニングによる同期後にCMAの[Access > Users > Users Directory]を確認すると、 対象ユーザが「Disabled」のステータスになっています。(割り当てたライセンスは自動で外されます。) 「Disabled」になったことを確認した後に 、[Actions >Delete]でユーザーを削除しましょう。 IdP側での操作を行う前にCMA上で削除を実行した場合、 削除成功のメッセージが表示されるにもかかわらずユーザが削除されないといった現象が発生します。 想定外の挙動を引き起こす可能性もあるため、 必ずIdP側での操作を先に実施 しましょう。 SSO認証の設定(オプション) Cato推奨(デフォルト)のユーザー認証方法はSSO認証となっており、 2025年4月現在でSCIM連携に対応しているサービスは全てSSO認証にも対応しております。 SSO認証を用いると、パスワードの管理までIdPで一括管理できるようになります。 Microsoft Entra IDでの設定手順は下記のとおりです。 CMAの[Access > Single Sign-On]に移動し、「New」をクリックします。 Identity Providerとして「Microsoft Azure」を選択し、任意の名前を付けて「Apply」を押下します。 その後、画面右上の「Save」をクリックします。 追加されたAzureの項目にカーソルを合わせ、編集(ペンのアイコン)を押下します。 プロパティ画面にて、「Setup Microsoft Consent」をクリックし、 連携先テナントの管理者アカウントにて認証を実施します。 終わりに 今回は、SCIM連携にてユーザを管理するための一連の操作を紹介しました。 初期設定こそ必要とするものの、設定後はIdPでユーザを統合管理することが可能となり、 運用負担を大きく軽減することが可能です。 Entra IDをはじめとするIdPサービスを利用している組織では、ぜひ積極的に活用してみてください。
こんにちは、石原です。 最近、AWS上のデータベースのバージョンアップの検証を行うタイミングで 「Insight SQL Testing」 を触る機会があったので、こちらの製品についてご紹介いたします。 Insight SQL Testingとは? Insight SQL Testingはインサイトテクノロジー社が提供している製品になります。 Insight SQL Testing - 株式会社インサイトテクノロジー データベース移行及びバージョンアップ向けSQLテストソフトウェア。異種データベース間でSQLのテストができる唯一の製品。 www.insight-tec.com Insight SQL Testingは、データベース移行やバージョンアップに伴うSQLテストを効率化するためのソフトウェアになります。このツールは、データベース移行やバージョンアップ時の工数を大幅に削減し、性能や互換性を確認して修正が必要なSQLを検出することができます。 こちらの製品には以下のような特徴があります。 ①マルチデータベース対応 Oracle をはじめ、様々なデータベースをサポートしています。 ②自動SQL収集 本番環境で実行されるSQLを自動(または手動)で収集し、テストを実行することができます。これにより、手動での作業を大幅に削減できます。 ③異種データベース間のテスト 異なるデータベース製品間でのSQLテストを行うことができ、移行時の問題点を洗い出すことができます。 MySQLのバージョンアップで使ってみた データベースのバージョンアップを行うことにより内部動作が大きく変わることがあります。そこまで動作が変わらないだろうと思い、バージョンアップした後に今まで実施していた処理を流してみたらエラーになったという話はよく聞くと思います。では事前にバージョンアップさせた検証機を作成し、テストしようとしても結局どれの処理で問題が起きエラーになったのか、処理が遅延が発生したのか切り分けていくのは大変です。 今回は、このような検証を一括で容易に行えるInsight SQL Testingを用いることでどのような結果が得られるか、本当にSQLテストを効率化させることができるのか試してみました。なお用いたデータベースはMySQLになるため、本内容もMySQLに特化した内容となる点はあらかじめご了承ください。 Insight SQL Testingを利用するうえで用意するもの 今回私がInsight SQL Testing環境を用意するにあたり、AWS上で実施しました。そのためAWS観点で使用する前提の内容とはなりますが、具体的には AWS Marketplace から SQL Testing Manager のAmazon マシンイメージを入手してInsight SQL Testing用の EC2 を用意しました。 後は、別途以下を用意する必要があります。Insight SQL Testingにこれらの環境を自動で生成する能力はないので、頑張って用意します。いずれもAWS上にあるRDSになります。 ①移行元のジェネラルログ ※ジェネラルログは一般ログと呼称する場合もありますが、ここではジェネラルログで統一します。 ②移行元のコピーDB(A) ※コピー後にバージョンアップした環境 ③移行元のコピーDB(B) それぞれについて用途を説明します。 ①移行元のジェネラルログ このログはMySQL環境で出力されるログであり、データベース内で実行されるすべてのSQLの処理を記録します。SELECT文も含め、全部のSQLを記録するのですからMySQLは凄いですね。この特性を持つジェネラルログを利用して移行元で作成されるジェネラルログをまるっとInsight SQL Testing側に読み込ませます。ちなみにユーザー情報もセットで読み込ませることができるので、最終的には不要なユーザーの処理を省くことも可能です。 ②移行元のコピーDB(A) ※コピー後にバージョンアップした環境 これは移行元のコピー環境を用意し、その後目的のバージョンまで引き上げたものです。Insight SQL Testingで読み込ませた処理をこの環境に実行することになります。Insight SQL Testingで読み取った処理は元々はバージョンアップ前では正常に実行できていたものなので、それをバージョンアップした環境で実行するとどうなるかデータの互換性を確認することができます。 ③移行元のコピーDB(B) これはコピーDB(A)同様、移行元のスナップショットなどのバックアップから作成したものです。目的としてはバージョンアップした環境との対比として使用します。移行元のコピー環境Bも用いることでパフォーマンス観点からも確認が行えるようになります。 Insight SQL Testingの操作 環境が揃った状態で、いよいよInsight SQL Testingを操作していきます。操作は大きく分けると以下のような感じになります。 ①ログの読み込み 取り込み方は色々用意されており、実際に移行元につないでQueryの情報を引っ張って来ることも可能です。 今回の場合は、MySQLのジェネラルログをローカルに配置し、そのログを直接読ませて取り込むという方法で実施しました。 ②SQLを流す先のDBの登録 前の記載内容の移行元のコピー環境Bとバージョンアップした環境AをInsight SQL Testingに認識させます。 ③SQLを実行し結果をみる あとは実際に登録したDBに対して読み込んだログの内容を実行をします。バージョンアップ前(コピーDB(B))と後(コピーDB(A))の2つの環境に対して、Insight SQL Testingに読み込ませた処理をInsight SQL Testingの命令によって実行させます。Insight SQL Testingは最終的にパフォーマンス結果や処理の失敗などをまとめて報告してくれるので実際のバージョンアップ前に事前に問題の洗い出しが可能となります。 結果から得られるもの 具体的には以下の項目が確認できます。 ①ターゲットDBでのみ失敗 ②テスト用ソースDBでのみ失敗 ③両DBで失敗 ④結果が相違 ⑤性能が劣化 ⑥成功 最後にそれぞれについて簡単に説明します。 ①ターゲットDBでのみ失敗 ここでいうターゲットDBは「バージョンアップしたDB(A)」を指します。ここに引っかかったSQLはバージョンアップの影響で失敗した可能性が高いといえます。もちろん、そのSQLについて念のために再実行するなどして再現性は確認した方がいいとは思います。なお、Insight SQL Testing内で任意のSQLを実行する画面もあるので、そこから再実行可能です。 ②テスト用ソースDBでのみ失敗 このテスト用ソースDBは「移行元のコピーDB(B)」を指します。本来、ここで失敗することはないと思われます。失敗する可能性としては、例えば移行元のコピーとして用意していますが、その後、コピー元またはコピー先で操作(テーブルなどの作成)を実施しその影響でテーブルがコピー先にないことや逆に既に表が存在するなどが考えられます。 ③両DBで失敗 これは記載どおり、「バージョンアップしたDB(A)」および「移行元のコピーDB(B)」で処理が失敗したSQLになります。これも②同様、ここに載って来る可能性は少ないと考えられます。 ただし、例えば以前実行したことがあるInsert文を含むジェネラルログを実行した場合、Insert先がPRIMARY KEY制約などを持った表の場合には失敗することがあります。 ④結果が相違 こちらはSQL自体、両DBともに正常に実行できたが、 処理の結果として影響があった件数が異なる場合や、処理結果自体が異なる場合(ソート順の仕様変更等に起因するものなど)にカウントされます 。基本はSELECTの結果になりますが、他にDMLやSHOWコマンドなどの結果も対象となります。こちらに該当したものは、ただ単に②のような環境コピー後の差異の影響であるのか、またはバージョンアップによる影響や③のようなDMLを重複実行している場合など確認が必要になります。 ⑤性能が劣化 今までのような問題が発生しない場合、⑤か⑥に振り分けられます。実行速度が、 「コピーDB(B)」> 「バージョンアップしたDB(A)」になったSQLがこちらになります。なお、デフォルトの設定を満たしてしまうと劣化扱いになります。そのため、アセスメントの設定において、遅延をどれだけ容認できるか設定しておくことが重要です。設定には秒数だけなく割合も指定することが可能です。実際に実行する場合は、事前にここの設定を行ったうえで実施することがお勧めです。 ⑥成功 以下を満たしたものが対象となります。 ・ 「エラーにならない」 ・「結果も同じ」 ・「処理時間も今まで以下」 基本的に、こちらの枠に入ったSQLは特にバージョンアップにおいて考慮する必要はありません。 一例ですが、以下のように振り分けられます。ステータスは先の画像から判断できます。以下は意図的に各項目に引っかかるような処理をジェネラルログ上に出力させ、Insight SQL Testingから処理を実行したものなのですべてのパターンを網羅した表記になっています。 これらの結果を踏まえて、再度調整してSQLを実行したりしながらバージョンアップの問題点を解決していきます。 まとめ 今回、Insight SQL Testingを操作するにあたって簡単に概要や操作の流れをまとめてみました。 Insight SQL Testingを用いても失敗した処理などにおいて、改善する方法は提示されることはありませんが、Insight SQL Testingを用いた方がより短時間で確実なバージョンアップまたは別DB移行などが出来そうです。改良の余地がある点はありますが、これは今後に期待です。 今回は簡単に全体の流れからどのようなものが確認できるのかをブログで記載してみました。もっと詳しく細かく知りたい方のために、今後具体的にインストールから実行結果、Insight SQL Testingを扱う際の注意事項を今後も取り上げていこうと思います。 少しでもInsight SQL Testingについて興味を持っていただければ幸いです。
こんにちは。SCSKの山口です。 今回は、Google Cloud認定資格の受験レポート その➁です。 その①のブログ をご覧になった方はお察しかもしれないですが、Associate Data Practitionerに無事一発合格したので、受験後のレポートを書きます。 はじめに その①ブログにも書いた通り、(記憶に残っている範囲で)下記について書きます。 今回はサクッと読める分量で書きたいと思います。 [受験後] ・合否(もう書いた。) ・出題内容(受験前の想定とのギャップ) ・(追加で)抑えておいた方が良い要点 なお、今回書く内容はあくまで2025.03時点の情報です。試験内容が変更になる可能性もありますので、最新の情報は公式ドキュメント等をご確認ください。 出題内容 実際の試験に多く出てきた要点を書きます。詳細な内容は その①のブログ に詰め込んでいるので、そちらをご確認ください。 ETL/ELT で登場するサービス 体感、半分くらいの問題がコレ関連でした。 ・Dataflow ・Dataproc ・Data Fusion ・Cloud Composer このあたりの概要、特徴、ユースケースは確実に抑えておく必要があります。 また、 ETLなのかELTなのかの使い分け も問われます。問題文に ロードする前に変換する必要がある(ETL) リアルタイムにデータを取り込んで処理したい(ELT) など、ヒントとなる文が書いてあるので、注意深く読めば選べる問題ばかりだと思います。 データ転送ツール これもよく聞かれました。 ・BigQuery Data Transfer Service ・Storage Transfer Service ・Transfer Appliance この辺りは特徴とユースケースを抑えておいた方が良いです。 BigQuery やっぱり多くの問題に登場しました。 BigQuery を「データ分析基盤」として活用する使い方や、Google Cloud上での「AI/ML活用を見据えたデータシンク」として活用する使い方が出てきました。 また、BigQuery の機能もそうですが、その①ブログでも書いていた ・アクセス制御 ・暗号化 ・パーティショニング も予想通り問題に登場していました。 Cloud Storage BigQuery まではいかないものの、こちらも多くの問題に登場していました。 その①のブログにも書いていた ・冗長化と高可用性 ・ストレージクラス この辺りは押さえておいた方が良いです。 Looker 2,3問ほど登場しました。 そこまで登場回数は多くないものの、 ・Lookerの用語(Explorer、View、Dimension、Majorなど) ・アクセス制御 ・他メンバとのダッシュボード共有方法 あたりを抑えておくと安心です。 追加で抑えておいた方が良い要点 実際に試験を受けて、その①のブログでは書けていなかった(予想外だった)要点を書きます。 Dataform Dataformに関する問題が数問出てきました。明らかにダミーの選択肢に登場するのではなく、 Dataformの概要を把握したうえで判断すべき問題 として登場していました。 概要はここで書くと長くなるので、 公式のドキュメント をご確認ください。 BigQuery ML こちらも数問出てきました。 BigQuery に貯めているデータに対してMLを活用する際に、 ・要件に合わせた適切なモデル ・実際に実行すべきSQL を選択させる問題が登場します。 過去にブログにまとめていますので、ぜひこちらをご覧ください。 BigQuery MLを触りたいときに読むブログ BigQuery MLで作成した線形回帰モデルを評価してみる BigQueryML ARIMA PLUSモデルで時系列予測してみる まとめ その①のブログの内容はかなりヒットしていたかなと思います。本ブログでは、その①でカバーできていなかった点も書いたので、この日本のブログの範囲を理解できていれば合格は難しくないと思います。 が、人によっては「試験が英語なのがチョット、、」となっている方も多いと思います。 Google Cloud全冠を目指す方にとっては避けて通れないのがいくつかの英語試験です。 私流の英語試験の解き方のコツ。みたいなのもまた発信できたらと思っています。
CloudWatch Agentの設定ファイルについて、どのファイルが読み込まれているのか、理解があやふやだったので整理してみました。 設定ファイルの文法などには触れていません。どこに作ってどう反映されるのかを理解できれば幸いです。 設定ファイルの構成 CloudWatch Agentの設定ファイルは通常、/opt/aws/amazon-cloudwatch-agent/etc/ に配置されます。 大体は以下のようになっているでしょう。 /opt/aws/amazon-cloudwatch-agent/etc/ ┣ amazon-cloudwatch-agent.d ┣ amazon-cloudwatch-agent.json ┣ amazon-cloudwatch-agent.toml ┣ amazon-cloudwatch-agent.yaml ┣ common-config.toml ┣ env-config.json ┗ log-config.json amazon-cloudwatch-agent.json は導入直後は存在しません。ユーザが作成する設定ファイルですが、この名前で作成することは推奨されています。この中でユーザが作成する設定ファイルは、 amazon-cloudwatch-agent.d 配下の設定ファイル amazon-cloudwatch-agent.json の2つです。Agentは両方を参照しています。また、片方が無くても動作しますが、両方無いとアウトです。 あまりやってる人はいないと思いますが、 設定ファイルは複数に分けて持つことができます。 Agent起動時の設定ファイルの読み込み CloudWatch Agentの起動時は、上記の設定ファイルは以下のように使用されているようです。 設定ファイルをマージしてamazon-cloudwatch-agent.toml ファイルを生成し、Agent は.toml を参照して動作しています。 このマージ動作はAgent起動のたびに実行されています。 Agentの起動コマンドは以下です。systemctl startでも起動しますが、こちらで起動するのが正式です。 sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a start 設定ファイルの反映 設定ファイルの作成について、前述のamazon-cloudwatch-agent.json として作成する場合は話すことはありません。手動あるいはwizard で指定の名前としてファイルを作成すればいいです。(この場合は後続のfetch/append/remove コマンドは関係ありません。) 一方、amazon-cloudwatch-agent.d に設定ファイルを作成する場合は、ファイルを直接作成することは推奨されていないようで、作法があります。以下、3通りのコマンドがあるので使い分けます。 fetch-config 任意の場所に作成された設定ファイルを読み込み、amazon-cloudwatch-agent.d にコピーしてtoml ファイルを生成します。 尚、 既存の設定は削除されます。 破棄される内容は amazon-cloudwatch-agent.d 配下の設定ファイル amazon-cloudwatch-agent.json なので注意しましょう。図で書くとこうです。 sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config -m ec2 -c file:/path/to/json/sample.json 指定されたファイルは頭に”file_”がついた状態でamazon-cloudwatch-agent.d/ にコピーされ、.tomlに変換されます。 append-config 任意の場所に作成された設定ファイルを読み込み、amazon-cloudwatch-agent.d にコピーしてtoml ファイルを生成します。 尚、 既存の設定は維持されます。 このため、設定内容を追加する場合で、既存の設定ファイルを触りたくない場合に使用します。 fetchと同様に、指定されたファイルは頭にfile_がついた名前でコピーされます。 sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a append-config -m ec2 -c file:/path/to/json/sample.json remove-config 指定した設定ファイルをamazon-cloudwatch-agent.d/ から削除した上で、.toml ファイルを生成します。 こちらも 既存の設定は維持されます。 amazon-cloudwatch-agent.json(あれば)と、amazon-cloudwatch-agent.d/ 内の指定されたファイル以外で.toml が生成されます。 sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a remove-config -m ec2 -c file:sample.json コマンドに指定のfileについては、file_ を除いたファイル名のみを指定します。 手動削除もよいのでしょうが、その場合は.tomlファイルへの変換が行われません。 (しかしAgent起動時にはやはり.tomlへの変換が行われているようであり、結果として問題にはなりませんが。。) まとめ CloudWatch Agentの設定ファイルについて、結局どのファイルが使用されるのかがぼんやりしていたため、実験してひも解いてみました。あまり設定が変わらない場合については直接 amazon-cloudwatch-agent.json として作成してAgentの再起動で反映するのが簡単です。 複雑な設定ファイルや更新が頻繁になる場合には、用途ごとに設定ファイルをappendして使用することも考慮に入ってくるのかと思います。 この記事が参考になる人が一人でもいたら幸いです。