TECH PLAY

サイオステクノロジー(Tech.Lab)

サイオステクノロジー(Tech.Lab) の技術ブログ

546

こんにちは。サイオステクノロジー OSS サポート担当 山本 です。 今回も solr のお話です。 solr スキーマの数多ある “ フィルタ ” から、比較的効果が実感しやすいと思われる応用フィルタ Synonym (同義語・類義語) についてお話してみようと思います。 ■solr の Synonym ってどういうもの? Synonym は先述のとおり 同義語 または 類義語 を示す言葉です。 文字通り、同じような意味の言葉や似たような意味の言葉のことで、 例えば「青」と「ブルー」は同義語ですし、「お皿」と「プレート」は類義語と言えるでしょう。 ところで、改めてですが solr は インデックス という仕組みを使って 予め登録しておいた一連のデータ である ドキュメント から高速な 文字列検索 を行うことに特化した、全文検索 OSS です。 そう、solr はインデックスの 文字列検索 によってドキュメントを検索しています。 なので、当たり前と言えば当たり前ですがデフォルトでは 「 青 」で検索しても「 ブルー 」のドキュメントは 出てきません 。 でも、仮に自分が検索する側として考えてみてください。 例えばショッピングサイトで、「カーテン 青」で検索した場合と「カーテン ブルー」で検索した場合の検索結果が全く違っていたら? それらの検索結果で出てきたもの以外にも、「カーテン 藍色」「カーテン ネイビー」などで検索すると別の青色系カーテンのラインナップがあったりしたら? きっと不便と言うか機会損失というか、「いや、まとめて出してくれよ…」と思うことでしょう。 solr の Synonym は、こういった 同一の検索ワードとして扱ってほしい同義語・類義語の組 を 予め登録 しておくことで、検索ワードの同義語・類義語も一緒に検索できるようにする仕組みです。 Synonym はまた、「パソコン」と「PC」、「パーソナルコンピュータ」といったような 略記・略称・通称・正式名称 などが混在するドキュメント群をいい感じに検索できるようにするためなどにも使うことができます。 ■Synonym を使ってみる というわけで Synonym を試してみましょう。 今回も前回までで使用した環境 “test-new-core” に Synonym の設定を追加して試していきます。 (前回までの内容は省略するため、ベースとなるコアの作り方などのお話は以前の記事を参照してください。) Synonym を使うには、 Synonym 用の辞書 の作成をした上で、Synonym を使用するように スキーマファイルの設定を変更 する必要があります。 ■辞書の作成 まずは辞書を作ってみます。 例によってデモ用環境のコア “demo” にサンプルが入っているので、まずはこちらを確認してみましょう。 以下のコマンドで前回までに作成した環境を起動し、サンプルを手元の環境にコピーします。 ## (デモ用環境起動) $ podman start test-solr ## (Synonym 辞書サンプルのコピー) $ podman cp test-solr:/var/solr/data/demo/conf/synonyms.txt ./ 手元の環境にコピーした Synonym のサンプルファイル “ synonyms.txt ” を適当なテキストエディタで開き、まずは内容を確認してみます。 行頭が “#” の行はコメント行扱いとなるので、(ファイルの先頭のユーザ辞書の説明コメント部分を除くと) このファイルはこのような記述がされています。 #some test synonym mappings unlikely to appear in real input text aaafoo => aaabar bbbfoo => bbbfoo bbbbar cccfoo => cccbar cccbaz fooaaa,baraaa,bazaaa # Some synonym groups specific to this example GB,gib,gigabyte,gigabytes MB,mib,megabyte,megabytes Television, Televisions, TV, TVs #notice we use "gib" instead of "GiB" so any WordDelimiterGraphFilter coming #after us won't split it into two words. # Synonym mappings can be used for spelling correction too pixima => pixma ざっくりと 2種類の書式がありそうな、普通のテキストファイルであることがわかりますね。 それぞれの書式についてまず見ておきましょう。 [類義語A](,[類義語B],…) => [類義語C](,[類義語D],…) まず “=>” があるほうのこちらの書式ですが、 [類義語A] ( または [類義語B]…) を、[類義語C] ( および [類義語D]…) に変換する というものです。 例えば、上記のサンプルファイルの cccfoo => cccbar cccbaz は、「cccfoo」が「cccbar」+「cccbaz」に変換されるようにする記述です。(Synonym 処理後、 元の「cccfoo」は残りません 。) ※ 上記サンプルファイルの抜粋では 半角スペース 区切りで類義語を列挙していますが、 公式ドキュメント の Synonym の書式では “ , (カンマ) ” で分割するように記載されています。試したバージョンではいずれの記法でも機能しましたが、本記事では “ , (カンマ) ” 区切りで記載していきます。 つづいてもう片方の書式です。 [類義語E],[類義語F](,[類義語G],…) “, (カンマ)” 区切りでただ列挙するこちらの書式では、 列挙した類義語の いずれか が、列挙した類義語 全て に変換 されます。 例えば上記サンプルファイルの GB,gib,gigabyte,gigabytes は、「GB」「gib」「gigabyte」「gigabytes」のいずれも「GB」+「gib」+「gigabyte」+「gigabytes」に変換されるようにする記述になります。 さて、書き方はなんとなくわかったかと思いますので、試しに何か Synonym を追加してみましょう。 今回は果物の名前で試してみることにします。 今確認している、手元に持ってきた “synonyms.txt” の末尾に以下の記述を追加してみます。 ぶどう,葡萄,グレープ 林檎,アップル => りんご strawberry,苺 => ストロベリー,いちご 設定を追加したら、この “synonyms.txt” を “test-new-core” のディレクトリに配置します。 配置箇所はスキーマファイル “managed-schema.xml” から相対パスで指定できる場所なら大丈夫なはずですが、今回は “managed-schema.xml” と同じ conf 直下に配置しましょう。 $ podman cp ./synonyms.txt test-solr:/var/solr/data/test-new-core/conf/synonyms.txt これで Synonym 設定ファイルの準備は OK です。 ■Synonym フィルタの設定 次に、スキーマファイル “managed-schema.xml” に Synonym を使用する設定を追加します。 実験用コア “test-new-core” のスキーマファイル “managed-schema.xml” を一旦手元に持ってきて… (デモ用コンテナにはテキストエディタがないため) $ podman cp test-solr:/var/solr/data/test-new-core/conf/managed-schema.xml ./managed-schema.xml このスキーマで日本語解析の設定を行なっている部分の “<analyzer>” 要素の中に、Synonym を処理する “ synonymGraph ” の <filter> 要素を追加します。 ここで、この <filter> 要素を追加する位置は極めて重要 になりますが、今回は “cjkWidth” フィルタの後ろに置いてみましょう。 &ltfieldType name="text_ja" class="solr.TextField" autoGeneratePhraseQueries="false" positionIncrementGap="100"> &ltanalyzer> &lttokenizer mode="search" name="japanese" userDictionary="lang/userdict_ja.txt" /> &ltfilter name="japaneseBaseForm"/> &ltfilter tags="lang/stoptags_ja.txt" name="japanesePartOfSpeechStop"/> &ltfilter name="cjkWidth"/> &ltfilter ignoreCase="true" synonyms="synonyms.txt" name="synonymGraph" expand="true"/> &ltfilter ignoreCase="true" words="lang/stopwords_ja.txt" name="stop"/> &ltfilter name="japaneseKatakanaStem" minimumLength="4"/> &ltfilter name="lowercase"/> &lt/analyzer> &lt/fieldType> 設定を変更したら、この “managed-schema.xml” をコア “test-new-core” に戻します。 $ podman cp ./managed-schema.xml test-solr:/var/solr/data/test-new-core/conf/managed-schema.xml これで Synonym を使うように設定ができました。 ■設定の適用と Synonym 処理の確認 それでは、Synonym の処理を確認してみます。 変更したスキーマの設定を読み込むため、”test-new-core” をリロードします。 コマンドでリロードするなら以下のようなコマンドを $ curl -X POST http://(IP or ホスト名):8984/api/cores/test-new-core/reload 管理画面でリロードするなら “ Core Admin ” の画面から対象のコアを選択して、” Reload ” ボタンを押してください。 これで “test-new-core” で Synonym を処理する設定を適用できました。 早速、管理画面で試してみましょう。 “Core Selector” タブで test-new-core を選び、” Analysis ” を開いて、Synonym を適用した FieldType “text_ja” で先ほど追加した Synonym が処理されるのかを確認してみましょう。 ぶどう,葡萄,グレープ 「ぶどう」「グレープ」(と「葡萄」)のいずれを解析した場合でも、解析結果が「ぶどう」「葡萄」「グレープ」の3単語になることが確認できます。 林檎,アップル => りんご “=>” の左辺にある「林檎」(または「アップル」) を解析した場合、解析結果が “=>” 右辺の「りんご」になることが確認できます。 逆に、”=>” の右辺にある「りんご」を解析した場合は「りんご」のままです。 strawberry,苺 => ストロベリー,いちご “=>” の左辺にある「strawberry」(または「苺」) を解析した場合、解析結果は “=>” 右辺の「ストロベリー」「いちご」の2単語になることが確認できます。 逆に、”=>” の右辺にある「いちご」(または「ストロベリー」)を解析した場合は「いちご」(または「ストロベリー」)のままです。 このように、先にお話ししたとおりの結果になることが確認できるかと思います。 ということで、これで Synonym の設定方法は大丈夫そうですね。 ただし、 Synonym を追加した場合 (フィルタの追加などで解析方法を変更した場合)、当然ながら解析結果は変わります 。 そして、前回長々とお話ししたとおり、 solr の検索の要である インデックス は ドキュメントの登録時の解析結果 を元にしており、 後の設定変更には対応していません 。 このため、原則として Synonym を追加した場合 (勿論、他のフィルタを追加した場合などにも) は、登録済みのドキュメント・インデックスを一度削除して登録処理をやり直す 再インデックス が必要 になります。 ■Synonym とフィルタ順序 スキーマで “<filter>” 要素を追加する位置が重要 である、と先にお話ししましたが、こちらについて少し見てみましょう。 まず、今回行なった設定の状態で全角の「グレープ」と半角の「グレープ」をそれぞれ解析してみてください。 どちらも問題なく今回設定した Synonym により「ぶどう」「葡萄」「グレープ」の3単語に解析されるはずです。 では、”test-new-core” の “managed-schema.xml” で以下のように設定を変更してみてください。 (“synonymGraph” フィルタを、一行前の “cjkWidth” フィルタの前に持ってきます) #### 変更前 &ltfieldType name="text_ja" class="solr.TextField" autoGeneratePhraseQueries="false" positionIncrementGap="100"> &ltanalyzer> &lttokenizer mode="search" name="japanese" userDictionary="lang/userdict_ja.txt" /> &ltfilter name="japaneseBaseForm"/> &ltfilter tags="lang/stoptags_ja.txt" name="japanesePartOfSpeechStop"/> &ltfilter name="cjkWidth"/> &ltfilter ignoreCase="true" synonyms="synonyms.txt" name="synonymGraph" expand="true"/> &ltfilter ignoreCase="true" words="lang/stopwords_ja.txt" name="stop"/> &ltfilter name="japaneseKatakanaStem" minimumLength="4"/> &ltfilter name="lowercase"/> &lt/analyzer> &lt/fieldType> #### 変更後 &ltfieldType name="text_ja" class="solr.TextField" autoGeneratePhraseQueries="false" positionIncrementGap="100"> &ltanalyzer> &lttokenizer mode="search" name="japanese" userDictionary="lang/userdict_ja.txt" /> &ltfilter name="japaneseBaseForm"/> &ltfilter tags="lang/stoptags_ja.txt" name="japanesePartOfSpeechStop"/> &ltfilter ignoreCase="true" synonyms="synonyms.txt" name="synonymGraph" expand="true"/> &ltfilter name="cjkWidth"/> &ltfilter ignoreCase="true" words="lang/stopwords_ja.txt" name="stop"/> &ltfilter name="japaneseKatakanaStem" minimumLength="4"/> &ltfilter name="lowercase"/> &lt/analyzer> &lt/fieldType> 設定変更の後に “test-new-core” のリロードを行ったら、再度全角の「グレープ」と半角の「グレープ」をそれぞれ解析してみてください。 このとおり、半角の「グレープ」は今回設定した Synonym が適用されなくなっています。 なぜこのようなことになるかと言うと……  1. 解析処理は “managed-schema.xml” の 設定の上から順に 行われる  2. Synonym フィルタは日本語の半角文字と全角文字を区別している  3. 順序を入れ替えた “cjkWidth” フィルタが日本語の半角文字を全角文字に変換するフィルタだった ……からです。 このことからわかるように、 フィルタの設定順序は解析結果に大きく影響を与える 可能性があります。(これは即ち、検索結果がおかしくなる可能性があるということです。) そして、Synonym については Synonym フィルタを適用する時点での解析結果に合致させるように記述 しなければ効果がないということもわかるかと思います。 このため、Synonym を使いこなすには、もといフィルタを追加・変更する場合には、 事前に各フィルタの処理内容を把握しておくことが極めて重要 と言えます。 → Solr Reference Guide ■ちょっと高度な設定:インデックス登録時と検索時の解析方法を別々にする ここからは大分はみ出したお話しです。 まずは今回 Synonym に設定したこれをもう一度見てください。 ぶどう,葡萄,グレープ これは今回見てきたとおり「ぶどう」または「葡萄」「グレープ」を、これら3単語の全てを含むように変換する設定です。 ところで、solr は (解析結果で出てきた単語では) 原則 or 検索をします。 なので、よくよく考えてみると……  ・インデックス作成時にこの Synonym 処理をした場合、検索時には「ぶどう」「葡萄」「グレープ」のうちいずれか1つの単語が含まれていればよいため、検索時にはこの Synonym 処理をしなくても正常に意図したとおりの検索できる  ・検索時にこの Synonym 処理をしていれば、「ぶどう」「葡萄」「グレープ」のどれで検索しても、インデックスに「ぶどう」「葡萄」「グレープ」のいずれかを含むドキュメント全てに hit するため、インデックス作成時にこの Synonym 処理をしていなくても正常に意図したとおり検索できる ……ということで、実はインデックス時か検索時のどちらかでだけこの Synonym 処理をすれば事足りています。 特に、検索時だけ Synonym 処理をする場合は再インデックス処理の必要もなくなるので、Synonym 設定変更時の手間も減りそうです。(インデックスの容量削減も見込めます。) これを実現するための設定方法があるので、一応ここで紹介しておきます。 今回の設定変更を施した “test-new-core” の “managed-schema.xml” の変更例を見てみましょう。 #### 変更前 &ltfieldType name="text_ja" class="solr.TextField" autoGeneratePhraseQueries="false" positionIncrementGap="100"> &ltanalyzer> &lttokenizer mode="search" name="japanese" userDictionary="lang/userdict_ja.txt" /> &ltfilter name="japaneseBaseForm"/> &ltfilter tags="lang/stoptags_ja.txt" name="japanesePartOfSpeechStop"/> &ltfilter ignoreCase="true" synonyms="synonyms.txt" name="synonymGraph" expand="true"/> &ltfilter name="cjkWidth"/> &ltfilter ignoreCase="true" words="lang/stopwords_ja.txt" name="stop"/> &ltfilter name="japaneseKatakanaStem" minimumLength="4"/> &ltfilter name="lowercase"/> &lt/analyzer> &lt/fieldType> #### 変更後 &ltfieldType name="text_ja" class="solr.TextField" autoGeneratePhraseQueries="false" positionIncrementGap="100"> &ltanalyzer type="index"> &lttokenizer mode="search" name="japanese" userDictionary="lang/userdict_ja.txt" /> &ltfilter name="japaneseBaseForm"/> &ltfilter tags="lang/stoptags_ja.txt" name="japanesePartOfSpeechStop"/> &ltfilter name="cjkWidth"/> &ltfilter ignoreCase="true" words="lang/stopwords_ja.txt" name="stop"/> &ltfilter name="japaneseKatakanaStem" minimumLength="4"/> &ltfilter name="lowercase"/> &lt/analyzer> &ltanalyzer type="query"> &lttokenizer mode="search" name="japanese" userDictionary="lang/userdict_ja.txt" /> &ltfilter name="japaneseBaseForm"/> &ltfilter tags="lang/stoptags_ja.txt" name="japanesePartOfSpeechStop"/> &ltfilter name="cjkWidth"/> &ltfilter ignoreCase="true" synonyms="synonyms.txt" name="synonymGraph" expand="true"/> &ltfilter ignoreCase="true" words="lang/stopwords_ja.txt" name="stop"/> &ltfilter name="japaneseKatakanaStem" minimumLength="4"/> &ltfilter name="lowercase"/> &lt/analyzer> &lt/fieldType> 大規模に変更しているように見えますが、概ね <analyzer> ~ </analyzer> をコピーして 2つにしただけです。 <analyzer> にはそれぞれ “type” オプションを設定します。 “index” はインデックス時、”query” のほうは検索時の解析方法を設定 します。 この例では更に、”query” 側にだけ “synonymGraph” フィルタを設定しています。 折角なのでこの設定も一応試してみましょう。 “managed-schema.xml” の配置と設定のリロードを行なったら、例によって “Analysis” ページで確認していきます。 実はこのページ、左側がインデックス時の解析、右側が検索時の解析となっているため、この変更のチェックに最適だったりします。 このとおり、設定どおりに検索時にのみ Synonym 処理がされていることが確認できるかと思います。 ただ、解析方法を変えるということは言うまでもなく解析結果も変わるということです。 solr はインデックス時と検索時それぞれの解析結果をもって検索を行うため、これはつまり下手をすれば検索が機能しなくなる危険性があるということです。 例えば今回のこの Synonym 設定です。 林檎,アップル => りんご このセクションでの “managed-schema.xml” の設定下では、  ・インデックス時は Synonym 処理がされないので、インデックスには「林檎」や「アップル」で登録される  ・検索時には Synonym 処理されるので、「林檎」で検索しても「りんご」のインデックスを持つドキュメントしか出てこない (「林檎」で検索しているのに「林檎」のインデックスを持つドキュメントが出てこない) というおかしなことになってしまいます。 この解析方法の分割設定を実施したい場合、自分が何をしようとしているのか、本当に設定しても大丈夫なのかを十分に検討した上で、細心の注意を払い、入念に検証を行なった上で取り掛かることをおすすめします。 ■最後に 今回は solr の Synonym とフィルタ設定についてお話ししてみました。 ここまで数回に渡って solr についてお話しして何となく察してもらえたかと思いますが、 solr は導入して適当にデータを入れれば即便利!というもの ではなく 、 入念な準備と工夫 をすることで 検索時 の利便性・快適さ を提供できるツールです。 なので、solr が力を発揮するのは例えばマニュアルサイトや EC サイトなど、不特定多数の人が検索を行い得る環境であると言えるでしょう。 今回の一連の記事で一通りの基本的な要素をお話しできたかとは思いますが、他にもあいまい検索や N-Gram 検索を実装したりなど様々な設定・フィルタがありますので、気になった方は是非一度試して自分なりの最強の検索環境を作ってみてはいかがでしょうか。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Solr って何者?⑤:解析内容を調整する② (Synonym) first appeared on SIOS Tech. Lab .
アバター
こんにちは、サイオステクノロジーの遠藤です。 前回はReact Router v7でMSWを利用する方法を整理しました。 2025-02-27 React Router v7のブラウザ開発環境でMSWを利用する方法 今回はNext.jsのApp routerでMSW(Mock Service Worker)を利用する方法について整理していきます。 はじめに 今回の内容は以下のDraft状態のmsw exampleのPull requestを参考に作成しています。 https://github.com/mswjs/examples/pull/101 記事執筆を行っている2025/03の段階ではDraftかつ、Next.js側の問題でブラウザ側でのHMR(Hot Module Replacement) の問題があることが以下のissueで言及されています。 https://github.com/mswjs/msw/issues/1644#issuecomment-2433234922 時間が経てば状況が変わることが予想されますので、そのときには本記事は参考程度にしていただき、上記のPull requestやissueの内容を確認していただければと思います。 MSWの準備を行う MSWを使用するために各種準備を行っていきます。Next.jsアプリは用意済みという前提で進めていきます。 MSWをインストールする 最初にMSWのインストールを行います。 npm install msw -D mockServiceWorker.jsをコピー MSWでは、worker scriptをアプリケーションのpulbicディレクトリに配置することでクライアント上でリクエストをキャッチできるようになります。こちらは以下の形でMSWのCLIを利用することで自分のディレクトリにworkerscriptである mockServiceWorker.jsがpublic直下に作成されます。 npx msw init ./public --save 統合モジュールを用意する server componentsとclient componentsで利用する統合モジュールを用意していきます。これらのファイルを配置するディレクトリとしてプロジェクトのrootディレクトリにmocksというディレクトリを用意してその中にファイルを配置していきます。 MSWのhandlersを定義する mockの内容となるMSWのhandlersをmocks/handlers.tsに定義します。 // mocks/handlers.ts import { graphql, http, HttpResponse } from "msw"; export type User = { firstName: string; lastName: string; }; export type Movie = { id: string; title: string; }; export const handlers = [ http.get<never, never, User>("<https://api.example.com/user>", () => { return HttpResponse.json({ firstName: "Sarah", lastName: "Maverick", }); }), graphql.query<{ movies: Array<Movie> }>("ListMovies", () => { return HttpResponse.json({ data: { movies: [ { id: "6c6dba95-e027-4fe2-acab-e8c155a7f0ff", title: "123 Lord of The Rings", }, { id: "a2ae7712-75a7-47bb-82a9-8ed668e00fe3", title: "The Matrix", }, { id: "916fa462-3903-4656-9e76-3f182b37c56f", title: "Star Wars: The Empire Strikes Back", }, ], }, }); }), ]; browser用の統合モジュールを作成する browser用(client component用)の統合モジュールをmocks/browser.tsに定義します。 // mocks/browser.ts import { setupWorker } from "msw/browser"; import { handlers } from "./handlers"; export const worker = setupWorker(...handlers); node.js用の統合モジュールを作成する node.js用(server component用)の統合モジュールをmocks/node.jsに定義します。 // mocks/node.ts import { setupServer } from "msw/node"; import { handlers } from "./handlers"; export const server = setupServer(...handlers); App routerでMSWを使用する ここからはapp以下で作業を進めていきます。 MSW用のProviderを作成する layout.tsxでMSW用のProviderをapp/mswProvider.tsxに定義します。このProviderで囲うことで、このProvider内のclient componentについてMSWを利用することが出来るようになります。 // app/mswProvider.tsx "use client"; import { handlers } from "@/mocks/handlers"; import { Suspense, use } from "react"; const mockingEnabledPromise = typeof window !== "undefined" && process.env.NODE_ENV === "development" ? import("@/mocks/browser").then(async ({ worker }) => { await worker.start({ onUnhandledRequest(request, print) { if (request.url.includes("_next")) { return; } print.warning(); }, }); worker.start(); console.log(worker.listHandlers()); }) : Promise.resolve(); export function MSWProvider({ children, }: Readonly<{ children: React.ReactNode; }>) { // If MSW is enabled, we need to wait for the worker to start, // so we wrap the children in a Suspense boundary until it's ready. return ( <Suspense fallback={null}> <MSWProviderWrapper>{children}</MSWProviderWrapper> </Suspense> ); } function MSWProviderWrapper({ children, }: Readonly<{ children: React.ReactNode; }>) { use(mockingEnabledPromise); return children; } layout.tsxでnode.js用の統合モジュールの呼び出しとmsw用のProviderでchildrenをラップする 続いてlayout.tsxにてserver側(Runtimeがnode.js)でMSWが利用できるようにします。また、先ほど作成したmsw用のProviderでchildrenをラップします。ここまで終われば準備完了です! // app/layout.tsx import type { Metadata } from "next"; import { Inter } from "next/font/google"; import { MSWProvider } from "./mswProvider"; if ( process.env.NEXT_RUNTIME === "nodejs" && process.env.NODE_ENV === "development" ) { const { server } = await import("@/mocks/node"); server.listen(); } const inter = Inter({ subsets: ["latin"] }); export const metadata: Metadata = { title: "Create Next App", description: "Generated by create next app", }; export default function RootLayout({ children, }: Readonly<{ children: React.ReactNode; }>) { return ( <html lang="en"> <body className={inter.className}> <MSWProvider>{children}</MSWProvider> </body> </html> ); } server component上でfetchを行ってみる ではまずはserver component上でfetchを行ってみましょう。app/page.tsxでhandlerで定義したapiを呼び出してみましょう。 // app/page.tsx import { User } from "@/mocks/handlers"; async function getUser() { const response = await fetch("<https://api.example.com/user>"); const user = (await response.json()) as User; return user; } export default async function Home() { const user = await getUser(); return ( <main> <p id="server-side-greeting">Hello, {user.firstName}!</p> </main> ); } 開発モードで起動して動作を確認してみると、handlerで定義したレスポンスが取れていることが確認できました! client component上でfetchを行ってみる 続いてclient component上でfetchを行ってみます。client componentとして実行されるように”use client”をつけてapp/movieList.tsxを作成します。 // app/movieList.tsx "use client"; import { Movie } from "@/mocks/handlers"; import { useState } from "react"; export function MovieList() { const [movies, setMovies] = useState<Array<Movie>>([]); const fetchMovies = () => { fetch("/graphql", { method: "POST", headers: { "Content-Type": "application/json", }, body: JSON.stringify({ query: ` query ListMovies { movies { id title } } `, }), }) .then((response) => response.json()) .then((response) => { setMovies(response.data.movies); }) .catch(() => setMovies([])); }; return ( <div> <button id="fetch-movies-button" onClick={fetchMovies}> Fetch movies </button> {movies.length > 0 ? ( <ul id="movies-list"> {movies.map((movie) => ( <li key={movie.id}>{movie.title}</li> ))} </ul> ) : null} </div> ); } page.tsxでmovieList.tsxを呼び出す そしたら作成したmovieList.tsxをpage.tsxに加えて動作を確認してみましょう。 // app/page.tsx import { User } from "@/mocks/handlers"; import { MovieList } from "./movieList"; async function getUser() { const response = await fetch("<https://api.example.com/user>"); const user = (await response.json()) as User; return user; } export default async function Home() { const user = await getUser(); return ( <main> <p id="server-side-greeting">Hello, {user.firstName}!</p> <MovieList /> </main> ); } ページを表示して 「Fetch movies」をクリックするとしっかりとclient component上でもfetch出来ていることを確認できました! まとめ 今回はNext.jsのApp routerでMSWを利用する方法についてまとめました。「はじめに」にも書きましたが、今回紹介した内容はDraftのPull requestを参考にさせていただいたものになっているので、本記事に関しては参考程度にしていただくのが良いかと思います。 ではまた~ 参考にさせていただいた記事 https://github.com/mswjs/msw/issues/1644 https://qiita.com/tarosuke777000/items/622e5ce3e3ace102560a ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Next.jsのApp routerでMSWをserver componentsとclient componentsで利用する方法 first appeared on SIOS Tech. Lab .
アバター
Entra Connectのパスワードの書き戻し(パスワードライトバック)とEntra IDのセルフサービスパスワードリセット(SSPR)を使用してEntra IDでユーザのパスワード変更、リセットを可能にする方法を紹介します。 Entra ConnectはActive Directory(AD)とEntra IDでユーザやグループ情報を同期するサービスです。 Entra IDでユーザのパスワード変更、リセットを可能にすることで、管理者への問い合わせやパスワードリセット作業が減り、人件コストを削減することができます。 今回紹介する方法により、Entra IDでユーザのパスワード変更、リセットを実施し、ADにパスワード情報を同期することができます。 使用環境 Image: Windows Server 2022 Datacenter – x64 Gen2 Size: Standard_D2as_v4 2vcpu 8GiB 前提 Active Directoryが構築済みであること (ドメイン名:example.com、管理者アカウント:EXAMPLE\azureuser) Active DirectoryにEntra ID同期対象のOUが含まれていること (OU名:Example Users) Entra Connectサーバが、ADサーバに対してドメイン参加済み (アカウント:EXAMPLE\exampleadmin)であること Entra IDのテナントが用意されていること Entra Connectのインストール インストール方法は過去の記事を参考にすることができます。当時はAzure Active Directory Connect (AADC)という名称でしたが、2025年2月現在はMicrosoft Entra Connect Sync (Entra Connect)となっています。また、Azure Active Directoryは、Microsoft Entra IDとなっています。 https://tech-lab.sios.jp/archives/21345 今回は以下の設定を実施します。 フォレスト(構成済みディレクトリ):example.com ドメインとOUのフィルタリングの同期OU:Example Users オプション機能にて、パスワードの書き戻しにチェックを入れて有効にします。 また、Entra IDでユーザの初回ログオン時にパスワード変更を必要としたい場合は、一時パスワードの同期を有効化する設定が必要です。設定方法は以下の記事を参考にしてみてください。 参考: https://blog.jbs.co.jp/entry/2024/09/30/115304 ユーザの確認 ADで以下のユーザを作成します。また、アカウントオプションで「ユーザーは次回ログオン時にパスワード変更が必要」とします。 UserPrincipalName 表示名 所属グループ 登録先OU 会社名 example_user01@example.com テスト ユーザ1 Group1 Example Users example.com example_user02@example.com テスト ユーザ2 Group1 Example Users example.com example_user03@example.com テスト ユーザ3 Group2 Example Users example.com example_user04@example.com テスト ユーザ4 Group2 Example Users example.com 過去記事 https://tech-lab.sios.jp/archives/21345 の「AADCの同期の方法」によりEntra IDとのアカウント同期を有効化します。 Microsoft Entra管理センターにログインし、ユーザが同期されることを確認します。 https://entra.microsoft.com/#home Entra IDからのSSPRは、「パスワードリセットのセルフサービスが有効」の項目で有効化することができます。 全てのユーザや特定のグループのユーザのみSSPRを有効にする設定が可能です。 参考: https://learn.microsoft.com/ja-jp/entra/identity/authentication/tutorial-enable-sspr SSPRの認証方法の設定は現在2通りの方法があります。 1: パスワードリセットの認証方法からリセットのために必要な方法の数および使用できる方法を設定する 2: 認証方法から、多要素認証(MFA)とSSPRの認証方法を構成する 1つ目の方法は、2025 年9月30日に非推奨となります。2025年2月現在は移行期間として、2通りの方法を選択できます。詳細は以下をご覧ください。 https://learn.microsoft.com/ja-jp/entra/identity/authentication/concept-authentication-methods-manage 今回は2つ目の方法で認証方法を構成します。Microsoft Authenticatorを使用できるように設定しています。 Entra IDからのパスワード変更を確認 テスト ユーザ1(example_user01)で https://www.microsoft365.com にサインインします。 ADおよびEntra IDではユーザの初回ログオン時にパスワード変更を必要とする設定にしているため、パスワードの更新が要求されます。パスワードを更新します。パスワードポリシーは、ADのパスワードポリシーに準拠します。 パスワードの更新後にADサーバのpowershellで以下のコマンドを実行します。distinguishedNameとPathが表示されると正しいパスワードが入力されていることになります。パスワードの変更がADに適用されていることを確認します。 参考: https://qiita.com/waokitsune/items/6dc37940095426485a57 > $de_ = New-Object System.DirectoryServices.DirectoryEntry( >> "LDAP://example.com", >> "example_user01", #ユーザID >> "NewPassword" #ユーザの更新後パスワード >> ) >> echo $de_ distinguishedName : {DC=example,DC=com} Path : LDAP://example.com Entra IDからのSSPRを確認する SSPRを確認するために、テスト ユーザ1(example_user01)で追加認証としてMicrosoft Authenticatorを設定しておきます。 Authenticatorの設定方法は以下の「Microsoft Authenticator の設定」を参考にしてみてください。 https://support.gluegent.com/hc/ja/articles/9434604489369–%E4%BB%98%E9%8C%B2-Microsoft-Authenticator-%E3%81%AE%E8%A8%AD%E5%AE%9A%E6%96%B9%E6%B3%95 テスト ユーザ1(example_user01)のパスワード入力画面に戻り、パスワードを忘れた場合を選択します。 画面に従って、アカウントの回復のための認証を実施すると、パスワードリセット画面が表示されます。パスワードポリシーは、ADのパスワードポリシーに準拠します。 パスワードのリセットに成功すると、以下の画面が表示されます。 Entra IDからのパスワード変更を確認する手順と同様に、ADのpowershellで、パスワードの変更がADに適用されていることを確認します。 さいごに 今回は、Entra Connectのパスワードの書き戻し(パスワードライトバック)とEntra IDのセルフサービスパスワードリセット(SSPR)を使用してEntra IDでユーザのパスワード変更、リセットを可能にする方法を紹介しました。 Entra ConnectとEntra IDへの理解の一助になれば幸いです。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Entra Connect のパスワードライトバックとEntra IDのSSPRを使用してEntra IDでユーザのパスワード変更、リセットを可能にする first appeared on SIOS Tech. Lab .
アバター
はじめに こんにちはサイオステクノロジーの小野です。今回はOpenShift AIにデプロイしたLLMをVSCodeと連携させて、コード生成AIを利用する方法について解説します。また、VSCodeはOpenShift上で構築できるOpenShift Dev Spacesを利用します。これにより非接続環境でのコーディングでもAIによるコード支援を受けることができるようになります。 OpenShift Dev Spacesについて OpenShift上でアプリケーション開発を行う際に便利なツールとして、OpenShift Dev Spacesがあります。 OpenShift Dev SpacesはWeb ベースの統合開発環境 (IDE)です。クラウド上にデプロイされるので、利用するマシンに依存せずにどこでも利用できます。また、Devfileと呼ばれる開発環境を設定するファイルを利用してデプロイされるので、チーム内で開発環境の統合・共有がしやすくなります。 OpenShift Dev Spaces利用概要 本ブログの内容は下記章で構成されます: OpenShift Dev Spaces環境構築 OpenShift Dev Space利用手順 OpenShift Dev SpaceのVSCode拡張機能設定 OpenShift Dev SpacesとOpenShift AIの連携 最初にOpenShift Dev Spacesの構築手順について解説し、その操作方法について簡単に説明します。その後、Dev Spaces上のVSCodeにContinueという拡張機能を導入します。最後にContinueとOpenShift AIにデプロイしたLLMを連携させてコード支援機能が使えるようにする方法を解説します。 ローカルのVSCodeとOpenShift AIを連携させたい場合はDev Spacesの構築手順をスキップして、Continueの導入部分から参考にしてください。(リンク: Dev SpacesとOpenShift AIの連携 ) OpenShift Dev Space環境構築 OpenShift Dev Spacesの構築手順について説明します。 Openshift DevSpace前提条件 OpenShift:4.17 CPUアーキテクチャ:AMD64 OpenShift クラスターにサーバ証明書設定済み 参考: https://docs.redhat.com/ja/documentation/red_hat_openshift_dev_spaces/3.18/html/administration_guide/preparing-the-installation#supported-platforms Operatorインストール 最初にOpenShift Dev SpacesのOperatorをインストールします。 OperatorHubで「Dev Spaces」と検索してRed Hat OpenShift Dev Spacesをインストールします。 OpenShift Dev Spacesの詳細 インストール時の設定はデフォルトにします。 Operatorのインストール設定。今回はデフォルトでインストールする。 ステータスがSucceededになればインストール完了です。 ステータスがSucceededとなればOperatorインストール完了 CheCluster設定 次にDev spacesのCRを作成します。Red Hat OpenShift Dev Spaces instance Specificationのインスタンスを作成します。 Red Hat OpenShift Dev Spaces instance Specificationの作成 今回はデフォルトで設定します。設定の詳細は公式ドキュメントを参照してください。 https://docs.redhat.com/ja/documentation/red_hat_openshift_dev_spaces/3.18/html/administration_guide/configuring-devspaces#configuring-devspaces CheClusterの作成。今回はデフォルトで作成する。 管理コンソールアクセス CRが作成できたら、その詳細画面のRed Hat OpenShift Dev Spaces URLから管理コンソール画面に移動できます。 CheClusterの詳細画面から、Dev SpacesのWebコンソールへのURLを開く。 OpenShift Dev Spacesの管理コンソール画面 OpenShift Dev Space利用 ワークスペースの作成 VSCodeの環境を作成します。Select a SampleのEmpty Workspaceを選択します。 Select a SampleのEmpty Workspaceを選択する 作成が完了するまで待ちます。 作成完了まで待つ 作成が完了するとVSCodeの画面が表示されます。このVSCode上で作業を行います。 WorkSpaceの作成が完了するとVSCodeが表示される VSCode簡易操作 VSCodeの操作についてこれから簡単に説明します。すでに利用したことがある方は飛ばしてください。 Open Folderからフォルダを開けます。 Open Folderからフォルダが開ける 左上のメニューからFile > New Fileでファイル作成できます。 File > New Fileでファイル作成できる 左上のメニューからTeminal > New Terminalでターミナルを開くことができます。 Terminal > New Terminalからターミナルを開ける ターミナルが表示される VSCode拡張機能設定 普段私たちがデスクトップ上で利用しているVSCodeはMicrosoftがカスタマイズしたVSCodeになっています。しかし、Dev Spaces上のVSCodeはカスタマイズされていないVSCodeなのでいくつかの差異があります。一番の大きな違いとしてMicrosoft Marketplaceが入っていないので拡張機能を自分で導入する必要があります。 導入する手順としては最初に OpenVSXレジストリ から自分が利用したい拡張機能のVSIXファイルをダウンロードします。 OpenVSXに公開されているVSCodeの拡張機能 次にダウンロードしたVSIXファイルをワークスペースにアップロードします。 ダウンロードしたファイルをWorkspaceにアップロードする アップロードされた拡張機能ファイル アップロードしたら拡張機能のメニューの三点リーダーからInstall from VSIXを選択して、アップロードしたVSIXファイルを選択します。 Install from VSIXから拡張機能をインストール 選択するとアップロードした拡張機能が利用できるようになります。 利用できるようになった拡張機能 拡張機能を実際に利用した様子 Dev SpacesとOpenShift AIの連携 OpenShift AIにデプロイしたLLMを利用して、Dev Spacesにコードアシスタント機能を導入する方法を解説します。 以前の記事を参考にして、OpenShift AIにLLMをデプロイしておいてください。 OpenShift AIにLLMをデプロイしてみた Continueの導入 VSCode上でコードアシスタント機能を利用するにはContinue拡張機能をインストールする必要があります。Dev SpacesにはデフォルトでContinue拡張機能がインストールできるようになっているので、インストールします。なければ先ほどのようにOpenVSXレジストリからダウンロードしてください。 https://open-vsx.org/extension/Continue/continue Continue拡張機能をインストールする インストールすると左のメニューにContinueのアイコンが追加されます。 Continue拡張機能のメニュー ContinueとOpenShift AI連携 下の歯車マークを押すとContinueの設定ファイルが表示されます。 歯車マークから設定を行う この設定ファイルにOpenShift AIのLLMAPIの情報を記載します。まずmodelsに以下を上書きします。<タイトル名>にはContinueで表示される名前を入力し、<モデル名>にはOpenShift AIにデプロイしたLLMのモデル名を入力し、<APIのエンドポイント>はデプロイしたLLMのExtenalの方のエンドポイントを入力し、<APIのトークン>はデプロイしたLLMのAPIのトークンを入力してください。 { "title": "<タイトル名>", "model": "<モデル名>", "apiBase": "<APIのエンドポイント>/v1/", "provider": "openai", "apiKey": "<APIのトークン>" } また、tabAutocompleteModelに同様の設定を上書きすると、タブ補完でAIチャット機能を利用できるようになります。 modelsとtabAutocompleteModelを編集する 設定できたら、モデルとしてOpenShift AIにデプロイしたLLMが選択肢に出るようになります。 OpenShift AIにデプロイされたLLMが表示される 動作確認 動作確認としてPythonのHello Worldの書き方を聞いてみます。するとこのように回答してくれることが確認できます。 チャットボックスに質問してみた また、コード生成機能も試してみます。適当なファイルを作成して、Ctrl + Iを押して、どんなプログラムを書いてほしいか入力します。 素数を計算するコードを書いてもらうようにお願いしてみる すると自動的にコードを作成してくれることが確認できます。 コードを自動生成してくれる デプロイしたLLMが対応している場合、タブ補完機能も利用できます。 コードを書くと、自動的にコードの続きを提案してくれる タブ補完を続けると自動的にコードが完成する おわりに 以上の操作によりOpenShift Dev SpacesのVSCodeでAIによるコード支援を受けることができるようになりました。OpenShift AIにデプロイしたLLMはローカルLLMであるので、コード支援機能に対して秘密情報を入力したとしても外部に漏れる心配はありません。高いセキュリティを保ったままコード支援機能を利用できるのでぜひ構築してみてください。 参考 OpenShift Dev Spaces公式ドキュメント: https://docs.redhat.com/ja/documentation/red_hat_openshift_dev_spaces/3.18 https://developers.redhat.com/learn/openshift-ai/integrate-private-ai-coding-assistant-your-cde-using-ollama-continue-openshift-dev-spaces https://rheb.hatenablog.com/entry/2023/05/26/140300 https://ai-on-openshift.io/demos/codellama-continue/codellama-continue/ ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post OpenShift AIとOpenShift Dev Spaces連携 ~コード生成AIで楽々開発~ first appeared on SIOS Tech. Lab .
アバター
こんにちは、OSSよろず相談室のSKです。 日々、多くのOSSに関するお問い合わせをいただく中で、今回は rsyslog に関するご相談がありました。 「特定のログファイルから ERROR を含むログだけを抜き出して、システムログ(/var/log/messages)に転送したい」 そんなニーズに対して、rsyslog の Ruleset 機能 を活用することで解決できました。 同じような要件でお困りの方もいるかもしれませんので、今回の対応内容を紹介します。 やりたいこと 以下のログファイルに記録されるログのうち “ERROR” という文字列を含むログが出力されたら、 /var/log/messages にも出力したい 常時 /var/log/messages に出力される OS や ネットワークなどシステム関連のログ出力はそのままにしたい。 対象のログファイル: /usr/local/share/oss-software/logs/system.log 実現方法 以下が ‘/etc/rsyslog.conf’ に追加した設定内容の全体です。 *.info;mail.none;authpriv.none;cron.none /var/log/messages module(load="imfile") input(type="imfile" File="/usr/local/share/oss-software/logs/system.log" Tag="oss-softError" Severity="info" Facility="local0" ruleset="extra-fileError") ruleset(name="extra-fileError") { if $msg contains 'ERROR' then { action(type="omfile" file="/var/log/messages") } } 1つずつ見ていきましょう。 /var/log/messages の既存設定は維持する *.info;mail.none;authpriv.none;cron.none /var/log/messages module ブロックで imfile モジュールのロード module(load="imfile") rsyslog には「モジュール」という概念があり、デフォルトではカーネルログや標準の syslog ログを処理する機能のみが有効になっています。 imfile は、ファイルを監視してログとして取り扱うためのモジュール です。 そのため、外部ログを rsyslog に取り込むためには、まずこのモジュールをロードする必要があります。 この行がないと、rsyslog は外部のログファイルを監視できません。 input ブロックで外部ログファイルの監視設定 テキストファイルを読み込む設定をします。ここで監視対象のログファイルを指定します。 どのログファイルを監視し、どのように処理するかを指定します。 input (type="imfile" …) typeに 2.でロードした imfile モジュールを指定します。 File="/usr/local/share/oss-software/logs/system.log" 監視対象のログファイルのパスです。 このファイルに新しいログが書き込まれると、rsyslogがその内容を取得して処理を行います。 Tag="oss-softError" ログのタグ(プレフィックス)を設定します。 このタグは、ログメッセージの識別に役立ちます。 ログメッセージの冒頭にこのタグが付加されて出力されます。 Severity="info" ログの重要度(Severity)を指定します。 rsyslogでは、ログの重要度(Severity)を指定することができます。 重要度には、 emerg, alert, crit, err. warning, notice, info, debug があります。 今回の設定では Severity=”info” となっているため、このログは「情報レベル」のログとして扱われます。 Facility="local0" ログの分類(Facility)を指定します。 この分類によって、ログを異なるファイルに振り分けたり、特定のフィルタを適用したりすることが可能になります。 今回の設定では、 local0 を使用しています。 これにより、local0.* のログを特定のファイルに保存したり、処理を分けたりすることができます。 ruleset="extra-fileError" 適用する Ruleset(処理ルール)を指定します。 ruleset は、特定のルールに基づいてログを処理するための仕組みです。 この設定では、 ruleset="extra-fileError" を指定しているため、このログは extra-fileError という名前のルールセットに従って処理されます。 extra-fileError というルールセットはこの後設定します。 Ruleset を定義 “ERROR” を含むログのみを /var/log/messages に出力するルールセットを定義します。 ruleset(name="extra-fileError") { if $msg contains 'ERROR' then { action(type="omfile" file="/var/log/messages") } } このルールセットでは、 if $msg contains 'ERROR' then という条件を設定し、ログメッセージに “ERROR” が含まれている場合に限り、 /var/log/messages に書き込むようにしています。 出力テスト /var/log/messages に、ERRORという文字を含むログだけが書き込まれるか、確認します。 echoコマンドで、/usr/local/share/oss-software/logs/system.logに書き込んでみます。 ERRORを含むログ出力   # echo "ERROR [Test] oss-software failed" | sudo tee -a /usr/local/share/oss-software/logs/system.log   →/var/log/messagesに以下が出力された 出力結果 Mar 13 09:52:31 ip-172-31-1-204 oss-softError ERROR [Test] oss-software failed Mar 13 09:52:31 : 日時 ip-172-31-1-204 : ホスト名 oss-softError : 2の(2)で設定したタグ ERROR [Test] oss-software failed : echoコマンドで指定した文字列 ERRORを含まないログ出力 # echo "$(date) INFO [Test] oss-software failed" | sudo tee -a /usr/local/share/oss-software/logs/system.log →/var/log/messagesに何も出力されない。 参考情報 Ruleset について詳しく知りたい方は、公式ドキュメントもご参照ください。 rsyslog / Multiple Rulesets in rsyslog RedHat社のロギング説明も合わせてご参照ください。 RedHat 8 / 第8章 ロギングの設定 まとめ 今回は、 rsyslog の Ruleset 機能 を活用することで、特定のログファイルから “ERROR” を含むログのみを抽出し、システムログ /var/log/messages に転送する方法をご紹介しました。 この設定を応用すれば、特定のエラーログだけをフィルタリングして通知したり、別のログファイルに転送したりすることも可能 です。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post OSSサポートエンジニアの現場から!特定の条件のログを/var/logs/messagesにも出力したい first appeared on SIOS Tech. Lab .
アバター
佐賀大学では2000年より認証統情報の統合を進められており、 その成果を踏まえて2007年度から毎年統合認証に関するシンポ ジウムが開催されています。   2025年3月10日には「第17回 統合認証シンポジウム」が実施され、そこで弊社エンジニアの武井が登壇しました。 「Shibboleth IdP」 の紹介とShibboleth周辺の拡張ソリューションについて の説明を行い、ご参加いただいた方から多くのご質問をいただき、 興味関心を抱いていただけました。   <ご登壇者> ・「インターネットトラストが広げるデジタルサービス」   佐藤周行 様( 国立情報学研究所 ) ・「新学認に向けた中規模実証実験の取組み(仮)」   西村健 様(国立情報学研究所) ・「デジタル認証アプリを使ったマイナンバーカードの利活用推進について」   青野彰太朗 様(デジタル庁戦略組織グループ) ・「Shibboleth IdP WebAuthn authentication プラグインの紹介等」   大谷誠 様(佐賀大学)  ・「Shibboleth IdPの運用をもっと快適に!」   武井宜行(サイオステクノロジー株式会社)  ・「認証基盤の畳み方〜機構法人認証基盤への移行顛末〜」   田中昌二 様(東海国立大学機構) ・「大学の認証システム: これまでとこれから」   只木進一 様 (佐賀大学) 今回のシンポジウムでは学認からデジタル認証アプリを使ったマイ ナンバーカードの活用まで、幅広い題材の講演で終始学ぶことが多く、 有意義な時間を過ごせました。 また講演終了後は情報交換会が行われました。 普段接することができない方々との交流ができたため貴重な時間が 過ごせました。 今回の経験でさらに広がった知見を今後の活動に活かしていきたい と感じました。   関係者の皆様、 ご参加いただいた皆様、誠にありがとうございました。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post 第17回 統合認証シンポジウムで登壇しました first appeared on SIOS Tech. Lab .
アバター
始めに ども!最近は登壇資料を全力で作成しており、いろんなことが後回しになっている龍ちゃんです。3月に入ってしっかりブログ更新の手が止まってしまっていました。なので、直近の業務でブログ化できそうなところを書いていきます。 今回のお話は「Figmaで作成する図:スケジュール編」となります。 スケジュール時間経過:Figmaデザイン プレゼン資料からブログコンテンツまで、スケジュールを表現するコンテンツは、テンプレートとして所持しておいて損はありません。そんな「スケジュール」や「時間経過」を表現するコンポーネントのサンプルを貼っておきます。 今回使用しているフォントは以下の二つになります。一つは有料フォント(無料版あり)、一つは無料フォントとなります。 LINE Seed JP LINEで使われているフォント(セリフ体)商用無料で使えるため超おすすめ! ダウンロードはこちら ビルの谷間と高架下 BOOTHで販売されているとてもかわいい日本語フォント 無料版もあり (条件アリ) これは買う価値あり !! 上記二つは、僕のFigmaでは高頻度で登場しています。 多色・横並び こちらの図解で使用している色は以下になります。 説明 カラーコード 赤 #FD504F 緑 #5BB85A 黄 #F4C84C 青 #1898DA 文字色 #2C303A こちらは、最大4つの工程表現に向いています。これ以上色を使用すると目に優しくないかと考えています。色も単色ではなく、若干淡い色(マットな表現)を意識して作成しています。 上部の時間経過を表現しているコンポーネントの作成方法としては、フレーム内に先端と文字領域用のフレームを配置しています。 三角形の部分を「拡大・縮小」にしておくことで、大元のフレームを操作しても形が崩れずに遷移します。Figmaで四角形を描画して、描画ツールで直接点を編集すると簡単に図を接合することができます。 単色横並び こちらの図解で使用している色は以下になります。 説明 カラーコード 円・文字色 #6D49FF 横線 #A590FA 上部文字色 #2C303A こちらは、スケジュールよりもステップの表現に利用できます。もちろんスケジュールとしても表現することができますが、ステップなどの表現のほうが直感的に理解しやすいかと思います。 こちらは画面上部に配置し、下部にコンテンツを配置に向いています。WEBサイトのフォームなどでも使用することができる表現です。 単色縦並び こちらの図解で使用している色は以下になります。 説明 カラーコード 円・線・時間表現 #6D49FF 上部文字色 #2C303A こちらは一ページを割いて表示するコンテンツとなります。目次としても利用可能です。目次として利用する場合は、以下のように要素に透明化を入れることで、トピックを明確にすることができます。 おわり 今回は、Figmaでスケジュールや時間経過を表現するコンポーネントのサンプルを紹介しました。これらのデザインは、プレゼン資料やブログ記事など、様々な場面で活用できます。一つのテンプレートとして保存しておくことで、効率的な資料作成が可能になりますので、ぜひ参考にして自作のコンポーネントを作成してみてください! 生成AIを活用したコンテンツ作りにも、取り組んでいます。ぜひ閲覧してみてください。「 プレゼン資料が見違える!AI図解ツールNapkin AIの基本と実践的な使い方完全版 」 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Figmaプレゼン資料を爆速で作る!時系列デザインサンプル|カラーコード付き first appeared on SIOS Tech. Lab .
アバター
はじめに Kubernetes環境でのストレージ管理は、アプリケーションの可用性やスケーラビリティに大きく関わります。 本記事では、Kubernetes向けの代表的なストレージソリューションである ODF(Red Hat OpenShift Data Foundation)・Longhorn・MinIO の3つを紹介し、それぞれの特徴や用途について解説します。 各ストレージソリューションの概要 ODF(OpenShift Data Foundation) ODF(OpenShift Data Foundation)は、Red Hat OpenShift向けに最適化されたソフトウェア定義ストレージ(SDS)ソリューションです。 Cephを基盤とした分散ストレージを提供し、ブロック・ファイル・オブジェクトストレージのすべてをサポートします。 特徴 Cephベースの分散ストレージ :高可用性・スケーラビリティを備えた分散ストレージを提供 OpenShiftとの統合 :Red Hat OpenShift向けに最適化されており、簡単にセットアップ可能 マルチプロトコル対応 :ブロック(RBD)、ファイル(CephFS)、オブジェクト(S3互換)をサポート 大規模環境向け :商用サポートや監視機能が充実しており、大規模環境に適している 商用サポートや性能面からOpenShiftでの特に大規模な環境での利用が見込まれます。 Longhorn Longhornは、Rancherが開発した 軽量な分散ブロックストレージ ソリューションです。 Kubernetesクラスタ内で動作し、データの冗長化やスナップショット管理などの機能を提供します。 特徴 : Kubernetesネイティブ :すべての機能がKubernetes上で動作し、CSI(Container Storage Interface)を利用 軽量でシンプルな設計 :Cephのような大規模な構成不要で、小規模クラスタにも導入しやすい スナップショットとバックアップ機能 :データの保護や復元が簡単に行える オープンソース :完全にオープンソースで、誰でも利用可能 小規模から大規模の様々なKubernetes環境での利用が見込まれます。 MinIO MinIOは、 S3互換のオブジェクトストレージ を提供するオープンソースのストレージソリューションです。 Kubernetesクラスタ上で分散オブジェクトストレージをシンプルに構築できます。 特徴 : Amazon S3互換 :AWS S3 APIと高い互換性を持つ 高速なパフォーマンス :大量の小さなファイルや大きなデータセットの保存に最適 Kubernetesネイティブ :Helmチャートなどを用いたデプロイが容易 スケーラブル :ストレージノードを追加することで容易にスケール可能 Amazon S3互換のAPIを扱うことが可能であり、オブジェクトストレージとしての利用が見込まれます。 どのストレージが活用シーンに合っているか? RedHat環境やOpenShiftでの大規模環境なら ODF Rancher環境や軽量な分散ブロックストレージなら Longhorn S3との互換性や軽量なオブジェクトストレージが必要なら MinIO 組み合わせたハイブリッド運用も可能 それぞれのストレージもエンタープライズ版、商用サポートが有るため商用環境での有力な選択肢となってきます。 まとめ Kubernetes環境におけるストレージソリューションは多様で、用途に応じて適切な選択をすることが重要です。 本記事で紹介したODF・Longhorn・MinIOの特徴を理解し、最適なストレージを選択してください! ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post コンテナプラットフォームで活用出来るストレージサービス(ODF / Longhorn / MinIO )とは? first appeared on SIOS Tech. Lab .
アバター
挨拶 最近は新しい登壇資料を準備して、頑張って執筆している龍ちゃんです。YouTubeやXなどで情報収集しながら、新しいAIツールを見つけたので使用レポートと具体的な使用方法、注意点などをまとめて書いていこうと思います。 今回のお話は「メモ帳と生成AI描画ツールが合体したツールNapkin AI」についてです。 Napkin AIとは Napkin AI はテキスト入力をするだけで、グラフや図解を自動生成してくれるAIツールになります。プレゼン資料の図解などで使用することができる、ちょっとおしゃれな図を生成してくれるのですごく助かります。 龍ちゃん 2025年3月12日時点で、beta版ですべての機能が無料で使用することができます。ぜひ試して!!! 描画画面 画面は海外のメモ帳みたいな雰囲気があります。マークダウン形式で入力することができます。 図の生成 テキストを入力したら、左側に生成ボタンが出てきます。 数秒の経過時間後、描画とポップアップにスタイルの提案が出力されます。 ポップアップの中から、スタイルを決定することで描画が確定します。描画後では、以下の設定を変更することができます。 項目 説明 Download ダウンロード設定を開くことができます。 Background Color 背景色の設定 Aspect Ration 描画の比率の設定 Change Style 描画図のスタイル変更 描画ダウンロード 描画のダウンロードでは「PNG・SVG・PDF」の項目から選択することができます。 透過PNGとSVGが選択することができるので素晴らしいです。 スタイルの選択 描画画面の右上の「Styles」から好きなスタイルを選択することができます。スタイルを限定しておくことで、統一感のある描画を生成することができます。 デフォルトで選択肢が15個もあるため、お気に入りのスタイルが見つかるかもしれません。 具体的な活用方法 ここまでは、「Napkin AI」のデフォルトの使用方法について解説してきました。実際に使用して登壇資料を3本ほど作成したので、具体的な使用感についてまとめていきます。Napkin AIを使用して作成した図に関しては、「 【GAS】Difyプロトタイプを本格業務アプリに!実践的な自動化 」で公開しています。 一部分だけ活用する 「Napkin AI」上でも編集をすることができます。ですが、SVGでエクスポートすることができるためFigma上で描画した情報を使用することができます。実際に登壇で使用する描画が以下になります。 だんだん小さくなる描画を「Napkin AI」で生成しています。このような描画は作成コストが高いので、さくっと描画してくれるのが助かります。 周りの装飾部に関しては、自前で作成しています。表現としてもバランスが良くなって個人的にお気に入りの一枚です。 図の参考にする こちらは、作成前にいったん作ってみるという使い方になります。スタイル選択では、いろいろな描画を見ることができます。生成AIからの出力なので、一度に複数パターンの描画を見ることができます。 その中からイメージに近いものを参考図として、Figmaで作成しました。以下の図を「Napkin AI」の出力を参考に作成しました。 終わり 今回は「Napkin AI」について紹介させていただきました。テキスト入力だけで素敵な図解を生成できる便利なツールなので、ぜひ皆さんも試してみてください。今後も新しいAIツールの紹介をしていきたいと思います。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post プレゼン資料が見違える!AI図解ツールNapkin AIの基本と実践的な使い方完全版 first appeared on SIOS Tech. Lab .
アバター
Difyは。自身のプラットフォーム内に検索用データベースを持っています。デフォルトでは、Weaviateを使いますが、PostgreSQLやChromaなど多彩なデータベースに対応しています。そして、自プラットフォーム内に検索データベースを持つことで、別途検索データベースを用意することなく、LLMアプリの導入コストを抑えることができます。   しかしながら、Azure AI SearchやElastic Search、Vertex AI Searchなど自プラットフォーム外の検索サービスを使いたい場合もあると思います。既にこういったサービスで検索データベースを提供している場合はなおさらでしょう。これらのサービスは、お値段も少々高いですが、高機能ですし、エンタープライズ向けの検索データベースとしては広く使われていますし、こういったものを導入したいというニーズもあると思います。   Difyはこういったニーズにも対応しています。この自プラットフォーム外にある検索データベースのことをDifyでは「外部ナレッジベース」と呼びます。 システム構成 外部ナレッジベースを利用するためのシステム構成は以下のとおりです。 Difyが外部ナレッジベースにアクセスするためには、Difyの準拠するAPIの仕様に従わなければなりません。しかしながら、外部ナレッジベースは、そのサービスによって様々なAPIを持つので、この差分を吸収するために、Difyと外部ナレッジベースの間にプロキシのような役割を持つAPIを設ける必要があります。それが上図の「API」と書かれているコンポーネントになります。 このプロキシのような役割を持つAPIは独自に開発する必要があります。これをDifyでは「外部ナレッジベースAPI」と呼びます。 外部ナレッジベースAPI 外部ナレッジベースのAPIの仕様は以下のとおりです。 リクエスト ■ エンドポイント /retrieval ■ メソッド Post ■ ヘッダー Authorization: Bearer {APIキー} ■ ボディ { "knowledge_id": "{ナレッジを一意に識別するID}", "query": "{検索クエリ}", "retrieval_setting":{ "top_k": {上位何件を取得するか}, "score_threshold": {スコアの閾値} } } {APIキー}は外部ナレッジベースAPIの認証に使われるキーです。このキーは外部ナレッジベースAPIの管理者が発行します。 {ナレッジを一意に識別するID}は外部ナレッジベース内のナレッジを一意に識別するためのIDです。Difyで外部ナレッジベースを追加する際に任意の値を設定します。 {検索クエリ}は検索するためのクエリです。 {上位何件を取得するか}は検索結果の上位何件を取得するかを指定します。Difyで外部ナレッジベースを追加する際にこの値を設定します。 {スコアの閾値}は検索結果のスコアの閾値を指定します。スコアがこの閾値を超えるナレッジのみを取得します。Difyで外部ナレッジベースを追加する際にこの値を設定します。 レスポンス Difyは以下のようなレスポンスを受け取ることを期待します。 ■ ステータスコード 200 ■ ヘッダー Content-Type: application/json ■ ボディ { "records": [ { "metadata": { "path": "{ドキュメントへのパス}", "description": "{ドキュメントの説明}" }, "score": {検索スコア}, "title": "{ドキュメントのタイトル}", "content": "{ドキュメントの内容}" }, ...略... ] } {ドキュメントへのパス}は検索結果のナレッジが存在するドキュメントへのパスです。例えばAzure Blob Storageにドキュメントを格納する場合は、 `https://example.blob.core.windows.net/{コンテナ名}/{ファイル名}` のような形式になります。 {ドキュメントのタイトル}は検索結果のナレッジが存在するドキュメントの説明です。 {検索スコア}は検索結果のスコアです。 {ドキュメントのタイトル}は検索結果のナレッジが存在するドキュメントのタイトルです。 {ドキュメントの内容}は検索結果のナレッジが存在するドキュメントの内容です。 外部ナレッジベースを利用する 外部ナレッジベースにAzure AI Searchを利用する場合の実装や設定を紹介します。先の仕様に準拠すればElasticsearchでもなんでも大丈夫です。 APIの実装 外部ナレッジベースを利用するためのAPIは以下のような実装になります。 Python + Flaskですが、APIの仕様を満たしていればフレームワーク、開発言語は問いません。 import os from flask import Flask, request, jsonify, abort from azure.search.documents import SearchClient from openai import AzureOpenAI from azure.core.credentials import AzureKeyCredential from azure.search.documents.models import VectorizedQuery from dotenv import load_dotenv # .envファイルから環境変数を読み込む。 load_dotenv(verbose=True) # 環境変数から各種Azureリソースへの接続情報を取得する。 SEARCH_SERVICE_ENDPOINT = os.environ.get("SEARCH_SERVICE_ENDPOINT") # Azure AI Searchのエンドポイント SEARCH_SERVICE_API_KEY = os.environ.get("SEARCH_SERVICE_API_KEY") # Azure AI SearchのAPIキー SEARCH_SERVICE_INDEX_NAME = os.environ.get("SEARCH_SERVICE_INDEX_NAME") # Azure AI Searchのインデックス名 AOAI_ENDPOINT = os.environ.get("AOAI_ENDPOINT") # Azure OpenAI Serviceのエンドポイント AOAI_API_VERSION = os.environ.get("AOAI_API_VERSION") # Azure OpenAI ServiceのAPIバージョン AOAI_API_KEY = os.environ.get("AOAI_API_KEY") # Azure OpenAI ServiceのAPIキー AOAI_EMBEDDING_MODEL_NAME = os.environ.get("AOAI_EMBEDDING_MODEL_NAME") # Azure OpenAI Serviceの埋め込みモデル名 # ユーザーの質問に対してドキュメントをAzure AI Searchから検索する関数 def search(question): # Azure AI SearchのAPIに接続するためのクライアントを生成する search_client = SearchClient( endpoint=SEARCH_SERVICE_ENDPOINT, index_name=SEARCH_SERVICE_INDEX_NAME, credential=AzureKeyCredential(SEARCH_SERVICE_API_KEY) ) # Azure OpenAI ServiceのAPIに接続するためのクライアントを生成する openai_client = AzureOpenAI( azure_endpoint=AOAI_ENDPOINT, api_key=AOAI_API_KEY, api_version=AOAI_API_VERSION ) # Azure OpenAI Serviceの埋め込み用APIを用いて、ユーザーからの質問をベクトル化する。 response = openai_client.embeddings.create( input=question, model=AOAI_EMBEDDING_MODEL_NAME, dimensions=1536 ) # ベクトル化された質問をAzure AI Searchに対して検索するためのクエリを生成する。 vector_query = VectorizedQuery( vector=response.data[0].embedding, k_nearest_neighbors=3, # 初期値。後続の処理でretrieval_settingのtop_kで絞る。 fields="contentVector" ) # ベクトル化された質問を用いて、Azure AI Searchに対してベクトル検索を行う。 results = search_client.search( vector_queries=[vector_query], select=['id', 'content'] ) return results # Flaskアプリケーションの定義 app = Flask(__name__) # 外部ナレッジベースの検索APIを提供するエンドポイント @app.route('/retrieval', methods=['POST']) def retrieval(): # ヘッダーのAuthorizationをチェックする # Difyからの外部ナレッジベースのHTTPリクエストAPIキーが正しいかどうかを確認する # ここではとりあえず、APIキーが"your-api-key"であることをチェックする auth = request.headers.get("Authorization", "") if auth != "Bearer your-api-key": abort(401) body = request.get_json() if not body: return jsonify({"error": "JSON body required"}), 400 # リクエストボディから必要なパラメータを取得する。 knowledge_id = body.get("knowledge_id") query = body.get("query") retrieval_setting = body.get("retrieval_setting", {}) top_k = retrieval_setting.get("top_k", 3) score_threshold = retrieval_setting.get("score_threshold", 0.0) if not query or not knowledge_id: return jsonify({"error": "knowledge_id and query are required."}), 400 # search関数を用いて検索を実施する。questionはqueryに対応する。 results = search(query) records = [] count = 0 # 検索結果を変換して、score_threshold以上の結果をtop_k件まで抽出する。 for result in results: score = result.get('@search.score', 0) if score < score_threshold: continue if count >= top_k: break # 変換例: idをファイル名として利用(仮実装) record = { "metadata": { "path": f"https://example.blob.core.windows.net/knowledge/{result.get('id')}.txt", "description": "dify知識ドキュメント" }, "score": score, "title": f"{result.get('id')}", "content": result.get('content') } records.append(record) count += 1 return jsonify({"records": records}), 200 if __name__ == '__main__': # Flaskアプリを起動する app.run(host='0.0.0.0', port=5001) Difyの設定 それではDify側の設定を行います。 ■ 外部ナレッジAPIの追加画面を表示する 「ナレッジ」をクリックし(①)、「外部ナレッジAPI」をクリックします(②)。そして、「+外部ナレッジAPIを追加する」をクリックします(③)。 ■ 外部ナレッジAPIを追加する 「Name」には外部ナレッジAPIを識別する任意の名称を入力します(①)。「API Endpoint」には外部ナレッジAPIのエンドポイントを入力します(②)。「/retrieval」を除いたURLを入力します。「API Key」には外部ナレッジAPIのAPIキーを入力します(③)。最後に「セーブ」をクリックします(④)。 ■ 外部ナレッジベースを追加する画面を表示する 「外部ナレッジベースへの接続」をクリックします。 ■ 外部ナレッジベースを追加する 「外部ナレッジ名」には外部ナレッジベースを識別する任意の名称を入力します(①)。「ナレッジの説明」には外部ナレッジベースの説明を入力します(②)。「外部ナレッジAPI」には、先ほど追加した外部ナレッジAPIを選択します(③)。「ナレッジID」には外部ナレッジベース内のナレッジを一意に識別するIDを入力します(④)。「トップK」には検索結果の上位何件を取得するかを入力します(⑤)。「スコアの閾値」には検索結果のスコアの閾値を入力します(⑥)。最後に「繋ぐ」をクリックします(⑦)。 ■ チャットボットに外部ナレッジベースを接続する 外部ナレッジベースに接続するチャットボットを作成してみます。チャットボットの設定画面にて、コンテキストの「+追加」をクリックします。 ■ 外部ナレッジベースを選択する 先ほど作成した外部ナレッジベースを選択します(①)。そして、「追加」をクリックします(②)。 チャットフローの場合には、「知識取得」のブロックにて、同様の方法で外部ナレッジベースを選択します。 ■ 詳細な設定を行う 外部ナレッジベースを選択すると、詳細な設定が表示されます。Rerankモデルの利用や、検索結果の上位何件を取得するかやスコアの閾値を設定することができます。 ■ テストする チャットボットをテストしてみます。チャットボットに質問を投げて、外部ナレッジベースからの回答を確認します。 まとめ 外部の検索システムを利用することで、さらにDifyをパワーアップすることができます。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Difyで外部の検索データベースを使う first appeared on SIOS Tech. Lab .
アバター
はじめに こんにちは!年度末で複数プロジェクトにてんやわんやのなーがです。皆さん生成AI使っていますか?DeepSeekやDifyなど最近は特に新しいAIサービスの大豊作となっています。前回はDifyの内容についてでしたが、今回はClaude Code使ってみたについて書こうと思います。 Claude Code Claudeは最近3.7がリリースされたのでご存知の方も多いと思います。 Claude Code は2週間前にリリースされたターミナル上でClaudeを使って自然言語コマンドを通じてより速くコーディングを支援するエージェント型コーディングツールです。実行には Anthropic API の クレジットが必要 です。(今回は初回登録で貰えたクレジットを使用しています) インストール こちら から。 npm install -g @anthropic-ai/claude-code 実行したいリポジトリで claude と入力します。 スタイルを訊かれるのでお好みのものを選択。 Enterを押して認証します。 認証が完了したら、フォルダ内のファイルが信頼できるか訊かれるのでEnter スラッシュを入力してコマンドを実行します。補完が表示されるので分かりやすいです。 最初に初期化すると CLAUDE.md が作成されます。 CLAUDE.md は開発ガイドラインと書いてあり、コードの内容を読み取った結果からビルド方法やコードスタイルが記載されています。 /init リポジトリの説明をしてもらうと、コメントを参照していますがかなり詳細に答えてくれてます。(塗りつぶしが多くてすみません…) また、あえて環境変数を使わずに書いていたのですが、修正案を提案してもらうとしっかり修正してくれました。 ! を使えばBashコマンドも実行できます。 バックスラッシュ \\ を使えば改行も出来ます。 config では詳細の出力やテーマ等を設定できます。 今回はやりませんでしたが、プルリクエストのレビューもやってくれるみたいです。 さいごに 今回はClaude Code使ってみたについて書きました。ターミナルでAIを実行して要約やリファクタリング出来るのは便利ですが、まだプレビュー版なので出来ることは少ないですが、興味のある方は試してみてください。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Claude Code使ってみた first appeared on SIOS Tech. Lab .
アバター
こんにちは。サイオステクノロジーの橋本です。 今回、調べてもイマイチわからなかったので実際に動作検証してみました。 今回のテーマは Ansible のモジュール「ansible.posix.selinux」を用いて RHEL 9 の SELinux を変更すると正しく変更してくれるか です。 結論は…タイトルにある通りです。 前提として RHEL 9 から SELinux の無効化方法が変更となっています。 【参考】RHEL9 での SELinux の無効化方法について 今回 SELinux を無効化する PlayBook は以下の通りかなりシンプルになります。 - name: Disable SELinux ansible.posix.selinux: state: disabled RHEL 9 サーバは現状 SELinux 有効化 (Enforcing) されています。 RHEL 9 サーバの現状設定 : getenforce # getenforce Enforcing # RHEL 9 で SELinux を無効化するには grubby --update-kernel ALL --args selinux=0 コマンドを実行する必要があります。 上記コマンドを実行した場合、「/etc/default/grub」ファイルあるいは 「grubby –info=ALL」の実行結果に「selinux=0」という記述が追記されます。 現状では SELinux に関わる記述は特にありません RHEL 9 サーバの現状設定 : grub # cat /etc/default/grub GRUB_CMDLINE_LINUX="console=ttyS0,115200n8 console=tty0 net.ifnames=0 rd.blacklist=nouveau nvme_core.io_timeout=4294967295" GRUB_TIMEOUT=0 GRUB_ENABLE_BLSCFG=true GRUB_DEFAULT=saved # # grubby --info=ALL index=0 kernel="/boot/vmlinuz-5.14.0-362.13.1.el9_3.x86_64" args="console=ttyS0,115200n8 console=tty0 net.ifnames=0 rd.blacklist=nouveau nvme_core.io_timeout=4294967295 crashkernel=1G-4G:192M,4G-64G:256M,64G-:512M $tuned_params" root="UUID=8b4a4ce6-cc11-42e3-afc4-bbb13f950d40" initrd="/boot/initramfs-5.14.0-362.13.1.el9_3.x86_64.img $tuned_initrd" title="Red Hat Enterprise Linux (5.14.0-362.13.1.el9_3.x86_64) 9.3 (Plow)" id="ffffffffffffffffffffffffffffffff-5.14.0-362.13.1.el9_3.x86_64" # PlayBook を実行する前に旧来のSELinux 設定ファイル (/etc/selinux/config) を見てみましょう。 RHEL 9 サーバの現状設定 : /etc/selinux/config # cat /etc/selinux/config # This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - No SELinux policy is loaded. # See also: # https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/9/html/using_selinux/changing-selinux-states-and-modes_using-selinux#changing-selinux-modes-at-boot-time_changing-selinux-states-and-modes # # NOTE: Up to RHEL 8 release included, SELINUX=disabled would also # fully disable SELinux during boot. If you need a system with SELinux # fully disabled instead of SELinux running with no policy loaded, you # need to pass selinux=0 to the kernel command line. You can use grubby # to persistently set the bootloader to boot with selinux=0: # # grubby --update-kernel ALL --args selinux=0 # # To revert back to SELinux enabled: # # grubby --update-kernel ALL --remove-args selinux # SELINUX=enforcing # SELINUXTYPE= can take one of these three values: # targeted - Targeted processes are protected, # minimum - Modification of targeted policy. Only selected processes are protected. # mls - Multi Level Security protection. SELINUXTYPE=targeted # さて、上記 Playbook の実行です!! $ ansible-playbook -i hosts main.yml PLAY [all] ************************************************************************************************************************************** TASK [Gathering Facts] ************************************************************************************************************************** 金曜日 07 3月 2025 13:13:38 +0900 (0:00:00.035) 0:00:00.035 **************** ok: [172.31.15.211] TASK [oss_install : Disable SELinux] ************************************************************************************************************ 金曜日 07 3月 2025 13:13:41 +0900 (0:00:00.025) 0:00:02.937 **************** [WARNING]: SELinux state temporarily changed from 'enforcing' to 'permissive'. State change will take effect next reboot. changed: [172.31.15.211] PLAY RECAP ************************************************************************************************************************************** 172.31.15.211 : ok=2 changed=1 unreachable=0 failed=0 skipped=1 rescued=0 ignored=0 金曜日 07 3月 2025 13:13:43 +0900 (0:00:01.561) 0:00:04.499 **************** =============================================================================== Gathering Facts -------------------------------------------------------------------------------------------------------------------------- 2.88s oss_install : Disable SELinux ------------------------------------------------------------------------------------------------------------ 1.56s $ 結論は…残念 /etc/selinux/config に設定が記述されてしまいました。 この状況でサーバ再起動をするとサーバが起動しない可能性があるので、 「ansible.posix.selinux」モジュールを利用して RHEL 9 の SELinux を無効化しない方がよさそうです。 # cat /etc/selinux/config # This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - No SELinux policy is loaded. # See also: # https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/9/html/using_selinux/changing-selinux-states-and-modes_using-selinux#changing-selinux-modes-at-boot-time_changing-selinux-states-and-modes # # NOTE: Up to RHEL 8 release included, SELINUX=disabled would also # fully disable SELinux during boot. If you need a system with SELinux # fully disabled instead of SELinux running with no policy loaded, you # need to pass selinux=0 to the kernel command line. You can use grubby # to persistently set the bootloader to boot with selinux=0: # # grubby --update-kernel ALL --args selinux=0 # # To revert back to SELinux enabled: # # grubby --update-kernel ALL --remove-args selinux # SELINUX=disabled # SELINUXTYPE= can take one of these three values: # targeted - Targeted processes are protected, # minimum - Modification of targeted policy. Only selected processes are protected. # mls - Multi Level Security protection. SELINUXTYPE=targeted # 補足 ちなみに以下のように記述してもうまく行きませんでした。 - name: Disable SELinux ansible.posix.selinux: configfile: /etc/default/grub state: disabled 実行結果 # cat /etc/default/grub GRUB_CMDLINE_LINUX="console=ttyS0,115200n8 console=tty0 net.ifnames=0 rd.blacklist=nouveau nvme_core.io_timeout=4294967295" GRUB_TIMEOUT=0 GRUB_ENABLE_BLSCFG=true GRUB_DEFAULT=saved SELINUX=disabled # ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Ansible 検証「ansible.posix.selinux」モジュールで RHEL 9 の SELinux を無効化してはいけない ※2025/03 現在 first appeared on SIOS Tech. Lab .
アバター
概要 前回は、既存のコンテナプラットフォーム上でコンテナとVMを統合管理することが出来るOCP-Virtについてご紹介しました。今回も同じようにプラットフォーム上でコンテナとVMを統合管理することが出来るSUSE Virtualization(以降、SUSE-Virt)についてご紹介します。 前回の記事は こちら 今回紹介するSUSE-Virtは、クラウドネイティブ環境向けに設計されたHCIソリューションとなります。 本記事では、SUSE-Virtの基本的な概要からアーキテクチャ、VMの移行ツール、他の仮想化基盤との比較について解説します。 前提情報 本記事では、現時点で以下のバージョンを対象としています。 harvester v 1.4.0 SUSE-Virt とは SUSE-Virtは、ベアメタルサーバー上でKubernetesをベースとして構築されており、VMを簡易的に管理できるソリューションです。 HCIソリューションという枠組みのため、SANや外部の共有ストレージは不要となり、SUSE-Virtに備わっているストレージやネットワークの機能を利用することが可能です。 SUSE-Virtは以下の特徴を持っています。 構造がシンプル 従来のサーバー仮想化のシステム構成よりもシンプルで、必要なハードウェアの数も少なく済みます。 オープンソースであり、無料で利用可能 Kubernetes、KubeVirt、Longhorn、Grafana、PrometheusといったOSSで構成されており、無料で利用が可能です。 スケールアウトが容易 スモールスタートで始めて、必要に応じてサーバーを追加して拡張が可能です。将来の大規模なインフラ更改の必要がない点が特徴です。 SUSE-Virtにストレージが内蔵しており、冗長性を提供 SUSE-VirtはLonghorn によるストレージ管理を行っており、冗長性が担保されています。 SUSE-Virtが提供する機能としては下記が挙げられます。 Linux および Windows VMの作成と管理 Rancherとの統合によるインフラストラクチャの統合管理 SUSE-Virt アーキテクチャ SUSE-Virtは、Kubernetes環境上でVMの作成・管理を可能にするOSSのKubeVirtを元にして開発されています。KubeVirt は動作する基盤としてKubernetesを使用し、KubernetesのAPIを拡張することで、Kubernetes環境上へのVMの構成を実現しています。 VMを動作させる仕組みとしてはKVMを使用しています。 SUSE-Virtのコンポーネント KubeVirt:Kubernetes 上で KVM を使用して仮想化管理を提供 Longhorn:分散ブロック ストレージとアクセス頻度に応じて、データを最適な場所に配置するティアリング を提供 Kubernetes CNI:コンテナのネットワーク機能を抽象化し、IF仕様として切り出したもの Elemental for SUSE Linux Enterprise Micro 5.5:Kubernetes クラスターで OS メンテナンスを可能な限り排除するように設計された Linux ディストリビューション ベアメタルノードにインストールされるように設計されています。各ノードにKubeVirt、Longhornがインストールされ、KVM を使用した仮想化管理と分散ブロック ストレージをそれぞれ提供します。その上に仮想マシンを構築します。 ネットワークコンポーネント VM用に以下のネットワークが提供されます。 Management network:デフォルトの管理ネットワークとしてCanalを使用しています。これは、クラスターから直接使用できる組み込みネットワークです。デフォルトでは、VM の管理ネットワーク IP はクラスター ノード内でのみアクセス可能です。 VLAN:MultusおよびBridge CNI プラグインを活用して、カスタマイズされた L2 ブリッジ VLAN ネットワークを実装します。これにより、VM をホスト側のネットワークインターフェースに接続し、物理スイッチを使用して内部および外部ネットワークからアクセスできるようになります。 Image Source: https://docs.harvesterhci.io/v1.4/ VMの作成については、KubeVirtのアーキテクチャと同じです。流れとしては、VMを作成する際にvirt-apiを叩き、そのAPIはkubeletに問い合わせ、要求されたVirtual Machine Instances(VMI)をスケジューリングします。QEMU・libvirt はSUSE-VirtのVirtualMachineInstance(VMI)の中で実行しています。 Image Source: https://kubevirt.io/user-guide/architecture/ VMの移行ツールの紹介 SUSE-Virtでは、既存の利用している仮想化基盤からの移行を支援するためのアドオンが vm-import-controller として提供されています。vm-import-controllerは様々な仮想化基盤で稼働する VM を SUSE-Virt 上に移行するツールです。移行元として選択できる Provider は下記になります。 VMware vSphere OpenStack vm-import-controller は 以下の2つのCRDを提供します。 移行元の情報を定義する VmwareSource CRD, OpenstackSource CRD VMのインポート情報を定義する  VirtualMachineImport CRD このように、現行の仮想化基盤からの移行方式も用意されているため、SUSE-Virt への移行が簡単になっています。 その他仮想化基盤との比較 Red Hat OpenShift Virtualization (OCP-Virt) OCP-Virtは、OpenShift に含まれる機能でありコンテナプラットフォーム上でVMを構成することを可能にするオペレーターです。OCP-Virtも同様にKubeVirtを利用して、コンテナとVMを既存のOpenShift上で同時に管理することが可能です。主な違いとしては、SUSE-VirtはRancherと並列に統合されますが、OCP-VirtはOpenShiftに内包されるプラットフォームになっている点が挙げられます。必要なノード数や対応プラットフォームも異なっています。詳細については、OCP-VirtとSUSE-Virtを詳しく比較した記事を投稿予定ですので、是非そちらを読んでみてください。 VMware vSphere (vSphere) vSphereは、仮想化基盤といえば必ず名前が上がる製品であり、企業環境での広範な採用実績を持っています。幅広いハードウェアとの互換性、高度な機能(vMotion、Storage DRS、High Availabilityなど)、および堅牢なセキュリティを提供します。vSphereはサブスクリプションとして提供されますが、SUSE-Virtは無料で利用可能な点が異なります。前回のOCP-Virtでも取り上げたように、Sphereは仮想化に関しては非常に高い成熟度を持っていますが、SUSE-VirtはKubernetesネイティブな統合が簡単にできる点が強みとなります。 Proxmox Virtual Environment (Proxmox VE) Proxmox VEは、KVMとLinux Containers (LXC) をサポートするオープンソースの仮想化基盤です。ビルトインのクラスタリング機能を備えており、簡単にハイアベイラビリティ環境を構築できます。クラスタリングが可能で高可用性を提供できる点はSUSE-Virtと類似していますが、Kubernetesネイティブであるか否かといった点が違いになります。 まとめ SUSE-Virtの基本的な概要からアーキテクチャ、VMの移行ツール、他の仮想化基盤との比較について解説しました。 SUSE-VirtはKubernetesをベースに構築されたベアメタルサーバー上でVMを簡易的に管理できるHCIソリューションです。特徴として、構造がシンプルで、オープンソースで無料利用が可能、スケールアウトが容易、内蔵ストレージによる冗長性の提供が挙げられます。 参考文献 https://docs.harvesterhci.io/v1.4/ https://www.suse.com/ja-jp/products/rancher/virtualization/ https://kubevirt.io/user-guide/ https://www.suse.com/c/rancher_blog/comparing-hyperconverged-infrastructure-solutions-harvester-and-openstack/ https://www.infoq.com/jp/news/2021/07/suse-releases-harvester/ ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post SUSE Virtualization とは? first appeared on SIOS Tech. Lab .
アバター
はじめに こんにちはサイオステクノロジーの小野です。 以前の記事 で、Azure OpenAIのLLMをLightspeedと連携する方法について解説しました。今回はOpenShift AIにデプロイしたLLMをLightspeedと連携させる方法について解説します。 OpenShift AIとOpenShift Lightspeed連携 OpenShift Lightspeeedを利用する上で、OpenShift AIのようなローカル環境にデプロイしたLLMと連携する場合と、Azure OpenAIのようなクラウド環境にデプロイされているLLMと連携する場合で次のような差異があります。 ローカル環境LLM メリット 公開LLMを利用することができるので幅広いモデルを選択することが可能です。また、ローカル環境にデプロイできるので、LLMに入力した情報が流出する心配がなくなります。リクエスト数の制限がないので何回でも質問ができます。 デメリット 公開LLMを一からデプロイする必要があるので手間がかかります。また、ローカルでLLMを動かすので、計算資源を用意する必要があります。 クラウド環境LLM メリット 高性能なLLMを簡単にデプロイできます。クラウド上で動作するので計算資源は用意しなくて済みます。 デメリット LLMを提供しているプロバイダによっては入力した情報の取り扱いについて気を付けなければなりません。また、リクエスト数や質問の長さによって従量課金となる場合があります。 OpenShift AIとOpenShift Lightspeeedを連携することによってローカルな環境でもOpenShiftに関するAIチャットアシスタント機能を利用することが可能です。 構築設定 今回はOpenShift AIにデプロイしたLLM( Mistral-7b-instruct-v0.3 )とOpenShift Lightspeedを連携します。 OpenShift AIにデプロイしたLLMのエンドポイントは外部公開用と内部公開用の2種類ありますが、Lightspeedとの連携上、外部公開用のエンドポイントを利用します。 前提条件 OpenShift AI構築済み Lightspeed Operatorインストール済み gpuインスタンス:g6.xlarge S3にLLMデータ保存済み OpenShift クラスタにサーバ 証明書設定済み OpenShift AI設定 OpenShift AIのLLMデプロイについては以前の記事を参考にしてください。 OpenShift AIにLLMをデプロイしてみた 今回はMistral-7b-instruct-v0.3というLLMモデルをデプロイします。 モデルサービングの設定を行う際のモデル名をLightspeed連携に用いるのでメモしてください。 Model deployment nameをLightspeed設定に用いる Lightspeed設定 Lighspeedの設定は以前の記事を参考にしてください OpenShift Lightspeedを構築してみた APIの認証情報をSecretとして作成します。<APIトークンの値>にはOpenShift AIにデプロイしたLLMのAPIトークンの値を入れて下さい。 apiVersion: v1 kind: Secret metadata: name: openshift-ai-api-keys namespace: openshift-lightspeed type: Opaque stringData: apitoken: <APIトークンの値> LightspeedのCRは以下のように設定します。<モデル名>にはOpenShift AIにデプロイしたLLMのモデル名を入力してください。デプロイした大元のモデル名ではないので注意してください(画像の例だと、〇test-mistral, ×Mistral-7b-instruct-v0.3)。<APIエンドポイント>にはデプロイしたLLMのExternalの方のエンドポイントを入力してください。 apiVersion: ols.openshift.io/v1alpha1 kind: OLSConfig metadata: name: cluster spec: llm: providers: - credentialsSecretRef: name: openshift-ai-api-keys models: - name: <モデル名> name: red_hat_openshift_ai type: rhoai_vllm url: <APIエンドポイント>/v1 ols: defaultProvider: red_hat_openshift_ai defaultModel: <モデル名> 動作確認 Lightspeeedの設定が完了した後、挨拶してみます。すると以下のように、返答してくれます。 OpenShift AIのLLMと連携したLightspeedがチャットに応答する 終わりに このようにOpenShift AIとOpenShift Lightspeeedを連携することで、任意のLLMを用いたAIチャットアシスタント機能を利用できます。また、ローカル環境のLLMを利用しているので、非接続環境でもAIチャットアシスタント機能を利用できます。 参考 Lightspeedの詳細: https://github.com/openshift/lightspeed-service?tab=readme-ov-file ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post OpenShift AIとOpenShift Lightspeedを連携してみた first appeared on SIOS Tech. Lab .
アバター
ホワイトペーパーを公開しています! Elastic PortalではElasticに関するニュースやTechブログ等を公開しています。 先日、「Elasticsearchを使った簡易RAGアプリケーションの作成」というホワイトペーパーを作成しました。この内容は、2024年9月から12月に Elastic Portal内のTechブログ で紹介した情報をまとめたものです。 Elasticsearchのインデックス作成から、RAGアプリケーションの作成方法まで解説しています。 ホワイトペーパーは、 こちらよりダウンロード できます。ElasticsearchやRAGに興味がある方は、ぜひご覧ください。 また、ホワイトペーパーで紹介したRAGアプリケーションのソースコードは、下記のGitHubリポジトリで公開しています。こちらもぜひ参考にしてください。 [GitHubリポジトリリンク] https://github.com/sios-elastic-tech/white-papers/tree/main/2024-12-simple-rag 次回のブログでは、ホワイトペーパーの内容に関連した技術的な情報をさらに深掘りして紹介する予定です。 Elastic Portal で公開をお待ちください。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post Elasticsearchを使った簡易RAGアプリケーションの作成 first appeared on SIOS Tech. Lab .
アバター
第1章: Difyとは? 生成AIが注目され始めて早数年。ChatGPTの登場が世間を賑わしたのは記憶に新しいですね。その後も、DALL-EやGPT-4など、様々な生成AIが登場しました。これらの生成AIは、それぞれの特徴を持ち、様々な用途に活用されています。ChatGPTなどの生成AIの技術は、LLM(Large Language Model)と呼ばれ、膨大なテキストデータから学習し、高度な言語理解を実現する技術であり、自然言語処理の分野で大きな注目を集めています。 そして、LLMを利用したアプリも登場しました。特に大きな注目を集めているのはRAGやAIエージェントでしょう。RAGは、外部のデータベースや文書から関連情報を取得して回答の精度を向上させる技術、そしてAIエージェントはLLMを活用してタスクの実行や意思決定を自律的に行う仕組みです。これらのアプリは、LLMを利用して、高度な自然言語処理を実現しています。 今までは、このようなLLMアプリを開発するためには、Pythonなどのプログラミング言語を用いて、ゼロから開発することが一般的でした。しかし、Difyは、このようなLLMアプリを簡単に開発できるオープンソースのプラットフォームです。Difyを利用することで、プログラミングの知識がなくても、簡単にLLMアプリを開発することができます。まさに「AIの民主化」を実現し、誰もがAIを活用できるようになる、それがDifyなのです。 第2章: Difyの特徴 Difyには、以下のような特徴があります。 簡単な操作性 何と言ってもDifyの最大の特徴はこれに尽きるでしょう。プログラミングをしなくても、ブラウザ上のGUIからポチポチするだけで、RAGやAIエージェントを簡単に作成することができます。これにより、プログラミングの知識がないユーザーでも、簡単にLLMアプリを開発することができます。 豊富な機能 RAGやAIエージェントを作成できるのはもちろん、Difyには多彩な機能が搭載されています。例えば、OpenAIだけでなく、GeminiやCohereなど、さまざまなAIモデルを利用することができます。また、RAGなどでドキュメントを検索する技術であるベクトル検索やリランカーにも対応しています。 さらに特筆すべきは、Difyが提供するワークフローの豊富なブロックです。これらのブロックには、条件分岐や繰り返し処理、APIの呼び出し、データ変換、ファイル操作など、あらゆる操作を実現するためのものが揃っています。例えば、ユーザーの入力に応じて異なるAIモデルを切り替える分岐処理や、検索結果を整理して特定の形式に変換するデータ処理を簡単に組み込むことができます。この柔軟なブロックの仕組みにより、業務の自動化や高度なAIアプリケーションを、プログラミングの知識がなくても直感的に構築することが可能です。 Difyは、その強力なブロック機能によって、ユーザーのニーズに応じた自由自在なアプリケーション作成をサポートします。まさに、制限のないAIアプリケーション構築のプラットフォームと言えるでしょう。 様々な実行環境 Difyには、コミュニティ版、クラウドサービス、Premiumの3つの実行環境が用意されています。   ■ コミュニティ版 ユーザーが用意したサーバーやローカルPCなどで実行できる環境です。ソースコードから起動することも、Docker Composeを使って起動することも可能です。機能の制限はなく、無償で利用できます(別途インフラの費用は発生します)。 ■ クラウドサービス Difyを提供するベンダーで管理するインフラ上で動作するサービスです。月額利用料を支払うだけで、コミュニティ版のようにDifyを実行するインフラを用意する必要がなく、手軽にDifyを利用できます。また、コミュニティ版のようにインフラの管理や運用を気にする必要がありません。Sandbox、PROFESSIONAL、TEAM、ENTERPRISEの4つのプランがあり、それぞれのプランに応じて機能や利用料金が異なります。 ■ Premium AWSのAMI(Amazonマシンイメージ)で提供され、ワンクリックでEC2に展開することができます。コミュニティ版のように機能に制限はなく、さらにコミュニティ版よりももっと簡単に導入することができます。AWSを契約しているのであれば、検討の価値があるでしょう。 では、それぞれの詳細な説明を見ていきましょう。 第3章: Difyの実行環境 Difyの実行環境について、詳細に説明します。 コミュニティ版 以下の方法で簡単にDocker Composeを使ってDifyを起動することができます。Docker及びDocker Comoposeがインストールされている必要があります。 $ git clone https://github.com/langgenius/dify.git $ cd dify/docker $ cp .env.example .env $ docker compose up -d ソースコードからも起動が可能です。開発する場合は便利ですが、まずはDocker Composeを使って起動して、Difyの操作感を体験してみるのがおすすめです。 クラウドサービス クラウドサービス版のそれぞれのプランの機能や料金は以下の通りです(2025年1月17日現在)。 機能 Sandbox Professional ($59/月) Team ($159/月) Enterprise (要問合せ) メッセージクレジット 200 メッセージ 5,000 メッセージ/月 10,000 メッセージ/月 無制限 選択可能なモデル OpenAI/Anthropic/Llama2/Azure OpenAI/Hugging Face/Replicate 開発チームメンバー数 1 3 無制限 無制限 作成可能なアプリの数 10 50 無制限 無制限 ベクトルストレージの容量 5MB 200MB 1GB 無制限 アップロードできるドキュメント数 50 500 1000 無制限 ドキュメント一括アップロード 利用不可 対応 対応 対応 メッセージリクエスト 500/日 無制限 無制限 無制限 注釈返信の制限 10 2000 5000 無制限 ログの履歴 15日間 無制限 無制限 無制限 カスタムツール 利用不可 10 無制限 無制限 サポート コミュニティによるサポート メールによるサポート 優先メール&チャットサポート 専用のSlackチャンネル、電話、メールによるサポート ロゴの変更 変更不可 可能 対応 対応   それぞれの項目については以下のとおりです。 ■ メッセージクレジット メッセージクレジットとは、LLMへリクエストを送るときに必要なものです。例えば、gpt-3.5-turboを使用した1回のAIとのやり取りの場合は1クレジット表示されます。gpt-4の場合は20クレジットとなります。例えば、Professionalプランでは、5,000 メッセージ/月なので、gpt-4の場合は、250回のAIとのやり取りが可能です。もし、メッセージクレジットを使い切った場合には、OpenAIやAzure OpenAI Serviceを契約し、APIキーを取得してDifyに登録する、もしくは翌月になったらまた5,000メッセージ/月が利用できるようになります。 つまり、メッセージクレジットはDify側が無料もしくは月額利用料の範囲内で提供してくれるLLMの利用回数のことです。 注意いただきたいのがSandboxプランですが、これは「200メッセージ/月」ではなく、Sandboxプラン全体で「200メッセージ」です。つまり、200メッセージを使い切ったら、そのSandboxプランでは、翌月になってもLLMを利用することができません。この場合も同様に、OpenAIやAzure OpenAI Serviceを契約し、APIキーを取得してDifyに登録する必要があります。 ■ 選択可能なモデル Difyでは、OpenAIやHugging Face、Replicateなど、さまざまなAIモデルを利用することができます。 ■ 開発チームメンバー数 Difyの管理画面にアクセスして、開発を行うメンバーの登録上限数になります。Difyの管理画面から公開したアプリの利用ユーザーではないことに注意してください。そもそも、Difyにはアプリを利用するユーザーを事前に登録する必要はありません(Difyにはアプリにアクセスするユーザーを認証する機能はなく、その仕組みはDifyとは別に用意してあげる必要があります)。 ■ 作成可能なアプリの数 Difyの管理画面にアクセスして、作成できるアプリの数になります。 ■ ベクトルストレージの容量 Difyに登録したドキュメントがチャンク化され、ベクトル化されたデータが保存される領域のことです。ベクトルストレージの容量が不足すると、新しいドキュメントを登録することができなくなります。 ■ アップロードできるドキュメント数 Difyに登録できるドキュメントの数になります。ドキュメントは、テキストファイルやPDFファイルなど、様々な形式で登録することができます。ドキュメントの詳細については後述します。 ■ ドキュメント一括アップロード Difyに登録するドキュメントを一括でアップロードする機能です。この機能を使うことで、手動で1つずつドキュメントを登録する手間を省くことができます。 ■ メッセージリクエスト APIまたはウェブセッションを介したアプリからのすべてのメッセージが含まれます。(LLMリソースの使用量は含まれません) ■ 注釈返信の制限 注釈返信の制限は、その名の通り注釈返信の制限になります。注釈返信とは、チャットボットやチャットフローなどにて、ユーザーの質問から回答する際、OpenAIなどの生成AIに問い合わせて回答するのではなく、あらかじめ登録されたQAのペアをもとに回答する機能です。生成AIへのリクエストがないので、料金も節約でき、回答も早くなります。注釈返信の制限は、そのあらかじめ登録できるQAのペアの数になります(注釈返信については後ほど詳ししく説明します)。 ■ ログの履歴 ユーザーがアプリケーションを操作したログを残す期間になります。Free以外は無期限に残すことができます。 ■ カスタムツール DifyにはAIエージェントに与える標準ツールが多数用意されていますが、それだけでは足りない場合があります。そこで、Difyでは、ユーザーが独自のツールを作成してAIエージェントに組み込むことができます。Web APIの形式で提供されているAPIのOpenAPI仕様書をアップロードすることで、Difyのツールとして利用することができます。そのカスタムツールの登録数の制限です。Freeはカスタムツールを利用することができませんので、AIエージェントを作成する場合は、Freeの利用を慎重に検討してください。 ■ サポート Freeの場合はDiscord等によるコミュニティサポート、それ以上のプランではベンダーによるサポートを受けることができます。 ■ ロゴの変更 アプリ起動時のログ(下図赤枠参照)を変更することができます。 ■ LLM負荷分散 複数のAPIキーを事前に登録しておき、LLMを経のアクセスごとに異なるAPIキーを使ってLLMにアクセスする機能になります。 ■ SSO シングルサインオンを行う機能です。Difyはアプリに対する認証の機能を持っていません。外部のIdPによる認証を行う必要があります。SSOを利用することで、Difyに登録されたユーザーが、外部のIdPで認証を行い、Difyにセキュアにアクセスすることができます。 現在のところ、この機能を使うことができるのはEnterpriseプランのみです。SAMLとOpenID Connectに対応しています。 Premium Premiumは、AWSのAMI(Amazonマシンイメージ)で提供され、ワンクリックでEC2に展開することができます。コミュニティ版のように機能に制限はなく、さらにコミュニティ版よりももっと簡単に導入することができます。AWSを契約しているのであれば、検討の価値があるでしょう。 単一のEC2インスタンス上に展開されますので、冗長化やセキュリティなどは自分で考慮する必要があります。本当にサクッと使えるPoC環境として利用するのが望ましいと考えます。 第4章: 実行環境の選定基準 様々な環境の中で、一体どの環境を使えばいいか迷うと思います。そこで比較表を作成しました。 項目 コミュニティ版 クラウドサービス Premium 機能 すべての機能が無制限に利用可能 エンタープライズプラン以外は機能に制限あり すべての機能が無制限に利用可能 メンテナンス バージョンアップ、セキュリティパッチ等のメンテナンスは管理者が行う必要あり サービス側で実施 バージョンアップ、セキュリティパッチ等のメンテナンスは管理者が行う必要あり データの機密性 オンプレミスやパブリッククラウド上に構築することで、管理者自らがデータの機密性を保持 サービス側で機密性を担保 オンプレミスやパブリッククラウド上に構築することで、管理者自らがデータの機密性を保持 サポート Discordなどによるコミュニティサポート Freeプランはコミュニティサポート、それ以上はベンダーによるサポート メールでのベンダーによるサポート(AWSインフラ部分はAWSサポート) 費用 ソフトウェア利用料は無償(インフラの費用は別途必要) 有料(月額課金) ソフトウェア利用料は無償(AWSの費用は別途必要) スケーラビリティ スケールするためのインフラを用意する必要あり 負荷に応じてクラウド側でスケール スケールするためのインフラを用意する必要あり 以上の比較表を参考にして、自分の目的に合った実行環境を選定してください。 本当にざっくりいいますと、以下のような選定基準になります。 ■ コミュニティ版 メンテナンスに手間をかけてもいいから、データをオンプレミスやパブリッククラウド上に構築して、データの機密性を保ちたい。 ■ クラウドサービス データの機密性よりもメンテナンスを楽にしたい。 ■ Premium AWS持っていて、かつサクッとPoC環境つくりたい。 第5章: アプリケーションの種類 Difyには、様々な種類のアプリケーションを作成することができます。以下に、Difyで作成できる主なアプリケーションの種類を紹介します。 チャットボット Difyを使って作成できる最も基本的なアプリケーションの一つがチャットボットです。複雑な処理が必要なく、ユーザーからの質問に対して適切な回答を返すだけの場合、このチャットボットを使うのが適切です。 チャットフロー チャットボットよりも複雑な処理が必要な場合、チャットフローを使うのが適切です。例えば、質問の内容によって、異なるドキュメントを回答の参照元としたい場合や、外部のAPIを実行するなど独自の処理を入れたい場合は、チャットフローを使うのが適切です。 テキストジェネレーター 入力したプロンプトに基づいて、テキストを生成するアプリです。記事やブログの作成に適しています。一括して複数のテキストを生成する機能もありますので、記事を大量生産する場合に適しています。 エージェント AIエージェントを作成する機能です。プロンプトとツールを与えるだけで簡単にAIエージェントを作成することができます。AIエージェントは、ユーザーの入力に応じて自動的にタスクを実行したり、意思決定を行ったりすることができます。 ツールについては「インターネットを検索する」「QRコードを作成する」といったDify標準のものから、独自のツールを追加することもできます(後述しますが、独自ツールはAPIとして公開されている必要があります)。 ワークフロー LLMを使ったアプリケーションをノーコードで作成できます。例えば、画像にある情報をテキストとして抽出する機能を持つアプリケーションがその一例です。APIとしても公開することが可能ですので、ワークフローで作成したアプリケーションは、他のアプリケーションからも利用することができます。 第6章: Difyのインストール まずは、Difyを動かす環境を用意しないと始まりません。 Difyの実行環境 で紹介したコミュニティ版をインストールします。仮想マシンや自分のPCで動作することができ、ほぼすべての機能を制限なく利用できます(一部SSOなどクラウドサービスのエンタープライズプランでないと使えない機能もあります)。 クラウドサービスのSANDBOXプランも無料で使えます。メッセージクレジットもあるので、OpenAI等の外部のモデルの用意が不要に思えますが、200メッセージクレジットはすぐに使い切ってしまうので、どのみち外部のモデルは必要になります。 さらにSANDBOXプランは、カスタムツールの利用が不可となっております。カスタムツールがないと、AIエージェント作成の際、Difyで標準で用意されているツールのみの利用となり、非常に限定的な用途のAIエージェントしか作成できません。 よって、今回はコミュニティ版をインストールして、Difyを動かす環境を用意します。 ■ コミュニティ版のインストール 自分のPCなどの物理マシンもしくはAzureやAWS上の仮想マシンを用意して、Docker Composeを使ってDifyを起動します。以下のコマンドを実行してください。 $ git clone https://github.com/langgenius/dify.git $ cd dify/docker $ cp .env.example .env $ docker compose up -d ■ 管理者アカウントの設定 最初の管理者アカウントを設定します。以下のURLにアクセスしてください。 http://[ DifyをインストールしたマシンのIPアドレス ] 以下の画面が表示されますので、次のように入力し、最後に「セットアップ」をクリックします。 メールアドレス: 自分のメールアドレス ユーザー名: 管理者アカウントのユーザー名 パスワード: 管理者アカウントのパスワード   ■ ログイン 管理者アカウントの設定が完了すると、以下の画面が表示されます。先ほど設定したメールアドレスとパスワードを入力してログインしてください。 第7章: 簡単なチャットボットを作ってみよう ここからは、実際にDifyでチャットボットやワークフローを作りながら、Difyを学んでいきましょう。まずは、簡単なチャットボットを作成してみます。 モデルの設定 Difyは、LLMを利用したアプリケーションをノーコードで簡単に開発することができます。よって、もちろんDifyには何らかのLLMに接続する必要があります。それは、OpenAI、Azure OpenAI Service、Gemini、cohereといったものがあります。Difyではその接続対象のLLMのことを「モデル」と呼び、まずはそのモデルを設定する必要があります。   ■ モデル設定の画面を開く 画面右上のユーザー名をクリックして、「モデル」をクリックします。   ■ 追加対象のモデルを選択する 「モデルプロバイダー」をクリックし、追加対象のモデルを選択します。ここでは、Azure OpenAI Serviceを選択します。   ■ モデルを追加する 必要な情報を入力して、最後に「保存」をクリックします。ここではAzure OpenAI Serviceのモデルを追加する場合ですが、他のモデルの場合は入力項目が異なりますので、適宜必要な項目を入力してください。ただ、どのモデルにも共通して言えることですが、チャットボットを作る場合には、「Model Type」は「LLM」を選択してください。これは、チャットボットのように自然言語処理を中心としたタスクを処理する場合、LLM(大規模言語モデル)が最適なモデルタイプであるためです。 チャットボットの作成 モデルの設定が完了したら、次はチャットボットを作成します。 ■ アプリの種類選択画面を開く 「最初から作成」をクリックします。   ■ アプリの種類を選択する どのアプリを作成するかを選択する画面が開きます。ここではチャットボットを作成したいので、「チャットボット」を選択します(①)。 「アプリのアイコンと名前」にはアプリの名前を入力します。ここでは「簡単なチャットボット」と入力します(②)。 「説明」はアプリの説明となります。任意で入力してください(③)。 最後に、「作成する」をクリックします(④)。   ■ 質問を入力する 以下のような画面が表示されます。質問を入力してエンターを押します。   ■ 回答を確認する 質問に対する回答が表示されます。これで簡単なチャットボットが構築できました。   ■ アプリを実行する 次はアプリを実行してみます。今まで実施したのはいわば開発環境のアプリ開発作業であり、ここでは開発したアプリを実行してみます。 画面右上の「公開する」をクリックして(①)、「アプリを実行」をクリックします(②)。   ■ アプリを開始する アプリが起動します。アプリを開始するには、「Start Chat」をクリックします。   ■ アプリを使ってみる 以下のような画面が表示されます。質問を入力してエンターを押すと、回答が表示されます。 Difyを使うと、このように簡単にAIチャットボットを作成することができます。次は、より複雑なアプリケーションを作成していきましょう。 第8章: 高機能なチャットボットを作ってみよう 先ほど作成したチャットボットをさらに高機能にしてみましょう。以下の機能を追加していきます。 システムプロンプトによるキャラ付け 変数の利用 画像の解析 システムプロンプトによるキャラ付け システムプロンプトによって、AIにキャラ付けを行うことができます。「手順」のところで、システムプロンプトを設定してみましょう。 ここでは、「赤ちゃんのような言葉遣いで回答してください。」というシステムプロンプトを設定します。 すると回答が、赤ちゃんのような言葉遣いで返ってきます。 変数の利用 変数を利用すると、会話の最初にユーザーが入力した情報を利用することができます。 システムプロンプトによるキャラ付け で作成したシステムプロンプトに変数を利用してみましょう。 ■ 変数を追加する 「追加」をクリックして(①)、「短文」を選択します(②)。 変数は様々な種類があります。状況に応じて適切な変数を選択してください。 短文: 1行のテキスト 段落: 複数行のテキスト 選択: セレクトボックス形式の選択フォーム 数値: 数値型の変数   ■ 設定画面を表示する 変数名や項目必須などを設定する画面を表示するために、「設定」をクリックします。   ■ 各種設定を行う 変数を利用するための様々な設定を行います。以下のように入力して最後に「保存」をクリックします。 変数名: 変数の名前を入力します。ここでは「input」と入力します(①)。 ラベル: 変数のラベル名を入力します。ここでは「キャラ」と入力します(②)。 最大長: 入力可能な最大文字数を入力します。ここでは「48」と入力します(③)。 必須: 必須項目かどうかを選択します。必須にすると、ユーザーが入力しないと会話が開始できません。ここではチェックをします(④)。     ■ システムプロンプトを設定する システムプロンプトを以下のように設定します。 {{input}}のような言葉遣いで回答してください。 {{input}}の部分には先程定義した変数の値が入ります。「各種設定を行う」で定義舌変数名を、システムプロンプトで定義した変数名(input)は同じでなければなりません。   ■ アプリを実行する アプリを実行して、変数を利用したチャットボットを試してみましょう。画面上部に先ほど付与した変数名である「キャラ」が表示されているので、ここに例えば今回であれば「オネエ」と入力してみます(①)。そして、「いちごは何色ですか?」と質問してみます(②)。   ■ 動作を確認する 質問すると、以下のようにオネエ言葉で回答してくれます。 データの流れは以下のようになっています。 変数を定義すると、会話開始時にユーザーへの入力フォームが表示され、ユーザーが入力した値が変数に格納されます(①)。 会話を開始すると、ユーザー入力した値(ここでは「オネエ」)が、システムプロンプトの{{input}}に代入されます(②)。 最終的に、「オネエのような言葉遣いで回答してください。」というシステムプロンプトが出来上がり、AIはその指示に従い回答します(③)。 画像の解析 Difyは、画像の解析も行うことができます。ここでは、画像の解析を行う機能を追加してみましょう。この機能を利用するには、GPT-4oなどのマルチモーダルLLM(画像とテキストを同時に処理できるLLM)を利用する必要があります。 ■ ビジョンを有効にする 「ビジョン」のところにあるトグルボタンをオンにして、ビジョンを有効にします。   ■ 画像をアップロードする ピンの形のアイコンをクリックして(①)、「ローカルアップロード」をクリックします(②)。ローカルのPCからファイルをアップロードすることができます。 ちなみに、画像の解析は、画像のURLを指定して行うこともできます。その場合は、「URLを入力⋯」と表示されているテキストボックスにURLを入力してください。   ■ プロンプトを入力する 画像をアップロードすると、以下のような画面が表示されます。プロンプトを入力してエンターを押します。   ■ 解析結果を確認する プロンプトを入力すると、以下のような画面が表示されます。画像の解析結果が表示されます。 画像の中身を解析できていますね!! 第9章: RAGを作ってみよう ここからは、より高度なアプリケーションを作成していきます。生成AIの今ナウくて熱いユースケースであるRAG(Retrieval Augmented Generation)を作成してみましょう。 そもそもRAGってなに? OpenAIやAzure OpenAI Serviceは、インターネットなどによって公開されている膨大な量の情報を収集し、モデルをトレーニングして、そのモデルに基づき回答を生成しています。 しかしながら、自社が保有している情報をベースに回答を生成したいというユースケースはあると思います。例えば、社内の就業規約に関するQAなどです。育児休業の申請方法は、企業によってその方法が違うのはもちろんですし、そしてそのような情報は社内にてクローズドに管理されている就業規約に書かれていることがほとんどです。そんな就業規約のような独自データに基づいた回答を生成AIがしてくれたら、とっても便利だというのは言うまでもありません。今までセコセコ就業規約を検索して調べてたのが、生成AIに「育児休業の申請方法ってどうすればいいの?」と聞くだけで、回答が返ってくるなんて、とってもステキです。 実現方法として真っ先に思いつくのは、モデルに独自データを追加して学習させることです。一般的には「モデルの微調整」と言われたりしていまして、Azure OpenAI Serviceにもそういうサービスがあります。ただし、モデルの微調整は大変な作業です。モデルの微調整は、学習済みのモデルに追加の情報やデータを組み込むことで、その性能や反応を調整するプロセスなのですが、新しいデータセットの用意、学習の設定やパラメータ調整、そして再学習の実行など、多くの手間と時間がかかります。マイクロソフトも「モデルの微調整は最後の手段」と言っています。 そこで、モデルの微調整の代わりに、RAG(Retrieval Augmented Generation)の手法が推奨されます。時間やコストのかかるモデルの微調整をするのではなく、既存のドキュメントを外部データベースに登録し、ユーザーの質問と関連のあるドキュメントを外部データベースから取得します。そして、その内容に基づき、LLMに回答を指示することで、独自データに基づいて回答させるという手法です。 チャンク化とベクトルデータベース RAGの仕組みに詳しい方は、この節は読み飛ばしていただいて結構です。ここでは、チャンク化とベクトルデータベースに付いて説明します。 ベクトルデータベース 従来の検索は、検索対象の言葉がどのくらいドキュメントに含まれるかを数えることで行われていました。これを全文検索と呼ぶこととします。全文検査k検索は、厳密には、TF-IDF(Term Frequency-Inverse Document Frequency)という手法を使って、単語の重要度を計算して、検索結果の並び替えを行うなど、複雑な処理が内部では行われています。 この手法だと、微妙な言葉の揺らぎや、同じ意味の言葉の違いなどを考慮することが難しいです。そこでベクトル検索という技法が使われます。 ベクトル検索は、全文検索検索と比べて、より意味を理解することができます。たとえば、全文検索では「リンゴ」と入力すれば、「リンゴ」が書かれたページを見つけますが、ベクトル検索なら「フルーツ」や「健康食品」のような関連する言葉のページも見つけられます。これはベクトル検索が単語の意味を把握し、それに基づいて検索するからです。そのため、もっと広い範囲の情報を見つけやすくなり、また、同じ意味の言葉が違う言語で書かれていても、ベクトル検索ではうまく検索できることが多いです。これにより、より幅広い情報にアクセスしやすくなります。 さて、ここでベクトル検索における比較を理解しやすくするために、例として「甘み」と「価格」という2つの要素を用いて、いくつかの食べ物について考えてみましょう。まず、各食べ物について、どれだけ甘いかという「甘み」、そしていくらかかるかという「価格」に基づいて数値を割り当てます。この数値を使って、それぞれの食べ物を2次元のグラフにプロットします。 このグラフ上で、各食べ物は点として表され、点の位置はその食べ物の「甘み」と「価格」の数値によって決まります。例えば、リンゴは甘さが中程度で価格も手頃なため、中間の位置に点が来ます。一方で、レモンはあまり甘くないため、甘みのスケールでは低い位置に、価格が低いため価格のスケールでも低い位置に点が来ます。 次に、これらの点をベクトルとして考え、原点から各点へと向かう線分を描きます。これがそれぞれの食べ物の「特徴ベクトル」です。ベクトルの角度が小さいほど、2つの食べ物は特徴が似ていると言えます。つまり以下の図でθ1とθ2を見てみます。 リンゴとイチゴは、甘みも価格も似ているためθ1は、小さい角度になります。一方でリンゴとハバネロは価格こそ似ていれど、甘み大きく異なるため、θ2は大きい角度になります。 この角度を計算することにより、これらの果物がどの程度似ているのかを比較しますが、コンピューターは分度器を持っていないので、角度を比較するための計算式が必要となります。そこでコサイン類似度を使います。ベクトルAとベクトルBの内積をベクトルAの長さとベクトルBの長さの積で割ったものになります。数式に表すと以下になります。 コサイン類似度は、2つのベクトルがどれだけ同じ方向を向いているかを測る数値で、1に近いほど似ていると言えます。 では、リンゴとイチゴのコサイン類似度を求めてみます。 0.999となり1にかなり近く、リンゴとイチゴは非常に似ているということがわかります。 では、θ2つまりリンゴとハバネロはのコサイン類似度はどうでしょうか?価格はそこそ近いですが、甘みは大きくかけ離れています。まぁ、イチゴに比べればハバネロはとても辛いので感覚的にわかりますが、先程のコサイン類似度を使って数値として求めてみます。 リンゴとイチゴのコサイン類似度よりも1から遠い値になりました。なるほど、やっぱりリンゴとイチゴのほうがお互い似ていて、リンゴとハバネロはあんまり似ていないということがデータでわかりました。 このように、コサイン類似度を計算することで、グラフ上の位置の違いを超えて、2つの食べ物がどれだけ「特徴」が似ているかを数値で表すことができるのです。 今までは「甘み」と「価格」という2つの次元で類似度を計算していましたが、この考え方は自然言語処理においても応用可能です。自然言語の場合、単語や文書を表すために、何千から何万にも及ぶ多次元ベクトルを使用します。これらの高次元ベクトルには、言語の複雑な特徴が埋め込まれており、文書や単語間の意味的類似度を計算する際に使用されます。この方法により、テキスト間の意味的な距離を定量的に捉えることができます。 前置きが長くなりましたが、このベクトル化されたデータを格納するのものが、「ベクトルデータベース」となります。先の例で言えば、リンゴやイチゴ、ハバネロの特徴ベクトルをデータベースに格納しておき、ユーザーが「リンゴ」と入力したときに、リンゴの特徴ベクトルを取り出し、他の特徴ベクトルとのコサイン類似度を計算して、最も近いものを返すということができます。 環境変数を見る限りでは、コミュニティ版のDifyは以下のベクトルデータベースに対応しているようです。非常に多様な種類に対応していますね。 Weaviate (デフォルトではこれ) Qdrant Milvus MyScale Relyt PGVector PGVecto-RS Chroma OpenSearch TiDB Vector Oracle Tencent Vector ElasticSearch AnalyticDB Couchbase VikingDB OceanBase Upstash Vector Lindorm 以下の環境変数を参考にしました。 https://github.com/langgenius/dify/blob/main/docker/.env.example チャンク化 RAGではドキュメントをベクトル化して、ベクトルデータベースに格納します。このベクトル化する際に、ドキュメントを小さな単位に分割することがあります。この小さな単位を「チャンク」と呼びます。チャンク化する理由は、Azure OpenAI ServiceやOpenAIで提供される文章をベクトル化するEmbeddings APIのトークン数の制限に引っかからないようにするためです。このAPIはリクエストあたりのトークン数に上限があり(たとえばtext-embedding-ada-002では8191トークン)、そのためテキストを細かく分割する(チャンク化する)必要があります。 また、RAGではLLMに対して、ユーザーの質問に加えて、外部データベースからドキュメントを取得し、そのドキュメントに基づいてユーザーの質問に回答してと指示を出します。こうすることで、ユーザーが保持する独自の情報をベースに回答できるようになります。 このときに、LLMに送るドキュメントのサイズにもまた限界があります。例えば、ものすごいページ数の多いドキュメントをいっぺんにLLMに送ってもエラーになります。つまり、APIのリクエストサイズにも制限があるのです。 ここでもドキュメントのチャンク化が有効になります。ドキュメントをチャンク化し、細かいサイズに分割し、ユーザーの質問に関連のある必要なドキュメントの断片だけをお送ることでAPIの制限を回避することができます。 またチャンク化する際にオーバーラップという処理を施します。チャンクのオーバーラップとは、テキストを小さな部分(チャンク)に分割する際に、隣接するチャンク間で一部のテキストが重複するようにすることです。 チャンクのオーバーラップにより、バラバラになった文章を関連のある一つの文章としてAIが認識できるようになります。これにより、テキストの意味が途中で切断されるのを防ぎ、チャンク間での文脈の連続性が保たれます。結果として、検索や自然言語処理の精度が向上し、AIによる回答生成がより正確かつ関連性の高いものとなります。オーバーラップは、テキストをチャンクに分割する際に重要な情報が欠落するのを防ぐと同時に、バラバラだった文章を一つの関連性のある文章として認識するのに役立ちます。このように、チャンクのオーバーラップは、テキストの処理と理解を効率的に行うための重要な手法となります。 イメージにしますと以下のようにドキュメントを分割します。それぞれのチャンクが重なっているところがオーバーラップしている部分です。 ナレッジ 先ほどRAGは外部データベースにドキュメントを格納することがキモだと説明しました。Difyは、そのドキュメントを「ナレッジ」という単位で論理的にグループ化します。 開発チームメンバーがドキュメントをファイル単位でDifyに登録します。そのドキュメントは、ナレッジという単位でグループ化され、チャットボットやワークフローなど様々なアプリから参照されます。 そして、先程の チャンク化 の項でも説明しましたが、Difyもドキュメントをチャンク化し、ベクトルデータベースに登録しています。 具体例として、架空の会社ホゲホゲ株式会社の社内の就業規約を登録する例を上げてみましょう。ホゲホゲ株式会社は、社内規約を以下のカテゴリごとに単一のPDFファイルに分けているとします。 人事規程 (hr.pdf) 経理規程 (accounting.pdf) 情報システム関連規程 (it.pdf) 個人情報保護規程 (privacy.pdf) 品質保証関連規程 (quality.pdf) 以下の図のようなイメージでDifyにはナレッジとして登録されます。 RAGを作ってみよう それでは、実際にRAGを作成してみましょう。 ■ ナレッジの追加画面を開く まずはナレッジを追加する必要があります。「ナレッジ」(①)→「ナレッジを作成」(②)の順にクリックします。   ■ ドキュメントをアップロードする ナレッジに追加するドキュメントをアップロードします。 以下のURLからダウンロードできる「モデル就業規則」のPDF版をダウンロードしてください。 https://www.mhlw.go.jp/stf/seisakunitsuite/bunya/koyou_roudou/roudoukijun/zigyonushi/model/index.html 「テキストファイルからインポート」をクリックします(①)。そして、ダウンロードしたPDFファイルを選択してアップロードします(②)。最後に「次へ」をクリックします(③)。   ■ チャンクの設定を行う チャンクの設定を行います。チャンクの区切り文字や、チャンクの大きさなど、チャンクをする際に必要な設定を行います。ここではデフォルトの設定として、「保存して処理」をクリックします。チャンクの設定の詳細については「 第15章: チャンキング 」を参照してください。   ■ チャンクを行う チャンクの処理が開始されると、「埋め込み処理中…」と表示されます。しばらく待つと、チャンクの処理が完了し、「埋め込み処理が完了しました」と表示されます。「ドキュメントに移動」をクリックします。   ■ ドキュメントの追加完了を確認する 先ほど追加したドキュメントのステータスが「利用可能」となっていることを確認します。これで、ナレッジの追加は完了です。   ■ アプリの種類選択画面を開く Difyの管理画面トップにアクセスして、「最初から作成」をクリックします。   ■ アプリの種類を選択する どのアプリを作成するかを選択する画面が開きます。ここではチャットボットを作成したいので、「チャットボット」を選択します(①)。 「アプリのアイコンと名前」にはアプリの名前を入力します。ここでは「簡単なチャットボット」と入力します(②)。 「説明」はアプリの説明となります。任意で入力してください(③)。 最後に、「作成する」をクリックします(④)。   ■ コンテキストの追加 RAGに必要なナレッジを追加します。「追加」をクリックします。   ■ ナレッジを選択する 参照するナレッジを選択します。先程追加した「モデル就業規則」を選択します(①)。そして、「追加」をクリックします(②)。   ■ 動作確認を行う これでRAGが完成しました。質問を入力して、回答を確認してみましょう。 質問に対して、適切な回答が返ってくることが確認できました。 ファイル名のところをクリックしてみましょう。この回答を作成するために参照したチャンクが表示されます。 このチャンクを確認することで、チャットボットの回答の根拠を確認することができます。   ■ アプリを更新する 今まで設定を行ってきた画面は、開発者がアプリを作成するための画面です。この画面で行った設定をアプリに更新する必要があります。 「公開する」(①)→「更新」(②)をクリックします。こうすると、修正内容がアプリに反映されます。   ■ アプリを実行する 動作確認するためにアプリを実行します。「アプリを実行」をクリックします。   ■ アプリの動作確認をする アプリが起動し、チャットボットが表示されます。質問を入力して、回答を確認してみましょう。 利用者に使ってもらうためには、このアプリのURLを配布して、アクセスしてもらいます。 以上で、RAGの作成は完了です。とっても簡単にRAGを作成することができましたね。 第10章: ワークフローを作ってみよう ここからは、ワークフローを作成していきます。Difyのワークフローを使うと、本来Pythonなどのプログラミング言語で作成しなければいけなかったLLMアプリケーションをノーコードで作成することができます。 これはまさにDifyの強みであり、Difyによる「AIの民主化」に資するものです。プログラミングができない人でも、Difyを使ってAIを活用することができるのです。今までLLMは一部の専門家のものでしたが、Difyによって一般の人々も使うことができるようになりました。 以降では、Difyのワークフローについて、その基礎概念から詳しく説明します。 ワークフローの基本 Difyに限ったことではないですが、ワークフローは一般的に、入力・処理・出力の3つの要素から構成されます。Difyのワークフローも同様で、入力値を受け取り、処理を行い、出力値を返すという流れになります。図解すると以下のようになります。 入力と出力は一般的なワークフローと同等です。入力では、まずこのワークフローに最初に入力する値を定義し、出力では最終結果を出力します。 処理の部分は、Difyには「ブロック」「ツール」の2つがあります. ブロックは、ワークフローの中で、処理を行うための基本的な要素です。たとえば、条件分岐や繰り返し処理などがあります。他にもOpenAIなどのLLMへの接続を行うブロック、Pythonのコードを実行するブロックなどがあります。 ツールは、インターネット検索やQRコード生成といった、特定の処理を行うためのツールです。他にも株価検索や天気予報取得など、様々なツールが用意されています。 ツールとブロックは順番関係なくつなげていくこともできますし、2つ以上の複数のブロックやツールをつなげることもできます。また、ブロック/ツールを並行に処理させることもできます。 これから作るワークフローの概要 本章で作成するワークフローの概要について説明します。 企業内には様々な契約書があります。契約書にはもちろん様々な契約事項が書いてあり、その中には契約満了期間といった、期日に関わる重要な事項もあります。契約満了期間を把握しておくことは、契約の管理において非常に重要です。ましてや契約期間が切れているなんてもってのほかです。しかし契約書の中には相当大量の契約事項が書かれているものもあり、その中から契約期限切れのおそれがある部分を探すのは大変です。 そこで、DifyのワークフローによるLLMアプリの出番です。そんな課題を解決すべく、以下のワークフローを作成します。イメージが付きやすいようにいきなり完成形をお見せします。   このワークフローは、企業内に散在するPDF形式の契約書から、そのテキストを抜き出し、LLMで解析させて、契約書に内在する契約満了期間のリスクを洗い出します。LLMは現在の時間はわからないので、現在時刻を取得するツールを使って現在時刻を取得し、それをLLMに投げます。LLMは契約書のテキストと現在時刻を入力として、契約満了期間のリスクを洗い出します。最後に契約満了期間のリスクを出力します。 このワークフローは以下のパーツで構成されています。 開始: ワークフローの開始地点です。契約書のPDFファイルが入力されます。 ツール(CURRENT TIME): 現在時刻を取得します。契約書内の契約満了期間と現在時刻を比較するために必要です。 ブロック(テキスト抽出ツール): 契約書のPDFファイルからテキストを抽出します。 ブロック(LLM): 現在時刻と契約書のテキストを入力として、契約満了期間のリスクを洗い出します。 終了: ワークフローの終了地点です。契約満了期間のリスクが出力されます。 処理の流れは以下の通りとなります。 1. 契約書のPDFファイルを入力として受け取ります。 2. ツール(CURRENT TIME)で現在時刻を取得します。LLMは現在の時刻を取得することができないため、このツールを使って現在時刻を取得します。 3. ブロック(テキスト抽出ツール)で契約書のPDFファイルからテキストを抽出します。 4. ブロック(LLM)で契約書のテキストと現在時刻を入力として、契約満了期間のリスクを洗い出します。以下のようなプロンプトを作成して、LLMに投げます。 現在の日付は{CURRENT TIMEで取得した現在時刻}です。以下の契約書について、契約期間の満了が迫っている場合や、期間に関するリスクが存在する場合は、それらを特定し、具体的に列挙してください。 {テキスト抽出ツールで抽出した契約書のテキスト} 5. 終了で契約満了期間のリスクが出力されます。 今回のワークフローで使うPDFは以下のURLからダウンロードできます。 contract 契約書の内容は以下のとおりです。 「第2条(契約期間)」には契約期間が記載されています。この契約期間が満了する日付を洗い出し、リスクを明確化することがこのワークフローの目的です。 ワークフローの構成 今回作成するワークフローの構成を説明します。 まず、「開始」では、契約書のPDFファイルを入力として受け取ります。 「CURRENT TIME(ツール)」「テキスト抽出ツール(ブロック)」が並行して処理されます。まず、「CURRENT TIME(ツール))」で現在時刻を取得します。次に、「テキスト抽出ツール(ブロック)」で契約書のPDFファイルからテキストを抽出します。とてもわかりにくいのですが、「テキスト抽出ツール」は、ツールと言う名前がありますが、実際にはブロックです。 「LLM(ブロック)」では、契約書のテキストと現在時刻を入力として、契約満了期間のリスクを洗い出します。具体的には、「CURRENT TIME(ツール)」「テキスト抽出ツール(ブロック)」の処理結果を以下のようにプロンプトに埋め込んで、LLMに投げます。 現在の日付は{CURRENT TIMEで取得した現在時刻}です。以下の契約書について、契約期間の満了が迫っている場合や、期間に関するリスクが存在する場合は、それらを特定し、具体的に列挙してください。 {テキスト抽出ツールで抽出した契約書のテキスト} {CURRENT TIMEで取得した現在時刻}の部分は、CURRENT TIME(ツール)の処理結果を埋め込んでいます。{テキスト抽出ツールで抽出した契約書のテキスト}の部分は、テキスト抽出ツール(ブロック)の処理結果を埋め込んでいます。 「CURRENT TIME(ツール)」「テキスト抽出ツール(ブロック)」によって取得した値が埋め込まれたプロンプトは以下のようになります。 現在の日付は2022-01-01です。以下の契約書について、契約期間の満了が迫っている場合や、期間に関するリスクが存在する場合は、それらを特定し、具体的に列挙してください。 契約書 第1条(契約の目的) 本契約は、○○株式会社(以下「甲」という)と△△株式会社(以下「乙」という)との間で、XXXXXに関する契約の条件を定めるものである。 ...以下省略... ワークフローの作成 では、実際にワークフローを作成していきましょう。 ■ アプリの種類選択画面を開く 「最初から作成」をクリックします。   ■ アプリの種類を選択する どのアプリを作成するかを選択する画面が開きます。ここではワークフローを作成したいので、「ワークフロー」を選択します(①)。 「アプリのアイコンと名前」にはアプリの名前を入力します。ここでは「契約書チェック」と入力します(②)。 「説明」はアプリの説明となります。任意で入力してください(③)。 最後に、「作成する」をクリックします(④)。   ■ 入力フィールド追加画面を開く ワークフローの入力フィールドを追加するための画面を開きます。「追加」をクリックします。   ■ 入力フィールドを追加する ワークフローの最初の入力となる契約書のファイルを入力するフィールドを追加します。以下のように入力して、最後に「保存」(⑤)をクリックします。 – ①フィールドタイプ: 単一ファイル 入力の形式を選択します。単一のテキストや、ラジオボタンのような選択形式、複数行のテキスト等様々な入力形式があります。ここでは契約書のファイルを一つだけアップロードするので、「単一ファイル」を選択します。 – ②フィールド名: file アップロードした契約書のファイルの内容が格納される変数名になります。後のブロックやツールなどで使います。 – ③ラベル名: ファイル フォームに表示されるラベル名です。ここでは「ファイル」と入力します。 – ④サポートされたファイルタイプ: ドキュメント どの種別のファイルアップロードを許可するかを設定します。画像、音声等様々なファイルがアップロード可能ですが、ここではPDFをアップロードするので「ドキュメント」を選択します。 – ⑤ アップロードされたファイルのタイプ: ローカルアップロード ファイルのアップロード方法を選択します。ローカルアップロードは、自分のPCからファイルをアップロードする方法です。URLからアップロードする方法もあります。ここではローカルアップロードを選択します。 – ⑥ 必須: チェックを入れる ファイルのアップロードを必須にするかどうかを設定します。ここでは契約書のファイルをアップロードしないとワークフローが進められないので、チェックを入れます。   ■ テキスト抽出ツールを追加する テキスト抽出ツールのブロックを追加します。「開始」の右側にある「+」をクリックします(①)。様々なブロックやツールが表示されます。各ブロックやツールの詳細は後ほど説明しますが、ここでは「テキスト抽出ツール」を選択します(②)。   ■ テキスト抽出ツールの設定を行う テキスト抽出ツールの設定を行います。まず入力変数の設定を行います。入力変数はこのブロックに入力される値です。Difyのワークフローではこのブロックに限らず、すべてのブロックやツールはその入力となる値をいれる必要があります。これは当然で、何らかの処理を行う場合、基本的に入力→処理→出力の流れになるためです。 ここでは、「開始」の部分で設定した「file」を入力変数に設定します。こうすると、開始の部分で選択した契約書のファイルがこのブロックに入力されることになります。   ■ テキスト抽出ツールの設定内容を確認する 下図のように表示されればOKです。これは「開始」で設定した「file」という変数がこのブロックに入力されることを示しています。   ■ CURRENT TIME(現在時刻を取得するツール)を追加する CURRENT TIME(現在時刻を取得するツール)を追加するために、「開始」の右側にある「+」をクリックします(①)。「ツール」をクリックすると(②)、ツールの一覧が表示されますので、検索ボックスに「current」と入力して(③)、「CURRENT TIME」を選択します(④)。   ■ CURRENT TIME(現在時刻を取得するツール)の設定を行う ツールを追加したあとは、そのツールの設定を行います。これは各ツールごとに設定内容が異なります。「CURRENT TIME」の場合は以下になります。 ① FORMAT: %Y-%m-%d %H:%M:%S 現在時刻のフォーマットを指定します。ここでは「年-月-日 時:分:秒」のフォーマットを指定します。 ② TIMEZONE: Asia/Tokyo 現在時刻のタイムゾーンを指定します。ここでは日本時間を指定します。このタイムゾーンを正確に指定しないと、正しい現在時刻を取得できません。UTCのままだと日本時間から9時間ズレた値となりますので、ご注意ください。   ■ LLM(ブロック)を追加する 契約書の内容と現在時刻を入力として、契約満了期間のリスクを洗い出すLLMのブロックを追加します。「テキスト抽出ツール」のブロックの右側にある「+」をクリックします(①)。「LLM」のブロックを選択します(②)。   ■ CURRENT TIME(ツール)とLLM(ブロック)を接続する 「CURRENT TIME(ツール)」と「LLM(ブロック)」を接続します。これは「CURRENT TIME(ツール)」の処理結果を「LLM(ブロック)」に入力として渡すための接続です。「CURRENT TIME(ツール)」の右側にある「+」をクリックして(①)、そのままドラッグして、「LLM(ブロック)」に接続します(②)。   以下のようになればOKです。   ■ LLM(ブロック)の設定を行う LLM(ブロック)の設定を行います。まず、LLMのブロックにはそれを処理するモデルの指定が必要です。ここでは、「チャットボット」の章で作成したモデルを指定します(①)。 次にプロンプトを設定します。「+メッセージを追加」をクリックします(②)。   ■ プロンプトの設定を行う LLMに投げるプロンプトを設定します。プロンプトは、LLMに投げる質問のようなものです。ここでは以下のように設定します。 現在の日付はです。以下の契約書について、契約期間の満了が迫っている場合や、期間に関するリスクが存在する場合は、それらを特定し、具体的に列挙してください。 現在時刻や契約書のテキストを埋め込む部分が設定されていませんが、気にしないでください。次のステップで設定します。    ■ 現在時刻をプロンプトに埋め込む 先ほど追加したプロンプトの「現在の日付は」の後に、キーボードで「/」(スラッシュ)を入力します。すると、変数の一覧が表示されます。ここから「CURRENT TIME」の「text」を選択します(①)。これは「CURRENT TIME(ツール)」のtextという変数に現在時刻が格納されており、それをプロンプトに埋め込むための作業です。   以下のようになればOKです。   ■ 契約書のテキストをプロンプトに埋め込む 同様に、テキスト抽出ツールのブロックで抽出した契約書のテキストをプロンプトに埋め込みます。プロンプトの末尾で「/」(スラッシュ)を入力します(①)。すると、変数の一覧が表示されます。ここから「テキスト抽出ツール」の「text」を選択します(②)。   以下のようになればOKです。   ■ 終了を追加する 最後に「終了」を追加します。これを追加しないと、ワークフローの最終結果が出力されません。LLMのブロックの右側にある「+」をクリックして(①)、「終了」を選択します(②)。   ■ 終了の設定を行う 出力変数を設定します。出力変数はワークフローの最終結果となる値です。変数名は「result」とします(①)。そして、このresultに格納される値を設定します。ここでは「LLM(ブロック)」の「text」を設定します(②)。そうすると、LLMのブロックで洗い出した契約満了期間のリスクがresultに格納されます。   以下のようになればOKです。   ■ ワークフローを実行する これでワークフローは完成です。では、ワークフローを実行します。「実行」をクリックすると(①)、ワークフローを開始するために必要な入力フォームが表示されます。「開始」の部分で定義したように、契約書のPDFファイルをアップロードするためのフォームが表示されます。「ローカルアップロード」をクリックして、契約書のPDFファイルをアップロードします(②)。   以下のようになればOKです。「実行を開始」をクリックします。   ■ 結果を確認する ワークフローの実行結果を確認します。契約書の内容を見て、現在日時と比較して、契約満了日が迫っているものを洗い出して、教えてくれています。   ■ トレースを確認する 開始や終了、各ブロックやツールの詳細な処理内容を確認することができます。それぞれのブロックやツールをクリックすると入力内容や出力結果が表示されます。詳細な処理内容を確認したいときや、ワークフローがうまく動かないときに使います。   これでワークフローの作成は完了です。Difyは、複雑なLLMアプリケーションをノーコードで作成することができるため、非常に便利です。これにより、プログラミングができない人でも、AIを活用することができるようになります。 第11章: チャットフローを作ってみよう 本章では、チャットフローを作ります。チャットボットとの違いは、複雑なチャットボットを作れることです。 下図のようにチャットボットは、ナレッジを参照して答えるだけの単純なチャットボットです。一方でチャットフローは、例えば質問の内容を解析して、その内容に沿ったナレッジを参照させる等、高度な処理を行うことができます。その高度な処理は、ワークフローのように複数のブロックやツールを組み合わせて作ることができます。 つまり、チャットフローは、チャットボットとワークフローを組み合わせたものと言えます。   これから作るチャットフローの概要 これから作るチャットフローの概要を説明します。このチャットフローは、質問の内容に応じて、それぞれナレッジの参照先を変えるチャットフローです。自社製品に関するナレッジと自社製品に関するナレッジがあり、ユーザーの質問の内容をLLMが解析して、その質問に応じた適切なナレッジを参照して回答するRAGです。質問に関連したナレッジのみを参照することにより、回答を生成するための情報に余計なノイズが入り込むことを防止し、回答精度を向上させることができます。 まずは、「質問分類器」というブロックによって質問の内容をLLMが解析します。その結果、質問の内容を「自社製品に関する質問」「福利厚生に関する質問」「その他」にカテゴライズします。そのカテゴリに応じて、それぞれのナレッジを参照して回答を生成します。 「自社製品に関する質問」の場合は、「知識取得」というブロックに遷移し、自社製品に関するナレッジを参照します。次にLLMのブロックによって、質問の内容とナレッジを入力として、回答を生成します。最後に「回答」のブロックによって、回答を出力します。この回答のブロックがないと、チャットフローはユーザーに回答を出力できません。 「福利厚生に関する質問」の場合は、参照するナレッジが福利厚生になるだけで、それ以外の処理は「自社製品に関する質問」と同じです。 「その他」の場合は、「回答」のブロックで、「回答ができません」という固定の回答を返すようにします。 ナレッジの作成 まずは、ナレッジを作成します。ナレッジは、チャットフローの中で参照される情報です。自社製品に関するナレッジと福利厚生に関するナレッジを作成します。 ■ ナレッジの作成画面を開く ナレッジを作成するための画面を開きます。「ナレッジ」をクリックし(①)、「ナレッジを作成」をクリックします(②)。   ■ ドキュメントをアップロードする ナレッジに追加するドキュメントをアップロードします。 以下のリンクにて、自社製品に関するナレッジのPDFファイルをダウンロードしてください。こちらは私が作成した架空の自社製品に関するナレッジです。 product 「テキストファイルからインポート」をクリックします(①)。そして、ダウンロードしたPDFファイルを選択してアップロードします(②)。最後に「次へ」をクリックします(③)。   ■ チャンクの設定を行う チャンクの設定を行います。チャンクの区切り文字や、チャンクの大きさなど、チャンクをする際に必要な設定を行います。ここではデフォルトの設定として、「保存して処理」をクリックします。チャンクの設定の詳細については「」を参照してください。   ■ チャンクを行う チャンクの処理が開始されると、「埋め込み処理中…」と表示されます。しばらく待つと、チャンクの処理が完了し、「埋め込み処理が完了しました」と表示されます。「ドキュメントに移動」をクリックします。   ■ ドキュメントの追加完了を確認する 先ほど追加したドキュメントのステータスが「利用可能」となっていることを確認します。これで、ナレッジの追加は完了です。   ■ ナレッジの追加を繰り返す 同様の手順で、福利厚生に関するナレッジのPDFファイルをアップロードして、ナレッジを追加します。 以下のリンクにて、福利厚生に関するナレッジのPDFファイルをダウンロードしてください。こちらは私が作成した架空の福利厚生に関するナレッジです。 benefits チャットフローの作成 それでは、チャットフローを作成していきましょう。 ■ アプリの種類選択画面を開く 「最初から作成」をクリックします。   ■ アプリの種類を選択する どのアプリを作成するかを選択する画面が開きます。ここではチャットフローを作成したいので、「チャットフロー」を選択します(①)。 「アプリのアイコンと名前」にはアプリの名前を入力します。ここでは「賢いチャットフロー」と入力します(②)。 「説明」はアプリの説明となります。任意で入力してください(③)。 最後に、「作成する」をクリックします(④)。   ■ 「開始」以外のブロックを削除する デフォルトでは、LLMや回答などのブロックがありますが、今回はゼロから作成したいため、これらのブロックを削除します。削除するには、各ブロックの右上にある「…」をクリックして(①)、「削除」をクリックします(②)。   ■ 質問分類器を追加する まずは質問分類器を追加します。「開始」の右側にある「+」をクリックして(①)、「質問分類器」をクリックします(②)。   ■ 質問分類器のモデルを選択する 質問分類器のモデルを選択します。「モデル」をクリックすると(①)、別のウィンドウがポップアップします。「モデル」をクリックすると(②)、モデルの一覧が表示されます。ここでは「チャットボット」の章で作成したモデルを選択します(③)。   ■ 質問分類器の入力変数を設定する 質問分類器の入力変数が「sys.query」に設定します。おそらくデフォルトでsys.queryが設定されてると思います。これはユーザーが入力した質問の内容が格納される変数です。チャットフローでは固定で定義されているシステム変数となります。   ■ クラスの設定 質問を分類分けするためのクラスを設定します。このクラスで設定した説明をもとに質問を分類します。ここでは「自社製品に関する質問」「福利厚生に関する質問」「その他」の3つのクラスを設定します。 「+ クラスを追加」をクリックして(①)、3つのクラスを表示させます。それぞれのクラスに対して、「自社製品に関する質問」「福利厚生に関する質問」「その他の質問」を入力します(②)。 そして、設定したクラスごとに、次に遷移するブロックを定義します。   ■ 自社製品に関する知識取得ブロックを追加する 先の質問分類器で自社製品に関する質問がされた場合に、自社製品に関するナレッジを参照するための知識取得ブロックを追加します。 知識取得ブロックとは、ナレッジを参照するためのブロックです。質問を入力して、その質問でナレッジに対して検索を行い、検索結果を出力します。 質問分類器のクラス1の右側にある「+」をクリックして(①)、「知識取得」をクリックします(②)。   ■ 自社製品に関する知識取得ブロックの設定を行う 「クエリ変数」が「sys.query」になっていることを確認します。これはユーザーが入力した質問の内容が格納される変数です。ここで定義した変数によって、次に設定するナレッジに対して検索が行われます。 次にナレッジを追加するために、「+」をクリックします(①)。   ■ 自社製品に関するナレッジを選択する 先ほど追加した自社製品に関するナレッジを選択します(①)。そして、「追加」をクリックします(②)。   ■ 自社製品への質問に対する回答を生成するLLMブロックを追加する 自社製品に関するナレッジを参照して、質問に対する回答を生成するLLMブロックを追加します。先ほど作成した知識取得ブロックの右側にある「+」をクリックして(①)、「LLM」をクリックします(②)。   ■ LLMブロック(自社製品への質問に対する回答生成用)のモデルを設定する LLMブロックのモデルを設定するのモデルを選択します。「モデル」をクリックすると(①)、別のウィンドウがポップアップします。「モデル」をクリックすると(②)、モデルの一覧が表示されます。ここでは「チャットボット」の章で作成したモデルを選択します(③)。   ■ LLMブロック(自社製品への質問に対する回答生成用)のコンテキストを設定する LLMブロックのコンテキストを設定します。コンテキストとは、LLMが回答を生成する際に参照する情報です。ここでは、先ほど追加した知識取得ブロックの出力結果を格納する変数であるresultを設定します。   ■ LLMブロック(自社製品への質問に対する回答生成用)のプロンプトを設定する LLMに投げるプロンプトを設定します。システムメッセージは、「あなたは製品情報に答えるチャットボットです。」と入力します(①)。 ユーザーメッセージは以下のように入力します。以下のようにプロンプトを設定することで、LLMの回答を生成する際に、知識取得ブロックで検索した内容から得られる情報に基づいて回答を生成することができます。いわゆるRAG(Retrieve and Generate)の手法です。ただし、肝心の「#質問」「#取得した情報」の中身の部分は、まだ未設定なのでこれから設定します。 「#質問」に書かれている質問を「#取得した情報」に基づいて回答してください。 #質問 #取得した情報   ■ LLMブロック(自社製品への質問に対する回答生成用)のプロンプトに「#質問」を埋め込む 「#質問」の内容を埋め込みます。「#質問」の後に「/」(スラッシュ)を入力します(①)。すると、変数の一覧が表示されます。ここから「sys.query」を選択します(②)。この変数はユーザーが入力した質問の内容が格納される変数です。チャットフローでは固定で定義されているシステム変数となります。   ■ LLMブロック(自社製品への質問に対する回答生成用)のプロンプトに「#取得した情報」を埋め込む 「#取得した情報」の内容を埋め込みます。「#取得した情報」の後に「/」(スラッシュ)を入力します(①)。すると、変数の一覧が表示されます。ここから「コンテキスト」を選択します(②)。これは先程設定したコンテキストを示すものであり、コンテキストは知識取得ブロックで検索した内容が格納される変数です。   ■ LLMブロック(自社製品への質問に対する回答生成用)のプロンプトの設定を確認する 以下のようになればOKです。   ■ 回答ブロックを追加する LLMブロックで回答を生成した後、その回答を出力するための回答ブロックを追加します。この回答ブロックを作成しないと、チャットで回答が返ってきませんので、ご注意ください。LLMブロックの右側にある「+」をクリックして(①)、「回答」をクリックします(②)。   ■ 回答ブロックの設定を行う 回答ブロックの設定を行います。「回答」というフィールドに、チャットに出力させたい回答を定義します。「/」(スラッシュ)を入力します(①)。すると、変数の一覧が表示されます。ここから「LLM」の「text」を選択します(②)。これはLLMブロックで生成した回答が格納される変数です。   ■ 回答ブロックの設定を確認する 以下のようになればOKです。   ■ 福利厚生に関する知識取得ブロックを追加する 次に、福利厚生に関する知識取得ブロックを追加します。質問分類器のクラス2の右側にある「+」をクリックして(①)、「知識取得」をクリックします(②)。   ■ 福利厚生に関する知譆取得ブロックの設定を行う 「クエリ変数」が「sys.query」になっていることを確認します。これはユーザーが入力した質問の内容が格納される変数です。ここで定義した変数によって、次に設定するナレッジに対して検索が行われます。 次にナレッジを追加するために、「+」をクリックします(①)。   ■ 福利厚生に関するナレッジを選択する 先ほど追加した福利厚生に関するナレッジを選択します(①)。そして、「追加」をクリックします(②)。   ■ 福利厚生への質問に対する回答を生成するLLMブロックを追加する 福利厚生に関するナレッジを参照して、質問に対する回答を生成するLLMブロックを追加します。先ほど作成した知識取得ブロックの右側にある「+」をクリックして(①)、「LLM」をクリックします(②)。   ■ LLMブロック(福利厚生への質問に対する回答生成用)のモデルを設定する LLMブロックのモデルを設定するのモデルを選択します。「モデル」をクリックすると(①)、別のウィンドウがポップアップします。「モデル」をクリックすると(②)、モデルの一覧が表示されます。ここでは「チャットボット」の章で作成したモデルを選択します(③)。   ■ LLMブロック(福利厚生への質問に対する回答生成用)のコンテキストを設定する LLMブロックのコンテキストを設定します。コンテキストとは、LLMが回答を生成する際に参照する情報です。ここでは、先ほど追加した知識取得ブロックの出力結果を格納する変数であるresultを設定します。    ■ LLMブロック(福利厚生への質問に対する回答生成用)のプロンプトを設定する LLMに投げるプロンプトを設定します。システムメッセージは、「あなたは福利厚生に答えるチャットボットです。」と入力します(①)。 ユーザーメッセージは以下のように入力します。以下のようにプロンプトを設定することで、LLMの回答を生成する際に、知識取得ブロックで検索した内容から得られる情報に基づいて回答を生成することができます。いわゆるRAG(Retrieve and Generate)の手法です。ただし、肝心の「#質問」「#取得した情報」の中身の部分は、まだ未設定なのでこれから設定します。 「#質問」に書かれている質問を「#取得した情報」に基づいて回答してください。 #質問 #取得した情報   ■ LLMブロック(福利厚生への質問に対する回答生成用)のプロンプトに「#質問」を埋め込む 「#質問」の内容を埋め込みます。「#質問」の後に「/」(スラッシュ)を入力します(①)。すると、変数の一覧が表示されます。ここから「sys.query」を選択します(②)。これはユーザーが入力した質問の内容が格納される変数です。チャットフローでは固定で定義されているシステム変数となります。   ■ LLMブロック(福利厚生への質問に対する回答生成用)のプロンプトに「#取得した情報」を埋め込む 「#取得した情報」の内容を埋め込みます。「#取得した情報」の後に「/」(スラッシュ)を入力します(①)。すると、変数の一覧が表示されます。ここから「コンテキスト」を選択します(②)。これは先程設定したコンテキストを示すものであり、コンテキストは知識取得ブロックで検索した内容が格納される変数です。   ■ LLMブロック(福利厚生への質問に対する回答生成用)のプロンプトの設定を確認する 以下のようになればOKです。   ■ 回答ブロックを追加する LLMブロックで回答を生成した後、その回答を出力するための回答ブロックを追加します。この回答ブロックを作成しないと、チャットで回答が返ってきませんので、ご注意ください。LLMブロックの右側にある「+」をクリックして(①)、「回答」をクリックします(②)。   ■ 回答ブロックの設定を行う 回答ブロックの設定を行います。「回答」というフィールドに、チャットに出力させたい回答を定義します。「/」(スラッシュ)を入力します(①)。すると、変数の一覧が表示されます。ここから「LLM」の「text」を選択します(②)。これはLLMブロックで生成した回答が格納される変数です。 ■ 回答ブロックの設定を確認する 以下のようになればOKです。   ■ その他の質問に対する回答を生成する 最後に、その他の質問に対しては、「回答ができません」という固定の回答を返すようにします。「その他の質問」のクラスの右側にある「+」をクリックして(①)、「回答」をクリックします(②)。   ■ その他の質問に対する回答を設定する 回答ブロックの設定を行います。「回答」というフィールドに、「回答ができません」と入力します。   ■ チャットフロー全体を確認する これでチャットフローの作成は完了です。全体を確認してみましょう。   ■ 動作確認: 自社製品に関する質問 それでは、チャットフローを動作確認してみましょう。まずは、自社製品に関する質問を入力してみます。   自社製品に関するナレッジに基づいて回答しているのがわかります(①)。また、「ログを表示」をクリックして(②)、トレースをクリックしてみると(③)、質問分類器で「自社製品に関する質問」と判定されていることがわかります(④)。その後の流れを見てみると、確かに自社製品に関するナレッジを参照して回答を生成していることがわかります(⑤)。   ■ 動作確認: 福利厚生に関する質問 次に、福利厚生に関する質問を入力してみます。福利厚生に関するナレッジに基づいて回答しているのがわかります(①)。また、「ログを表示」をクリックして(②)、トレースをクリックしてみると(③)、質問分類器で「福利厚生に関する質問」と判定されていることがわかります(④)。その後の流れを見てみると、確かに福利厚生に関するナレッジを参照して回答を生成していることがわかります(⑤)。   ■ 動作確認: その他の質問 最後に、その他の質問を入力してみます。その他の質問に対しては、「回答ができません」という固定の回答を返しているのがわかります(①)。また、「ログを表示」をクリックして(②)、トレースをクリックしてみると(③)、質問分類器で「その他」と判定されていることがわかります(④)。その後の流れを見てみると、確かにその他の質問に対しては固定の回答を返していることがわかります(⑤)。 第12章: AIエージェントを作ってみよう 本章では、Difyを使ってAIエージェントを作成する方法を解説します。 AIエージェントとは? まずAIエージェントの概要をお伝えします。AIエージェントとは、ユーザーの指示に基づいて適切なツールを選び、処理の流れを自動で組み立てて実行するAI です。従来のアプリケーションでは、開発者があらかじめ「何をどう処理するか」をプログラムする必要がありましたが、AIエージェントはプロンプト(指示文)とツール を与えるだけで、最適な方法を自ら考えて実行します。 例えば「このデータを調査して、要点をまとめて報告して」という指示を出すと、 まずインターネットで検索 次に関連する情報を整理 さらに結果を要約 最後にレポートとして出力 といった一連の流れをAIが自動で判断して実行します。従来のアプリでは開発者がロジックを組まなければならなかった部分をAIが担うため、より柔軟で手軽に高度な処理を行うことが可能になります。 わかりやすく伝えるため、AIにエージェントがない世界(従来型のアプリケーションの場合)と、AIエージェントがある世界を比較してみましょう。 AIエージェントがない世界 先程の図の「従来型のアプリケーション」の部分を見てみます。従来型のアプリケーションでは、UI設計と開発の手間が生じます。従来のアプリでは、ユーザーが操作するためのUI(ユーザーインターフェース)を設計し、実装しなければなりません。例えば、ユーザーが検索ワードを入力し、「QRコードを作成する」オプションを選べるようなUIを作成し、検索結果を表示する画面も用意する必要があります。 また、もし新しい機能(例えば「結果をPDFに変換する」機能)を追加したい場合、UIに新しいチェックボックスやボタンを増やし、それに対応する処理を実装しなければなりません。つまり、新しい機能を追加するたびにUIの変更が必要になり、開発コストが増加します。 処理の流れも明示的に定義しなければなりません。ユーザーが検索ワードを入力し、検索実行ボタンを押した後に、 1. インターネット検索関数を呼び出す 2. 結果を取得 3. QRコードを作成する(オプション) という 明確な処理の流れをプログラムとして定義し、開発者がコードを書かなければなりません。 開発者が関数の呼び出し順やデータの流れをすべて設計し、実装する必要があるため、開発負担が大きくなります。 AIエージェントがある世界 先程の図の「AIエージェントの場合」の部分を見てみます。AIエージェントを使うと、ユーザーは「RAGの情報がほしい」と自然言語で指示するだけ でOK。特定のUIを設計しなくても、AIが適切な処理を組み立てて実行してくれます。 まず、AIエージェントを使うと、ユーザーは 「RAGの情報がほしい」と自然言語で指示するだけでOKです。特定のUIを設計しなくても、AIが適切な処理を組み立てて実行 してくれます。 また、機能追加のたびにUIを変更する必要がありません。新しい機能(例えば「URLのQRコードを作成する」)を追加したい場合、プロンプトを「URLのQRコードを作成してください。」と書くだけで対応可能 です。開発者は新しいUIを作成する必要がなく、AIエージェントに新しいツールを追加するだけで済みます。 また、処理の流れもAIが決定します。AIエージェントは、 1. どの関数を呼び出すか(インターネット検索 → QRコード作成) 2. どの順番で処理を実行するか(検索してからQRコード作成) をLLM(大規模言語モデル)が自動で判断してくれます。開発者は個別の処理の流れを実装する必要がなく、ツールとプロンプトを用意するだけで良いのです。 つまり、AIエージェントを活用すると、従来のような「UI設計」「処理の順番の決定」「機能追加に伴うUI改修」といった開発の手間がなくなり、柔軟で拡張性の高いアプリを簡単に作れるようになります。 AIエージェントの作成 では、早速AIエージェントを作成してみましょう。AIエージェントに依頼された情報をインターネットで検索し、情報検索元のサイトのURLのQRコードを表示します。 動作イメージは以下のとおりです。   ■ アプリの種類選択画面を開く 「最初から作成」をクリックします。   ■ アプリの種類を選択する どのアプリを作成するかを選択する画面が開きます。ここではチャットフローを作成したいので、「エージェント」を選択します(①)。 「アプリのアイコンと名前」にはアプリの名前を入力します。ここでは「情報検索エージェント」と入力します(②)。 「説明」はアプリの説明となります。任意で入力してください(③)。 最後に、「作成する」をクリックします(④)。   ■ プロンプトを設定する AIエージェントに与えるプロンプトを設定します。このプロンプトはAIエージェントの振る舞いを決定する重要な要素です。以下のように入力します。 「〜の情報がほしい」といったような検索依頼があったら、以下のことを実施してください。 - 依頼された内容に関する情報をインターネットで検索する。 - 情報提供元のサイトのURLのQRコードを作成する。   ■ Google Search APIのサインアップ画面を開く Google Search APIを利用してインターネット検索を行います。Google Search APIを利用するためには、サインアップしてAPIキーを取得する必要があります。 以下のURLにアクセスします。 https://www.searchapi.io/ 「Get 100 Free Reqests」をクリックします。   ■ サインアップする サインアップの画面が表示されます。必要な項目を入力してサインアップします。   ■ メールを確認する サインアップ後、登録したメールアドレスに確認メールが届きます。メール内のリンク(Confirm my acount)をクリックして登録を完了します。   ■ APIキーを取得する Google serach APIのURL(https://www.searchapi.io/)にアクセスし、APIキーを取得します。「Dashboard」をクリックして(①)、APIキーをコピーします(②)。   ■ ツールの追加画面を開く インターネットを検索するためのツール「Google Search API」を追加します。ツールの追加画面を開くために、「+ 追加」をクリックします。   ■ Google Search APIを追加する 「Search」をクリックして(①)、「Google Search API」の隣りにある「+追加」をクリックします(②)。   ■ APIキーを設定する APIキーを設定します。先程取得したAPIキーを入力して(①)、「保存」をクリックします(②)。   ■ Generate QR Codeを追加する QRコードを生成するためのツール「Generate QR Code」を追加します。「Utilities」をクリックして(①)、「Generate QR Code」の隣りにある「+追加」をクリックします(②)。   ■ ツールの追加を確認する 以下のようになればOKです。   ■ AIエージェントに指示をする これでAIエージェントは完了したので、AIエージェントに指示をしてみましょう。デバックとプレビューの画面で以下のように入力します。 RAGの情報がほしい   ■ 結果を確認する インターネットを検索した結果と、その検索元のサイトのURLのQRコードが表示されていることがわかります。   どうでしょうか?Difyを使ってAIエージェントを作成することができました。AIエージェントを使うことで、従来のアプリケーション開発よりも柔軟で拡張性の高いアプリを簡単に作成することができます。さらにDifyを使えば、AIエージェントの作成も簡単に行うことができます。ぜひ、Difyを使ってAIエージェントを作成してみてください。 第13章: AIエージェントに独自機能を追加してみよう 先ほど作成したAIエージェントに機能を追加してみましょう。先ほどはDifyに標準で提供されているツールを使って、インターネットを検索して情報を取得し、QRコードを生成するという処理を行いました。本来であれば、AIエージェントに与えるツールの追加はプログミングによってゼロから開発しなければいけませんが、Difyが標準で提供しているツールを使えば、ノーコードでツールを利用でき、AIエージェントがサクッと作れます。 しかしながら、標準で提供されているツールでは対応しきれないことが少なからずあります。 例えば、社内のシステムと連携して特定の処理を行いたいという場合もあるでしょう。社内にあるデータベース内の情報をAIエージェントに与えたいという場合です。「XXXの情報を検索して」とAIエージェントに伝えたら、インターネットへの情報検索に加えて、社内のデータベースを検索して独自ナレッジを取得できたら更に便利です。Difyの標準のツールで提供されていないSaaSサービスにアクセスしたいという場合もあると思います。例えば、ある特定のWordPressのサイトの記事を検索できたら便利です。 Difyにはそのようなニーズを実現するための機能が用意されています。それが「カスタムツール」です。 カスタムツールとは? カスタムツールとは、Difyの標準ツールにはない機能を追加するためのツールです。カスタムツールを使うことで、AIエージェントに独自の機能を追加することができます。カスタムツールを使うことで、AIエージェントに与えるプロンプトに対して、標準ツールでは対応できない処理を追加することができます。 その仕組を図解したのが以下になります。   図中には組み込みツールの他に「カスタムツール」があります。これが今回のキモなのですが、カスタムツールとして追加したいサービスはWeb API(RestではなくてもOK)で公開している必要があり、さらにそのOpenAPIのスキーマをDifyに登録する必要があります。登録したOpenAPIのスキーマを元に、Difyが自動でAPIクライアントを生成し、そのAPIクライアントを使ってカスタムツールを作成します。 SaaSサービスの場合は、大抵の場合はWeb APIが公開されているので、そのAPIを使ってカスタムツールを作成することができます。社内のシステムの場合は、APIが公開されていないこともあるかもしれませんので、その場合はそのAPIを作り込む必要はあります。 つまり、OpenAPIのスキーマを登録すれば、カスタムツールもノーコードで作成できるというわけです。 コラム: OpenAPIとは API(Application Programming Interface)は、異なるシステムやアプリケーション同士がデータをやり取りするためのルールを定めたものです。しかし、APIの仕様が開発者ごとにバラバラだと、使い方を理解するのが大変になってしまいます。そこで登場するのが OpenAPI です。 ■ OpenAPIとは? OpenAPIは、APIの設計を標準化し、分かりやすく定義するための仕様 です。かつて「Swagger」と呼ばれていた技術が発展し、現在は OpenAPI Initiative(Linux Foundation 傘下の団体)が管理しています。 簡単に言えば、APIの取扱説明書を機械が理解できる形式で書くためのルール です。OpenAPIを使うことで、APIのリクエストやレスポンスの仕様を明確にし、開発者が迷わず利用できるようになります。 ■ OpenAPIを使うメリット – APIの設計が統一され、わかりやすくなる – 自動でドキュメントを生成できる(Swagger UI など) – コードの自動生成ができ、開発を効率化 – APIの動作をテストしやすくなる たとえば、次のような OpenAPI 定義を作成すると、自動でAPIのドキュメントを作ったり、プログラムのひな形を生成したりできます。 openapi: 3.0.0 info: title: サンプル API version: 1.0.0 paths: /hello: get: summary: 挨拶を取得 responses: 200: description: 成功時のレスポンス content: application/json: schema: type: object properties: message: type: string example: "こんにちは!" このように、OpenAPIを活用すると、APIの仕様が一目で分かるだけでなく、ドキュメントの自動生成やテストの自動化ができるため、開発効率が大幅に向上 します。 APIを設計・開発する際は、ぜひ OpenAPI を活用してみましょう! カスタムツールを利用したAIエージェントの作成 それでは、カスタムツールを利用してAIエージェントに独自機能を追加してみましょう。「AIエージェントを作ってみよう」で作成したAIエージェントに機能を追加してみます。以下のような構成図となります。     「AIエージェントを作ってみよう」で作成したAIエージェントは、ユーザーに依頼された情報をインターネットで検索し、情報検索元のサイトのURLのQRコードを表示するものでした。これにWordPressの記事を検索する機能を追加してみましょう。 つまり、ユーザーが「RAGに関する情報が知りたい」とAIエージェントに伝えたら、インターネット検索に加えて、WordPressの記事を検索して情報を取得し、その情報提供元のサイトのURLのQRコードを表示するという処理を行います。 WordPressはRest APIを公開しているので、そのAPIを使ってカスタムツールを作成します。いくつかいろんなAPIを公開していますが、今回は記事を検索するAPIを使います。APIの仕様は以下のとおりです。 ■ エンドポイント: GET /wp-json/wp/v2/posts ■ リクエストヘッダー: Content-Type: application/json ■ クエリパラメータ: search: 検索キーワード ■ ステータスコード: 200: 成功 ■ レスポンス: [   { "title": { "rendered": "記事タイトル" }, "link": "記事のURL" }, ... ] ホスト名がhoge.example.com、RAGという単語に関する記事を検索したい場合、APIのリクエストURLとレスポンスは以下のようになります(実際のレスポンスにはもっといろんなフィールドが出力されますが、説明の都合上割愛しています)。 ■ APIのリクエストURL https://hoge.example.com/wp-json/wp/v2/posts?search=検索キーワード ■ レスポンス [ { "title": { "rendered": "RAGについて" }, "link": "https://hoge.example.com/rag" }, ... ] では、早速作ってみましょう。 ■ ツール追加画面を開く AIエージェントに追加するナレッジを作成するために、ナレッジ追加画面を開きます。「ツール」(①)→「カスタム」(②)→「カスタムツール」(③)の順にクリックします。   ■ ツールの名前を入力する ツールを一意に識別する名称を入力します。なんでもいいです。ここでは「WordPress検索」ツールとします。   ■ OpenAPIのスキーマを入力する OpenAPIのスキーマを入力します。 ![]( image_ch12_050.png ) 以下のOpenAPIのスキーマを入力してください。これはWordPressの記事を検索するAPIです。 openapi: 3.0.0 info: title: SIOS Tech-Lab Posts API description: "のりのAzureブログの記事を検索するAPI" version: 1.0.0 servers: - url: https://hoge.example.com/wp-json/wp/v2 paths: /posts: get: summary: "検索ワードに一致するブログ記事を取得" description: "指定した検索ワードに一致するブログ記事の一覧を取得します。" parameters: - name: search in: query required: true description: "検索したいワード" schema: type: string responses: "200": description: "検索結果の一覧" content: application/json: schema: type: array items: type: object properties: link: type: string format: uri description: "記事のURL" title: type: object properties: rendered: type: string description: "記事のタイトル" "400": description: "不正なリクエスト" "500": description: "サーバーエラー" APIの詳細な仕様は以下のURLを参照してください。 https://developer.wordpress.org/rest-api/reference/pages/ コラム: APIの認証 カスタムツールには、呼び出すAPI側に認証が設定されている場合、その認証情報を設定する必要があります。今回ご紹介したWordPressのAPIには認証は必要ありませんが、認証が必要になる場合も多いです。Difyのカスタムツールが送信できる認証情報のタイプは、以下のような方法があります。 ■ ベーシック認証(Basic Authentication) ユーザー名とパスワードを組み合わせて認証します。HTTPヘッダーに Authorization: Basic {base64_encoded_username_password}を設定します。{base64_encoded_username_password} は ユーザー名:パスワードをBase64 エンコードしたものになります。 Difyでの設定方法は以下のとおりです。 (1) 「APIキー」→「ベーシック」を選択。 (2)「キー」に Authorization を入力。 (3)「値」に Base64エンコードされた資格情報を入力。 ■ ベアラー認証(Bearer Authentication) APIトークンを使用する認証方式になります。Authorization: Bearer {access_token} をHTTPヘッダーに設定します。 Difyでの設定方法は以下のとおりです。 (1) 「APIキー」→「ベアラー」を選択。 (2)「キー」に Authorization を入力。 (3)「値」に アクセストークンを入力。 ■ カスタム認証(Custom Authentication) APIによっては、独自の認証方式を持っている場合があります。その場合は、APIの仕様に従って認証情報を設定します。 Difyでの設定方法は以下のとおりです。 (1) 「APIキー」→「カスタム」を選択。 (2)「キー」に APIの仕様に従ったキーを入力。 (3)「値」に APIの仕様に従った値を入力。 ■ プロンプトを修正する AIエージェントに与えるプロンプトを修正します。   以下のように入力します。 「〜の情報がほしい」といったような検索依頼があったら、以下のことを実施してください。 - 依頼された内容に関する情報をインターネットで検索する。 - のりのAzureブログの記事を検索する。 - 検索の結果、抽出されたサイトすべてのURLのQRコードを作成する。 最初に定義したプロンプトに加えて、「のりのAzureブログの記事を検索する」という処理を追加しています。これは、先ほど作成したカスタムツールを使ってWordPressの記事を検索するための指示です。 そして、「検索の結果、抽出されたサイトすべてのURLのQRコードを作成する。」は、インターネットを検索した結果に加えて、WordPressの記事を検索した結果に対しても、そのサイトのURLのQRコードを作成するための指示です。 ■ カスタムツール追加画面を表示する 先ほど作成したカスタムツールを追加するために、カスタムツール追加画面を表示します。「追加」をクリックします。    ■ カスタムツールを追加する 「カスタム」をクリックして(①)、「WordPress検索ツール」の「posts_get」隣りにある「+追加」をクリックします(②)。   ■ 動作確認を行う 「Azureの情報がほしい」と入力して、AIエージェントに指示を出します。すると、QRコードを表示してくれます。   さらに、インターネットを検索した情報に加えて、WordPressのブログを検索した結果も答えてくれています。 第14章: ブロック ここでは、Difyが提供する様々なブロックの説明をします。 LLM LLMに接続してプロンプトを発行し、その結果を得るためのブロックです。   ■ モデル LLMに接続するためのモデルを選択します。モデルごとに詳細なパラメターを設定することができます。   ■ コンテキスト LLMが回答を生成する際に参照する情報(コンテキスト)を設定します。主に後述する「知識取得」のブロックとセットで使われることが多く、知識取得ブロックで取得した情報をコンテキストとしてLLMに渡すことができます。つまり、知識取得で取得した情報を元に、LLMは回答を生成します。   知識取得は、resultという出力変数に結果を格納します。LLMブロックはその出力変数resultをコンテキストとして参照します。 ■ メッセージ LLMに渡すプロンプトを設定します。プロンプトにはシステムメッセージ、ユーザーメッセージ、アシスタントメッセージの3種類があります。 システムメッセージ モデルの振る舞いを決めるメッセージです。例えば「あなたは親切なAIアシスタントです」と設定すると、モデルはその指示に従って返答しようとします。対話のトーンやルールを決める役割があります。 ユーザーメッセージ ユーザーが入力するメッセージです。実際の質問や指示がここに含まれます。例えば「今日の天気は?」と送ると、LLMはその情報をもとに応答を生成します。 アシスタントメッセージ LLMが返答するメッセージです。ユーザーメッセージに対する回答がここに含まれます。例えば「今日の東京の天気は晴れです」といった形で返されます。   ■ ビジョン この機能を有効にすると、LLMに送るプロンプトに画像を含めることが可能です。ただし、この機能はgpt-4oなどのマルチモーダルLLMをモデルとして選択している場合にのみ有効です。 知識取得  ナレッジに対して検索を行いその結果を出力するためのブロックになります。 第11章: チャットフローを作ってみよう でも使いました。 以下の図の左側は知識取得の流れを表しており、右側は知識取得ブロックの設定画面になります。   知識取得は、まずInputとして例えばユーザーの質問があります。ここでは、「有給は何日取得できる?」という質問をInputとして設定しています。そのInputをもとにナレッジを検索して、Outputとして検索結果を出力します。 ■ クエリ変数 先の図のナレッジに対するInputである「有給は何日取得できる?」がクエリ変数になります。クエリ変数は、知識取得ブロックに入力された検索クエリを表します。前のブロックの出力結果である任意の変数を受け取ることができます。 ■ ナレッジ ナレッジを追加する画面です。いわゆる社内規約などあらかじめナレッジとして登録したものを設定します。 ■ 出力変数 このブロックが出力する変数の形式を表します。resultという配列にcontent、title、url、icon、metadataの5つの要素を持つオブジェクトを格納します。 以下がその変数の出力例になります。 results: [ { "metadata": { "_source": "knowledge", "dataset_id": "cdf159c1-5a94-45bb-941d-400614336357", ...以下省略... }, "title": "001018385.pdf", "content": "① 年次有給休暇を取得した期間\r\n② 産前産後の休業期間\r\n③ 育児・介護休業法に基づく育児休業及び介護休業した期間\r\n④ 業務上の負傷又は疾病により療養のために休業した期間\r\n7 付与日から1年以内に取得しなかった年次有給休暇は、付与日から2年以内に限り\r\n繰り越して取得することができる。\r\n8 前項について、繰り越された年次有給休暇とその後付与された年次有給休暇のいず\r\nれも取得できる場合には、繰り越された年次有給休暇から取得させる" }, ...以下省略... ] 質問分類器 質問分類器は、任意のブロックから入力されたデータを受け取り、その質問をLLMが解析をし、特定のブロックにルーティングする機能を持ちます。下図を例に説明します。   例えば、何らかの任意のブロックから「有給は何日取得できる?」というデータが質問分類器に入力されたとします(①)。このブロックは例えばチャットフローであれば、開始のブロックに相当します。つまり、ユーザーが入力した質問などです。 そのデータを受けて、質問分類器に設定したLLMは、クラス(質問をカテゴリ分けするための説明が入力されたもの)の内容と照らし合わせて、質問がどのクラスに該当するかを判断します(②〜③)。この図の例で言えば、「有給は何日取得できる?」という質問は、クラス2の内容(社内規定に関すること)にマッチするので、クラス2にカテゴリ分けされます。 各クラスは事前にルーティング先の任意のブロックとの紐づけを行っておき、LLMが判断したクラスに基づいて、そのルーティング先のブロックに任意のデータを送ります(④)。   以降では各設定項目について説明します。 ■ モデル LLMが度のクラスに分類するかを判断するためのモデルを選択します。 ■ 入力変数 質問分類器に入力されるデータを設定します。前のブロックの出力結果である任意の変数を受け取ることができます。 ■ クラス 質問分類器が分類するクラスを設定します。クラスは、質問をカテゴリ分けするための説明が入力されたものです。例えば、クラス1は「天気に関する質問」、クラス2は「社内規定に関する質問」などです。 ■ ビジョン この機能を有効にすると、質問分類器に画像を含めることが可能です。ただし、この機能はgpt-4oなどのマルチモーダルLLMをモデルとして選択している場合にのみ有効です。 ■ 高度な設定 質問分類器に入力されたデータ(例えばユーザーの質問など)をLLMが解析してどのクラスに分類するかを決定する際、補足の指示をLLMに対してすることができます。 例えば下図では、「「謎の製品X」について聞かれた場合は、商品に関する質問だけど、クラス4に分類してください。」としています。こうすると、「製品Xについて教えて」というと、クラス4に分類されて、「わかりません」と回答します。製品に関する質問には答えるけど、ある特定の製品については回答させたくないといったことを想定しています。   ■ 出力変数 このブロックが出力する変数は、以下のように各クラスに設定した説明を出力します。 { "class_name": "商品に関するもの", "class_id": "1" } IF/ELSE 条件分岐を行うためのブロックです。プログラミングのif文やelse文に相当します。 ここでは以下の図の様に、チャットフローで質問文に「機密」という文字が含まれていたら、「機密情報です!!」と回答し、それ以外だったら「機密ではありません」と回答するという例を説明します。   まず条件文を設定します。①は条件式の左辺の部分です。sys.queryつまりユーザーの質問文が格納されている変数になります。 演算子は「含む」を選択します(②)。図にあるように様々な演算子を設定できます。 右辺の部分には「機密」という文字列を入力します(③)。 ④では、それぞれの条件の場合に次に遷移するブロックを指定します。ここでは最初のIF文にマッチした場合は「回答1」というブロック、それ以外は「回答2」というブロックに遷移するように設定しています。 またもっと複雑な条件式も設定できます。以下の図は、ユーザーの質問が、「機密」もしくは「秘密」もしくは「ひ・み・つ」のいずれかを含む場合は「機密情報です!!」と回答し、「ほげ」だったら「意味不明です」と回答し、それ以外だったら「機密ではありません」と回答する例です。   イテレーション イテレーションは、繰り返し処理を行うためのブロックです。プログラミングのfor文に相当します。   任意のブロックから配列に格納された複数のデータがイテレーションのブロックに送られたとします(①)。 イテレーションの設定画面では、①で送られてきたデータを順次処理する任意のブロックを定義しておき、そのブロックでデータを処理します(②)。 最終結果を任意のブロックに出力します(③)。 例えば以下のケースを考えてみましょう。ユーザーはイチゴと人物の顔写真の2つのファイルをアップロードし、その画像の特徴をLLMブロックで処理して、その結果を結合して、最終的に回答のブロックに出力します。   実例をお見せするのが早いので、設定の手順を説明しながら進めていきます。 ■ 開始ブロックを定義する チャットフローの開始ブロックにて、「ファイルリスト」を設定します(①)。変数名は「files」として(②)、ファイルの種別は「画像」に設定します(③)。これで画像をアップロードすることができるようになります。   ■ イテレーションブロックを定義する 次にイテレーションブロックを定義します。イテレーションブロックには、①で定義した「ファイルリスト」の変数「files」を入力します。これで、イテレーションのブロックに送られるデータが設定されました。 送られてきたデータを順次処理するためのブロックを定義するために、「ブロックを追加」をクリックします(②)。   ■ LLMブロックを定義する イテレーションブロックに送られてきたデータを処理するためのブロックを定義します。ここではLLMブロックを定義します。 USERのプロンプトに「この画像の特徴を一言で表して」と入力します(①)。 「ビジョン」を有効にして、画像を含めることができるようにします(②)。   そして、画像の入力は「現在のイテレーション」の「{x} item」に設定します(③)。こうすることで、イテレーションでぐるぐる回したそれぞれの画像を一つずつLLMブロックの入力にすることができます。   ■ イテレーションブロックの出力変数を定義する LLMブロックの出力結果をイテレーションブロックの出力変数に設定します。この様に設定すると、複数のLLMブロックの出力結果を結合したものを出力することができます。   ■ 回答ブロックを定義する 回答のブロックを定義します。ここでは、LLMブロックで処理した画像の特徴を結合して、最終的な回答を出力します。   ■ 最終的なチャットフローを確認する 以下のようなチャットフローになっていることを確認します。   ■ 動作確認を行う 適当な画像をアップロードして動作確認を行います。プロンプトは何でも構いません。ここでは人物の写真とイチゴの画像をアップロードしています。   確かにアップロードした画像の特徴が出力されています。 コード 任意のPythonコードもしくはJavaScriptが動かせるブロックです。   上図のブロックの詳細な図解は以下の通りとなります。他のブロックと同じように入力変数を定義します(①)。変数の値は、他のブロックからの出力結果を受け取ることができます(②)。入力変数の名前は、コード内で定義したmain関数の引数名として使われます(③)。そして、戻り値の変数名とその値を定義します(④)。戻り値の変数名と出力変数の名前は、同じである必要があります(⑤)。 テンプレート Jinjaテンプレートによるテキストの生成を行うためのブロックです。これは先に説明したコードブロックと非常に似通った機能です。Python/JavaScriptコードブロックがプログラム言語による処理を行うのに対し、テンプレートブロックはJinjaテンプレートエンジンによるテキストの生成を行います。   このテンプレートでは、入力変数にarg1という変数を定義しています(①)。そして、テンプレート内でarg1を使ってテキストを生成します(②)。最後に、生成したテキストを出力変数outputに格納します(③)。 コラム: Jinjaテンプレートとは? テンプレートエンジンとは、あらかじめ決まった形式のテンプレートに、変数やデータを差し込むことで動的なコンテンツを生成するためのツールです。テンプレートエンジンを使うことで、同じテンプレートを使っても、異なるデータを埋め込むことで、異なるコンテンツを生成できます。これにより、同じ構造のコンテンツを繰り返し生成する際に、手作業でコンテンツを作成する手間を省くことができます。 例えば、ウェブアプリケーションで複数のユーザーに「こんにちは、[ 名前 ]さん」というメッセージを表示する場合、テンプレートエンジンを使えば、一つのテンプレートに「[ 名前 ]」の部分だけを差し替えて、何度も異なるメッセージを生成できます。これにより、同じ形式の文書やHTMLページを効率的に作成できるのです。 Difyでも使われるJijnja2の例を見てみましょう。Jinja2は、Pythonのウェブアプリケーションなどでよく使われるテンプレートエンジンです。Jinja2では、テンプレートの中に変数や制御文を埋め込むことができ、動的なページやコンテンツを生成します。 以下のようなテンプレートを考えてみましょう。 <h1>こんにちは、{{ name }}さん!</h1> <p>今日は{{ date }}です。</p> このテンプレートに対して、Pythonコードからデータを渡してレンダリングします。 from jinja2 import Template template = Template('<h1>こんにちは、{{ name }}さん!</h1><p>今日は{{ date }}です。</p>') output = template.render(name='武井', date='2024年9月15日') print(output) このコードを実行すると、以下のようなHTMLが生成されます。 <h1>こんにちは、武井さん!</h1> <p>今日は2024年9月15日です。</p> このように、テンプレートエンジンを使うことで、変数を埋め込んで動的にコンテンツを生成することができます。 変数集約器 複数の変数を集約して一つの変数にまとめるためのブロックです。例えば、 第11章: チャットフローを作ってみよう で作成したチャットフローの例を使って説明します。以下のようになっていました。   質問分類器で、ユーザーのクエリを分類して、適切な知識取得ブロックへルーティングし、その結果をLLMブロックで処理して、最終的に回答ブロックに出力するというチャットフローを作成しました。 この組み方だと、知識取得ブロックが増える、つまり参照したいナレッジが増えれば増えるほど、LLMブロックと回答ブロックが増殖していき、可読性も保守性も悪いフローになります。今回はまだ2つだからいいですが、これが10個20個になると、その煩雑さは想像に難くありません。 変数集約器を使うと、以下のようにスッキリします。つまり、知識取得ブロックの出力結果を変数集約器で集約して、LLMブロックに一つの変数として渡すことができます。   これも実際に作ってみることで理解を進めてみましょう。 一旦、すべてのLLMブロックと回答ブロックを削除して、以下のようにします。   ■ 変数集約器を追加する 知識取得ブロック(どちらでもいいです)の隣の「+」をクリックして(①)、「変数集約器」をクリックします(②)。   ■ 他の知識取得ブロックと変数集約器を接続する もう一つの知識取得ブロックを変数集約器に接続します。知識取得ブロックの+をクリックして(①)、「変数集約器」にドラッグアンドドロップします(②)。   ■ 変数を代入する 知識取得ブロックの出力結果を一箇所にまとめるために、変数集約器に変数を代入します。「+」をクリックして(①)、「知識取得」の出力変数であるresultをクリックします(②)。知識取得2のブロックについても同様に、resultをクリックします(③)。   ■ 変数集約器の設定を確認する 以下の図のようになっていることを確認します。この様になっていれば、2つの知識取得の結果を変数集約器でまとめることができました。   ■ LLMブロックに変数集約器を接続する LLMブロックを作成して、変数集約器に接続します。LLMブロックの設定方法は 第11章: チャットフローを作ってみよう とほぼ同じなので、詳細は割愛します。   違うところは、コンテキストです。ここは知識取得ブロックの出力変数ではなく、変数集約器の出力変数を選択します。これは、知識取得ブロックの出力を変数集約器で集約したからです。 ■ 回答ブロックを作成する 回答ブロックを作成します。回答ブロックの設定方法は 第11章: チャットフローを作ってみよう とほぼ同じなので、詳細は割愛します。   ■ フローを確認する フロー全体を確認します。だいぶスッキリしましたね。 テキスト抽出ツール テキスト抽出ツールは、WordやPDFからテキストを抽出するためのブロックです。例えば、PDF形式のファイルからテキストを抽出して、それをLLMブロックに渡して要約させたり、コンテキスト(LLMが回答を生成するための参照情報)にすることもできます。 以下のフローは、ユーザーがチャットの入力フォームからアップロードしたファイルを、テキスト抽出ツールブロックでテキストに変換し、LLMブロックでそれを要約させて、回答ブロックに渡して出力する簡単なチャットフローです。 テキスト抽出ツールブロックの入力変数に、ファイルを入力してあげるだけで、あとは特別な設定をせず、次のブロックに出力変数を渡せば、テキスト抽出が完了します。 変数代入 変数代入とは会話変数に値を代入できる機能を持つブロックのことです。ここで会話変数という新しい言葉が出てきたので説明します。 会話変数とは、一つの会話が始まってから終わるまで、ずっとその値が消えることなく保持され続ける変数のことです。ここでいう「会話」とは以下のように「New Chat」をクリックして新しい会話を開始するか、ブラウザを閉じたりするなどして、会話が終了するまでの間のことです。下図の様にAIと会話のキャッチボールを続けている限り、会話変数は保持され続けます。   会話変数は、例えばユーザーが最初に選択した言語や、ユーザーが最初に入力した名前など、会話の中で使いたい情報を保持するのに便利です。 ここでちょっと簡単なユースケースに基づいて会話変数を説明します。会話を開始して、AIが行う初めての回答のときには「初めてですね」と回答して、2回目以降のときには「2回目以降ですね」と回答するというフローを作成してみましょう。下図はそのフローのイメージ図です。   まず最初に会話変数is_first_messageを定義して0を代入します。この変数は、会話が始まったときに初期化され、その後の会話の中で保持され続けます。 そして、ユーザーが「こんにちは」と入力します。実際にはここはこんばんはでもこんばんみでも何でもいいです。 次に、IF/ELSEブロックで会話変数is_first_messageが0かどうかを判定します。もし0だったら「初めてですね」と回答する回答ブロックに移動します。そして、会話変数is_first_messageに1を代入します。この会話変数is_first_messageに1を代入するのを担当するのが、変数代入ブロックです。 IF/ELSEブロックで会話変数is_first_messageが1だったら「2回目以降ですね」と回答する回答ブロックに移動します。 そして、またユーザーの入力を待ちます。 これを実現するワークフローを作ってみましょう。 ■ 会話変数を定義する 会話変数を定義します。画面上部の会話変数マークのアイコンをクリックして(①)、「+変数を追加」をクリックします(②)。 「名前」には、変数名is_first_messageを入力します(③)。「タイプ」は数字なのでnumberを選択します(④)。そして、初期値に0を入力します(⑤)。 最後に「保存」をクリックします(⑥)。   ■ IF/ELSEブロックを定義する IF/ELSEブロックを定義します。条件式は、会話変数is_first_messageが0かどうかを判定します。   ■ はじめましての場合の回答ブロックを定義する IF/ELSEブロックの条件が真だった場合の回答ブロックを定義します。ここでは「初めてですね」と回答します。   ■ コードブロックを定義する はじめましての場合の回答ブロックにコードブロックを接続して定義します。引数なしで、単純に1という数値だけを返すコードを入力します(①)。出力変数は、コードの戻り値と同じNumber型の変数を定義します(②)。 ここでコードブロックを定義する理由は、このあと定義する変数代入ブロックでは、固定値を代入できず、他のブロックの出力結果を代入する必要があるためです。   ■ 変数代入ブロックを定義する 変数代入ブロックを定義します。変数代入ブロックは、コードブロックの出力結果を会話変数is_first_messageに代入します。   ■ 2回目以降の場合の回答ブロックを定義する 2回目以降の回答ブロックを定義します。IF/ELSEブロックのELSEの部分に接続します。   ■ フロー全体を確認する フロー全体を確認します。この様になっていればOKです。   ■ 動作確認をする 動作確認をします。たしかに初回は、「初めてですね」と回答し、それ以降は「2回目以降ですね」と回答しています。 HTTPリクエスト HTTPリクエストブロックは、外部のAPIを呼び出すためのブロックです。例えば、外部のAPIを呼び出して、その結果をLLMブロックに渡して回答を生成するといったことができます。 ■ HTTPリクエスト ①は、リクエストの種類を選択します。GET、POST、PUT、DELETEなどのHTTPリクエストメソッドを選択できます。 ②は、リクエスト先のURLを入力します。 ③は、リクエストヘッダを設定します。ヘッダは、リクエストに関する情報を含む部分です。例えば、リクエストの種類やリクエストの送信元などが含まれます。 ④は、クエリパラメーターを設定します。クエリパラメーターは、リクエストに含めるパラメーターを指定します。例えば、検索クエリやページ番号などが含まれます。 ⑤は、リクエストボディを設定します。リクエストボディは、リクエストに含めるデータを指定します。例えば、フォームに入力されたデータやJSON形式のデータが含まれます。 この図の例では、postmanが用意してくれているAPIを呼び出しています。GETメソッドで呼び出したリクエストをオウム返ししてくれるAPIです。api-keyというリクエストヘッダにhoge、searchというクエリパラメーターにパスタと指定しています。   ■ HTTPレスポンス 以下がその実行結果です。確かにHTTPリクエストで指定した通りのレスポンスが返ってきています。   ■ 出力変数 出力変数は以下の通りとなります。 status_code: HTTPステータスコード headers: レスポンスヘッダ body: レスポンスボディ files: ファイル(multipart/form-dataの形式でバイナリデータを送信する場合に使用) パラメーター抽出 パラメーター抽出ブロックは、非構造化データを構造化データに変換してくれます。例えば、任意のテキストを与えるとLLMがそれを解析して、あらかじめ指定した変数の中にデータを入れてくれます。   ユースケースとしては、ユーザーが入力したテキストを解析して、その中から特定の情報を抽出するといったことが考えられます。例えば、ユーザーが「今日はレストラン『タベルナ』でパスタを食べた」と入力したときに、「レストラン名」に「タベルナ」、「料理名」に「パスタ」という情報を抽出して、レストラン名をAPIに渡して場所を取得するといった事ができます。 今回は以下のようなチャットフローを作成してみましょう。   ユーザーは、「今日はレストラン『タベルナ』でパスタを食べた」と入力します。そのテキストをパラメーター抽出ブロックで解析して、restaurantという変数に食べたお店の名前を入力するようにパラメーター抽出ブロックに指示します。そして、それをHTTPリクエストブロックに渡して、レストラン名をAPIに渡して場所を取得します。今回は、 HTTPリクエスト のブロックで紹介したPostman Echo APIを使って、レストランの名前を渡して、オウム返しされてくるレストラン名を確認します。 ■ パラメーター抽出ブロックを定義する パラメーター抽出のブロックを定義します。 「モデル」には、パラメーター抽出対象のテキストや画像などを解析するためのモデルを指定します(①)。 「入力変数」には、パラメーター抽出対象のテキストや画像などを指定します(②)。ここでは、開始のブロックでユーザーが入力したテキストを指定します。 「パラメーターを抽出」の項目にある「+」をクリックして(③)します。   ■ パラメーターを追加する 「restaurant」という変数を追加します(①)。 「タイプ」はパラメーターの型を指定します。ここでは、文字列(String)を指定します(②)。 「説明」は、パラメーターの説明を入力します(③)。ここで入力した説明と、先ほど入力変数に指定したテキストを解析して、その中からパラメーターを抽出します。なので、この説明は、パラメーターを抽出するためのヒントとなります。 最後に「追加」をクリックします(④)。   ■ HTTPリクエストブロックを定義する HTTPリクエストブロックを定義します。HTTPリクエストブロックの設定方法は HTTPリクエスト のブロックとほぼ同じなので、詳細は割愛します。 異なる点は、クエリパラメーターsearchに、パラメーター抽出ブロックで抽出したrestaurantを指定しているところです。   ■ フロー全体を確認する 以下のようになっていればOKです。   ■ 動作確認をする プレビューの画面で、「今日はレストラン『タベルナ』でパスタを食べた」と入力して、そのトレースを確認してみます。   HTTPリクエストのトレースの出力を確認してみたところ、確かにパラメーター抽出ブロックで抽出したrestaurantの値が、HTTPリクエストのレスポンスに含まれていることがわかります。 第15章: チャンキング 本章では、チャンキングについて解説します。チャンキングについては、「 第9章: RAGを作ってみよう 」の節で触れましたが、ここでは更にその設定の詳細について解説します。 Difyでのチャンキングの手法には、大きく分けて「汎用」と「親子」の2つがあります。 ■ 汎用 汎用のチャンキングは、あらかじめ決められた固定長でドキュメントを分割する手法です。例えば、1000文字ごとに分割するといった設定ができます。「 第9章: RAGを作ってみよう 」の節で紹介したチャンキングは、この汎用のチャンキングに該当します。 ■ 親子 親子のチャンキングは、固定長で分割したチャンク(これを親チャンクと呼びます)をさらに分割して、子チャンクを作ります。親チャンクと子チャンクは紐づけを行っており、検索を行う場合は、子チャンクに対してベクトル検索を行い、それに紐づく親チャンクをコンテキストとしてLLMに与えます。 では、以降では、これらのチャンキング手法について詳しく解説します。 汎用 これは非常に馴染み深い方法かと思います。先ほど説明したように、あらかじめ決められた固定長でドキュメントを分割する手法です。例えば、1000文字ごとに分割するといった設定ができます。「 第9章: RAGを作ってみよう 」の節でも紹介しましたが、そこでは説明しきれなかった項目について、ここで詳しく解説します。 設定画面をもとに、どのようにチャンキングを設定するかを見ていきましょう。   一番重要なのは、「チャンク識別子」「最大チャンク長」「チャンクのオーバーラップ」です。以下の図を例に説明します。   元のドキュメントをまず、チャンク識別子で分割します。この例では、チャンク識別子を「。」に設定しているので、文の終わりで分割されます。そして、最大チャンク長で設定した値に収まるまで、チャンクを結合します。よって、一つのチャンクは最大チャンク長に収まります。 前後のチャンクはある程度、重複していることがあります。この重複部分をオーバーラップと呼びます。このオーバーラップを設定することにより、チャンク間の関連性を保つことができます。オーバーラップのサイズは、「チャンクのオーバーラップ」で設定します。 「連続するスペース、改行、タブを置換する」は、チェックするとドキュメント内の連続するスペース、改行、タブを削除します。 「すべてのURLとメールアドレスを削除する」は、チェックするとドキュメント内のURLとメールアドレスを削除します。メールアドレスなどの個人情報を含むテキストをチャンクに含めたくない場合に便利です。 「チャンクをプレビュー」をクリックすると、以下のようにチャンクがどのように分割されるかを確認することができます。 親子 チャンクサイズは、検索や生成AIの精度に大きな影響を与えます。 チャンクサイズが大きすぎる場合は、不要な情報(ノイズ)が含まれ、意図した検索が難しくなります。一方、チャンクサイズが小さすぎる場合は、必要な文脈が失われ、適切な情報を取得できないことがあります。 一方で、チャンクサイズが小さすぎると、必要な文脈が失われ、適切な情報を取得できないことがあります。 実例を見てみましょう。例えば以下のような文章を考えてみます。 生成AIを活用することで、業務の効率化が図れる。 特にRAG(Retriever-Augmented Generation)を用いることで、文書検索がより精度よく行える。 Azure OpenAI Serviceを活用すると、簡単に導入できる。 企業のナレッジ管理に役立つ。   ■ チャンクサイズが大きすぎる場合 極端な例ですが、この文章全体を一つのチャンクとして扱うと、以下のような問題が発生します。 【チャンク1】 生成AIを活用することで、業務の効率化が図れる。 特にRAG(Retriever-Augmented Generation)を用いることで、文書検索がより精度よく行える。 Azure OpenAI Serviceを活用すると、簡単に導入できる。 企業のナレッジ管理に役立つ。   「Azure OpenAI Service とは?」というクエリで検索した場合を考えてみます。 このチャンクには「Azure OpenAI Service」に関する記述はあるが、他の情報も多く含まれるため、検索時に関係のない「RAG」や「業務の効率化」などの情報が混ざってしまい、適切に検索されない可能性があります。 ■ チャンクサイズが小さすぎる場合 こちらも極端な例ですが、以下のように小さく分割してしまうと、以下のような問題が発生します。 【チャンク1】 生成AIを活用することで 【チャンク2】 業務の効率化が図れる。 【チャンク3】 特にRAG(Retriever-Augmented 【チャンク4】 Generation)を用いることで 【チャンク5】 文書検索がより精度よく行える。 【チャンク6】 Azure OpenAI Serviceを 【チャンク7】 活用すると、簡単に導入できる。 【チャンク8】 企業のナレッジ管理に役立つ。 「Azure OpenAI Service の活用方法」というクエリで検索した場合を考えてみます。 「Azure OpenAI Serviceを活用すると、簡単に導入できる。」が チャンク6とチャンク7に分割されているため、検索時に文脈が途切れ、適切な回答が得られない可能性があります。 このようなジレンマを解決するのが親子のチャンキングです。これは以下の図のような流れで行われます。   まず元のドキュメントをチャンク化します(①)。このチャンクを親チャンクと呼びます。 親チャンクをさらに小さいサイズにチャンク化して、子チャンクを作ります(②)。この子チャンクは、親チャンクと紐づいています。 検索を行う場合は、まずクエリをベクトル化します(③)。 そして、子チャンクに対してベクトル検索を行います(④)。 ④の結果、検索された最も関連性の高い子チャンクに紐づく親チャンクをコンテキストとして、LLMに与えます(⑤)。 そのコンテキストをもとに、LLMが回答を生成します(⑥)。 この方法であれば、必要十分な情報を持っている子チャンクに対して検索を行って正しい情報を取得しつつ、LLMに与えるコンテキストは、十分な情報を持っている親チャンクになるため、適切な回答を得ることができます。 親子のチャンキングを設定する方法については、以下の図を参考にしてください。   ①は、親チャンクのチャンク識別子と最大チャンク長を設定します。これは汎用のチャンキングと同じです。もう一つ「全文」というのがあります。これは親チャンクを分割しないで一つの大きいチャンクとして扱う選択肢であります。ドキュメントのサイズが小さいときは有効に働く可能性があります。大きすぎると、10000トークンでぶった切られます。 ②は、子チャンクのチャンク識別子と最大チャンク長を設定します。これは当然ながら親チャンクよりも小さくなります。 ③は、テキストの前処理ルールであり、汎用のチャンキングと同じです。 ④は、チャンクをプレビューすることができます。以下がプレビューの画面になります。この例では、Chunk9が、C1〜C5の5つの子チャンクに分割されていることがわかります。 第16章: ナレッジ ナレッジには様々な機能があります。今まで紹介しきれなかった機能も含めて、ナレッジの機能を紹介します。 インデックス方法 インデックス方法には「高品質」「経済的」の2つのどちらかを選択できます。 経済的 こちらを選択すると、全文検索のみの検索方式になります。もともとDify自身が持っている検索エンジンやデータベースを使うのでコストはかかりません。だから「経済的」なんですね。 「検索設定」は全文検索の結果、スコアの高い順から、何件まで表示するかを設定します。 高品質 こちらは平たく言ってしまうと、お金はかかるけれど、より高精度な検索結果を出すことができる方法です。OpenAIなどが提供する「埋め込みモデル」によるベクトル検索や、Cohereなどが提供する「Rerankモデル」による検索結果の並べ替えを行うことにより、検索結果の精度を向上させます。   高品質のモードには「ベクトル検索」「全文検索」「ハイブリッド検索」の3つのモードがあります。以降では、それぞれを詳細に解説します。 ■ ベクトル検索 ベクトル検索を行う場合には、こちらを選択します。   まず、ベクトル検索に利用する埋め込みモデルを選択します(①)。 Rerankモデルの利用可否、およびRerankモデルを利用する際のモデルを選択します(②)。Rerankモデルとは、取得した検索結果を再評価(Rerank)し、より関連性の高い順に並べ替えるためのモデルになります。 この例では、以下の図のようにベクトル検索した結果をRerankモデルについて並べ替えている例です。これはWikipediaから取得したスター・ウォーズの登場人物の情報に対して、「アナキン・スカイウォーカーによって作成されて、とてもたくさんの言葉が話せる登場人物は?」というプロンプトを投げている例です。正解と思われる結果が、ベクトル検索では10位だったのに、Rerankモデルによって並び替えすることで2位に浮上していることがわかります。   トップK(③)は、ベクトル検索もしくはベクトル検索の結果をRerankモデルによって並べ替えた結果から、スコアの高い順に何件まで表示するかを設定します。 スコア閾値は、ベクトル検索もしくはベクトル検索の結果をRerankモデルによって並べ替えた結果から、スコアがこの値以上のものだけを表示するようにします。 先の図の例では、ベクトル検索の結果をRerankモデルによって並べ替えた結果から上位10件かつスコアが0.8以上のものだけを表示するように設定されています。 ■ 全文検索 全文検索を用いる場合はこちらを選択します。   Rerankモデル(①)はベクトル検索と同様、全文検索によって取得した検索結果を再評価(Rerank)し、より関連性の高い順に並べ替えるためのモデルになります。 トップK(②)は、全文検索もしくは全文検索の結果をRerankモデルによって並べ替えた結果から、スコアの高い順に何件まで表示するかを設定します。 スコア閾値は、全文検索もしくは全文検索の結果をRerankモデルによって並べ替えた結果から、スコアがこの値以上のものだけを表示するようにします。 ■ ハイブリッド検索 (ウェイト設定) ハイブリッド検索は、ベクトル検索と全文検索を組み合わせた検索方式です。ベクトル検索と全文検索の両方の利点を活かし、検索結果の精度を向上させることができます。前にご紹介したベクトル検索と全文検索を実施したうえで、その結果をこれから説明するハイブリッド検索の結果でさらに並べ替えるということを実施します。 なので、ハイブリッド検索をONにすると、(キーワード検索 + ベクトル検索) → ハイブリッド検索の順に実行されます。キーワード検索とハイブリッド検索はマルチスレッドで同時に実行され、そのスレッドの完了を待ったうえで、ハイブリッド検索がおこなれるという動きになっています。 この方式には「ウェイト設定」「Rerankモデル」という2つの機能があり、それぞれでスコアの算出方法が異なります。まずは「ウェイト設定」について説明します。   以下のクエリとドキュメントがあるとします。クエリからドキュメント1〜4を検索するとして、そのスコアをウェイト設定の場合で算出してみます。 クエリ: 革新的なAI技術とは何でしょうか? ドキュメント1: 最新のAI技術により、データベースが大幅に改善されました。 ドキュメント2: 当社はAI技術を活用し、データベースを統合、さらにPythonによる自動化を実現しています。 ドキュメント3: RAGを用いたシステムは、バナナの柔軟性とAIの知見を融合しています。 ドキュメント4: いちごとメロンとおまんじゅうの組み合わせが絶妙です。 まずは全文検索の場合のスコアを算出します。Difyの全文検索では、クエリとドキュメントのTF-IDFを求めて、その値のコサイン類似度を図ることでスコアの算出を行います。 クエリとドキュメント1〜4は、わかち書きを行った結果、以下の単語に分割されたとします。ちなみに、Difyで実際に以下のようになるかはわかりません。説明のための例になります。 クエリ:”AI”, “技術” ドキュメント1: “AI”, “技術”, “データベース” ドキュメント2: “AI”, “技術”, “データベース”, “Python” ドキュメント3: “RAG”, “バナナ”, “AI” ドキュメント4: “いちご”, “メロン”, “おまんじゅう” Difyのコード内で使われているIDFの式は以下のようになっています。   ドキュメントは4件あるので、各キーワードの出現数は下記のとおりです。 キーワード 出現ドキュメント数 AI 3(ドキュメント1,2,3) 技術 2(ドキュメント1,2) データベース 2(ドキュメント1,2) Python 1(ドキュメント2) RAG 1(ドキュメント3) バナナ 1(ドキュメント3) いちご 1(ドキュメント4) メロン 1(ドキュメント4) おまんじゅう 1(ドキュメント4) よってAIというキーワードのIDFは次のようになります。   同様に、技術、データベース、Python、RAG、バナナ、いちご、メロン、おまんじゅうのIDFも計算します。 技術: 1.5108 データベース: 1.5108 Python: 1.9163 RAG: 1.9163 バナナ: 1.9163 いちご: 1.9163 メロン: 1.9163 おまんじゅう: 1.9163 TFはすべて1となります。TF-IDFは、TFとIDFの積になりますので、クエリのTF-IDFは以下のようになります。 {“AI”:1.2231,”技術”:1.5108} これはクエリにおける「AI」という単語のTF-IDFと、「技術」という単語のTF-IDFの値をベクトルで表したものです。 同様に、ドキュメント1〜4のTF-IDFも計算します。 ドキュメント1: {“AI”:1.2231,”技術”:1.5108,”データベース”:1.5108} ドキュメント2: {“AI”:1.2231,”技術”:1.5108,”データベース”:1.5108,”Python”:1.9163} ドキュメント3: {“RAG”:1.9163,”バナナ”:1.9163,”AI”:1.2231} ドキュメント4: {“いちご”:1.9163,”メロン”:1.9163,”おまんじゅう”:1.9163} そして、クエリとドキュメント1〜4のコサイン類似度を計算します。コサイン類似度は、クエリとドキュメントのベクトルの内積を、クエリのベクトルの長さとドキュメントのベクトルの長さの積で割ったものになります。つまり以下の式で表せます。   では、まずクエリとドキュメント1のコサイン類似度を計算してみましょう。クエリとドキュメント1に含まれるキーワードは以下のとおりです。 クエリ: {“AI”, “技術”} ドキュメント1: {“AI”, “技術”, “データベース”} まず内積(分子)を計算します。共通の項は「AI」と「技術」の2つです。 numerator = (1.2231 × 1.2231) + (1.5108 × 1.5108) = 3.779 次に、各ベクトルのノルム(分母)を計算します。 クエリのノルム ドキュメント1のノルム そして、コサイン類似度を計算します。 小数点第3位を四捨五入すると、最終的なコサイン類似度は0.79となります。 同様に、クエリとドキュメント2〜4のコサイン類似度も計算した結果は以下となります。   次にベクトル検索の場合のスコアを算出します。ベクトル検索では、クエリとドキュメントのベクトルを用いてコサイン類似度を計算します。先ほどの例で言えば、クエリとドキュメント1〜4のコサイン類似度を計算し、その値をスコアとします。その結果は以下のようになります。   これでクエリと各ドキュメントのキーワード検索とベクトル検索をした結果のスコアが算出されたことになります。さらにウェイト設定で設定した値により、このスコアに重み付けをしていきます。以下の図では、ベクトル検索:キーワード検索=0.7:0.3という設定になります。セマンティック=ベクトル検索、キーワード=全文検索です。   ウェイト設定の値を係数としてかけたスコアは以下の通りとなります。   この場合ではベクトル検索のほうが検索精度が高いという前提で、ベクトル検索の重みを大きくしていますが、このあたりはドキュメントの内容などによって調整が必要な部分になります。 トップKとスコア閾値は、ウェイト設定を行った結果から、スコアの高い順に何件まで表示するかを設定します。キーワード検索や全文検索で説明した動きと同じです。 このようにして、ウェイト設定により、ベクトル検索と全文検索のスコアを組み合わせて、最終的なスコアを算出することができます。 ■ Rerankモデル こちらは、先に紹介した全文検索とベクトル検索の結果を組み合わせたものを、Rerankモデルによって再評価(Rerank)し、より関連性の高い順に並べ替えます。   流れを以下の通り図解しました。全文検索とベクトル検索をマージして重複ドキュメントを削除し、Rerankモデルによる並べ替えを行います。 まとめ いかがでしたでしょうか?Dify便利ですよね。まさに「AIの民主化」を実現するすごいソフトウェアだと思います。もはやAIは一部のスゴスゴエンジニアだけのものではありません。DifyをつかってもっとAIの利用を加速させましょうどすこい。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post 世界一わかりみの深いDify first appeared on SIOS Tech. Lab .
アバター
こんにちは、サイオステクノロジーの遠藤です。 今回は、React Route v7のブラウザ開発環境でMSWを利用する方法について自分で導入するときに少しハマったので、備忘録的な形でまとめておこうと思います。 では始めていきましょう。 React Routerアプリを作成 まずは、React Routeのアプリを作成します。v7からviteで作成できるようになったのでviteを利用して作成しました。 ❯ npm create vite@latest Need to install the following packages: create-vite@6.3.0 Ok to proceed? (y) > npx > create-vite │ ◇ Project name: │ msw-blog │ ◇ Select a framework: │ React │ ◇ Select a variant: │ React Router v7 ↗ git Initialize a new git repository? Yes deps Install dependencies with npm? Yes 作成が完了したら、ディレクトリを移動します。 cd msw-blog MSWをインストール MSWのインストールを行いましょう。 npm install msw@latest --save-dev ワーカースクリプトをpublicディレクトリにコピー MSWでは、worker scriptをアプリケーションのpulbicディレクトリに配置することでクライアント上でリクエストをキャッチできるようになります。こちらは以下の形でMSWのCLIを利用することで自分のディレクトリにコピーすることができます。 npx msw init ./public また、以下のようにsaveフラグを付けるとpackage.jsonにpublicディレクトリのパスが記録されるようになり、mswパッケージをインストールするたびにversionに合わせたワーカースクリプトがコピーされるようになるのでおすすめです。 npx msw init ./public --save // package.json { "name": "my-app", "msw": { "workerDirectory": "./public" } } 公式 : https://mswjs.io/docs/cli/init Request handlersでモックを定義 Request handlers  関数を利用することで、モックの定義を行うことができます。まずは、mockを格納するためのディレクトリを作成しましょう。React Route v7では、呼び出し先の関係上app以下で定義しておくのが良さそうなので、app/mocksディレクトリを作成して、配置します。 mkdir app/mocks ディレクトリを作成したら、handlers.tsを作成します。 // app/mocks/handlers.ts import { http, HttpResponse } from 'msw' export const handlers = [ // Intercept "GET <https://example.com/user>" requests... http.get('<https://example.com/user>', () => { // ...and respond to them using this JSON response. return HttpResponse.json({ id: 'c7b3d8e0-5e0b-4b0f-8b3a-3b9f4b3d3b3d', firstName: 'John', lastName: 'Maverick', }) }), ] Integrate する ちょっと良いタイトルが思い浮かばなかったので、公式の言葉をそのまま持ってきました。要は、MSWは環境レベルで適用されるため、あらゆるフレームワーク、リクエスト ライブラリ、その他のツールと統合できるということみたいです。ブラウザで使用するか、Node.js プロセスで使用するか (またはその両方) を決めて、対応する統合モジュールを作成してアプリケーションに統合することで、どんな環境でも作成したモックを使うことができるとチュートリアルには書いてありました。今回は、ブラウザ用の統合モジュールを作成していきます。 app/mocksにbrowser.tsを作成します。 // app/mocks/browser.ts import { setupWorker } from "msw/browser"; import { handlers } from "./handlers"; export const worker = setupWorker(...handlers); app/entry.client.tsxを記述する 本日の本題です。React Router v7にはSpecial Filesというものがありまして、これらのファイルを利用することでアプリケーションの動きを調整することができます。 公式サイト : https://reactrouter.com/explanation/special-files#entryclienttsx entry.client.tsxはブラウザで最初に実行されるコードを制御できるものになっており、これに先程のブラウザ用の統合モジュールを利用することでMSWを動かすことが可能になります。それではapp/entry.client.tsxに以下のコードを追記します。 // app/entry.client.tsx import { startTransition, StrictMode } from "react"; import { hydrateRoot } from "react-dom/client"; import { HydratedRouter } from "react-router/dom"; async function enableApiMocking() { if (process.env.NODE_ENV !== "development") { return; } const { worker } = await import("~/mocks/browser"); console.info("Starting MSW service worker..."); return worker.start(); } enableApiMocking().then(() => { startTransition(() => { hydrateRoot( document, <StrictMode> <HydratedRouter /> </StrictMode> ); }); }); そうしたら、アプリを起動して動作を確認してみましょう。 npm run dev 開発者ツールで [MSW] Mocking enabled. の文字が見えたらモックが動くようになっています。お疲れ様でした。 まとめ 今回は、React Route v7のブラウザ開発環境でMSWを利用する方法についてまとめました。React Route触りたてというのもあり、entry.client.tsxの存在に気づくまで時間がかかりましたが、この記事が誰かの助けになれば幸いです。 ではまた~ ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post React Router v7のブラウザ開発環境でMSWを利用する方法 first appeared on SIOS Tech. Lab .
アバター
こんにちは、サイオステクノロジーの遠藤です。 今回は、WebフレームワークであるRemixとルーティングライブラリであるReact Routerが統合されたReact Router v7のルーティングについてまとめていきます。 ルーティング方法 React Router v7では、Configuring Routes、Component Routes、File Route Conventionsの3種類のルーティング方法があります。 Configuring Routes React Router v7のデフォルトで設定されるルーティングで、app/routes.tsに定義されたルーティング構成が反映されます。 Component Routes 以下のコードのような形で定義するルーティング方法。React Router v6で使用されていた定義らしく、v6から変更なく使用できるのが利点のよう。 ただ、Remixと統合されたことによって使用可能になった in data loading, actions, code splitting といった機能が使用できないのは注意ポイントです。 import { Routes, Route } from "react-router"; function Wizard() { return ( <div> <h1>Some Wizard with Steps</h1> <Routes> <Route index element={<StepOne />} /> <Route path="step-2" element={<StepTwo />} /> <Route path="step-3" element={<StepThree />} /> </Routes> </div> ); } File Route Conventions Next.jsのPages Router のようなファイルベースでのルーティングをapp/routes以下のファイルに対して行える機能。ただ、「.」を利用してファイルを決定するらしく、ネストが深くなっていった場合に大変そうという印象を受けました。 ファイル構成 app/ ├── routes/ │ ├── _index.tsx │ ├── about.tsx │ ├── concerts.trending.tsx │ ├── concerts.salt-lake-city.tsx │ └── concerts.san-diego.tsx └── root.tsx URLとファイルの対応 URL Matched Route / app/routes/_index.tsx /about app/routes/about.tsx /concerts/trending app/routes/concerts.trending.tsx /concerts/salt-lake-city app/routes/concerts.salt-lake-city.tsx /concerts/san-diego app/routes/concerts.san-diego.tsx 今回はConfiguring Routesの書き方についてご紹介します。 Configuring Routesの書き方 Routesの基本 ルートは app/routes.ts に定義され、 URLパターン と ルートモジュールのファイルパス が必要です。 import { type RouteConfig, route } from "@react-router/dev/routes"; export default [ route("some/path", "./some/file.tsx"), ] satisfies RouteConfig; Routesの設定例 例えば、以下のようにルートを設定できます。 import { type RouteConfig, route, index, layout, prefix } from "@react-router/dev/routes"; export default [ index("./home.tsx"), route("about", "./about.tsx"), layout("./auth/layout.tsx", [ route("login", "./auth/login.tsx"), route("register", "./auth/register.tsx"), ]), ...prefix("concerts", [ index("./concerts/home.tsx"), route(":city", "./concerts/city.tsx"), route("trending", "./concerts/trending.tsx"), ]), ] satisfies RouteConfig; このように、レイアウトルートや動的セグメントを含むルートも定義できます。 ルートモジュールとは? 各ルートに対応するファイル(ルートモジュール)は、実際のページのコンポーネントやデータフェッチのロジックを定義します。 import type { Route } from "./+types/team"; export async function loader({ params }: Route.LoaderArgs) { let team = await fetchTeam(params.teamId); return { name: team.name }; } export default function Component({ loaderData }: Route.ComponentProps) { return <h1>{loaderData.name}</h1>; } ルートモジュールには、アクション、ヘッダー、エラー境界などの機能があり、上の例は loader を使用してページのデータ取得をルートレベルで管理している様子です。 ルートの種類と使いどころ 1. ネストされたルート ルートをネストして階層構造を作ることができます。 export default [ route("dashboard", "./dashboard.tsx", [ index("./home.tsx"), route("settings", "./settings.tsx"), ]), ] satisfies RouteConfig; /dashboard の中に /dashboard/settings という子ルートを作成できます。 2. レイアウトルート layout を使うと、URLを変えずに共通のレイアウトを適用できます。 export default [ layout("./marketing/layout.tsx", [ index("./marketing/home.tsx"), route("contact", "./marketing/contact.tsx"), ]), ] satisfies RouteConfig; 動的セグメントとパラメータ URLの一部を動的に受け取る場合は、 :paramName の形式を使います。 route("teams/:teamId", "./team.tsx"), 取得したパラメータは params から利用できます。 export default function Component({ params }: Route.ComponentProps) { return <h1>Team ID: {params.teamId}</h1>; } File Route Conventionsと組み合わせる 以下のような形で、File Route ConventionsとConfiguring Routesを組み合わせることが可能です。そのため、普段はFile Route Conventionsで管理を行い、複雑なルーティング制御が必要な場合にはConfiguring Routesを利用するといったことも可能です。 import { type RouteConfig, route, } from "@react-router/dev/routes"; import { flatRoutes } from "@react-router/fs-routes"; export default [ route("/", "./home.tsx"), ...(await flatRoutes()), ] satisfies RouteConfig; まとめ 今回は、React Router v7のルーティング方法の一つであるConfiguring Routesについてまとめました。React Router v7を利用したのが今回が初めてだったため、最初はドキュメントを読んでも「?」状態でしたが、ルーティング方法が3つあるということを知ってからはだいぶ理解を進めることが出来ました。 React Router v7は、 Remix の特徴を受け継ぎ Web 標準に沿っているということで、基本を身につけるためにもしばらく触ってみようと思います。 ではまた~ ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post React Router v7のルーティング方法 Configuring Routes を整理する first appeared on SIOS Tech. Lab .
アバター
挨拶 最近は、「 Dify入門シリーズ 」の検証+執筆にいそしんでいる龍ちゃんです。応用的ステップとして、GASで本格運用する業務アプリの開発などもやっていました。こちらの業務アプリでは、DifyのAPIを叩くわけでなく、Azure OpenAI Service(AOAI)のREST APIで生成AIを実行しています。 今回は、参照用のサンプルコードとして「プロパティサービスを活用してアクセスキーなどを保護しつつ、APIのリクエストを作成するスクリプト」を書いておきます。 検証に使用したモデルのバージョンとAPIのバージョンは以下になります。 項目 バージョン モデル GPT-4o-mini AOAI APIバージョン 2024-10-21 サンプルコード:スクリプトプロパティでアクセスキーを取得 AOAIのモデルのデプロイ等は、終わっていると仮定して進めていきます。REST APIのアクセスには、以下の情報が必要になります。必要な情報は こちらを参考 に取得してください。 コンテンツ 説明 エンドポイント Azure Portal上で確認するエンドポイント キー Azure Portal上で確認するアクセスキー モデル名 モデルをデプロイした際に設定したデプロイ名 APIバージョン MS Learn上で参照して最新のGAリリースの情報を取得 こちらの情報を取得して、スクリプトプロパティとして保存しておきます。 スクリプトプロパティの登録などはこちらを参考 にしてください。以下のパラメータで保存しています。 コンテンツ スクリプトプロパティ エンドポイント AOAI_API_URL キー AOAI_API_KEY モデル名 AOAI_API_MODEL APIバージョン AOAI_API_VERSION 上記のパラメータで保存することで、以下のスクリプトがそのまま使うことができます。 const apiEndpoint = PropertiesService.getScriptProperties().getProperty("AOAI_API_URL"); const modelName = PropertiesService.getScriptProperties().getProperty("AOAI_API_MODEL"); const apiVersion = PropertiesService.getScriptProperties().getProperty("AOAI_API_VERSION"); const apiKey = PropertiesService.getScriptProperties().getProperty("AOAI_API_KEY"); const apiUrl = `${apiEndpoint}/openai/deployments/${modelName}/chat/completions?api-version=${apiVersion}`; サンプルコード:AOAIへの単発リクエスト(fetch) AOAIへの単発のチャットリクエストを送信するサンプルとなります。 fetch:公式リファレンス情報はこちら です。 // AOAIへの単発リクエスト function testRequestToAOAI() { const apiEndpoint = PropertiesService.getScriptProperties().getProperty("AOAI_API_URL"); const modelName = PropertiesService.getScriptProperties().getProperty("AOAI_API_MODEL"); const apiVersion = PropertiesService.getScriptProperties().getProperty("AOAI_API_VERSION"); const apiKey = PropertiesService.getScriptProperties().getProperty("AOAI_API_KEY"); const apiUrl = `${apiEndpoint}/openai/deployments/${modelName}/chat/completions?api-version=${apiVersion}`; const payload = { messages: [ { role: "system", content: `あなたは先生でユーザーは小学生です。優しく教えてください。` //システムプロンプト }, { role: "user", content: "先生!トイレ~" //ユーザープロンプト } ] } const option = { method: 'post', headers: { "Content-Type": "application/json", "api-key": apiKey }, payload: JSON.stringify(payload), muteHttpExceptions: true } const response = UrlFetchApp.fetch(apiUrl, option) const responsJson = JSON.parse(response.getContentText()); try { const res = responsJson.choices[0].message.content.trim(); Logger.log(res) } catch (e) { if(responsJson.error) Logger.log(responsJson.error.message) // リクエストでエラーレスポンスが返答されている可能性 Logger.log(e.message) } } 注目してほしい点としては、 muteHttpExceptions です。こちらは、リクエスト時にエラーが発生した場合は、responseにエラーオブジェクトを詰めて処理を継続させます。もしエラーの場合では、生成AIのレスポンス取得部分が落ちてしまうので、try~catchで捕捉しています。 catchで捕捉されるエラーは、jsonオブジェクトへアクセスできない等のエラーになるため、responseJsonを検証してエラーを取得しています。 龍ちゃん Errorを継承したカスタムエラーを作成する方法もありますが、厳密なエラーハンドリングが求められないのであればこれぐらいの軽量でよいと思います。 サンプルコード:AOAIへの並列リクエスト(fetchAll) fetchAllを活用して並列でAOAIへのリクエストを送信するサンプルとなります。 fetchAll:公式リファレンスの情報はこちら です。 // AOAIへのリクエスト作成 function createRequestToAOAI(text) { const apiEndpoint = PropertiesService.getScriptProperties().getProperty("AOAI_API_URL"); const modelName = PropertiesService.getScriptProperties().getProperty("AOAI_API_MODEL"); const apiVersion = PropertiesService.getScriptProperties().getProperty("AOAI_API_VERSION"); const apiKey = PropertiesService.getScriptProperties().getProperty("AOAI_API_KEY"); const apiUrl = `${apiEndpoint}/openai/deployments/${modelName}/chat/completions?api-version=${apiVersion}`; const payload = { messages: [ { role: "system", content: `あなたは先生でユーザーは小学生です。優しく教えてください。` //システムプロンプト }, { role: "user", content: text } ] } const request = { url: apiUrl, method: 'post', headers: { "Content-Type": "application/json", "api-key": apiKey }, payload: JSON.stringify(payload), muteHttpExceptions: true } return request } function testRequestsToAOAI(){ const children = ["先生トイレ!","`右`の漢字の書き順がわかりません", "1+1は?"] const requests = children.map((value) => createRequestToAOAI(value)) const reponses = UrlFetchApp.fetchAll(requests) reponses.forEach((response, index) => { const responsJson = JSON.parse(response.getContentText()); try { const res = responsJson.choices[0].message.content.trim(); Logger.log(`${children[index]}:${res}`) } catch (e) { Logger.log(responsJson) Logger.log(e) } }) } こちらは、事前にリクエストを作成する関数を使用してリクエスト配列を生成し、そちらの内容を fetchAll で送信しています。単発のリクエストとは異なり、 request オブジェクト内に url が含まれているのが特徴です。 終わり 今回は、GASでAOAIのREST APIを実行するサンプルコードを紹介しました。並列実行を含めたリクエストの作成方法と、エラーハンドリングの実装について解説しています。参考にしていただければ幸いです。 ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post 【保存版】GASでAzure OpenAI APIを使いこなす!基本から並列処理まで first appeared on SIOS Tech. Lab .
アバター
概要 こちらの記事 では既存のOpenShift上でコンテナとVMを統合管理することが出来るOpenShift Virtualization(以降、OCP-Virt)ついて紹介しました。 本記事では、実際にAWS環境のOpenShift上でOCP-Virtを構築し、簡単なVMの作成と外部公開を行ってみたいと思います。 次回の記事では、同じ仮想化基盤であるSUSE VIrtualizationの紹介をします。 前提条件 構築時の前提条件を以下に記載します。 AWS環境でOpenShift v 4.17クラスターが構築済みであること cluster-admin 権限および Operator インストール権限を持つアカウントを使用して OpenShift クラスターにアクセスできること 作業端末に下記Cliがインストール済みであること oc virtctl ベアメタルインスタンスのノードを追加する必要があるため、従量課金の料金には自己責任で気を付けてください 事前準備 OpenShift Virtualization用ノードの追加 AWS環境のOpenShiftへのノード追加方法を詳しく書いた記事があるので、詳細はこちらの記事を読んでください。 OpenShift(AWS)へのノード追加 OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[コンピュート] > [MachineSets]に移動します。 [MachineSetの作成] をクリックします。 入力フォームにMachineSet の yaml を記述し、[作成]をクリックします。 MachineSet.yaml apiVersion: machine.openshift.io/v1beta1 kind: MachineSet metadata:   labels:     machine.openshift.io/cluster-api-cluster: <infrastructure_id>   name: <infrastructure_id>-<role>-us-east-2a-baremetal   namespace: openshift-machine-api spec:   replicas: 1   selector:     matchLabels:       machine.openshift.io/cluster-api-cluster: <infrastructure_id>       machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a   template:     metadata:       labels:         machine.openshift.io/cluster-api-cluster: <infrastructure_id>         machine.openshift.io/cluster-api-machine-role: <role>         machine.openshift.io/cluster-api-machine-type: <role>         machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a     spec:       metadata:         labels:           node-role.kubernetes.io/<role>: ""        providerSpec:         value:           ami:             id: ami-08997afda521c28fa           apiVersion: awsproviderconfig.openshift.io/v1beta1           blockDevices:             - ebs:                 iops: 0                 volumeSize: 120                 volumeType: gp2           credentialsSecret:             name: aws-cloud-credentials           deviceIndex: 0           iamInstanceProfile:             id: <infrastructure_id>-worker-profile            instanceType: c5n.metal           kind: AWSMachineProviderConfig           placement:             availabilityZone: us-east-2a             region: us-east-2           securityGroups:             - filters:                 - name: 'tag:Name'                   values:                     - <infrastructure_id>-node             - filters:                 - name: 'tag:Name'                   values:                     - <infrastructure_id>-lb            subnet:             filters:               - name: tag:Name                 values:                   - <infrastructure_id>-subnet-private-us-east-2a           tags:             - name: kubernetes.io/cluster/<infrastructure_id>               value: owned           userDataSecret:             name: worker-user-data 変更点 <infrastructure_id>:<クラスター名>-<ランダム文字列> infrastructure_idは以下のコマンドで確認するか、既存のマシンセットのyamlを見て確認してください。 $ oc get infrastructure cluster -o jsonpath='{.status.infrastructureName}' ocp-test-sp9lv <role>:worker metadata.name:マシンセットの名前(既存のマシンセットの名前と被るとエラーが出るので注意) instanceType:c5n.metal(ベアメタルインスタンスが要件となるため、ベアメタルインスタンスタイプを選択) ami.id:ami-08997afda521c28fa(インスタンスタイプに対応したRHCOSのAMI) MachineSet が作成されていることを確認します。しばらくした後(少なくとも10分以上はかかる印象があります)、利用可能数がspec.replicasで設定したマシン1台になっていることを確認します。 OpenShift Data Foundation インストール VMに永続・分散ストレージを提供するためにはOpenShift Data Foundationを導入する必要があります。これは、VMのマイグレーションを行うためには必須となります。ただし、ノードを3台追加する必要があるため、お試しでOCP-Virtを使ってみたいといった際はOpenShift Data Foundationを導入しなくても問題ありません。 OpenShift Data Foundation 用ノードの追加 上記のOpenShift Virtualization用ノードの追加と同じ手順でOpenShift Data Foundation 用ノードの追加を行います。MachineSetのyamlと変更点は下記になります。 MachineSet.yaml apiVersion: machine.openshift.io/v1beta1 kind: MachineSet metadata:   labels:     machine.openshift.io/cluster-api-cluster: <infrastructure_id>   name: <infrastructure_id>-<role>-us-east-2a-odf   namespace: openshift-machine-api spec:   replicas: 3   selector:     matchLabels:       machine.openshift.io/cluster-api-cluster: <infrastructure_id>       machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a   template:     metadata:       labels:         machine.openshift.io/cluster-api-cluster: <infrastructure_id>         machine.openshift.io/cluster-api-machine-role: <role>         machine.openshift.io/cluster-api-machine-type: <role>         machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a     spec:       metadata:         labels:           node-role.kubernetes.io/<role>: ""       providerSpec:         value:           ami:             id: ami-08997afda521c28fa           apiVersion: awsproviderconfig.openshift.io/v1beta1           blockDevices:             - ebs:                 iops: 0                 volumeSize: 120                 volumeType: gp2           credentialsSecret:             name: aws-cloud-credentials           deviceIndex: 0           iamInstanceProfile:             id: <infrastructure_id>-worker-profile           instanceType: m6a.2xlarge           kind: AWSMachineProviderConfig           placement:             availabilityZone: us-east-2a             region: us-east-2           securityGroups:             - filters:                 - name: 'tag:Name'                   values:                     - <infrastructure_id>-node             - filters:                 - name: 'tag:Name'                   values:                     - <infrastructure_id>-lb           subnet:             filters:               - name: tag:Name                 values:                   - <infrastructure_id>-subnet-private-us-east-2a           tags:             - name: kubernetes.io/cluster/<infrastructure_id>               value: owned           userDataSecret:             name: worker-user-data 変更点 <infrastructure_id>:<クラスター名>-<ランダム文字列> infrastructure_idは以下のコマンドで確認するか、既存のマシンセットのyamlを見て確認してください。 $ oc get infrastructure cluster -o jsonpath='{.status.infrastructureName}' ocp-test-sp9lv <role>:worker metadata.name:マシンセットの名前(既存のマシンセットの名前と被るとエラーが出るので注意) instanceType:m6a.2xlarge(3台の合計リソースが要件を満たすインスタンスタイプを選択) ami.id:ami-08997afda521c28fa(インスタンスタイプに対応したRHCOSのAMI) OpenShift Data Foundation Operatorインストール OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[Operators] > [OperatorHub]に移動します。 検索バーに「OpenShift Data Foundation」と入力して、 OpenShift Data Foundation をクリックして Install をクリックします。 デフォルトの設定で Install をクリックします。 Operatorのインストール完了確認 [インストール済みの Operator]に OpenShift Data Foundation、OpenShift Data Foundation Clientが存在しており、ステータスがSucceededになっていることを確認します。 OpenShift Data Foundation をクリックして Storage System を作成します。 パラメータを入力できる画面に遷移しない場合はWeb コンソールを再読み込みする デフォルトの設定で Install をクリックします。 下記コマンドを実行して StorageClass:ocs-storagecluster-ceph-rbd、ocs-storagecluster-cephfs、openshift-storage.noobaa.io が作成されていることを確認します。 $ oc get storageclass NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE gp2-csi ebs.csi.aws.com Delete WaitForFirstConsumer true 5h45m gp3-csi (default) ebs.csi.aws.com Delete WaitForFirstConsumer true 5h45m ocs-storagecluster-ceph-rbd openshift-storage.rbd.csi.ceph.com Delete Immediate true 4m17s ocs-storagecluster-cephfs openshift-storage.cephfs.csi.ceph.com Delete Immediate true 4m9s openshift-storage.noobaa.io openshift-storage.noobaa.io/obc Delete Immediate false 78s   OCP-Virt 構築 OpenShift Virtualization Operatorインストール OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[Operators] > [OperatorHub]に移動します。 検索バーに「OpenShift Virtualization」と入力して、 OpenShift Virtualization をクリックして Install をクリックします。 デフォルトの設定でInstall をクリックします。 Operatorのインストール完了確認 [インストール済みの Operator]に OpenShift Virtualizationが存在しており、ステータスがSucceededになっていることを確認します。 OpenShift Virtualization をクリックして HyperConverged を作成します。 デフォルトの設定で Install をクリックします。 ステータスに Available が表示されていることを確認します。 下記コマンドを実行して StorageClass:ocs-storagecluster-ceph-rbd-virtualization が作成されていることを確認します。 $ oc get storageclass NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE gp2-csi ebs.csi.aws.com Delete WaitForFirstConsumer true 3h23m gp3-csi (default) ebs.csi.aws.com Delete WaitForFirstConsumer true 3h23m ocs-storagecluster-ceph-rbd openshift-storage.rbd.csi.ceph.com Delete Immediate true 4m12s ocs-storagecluster-cephfs openshift-storage.cephfs.csi.ceph.com Delete Immediate true 4m4s openshift-storage.noobaa.io openshift-storage.noobaa.io/obc Delete Immediate false 3m16s ocs-storagecluster-ceph-rbd-virtualization openshift-storage.rbd.csi.ceph.com Delete Immediate true 0s 簡単なVMの作成 OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[Virtualization] > [VirtualMachines]に移動します。 [Create VirtualMachines] > [From template] をクリックします。 プロジェクトの選択、作成する必要があれば作成して作成対象のOSをクリックします。右上にSource availableと書いてあるOSが簡単に作成可能です。今回はCentOS Stream 9 VMを選択してみます。 デフォルトの設定で[Quick Create VirtualMachines] をクリックします。 数分後、ステータスがRunningであることを確認します。 [Console]タブへ移動し、[Guest login credentials]をクリックしてログイン情報を取得後、コンソールからVMにログインします。「i」キーを押すとinsert modeに入ります。insert modeを抜けるには、「ESC」キーを押します。 コンソールから下記コマンドを実行してパッケージのインストールをします。 $ sudo dnf install nginx ... Complete! コンソールから下記コマンドを実行してNginxを起動します。 $ sudo systemctl start nginx コンソールから下記コマンドを実行してnginxが起動していることを確認します。 $ sudo systemctl status nginx ... Active: active (running) ... VMの外部公開設定 下記コマンドを実行してVMが作成されているプロジェクトに移動します。 $ oc project <プロジェクト名> Now using project "<プロジェクト名>" on server "https://api.<ドメイン>:6443". 下記コマンドを実行し、パラメータシートを参照してServiceのマニフェストファイルを作成します。 $ vi service.yaml apiVersion: v1 kind: Service metadata:   name: vm-service   namespace: vm-tutorial spec:   selector:     kubevirt.io/domain: centos-stream9-moccasin-bandicoot-85 # VM名を指定   ports:     - protocol: TCP       port: 80       targetPort: 80  # Nginxのリッスンポート 下記コマンドを実行してserviceを作成します。 $ oc apply -f service.yaml service/nginx-service created 下記コマンドを実行して作成したserviceを公開します。 $ oc expose service vm-service route.route.openshift.io/vm-service exposed 下記コマンドを実行してrouteが作成されていることを確認します。 $ oc get route NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD vm-service vm-service-vm-tutorial.apps.<ドメイン> vm-service 80 None VMの疎通確認 表示されたホストにアクセスしてnginxの画面が表示されることを確認します。 まとめ 実際にAWS環境のOpenShift上でOCP-Virtを構築し、簡単なVMの作成と外部公開を行ってみました。OCP-VirtはOperaterのインストールを行うことで簡単に仮想化基盤を構築することが出来ました。 次回の記事では同じ仮想化基盤であるSUSE VIrtualizationの紹介をします。 参考文献 https://docs.redhat.com/ja/documentation/openshift_container_platform/4.17/html/virtualization/index https://docs.redhat.com/ja/documentation/red_hat_openshift_data_foundation/4.17/html/deploying_openshift_data_foundation_using_amazon_web_services/index ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post OpenShift Virtualization 構築してみた first appeared on SIOS Tech. Lab .
アバター