ホーム > AIエージェント > dify > ローカル LLMとの連携 > DifyでLM Studio経由のEmbeddingモデルを設定(RAGで使用)

DifyでLM Studio経由のEmbeddingモデルを設定(RAGで使用)

RAGとは

チャットボットの画面で、独自のデータを与えてそこから回答をさせることができます。
例えば、FAQのテキストが入ったPDFを用意して、チャットボットの回答はそのFAQデータから行わせることができます。

Difyで扱える独自のデータは下記のようになっています。

TXT, MARKDOWN, MDX, PDF, HTML, XLSX, XLS, DOCX, CSV, VTT, PROPERTIES, MD, HTMをサポートしています。1 つあたりの最大サイズは15MB です。

その仕組みは
RAG(検索拡張生成:Retrieval-Augmented Generation)
という技術です。Difyで使えるようになっています。

Embeddingモデルとは

RAGで検索できるようにするためには、独自のデータをLLMが扱いやすい形(数値ベクトル)に変換(ベクトル化)する必要があります。
その変換の仕組みはEmbedding(埋め込み表現)という技術です。
このEmbeddingをする処理は、Embeddingモデルで行うことができます。

LM StudioにEmbeddingモデルを持たせることによって、まずはDifyでEmbeddingモデルの登録をする手順を紹介いたします。
使用するEmbeddingモデルは、定評のあるオープンソースの下記モデルとします。

モデル名:text-embedding-nomic-embed-text-v1.5
提供会社名:Nomic
ライセンス:Apacheライセンスバージョン2.0
https://huggingface.co/nomic-ai/nomic-embed-text-v1.5

1.LM StudioでEmbeddingモデルの存在確認

  • LM Studioを起動して、左メニューの虫眼鏡アイコンの「Discover」をクリックします。
  • 検索窓に
    nomic-ai/nomic-embed-text-v1.5-GGUF

    と入力して検索します。

    図. Embeddingモデルを検索してダウンロードの状況を確認

    Downloaded」の表示の場合は、すでにLM StudioにEmbeddingモデルが入っていることになります。
    Download」の表示の場合は、クリックしてダウンロードを進めます。
    ※当方の環境では、LLMモデルの「gpt-oss-20」「gemma3:12b」等をインストールしていた状態では、すでにインストールされている状態になっておりました。

2.DifyのモデルプロバイダーでEmbeddingモデルを追加

  • Difyを起動し、ログインします。
  • 画面右上の プロフィールアイコン をクリックします。
  • 表示されたメニューから 「設定」 を選択します。
  • 図. プロフィールのメニューから 「設定」 を選択
  • 左側メニューから 「モデルプロバイダー」 をクリックします。
    図. 左側メニューから 「モデルプロバイダー」 をクリック
  • 「OpenAI-API-compatible」の「モデルを追加」をクリックします。
    図. 「OpenAI-API-compatible」の「モデルを追加」をクリック

3.Embeddingモデルの接続情報を入力して保存

  • 項目 選択・入力する内容 備考
    Model Type Text Embedding Embeddingモデルとしての登録になるので、「Text Embedding」が選択された状態にします。
    Model Name
    text-embedding-nomic-embed-text-v1.5
    API endpoint URL
    (dockerでローカル起動の場合)
    http://host.docker.internal:1234/v1
    固定値として反映します。
    LM Studioはローカルポート1234でAPIサービスを開始します。

    この表を参考に入力して、「保存」ボタンをクリックします。

    図. モデルの接続情報を入力
  • 「モデルを表示」をクリックしたときに、設定したモデルが表示されていれば設定は成功です。

    図. 設定したモデルを確認