ホーム > AIエージェント > dify > ローカル LLMとの連携 > DifyでLM Studio経由のローカルLLMを設定

DifyでLM Studio経由のローカルLLMを設定

2025年08月17日(日) 11:03:50

DifyでLM Studio経由のローカルLLMを設定する場合の手順を紹介いたします。

前提は

  • ローカル環境(メモリは32GB以上を推奨)にLM Studioをインストールしている。
  • LM StudioでローカルLLMのモデル「openai/gpt-oss:20b」をインストールしている。
    参考記事:LM Studioの導入
  • Difyをローカル環境で起動している。

としています。
※他のモデルを設定の場合は、モデル名を読み替えていただければと思います。

1.LM Studioをサーバーとして起動

  • LM Studioを起動して、左メニューの緑色アイコンの「Developer」をクリックします。
    画面の上部にAPIサーバー起動用のトグルボタンがあります。

    図. LM Studioで「Developer」をクリック
  • サーバー起動用のトグルをクリックします。
    トグルがONの状態になって、右側に起動していることを示すサーバーのアドレスが表示されます。

    図. LM StudioをAPIサーバーとして起動

2.Difyの設定画面にアクセス

  • Difyを起動し、ログインします。
  • 画面右上の プロフィールアイコン をクリックします。
  • 表示されたメニューから 「設定」 を選択します。
    図. プロフィールのメニューから 「設定」 を選択
  • 左側メニューから 「モデルプロバイダー」 をクリックします。
    図. 左側メニューから 「モデルプロバイダー」 をクリック

3.「OpenAI-API-compatible」をモデルプロバイダーとして追加

  • 「モデルプロバイダー」画面で 「OpenAI-API-compatible」 を選択します。
    図. 「モデルプロバイダー」画面で 「OpenAI-API-compatible」 を選択

    ※プラグインの「LM Studio」は存在しているのですが、2025年8月時点ではインストールが失敗しやすく、
    Visionの設定(マルチモーダルの有効化)ができない問題があります。
    そのため、ここでは別のプラグイン「OpenAI-API-compatible」 の使用としております。

    図. プラグインの「LM Studio」(2025年8月時点)
  • 「インストール」ボタンをクリックします。
    図. 「インストール」ボタンをクリック
  • 「モデルを追加」ボタンをクリックします。

    図. 「モデルを追加」ボタンをクリック

4.モデルの接続情報を入力して保存

  • モデルの接続情報を入力します。
    項目 内容 備考
    Model Name openai/gpt-oss-20b LM Studioでインストールしたモデル名を入力します。
    この例では「openai/gpt-oss-20b」と入力します。
    正確なモデル名はLM Studioの「My Models」の画面(インストールしたモデル一覧)で確認します。
    参考記事:LM Studioの導入 モデルの追加と確認
    API endpoint URL
    (dockerでローカル起動の場合)
    http://host.docker.internal:1234/v1
    固定値として反映します。
    LM Studioはローカルポート1234でAPIサービスを開始します。
    Vision support マルチモーダル対応の場合はSupport 「google/gemma3:4b」「google/gemma3:12b」等の
    マルチモーダル(画像分析)対応の場合はSupportにします。
    Structured Output Support ノードの「出力変数」で構造化出力を使用時に必要になるため、Supportにします。

    この表を参考に入力して、「保存」ボタンをクリックします。

    図. モデルの接続情報を入力
  • 「モデルを表示」をクリックしたときに、設定したモデルが表示されていれば設定は成功です。
    図. 設定したモデルを確認

関連記事