DifyでLM Studio経由のローカルLLMを設定
2025年08月17日(日) 11:03:50
DifyでLM Studio経由のローカルLLMを設定する場合の手順を紹介いたします。
前提は
- ローカル環境(メモリは32GB以上を推奨)にLM Studioをインストールしている。
- LM StudioでローカルLLMのモデル「openai/gpt-oss:20b」をインストールしている。
参考記事:LM Studioの導入 - Difyをローカル環境で起動している。
としています。
※他のモデルを設定の場合は、モデル名を読み替えていただければと思います。
1.LM Studioをサーバーとして起動
- LM Studioを起動して、左メニューの緑色アイコンの「Developer」をクリックします。
画面の上部にAPIサーバー起動用のトグルボタンがあります。図. LM Studioで「Developer」をクリック - サーバー起動用のトグルをクリックします。
トグルがONの状態になって、右側に起動していることを示すサーバーのアドレスが表示されます。図. LM StudioをAPIサーバーとして起動
2.Difyの設定画面にアクセス
- Difyを起動し、ログインします。
- 画面右上の プロフィールアイコン をクリックします。
- 表示されたメニューから 「設定」 を選択します。
図. プロフィールのメニューから 「設定」 を選択 - 左側メニューから 「モデルプロバイダー」 をクリックします。
図. 左側メニューから 「モデルプロバイダー」 をクリック
3.「OpenAI-API-compatible」をモデルプロバイダーとして追加
- 「モデルプロバイダー」画面で 「OpenAI-API-compatible」 を選択します。
図. 「モデルプロバイダー」画面で 「OpenAI-API-compatible」 を選択 ※プラグインの「LM Studio」は存在しているのですが、2025年8月時点ではインストールが失敗しやすく、
Visionの設定(マルチモーダルの有効化)ができない問題があります。
そのため、ここでは別のプラグイン「OpenAI-API-compatible」 の使用としております。図. プラグインの「LM Studio」(2025年8月時点) - 「インストール」ボタンをクリックします。
図. 「インストール」ボタンをクリック
「モデルを追加」ボタンをクリックします。

4.モデルの接続情報を入力して保存
- モデルの接続情報を入力します。
項目 内容 備考 Model Name openai/gpt-oss-20b LM Studioでインストールしたモデル名を入力します。
この例では「openai/gpt-oss-20b」と入力します。
正確なモデル名はLM Studioの「My Models」の画面(インストールしたモデル一覧)で確認します。
参考記事:LM Studioの導入 モデルの追加と確認
API endpoint URL
(dockerでローカル起動の場合)http://host.docker.internal:1234/v1
固定値として反映します。
LM Studioはローカルポート1234でAPIサービスを開始します。
Vision support マルチモーダル対応の場合はSupport 「google/gemma3:4b」「google/gemma3:12b」等の
マルチモーダル(画像分析)対応の場合はSupportにします。Structured Output Support ノードの「出力変数」で構造化出力を使用時に必要になるため、Supportにします。 この表を参考に入力して、「保存」ボタンをクリックします。
図. モデルの接続情報を入力 - 「モデルを表示」をクリックしたときに、設定したモデルが表示されていれば設定は成功です。
図. 設定したモデルを確認
関連記事
Categorys : ローカル LLMとの連携