ホーム > ローカルLLM 実行環境 > ローカルLLMの実行環境「LM Studio」と「Ollama」の比較

ローカルLLMの実行環境「LM Studio」と「Ollama」の比較

2025年08月15日(金) 23:54:11

ローカルLLMの実行環境としては、「LM Studio」「Ollama」が有力候補と考えております。
下記の表は当方が2025年8月で想定している「LM Studio」「Ollama」との比較表です。
※mac CPU:Apple Silicon メモリ32GBで確認しました。

比較項目 LM Studio Ollama
確認バージョン
  • バージョン:0.3.23
    リリース日:2025年8月
  • バージョン:0.11.4
  • リリース日:2025年8月
メリット
  • Ollamaよりもモデルの実行速度が早い
デメリット
  • モデルのインストールがうまくいかない場合がある
  • MacのIntel版には非対応
  • LM Studioよりもモデルの実行速度が遅い
  • デスクトップアプリが常駐になる
Difyとの連携
[メリット面]
  • Dify上でのモデルの応答速度がOllamaよりも早く、実用的
  • モデル設定のプラグインは代替の「OpenAI-API-compatible」の使用により、Visionの設定(マルチモーダルの有効化)が可能
  • モデル管理のプラグイン「Ollama」で連携可能
Difytとの連携
[デメリット面]
  • モデル管理のプラグイン「LM Studio」のインストールが失敗しやすく、Visionの設定(マルチモーダルの有効化)ができない。
  • Dify上でのモデルの応答速度が遅めで、モデルによっては実用的ではない
ライセンス
  • MIT License

関連記事