ローカルLLMの実行環境「LM Studio」と「Ollama」の比較
ローカルLLMの実行環境としては、「LM Studio」「Ollama」が有力候補と考えております。
下記の表は当方が2025年8月で想定している「LM Studio」「Ollama」との比較表です。
※mac CPU:Apple Silicon メモリ32GBで確認しました。
| 比較項目 | LM Studio | Ollama |
| 確認バージョン |
|
|
| メリット |
|
|
| デメリット |
|
|
| Difyとの連携 [メリット面] |
|
|
| Difytとの連携 [デメリット面] |
|
|
| ライセンス |
|
|
関連記事
Categorys : ローカルLLM 実行環境
