ローカルLLMの実行環境「LM Studio」と「Ollama」の比較
2025年08月15日(金) 23:54:11
ローカルLLMの実行環境としては、「LM Studio」「Ollama」が有力候補と考えております。
下記の表は当方が2025年8月で想定している「LM Studio」「Ollama」との比較表です。
※mac CPU:Apple Silicon メモリ32GBで確認しました。
比較項目 | LM Studio | Ollama |
確認バージョン |
|
|
メリット |
|
|
デメリット |
|
|
Difyとの連携 [メリット面] |
|
|
Difytとの連携 [デメリット面] |
|
|
ライセンス |
|
|
関連記事
Categorys : ローカルLLM 実行環境