ローカル LLM モデル
2025年08月11日(月) 16:23:27
ローカルPCのメモリが16GB〜32GBの場合の、当方が考えるローカルLLMの選択候補は下表のようなものがあります。
モデル名
提供会社
インストールサイズ
リリース時期
ライセンス
テキスト対応
マルチモーダル対応
画像生成対応
特徴
gpt-oss:20b
OpenAI
14GB
2025年8月
Apache 2.0 ライセンス
○
×
×
OpenAI o4-mini と同じような性能
gemma3:12b
Google
8.1GB
2025年3月
Gemma Terms of Use
○
...続きを読む
2025年08月11日(月) 14:20:01
ローカルLLMとは、自分のPCや社内サーバーなどのローカル環境で動かすことのできる大規模言語モデル(LLM)のことです。
通常はChatGPTのようなAIを使う場合は、インターネット経由で利用する必要があります。
そして利用制限回数を超えた場合は有料になりますが、ローカルLLMを使用した場合はその制約が無い形になります。
ローカルLLMとクラウドLLMの比較
下記の表はローカルLLMとクラウドLLM(ChatGPTなど)との比較表です。
比較項目
ローカルLLM
クラウドLLM
主な例
gpt-oss、gemma3
ChatGPT、Goog ...続きを読む