ローカル LLM モデル

2025年08月11日(月) 16:23:27
ローカルPCのメモリが16GB〜32GBの場合の、当方が考えるローカルLLMの選択候補は下表のようなものがあります。 モデル名 提供会社 インストールサイズ リリース時期 ライセンス テキスト対応 マルチモーダル対応 画像生成対応 特徴 gpt-oss:20b OpenAI 14GB 2025年8月 Apache 2.0 ライセンス ○ × × OpenAI o4-mini と同じような性能 gemma3:12b Google 8.1GB 2025年3月 Gemma Terms of Use ○ ...続きを読む
Categorys : モデル比較
2025年08月11日(月) 14:20:01
ローカルLLMとは、自分のPCや社内サーバーなどのローカル環境で動かすことのできる大規模言語モデル(LLM)のことです。 通常はChatGPTのようなAIを使う場合は、インターネット経由で利用する必要があります。 そして利用制限回数を超えた場合は有料になりますが、ローカルLLMを使用した場合はその制約が無い形になります。 ローカルLLMとクラウドLLMの比較 下記の表はローカルLLMとクラウドLLM(ChatGPTなど)との比較表です。 比較項目 ローカルLLM クラウドLLM 主な例 gpt-oss、gemma3 ChatGPT、Goog ...続きを読む