ホーム > ローカル LLM モデル > ローカル LLMとは

ローカル LLMとは

2025年08月11日(月) 14:20:01

ローカルLLMとは、自分のPCや社内サーバーなどのローカル環境で動かすことのできる大規模言語モデル(LLM)のことです。

通常はChatGPTのようなAIを使う場合は、インターネット経由で利用する必要があります。
そして利用制限回数を超えた場合は有料になりますが、ローカルLLMを使用した場合はその制約が無い形になります。

ローカルLLMとクラウドLLMの比較

下記の表はローカルLLMとクラウドLLM(ChatGPTなど)との比較表です。

比較項目 ローカルLLM クラウドLLM
主な例 gpt-oss、gemma3 ChatGPT、Google Gemini、Claude
動作場所 ・手元のPC。
・ローカル環境扱いのサーバー。
・外部サーバー。
・サービス提供者のクラウドサーバー。
データ処理 ・ローカルで完結する。 ・外部に送信される。
セキュリティ ・非常に高い。 ・提供元に依存する。
・プライバシーリスクはゼロではない。
インターネット接続 ・不要。
※利用ケースによっては必要。
・必須。
カスタマイズ性 ・自由度は高い。 ・提供者による。
・スケールが大きいシステムに向くケースが多い。
パフォーマンス ・ハードウェア性能に依存する。
・処理が重くなりすぎると反応しなくなる場合がある。
・安定している。(大規模なサーバー群で動作)
・稀に障害が発生すると使用できなくなる。
ハードウェア要件 ・高い。高性能なGPU、CPU、大容量メモリが必須。 ・低い。一般的なPCやスマートフォンで利用可能。
コスト ・無料で利用可能。 ・制限付きで無料のケースが多い。
・利用制限を緩和する場合は有料になる。