ローカルLLM 実行環境
- ローカルLLMの実行環境「LM Studio」と「Ollama」の比較 2025-08-15
- LM Studioの導入 2025-08-15
- LM Studioとは 2025-08-15
最新の投稿
2025年10月08日(水) 18:41:43
「AgentKit」は、OpenAIが提供(発表:2025年10月7日)している、AIエージェント開発の統合ツールのセットです。
その中の「Agent Builder ベータ版」(発表:2025年10月7日)は「AgentKit」の中の一つで、 AIエージェントのビジュアル開発ツールです。
公式サイト:
Introducing AgentKit
Agent Builder
Agent Builder ベータ版・Dify・n8n の簡易比較表
Agent Builder ベータ版では、下図のようなビジュアルなAIのワークフロー構築が可能になっています。
図. Agent ...続きを読む
2025年09月17日(水) 00:22:38
Codex IDE extensionは、OpenAIが提供(リリース:2025年8月27日)している、VS Code等のIDE(統合開発環境)用の拡張機能です。
Codex IDE extensionはコーディングエージェントとして、自然言語による指示で自律的にコードの生成・修正等を行うことができます。
公式サイト:https://developers.openai.com/codex/ide/
Visual Studio Marketplace サイト:https://marketplace.visualstudio.com/items?itemName=openai.chatg ...続きを読む
2025年09月15日(月) 16:06:49
Codex CLIは、OpenAIが提供(リリース:2025年4月)しているコーディング支援ツールです。
公式サイト:https://developers.openai.com/codex/cli
Codex CLIの主な特徴
Codex CLIの主な特徴は下表のような内容になっております。
プログラマー向けのツール
ローカル環境のターミナル(CLI)上で動作する
自然言語を使ってコードの生成や編集ができる
Apache 2.0ライセンスでソースコードがgithub.com/openai/gpt-ossに公開されている
Codex CLIでLM Stud ...続きを読む
2025年09月03日(水) 22:13:50
n8nでLM Studio経由のローカルLLMを設定する場合の手順を紹介いたします。
前提は
ローカル環境(メモリは32GB以上を推奨)にLM Studioをインストールしている。
LM StudioでローカルLLMのモデル「openai/gpt-oss:20b」をインストールしている。
参考記事:LM Studioの導入
n8nをローカル環境で起動している。
n8nでローカルLLMの動作は、デフォルトの状態ですと動作が遅い問題があります。
解決策としましては、当方では
https://github.com/n8n-io/n8n/issues/15263 ...続きを読む
2025年09月03日(水) 18:51:05
n8n(エヌエイトエヌ)は、ドイツの会社n8n GmbHが提供(リリース:2019年10月)している様々な業務プロセスのワークフロー自動化ツールです。
n8nの主な特徴
ノーコードで様々な業務プロセスの自動化設定が可能
多彩な他サービスとの連携が可能
n8nが提供しているクラウド版の他、無料でセルフホスティング版の利用も可能
JavaScriptやPythonを使用した高度な処理も実装可能
ソースコードは公開されているが、オープンソースでは無い。ライセンスは独自の「Sustainable Use License」となっており、商用利用に制限がある。
n ...続きを読む
2025年08月31日(日) 21:40:14
Difyでは、RAG(検索拡張生成:Retrieval-Augmented Generation)を実装する機能が「ナレッジベース機能」として提供されています。
DifyでRAGとして扱えるデータは下記のようになっています。
TXT, MARKDOWN, MDX, PDF, HTML, XLSX, XLS, DOCX, CSV, VTT, PROPERTIES, MD, HTMをサポートしています。1 つあたりの最大サイズは15MB です。
RAG用のデータは、Difyの「ナレッジ」をクリック後の画面で、アップロードして反映させる事ができます。
図. ナレッジで空のナレッジベースを作成 ...続きを読む
2025年08月27日(水) 19:40:21
自社用API・自作APIをDifyと連携を行いたい場合、
主に
1.検索機能を「カスタムツール」として登録し、ノードとして使用する
2.ノードの「HTTPリクエスト」を使用する
の方法が考えられると思います。
「カスタムツール」を使う方法について、下記の簡易検証を行ってみました。
自社用API・自作APIを用意
WordPressで商品情報の管理機能を用意
下図のようにカスタム投稿、カスタムフィールド、アイキャッチ画像等を活用してWordPressで商品情報の管理機能を用意してみました。
図. WordPressで商品情報の管理機能
自社用API・自作API ...続きを読む
2025年08月20日(水) 19:01:54
RAGとは
チャットボットの画面で、独自のデータを与えてそこから回答をさせることができます。
例えば、FAQのテキストが入ったPDFを用意して、チャットボットの回答はそのFAQデータから行わせることができます。
Difyで扱える独自のデータは下記のようになっています。
TXT, MARKDOWN, MDX, PDF, HTML, XLSX, XLS, DOCX, CSV, VTT, PROPERTIES, MD, HTMをサポートしています。1 つあたりの最大サイズは15MB です。
その仕組みは
RAG(検索拡張生成:Retrieval-Augmented Generatio ...続きを読む
2025年08月17日(日) 11:03:50
DifyでLM Studio経由のローカルLLMを設定する場合の手順を紹介いたします。
前提は
ローカル環境(メモリは32GB以上を推奨)にLM Studioをインストールしている。
LM StudioでローカルLLMのモデル「openai/gpt-oss:20b」をインストールしている。
参考記事:LM Studioの導入
Difyをローカル環境で起動している。
としています。
※他のモデルを設定の場合は、モデル名を読み替えていただければと思います。
1.LM Studioをサーバーとして起動
LM Studioを起動して、左メニューの緑色ア ...続きを読む
2025年08月15日(金) 23:54:11
ローカルLLMの実行環境としては、「LM Studio」「Ollama」が有力候補と考えております。
下記の表は当方が2025年8月で想定している「LM Studio」「Ollama」との比較表です。
※mac CPU:Apple Silicon メモリ32GBで確認しました。
比較項目
LM Studio
Ollama
確認バージョン
バージョン:0.3.23
リリース日:2025年8月
バージョン:0.11.4
リリース日:2025年8月
メリット
Ollamaよりもモデル ...続きを読む
2025年08月15日(金) 21:05:17
https://lmstudio.ai/download
の画面でLM Studioのダウンロードを行います。
OSのプルダウンで「macOS」「Windows」「Linux」のいずれかを選択します。
次のrunningで種類を選択します。
※ macOSの場合は「M series」のみ選択可能(Intel版は提供されておりません。)
※ Windowsの場合は「x86」「ARM64(Snapdragon)」が選択可能
macOSの場合は「Download for macOS」のボタンをクリックでダウンロードになります。
Windowsの場合は「Downl ...続きを読む
2025年08月15日(金) 20:34:46
LM Studioは、大規模言語モデル(LLM)をローカル環境で実行できるオープンソースのプラットフォームです。
アメリカの会社「Element Labs」が提供しています。
Mac(Apple Siliconのみ)、Windows、Linuxに対応しており、
https://lmstudio.ai/download
でインストール後は、グラフィカルユーザーインターフェース(GUI)の画面で下記のような機能が使用可能になっています。
ローカルLLMのインストール
チャットとしての利用
サーバーとしての起動とログ表示
関連記事
ローカルLLM ...続きを読む
2025年08月11日(月) 18:15:09
DifyでOllama経由のローカルLLMを設定する場合の手順を紹介いたします。
前提は
ローカル環境(メモリは32GB以上を推奨)にOllamaをインストールしている。
OllamaでローカルLLMのモデル「gpt-oss:20b」をインストールしている。
Difyをローカル環境で起動している。
としています。
※他のモデルを設定の場合は、モデル名を読み替えていただければと思います。
1.Difyの設定画面にアクセス
Difyを起動し、ログインします。
画面右上の プロフィールアイコン をクリックします。
表示されたメニューから 「 ...続きを読む
2025年08月11日(月) 17:04:35
Difyはアメリカの会社LangGenius Inc.が提供(リリース:2023年5月)している、LLMアプリ開発のプラットフォームです。
Difyの主な特徴
ノーコードでLLMアプリの実装が可能
Difyが提供しているクラウド版の他、無料でセルフホスティング版の利用も可能
独自データ(RAG:Retrieval Augmented Generation)に対応したチャットボットの構築が容易に実装が可能
JavaScriptやPythonを使用した高度な処理も実装可能
ソースコードは公開されているが、商用利用(マルチテナントサービスでの商用利用等)に制限があ ...続きを読む
2025年08月11日(月) 16:23:27
ローカルPCのメモリが16GB〜32GBの場合の、当方が考えるローカルLLMの選択候補は下表のようなものがあります。
モデル名
提供会社
インストールサイズ
リリース時期
ライセンス
テキスト対応
マルチモーダル対応
画像生成対応
特徴
gpt-oss:20b
OpenAI
14GB
2025年8月
Apache 2.0 ライセンス
○
×
×
OpenAI o4-mini と同じような性能
gemma3:12b
Google
8.1GB
2025年3月
Gemma Terms of Use
○
...続きを読む
2025年08月11日(月) 14:36:09
Ollama(オラマ)は、大規模言語モデル(LLM)をローカル環境で実行できるオープンソースのプラットフォームです。
アメリカの会社が提供しています。
Mac、Linux、Windowsに対応しており、
https://ollama.com/download
でインストール後は、
コマンドプロンプトで動作をさせることができます。
図. Ollamaのコマンドプロンプトのイメージ
2025年7月30日には、Windows/Mac対応の新しいデスクトップアプリが追加されました。
図. Ollamaのデスクトップアプリ
...続きを読む
2025年08月11日(月) 14:20:01
ローカルLLMとは、自分のPCや社内サーバーなどのローカル環境で動かすことのできる大規模言語モデル(LLM)のことです。
通常はChatGPTのようなAIを使う場合は、インターネット経由で利用する必要があります。
そして利用制限回数を超えた場合は有料になりますが、ローカルLLMを使用した場合はその制約が無い形になります。
ローカルLLMとクラウドLLMの比較
下記の表はローカルLLMとクラウドLLM(ChatGPTなど)との比較表です。
比較項目
ローカルLLM
クラウドLLM
主な例
gpt-oss、gemma3
ChatGPT、Goog ...続きを読む
2025年08月11日(月) 13:42:33
下記の表は、
https://ollama.com/download
でollamaをインストールしたときに使える主なコマンド集です。
macOSの場合:ターミナルを起動
Windowsの場合:PowerShellを起動
の画面で使用します。
実行内容
コマンド
備考
ollamaのバージョン
[copycode]ollama --version[/copycode]
コマンドは「ollama -v」も使用可能。
モデルのインストール
[copycode]ollama pull [モデル名][/copycode]
...続きを読む