無料〜安価で生成AI|AIエージェント~

メインカテゴリー

最新の投稿

2025年08月17日(日) 11:03:50
DifyでLM Studio経由のローカルLLMを設定する場合の手順を紹介いたします。 前提は ローカル環境(メモリは32GB以上を推奨)にLM Studioをインストールしている。 LM StudioでローカルLLMのモデル「openai/gpt-oss:20b」をインストールしている。 参考記事:LM Studioの導入 Difyをローカル環境で起動している。 としています。 ※他のモデルを設定の場合は、モデル名を読み替えていただければと思います。 1.LM Studioをサーバーとして起動 LM Studioを起動して、左メニューの緑色ア ...続きを読む
2025年08月15日(金) 23:54:11
ローカルLLMの実行環境としては、「LM Studio」「Ollama」が有力候補と考えております。 下記の表は当方が2025年8月で想定している「LM Studio」「Ollama」との比較表です。 ※mac CPU:Apple Silicon メモリ32GBで確認しました。 比較項目 LM Studio Ollama 確認バージョン バージョン:0.3.23 リリース日:2025年8月 バージョン:0.11.4 リリース日:2025年8月 メリット Ollamaよりもモデルの実行速度が早い ...続きを読む
2025年08月15日(金) 21:05:17
インストール後の起動画面が表示されたら、「Get Started →」のボタンをクリックします。 図. 「Get Started →」のボタンをクリック 「Choose Your level」の画面が表示されたら、「Power User」をクリックします。 User, Power User, or Developer この設定は後で切り替えが可能です。 図. 「Power User」をクリック 「Nice! Let's get your first model.」の画面が表示されたら、「Download gpt-oss-20」をクリックします。 OpenA ...続きを読む
Categorys : LM Studio
2025年08月15日(金) 20:34:46
LM Studioは、大規模言語モデル(LLM)をローカル環境で実行できるオープンソースのプラットフォームです。 アメリカの会社「Element Labs」が提供しています。 Mac(Apple Siliconのみ)、Windows、Linuxに対応しており、 https://lmstudio.ai/download でインストール後は、グラフィカルユーザーインターフェース(GUI)の画面で下記のような機能が使用可能になっています。 ローカルLLMのインストール チャットとしての利用 サーバーとしての起動とログ表示 関連記事 ローカルLLM ...続きを読む
Categorys : LM Studio
2025年08月11日(月) 18:15:09
DifyでOllama経由のローカルLLMを設定する場合の手順を紹介いたします。 前提は ローカル環境(メモリは32GB以上を推奨)にOllamaをインストールしている。 OllamaでローカルLLMのモデル「gpt-oss:20b」をインストールしている。 Difyをローカル環境で起動している。 としています。 ※他のモデルを設定の場合は、モデル名を読み替えていただければと思います。 1.Difyの設定画面にアクセス Difyを起動し、ログインします。 画面右上の プロフィールアイコン をクリックします。 表示されたメニューから 「 ...続きを読む
2025年08月11日(月) 17:04:35
Difyはアメリカの会社LangGenius Inc.が提供(リリース:2023年5月)している、LLMアプリ開発のプラットフォームです。 例えば独自データ(RAG:Retrieval Augmented Generation)に対応したチャットボットの構築などができます。 Dify自体について、自分のPCや社内サーバー等に設定することができます。 DifyからOllama経由でローカルLLMを使用することもできます。 関連記事 DifyでOllama経由のローカルLLMを設定 ...続きを読む
Categorys : dify
2025年08月11日(月) 16:23:27
ローカルPCのメモリが16GB〜32GBの場合の、当方が考えるローカルLLMの選択候補は下表のようなものがあります。 モデル名 提供会社 インストールサイズ リリース時期 ライセンス テキスト対応 マルチモーダル対応 画像生成対応 特徴 gpt-oss:20b OpenAI 14GB 2025年8月 Apache 2.0 ライセンス ○ × × OpenAI o4-mini と同じような性能 gemma3:12b Google 8.1GB 2025年3月 Gemma Terms of Use ○ ...続きを読む
Categorys : モデル比較
2025年08月11日(月) 14:36:09
Ollama(オラマ)は、大規模言語モデル(LLM)をローカル環境で実行できるオープンソースのプラットフォームです。 アメリカの会社が提供しています。 Mac、Linux、Windowsに対応しており、 https://ollama.com/download でインストール後は、 コマンドプロンプトで動作をさせることができます。 図. Ollamaのコマンドプロンプトのイメージ 2025年7月30日には、Windows/Mac対応の新しいデスクトップアプリが追加されました。 図. Ollamaのデスクトップアプリ ...続きを読む
Categorys : Ollama
2025年08月11日(月) 14:20:01
ローカルLLMとは、自分のPCや社内サーバーなどのローカル環境で動かすことのできる大規模言語モデル(LLM)のことです。 通常はChatGPTのようなAIを使う場合は、インターネット経由で利用する必要があります。 そして利用制限回数を超えた場合は有料になりますが、ローカルLLMを使用した場合はその制約が無い形になります。 ローカルLLMとクラウドLLMの比較 下記の表はローカルLLMとクラウドLLM(ChatGPTなど)との比較表です。 比較項目 ローカルLLM クラウドLLM 主な例 gpt-oss、gemma3 ChatGPT、Goog ...続きを読む
2025年08月11日(月) 13:42:33
下記の表は、 https://ollama.com/download でollamaをインストールしたときに使える主なコマンド集です。 macOSの場合:ターミナルを起動 Windowsの場合:PowerShellを起動 の画面で使用します。 実行内容 コマンド 備考 ollamaのバージョン [copycode]ollama --version[/copycode] コマンドは「ollama -v」も使用可能。 モデルのインストール [copycode]ollama pull [モデル名][/copycode] ...続きを読む
Categorys : ollamaコマンド