LM STUDIO

TECH

激速!Qwen 3-VL-4B ─ ローカルLLM4モデル横断で見えたコーディング能力の性格差

ローカルLLM4モデル(Qwen 3-VL-4B/Hermes 4-14B/Gemma 3n-E4B/GPT-OSS-20B)の同一タスク実測から、コーディング能力と出力傾向を比較。Qwenの“待たせない速さ”、GemmaとGPT-OSSの堅牢性、Hermesの中庸バランスを実測で可視化する。
TECH

Qwen 3-VL-4B は Gemma 3-E4B の5倍速 ― ローカルLLMが変わる「思考速度」の衝撃

Qwen 3-VL-4B は 68.41tok/sec、Gemma 3-E4B の5倍速。単なる出力性能ではなく、「思考のテンポ」が実務を変える瞬間を検証。
TECH

AIが自動でWordPress下書きを生成するNextcloudとLM Studioを連携した“自走メディア運用”の構築法

Nextcloudに自動蓄積されたAIナレッジを、n8nとLM Studio経由でWordPress下書きに直結。人間は公開判断だけで済む“自走メディア運用”の最短ルートを解説。
TECH

Nextcloudで“自宅AIナレッジベース”を完成させるyt-dlp × DINO × LM Studio の出力を完全ローカルに蓄積する方法

yt-dlp × DINO × LM Studioで抽出した知識を、クラウドに預けずNextcloudへ集約。完全ローカルで“自走型AIナレッジベース”を構築する具体的な統合方法を解説します。
TECH

LM Studioで“AI自動要約”まで完結させるyt-dlp × DINO の後段をローカルLLMで強化する方法

yt-dlpとDINOで取得した動画データを、LM StudioでAI自動要約まで完結させる手法を解説。API不要・完全ローカルで自走型AIナレッジ基盤を構築する。
HowTo

AIアプリ構築シリーズ

AIを“使う側”ではなく“仕組みに組み込む側”へ――。情報漏洩ゼロ・API費用ゼロで導入可能な「AIアプリ構築シリーズ」。LM Studioを軸に、RAG・API連携・自動化までを最短ルートで解説します。
TECH

AIが先に動く ― LM Studio × 自動化(プロアクティブ運用の最短ルート)

「AIに頼む」から一歩進んで、AIが先に動いて“用意しておく” 世界へ。ここでは、LM Studioを トリガー(合図)→ ポリシー(判断)→ アクション(実行) の3レイヤで自動化し、人間が触る前に下ごしらえが終わる状態を作ります。いまの...
TECH

具体的にPythonやWordPressにAPI接続する最短コード例

LM Studio APIをPython・WordPressから即実行するための最短コードを掲載。OpenAI互換のまま使えるため、ChatGPT運用からの移行や並行利用にも迷いなく導入できます。
TECH

LM StudioをAPIサーバー化し、“自分専用ChatGPT API” をPCから立ち上げる方法

M StudioをAPIサーバーとして立ち上げれば、ChatGPT同様のAPIを自宅PCから直接叩けます。セキュアで高速な“完全なる私有AI”を実装するための、設定から起動までの流れを解説。
TECH

RAG精度を一気に高める ― PDFをただ読み込ませるだけでは不十分な理由と、“分割設計” の最適ルール

RAGの精度を左右するのは「PDFを読み込ませたか」より、「どう区切って前処理したか」。LM Studioで活かせるチャンク分割設計の最適基準を、具体例と共に実戦的に示します。