ローカルLLM

TECH

LM StudioでPDFやマニュアルを読み込ませる方法(RAG入門)

LM StudioにPDFやマニュアルを読み込ませ、AIに自分専用の知識を与えるRAGの第一歩を解説。UI操作だけで実現できる最短ルートとして、初学者でも確実に再現できる内容です。
TECH

LM Studioとは何か?

LM Studioは、ローカルPCに自分専用のChatGPT環境を構築できるAIランタイムです。外部依存を減らし、高速かつ私的空間でLLMを運用するための本質を平易に解説します。
TECH

Embedding Gemmaとは何者か ─ RAG以外の応用を探る

LM Studioに追加された「Embedding Gemma」は、チャット用ではなく文章を数値化する埋め込み専用モデルです。RAG以外にもFAQ検索やナレッジ整理など軽量な用途に生きる、その立ち位置を整理します。
HowTo

GTXからRTXまで!GPU活用大全 ─ ローカルLLM、画像生成、動画エンコード活用法

GPUの実力を最大限に活かす方法を徹底解説。ローカルLLMや画像生成、動画エンコード、PyTorch研究用途まで、GTXからRTXまでの実例を交えた活用大全。古いGPU再活用にも最適。
HowTo

Blender MCP × LM Studio × gpt-oss で 自然語3Dグラフィックスに挑戦!

Blender MCP × LM Studio × gpt-ossで自然語3Dに挑戦。シーン構築は可能だが遅い(実測13分)。仕上げはPythonが安定。GPT-5でコード生成→ローカル実行が最速の現実解。
HowTo

LM StudioでContext7 MCPを検証 ─ 自然発火で5Kトークン消費の真実

LM StudioにContext7 MCPを導入し検証。TailwindやNext.jsを題材に、正確さ向上のメリットと自然発火で5Kトークン消費に至る挙動を解説します。
HowTo

軽量RAGの現実解:SQLite-RAG × LM Studio 実践と運用の勘どころ

軽量RAGの代表例「SQLite-RAG」をLM Studioと組み合わせて実践。完全ローカル環境での構築手順から、精度・応答速度の制約、適したユースケースまでを整理する。ベクトルDBとの比較や運用上の勘どころも解説。
HowTo

Gemma 3 270M FP16を旧スマホで試す──“53ms/token”が示す意外な実用性

Gemma 3 270MをFP16でXperia XZ3上で検証。53ms/token(約18.6token/sec)の速度を記録し、短文会話なら待たされない水準に。知識回答はまだ誤りが多いものの、教材モデルから“実用の入口”を示す存在へと進化を体感しました。
TECH

Gemma 3 270Mを試す ─ 超軽量LLMは“お間抜け”でもGoogle戦略の象徴

Gemma 3 270Mは300MB未満で動く超軽量LLM。日本語では復唱や誤答だらけ、英語でも限定的。しかしこの“使えなさ”こそが教材モデルとしての意義であり、GoogleのエッジAI戦略を象徴している。
HowTo

ローカルLLM完全ガイド|Gemma・gpt-oss・LlamaをLM Studioで動かす導入手順まとめ

Gemma・gpt-oss・LlamaをLM Studioで導入するための完全ガイド。初心者向けの環境構築や用語解説から、Reasoning Effort検証・MCP連携など上級者向け応用記事までを体系的に整理。ローカルLLMを始めたい人必見のまとめページ。